Kategorien
Analysen

Der CIO in der OpenStack Falle!

OpenStack hat sich zum wichtigsten Open-Source Projekt für Cloud-Infrastrukturlösungen entwickelt. Seit dem Jahr 2010 haben sich hunderte von Unternehmen beteiligt, um ein offenes, standardisiertes und vielseitiges Technologie-Framework zu entwickeln, welches für die Verwaltung von Rechen-, Speicher- und Netzwerkressourcen in Public, Private und Hybrid Cloud Umgebungen eingesetzt werden kann. Obgleich es sich bei OpenStack um eine Open-Source Lösung handelt, impliziert es nicht, dass die Einrichtung, der Betrieb und die Wartung einfach zu handhaben sind. OpenStack kann sich wie eine wahre Bestie verhalten. Eine Reihe von CIOs, die selbst entwickelte OpenStack-Infrastrukturen betreiben, berichten vom signifikanten Ansteigen von Kosten und der Komplexität. Um OpenStack an ihre individuellen Anforderungen anzupassen haben sie zahlreiche Feinabstimmungen vorgenommen. Dadurch haben sie OpenStack-Implementierungen entwickelt, die nicht mehr kompatibel zu aktuellen Releases sind. Das führt zu der Frage, ob eine “Build”- oder “Buy”-Strategie der richtige Ansatz ist, um OpenStack in der unternehmenseigenen IT-Umgebung einzusetzen.

OpenStack nimmt Fahrt auf

OpenStack hat sich schnell zu einer maßgeblichen Größe im Cloud-Infrastruktur-Business entwickelt. Im Jahr 2010 als kleines Open Source-Projekt gestartet, wird die Lösung mittlerweile von mehreren hundert Unternehmen und Organisationen eingesetzt. Darunter zahlreiche große Unternehmen (PayPal, Wells Fargo, Deutsche Telekom) sowie innovative Cloud Startups und Entwickler. In den Anfangszeiten wurde OpenStack von seinen Initiatoren maßgeblich dazu benutzt, um eigene, teils proprietäre Cloud-Umgebungen aufzubauen. Mehr als 850 Unternehmen unterstützen das Projekt, darunter IBM, Oracle, Red Hat, Cisco, Dell, Canonical, HP und Ericsson.

Neben der stetigen Verbesserung der Technologie steigt ebenfalls die Adaptionsrate bei den Unternehmenskunden kontinuierlich an. Dies zeigt sich im weltweiten Wachstum der OpenStack-Projekte (Steigerung von Q1 auf Q2/2014 um 60 Prozent). Hierbei sind On-Premise Private Clouds das bevorzugte Deployment-Modell. Im Q1/2014 zählte die OpenStack Foundation weltweit 55 Private Cloud-Installationen weltweit. Im Q2 sind es bereits 85. Ebenfalls wuchs die Anzahl der weltweiten OpenStack Public Clouds von 17 auf 29 an. Für die kommenden 12 Monate erwartet Crisp Research ein 25 prozentiges Wachstum OpenStack-basierter Enterprise Private Clouds.

Anmerkung: Im Rahmen einer Studie erhebt Crisp Research derzeit Daten und Fakten zum OpenStack-Einsatz in deutschsprachigen Unternehmen. Die Studienergebnisse werden im Q4/2014 veröffentlicht.

OpenStack: Make oder Buy?

OpenStack bietet Möglichkeiten, Umgebungen in Verbindung mit einer großen Vielfalt von anderen Open-Source Technologien zu betreiben und gleichzeitig kosteneffizient zu sein (keine oder nur geringe Lizenzkosten). Allerdings steigt dass Komplexitätslevel damit dramatisch an. Auch wenn CIOs dazu tendieren, OpenStack nur als Cloud-Management Schicht einzusetzen, entsteht dennoch ein hoher Komplexitätsgrad den es zu verwalten gilt. Den meisten OpenStack-Einsteigern ist nicht bewusst, dass man an „über 500 Knöpfen drehen kann“ um OpenStack-Clouds richtig zu konfigurieren.

Die Kernfrage für die meisten Unternehmen, die von OpenStack profitieren wollen ist daher: Build oder Buy!

Crisp Research_OpenStack_Diy or Buy

Während der Vorbereitung und Evaluierung der „Build oder Buy“-Entscheidung, sollten Unternehmen unbedingt berücksichtigen, über welche Erfahrungen und technische Kenntnisse sie im Hinblick auf OpenStack verfügen. IT-Entscheider sollten ihre internen Fähigkeiten kritisch hinterfragen sowie ihre Anforderungen klar definieren, um sie dann den Angeboten der sogenannten „OpenStack-Distributoren“ gegenüberzustellen. Analog zum Linux-Business bieten OpenStack-Distributoren fertig paketierte OpenStack-Varianten inklusive Support und meist auch Integrationsdienstleistungen an. Dies reduziert das Implementierungsrisiko und beschleunigt meist die Umsetzung des Projektes.

Der CIO ist gefragt

Seit geraumer Zeit sind CIOs und Cloud-Architekten dabei, die Frage zu beantworten, wie sie ihre Cloud-Umgebungen für den Unternehmenseinsatz idealerweise aufbauen sollten. Nachdem die letzten Jahren unter dem Motto „Trial and Error“ standen und der Großteil der Cloud-Infrastrukturen einen explorativen Charakter besaß, geht es nun mehr darum, großvolumige Projekte für den produktiven Betrieb umzusetzen.

Dies wirft die Frage auf, welches Cloud-Design das Richtige ist, mit dem IT-Architekten ihre Cloud-Umgebungen planen. Crisp Research rät, moderne und nachhaltige Cloud-Umgebungen auf den Grundsätzen der Offenheit, Zuverlässigkeit und Effizienz aufzubauen. Speziell in den Bereichen Offenheit und Effizienz leistet OpenStack einen signifikanten Beitrag.

Der vollständige Analyst Report „Der CIO im OpenStack Dilemma: BUY oder DIY?“ kann unter http://www.crisp-research.com/report-der-cio-im-openstack-dilemma-buy-oder-diy/  kostenlos heruntergeladen werden.

Kategorien
Analysen

Public PaaS in Deutschland: Warum cloudControl in die USA zieht

Docker Inc. trennt sich von seinem Platform-as-a-Service (PaaS) Sorgenkind dotCloud und verkauft dieses an cloudControl Inc. dem US-amerikanischen Ableger der cloudControl GmbH aus Berlin. 

Kategorien
Analysen

Docker: Multi-Cloud Deployments werden Realität

Die Zeiten in denen Software auf lokalen Maschinen programmiert und isoliert in abgeschirmten Firmennetzwerken betrieben wurde sind längst vorbei. Im Cloud-Zeitalter steigt der Wert eines Software-Dienstes mit dessen Vernetzungs- und Verbreitungsgrad. Dies hat fundamentale Auswirkungen auf die Art und Weise wie Anwendungen heute entwickelt, getestet und betrieben werden. Ausfallsicherheit und Business Continuity sind in diesem Kontext nur zwei Schlagworte, die es dabei zu berücksichtigen gilt.

Kategorien
Analysen

Disaster Recovery: Kein Grund mehr für Ausreden!

Das Thema Disaster Recovery spielt im deutschen Mittelstand nur eine untergeordnete Rolle. Diese fahrlässige Haltung kann sich in einem Bruchteil von Sekunden geschäftsschädigend auswirken. Dabei bieten neue Betriebsmodelle aus dem Cloud-Zeitalter keinen Grund mehr für Ausreden.

An einer Disaster Recovery Strategie führt kein Weg mehr vorbei

Der Tsunami der digitalen Transformation wird auch deutsche Unternehmen mit voller Wucht treffen. Wann die Hauptwelle einschlagen wird ist individuell zu betrachten und nicht zu 100 Prozent vorhersagbar. Eines ist allerdings sicher, die Cloud-, Social-, Mobile- und Big Data Beben sind allgegenwärtig und die ersten Ausläufer sind bereits angekommen. Insbesondere der Mittelstand wird die harte Realität zu spüren bekommen. Da er oft nicht in der Lage ist, die Verfügbarkeit seiner geschäftskritischen IT-Services und Applikationen auf einem dafür notwendigem hohem Niveau sicherzustellen.

Sicherheits- und Notfallkonzepte gelten in Unternehmen weitläufig immer noch als lästige und teure Präventionsmaßnahmen, um die geschäftskritischen digitalen Assets zu schützen und das Unternehmen in Ausnahmesituationen am Leben zu erhalten. Erst wenn das Kind in den Brunnen gefallen ist, werden alle Mittel und Wege in Bewegung gesetzt, um die entsprechenden Bergungs- und lebensrettenden Maßnahmen einzuleiten. Dann ist es jedoch meistens zu spät und der Überlebenskampf beginnt. Technische Mängel und durch menschliche Fehler verursachte Mängel an IT-Systemen führen dann zur Ratlosigkeit, wodurch die IT-Infrastruktur vielmals erst nach einem längeren Stillstand wieder im produktiven Betrieb ist. Damit kann der Geschäftsbetrieb über mehrere Tage beeinträchtigt sein und zu hohen internen Kosten als auch substantiellen Imageschäden führen. Das ist fatal und zugleich ein fahrlässiges Verhalten. Heute kann es sich kein Unternehmen mehr leisten, seine Partner, Lieferanten oder Kunden über einen längeren Zeitraum nicht auf die eigene IT-Infrastruktur zugreifen zu lassen.

Wer nun die Schuldigen alleine in den IT-Abteilungen der Unternehmen sucht, der ist auf der falschen Hierarchieebene unterwegs. Administratoren und CIOs haben das Thema auf der Agenda, stehen aber mit dem Rücken zur Wand. Zum einen sind sie handlungsunfähig, da ihnen keine Budgets zur Verfügung stehen, zum anderen halten sie den Kopf hin, wenn der Katastrophenfall eintritt. Der in der IT viel diskutierte ROI ist im Fall von Disaster Recovery Szenarien einfach nicht messbar genug und genießt auf der Entscheider-Ebene eine zu geringe Priorität. Dadurch werden nicht ausreichend Budgets für eine echte Disaster Recovery Strategie bereitgestellt. Gleichzeitig sind Notfallpläne auf Basis eines klassischen Backup-Rechenzentrum Ansatzes sehr komplex sowie kosten- und zeitintensiv.

Eine weitere Herausforderung besteht auf Architekturebene. Cloud-Modelle verändern die Art und Weise wie Applikationen entwickelt, betrieben und bereitgestellt werden. Bereits heute werden Anwendungen nicht mehr nur auf der eigenen on-Premise Infrastruktur betrieben, sondern befinden sich in einem hybriden Modell verteilt bei einem oder mehreren Cloud- oder Hosting-Anbietern. Das Multi-Cloud Konzept ist allgegenwärtiger als man vermutet. Dieser Trend wird sich in den kommenden Jahren weiter verstärken und einen direkten Einfluss auf Disaster Recovery Szenarien haben, um die Informationen und Applikationen im Katastrophenfall ohne Zeit- und Datenverlust wiederherzustellen.

Von der Hardware zum Service: Die Metamorphose des Disaster Recovery

Derzeit fließt der Großteil des IT-Budgets von Unternehmen in Speicher- und Serversysteme sowie Softwarelösungen, um darüber ebenfalls eigene Backup-Konzepte zu realisieren. Heutige Ansätze sehen in den meisten Fällen keine Maßnahmen für eine 24×7 Wiederherstellung von Daten und Systemen vor und beinhalten maximal einfache Backup- und RAID-Architekturen. Umfangreiche Disaster Recovery Szenarien sind sehr komplex. Das wird sich in den kommenden Jahren, durch hybride Applikationsarchitekturen und einer verteilten Datenhaltung, weiter verstärken.

Diese Entwicklung wird mittelfristig auch in den Unternehmen Einzug erhalten, was sich auf das Ausgabenverhältnis für Hard- und Software sowie Services und Audits auswirken wird. Crisp Research sieht vom Jahr 2014 auf das Jahr 2018 eine maßgebliche Verschiebung der Kostenblöcke für IT-Ressourcen in diesen Produktkategorien.

Disaster-Recovery_Resource_Ausgaben

Die Verschiebung der Kostenstruktur erklärt sich durch

• Neue Betriebsmodelle (bspw. Cloud Computing)
• Virtualisierung
• Standardisierung
• Converged Infrastructure

Auf Basis dieser Einflüsse lassen sich neue Betriebskonzepte aufbauen und Unternehmen einfacher und kostengünstiger auf einem Niveau bereitstellen, wie es sich sonst nur große Unternehmenskunden leisten können. Dies führt allerdings dazu, dass in den kommenden Jahren die Investitionen in Technologien (Hardware/ Software) deutlich abnehmen und diese sich auf die anderen Bereiche aufteilen werden. Dadurch erhöhen sie sich die Ausgaben für Services (Cloud- und Managed-Services) als auch im Bereich Audits/ Compliance. Insbesondere Audits werden eine höhere Bedeutung gewinnen. Das liegt zum einen an der sich ständig verändernden Gesetzlage, um die Compliance-Richtlinien zu erfüllen. Zum anderen an dem wachsenden Aufwand, die Disaster Recovery Anbieter hinsichtlich der Einhaltung gesetzlicher Vorgaben (Speicherfristen, rechtskonforme Datenhaltung usw.) zu kontrollieren.

Anforderungen des Mittelstands an moderne Disaster Recovery Lösungen

Der Bereich von Disaster Recovery Lösungen entwickelt sich kontinuierlich. Hierbei stechen drei Anforderungen heraus, die den Markt nachhaltig beeinflussen werden:

1. Kosteneffizienz
Die Ausgaben für Technologien müssen signifikant sinken, um eine Kostenreduktion zu erzielen und andere Disaster Recovery Bereiche (Services, Audits) kosteneffizient zu nutzen. In diesem Zusammenhang sollten ebenfalls die Einsparungen für die Wartung der physikalischen Ressourcen berücksichtigt werden. Die Disaster Recovery Lösung wird entweder als Service genutzt, wodurch sich die Systeme überwiegend auf der Seite der Anbieter befinden. Auf der Kundenseite stehen nur noch marginal benötigte konsolidierte Hardware-/ Software-Ressourcen.

2. Reduzierung der Komplexität
Maßnahmen für eine Disaster Recovery Strategie sind hinsichtlich der Implementierung, dem Betrieb und der Wartung der Infrastruktur aufwändig und komplex. Darüber hinaus wird die Komplexität durch neue Cloud- und Architektur-Konzepte ansteigen, um die DNA und die 24/7 Verfügbarkeit verteilter Daten und Applikationen zu berücksichtigen.

Neue Disaster Recovery Lösungen sollen die Komplexität auf der Kundenseite reduzieren, indem sich die maßgeblichen Aufgaben auf die Seite der Anbieter verlagern bzw. sich in on-Premise Appliances kapseln.

3. Standortübergreifende Disaster Recovery Szenarien
Neue Betriebsmodelle für Produktivumgebungen erfordern für mittelständische Unternehmen ein Umdenken beim Aufbau von Disaster Recovery Szenarien. Durch den Einsatz von Hybrid-/ Multi-Cloud Infrastrukturen, Cloud-Services und der Nutzung von Co-Locations, muss parallel die DNA für den Katastrophenfall angepasst werden, um geschäftskritische Applikationen und Daten ausfallsicher zu betreiben.

Nur damit lässt sich die Konsistenz aller produktiven Systeme über den gesamten Lebenszyklus hinweg erhalten und aktuelle und zukünftige Geschäftsprozesse optimal schützen.

Zwei unterschiedliche Ansätze für Disaster Recovery Lösungen

Der Markt für Disaster Recovery Angebote wächst kontinuierlich. Unternehmen können aus unterschiedlichen Ansätzen und Lösungen wählen. Zwei Anbieter, welche dieses Marktsegment mit unterschiedlichen Ansätzen für bestimmte Bedürfnisse abdecken sind die Claranet GmbH und die DTS Systeme GmbH.

Unternehmen die ihren Hauptfokus auf das Backup von Daten und Systemen legen, finden bei DTS eine Lösung. Der deutsche Systemintegrator setzt auf die Continuous Data Protector (CDP) Technologie von FalconStor. Eine festplattenbasierte Backup und Disaster Recovery Lösung, mit welcher sich die Daten der Produktivsysteme kontinuierlich sichern lassen, anstatt konkrete Backupfenster zu definieren. Im Fehlerfall lässt sich ein konsistenter Zustand der Daten wiederherstellen und ebenfalls im laufenden Betrieb auf ältere Datenstände einzelner Dateien zurückgreifen.

Wer sein Hauptaugenmerk konkret auf eine Disaster Recovery Strategie legt, der wird bei Claranet fündig. Der europäische Managed-Services Anbieter setzt auf einen Disaster Recovery-as-a-Service (DRaaS) Ansatz und hat sich hierzu für die Virtual Computing Platform von Nutanix entschieden, mit der sich nahtlos integrierte und hybride End-to-End Lösungen zwischen der Kundeninfrastruktur und dem Claranet Rechenzentrum aufbauen lassen.

Fahren Sie lieber mit Ersatzreifen an Bord

Eine Disaster Recovery Strategie ist vergleichbar mit dem Ersatzreifen an ihrem Auto. Im Regelfall benötigen Sie diesen nicht. Aber wenn Sie dann mitten auf der Autobahn liegen bleiben, im Regen…

Mit der wachsenden Bedeutung der digitalen Ökonomie und der steigenden Zunahme des Digitalisierungsgrads, kann es sich kein Unternehmen mehr leisten, auf ein Disaster Recovery zu verzichten. Die Bereitstellung von Services und Anwendungen in Echtzeit sowie die zunehmend steigenden Anforderungen, die Ausfallsicherheit und so kurze Wiederherstellungszeiten wie möglich zu garantieren, sind die maßgeblichen Treiber hinter dieser Entwicklung. Eine Disaster Recovery Strategie muss daher zwangsläufig Teil der Geschäftsstrategie sein und eine hohe Priorität auf Geschäftsführungsebene erhalten.

Moderne Disaster Recovery Lösungen führen Unternehmen in Verlegenheit, sich nicht mehr hinter Ausreden zu verstecken und somit auf ein automatisiertes Notfallmanagement zu verzichten. Mit einem klar kalkulierbaren Aufwand und geringer Komplexität können auch kleine und mittelständische Unternehmen dasselbe Disaster Recovery Niveau erhalten wie es sonst nur großen Konzernen vorbehalten ist, und das zu verträglichen Kosten.

Moderne Disaster Recovery-as-a-Service Lösungen werden in Zukunft immer mehr Unternehmen dabei unterstützen, kostengünstig und mit geringem Aufwand eine Disaster Recovery Strategie technologisch umzusetzen. Hierzu bietet der Markt mittlerweile eine Vielzahl unterschiedlicher Ansätze und Lösungen für unterschiedliche Bedürfnisse und Anforderungen.

Mehr Informationen zum Thema Disaster Recovery finden Sie im folgenden White Paper „Disaster Recovery-as-a-Service für den Mittelstand“.

Kategorien
Analysen

Neues White Paper von Crisp Research: Disaster-Recovery-as-a-Service für den Mittelstand

Tagtäglich bekommen Unternehmen den Einfluss des digitalen Wandels zu spüren. Ohne eine angemessene Verfügbarkeit von IT-Services und den stetigen Zugriff auf Daten und Informationen lässt sich in der heutigen Zeit kein moderner Geschäftsbetrieb mehr realisieren.

Trotz dieser Tatsache investieren nur wenige deutsche Unternehmen in ein akzeptables Risiko- und Notfallmanagement, um ihre Geschäftsprozesse auch im Ausnahmefall stabil zu betreiben oder in kurzer Zeit wieder auf Normalniveau reaktivieren zu können. Die tägliche Sicherung von Daten hat sich in den letzten Jahren in den meisten Unternehmen etabliert. Ob und wie sich die Daten im Ernstfall wiederherstellen lassen, bleibt allerdings vielfach offen.

Welche Herausforderungen und Strategien ein Unternehmen bei dem Aufbau hybrider Disaster-Recovery Infrastrukturen berücksichtigen sollten, wurde von Crisp Research im Auftrag von Claranet mit dem White Paper „Disaster-Recovery-as-a-Service für den Mittelstand“ herausgearbeitet.

Das White Paper kann kostenlos unter http://www.claranet.de/DRaaS heruntergeladen werden.

DRaaS-White-Paper

Kategorien
Analysen

Internet of Things: Der Einfluss auf den CIO

Im Jahr 2025 werden geschätzte 30 Milliarden untereinander vernetzter Geräte im Umlauf sein. Das Internet of Things, der durch die Technologie getriebene Trend, bietet zahlreiche Möglichkeiten für CIOs, um neue IT-gestützte Geschäftsfelder zu erschließen.

Der Aufbau eines vollständig miteinander vernetzten Systems global verteilter Rechnersysteme, Sensoren und zahlreicher Endgeräte, die alle untereinander über das Internet kommunizieren, ist in vollem Gange. Dieser Wandel wird einen direkten Einfluss darauf haben, wie sich unser Leben in Zukunft verändern wird und erst dadurch sämtliche Potentiale des digitalen Unternehmens offenbaren.

Das Internet of Things ist Teil des digitalen Unternehmens

Das Internet of Things (IoT) steht für die Vernetzung physischer Objekte, zu denen neben uns Menschen ebenfalls weitere Dinge wie Sensoren, Haushaltsgegenstände, Autos, Industrieanlagen usw. gehören. Das IoT schließt die Brücke zwischen der digitalen und analogen Welt, indem eine maximale Vernetzung und einem möglichst großen Informationsaustausch angestrebt wird.

Die großflächige Verbreitung, Annahme und Adaption des IoT wird noch einige Zeit benötigen, wird aber zu einem ähnlich großen Wandel beitragen, wie es das Cloud Computing seit einigen Jahren vorlebt. Crisp Research geht davon aus, dass im Jahr 2025 etwa 30 Milliarden untereinander vernetzter Geräte auf dem Markt sein werden. Bis zum Jahr 2016 wird für Deutschland ein Marktvolumen von 366 Millionen Euro (5 Milliarden Euro weltweit) für IoT Ausrüstung (Sensoren und Netzwerke) erwartet. Dieser Trend wird sehr schnell zu einem entscheidenden Faktor für die zukünftige Wettbewerbsfähigkeit von Unternehmen werden, die gleichzeitig mit den dafür notwendigen Technologien in den Ring steigen müssen.

Die Welt der Daten

Es existieren bereits einige Unternehmen, welche die Echtzeit-Analyse nutzen, um Trends in Daten zu identifizieren und darauf zu reagieren. Dazu gehört bspw. das bessere Verständnis der Kunden in Echtzeit, um ihnen aktuelle, auf sie zugeschnittene Angebote direkt auf ihr Smartphone oder Wearable zu schicken, die exakt zu dem aktuellen Kontext ihrer Aktivitäten passen. Weitere Anwendungsfälle finden sich in den Bereichen Transport und Logistik und wie das IoT dabei hilft die Ankunftszeit von Lieferungen zu optimieren sowie die CO2-Bilanz anhand der Nutzung von Datenmustern zu verbessern.

Ein gutes Beispiel für ein innovatives IoT Unternehmen ist digitalSTROM. Der Anbieter von Smart Home Technologien aus der Schweiz hat eine intelligente Hausvernetzung entwickelt, mit der sich anhand von Smartphone Apps mit den jeweiligen Geräten im Haus über die Stromleitung kommunizieren lässt. Basis hierfür stellen Lego-artige Bausteine dar, über die jeder angeschlossene Verbraucher angesprochen werden kann. Die Intelligenz eines jeden Endgeräts steckt dabei in einem Baustein. Als technologische Basis setzt digitalSTROM auf  die Azure Cloud Infrastruktur von Microsoft.

Die Einsatzmöglichkeiten des Internet of Things sind unbegrenzt

Die grundsätzlichen Einsatzbereiche und Möglichkeiten des Internet of Things sind nahezu unbegrenzt. Für die kommenden drei Jahre sieht Crisp Research vier wichtige Bereiche auf die das IoT einen erheblichen Einfluss nehmen wird:

  • Eine Verbesserung des Marketings durch die intensivere Überwachung des Verhaltens der Menschen, Dinge und Daten auf Basis der Analyse von Zeit und dem Ort, an dem sich die Objekte aufhalten. Hierzu gehören bspw. die ortsbezogene Werbung und die Auswertung des Kaufverhaltens über unterschiedliche Geschäfte hinweg.
  • Die Verbesserung der Reaktion auf bestimmte Situationen in Echtzeit. Hierzu gehören zum Beispiel die Steuerung von Transportwegen anhand unterschiedlicher Variablen wie das Wetter und dem Benzinverbrauch aber ebenfalls weichere Faktoren wie mögliche Gefahren.
  • Unterstützung bei der Entscheidungsfindung durch Sensor-basierte Analysen anhand von tiefergreifenden Analysen, bspw. für die ständige Überwachung von Patienten für eine bessere Behandlung.
  • Einen höheren Automatisierungsgrad und eine bessere Kontrolle zur Optimierung von Prozessen und der Ressourcennutzung (z.B. Smart Metering) sowie für Risikomanagementsysteme.

CIOs dürfen das Internet of Things keinesfalls unterschätzen

Das Internet of Things löst bestehende Datensilos auf, ermöglicht den Zugriff auf neue Datenquellen und eröffnet Unternehmen damit völlig neue Geschäftsmöglichkeiten. Neue digitale Unternehmen tauchen plötzlich aus dem Nichts auf und wirbeln die bestehende Anbieterlandschaft durcheinander, indem sie neue Märkte mit neuen Angeboten und Services erschließen.

Heutige Industrien sind seit geraumer Zeit nicht mehr so strikt vertikal organisiert wie noch vor mehreren Jahrzehnten. Heute verkaufen Online-Versandhändler ebenfalls IT-Ressourcen; Computerhersteller haben die Musikbranche revolutioniert. Das sind nur zwei Beispiele die zeigen, dass der Mitbewerb nicht mehr derjenige ist, der es zu sein scheint.

Dank Cloud Computing, drahtlose Verbindungen, mobile Lösungen als auch Big Data Analytics und Caching fallen die Kosten für IT-Lösungen beträchtlich. Hinzu kommen die immer günstiger werdenden Sensoren und Endgeräte als auch die steigende Beliebtheit, Daten von Geräten zu jeder Zeit und an jedem Ort zu sammeln.

Sollten CIOs diesen unmittelbaren Angriff auf ihre Unternehmen nicht als eine deutliche und gegenwärtige Bedrohung wahrnehmen, werden sie früher oder später mit den entsprechenden Konsequenzen konfrontiert werden. CIOs sollten sich daher mit den aktuellen und zukünftigen Möglichkeiten auseinandersetzen und damit ihrem Unternehmen mit dem besten Rat zur Seite zu stehen, um von den Chancen zu profitieren die das IoT bietet.

Worauf sollten CIOs bei der Einführung des Internet of Things in Ihrem Unternehmen achten?

CEOs und CMOs gehen verstärkt auf CIOs zu und fragen um deren Hilfe beim Sammeln, Analysieren und Auswerten von Daten. Dabei geht es entweder um das simple Speichern der Daten bis hin zur Nutzung der Daten zur Geschäftsprozessoptimierung, der Entwicklung neuer Geschäftsmodelle oder um neue Geschäftsmöglichkeiten zu evaluieren. Mit der stetig steigenden Menge, Variation und Geschwindigkeit mit welcher die Daten eintreffen, erreichen traditionelle Infrastrukturen schnell den Maximalpunkt ihrer möglichen Skalierbarkeit. Dasselbe Schicksal ereilt sämtliche Applikationen, deren Evolutionsverhalten starr gekapselt ist und diese damit nicht mit den steigenden Anforderungen von der Business-Seite dynamisch mithalten können.

Um den steigenden Anforderungen von IoT Workloads und den wachsenden Sensor- und Metadaten zu begegnen sind neue agile Plattformen und massiv skalierbare Infrastrukturen notwendig. Standardisierte Toolkits und Schnittstellen helfen bei der schnellen Einführung von leistungsfähigen IoT Anwendungsfällen und sorgen für eine stabile Kommunikation zwischen den Anwendungen, Services, Sensoren, Plattformen, Dashboards sowie der Sammlung, Analyse, Auswertung und Aufbereitung der gewonnen Daten.

Kategorien
Analysen

Amazon AWS baut Rechenzentrum in Deutschland: Nette Idee!

Die Amazon Web Services werden eine neue Cloud-Region speziell für den deutschen Markt mit einem Rechenzentrum in Deutschland (Frankfurt) eröffnen. Aber ist das wirklich so spannend für die deutschen Unternehmen?

Amazon AWS landet in Deutschland

Amazon AWS hat die Bedeutung des deutschen Marktes und die Bedenken deutscher Unternehmen scheinbar erkannt. Crisp Research weiß aus sicheren Quellen, dass der Cloud-Anbieter in den kommenden Wochen eine Cloud-Region für den deutschen Markt mit einem Standort in Frankfurt eröffnen wird.

Nachdem Salesforce einen deutschen Rechenzentrumsstandort angekündigt hat, folgt mit Amazon der nächste große US-amerikanische Cloud-Anbieter. Dies zeigt erneut die Attraktivität des Standorts Deutschland. Schließlich behandeln die meisten amerikanischen Unternehmen den deutschen Markt ansonsten eher stiefmütterlich. Typischerweise versorgt der Großteil der amerikanischen Cloud-Anbieter den europäischen Markt über Rechenzentren in Irland (Dublin) und den Niederlanden (Amsterdam). Das verringert bei vielen deutschen, vornehmlich mittelständischen Unternehmen, die Attraktivität. Beratungsgespräche mit IT-Anwendern zeigen ständig, dass das Speichern von Daten außerhalb von Deutschland und ein Vertragswerk, das maximal auf europäischem Recht beruht, nicht gerne gesehen wird.

AWS Portfolio: Annäherung an die Enterprise-IT

Neben dem Rechenzentrumsstandort hat Amazon mit AWS CloudTrail bereits im letzten Jahr einen ersten Service vorgestellt, um Unternehmen mehr Kontrolle über die Compliance zu ermöglichen. AWS CloudTrail hilft beim Überwachen und Aufzeichnen der AWS API Aufrufe von einem oder mehrerer Accounts. Dabei werden Aufrufe über die AWS Management Console, dem AWS Command Line Interface (CLI), von eigenen Anwendungen oder Anwendungen von Drittanbietern berücksichtigt. Die erhobenen Daten werden entweder in Amazon S3 oder Amazon Glacier zur Auswertung gespeichert und lassen sich über Tools von AWS oder externen Anbietern betrachten. Derzeit lassen sich nur Amazon EC2, Amazon ECS, Amazon RDS und Amazon IAM überwachen. Amazon CloudTrail kann kostenlos genutzt werden. Kosten entstehen für das Speichern der Daten auf Amazon S3 und Amazon Glacier sowie für die Benachrichtigungen über Amazon SNS.

AWS CloudTrial gehört zu den wichtigsten Services für Unternehmenskunden, die Amazon in der letzten Zeit veröffentlicht hat. Die gesammelten Logdateien helfen bei der Compliance, indem sie sämtliche Zugriffe auf AWS Services aufzeichnen und damit das Einhalten von gesetzlichen Rahmenbedingungen nachweisen können. Ebenso verhält es sich mit Sicherheitsaudits, bei denen sich damit Sicherheitslücken und unberechtigte oder fehlerhafte Zugriffe auf Daten nachvollziehen lassen.

Unternehmenskunden quo vadis?

Nachdem sich AWS als führender Infrastrukturanbieter und Enabler für Startups und neue Geschäftsmodelle in der Cloud etabliert hat, versucht das Unternehmen aus Seattle schon seit geraumer Zeit einen Fuß direkt in das lukrative Unternehmensumfeld zu bekommen. Es bleibt allerdings eine Frage offen. Wird das ausreichen, um eine kritische Masse deutscher Unternehmen zu erreichen, um sich von einem Anbieter für Startups und Entwickler zu einer ernsthaften Alternative für IT-Workloads für Unternehmen zu entwickeln?

Ja, unter bestimmten Voraussetzungen:

  •            Unternehmensrelevante Services müssen ebenfalls direkt in anderen Regionen bereitgestellt werden und nicht vorerst nur in den US-Regionen.
  •           AWS benötigt ein Partnernetzwerk, um an die Masse an attraktiven deutschen Unternehmenskunden zu gelangen.
  •           Die Lokalisierung von sämtlichen Informationen, wie White Paper, HowTos und Schulungen ist kritisch.
  •           Weniger Self-Service, mehr Managed Services und Professional Services, z.B. über das Partnernetzwerk.
  •           Verringerung der Komplexität durch Vereinfachung der Nutzung des Scale-Out Prinzips.
  •           Cloud Connectivity für die zuverlässige Anbindung an die Services.
  •           Vermeidung des Service Lock-in.
  •           Stärkung des AWS Marketplace für einfachere Nutzung von skalierbaren Standardworkloads und Applikationen.
  •           Berücksichtung von Hybrid Cloud Szenarien und Stärkung des Partners Eucalyptus auf der Private Cloud Seite.

Anmerkung zur Eucalyptus Partnerschaft: Nahezu alle Eucalyptus Kunden sollen ebenfalls AWS Kunden sein (Quelle: Eucalyptus). Das bedeutet im Umkehrschluss, dass einige Hybrid Cloud Infrastrukturen zwischen on-Premise Eucalyptus Infrastrukturen und der Amazon Public Cloud bestehen.

Die bestehenden Fragezeichen: Microsoft und Google

Mittelständische Unternehmen fordern von Cloud-Anbietern, dass die Daten in einem deutschen Rechenzentrum gespeichert werden. Etwa 75 Prozent sehen darin die Notwendigkeit, um durch physische Lokalität der Daten das deutsche Recht einfacher anwendbar zu machen.

Nach Salesforce, IBM und Amazon bleiben lediglich zwei wichtige Cloud Anbieter übrig, von denen Investitionen in diese Richtung zu erwarten wären.

Über Google darf man leider getrost sagen, dass zu diesem Thema über kurz oder lang nichts passieren wird. Die DNA und Mentalität des Unternehmens hinsichtlich Datenlokalität und Kundenbedenken weicht von denen anderer Anbieter zu stark ab.

Bei Microsoft liegen die Karten grundsätzlich gut. Allerdings brauchen die Redmonder diese vorerst nicht ausspielen. Microsoft verfolgt eine andere Strategie, indem mit dem Cloud OS Partnernetwork  weltweit lokale Anbieter (z.B. Pironet NDH in Deutschland) dazu ermächtigt werden, mit dem sogenannten „Azure Pack“ eine eigene auf  Microsoft Azure basierende Cloud-Infrastruktur in einem gehosteten Modell aus einem lokalen Rechenzentrum anzubieten.

Wie sich der Trend lokaler Rechenzentren entwickeln wird bleibt abzuwarten. Unterm Strich ist Deutschland und speziell der Standort Frankfurt, u.a. auf Grund des DE-CIX, gut darauf vorbereitet, weitere internationale Cloud-Anbieter aufzunehmen. Eine wichtige Erkenntnis aus dieser Entwicklung ist, dass internationale Anbieter die Bedenken verstanden haben und gewillt sind Kompromisse einzugehen, was am Ende dem Anwender zu Gute kommen wird.

Kategorien
Analysen

Marketplace: Das OpenStack Momentum wird größer

Die OpenStack Community hat einen Marktplatz veröffentlicht, mit dem sich Nutzer über OpenStack Public Clouds, Distributionen, Integratoren und Schulungen informieren können.  Über 4000 Teilnehmer des OpenStack Summit zeigen, dass die Open-Source Cloud-Infrastruktursoftware deutlich an Momentum gewinnt.

Hintergrund: Der OpenStack Marketplace

Der OpenStack Marketplace richtet sich an Unternehmen und Organisationen, die OpenStack basierende Clouds aufbauen oder nutzen wollen. Die Community reagiert, nach eigenen Angaben, damit auf die Menge an Anfragen, wie die ersten Schritte mit OpenStack aussehen sollten. Hierzu startet der Markplatz mit fünf Kategorien für Public Clouds, Distributionen, Schulungen, Beratungen- und Integrationsanbieter sowie Treiber für Hardware und API Unterstützung. OpenStack Nutzer sollen damit die Möglichkeit erhalten, Produkte und Services miteinander zu vergleichen die am besten zu ihren Anforderungen passen. Um in den Marktplatz aufgenommen zu werden müssen alle Produkte und Services vorgegebene technische Anforderungen erfüllen und Produktinformationen wie die OpenStack Version und weitere Eigenschaften transparent angeben.

Funktionen des Marktplatzes

Der Marktplatz soll die Qualität des OpenStack Ökosystems verbessern, indem allen Anbietern Standards auferlegt werden sollen, die Public Cloud Services als auch Distributionen und Appliances anbieten. Anhand des Bereiches „Driver“ können sich Nutzer darüber informieren, ob zu ihrer vorhandenen Server-, Speicher- und Netzwerkhardware entsprechende OpenStack Treiber zur Verfügung stehen. Hierzu lässt sich vergleichen, welche OpenStack Version zu welcher Technologie kompatibel ist, um die Integration vorzunehmen. Um den Nutzern Kontrolle zu geben, bietet der Marktplatz ebenfalls die Möglichkeit die Erfahrungen mit dem OpenStack Ökosystem zu bewerten und zu kommentieren.

Kategorien des Marktplatzes

Public Clouds

Der Bereich fasst globale Public Infrastructure-as-a-Service Angebote auf Basis von OpenStack zusammen. Zu den Aufnahmekriterien gehört eine Infrastruktur auf Basis einer aktuellen OpenStack Version und der Zugriff die OpenStack APIs.

OpenStack-Marketplace_Public-Clouds

Distributionen

Die Kategorie umfasst OpenStack Distributionen, die für den Aufbau und Betrieb von Public, Private und Hybrid Cloud Infrastrukturen. Die Distribution muss auf einer aktuellen OpenStack Version basieren und den Zugriff auf die APIs ermöglichen.

Integratoren und Berater

Der Marktplatz bietet eine Auswahl weltweit tätiger Integrations- und Beratungsanbieter, die bei dem Aufbau und Betrieb OpenStack basierter Cloud-Infrastrukturen helfen.

Schulungen

Der Schulungsbereich des Marktplatzes existiert bereits seit September 2013 und wird nach Angaben der OpenStack Community stark nachgefragt. Seit dem Start wurden bisher 250 Kurse verteilt über 30 Länder hinweg angeboten.

Treiber

Zur letzten Kategorie zählt die „Driver“-Sektion. Die OpenStack Community stellt in diesem Bereich Treiber zur Verfügung, die mit OpenStack kompatible sind und arbeitet in diesem Zusammenhang eng mit den Herstellern zusammen.

Das OpenStack Momentum wird stetig größer

OpenStack lässt sich für unterschiedliche Szenarien als Infrastrukturunterbau von Public, Private und Hybrid Clouds aufbauen. Crisp Research hält die Erweiterung des Marktplatzes für einen wichtigen Schritt durch die Community, um Nutzer auf dem Weg zur eigenen OpenStack Cloud oder dem Einsatz einer OpenStack Infrastruktur bei einem Anbieter zu unterstützen. Hierfür ist es erforderlich die richtige Mischung von Produkten, Services und Ressourcen aus der Community zu finden, um erfolgreich zu sein.

Gleichzeitig wird der Marktplatz die Qualität des Projekts selbst, aber vor allem die der Angebote verbessern und damit die Attraktivität bei potentiellen Nutzern erhöhen, sich für eine OpenStack Distribution oder Cloud zu entscheiden. Weiterhin dient der Marktplatz als Kontrollinstanz, um die Qualität durch die Nutzer zu bewerten.

OpenStack-Deployments_Q1-Q2_2014

 

Das OpenStack Momentum wird deutlich wenn man sich die Zahlen des kürzlich vergangenen OpenStack Summit anschaut. Mehr als 4000 Teilnehmer zeigen die wachsende Bedeutung der Open-Source Cloud-Infrastruktursoftware. Ebenso verhält es sich mit aktuellen Einsatzzahlen von OpenStack. Die weltweiten Projekte sind im Vergleich zum Januar 2014 um 60 Prozent weiter angestiegen.

Hierbei liegen On-Premise Private Cloud Installationen an der Spitze. Wurden im Januar noch 55 Installationen weltweit gezählt, sind es im Mai bereits 85. Auch die Anzahl der weltweiten OpenStack Public Clouds wuchs von 17 auf 29.

Insbesondere die Mitglieder der OpenStack Community werden von dem Marktplatz profitieren, um einen direkten Kontakt zu potentiellen IT-Einkäufern und Entscheidern, die aktiv am Auswahlprozess beteiligt sind. Das sollten auch Anbieter aus dem deutschsprachigen Raum, wie die B1 Systems GmbH (Deutschland) oder ICCLAB (Schweiz) für sich nutzen.

Kategorien
News @en

Rene Buest is one of the Top 100 Cloud Experts on Google+

Together with other big names such as Marc Benioff (CEO, Salesforce), Werner Vogels (CTO, Amazon) or Marten Mickos (CEO, Eucalyptus Inc.), Rene Buest is named as one of the „Top 100 Cloud Professionals to Follow on G+“ by GetVOIP.

More information and the list of the Top 100 cloud experts on Google+ can be found under „Top 100 Cloud Professionals to Follow on G+„.

Kategorien
News

René Büst gehört zu den Top 100 Cloud Experten auf Google+

Zusammen mit anderen großen Namen wie Marc Benioff (CEO, Salesforce), Werner Vogels (CTO, Amazon) oder Mårten Mickos (CEO, Eucalyptus Inc.) wurde René Büst von GetVOIP zu einem der „Top 100 Cloud Professionals to Follow on G+“ ernannt.

Weitere Informationen und die Liste der Top Cloud Experten gibt es unter „Top 100 Cloud Professionals to Follow on G+„.