Kategorien
Analysen

Cloud-Connectivity: Ruckelfrei in die Cloud

Die kontinuierliche Verlagerung von geschäftskritischen Daten, Applikationen und Prozessen auf externe Cloud Infrastrukturen sorgt dafür, dass sich für CIOs nicht nur die IT-Betriebskonzepte (Public, Private, Hybrid) sondern ebenfalls maßgeblich die Netzwerkarchitekturen und Anbindungsstrategien verändern. Hierbei ist die Auswahl des richtigen Standorts ein entscheidender Wettbewerbsvorteil, bei dem Frankfurt bereits heute, aber vor allem in der Zukunft eine tragende Rolle spielen wird.

Die digitale Transformation schlägt um sich

Der digitale Wandel macht heute in keinem Bereich unseres Lebens mehr halt. So sind schätzungsweise 95 Prozent aller Smartphone Apps mit Services verbunden,
 die sich auf Servern in globalen und weltweit verteilten Rechenzentren befinden. Gleichermaßen sind die Apps ohne eine direkte und zumeist konstante Verbindung zu diesen Services nicht funktionsfähig. Der Zugriff auf Metadaten oder anderweitige Informationen ist für den reibungslosen Betrieb unabdingbar. Zudem wird der Großteil der Produktivdaten, welche von den Apps benötigt werden, auf Systemen in den Rechenzentren gespeichert und nur eine kleine Auswahl lokal auf dem Smartphone bei Bedarf zwischengespeichert.

Bereits heute werden viele moderne Business-Applikationen über Cloud-Infrastrukturen bereitgestellt. Aus der heutigen Sichtweise eines CIOs ist eine stabile und performante Verbindung zu Systemen und Services damit unerlässlich. Dieser Trend wird sich noch weiter verstärken. Crisp Research geht davon aus, dass in den nächsten fünf Jahren rund ein Viertel aller Business-Anwendungen als Cloud-Services eingesetzt werden. Gleichzeitig werden auch hybride Szenarien, bedienen lokale unternehmenseigene IT- Infrastrukturen mit Infrastrukturen in Cloud Rechenzentren verbunden werden, immer wichtiger.

Datenaufkommen: Das neue Öl erfordert größere Pipelines

Insbesondere das stetig steigende Datenaufkommen erfordert eine zuverlässige und vor allem stabile Konnektivität, um auf die Daten und Informationen zu jeder Zeit Zugriff zu erhalten und verlässlich zu speichern. Noch wichtiger wird es, wenn geschäftskritische Prozesse und Applikationen auf eine Cloud-Infrastruktur ausgelagert werden. Der Zugriff muss jederzeit und performant – mit einer geringen Latenz – sichergestellt werden und kann für Unternehmen im Fehlerfall zu maßgeblichen finanziellen als auch Schäden am Image führen. Das stellt ein hohes Unternehmensrisiko dar. Die Qualität eines Cloud Service hängt somit maßgeblich von seiner Konnektivität und der Performance im Backend ab. Ein Cloud Service ist nur so gut, wie die Verbindung, über die er bereitgestellt wird.

Cloud-Connectivity ist die neue Währung

Damit sich Applikationen und Services performant, stabil und sicher bereitstellen lassen, sind einerseits moderne Technologien erforderlich, andererseits ist der Standort für eine optimale „Cloud-Connectivity“ maßgeblich entscheidend. „Cloud Connectivity“ lässt sich technisch mittels der Latenz, dem Durchsatz und der Verfügbarkeit definieren.

Cloud-Connectivity_Tuecken

Hierbei ist ein entscheidendes und wichtiges Merkmal die Konnektivität des Rechenzentrums, um den Kunden und deren Kunden einen stabilen und zuverlässigen Zugriff auf Cloud-Services zu jeder Zeit zu gewährleisten. Hierzu gehören eine hohe Ausfallsicherheit anhand unterschiedlicher Carrier (Netzwerkprovider) und eine redundante Infrastruktur hinsichtlich Router, Switches, Verkabelung sowie der Netzwerktopologie. In diesem Zusammenhang bilden Carrier-neutrale Anbindungen ein wichtiges Merkmal für den Kunden, damit dieser sich aus mehreren Anbietern den für sich passenden auswählen kann.

Frankfurt ist das Vorbild für die Cloud-Connectivity

In den vergangenen 20 Jahren hat sich in Frankfurt
 ein Cluster von Infrastrukturanbietern für die digitale Ökonomie gebildet, die Unternehmen dabei helfen, ihre Produkte und Dienstleistungen am Markt zu positionieren. Diese Anbieter haben Frankfurt und dessen Wirtschaft geprägt und liefern Integrationsservices für IT und Netzwerke sowie Rechenzentrumsdienste. Immer mehr Service-Anbieter haben verstanden, dass sie trotz der Globalität einer Cloud-Infrastruktur lokal vor Ort in den Ländern bei ihren Kunden sein müssen. Das ist eine wichtige Erkenntnis. Kein Anbieter, der ernsthafte Geschäfte in Deutschland machen will, wird auf einen lokalen Rechenzentrumsstandort verzichten können. Crisp Research sieht einen wichtigen Trend darin, dass viele internationale Anbieter in den kommenden zwei bis drei Jahren ihre Cloud Plattformen in Frankfurt aufbauen beziehungsweise weiter ausbauen werden.

Vor diesem Hintergrund hat Crisp Research in einem White Paper die Rolle von Frankfurt als Rechenzentrumsstandort und Connectivity Hub untersucht. Das White Paper „Die Bedeutung des Standorts Frankfurt für die Cloud Connectivity“  steht unter http://www.interxion.com/de/branchen/cloud/die-bedeutung-des-standorts-frankfurt-fur-die-cloud-connectivity/download/ zum Download bereit.

Kategorien
Analysen

Public PaaS in Deutschland: Warum cloudControl in die USA zieht

Docker Inc. trennt sich von seinem Platform-as-a-Service (PaaS) Sorgenkind dotCloud und verkauft dieses an cloudControl Inc. dem US-amerikanischen Ableger der cloudControl GmbH aus Berlin. 

Kategorien
Insights

Umfrage: Platform-as-a-Service – Zukunft der deutschen Software-Industrie

Seit über fünf Jahren existieren Platform-as-a-Services (PaaS) am Markt, die sich im Laufe der letzten Jahre zu vollständigen Ökosystemen entwickelt haben. In den USA und Skandinavien gehören PaaS bereits zu den Standardwerkzeugen von professionellen Softwareentwicklern. In Deutschland verhalten sich Geschäftsführer und Entwicklungsleiter noch deutlich zurückhaltender. Dabei erhalten nicht nur deutsche Unternehmen, sondern ebenfalls klassische ISVs (Independent Service Provider) mit einem PaaS eine echte Alternative, um damit die unternehmensinternen Entwicklungssysteme und -Prozesse abzulösen und damit auf das Cloud-Zeitalter umzusteigen.

Neue PaaS-Betriebsmodelle verändern den Markt

Neue PaaS-Betriebsmodelle wie ein Hosted PaaS helfen nicht nur dabei Software-Entwicklungsprozesse deutlich effizienter zu gestalten, sondern auch Big Data Analytics intelligent umsetzen.

Ob und wie sich diese Situation bei deutschen ISVs und Softwarehäusern derzeit verändert und entwickelt, untersucht Crisp Research derzeit im Rahmen einer empirischen Studie „Platform-as-a-Service – Zukunft der deutschen Software-Industrie“.

Für weitere Informationen steht unser Projektleiter Max Hille zur Verfügung.

Umfrage: „Platform-as-a-Service – Zukunft der deutschen Software-Industrie“

Kategorien
Analysen

Report: OpenStack im Unternehmenseinsatz – Teil 1: Grundlagen und aktueller Einsatz

Der OpenStack Zug nimmt auch in Deutschland langsam Fahrt auf. Die Anzahl der Anfragen von CIOs, die das Open Source-basierte Cloud Management-Framework als Alternative evaluieren, ist in den vergangenen 6 Monaten deutlich gestiegen, wie interne Statistiken von Crisp Research belegen.

Für immer mehr Unternehmen stellt sich die Frage, ob OpenStack in den kommenden Jahren ein fester Bestandteil der Cloud-Integrationsstrategie wird und demnach bei der Planung und Implementierung hybrider Cloud-Infrastrukturen mit berücksichtigt werden muss.

Im Rahmen mehrerer aktueller Research-Projekte geht Crisp Research der Fragen nach, inwieweit OpenStack schon „Enterprise-ready“ ist und welche Hürden bis zur Enterprise-Grade Cloud Management Plattform noch zu nehmen sind. In diesem kostenlosen Report wird ein Überblick zur Entwicklung, den Komponenten und aktuellen Einsatzszenarien gegeben.

Der Report steht kostenlos unter „OpenStack im Unternehmenseinsatz (Teil 1)“ zum Download zur Verfügung.

Kategorien
Analysen

Desktop-as-a-Service: Google begibt sich in die Abhängigkeit von VMware.

Im ersten Moment war es eine unerwartete Ankündigung, die auf dem zweiten Blick allerdings sehr schnell einen Sinn ergibt. VMware und Google haben in der vergangenen Woche eine Partnerschaft verkündet, um über VMwares Desktop-as-a-Service Plattform Unternehmen Windows-Applikationen, Daten und Desktops auf Google Chromebooks auszuliefern. Crisp Research hält die Partnerschaft für einen klugen Schachzug von beiden Beteiligten. Jedoch ist Google hier in einer deutlich schwächeren Partnersituation und gesteht Schwächen seines eigenen Cloud Service Portfolios für Unternehmenskunden ein.

Desktop-as-a-Service: Der Markt wird vielfältiger

Desktop-as-a-Service (DaaS) ist nach der Server- und Speicherentwicklung der nächste logische Schritt, bei dem vollständige Desktop-PCs im Rechenzentrum virtualisiert und von dort aus zentral auf Endgeräte ausgeliefert werden. Die Vorteile liegen klar auf der Hand. Vollwertige Computersysteme, die sogenannten Fat-Clients, führen zu maßgeblichen Investitionen in Hardware, Bereitstellung, Support, Betrieb und Aktualisierungen. Hinzukommen Ausgaben für die Sicherheit und Compliance.

Crisp Research beziffert die Jährlichen Gesamtausgaben von Standard Desktop-PCs auf rund 1.560 EUR. Durch die Umstellung auf Thin-Clients, die im minimalsten Fall nur über eine Netzwerkschnittstelle und ein BIOS verfügen, lassen sich die Ausgaben reduzieren und pro Desktop etwa 150-200 EUR pro Jahr einsparen.

Der Markt für DaaS wird zwischen zwei Segmenten unterschieden. Zum einen die grundlegenden Infrastrukturen. Dazu gehören Angebote von VMware, Citrix, Univention, Wyse oder Microsoft. Die sowohl als on-Premise als auch Public Cloud Angebote genutzt werden. Der Markt für DaaS Backendinfrastrukturen wird immer vielfältiger. Das jüngste prominente Mitglied sind die Amazon Web Services (AWS) mit den Amazon WorkSpaces. Nach Angaben von AWS Integrationspartnern waren die Test-Accounts für Amazon WorkSpaces innerhalb kürzester Zeit vergeben. Crisp Research geht davon aus, dass sich die Amazon Web Services als weltweit führender Anbieter von Infrastructure-as-a-Services auch in diesem Bereich signifikante Marktanteile sichern werden.

Auf der anderen Seite werden die Endgeräte benötigt, mit denen sich die virtualisierten Desktops nutzen lassen. Hierzu zählen klassischerweise die bekannten Thin-Clients. Google verfolgt mit seinen Chromebooks einen völlig neuen Ansatz. Das System startet direkt in das Chrome OS, was im Kern den Google Chrome Browser widerspiegelt. Ein Nutzer booted somit sofort in die Cloud.

Google Chromebooks – noch erhebliche Schwächen im Unternehmenseinsatz

Google Chromebooks sind auf der einen Seite revolutionär, da die lokale Komponente vollständig ausgeblendet wird und Daten und Applikationen zu 100 Prozent in der Cloud gespeichert bzw. aus der Cloud genutzt werden. Auf der anderen Seite birgt der Ansatz auch seine Schwächen, die derzeit mehr überwiegen als die vermeintlichen Vorteile die von einem Chromebook ausgehen.

Die Idee der Chromebooks ist grundsätzlich gut. Das lokale System verfügt über eine minimale Intelligenz und keine höherwertigen Softwarekomponenten, die wie bspw. ein Windows Betriebssystem, ständig mit einem Neustart auf dem aktuellen Stand gehalten werden müssen. Stattdessen ist der Browser das Betriebssystem, wodurch Google Software- und Sicherheitsupdates on-Demand vornehmen kann, ohne das der Nutzer davon etwas bemerkt.

Auch Googles Strategie sämtliche Services, wie zum Beispiel die Google Apps for Business Suite, mit den Chromebooks zu integrieren ist ein kluger Schachzug, um die User Experience der Chromebooks sowie die Public Cloud Services in die Unternehmen zu tragen und dort bekannter zu machen. Über den Google Apps eigenen Marketplace lassen sich in Zukunft zudem immer mehr Services von Drittanbietern monetarisieren. Leider ist die ganzheitliche Umsetzung bis heute nur mäßig. Bis auf Google Mail und Google Kalender ist der Rest der Google Apps for Business Suite nicht unternehmenstauglich. Insbesondere Google Docs, als Textverarbeitung Kernprodukt einer Office Suite, zeigt noch erhebliche Schwächen und steht in keiner Konkurrenz zu einem Microsoft Word. Auch wenn der Software-as-a-Service Markt stetig wächst, ist der Vorteil, der sich durch die lose und beliebige Nutzung von Cloud Services auf den Chromebooks ergibt, durch die nicht vorhandenen leistungsfähigen Enterprise Applikationen, die weiterhin benötigt werden, aufgehoben. Nutzer benötigen immer wieder Applikationen, die ausschließlich für lokale Betriebssysteme wie Windows, Mac oder Linux zur Verfügung stehen. Dieser Status wird nicht so bleiben, aber Stand heute existieren diese Nachteile.

VMware öffnet Google das Tor in die Unternehmen

Um seinen Chromebooks eine echte Business Customer Experience zu bieten ist die Partnerschaft mit VMware ein notwendiger und kluger Schachzug, um in kurzer Zeit einen Fuß in die Türen der Unternehmen zu bekommen. Anwender können damit auf ihre Windows Anwendungen, Daten und Desktops anhand der VMware Blast HTML5 Technologie über einen Web-basierten Katalog vom Chromebook aus zugreifen.

Zudem können Unternehmen mittels VMware Horizon DaaS zwischen einer Virtual Desktop Infrastructure (VDI) oder Remote Desktop Services (RDS) Verbindung wählen. Zusammen mit VMware Horizon View lassen sich die Chromebooks als on-Premise Service nutzen. In Zukunft soll die gemeinsame Lösung als DaaS-Angebot von VMware und anderen vCloud Service Anbietern in der Cloud oder in hybriden Umgebungen zur Verfügung gestellt werden.

Google – Abschied von der reinen Public-Cloud-Lehre

Die Partnerschaft zwischen VMware und Google zeigt, dass Google derzeit noch nicht in der Lage ist, den Enterprise-IT-Markt allein mit eigenen Kräften zu überzeugen. Die Anforderungen der Unternehmensanwender sind derzeit noch zu vielfältig und komplex – und verlangen daher nach hybriden und stark integrierten Lösungen.

Mit der VMware-Partnerschaft kann es Google aber vielleicht gelingen, ein trojanisches Pferd in die Unternehmen einzuschleusen und deren Nutzer von der browser-basierten User Experience seiner Cloud-Dienste abhängig zu machen. Ob das Anfixen über die Virtual Desktop Services auf den Chromebooks langfristig funktioniert bleibt abzuwarten. Sicher ist, dass Google das Enterprise Business mittlerweile ernst nimmt und nicht als reines Anhängsel seines Online Werbegeschäfts versteht. Nach Einschätzungen von Crisp Research bereitet Google derzeit noch weitere Kooperation vor, die das Standing seiner Google Apps auf Seiten großer IT-Anwender verbessern sollen.

Kategorien
Analysen

Die Community Cloud wird an Bedeutung gewinnen.

Wie kommen Unternehmen aus der Cloud heraus ohne ihre Komfortzone zu verlieren. Diese Fragen hören wir immer wieder. Ich bin der Meinung, dass man sich nicht zwangsläufig aus der Cloud zurückziehen muss, sondern einfach versuchen sollte, mehr Kontrolle zurückzugewinnen und die Ideen der Cloud für sich selbst zu nutzen. In diesem Zusammenhang sollte man die Community Cloud in Betracht ziehen, denn diese wird in meinen Augen immer mehr an Bedeutung gewinnen. Der Bedarf und vor allem das Verständnis hierfür muss nur geweckt werden. Tenor: “Aufbau einer eigenen Hosted Private Cloud, betrieben von einer Gemeinschaft die sich vertraut.” Das ist sowohl für Unternehmen, Organisationen, Bürogemeinschaften und regelmäßige Projektpartner interessant.

Was ist eine Community Cloud?

Innerhalb einer Community Cloud schließen sich Unternehmen einer gleichen Branche zusammen und fassen ihren eigenen Private Clouds zu einer Community Cloud zusammen, die nur exklusiv diesen Mitgliedern zugänglich ist. Community Clouds bieten sich an, wenn Unternehmen dieselben Anforderungen und Aufgaben haben und die Infrastruktur auf ähnliche Weise nutzen wollen. Der Vorteil einer Community Cloud besteht in der Reduzierung des Kapazitätsbedarfs und somit einer verbesserten Ressourcenallokation auf Grund der gemeinsamen Nutzung von Ressourcen. Dies führt zu einer allgemeinen Kostenreduzierung und verringert den allgemeinen Overhead. Abgesehen von der darunterliegenden Infrastruktur können alle Mitglieder der Community Cloud ebenfalls dieselben Services und Applikationen gemeinsam nutzen.

Ein sehr gutes Beispiel für eine Community Cloud ist das ENX Netzwerk, ein Zusammenschluss der „europäischen Automobilindustrie für den sicheren Austausch kritischer Entwicklungs-, Einkaufs-, und Produktionssteuerungsdaten.“ Das ENX bietet den angeschlossenen Automobilherstellern- und Lieferanten unternehmensübergreifende Managed Security Services und einen einheitlichen Service Level des darunter liegenden Netzwerkes. Gleichzeitig ist das ENX Netzwerk für die angeschlossenen Nutzer so offen und flexibel gestaltet wie das öffentliche Internet.

Gründe für eine Community Cloud

Bereits das Ergebnis einer BITKOM Studie im Februar 2013 kam zu dem Ergebnis, dass im Jahr 2012 immerhin 34 Prozent auf eine Private Cloud setzen und 29 Prozent planen, diese Cloud-Form in Zukunft einzusetzen. Der Grund dafür liegt in der Angst vor einem Datenverlust in der Public Cloud. Das sagten zumindest 79 Prozent.

Die Neuauflage der BITKOM Studie, mit aktuellen Ergebnissen für das Jahr 2013, liefert ein paar Veränderungen. Weiterhin setzten mit 36 Prozent der befragten Unternehmen die meisten auf eine Private Cloud. Das sind zwei Prozent mehr als im Jahr 2012. Das Interesse an der Public Cloud hat mit insgesamt 15 Prozent deutlicher zugenommen.

Interessanterweise gaben allerdings auch 77 Prozent der Unternehmen an, dass die größte Hürde für den Einsatz einer Private Cloud [… die Sorge vor einem unberechtigten Zugriff auf sensible Daten …] ist. Weitere 45 Prozent haben Angst vor einem Verlust der Daten, die in der Private Cloud gespeichert sind.

Zukunftssicherheit, Vertrauen und Abhängigkeit

Während eines Vortrags bei einem Unternehmen dessen Namen ich nicht nennen darf und mit Folien die nicht öffentlich zugänglich sind, habe ich in meinen zukünftigen Cloud-Trends die Treiber für die steigende Bedeutung von Community Clouds aufgezeigt.

Ich habe dabei die drei Treiber als „höhere Zukunftssicherheit“, „größeres Vertrauen“ und „weniger Abhängigkeit/ mehr Kontrolle“ charakterisiert. Es sind exakt die Themen, die auch in aktuellen Diskussionen immer wieder aufkommen. Damals, im März 2013, habe ich die „höhere Zukunftssicherheit“ am Beispiel der Schließung vom Google Reader festgemacht. Da die Nutzer sich nicht sicher sein können, wie lange ein Cloud Service überhaupt überlebt. Als Beispiel für „größeres Vertrauen“ mussten die mittlerweile bestätigten Berichte, dass Amazon AWS eine Cloud für den CIA bauen soll, herhalten. Schließlich sollte man schon stutzig werden, wenn ein Marktführer mit einem Geheimdienst zusammenarbeitet – wie wir mittlerweile alle feststellen durften… Den Grund für „(weniger) Abhängigkeit“ habe ich aus dem Zeit-Artikel „Das autarke Dorf„, der im selben Zeitraum erschienen ist und bei dem es darum geht, dass ein kleines Dorf in Brandenburg sich unabhängig von den Energiekonzernen gemacht hat und dort sogar ein eigenes Stromnetz besitzt. Cloud Computing = Utility Computing = Stromnetz…

Maximale Zentralität hin zur Semi-Dezentralität

Allein auf Grund dieser drei Treiber, plus den aktuellen Diskussionen, sehe ich ein wachsendes Potential für die Community Cloud, die derzeit noch keine große Verbreitung hat. In diesem Zusammenhang sehe ich zudem einen Wechsel von einer zurzeit stark ausgeprägten Zentralität zu einer Semi-Dezentralität.

Die meisten Unternehmen und Organisationen sehen in der Public Cloud einen großen Vorteil und wollen in ihren Genuss kommen, um Kosten zu reduzieren, ihre IT zu konsolidieren und gleichermaßen mehr Skalierbarkeit und Flexibilität erhalten. Auf der anderen Seite sind Zukunftssicherheit, Vertrauen, Abhängigkeit und Kontrolle wichtige Artefakte, die niemand gerne aufgeben möchte.

Die Community Cloud ist der Mittelweg, um beides zu erreichen. Zukunftssicherheit, Vertrauen, Abhängigkeit und Kontrolle durch den Einfluss, was in der Community Cloud passiert und die Vorteile einer Public Cloud, durch das Partizipieren von einer echten Cloud Infrastruktur.

Tipp: Hosted Community Cloud

Es stehen mittlerweile einige Lösungen bereit, die als Basis für die eigene professionelle (Community) Cloud genutzt werden können. Dabei sollte man jedoch immer ein Auge auf die grundlegende Infrastruktur richten, die das Rückgrat der gesamten Cloud bildet. In diesem Zusammenhang darf man allerdings auch nicht den Aufwand unterschätzen, den es bedeutet, eine professionelle Cloud-Umgebung aufzubauen, ordnungsgemäß zu betreiben und zu warten. Weiterhin sind die Kosten für die notwendigen physikalischen Ressourcen zu kalkulieren.

Aus diesem Grund macht es für viele kleinere und mittlere Unternehmen, aber auch Bürogemeinschaften, Co-Working Spaces oder regelmäßige Projektpartnerschaften Sinn, den Community Cloud Gedanken in Betracht zu ziehen, um in den Genuss der Public Cloud (Shared Umgebung) zu kommen aber weiterhin Einfluss auf die Zukunftssicherheit, das Vertrauen, die Abhängigkeit und Kontrolle der Umgebung zu haben und Kostenvorteile u.a. durch Ressourcenallokation zu erzielen. Hierzu sollte man sich zudem überlegen, ein Team aufzubauen, dass sich exklusiv um den Aufbau, Betrieb, die Administration und Wartung der Community Cloud kümmert. Vergleiche dazu das ENX-Netzwerk. Dafür ist kein eigenes Rechenzentrum oder eine Co-Location erforderlich. Ein IaaS-Anbieter kann dazu als ideale Basis für eine Hosted Community Cloud dienen.

Kategorien
Analysen

Integration und Cloud Computing: Irgendetwas zwischen Versprechen, Erwartungen, Komplexität und Mehrkosten

Cloud Computing Anbieter sollten sich der Realität stellen und ihren potentiellen Kunden die Wahrheit sagen! Die Integration im gesamten Cloud Stack sorgt für die größte Komplexität in der Cloud. Das beinhaltet ebenfalls die weiteren Kosten die kein Public Cloud Anbieter neben seinen on Demand und pay per use Versprechen transparent auf seinen Marketingfolien stehen hat. Ein Überblick.

Wie ist die Erwartungshaltung der Anwender?

Cloud Computing Anbieter versprechen neben der bedarfsgerechten Nutzung (on Demand) und Abrechnung (Pay per use) einen einfachen Zugriff auf IT-Ressourcen. Das hört sich auf dem Papier fantastisch an und funktioniert in der Regel sehr gut. Der Spaß hört allerdings auf wenn es darum geht, bestehende Systeme oder gar neue Services in der Cloud zu kombinieren. Die Integration verursacht die größten Schmerzen.

Gespräche mit Anwendern und Anfragen von an der Cloud interessierten Unternehmen spiegeln eine harte Realität wieder. Die Erwartungshaltungen bestehen z.B. darin, existierende on Premise Lösungen gegen 1:1 Äquivalente in der Cloud zu ersetzen. Die Hoffnung besteht, dass sich damit der Integrationsaufwand – der früher on Premise bestand – deutlich einfacher realisieren lässt, da sich die Systeme der jeweiligen Anbieter „bereits innerhalb einer zentralisierten Infrastruktur befinden“. Es wird also davon ausgegangen, dass sich die altbekannte Schnittstellenproblematik, die jeder IT-Abteilung seit Jahrzehnten große Probleme bereitet, einfacher umsetzen lässt. Dabei handelt es sich aus Anwendersicht um eine nachvollziehbare Erwartungshaltung. Schließlich halten die Anbieter die Fäden innerhalb ihrer Cloud Infrastruktur (auch SaaS-Angebote) in der Hand und könnten eine einfachere Integration zwischen mehreren Systemen aus dem eigenen Hause bieten.

Ähnliche Rückmeldungen kommen von den Cloud Systemintegratoren. APIs und die Integration von anbieterübergreifenden Services aber ebenfalls anbieterproprietären Services sorgen in der Cloud für den selben Aufwand wie on Premise.

Wie sieht die Realität aus?

Im Prinzip sollte die Cloud das Mekka für jeden IT-Verantwortlichen sein. Er kann sich die besten Services für seinen Anwendungsfall heraussuchen, diese vorab ohne großen Aufwand testen und anschließend integrieren. Das ganze Ausmaß des Disasters spiegeln allerdings bereits aktuelle Cloud Marktplätze wieder. Cloud-Marktplätze versuchen Best-of-Breed Lösungen zu katalogisieren, indem sie einzelne Cloud-Lösungen in unterschiedliche Kategorien zusammenfassen und Unternehmen damit ein umfangreiches Portfolio verschiedener Lösungen bieten, mit der sich eine Cloud-Produktivitäts-Suite zusammenstellen lässt. Dennoch zeigen diese Marktplätze, obwohl sie sehr stark kontrolliert und vermeintlich integriert sind, an einer entscheidenden Stelle massive Probleme mit der Integration. Es existieren viele einzelne SaaS-Applikationen die nicht zusammenspielen. Das bedeutet, dass keine gemeinsame Datenbasis existiert und das z.B. der E-Mail Service nicht auf die Daten im CRM-Service zugreifen kann und umgekehrt. Damit entstehen einzelne Datensilos und Insellösungen innerhalb des Marktplatzes.

Die Anzahl neuer SaaS-Applikationen wächst täglich und damit auch der Bedarf, diese unterschiedlichen Lösungen miteinander zu integrieren und Daten austauschen zu lassen. Aktuell bewegt sich der Cloud-Markt jedoch unkontrolliert auf viele kleine Insellösungen zu, die jede für sich zwar einen Mehrwert bieten, in der Summe jedoch zu vielen kleinen Dateninseln führen. Mit solchen Entwicklungen haben Unternehmen schon in den Zeiten vor der Cloud zu kämpfen gehabt und das vergebens.

Worauf sollte man achten?

Eines sollten (angehende) Cloud Nutzer beachten und vor allem verstehen. Die Cloud ist ungleich der bekannten on Premise Infrastruktur. Das bedeutet, selbst die Migration eines E-Mail Systems, einer der vermeintlich höchststandardisierten Anwendungen, wird dabei zum Abenteuer. Das liegt daran, dass viele Unternehmen kein Standard E-Mail System nutzen und stattdessen weitere proprietäre Add-ons oder selbstentwickelte Erweiterungen angebunden haben, die so nicht in der Cloud existieren.

Hinzu kommen weitere Applikationen, die einfach zur IT-Enterprise Architektur dazu gehören und höchst individuelle Ansprüche erfüllen. Ich habe mit dem Strategie-Manager eines deutschen DAX Unternehmens gesprochen das weltweit tätig ist und eine Cloud Strategie evaluiert. Das Unternehmen verfügt Global über etwa 10.000(!) Applikationen (Desktop, Server, Produktionssysteme usw.). Dieses Beispiel ist sehr extrem und spiegelt nicht die durchschnittlichen Herausforderungen eines Unternehmens dar. Es zeigt aber die Dimension, in der man sich bewegen kann und die sich ebenfalls auf deutlich kleinere Applikations-Infrastrukturen herunterbrechen lassen.

Vor dem Weg in die Cloud sollten sich IT-Entscheider daher darüber Gedanken machen und die Chance nutzen, die alten über die Jahre hinweg entstandenen Sonderlocken abzuschneiden. Eine 1:1 Migration wird ohne großen Aufwand und Mehrkosten nicht funktionieren und die Einsparpotentiale, welche die Cloud bietet, relativieren. Wer sich für den Umzug seiner individuell entwickelten Applikationen auf eine Cloud Infrastruktur (IaaS) bzw. Platform (PaaS) entscheidet sollte einplanen, das er mit der Entwicklung dieser Applikation auf der grünen Wiese startet. Eine 1:1 Migration wird (evtl. je nach Cloud Infrastruktur/ Platform) nicht funktionieren und ist ein Mythos.

Wer Hilfe beim Betrieb seiner virtuellen Infrastruktur (IaaS) bzw. Entwicklungsplattform (PaaS) benötigt, sollte nicht auf einen Public Cloud Anbieter setzen, sondern auf einen Managed Cloud Anbieter bzw. Hosted Private PaaS Anbieter, die beide zusätzlich Professional Services bieten.

Cutting out the middleman funktioniert nicht!

Die Public Cloud hat auf Grund des Self-Service den Beigeschmack des „Cutting out the middleman“, bei dem ein Zwischenhändler nicht mehr benötigt wird, da sich der Endkunde direkt beim Hersteller bedient. Für Distributoren, die sich ausschließlich auf den reinen Wiederverkauf von Software und Hardware spezialisiert haben, trifft dies auch zu. Software-as-a-Service wird zu deren Tod führen, wenn sie sich nicht verändern. Cloud Natives (Startups, innovative Unternehmen) werden sich ebenfalls den Self-Service zu nutze machen. Allerdings gilt das nicht für die Masse im Unternehmensumfeld.

Systemintegratoren werden wichtiger als jemals zuvor. „Cutting out the middleman“ in der Public Cloud funktioniert nicht. Dafür sind die Schnittstellenproblematik und das fehlende Cloud Wissen zu gegenwärtig. Carlo liegt mit seiner Vermutung, dass Accenture mit Cloud Beratung und Integration bereits 3,6 Milliarden Dollar Umsatz macht, tendenziell richtig. Die Indizien und Rückmeldungen aus dem Markt sind eindeutig.

Auf jeden Fall dürfen sich Systemintegratoren und Integration-as-a-Service Anbieter auf eine rosige Zukunft freuen.

Kategorien
Analysen

Die Hybrid Cloud ist die Zukunft des Cloud Computing

Auch wenn viele Anbieter die Hybrid Cloud zwiegespalten betrachten, gibt es viele gute Gründe diese in die eigene Strategie einzubeziehen. Das gilt sowohl für die Anbieter als auch für die Anwender von Cloud Computing Lösungen. Denn im Laufe der letzten Jahre hat sich sehr klar herausgestellt, dass die Kombination von on-Premise IT-Infrastrukturen mit Public Clouds zu einem deutlichen Mehrwert führen. Haben viele Cloud Anbieter zunächst verstärkt nur das Public Cloud Modell beworben und alles andere vernachlässigt, sind es nun genau diese, die auf den Geschmack von Hybrid Cloud Lösungen gekommen sind und diese bei ihren Kunden bewerben. Aus diesem Grund sind ebenfalls mächtige Private Cloud Softwarelösungen notwendig, die on-Premise für den Aufbau einer echten Cloud Computing Infrastruktur genutzt werden können, um die Mehrwerte des Cloud-Modells auch innerhalb einer selbstverwalten IT-Infrastruktur zu erhalten.

Was ist eine Hybrid Cloud

Eine Hybrid Cloud kombiniert die Vorteile einer Private Cloud mit denen einer Public Cloud. Bei Bedarf lässt sich damit eine selbstverwaltete on-Premise IT-Infrastruktur mit weiteren Ressourcen und IT-Services aus der Public Cloud von einem oder mehreren Anbietern erweitern. Ist der Bedarf gedeckt oder werden die Ressourcen nicht mehr benötigt, werden diese nach der Nutzung wieder heruntergefahren und die on-Premise Infrastruktur arbeitet völlig autark weiter.

In jedem Fall ist es dabei ausschlaggebend, dass auf der on-Premise Seite dazu eine mächtige und auf den Hybrid-Betrieb bereite Cloud-Infrastruktur zur Verfügung steht, was nur durch eine professionelle Softwarelösung realisiert werden kann.

Gründe für die Hybrid Cloud

Hybrid Clouds sind so konzipiert, dass sie auf eine schnelle Art und Weise skalieren können und damit die Bedürfnisse eines Unternehmen kurzfristig erfüllen können. Da in dieser Cloud Form unterschiedliche aufeinander abgestimmte Typen der Cloud zusammenkommen, handelt es sich dabei um die ideale Lösung für die Umsetzung großer Projekte, die ein einzelnes Unternehmen alleine in seiner On-Premise Umgebung nicht umsetzen könnte. Weiterhin führt der Einsatz einer Hybrid Cloud zu Kosteneinsparungen für ein Unternehmen, indem keine Server und weiter Hardwarekomponenten vorgehalten werden müssen.

Eine Hybrid Cloud kann jederzeit und von überall in der Welt betrieben werden. Damit verfügt sie über eine globale Reichweite und erlaubt es Unternehmen auch geographische Grenzen sehr einfach und flexibel zu überwinden. Diese Art des Infrastrukturdesigns führt zudem zu einem sehr zuverlässigen Betrieb, auch im Fehlerfall innerhalb einer Region der Hybrid Cloud.

Drei Treiber für den Einsatz einer Hybrid Cloud

Erhöhung der Flexibilität

Unternehmen können auf Hybrid Clouds zurückgreifen, um damit die Anforderungen ihrer Applikationen und Business Cases schnell und flexible umsetzen und das sehr kosteneffektiv. Zum Beispiel muss die Datenbank eines Unternehmens aus Sicherheits- und Compliance-Gründen auf physikalischen Servern im eigenen Rechenzentrum betrieben werden. Mit einem Hybrid Cloud Ansatz lässt sich die Datenbank weiterhin in einer Private Cloud oder Virtual Private Cloud betreiben, während die Web-Applikation in einer Public Cloud Umgebung läuft.

Verbesserung der Skalierbarkeit

Unternehmen, die über Ressourcen innerhalb einer eigenen Private Cloud verfügen, möchten in der Lage sein, diese bequem zu erweitern oder ein „Bursting“ vornehmen, um einen hohen Bedarf an mehr Kapazitäten oder viel mehr Rechenleistung benötigen, welche sie aktuell nicht vorhalten können, um zum Beispiel Big Data Analytics vorzunehmen. Insbesondere bei sehr volatilen Workloads, die zeitweise zu unvorhersehbaren Lastspitzen führen, muss ein Unternehmen sicherstellen, dass ständig ein Zugriff auf zusätzliche und ausreichende Rechenleistung gewährleistet ist. Da lässt sich mit einer Hybrid Cloud sehr gut realisieren.

Einsatz mehrerer verteilter Umgebungen

Eine Hybrid Cloud Umgebung erlaubt es Unternehmen, eine Public Cloud für Aufgaben wie Entwicklung, Test und Ausprobieren einzusetzen und sobald die sensitiven Applikationen fertig für den produktiven Einsatz sind, innerhalb einer eigenen Private Cloud oder Virtual Private Cloud Umgebung zu überführen und dort zu betreiben. Aus Sicherheits- und Datenschutzgründen betreiben Organisationen ihre für die Produktion unternehmenskritischen Applikationen innerhalb einer Private Cloud Umgebung. Für die Entwicklung, Qualitätssicherung, dem Test und dem „einfach mal ausprobieren“, kann eine Public Cloud ausreichen, um die Kosten und den Aufwand für den eigenen Aufbau der benötigen Umgebung gering zu halten.

Use Cases einer Hybrid Cloud

Kurzfristiger on-Demand Bezug von Rechenleistung für interne Projekte

Auch wenn eine Private Cloud die Eigenschaften der Public Cloud in das eigene Rechenzentrum holt, bestehen die Grenzen in der physikalischen Verfügbarkeit der für die Virtualisierung notwendigen Ressourcen. Das kann zu Verzögerungen in Projekten und im Entwicklungszyklus führen. Durch das Aufspannen einer Hybrid Cloud können Entwickler auch dann weiter entwickeln, wenn die interne IT-Infrastruktur an ihre Grenzen gelangt ist und keine Ressourcen mehr bereitstellen kann. Dazu bedienen sich die Mitarbeiter über die Hybrid-Cloud Funktionalität der Private Cloud Lösung einfach bei einem Anbieter aus einer Public Cloud und nutzen dessen Ressourcen zur Überbrückung. Sind wir ausreichend Ressourcen in der Private Cloud vorhanden, können die Systeme in die eigene IT-Infrastruktur zurückgeholt werden. Da sich die Hybrid-Cloud Lösung die Abrechnung der externen Ressourcen überwacht, können die Kosten auch entsprechend den jeweiligen Abteilungen und Projekten zugeordnet werden.

Datenverarbeitung von unternehmensunkritischen Daten

Datenverarbeitung von Unternehmensdaten funktioniert auch in der Cloud. Der entscheidende Punkt besteht hierbei jedoch darin, dass diese zuvor nach kritischen und unkritischen Daten klassifiziert werden müssen. Somit lassen sich unternehmensunkritischen – wie anonymisierte Fakten oder Daten für Börsenforecasts – bequem in einer Public Cloud verarbeiten. Finanzdaten oder Datenschutzkritische Informationen gehören dagegen in die Private Cloud. In manchen Fällen müssen diese jedoch erst getrennt werden. Eine Applikation, die das Hybrid Cloud Konzept nutzt, kann hier zum Beispiel entscheiden, wo sie welche Daten verarbeiten soll.

Eine weitere Möglichkeit besteht in der Trennung der Daten von der eigentlichen Applikation, was im Normalfall die Regel ist. Datenbanken oder Speicher sind in gut architektonisch durchdachten von der Anwendung entkoppelt. Das bietet ebenfalls das Potential für den Einsatz einer Private Cloud. Die Applikation kann hochskalierbar in einer Public Cloud betrieben werden. Die notwendigen Daten und Datenbanken befinden sich in einer Private Cloud.

Einen Zeitvorteil verschaffen

Viele Organisationen verfügen nicht über personell gut ausgestattete IT-Abteilungen. Weiterhin dauert die Beschaffung, Installation und Bereitstellung der entsprechenden Ressourcen viel Zeit. Dadurch können Projekte auf Grund von IT-Ressourcenmangel mitunter gar nicht oder nur verspätet durchgeführt werden. Das Hybrid-Cloud Konzept bietet hier den sehr großen Vorteil, dass Entwickler über den Bezug von Ressourcen aus einer Public Cloud bereits mit dem Projekt starten können. Selbst dann, wenn die IT-Abteilung noch nicht die Möglichkeit besitzt, die notwendigen Ressourcen selbst bereitzustellen. Sind die eigenen Ressourcen vorhanden, kann auf diese anschließend gewechselt werden.

Wünschenswerte Funktionen einer Hybrid Cloud

Eine Private Cloud mit Hybrid-Funktionalität sollte vor allem eines sein, transparent. Sie muss nahtlos bestehende Public Cloud Umgebungen integrieren, ohne dass der Endanwender direkt bemerkt, dass er eine virtuelle Maschine extern bezieht, aber dennoch bewusst darauf aufmerksam gemacht werden.
Das bedeutet, dass ein End-Nutzer die Möglichkeit erhalten muss, sich über ein Self-Service Portal eigene virtuelle Maschinen (VMs) bei Public Cloud Anbietern zu provisionieren. Die Liste an verfügbaren VMs stellt ein Administrator bereit, um die Kontrolle über die Kosten und unkontrollierten IT-Wildwuchs zu behalten. Dazu gehört ebenfalls die anschließende Nutzung der virtuellen Maschine über eine graphische Nutzung, direkt aus dem Self-Service Portal heraus. Eine weitere sehr wichtige Funktion ist das automatische Deployment von Applikationen, die es dem End-Nutzer ermöglichen, sehr bequem einen vollständigen Softwarestack beim Start der virtuellen Maschinen über die Hybrid Cloud zu installieren. Letztendlich gehört ebenfalls eine automatische Abrechnung der Kosten in jede Hybrid-Cloud Lösung, die nahtlos in die Private Cloud Software integriert ist, um einen Überblick über alle verursachten Kosten zu erhalten und den entsprechenden Kostenstellen zuweisen zu können.

Administratoren muss über Monitoring Tools zudem die Möglichkeiten gegeben werden, Statusinformationen über die gestarteten virtuellen Maschinen und dem Zustand weiterer Teile der angebundenen Public Cloud Infrastruktur, zu bekommen. Eine besondere, aber immer wieder vernachlässigte Funktion ist das Berücksichtigen von High-Availability der Hybrid-Cloud Integration. Das bedeutet, dass wenn eine virtuelle Maschine in einen Fehlerzustand gerät und nicht mehr funktionsfähig ist, dass automatisch eine neue Maschine gestartet wird, ohne das der Nutzer dies im ersten Moment bemerkt. Weiterhin haben die meisten Public Cloud Anbieter ihre Cloud-Infrastruktur in sogenannte Availability Zones aufgeteilt. Dabei handelt es sich in der Regel um einzelne Rechenzentren innerhalb einer Region, in der sich wiederum mehrere Rechenzentren befinden. Auch ein Rechenzentrum oder Teile eines Rechenzentrums können in einen Fehlerzustand geraten. Auch in diesem Fall sollte die Hybrid-Cloud Lösung dafür sorgen, dass die auf der Public Cloud Umgebung gestarteten virtuellen Maschinen in einer funktionsfähigen Availability Zone hochgefahren werden, wenn sie in der fehlerbehafteten nicht mehr ansprechbar sind.

Die Cloud-Welt ist hybrid

Eine Hybrid Cloud ermöglicht einen eindeutigen Use Case für den Einsatz einer Public Cloud. Dabei können bestimmte Bereiche der IT-Infrastruktur (Rechenleistung und Speicherplatz) in einer Public Cloud Umgebung abgebildet werden. Der Rest und unternehmenskritische Bereiche bleiben innerhalb der selbstverwalteten on-Premise IT-Infrastruktur oder Private Cloud.

Darüber hinaus liefert das Hybrid Cloud Modell einen wertvollen Ansatz für das Architektur-Design, indem Teile der lokalen Infrastruktur, die hohe Kosten verursachen, aber gleichermaßen schwierig zu skalieren sind, mit Infrastrukturen kombiniert werden, die massiv skalierbar und bei Bedarf provisioniert werden können. Die Anwendungen und Daten werden auf der für den Einzelfall besten Plattform ausgerollt und die Verarbeitung zwischen beiden integriert.

Der Einsatz hybrider Szenarien bestätigt die Tatsache, dass nicht alle IT-Ressourcen in Public Cloud Umgebungen abgebildet werden sollten und für einige sogar niemals in Frage kommen. Werden Themen wie die Compliance, Geschwindigkeitsanforderungen und Sicherheitsbeschränkungen betrachtet, ist eine lokale Infrastruktur weiterhin notwendig. Die Erfahrungen aus dem hybriden Modell helfen dabei aber zu verstehen, welche Daten lokal bleiben sollten und welche innerhalb einer Public Cloud Umgebung verarbeitet werden können.

Kategorien
Analysen

Enterprise Cloud: IBM bringt sich in Position

Letzte Woche hat IBM angekündigt mehr als 1,2 Milliarden US-Dollar in den Ausbau seines globalen Cloud Angebots zu investieren. Hierzu sollen Cloud-Services aus weltweit 40 Rechenzentren in 15 Ländern bereitgestellt werden. Deutschland wird IBM aus einem Rechenzentrum in Ehningen versorgen. Dabei wird Softlayer, das IBM in 2013 übernommen hat, eine Schlüsselrolle spielen, dessen Kapazitäten sich in diesem Zuge verdoppeln sollen.

Investitionen sind ein deutliches Zeichen

Die 1,2 Milliarden US-Dollar sind nicht die ersten Investitionen, die IBM in den vergangenen Jahren in sein Cloud Business fließen lässt. Seit 2007 wurden über 7 Milliarden US-Dollar in die Expansion des Geschäftsfeldes investiert. Darunter 2 Milliarden US-Dollar für Softlayer. Hinzu kommen mehr als 15 weitere Akquisitionen die Cloud Computing Lösungen und Know-How in das Unternehmen gebracht haben. Die letzte große Ankündigung war die Summe von 1 Milliarde US-Dollar, die IBM in sein Cognitive Computing System Watson investieren wird, um es u.a. der breiten Masse als Service zur Verfügung zu stellen.

Diese Investitionen zeigen, dass es IBM mit der Cloud tatsächlich ernst meint und sie als eine Säule für seine zukünftige Unternehmensstrategie sieht. So sieht auch die Erwartungshaltung aus. IBM geht davon aus, dass der weltweite Cloud-Markt bis zum Jahr 2020 auf mehr als 200 Milliarden US-Dollar wachsen wird. Bis zum Jahr 2015 will IBM jährlich sieben Milliarden US-Dollar weltweit mit seinen Cloud-Lösungen erwirtschaften.

Softlayer Positionierung ist von entscheidender Bedeutung

Ein Besonderes Augenmerk will IBM auf die Softlayer Cloud legen. Hierzu sollen sich die Kapazitäten im Jahr 2014 verdoppeln. Laut IBM konnten durch den Zukauf des Cloud Computing Anbieter in 2013 fast 2.400 neue Kunden gewonnen werden. Mit Softlayer sollen die wichtigsten Märkte und Finanzzentren gezielt gestärkt werden. Weiterhin soll die Softlayer Cloud in Zukunft auch von der Watson Technologie profitieren.

Die Akquisition von Softlayer war ein wichtiger Schritt für IBMs Cloud-Strategie, um sich eine bessere Cloud-DNA einzuverleiben. Die IBM SmartCloud hat bis zum heutigen Tag enttäuscht. Das ergeben nicht nur Gespräche mit potentiellen Kunden die sich zum größten Teil negativ über das Angebot und die Nutzung geäußert haben.

Spannend wird die Erweiterung der Softlayer Cloud werden. Laut der offiziellen Softlayer Webseite werden derzeit an sieben Standorten weltweit mehr als 191.500 Server betrieben.

  • Dallas: 104,500+ Server
  • Seattle: 10,000+ Server
  • Washington: 16,000+ Server
  • Houston: 25,000+ Server
  • San Jose: 12,000+ Server
  • Amsterdam: 8,000+ Server
  • Singapore: 16,000+ Server

Das sind im Vergleich zu anderen Cloud Playern wie die Amazon Web Services (über 450.000), Microsoft (etwa 1.000.000) und Google allerdings nur Peanuts. Selbst nach einer Verdopplung im Jahr 2014 auf 383,300 Server.

IBMs weltweite Cloud Rechenzentren

Ein Teil der genannten 1,2 Milliarden US-Dollar sollen im Jahr 2014 genutzt werden, um insgesamt 15 neue Rechenzentren zu eröffnen. In der Summe sollen dann 40 Rechenzentren verteilt auf 15 Länder die weltweite Basis der IBM Cloud bilden. Die neuen Cloud-Rechenzentren werden in China, Hongkong, Japan, Indien, London, Kanada, Mexiko City, Washington D.C. und Dallas entstehen. Das deutsche Cloud-Rechenzentrum steht in Ehningen bei Stuttgart das Schweizer in Winterthur.

Auf der technischen Seite besteht jedes neue Cloud-Rechenzentrum aus mindestens vier sogenannten PODS (Points of Distribution). Eine eigenständige Einheit besteht aus 4.000 Servern. Jeder POD arbeitet unabhängig von den anderen PODs, um die Services bereitzustellen und soll eine garantierte Verfügbarkeit von 99,9 Prozent aufweisen. Kunden können sich für die Nutzung eines POD mit 99,9 Prozent Verfügbarkeit entscheiden oder eine Verteilung über mehrere PODs wählen, um damit das Verfügbarkeitsverhältnis zu erhöhen.

Der Footprint im Unternehmensumfeld

IBM will sich mit seinen Investitionen klar gegen die Amazon Web Services positionieren. Man muss jedoch eines unterscheiden. Amazon AWS (AWS) ist einzig und alleine in der Public Cloud vertreten und wird dieses laut Aussage von Andy Jassy auf der letzten re:Invent auch bleiben. AWS glaubt an die Public Cloud und es besteht kein Interesse auch in (Hosted) Private Cloud Infrastrukturen zu investieren. Ein Unternehmen, das bei AWS jedoch das nötige Kleingeld mitbringt erhält dort durchaus seine eigene private Region, die von AWS verwaltet wird (ähnlich AWS GovCloud).

Beim Wettbewerb zwischen IBM und AWS geht es in erster Linie nicht um den Vorsprung in der Public, Private oder sonst einer Art von Cloud-Form. Es geht um die Vormachtstellung bei den Unternehmenskunden. AWS ist mit Startups und Entwicklern groß geworden und versucht seit geraumer Zeit auch die Attraktivität bei den Unternehmen zu erhöhen. Das haben sie mit mehreren neuen Services auf der vergangenen re:Invent gezeigt. Dabei handelt es sich allerdings um einen Markt, auf dem IBM bereits seit Jahrzehnten vertreten ist und über eine gute und breite Kundenbasis sowie wertvolle Kontakte bei den Entscheidern verfügt. Das ist ein Vorteil der, trotz AWSs derzeitigen technischen Vorsprung, nicht zu unterschätzen ist. Ein weiterer Vorteil der für IBM zum Tragen kommt ist die große Basis an Partnern im Bezug auf die technische Unterstützung und dem Vertrieb. Denn der reine Self-Service, den eine Public Cloud bietet, passt nicht zum Großteil der Unternehmenskunden. Dennoch muss IBM zusammen mit der Softlayer Cloud bei den Unternehmen erst noch technisch überzeugen und den Kunden einen konkreten Nutzen für die Wertschöpfung aufzeigen um erfolgreich zu sein.

Was sich für IBM als ein Vorteil gegenüber anderen Cloud-Anbietern wie AWS erweisen wird, ist die lokale Präsenz mit Rechenzentren in mehreren Ländern. Insbesondere der deutsche Markt wird dies zu schätzen wissen, wenn ebenfalls das Angebot stimmt. Hier bleibt es spannend zu sehen, ob andere US Cloud-Anbieter nachziehen werden und ein Rechenzentrum in Deutschland eröffnen, um den Bedenken deutscher Unternehmen entgegenzukommen.

IBMs Investitionen zeigen, dass der Anbieter die Cloud als eine zukünftige tragende Säule sieht und in diesem Bereich ein tragfähiges Geschäft aufbauen will.

Kategorien
Analysen

Ab in die Private Cloud. OpenStack ist keine Infrastrukturlösung für die Public Cloud!

OpenStack ist unbestritten der neue Star am Himmel für Open-Source Cloud-Infrastrukturen. Zahlreiche bekannte Größen, darunter Rackspace, RedHat, HP, Deutsche Telekom und IBM setzen auf die Software, um ihre Angebote aufzubauen. Aber ein Thema bleibt spannend. Alle reden davon, dem unangefochtenen Marktführer Amazon Web Services Marktanteile abzunehmen. Allen voran die genannten Public Cloud Anbieter, die sich für OpenStack entschieden haben. Keine Frage, im großen Cloud Computing Markt wird jeder seinen Platz finden. Aber ist OpenStack die richtige Technologie, um ein Marktführer in der Public Cloud zu werden oder reicht es am Ende „nur“ für die Private Cloud (Hybrid Cloud)?

Rackspace erweitert sein Portfolio um Cloud Consulting-Services

Ich hatte bereits über das Diversifikationsproblem geschrieben und habe in diesem Zusammenhang OpenStack als den goldenen Käfig bezeichnet, da alle beteiligten Anbieter im selben Dilemma stecken und sich nicht voneinander unterscheiden. Denn stellt man alleine nur die beiden Top OpenStack Anbieter Rackspace und HP gegenüber, dann zeigt sich, dass die Portfolios in etwa zu 99 Prozent gleich sind.

Um die Gunst seiner Shareholder zu besänftigen hat Rackspace bereits erste neue Wege beschritten und seine Strategie verändert und damit selbst die Aufholjagd in der Public Cloud gestoppt. Laut Rackspace CTO John Engates fragen Kunden verstärkt um Hilfe, damit Rackspace mit seinen Kenntnissen beim Aufbau von Cloud Infrastrukturen hilft. Rackspace wird sich in Zukunft somit scheinbar etwas weniger auf das Hosting von Cloud Services konzentrieren und stattdessen mehr in Beratungsdienstleistungen von Cloud Infrastrukturen investieren. Dabei könnte es sich um einen klugen Schachzug handeln. Schließlich ist die Nachfrage nach Private Cloud Infrastrukturen ungebrochen und OpenStack wird hier eine führende Rolle einnehmen. Eine weitere Chance könnte hier mit der Hybrid Cloud bestehen, indem die Private Cloud Infrastrukturen mit Rackspaces Public Cloud verbunden werden.

Eigene Technologien sind ein Wettbewerbsvorteil

Eine weitere interessante Frage ist, ob eine Technologie, was OpenStack letztendlich nur ist, entscheidend für den Erfolg ist? Ein Blick auf führende Anbieter wie die Amazon Web Services, Microsoft Windows Azure und nun auch die Google Compute Engine sowie deren gefühlte Kronprinzen (CloudSigma, ProfitBricks) zeigen eines. Alle haben proprietäre Infrastrukturlösungen unter den IaaS-Angeboten aufgebaut. Zwar setzen soweit alle an der einen oder anderen Stelle auf eine Open-Source Lösung. Aber am Ende ist alles selbst entwickelt und integriert. Das führt zu der Schlussfolgerung, dass proprietäre Technologien ein Wettbewerbsvorteil sind, da schließlich nur ein einziger Anbieter davon profitiert. Oder war Amazon AWS doch „einfach nur der erste Anbieter am Markt“ und hat deswegen diesen enormen Vorsprung?

Zahlen sprechen für OpenStack Private Clouds

Auf der offiziellen OpenStack Webseite werden Use Cases vorgestellt, wie OpenStack tatsächlich eingesetzt wird. Diese sind unterteilt in den Kategorien: On-Premise Private Cloud, Hosted Private Cloud, Hybrid Cloud und Public Cloud. Ein Blick auf die aktuelle Verteilung (Stand: 14.01.2014) für den OpenStack Einsatz kommt zum folgenden Ergebnis.

OpenStack-Deployments 01/14/2014

Demnach liegen On-Premise Private Cloud (55) Installation ganz klar an der Spitze mit einem weitem Abstand gefolgt von Hosted Private Cloud (19) und Public Cloud (17) Deployments. Es folgen die Hybrid Clouds (10) und nicht genauer spezifizierte Projekte (4).

Bei den Zahlen handelt es sich wohlgemerkt um die Deployments, die offiziell an OpenStack gemeldet wurden. Allerdings zeigen diese eine deutliche Tendenz wo die Zukunft von OpenStack liegt. In der Private Cloud. Wobei ich davon ausgehe, dass Hosted Private Cloud Deployments und Hybrid Clouds noch stärker zunehmen werden. Genauso wie OpenStack Installationen, die als Mittel zum Zweck dienen und die reine infrastrukturelle Grundlage für Web-Dienste bilden.