Kategorien
Analysen

Integration und Cloud Computing: Irgendetwas zwischen Versprechen, Erwartungen, Komplexität und Mehrkosten

Cloud Computing Anbieter sollten sich der Realität stellen und ihren potentiellen Kunden die Wahrheit sagen! Die Integration im gesamten Cloud Stack sorgt für die größte Komplexität in der Cloud. Das beinhaltet ebenfalls die weiteren Kosten die kein Public Cloud Anbieter neben seinen on Demand und pay per use Versprechen transparent auf seinen Marketingfolien stehen hat. Ein Überblick.

Wie ist die Erwartungshaltung der Anwender?

Cloud Computing Anbieter versprechen neben der bedarfsgerechten Nutzung (on Demand) und Abrechnung (Pay per use) einen einfachen Zugriff auf IT-Ressourcen. Das hört sich auf dem Papier fantastisch an und funktioniert in der Regel sehr gut. Der Spaß hört allerdings auf wenn es darum geht, bestehende Systeme oder gar neue Services in der Cloud zu kombinieren. Die Integration verursacht die größten Schmerzen.

Gespräche mit Anwendern und Anfragen von an der Cloud interessierten Unternehmen spiegeln eine harte Realität wieder. Die Erwartungshaltungen bestehen z.B. darin, existierende on Premise Lösungen gegen 1:1 Äquivalente in der Cloud zu ersetzen. Die Hoffnung besteht, dass sich damit der Integrationsaufwand – der früher on Premise bestand – deutlich einfacher realisieren lässt, da sich die Systeme der jeweiligen Anbieter „bereits innerhalb einer zentralisierten Infrastruktur befinden“. Es wird also davon ausgegangen, dass sich die altbekannte Schnittstellenproblematik, die jeder IT-Abteilung seit Jahrzehnten große Probleme bereitet, einfacher umsetzen lässt. Dabei handelt es sich aus Anwendersicht um eine nachvollziehbare Erwartungshaltung. Schließlich halten die Anbieter die Fäden innerhalb ihrer Cloud Infrastruktur (auch SaaS-Angebote) in der Hand und könnten eine einfachere Integration zwischen mehreren Systemen aus dem eigenen Hause bieten.

Ähnliche Rückmeldungen kommen von den Cloud Systemintegratoren. APIs und die Integration von anbieterübergreifenden Services aber ebenfalls anbieterproprietären Services sorgen in der Cloud für den selben Aufwand wie on Premise.

Wie sieht die Realität aus?

Im Prinzip sollte die Cloud das Mekka für jeden IT-Verantwortlichen sein. Er kann sich die besten Services für seinen Anwendungsfall heraussuchen, diese vorab ohne großen Aufwand testen und anschließend integrieren. Das ganze Ausmaß des Disasters spiegeln allerdings bereits aktuelle Cloud Marktplätze wieder. Cloud-Marktplätze versuchen Best-of-Breed Lösungen zu katalogisieren, indem sie einzelne Cloud-Lösungen in unterschiedliche Kategorien zusammenfassen und Unternehmen damit ein umfangreiches Portfolio verschiedener Lösungen bieten, mit der sich eine Cloud-Produktivitäts-Suite zusammenstellen lässt. Dennoch zeigen diese Marktplätze, obwohl sie sehr stark kontrolliert und vermeintlich integriert sind, an einer entscheidenden Stelle massive Probleme mit der Integration. Es existieren viele einzelne SaaS-Applikationen die nicht zusammenspielen. Das bedeutet, dass keine gemeinsame Datenbasis existiert und das z.B. der E-Mail Service nicht auf die Daten im CRM-Service zugreifen kann und umgekehrt. Damit entstehen einzelne Datensilos und Insellösungen innerhalb des Marktplatzes.

Die Anzahl neuer SaaS-Applikationen wächst täglich und damit auch der Bedarf, diese unterschiedlichen Lösungen miteinander zu integrieren und Daten austauschen zu lassen. Aktuell bewegt sich der Cloud-Markt jedoch unkontrolliert auf viele kleine Insellösungen zu, die jede für sich zwar einen Mehrwert bieten, in der Summe jedoch zu vielen kleinen Dateninseln führen. Mit solchen Entwicklungen haben Unternehmen schon in den Zeiten vor der Cloud zu kämpfen gehabt und das vergebens.

Worauf sollte man achten?

Eines sollten (angehende) Cloud Nutzer beachten und vor allem verstehen. Die Cloud ist ungleich der bekannten on Premise Infrastruktur. Das bedeutet, selbst die Migration eines E-Mail Systems, einer der vermeintlich höchststandardisierten Anwendungen, wird dabei zum Abenteuer. Das liegt daran, dass viele Unternehmen kein Standard E-Mail System nutzen und stattdessen weitere proprietäre Add-ons oder selbstentwickelte Erweiterungen angebunden haben, die so nicht in der Cloud existieren.

Hinzu kommen weitere Applikationen, die einfach zur IT-Enterprise Architektur dazu gehören und höchst individuelle Ansprüche erfüllen. Ich habe mit dem Strategie-Manager eines deutschen DAX Unternehmens gesprochen das weltweit tätig ist und eine Cloud Strategie evaluiert. Das Unternehmen verfügt Global über etwa 10.000(!) Applikationen (Desktop, Server, Produktionssysteme usw.). Dieses Beispiel ist sehr extrem und spiegelt nicht die durchschnittlichen Herausforderungen eines Unternehmens dar. Es zeigt aber die Dimension, in der man sich bewegen kann und die sich ebenfalls auf deutlich kleinere Applikations-Infrastrukturen herunterbrechen lassen.

Vor dem Weg in die Cloud sollten sich IT-Entscheider daher darüber Gedanken machen und die Chance nutzen, die alten über die Jahre hinweg entstandenen Sonderlocken abzuschneiden. Eine 1:1 Migration wird ohne großen Aufwand und Mehrkosten nicht funktionieren und die Einsparpotentiale, welche die Cloud bietet, relativieren. Wer sich für den Umzug seiner individuell entwickelten Applikationen auf eine Cloud Infrastruktur (IaaS) bzw. Platform (PaaS) entscheidet sollte einplanen, das er mit der Entwicklung dieser Applikation auf der grünen Wiese startet. Eine 1:1 Migration wird (evtl. je nach Cloud Infrastruktur/ Platform) nicht funktionieren und ist ein Mythos.

Wer Hilfe beim Betrieb seiner virtuellen Infrastruktur (IaaS) bzw. Entwicklungsplattform (PaaS) benötigt, sollte nicht auf einen Public Cloud Anbieter setzen, sondern auf einen Managed Cloud Anbieter bzw. Hosted Private PaaS Anbieter, die beide zusätzlich Professional Services bieten.

Cutting out the middleman funktioniert nicht!

Die Public Cloud hat auf Grund des Self-Service den Beigeschmack des „Cutting out the middleman“, bei dem ein Zwischenhändler nicht mehr benötigt wird, da sich der Endkunde direkt beim Hersteller bedient. Für Distributoren, die sich ausschließlich auf den reinen Wiederverkauf von Software und Hardware spezialisiert haben, trifft dies auch zu. Software-as-a-Service wird zu deren Tod führen, wenn sie sich nicht verändern. Cloud Natives (Startups, innovative Unternehmen) werden sich ebenfalls den Self-Service zu nutze machen. Allerdings gilt das nicht für die Masse im Unternehmensumfeld.

Systemintegratoren werden wichtiger als jemals zuvor. „Cutting out the middleman“ in der Public Cloud funktioniert nicht. Dafür sind die Schnittstellenproblematik und das fehlende Cloud Wissen zu gegenwärtig. Carlo liegt mit seiner Vermutung, dass Accenture mit Cloud Beratung und Integration bereits 3,6 Milliarden Dollar Umsatz macht, tendenziell richtig. Die Indizien und Rückmeldungen aus dem Markt sind eindeutig.

Auf jeden Fall dürfen sich Systemintegratoren und Integration-as-a-Service Anbieter auf eine rosige Zukunft freuen.

Kategorien
Analysen

Die Hybrid Cloud ist die Zukunft des Cloud Computing

Auch wenn viele Anbieter die Hybrid Cloud zwiegespalten betrachten, gibt es viele gute Gründe diese in die eigene Strategie einzubeziehen. Das gilt sowohl für die Anbieter als auch für die Anwender von Cloud Computing Lösungen. Denn im Laufe der letzten Jahre hat sich sehr klar herausgestellt, dass die Kombination von on-Premise IT-Infrastrukturen mit Public Clouds zu einem deutlichen Mehrwert führen. Haben viele Cloud Anbieter zunächst verstärkt nur das Public Cloud Modell beworben und alles andere vernachlässigt, sind es nun genau diese, die auf den Geschmack von Hybrid Cloud Lösungen gekommen sind und diese bei ihren Kunden bewerben. Aus diesem Grund sind ebenfalls mächtige Private Cloud Softwarelösungen notwendig, die on-Premise für den Aufbau einer echten Cloud Computing Infrastruktur genutzt werden können, um die Mehrwerte des Cloud-Modells auch innerhalb einer selbstverwalten IT-Infrastruktur zu erhalten.

Was ist eine Hybrid Cloud

Eine Hybrid Cloud kombiniert die Vorteile einer Private Cloud mit denen einer Public Cloud. Bei Bedarf lässt sich damit eine selbstverwaltete on-Premise IT-Infrastruktur mit weiteren Ressourcen und IT-Services aus der Public Cloud von einem oder mehreren Anbietern erweitern. Ist der Bedarf gedeckt oder werden die Ressourcen nicht mehr benötigt, werden diese nach der Nutzung wieder heruntergefahren und die on-Premise Infrastruktur arbeitet völlig autark weiter.

In jedem Fall ist es dabei ausschlaggebend, dass auf der on-Premise Seite dazu eine mächtige und auf den Hybrid-Betrieb bereite Cloud-Infrastruktur zur Verfügung steht, was nur durch eine professionelle Softwarelösung realisiert werden kann.

Gründe für die Hybrid Cloud

Hybrid Clouds sind so konzipiert, dass sie auf eine schnelle Art und Weise skalieren können und damit die Bedürfnisse eines Unternehmen kurzfristig erfüllen können. Da in dieser Cloud Form unterschiedliche aufeinander abgestimmte Typen der Cloud zusammenkommen, handelt es sich dabei um die ideale Lösung für die Umsetzung großer Projekte, die ein einzelnes Unternehmen alleine in seiner On-Premise Umgebung nicht umsetzen könnte. Weiterhin führt der Einsatz einer Hybrid Cloud zu Kosteneinsparungen für ein Unternehmen, indem keine Server und weiter Hardwarekomponenten vorgehalten werden müssen.

Eine Hybrid Cloud kann jederzeit und von überall in der Welt betrieben werden. Damit verfügt sie über eine globale Reichweite und erlaubt es Unternehmen auch geographische Grenzen sehr einfach und flexibel zu überwinden. Diese Art des Infrastrukturdesigns führt zudem zu einem sehr zuverlässigen Betrieb, auch im Fehlerfall innerhalb einer Region der Hybrid Cloud.

Drei Treiber für den Einsatz einer Hybrid Cloud

Erhöhung der Flexibilität

Unternehmen können auf Hybrid Clouds zurückgreifen, um damit die Anforderungen ihrer Applikationen und Business Cases schnell und flexible umsetzen und das sehr kosteneffektiv. Zum Beispiel muss die Datenbank eines Unternehmens aus Sicherheits- und Compliance-Gründen auf physikalischen Servern im eigenen Rechenzentrum betrieben werden. Mit einem Hybrid Cloud Ansatz lässt sich die Datenbank weiterhin in einer Private Cloud oder Virtual Private Cloud betreiben, während die Web-Applikation in einer Public Cloud Umgebung läuft.

Verbesserung der Skalierbarkeit

Unternehmen, die über Ressourcen innerhalb einer eigenen Private Cloud verfügen, möchten in der Lage sein, diese bequem zu erweitern oder ein „Bursting“ vornehmen, um einen hohen Bedarf an mehr Kapazitäten oder viel mehr Rechenleistung benötigen, welche sie aktuell nicht vorhalten können, um zum Beispiel Big Data Analytics vorzunehmen. Insbesondere bei sehr volatilen Workloads, die zeitweise zu unvorhersehbaren Lastspitzen führen, muss ein Unternehmen sicherstellen, dass ständig ein Zugriff auf zusätzliche und ausreichende Rechenleistung gewährleistet ist. Da lässt sich mit einer Hybrid Cloud sehr gut realisieren.

Einsatz mehrerer verteilter Umgebungen

Eine Hybrid Cloud Umgebung erlaubt es Unternehmen, eine Public Cloud für Aufgaben wie Entwicklung, Test und Ausprobieren einzusetzen und sobald die sensitiven Applikationen fertig für den produktiven Einsatz sind, innerhalb einer eigenen Private Cloud oder Virtual Private Cloud Umgebung zu überführen und dort zu betreiben. Aus Sicherheits- und Datenschutzgründen betreiben Organisationen ihre für die Produktion unternehmenskritischen Applikationen innerhalb einer Private Cloud Umgebung. Für die Entwicklung, Qualitätssicherung, dem Test und dem „einfach mal ausprobieren“, kann eine Public Cloud ausreichen, um die Kosten und den Aufwand für den eigenen Aufbau der benötigen Umgebung gering zu halten.

Use Cases einer Hybrid Cloud

Kurzfristiger on-Demand Bezug von Rechenleistung für interne Projekte

Auch wenn eine Private Cloud die Eigenschaften der Public Cloud in das eigene Rechenzentrum holt, bestehen die Grenzen in der physikalischen Verfügbarkeit der für die Virtualisierung notwendigen Ressourcen. Das kann zu Verzögerungen in Projekten und im Entwicklungszyklus führen. Durch das Aufspannen einer Hybrid Cloud können Entwickler auch dann weiter entwickeln, wenn die interne IT-Infrastruktur an ihre Grenzen gelangt ist und keine Ressourcen mehr bereitstellen kann. Dazu bedienen sich die Mitarbeiter über die Hybrid-Cloud Funktionalität der Private Cloud Lösung einfach bei einem Anbieter aus einer Public Cloud und nutzen dessen Ressourcen zur Überbrückung. Sind wir ausreichend Ressourcen in der Private Cloud vorhanden, können die Systeme in die eigene IT-Infrastruktur zurückgeholt werden. Da sich die Hybrid-Cloud Lösung die Abrechnung der externen Ressourcen überwacht, können die Kosten auch entsprechend den jeweiligen Abteilungen und Projekten zugeordnet werden.

Datenverarbeitung von unternehmensunkritischen Daten

Datenverarbeitung von Unternehmensdaten funktioniert auch in der Cloud. Der entscheidende Punkt besteht hierbei jedoch darin, dass diese zuvor nach kritischen und unkritischen Daten klassifiziert werden müssen. Somit lassen sich unternehmensunkritischen – wie anonymisierte Fakten oder Daten für Börsenforecasts – bequem in einer Public Cloud verarbeiten. Finanzdaten oder Datenschutzkritische Informationen gehören dagegen in die Private Cloud. In manchen Fällen müssen diese jedoch erst getrennt werden. Eine Applikation, die das Hybrid Cloud Konzept nutzt, kann hier zum Beispiel entscheiden, wo sie welche Daten verarbeiten soll.

Eine weitere Möglichkeit besteht in der Trennung der Daten von der eigentlichen Applikation, was im Normalfall die Regel ist. Datenbanken oder Speicher sind in gut architektonisch durchdachten von der Anwendung entkoppelt. Das bietet ebenfalls das Potential für den Einsatz einer Private Cloud. Die Applikation kann hochskalierbar in einer Public Cloud betrieben werden. Die notwendigen Daten und Datenbanken befinden sich in einer Private Cloud.

Einen Zeitvorteil verschaffen

Viele Organisationen verfügen nicht über personell gut ausgestattete IT-Abteilungen. Weiterhin dauert die Beschaffung, Installation und Bereitstellung der entsprechenden Ressourcen viel Zeit. Dadurch können Projekte auf Grund von IT-Ressourcenmangel mitunter gar nicht oder nur verspätet durchgeführt werden. Das Hybrid-Cloud Konzept bietet hier den sehr großen Vorteil, dass Entwickler über den Bezug von Ressourcen aus einer Public Cloud bereits mit dem Projekt starten können. Selbst dann, wenn die IT-Abteilung noch nicht die Möglichkeit besitzt, die notwendigen Ressourcen selbst bereitzustellen. Sind die eigenen Ressourcen vorhanden, kann auf diese anschließend gewechselt werden.

Wünschenswerte Funktionen einer Hybrid Cloud

Eine Private Cloud mit Hybrid-Funktionalität sollte vor allem eines sein, transparent. Sie muss nahtlos bestehende Public Cloud Umgebungen integrieren, ohne dass der Endanwender direkt bemerkt, dass er eine virtuelle Maschine extern bezieht, aber dennoch bewusst darauf aufmerksam gemacht werden.
Das bedeutet, dass ein End-Nutzer die Möglichkeit erhalten muss, sich über ein Self-Service Portal eigene virtuelle Maschinen (VMs) bei Public Cloud Anbietern zu provisionieren. Die Liste an verfügbaren VMs stellt ein Administrator bereit, um die Kontrolle über die Kosten und unkontrollierten IT-Wildwuchs zu behalten. Dazu gehört ebenfalls die anschließende Nutzung der virtuellen Maschine über eine graphische Nutzung, direkt aus dem Self-Service Portal heraus. Eine weitere sehr wichtige Funktion ist das automatische Deployment von Applikationen, die es dem End-Nutzer ermöglichen, sehr bequem einen vollständigen Softwarestack beim Start der virtuellen Maschinen über die Hybrid Cloud zu installieren. Letztendlich gehört ebenfalls eine automatische Abrechnung der Kosten in jede Hybrid-Cloud Lösung, die nahtlos in die Private Cloud Software integriert ist, um einen Überblick über alle verursachten Kosten zu erhalten und den entsprechenden Kostenstellen zuweisen zu können.

Administratoren muss über Monitoring Tools zudem die Möglichkeiten gegeben werden, Statusinformationen über die gestarteten virtuellen Maschinen und dem Zustand weiterer Teile der angebundenen Public Cloud Infrastruktur, zu bekommen. Eine besondere, aber immer wieder vernachlässigte Funktion ist das Berücksichtigen von High-Availability der Hybrid-Cloud Integration. Das bedeutet, dass wenn eine virtuelle Maschine in einen Fehlerzustand gerät und nicht mehr funktionsfähig ist, dass automatisch eine neue Maschine gestartet wird, ohne das der Nutzer dies im ersten Moment bemerkt. Weiterhin haben die meisten Public Cloud Anbieter ihre Cloud-Infrastruktur in sogenannte Availability Zones aufgeteilt. Dabei handelt es sich in der Regel um einzelne Rechenzentren innerhalb einer Region, in der sich wiederum mehrere Rechenzentren befinden. Auch ein Rechenzentrum oder Teile eines Rechenzentrums können in einen Fehlerzustand geraten. Auch in diesem Fall sollte die Hybrid-Cloud Lösung dafür sorgen, dass die auf der Public Cloud Umgebung gestarteten virtuellen Maschinen in einer funktionsfähigen Availability Zone hochgefahren werden, wenn sie in der fehlerbehafteten nicht mehr ansprechbar sind.

Die Cloud-Welt ist hybrid

Eine Hybrid Cloud ermöglicht einen eindeutigen Use Case für den Einsatz einer Public Cloud. Dabei können bestimmte Bereiche der IT-Infrastruktur (Rechenleistung und Speicherplatz) in einer Public Cloud Umgebung abgebildet werden. Der Rest und unternehmenskritische Bereiche bleiben innerhalb der selbstverwalteten on-Premise IT-Infrastruktur oder Private Cloud.

Darüber hinaus liefert das Hybrid Cloud Modell einen wertvollen Ansatz für das Architektur-Design, indem Teile der lokalen Infrastruktur, die hohe Kosten verursachen, aber gleichermaßen schwierig zu skalieren sind, mit Infrastrukturen kombiniert werden, die massiv skalierbar und bei Bedarf provisioniert werden können. Die Anwendungen und Daten werden auf der für den Einzelfall besten Plattform ausgerollt und die Verarbeitung zwischen beiden integriert.

Der Einsatz hybrider Szenarien bestätigt die Tatsache, dass nicht alle IT-Ressourcen in Public Cloud Umgebungen abgebildet werden sollten und für einige sogar niemals in Frage kommen. Werden Themen wie die Compliance, Geschwindigkeitsanforderungen und Sicherheitsbeschränkungen betrachtet, ist eine lokale Infrastruktur weiterhin notwendig. Die Erfahrungen aus dem hybriden Modell helfen dabei aber zu verstehen, welche Daten lokal bleiben sollten und welche innerhalb einer Public Cloud Umgebung verarbeitet werden können.

Kategorien
Analysen

Enterprise Cloud: IBM bringt sich in Position

Letzte Woche hat IBM angekündigt mehr als 1,2 Milliarden US-Dollar in den Ausbau seines globalen Cloud Angebots zu investieren. Hierzu sollen Cloud-Services aus weltweit 40 Rechenzentren in 15 Ländern bereitgestellt werden. Deutschland wird IBM aus einem Rechenzentrum in Ehningen versorgen. Dabei wird Softlayer, das IBM in 2013 übernommen hat, eine Schlüsselrolle spielen, dessen Kapazitäten sich in diesem Zuge verdoppeln sollen.

Investitionen sind ein deutliches Zeichen

Die 1,2 Milliarden US-Dollar sind nicht die ersten Investitionen, die IBM in den vergangenen Jahren in sein Cloud Business fließen lässt. Seit 2007 wurden über 7 Milliarden US-Dollar in die Expansion des Geschäftsfeldes investiert. Darunter 2 Milliarden US-Dollar für Softlayer. Hinzu kommen mehr als 15 weitere Akquisitionen die Cloud Computing Lösungen und Know-How in das Unternehmen gebracht haben. Die letzte große Ankündigung war die Summe von 1 Milliarde US-Dollar, die IBM in sein Cognitive Computing System Watson investieren wird, um es u.a. der breiten Masse als Service zur Verfügung zu stellen.

Diese Investitionen zeigen, dass es IBM mit der Cloud tatsächlich ernst meint und sie als eine Säule für seine zukünftige Unternehmensstrategie sieht. So sieht auch die Erwartungshaltung aus. IBM geht davon aus, dass der weltweite Cloud-Markt bis zum Jahr 2020 auf mehr als 200 Milliarden US-Dollar wachsen wird. Bis zum Jahr 2015 will IBM jährlich sieben Milliarden US-Dollar weltweit mit seinen Cloud-Lösungen erwirtschaften.

Softlayer Positionierung ist von entscheidender Bedeutung

Ein Besonderes Augenmerk will IBM auf die Softlayer Cloud legen. Hierzu sollen sich die Kapazitäten im Jahr 2014 verdoppeln. Laut IBM konnten durch den Zukauf des Cloud Computing Anbieter in 2013 fast 2.400 neue Kunden gewonnen werden. Mit Softlayer sollen die wichtigsten Märkte und Finanzzentren gezielt gestärkt werden. Weiterhin soll die Softlayer Cloud in Zukunft auch von der Watson Technologie profitieren.

Die Akquisition von Softlayer war ein wichtiger Schritt für IBMs Cloud-Strategie, um sich eine bessere Cloud-DNA einzuverleiben. Die IBM SmartCloud hat bis zum heutigen Tag enttäuscht. Das ergeben nicht nur Gespräche mit potentiellen Kunden die sich zum größten Teil negativ über das Angebot und die Nutzung geäußert haben.

Spannend wird die Erweiterung der Softlayer Cloud werden. Laut der offiziellen Softlayer Webseite werden derzeit an sieben Standorten weltweit mehr als 191.500 Server betrieben.

  • Dallas: 104,500+ Server
  • Seattle: 10,000+ Server
  • Washington: 16,000+ Server
  • Houston: 25,000+ Server
  • San Jose: 12,000+ Server
  • Amsterdam: 8,000+ Server
  • Singapore: 16,000+ Server

Das sind im Vergleich zu anderen Cloud Playern wie die Amazon Web Services (über 450.000), Microsoft (etwa 1.000.000) und Google allerdings nur Peanuts. Selbst nach einer Verdopplung im Jahr 2014 auf 383,300 Server.

IBMs weltweite Cloud Rechenzentren

Ein Teil der genannten 1,2 Milliarden US-Dollar sollen im Jahr 2014 genutzt werden, um insgesamt 15 neue Rechenzentren zu eröffnen. In der Summe sollen dann 40 Rechenzentren verteilt auf 15 Länder die weltweite Basis der IBM Cloud bilden. Die neuen Cloud-Rechenzentren werden in China, Hongkong, Japan, Indien, London, Kanada, Mexiko City, Washington D.C. und Dallas entstehen. Das deutsche Cloud-Rechenzentrum steht in Ehningen bei Stuttgart das Schweizer in Winterthur.

Auf der technischen Seite besteht jedes neue Cloud-Rechenzentrum aus mindestens vier sogenannten PODS (Points of Distribution). Eine eigenständige Einheit besteht aus 4.000 Servern. Jeder POD arbeitet unabhängig von den anderen PODs, um die Services bereitzustellen und soll eine garantierte Verfügbarkeit von 99,9 Prozent aufweisen. Kunden können sich für die Nutzung eines POD mit 99,9 Prozent Verfügbarkeit entscheiden oder eine Verteilung über mehrere PODs wählen, um damit das Verfügbarkeitsverhältnis zu erhöhen.

Der Footprint im Unternehmensumfeld

IBM will sich mit seinen Investitionen klar gegen die Amazon Web Services positionieren. Man muss jedoch eines unterscheiden. Amazon AWS (AWS) ist einzig und alleine in der Public Cloud vertreten und wird dieses laut Aussage von Andy Jassy auf der letzten re:Invent auch bleiben. AWS glaubt an die Public Cloud und es besteht kein Interesse auch in (Hosted) Private Cloud Infrastrukturen zu investieren. Ein Unternehmen, das bei AWS jedoch das nötige Kleingeld mitbringt erhält dort durchaus seine eigene private Region, die von AWS verwaltet wird (ähnlich AWS GovCloud).

Beim Wettbewerb zwischen IBM und AWS geht es in erster Linie nicht um den Vorsprung in der Public, Private oder sonst einer Art von Cloud-Form. Es geht um die Vormachtstellung bei den Unternehmenskunden. AWS ist mit Startups und Entwicklern groß geworden und versucht seit geraumer Zeit auch die Attraktivität bei den Unternehmen zu erhöhen. Das haben sie mit mehreren neuen Services auf der vergangenen re:Invent gezeigt. Dabei handelt es sich allerdings um einen Markt, auf dem IBM bereits seit Jahrzehnten vertreten ist und über eine gute und breite Kundenbasis sowie wertvolle Kontakte bei den Entscheidern verfügt. Das ist ein Vorteil der, trotz AWSs derzeitigen technischen Vorsprung, nicht zu unterschätzen ist. Ein weiterer Vorteil der für IBM zum Tragen kommt ist die große Basis an Partnern im Bezug auf die technische Unterstützung und dem Vertrieb. Denn der reine Self-Service, den eine Public Cloud bietet, passt nicht zum Großteil der Unternehmenskunden. Dennoch muss IBM zusammen mit der Softlayer Cloud bei den Unternehmen erst noch technisch überzeugen und den Kunden einen konkreten Nutzen für die Wertschöpfung aufzeigen um erfolgreich zu sein.

Was sich für IBM als ein Vorteil gegenüber anderen Cloud-Anbietern wie AWS erweisen wird, ist die lokale Präsenz mit Rechenzentren in mehreren Ländern. Insbesondere der deutsche Markt wird dies zu schätzen wissen, wenn ebenfalls das Angebot stimmt. Hier bleibt es spannend zu sehen, ob andere US Cloud-Anbieter nachziehen werden und ein Rechenzentrum in Deutschland eröffnen, um den Bedenken deutscher Unternehmen entgegenzukommen.

IBMs Investitionen zeigen, dass der Anbieter die Cloud als eine zukünftige tragende Säule sieht und in diesem Bereich ein tragfähiges Geschäft aufbauen will.

Kategorien
Analysen

Ab in die Private Cloud. OpenStack ist keine Infrastrukturlösung für die Public Cloud!

OpenStack ist unbestritten der neue Star am Himmel für Open-Source Cloud-Infrastrukturen. Zahlreiche bekannte Größen, darunter Rackspace, RedHat, HP, Deutsche Telekom und IBM setzen auf die Software, um ihre Angebote aufzubauen. Aber ein Thema bleibt spannend. Alle reden davon, dem unangefochtenen Marktführer Amazon Web Services Marktanteile abzunehmen. Allen voran die genannten Public Cloud Anbieter, die sich für OpenStack entschieden haben. Keine Frage, im großen Cloud Computing Markt wird jeder seinen Platz finden. Aber ist OpenStack die richtige Technologie, um ein Marktführer in der Public Cloud zu werden oder reicht es am Ende „nur“ für die Private Cloud (Hybrid Cloud)?

Rackspace erweitert sein Portfolio um Cloud Consulting-Services

Ich hatte bereits über das Diversifikationsproblem geschrieben und habe in diesem Zusammenhang OpenStack als den goldenen Käfig bezeichnet, da alle beteiligten Anbieter im selben Dilemma stecken und sich nicht voneinander unterscheiden. Denn stellt man alleine nur die beiden Top OpenStack Anbieter Rackspace und HP gegenüber, dann zeigt sich, dass die Portfolios in etwa zu 99 Prozent gleich sind.

Um die Gunst seiner Shareholder zu besänftigen hat Rackspace bereits erste neue Wege beschritten und seine Strategie verändert und damit selbst die Aufholjagd in der Public Cloud gestoppt. Laut Rackspace CTO John Engates fragen Kunden verstärkt um Hilfe, damit Rackspace mit seinen Kenntnissen beim Aufbau von Cloud Infrastrukturen hilft. Rackspace wird sich in Zukunft somit scheinbar etwas weniger auf das Hosting von Cloud Services konzentrieren und stattdessen mehr in Beratungsdienstleistungen von Cloud Infrastrukturen investieren. Dabei könnte es sich um einen klugen Schachzug handeln. Schließlich ist die Nachfrage nach Private Cloud Infrastrukturen ungebrochen und OpenStack wird hier eine führende Rolle einnehmen. Eine weitere Chance könnte hier mit der Hybrid Cloud bestehen, indem die Private Cloud Infrastrukturen mit Rackspaces Public Cloud verbunden werden.

Eigene Technologien sind ein Wettbewerbsvorteil

Eine weitere interessante Frage ist, ob eine Technologie, was OpenStack letztendlich nur ist, entscheidend für den Erfolg ist? Ein Blick auf führende Anbieter wie die Amazon Web Services, Microsoft Windows Azure und nun auch die Google Compute Engine sowie deren gefühlte Kronprinzen (CloudSigma, ProfitBricks) zeigen eines. Alle haben proprietäre Infrastrukturlösungen unter den IaaS-Angeboten aufgebaut. Zwar setzen soweit alle an der einen oder anderen Stelle auf eine Open-Source Lösung. Aber am Ende ist alles selbst entwickelt und integriert. Das führt zu der Schlussfolgerung, dass proprietäre Technologien ein Wettbewerbsvorteil sind, da schließlich nur ein einziger Anbieter davon profitiert. Oder war Amazon AWS doch „einfach nur der erste Anbieter am Markt“ und hat deswegen diesen enormen Vorsprung?

Zahlen sprechen für OpenStack Private Clouds

Auf der offiziellen OpenStack Webseite werden Use Cases vorgestellt, wie OpenStack tatsächlich eingesetzt wird. Diese sind unterteilt in den Kategorien: On-Premise Private Cloud, Hosted Private Cloud, Hybrid Cloud und Public Cloud. Ein Blick auf die aktuelle Verteilung (Stand: 14.01.2014) für den OpenStack Einsatz kommt zum folgenden Ergebnis.

OpenStack-Deployments 01/14/2014

Demnach liegen On-Premise Private Cloud (55) Installation ganz klar an der Spitze mit einem weitem Abstand gefolgt von Hosted Private Cloud (19) und Public Cloud (17) Deployments. Es folgen die Hybrid Clouds (10) und nicht genauer spezifizierte Projekte (4).

Bei den Zahlen handelt es sich wohlgemerkt um die Deployments, die offiziell an OpenStack gemeldet wurden. Allerdings zeigen diese eine deutliche Tendenz wo die Zukunft von OpenStack liegt. In der Private Cloud. Wobei ich davon ausgehe, dass Hosted Private Cloud Deployments und Hybrid Clouds noch stärker zunehmen werden. Genauso wie OpenStack Installationen, die als Mittel zum Zweck dienen und die reine infrastrukturelle Grundlage für Web-Dienste bilden.

Kategorien
Analysen

Die Top 10 Artikel auf CloudUser im Jahr 2013

Das Jahr 2013 neigt sich dem Ende und es Zeit für eine kleine Zusammenfassung der am meisten gelesenen Artikel auf CloudUser. Hier die Top 10 aller deutschsprachigen Artikel in 2013 (01.01.2013 – 30.12.2013).

1. Die eigene Cloud bauen mit… – CloudWashing par excellence!

Ein Kommentar mit dem Hinweis darauf, dass es beim Aufbau einer Private Cloud Infrastruktur um bedeutend mehr geht als nur ein Stück Software zu installieren.

2. Professionelle Open-Source Lösungen für die eigene Cloud

Eine Zusammenstellung der wichtigsten Open-Source Cloud Infrastruktur Lösungen. (Hinweis: Im kommenden Jahr wird verstärkt OpenStack im Vordergrund stehen.)

3. Dropbox, Microsoft SkyDrive oder Google Drive: Die weiteren Services eines Cloud Storage sind entscheidend

Ein Kommentar zu den Vor- und Nachteilen von Dropbox im Vergleich zu Lösungen wie Google Drive und Microsoft SkyDrive.

4. Sicherheitsvergleich: TeamDrive vs. ownCloud

Eine umfangreiche Analyse zu den Sicherheitsarchitekturen hinter TeamDrive und ownCloud.

5. Erbärmlich: Protonet und sein Cloud Marketing

Ein Kommentar zur Cloud Vermarktungsstrategie der Social NAS Lösung Protonet.

6. Der Cloud Computing Markt in Deutschland 2013

Eine Bestandsaufnahme und Analyse des deutschen Cloud Computing Markts in 2013.

7. Aufbau einer Hosted Private Cloud mit der Open-Source Cloud Computing Infrastrukturlösung openQRM

Ein HowTo und Hintergründe zum Aufbau einer eigenen Cloud mit der Open-Source Cloud Infrastruktur Software openQRM.

8. BoxCryptor: Datenverschlüsselung für Dropbox, Google Drive & Co.

Informationen zur Verschlüsselungssoftware BoxCryptor.

9. Eucalyptus – Eine Open Source Infrastruktur für die eigene Cloud

Eine Analyse und Hintergrundinformationen zur Open-Source Cloud Infrastruktur Software Eucalyptus, mit der sich die grundlegenden Cloud-Funktionen der Amazon Cloud aufbauen lassen.

10. Open-Xchange: Die gehostete Alternative zu Google Apps und Microsoft Office 365

Eine Analyse und weitere Hintergrundinformationen zur Open-Source E-Mail und Collaboration-Software Open-Xchange.

Fazit

Bei den Lesern aus dem deutschsprachigen Raum standen vor allem die Themen zum Aufbau einer eigenen Cloud (Private Cloud) und die Sicherheit im Vordergrund. Insbesondere das Interesse an einer eigenen Cloud spiegelt in etwa die Zahlen von Crisp Research wieder, die von Investitionen in Private Cloud Infrastrukturen in Deutschland für 2013 auf 2,3 Milliarden Euro ausgehen.

Kategorien
Analysen

Warum ich (noch) nicht an den Deutsche Börse Cloud Exchange (DBCE) glaube

Nach einem globalen „Paukenschlag“ ist es medial wieder sehr ruhig um den „Deutsche Börse Cloud Exchange“ (DBCE) geworden. Dennoch werde ich immer wieder auf den Cloud-Marktplatz angesprochen – der die Ambitionen hat, den Infrastructure-as-a-Service (IaaS) Markt zu revolutionieren – und werde dabei um eine Einschätzung zu dessen Marktpotential und Zukunft gefragt. Nun, zusammenfassend komme ich ständig zur selben Aussage, dass ich, gemessen an der heutigen Situation, noch nicht an den DBCE glaube und ihm wenig Marktpotential einräume. Warum das so ist? Weiterlesen.

Zwei Geschäftsmodelle

Zunächst sehe ich im DBCE zwei Geschäftsmodelle. Das eine wird in 2014 zur Realität. Der Marktplatz für das Angebot und die Nachfrage von virtuellen Infrastruktur-Ressourcen (Rechenleistung und Speicherplatz), die von Anwendern für den realen Einsatz (Applikationsbetrieb, Daten speichern) genutzt werden sollen.

Bei dem zweiten Geschäftsmodell handelt es sich noch um Zukunftsmusik. Der Handel von virtuellen Ressourcen wie man es von den Futures kennt. Denn sind wir ehrlich. Was ist es, was eine Börse wirklich kann? Ihre eigentliche Aufgabe? Ihr Kerngeschäft? Den Transfer von kritischen Infrastrukturressourcen und Workloads organisieren und überwachen? Nein. Die Börse kann den Preis von virtuellen Gütern bestimmen und damit handeln lassen. Der IaaS-Marktplatz ist nur der Vorbote, um den Markt an dieses Handelsgeschäft heranzuführen und das dafür notwendige Angebot und die Nachfrage zusammenzubringen.

Anbieter und Anwender

Für einen Marktplatz werden grundsätzlich zwei Parteien benötigt. Die Anbieter und die Nachfrager, in diesem Fall die Anwender. Um die Anbieter wird sich der DBCE wenig Gedanken machen müssen. Ist der finanzielle, organisatorische und technische Aufwand relativ gering, wird die Angebotsseite relativ schnell Ressourcen zu bieten haben. Die Problematik besteht auf der Seite der Nachfrager.

Ich habe mich hierzu mit Reuven Cohen unterhalten, der mit SpotCloud im Jahr 2010 den ersten weltweiten IaaS-Marktplatz veröffentlicht hat. In der Spitze hatte SpotCloud 3.200 Anbieter(!) und 100.000 Server weltweit verwaltet. Die Nachfrageseite viel eher bescheiden aus.

Auch wenn Reuven im Jahr 2010 damit viel zu früh dran war, mache ich noch heute dafür fünf Themen verantwortlich, die den DBCE hemmen werden: Das Vertrauen, die Psychologie, die Use Cases, die Technik (APIs) und das Management.

Vertrauen und Psychologie

Die Idee hinter dem DBCE klingt theoretisch klasse. Aber warum ist der DBCE nun tatsächlich vertrauenswürdiger als andere IaaS-Marktplätze? Genießt eine Börse weiterhin dass Vertrauen für das sie als Institution steht bzw. stehen sollte? Hinzu kommt, dass IT-Entscheider ganz anders ticken. Der Großteil der Unternehmen ist weiterhin mit der Public Cloud überfordert und hat Angst die IT und Daten aus der Hand zu geben. Es gibt einen guten Grund, warum die Zahlen von Crisp Research zeigen, dass in Deutschland im Jahr 2013 nur etwa 210 Millionen Euro für Public Infrastructure-as-a-Service (IaaS) ausgegeben wurde. Hingegen lagen die Investitionen für Private Cloud Infrastrukturen bei 2,3 Milliarden Euro.

Das unterstreicht ebenfalls eine Forrester Studie, die besagt:

“From […] over 2,300 IT hardware buyers, […] about 55% plan to build an internal private cloud within the next 12 months.”

Daran wird auch ein unabhängiger Marktplatz nichts ändern. Im Gegenteil, selbst wenn der DBCE für mehr transparenz sorgen soll, schafft er eine weitere Komplexitätsebene zwischen den Anwendern und den Anbietern, die von den Anwendern erst einmal verstanden und adaptiert werden muss. Das spiegelt sich auch in den Use Cases bzw. Workloads wieder, die darauf laufen sollen.

Use Cases

Warum sollte man den DBCE nutzen? Das ist eine Frage, die nicht leicht zu beantworten ist. Warum sollte man über einen Marktplatz Ressourcen einkaufen, wenn ich sie auch von einem Anbieter direkt beziehen kann, der bereits über eine globale Reichweite, viele Kunden und eine bewährte Infrastruktur verfügt? Der Preis und die Vergleichbarkeit können ein entscheidendes Merkmal sein. Wenn die virtuelle Maschine (VM) bei Anbieter A heute ein wenig günstiger ist als bei Anbieter B, dann wird die VM bei Anbieter A genutzt. Wirklich? Nein, das würde die Anwendungsarchitektur dermaßen verkomplizieren, dass die Entwicklung für dieses Szenario in keinem Verhältnis zu dessen Nutzen steht. Cloud Computing ist eh schon viel zu kompliziert, dass ein kluger Cloud Architekt davon Abstand nehmen würde. Man sollte in diesem Zusammenhang auch nicht die technischen Hürden vergessen, die Cloud-Anwender bereits heute mit sehr weit entwickelten Cloud Infrastrukturen haben.

Ein Szenario was sich mit dem DBCE gut abbilden lassen würde ist ein Multi-Cloud Konzept um technische Risiken (z.B. Ausfall eines Anbieters) zu streuen.

Wofür wir zur nächsten und der wohl größten Hürde kommen – den APIs.

API und Management

Die Diskussionen um „den“ bevorzugten API-Standard in der Cloud hören nicht auf. Zum de-facto Standard für Rechenleistung und Speicherplatz haben sich Amazon EC2 (Compute) und Amazon S3 (Storage) entwickelt, die von so gut wie allen anderen Anbietern und Projekten unterstützt werden.

Der DBCE will sich quasi als Middleware zwischen die Anbieter und die Anwender setzen und für beide Seiten eine einheitliche eigene(!) Schnittstelle bieten. Hierzu setzt der DBCE auf die Technologie von Zimory, die zwar über offene Schnittstellen verfügt, welche aber proprietär sind. Anstatt sich auf einen bekannten Standard zu konzentrieren oder einen aus der Open-Source Gemeinde (OpenStack) zu adaptieren, versucht der DBCE einen eigenen Weg zu finden.

Frage: Mit dem Hintergrund, dass wir Deutschen, was das Thema Cloud angeht, uns bisher nicht gerade mit Ruhm bekleckert haben. Warum sollte sich der Markt auf einen neuen Standard einlassen der aus Deutschland kommt und dazu auch noch proprietär ist?

Ein weiteres Problem besteht in den Managementlösungen für Cloud Infrastrukturen. Entweder haben sich potentielle Anwender bereits für eine Lösung entschieden und stehen damit vor der Herausforderung die neuen APIs in irgendeiner Form zu integrieren oder Sie befinden sich weiterhin im Entscheidungsprozess. Hier besteht die Problematik darin, dass bisher keine gängige Cloud-Managementlösung die DBCE APIs unterstützt.

Systemintegratoren und Cloud-Broker

Es gibt zwei Zielgruppen in denen Potential steckt und die gleichzeitig die Tür zu den Anwendern öffnen können. Die Systemintegratoren (Channelpartner) und Cloud-Broker.

Ein Cloud Service Broker ist ein Drittanbieter, der im Auftrag seiner Kunden Cloud Services mit Mehrwerten anreichert und dafür sorgt, dass der Service die spezifischen Erwartungen eines Unternehmens erfüllt. Darüber hinaus hilft er bei der Integration und Aggregation der Services, um ihre Sicherheit zu erhöhen oder den originalen Service mit bestimmten Eigenschaften zu erweitern.

Ein Systemintegrator entwickelt (und betreibt) im Auftrag seiner Kunden ein System oder eine Applikation auf einer Cloud-Infrastruktur.

Da beide im Auftrag der Anwender agieren und die Infrastrukturen, Systeme und Applikationen betreiben, können sie die proprietären APIs adaptieren und stellen damit sicher, dass sich der Anwender damit nicht auseinandersetzen muss. Darüber hinaus können sowohl Systemintegratoren als auch Cloud-Broker den DBCE nutzen, um für sich kostengünstig Cloud-Ressourcen einzukaufen und ein Multi-Cloud Modell nutzen. Hierbei spielt die Komplexität der Systemarchitektur wieder ein Rolle, von welcher der End-Anwender aber nichts mitbekommen darf.

Eine Frage der Zeit

Ich habe in diesem Artikel mehr Fragen aufgeworfen als beantwortet. Ich möchte den DBCE auch nicht zu negativ bewerten, denn die Idee ist gut. Aber die oben genannten Punkte sind essentiell wichtig, um überhaupt ein Fuß in die Tür der Anwender zu bekommen. Dabei wird es sich um einen Lernprozess für beide Seite handeln, den ich auf etwa fünf Jahre schätze, bis dieses Modell bei den Anwendern zu einer signifikanten Adaptionsrate führt.

Kategorien
Analysen

Diversifizierung? Microsofts Cloud OS Partner Netzwerk mutiert zu einer "OpenStack Community"

Im ersten Moment ließt sich die Ankündigung zum neuen Microsoft Cloud OS Partner Network in der Tat interessant. Wer nicht direkt die Microsoft Public Cloud nutzen möchte, kann ab sofort einen von zahlreichen Partnern wählen und dort indirekt auf dieselben Microsoft Technologien zurückgreifen. Ebenfalls lässt sich eine Hybrid Cloud zwischen der Microsoft Cloud und den Partner Clouds oder dem eigenen Rechenzentrum aufspannen. Für Microsoft und dessen technologischer Verbreitung innerhalb der Cloud ist es tatsächlich ein kluger Schachzug. Für das sogenannte „Cloud OS Partner Network“ kann die Aktion aber schön nach hinten losgehen.

Das Microsoft Cloud OS Partner Network

Das Cloud OS Netzwerk besteht aus mehr als 25 Cloud Service Provider weltweit, die sich nach Microsoft Angaben, auf hybride Cloud-Szenarien speziell mit der Microsoft Cloud Plattform konzentrieren. Hierzu setzen diese auf eine Kombination des Windows Server mit Hyper-V, System Center und dem Windows Azure Pack. Microsoft möchte damit seine Vision unterstreichen, sein Cloud OS als Basis für Kunden-Rechenzentren, Service-Provider Clouds und der Microsoft Public Cloud zu etablieren.

Hierzu bedient das Cloud OS Partner Netzwerk mehr als 90 verschiedene Märkte mit einer Kundenbasis von insgesamt drei Millionen Unternehmen weltweit. Insgesamt 2,4 Millionen Server und mehr als 425 Rechenzentren bilden die technologische Basis.

Zu dem Partner Netzwerk gehören unter anderem T-Systems, Fujitsu, Dimension Data, CSC und Capgemini.

Vorteile für Microsoft und die Kunden: Lokalität und Verbreitung

Für Microsoft ist das Cloud OS Partner Netzwerk ein kluger Schachzug, um gemessen an der Verbreitung von Microsoft Cloud Technologien, weltweit mehr Marktanteile zu bekommen. Hinzu kommt, dass es sehr gut in Microsofts bewährte Strategie passt, die Kunden überwiegend nicht direkt, sondern über ein Netzwerk von Partnern zu versorgen.

Auch den Kunden kommt das Partner Netzwerk prinzipiell entgegen. Unternehmen, die bisher aus Gründen der Datenlokalität, oder lokaler Richtlinien wie dem Datenschutz, die Microsoft Public Cloud (Windows Azure) gemieden haben, können sich nun einen Anbieter in ihrem eigenen Land suchen, ohne auf die gewünschte Technologie zu verzichten. Für Microsoft eröffnet sich damit ein weiterer Vorteil, nicht zwingend ein Rechenzentrum in jedem Land zu bauen und sich lediglich auf die Bisherigen oder strategisch Wichtigeren zu konzentrieren.

Microsoft kann sich damit ein wenig zurücklehnen und den unbequemen Vertrieb erneut das Partnernetzwerk übernehmen lassen. Einnahmen werden wie vor dem Cloud Zeitalter mit dem Lizenzverkauf an den Partnern generiert.

Nachteile für die Partner: Diversifizierung

Man kann an dem Partner Netzwerk vieles schönreden. Fakt ist, dass Microsoft mit dem Cloud OS Netzwerk eine vergleichbare Konkurrenzsituation schafft, wies sie sich in der OpenStack Community gebildet hat. Speziell in der Public Cloud existieren dort mit Rackspace und HP nur zwei „Top Anbieter“, die im weltweiten Cloud Zirkus jedoch nur eine untergeordnete Rolle spielen. Insbesondere HP hat derzeit zu viel mit sich selbst zu kämpfen und konzentriert sich dadurch viel zu wenig auf Innovationen. Das Hauptproblem beider und all den anderen OpenStack Anbietern besteht jedoch darin, dass sie sich nicht voneinander unterscheiden. Stattdessen stehen die meisten Anbieter in direkter Konkurrenz zueinander und heben sich derzeit nicht nennenswert voneinander ab. Das ist dem Umstand geschuldet, dass alle auf exakt dieselbe technologische Basis setzen. Eine Analyse zur Situation der OpenStack Community befindet sich unter „Gefangen im goldenen Käfig. OpenStack Provider sitzen in der Falle.

Die Situation für das Cloud OS Partner Netzwerk ist sogar noch ein wenig unbequemer. Anders als bei OpenStack ist Microsoft alleiniger Technologielieferant und bestimmt wo es lang geht. Das Partner Netzwerk muss schlucken was es vorgesetzt bekommt oder kann sich nur durch die Adaption weiterer fremder Technologiestacks behelfen, was zu einem Mehraufwand führt und für weitere Kosten hinsichtlich der Entwicklung und den Betrieb sorgt.

Abgesehen von den lokalen Märkten, stehen alle Cloud OS Service Provider in einem direkten Wettbewerb zueinander und haben ausschließlich auf Basis der Microsoft Technologien keine Möglichkeit sich anderweitig zu differenzieren. Ein Guter Support und Professional Services sind zwar enorm wichtig und ein Vorteil, aber kein USP in der Cloud.

Falls das Cloud OS Partner Netzwerk floppt wird Microsoft mit einem blauen Auge davon kommen. Den großen Schaden werden die Partner davontragen.

Technologie als Wettbewerbsvorteil

Betrachtet man die wirklich erfolgreichen Cloud Anbieter am Markt, wird deutlich, dass es sich dabei um diejenigen handelt, die ihre Cloud auf einem eigenen Technologiestack aufgebaut haben und sich damit technologisch von den restlichen Anbietern am Markt differenzieren. Dabei handelt es sich um Amazon, Google oder Microsoft und eben nicht Rackspace oder HP die beide auf OpenStack setzen.

Das sollten sich Cloud OS Partner wie Dimension Data, CSC oder Capgemini vor Augen halten. Insbesondere CSC und Dimension Data haben selbst große Ansprüche in der Cloud ein Wort mitreden zu wollen.

Kategorien
Analysen

Hosted Private Platform-as-a-Service: Chancen und Möglichkeiten für ISVs und Unternehmen

Auch wenn Platform-as-a-Service (PaaS) immer wieder eine rosige Zukunft vorhergesagt wurde, so richtig kommt das Servicemodell nicht in Fahrt. In Gesprächen erfährt man dann, dass PaaS zwar gerne für die Entwicklung von Prototypen genutzt wird. Wenn es um den Produktivbetrieb geht, wird aber auf ein Infrastructure-as-a-Service (IaaS) Angebot gewechselt. Der Hauptgrund ist das Kontroll-Level. Dabei handelt es sich ebenfalls um das Hauptentscheidungskriterium für bzw. gegen einen PaaS. IaaS bietet einfach mehr Möglichkeiten, Einfluss auf die virtuelle Infrastruktur, Software und Services zu nehmen. Bei einem PaaS hingegen wird gegen eine standardisierte API programmiert, die nicht viele Freiheiten ermöglicht. Dabei bietet ein PaaS vor allem für ISVs (Independent Software Vendor) und Unternehmen einige Möglichkeiten, um ihre Entwickler bequem mit Ressourcen zu versorgen. Wer kein Vertrauen in einen Public PaaS hat, der kann mittlerweile auch auf gehostete sogenannte Hosted Private PaaS zurückgreifen.

Platform-as-a-Service

Platform-as-a-Service (PaaS) ist die mittlere Schicht des Cloud Computing Service-Models und geht einen Schritt weiter als Infrastructure-as-a-Service (IaaS). Ein PaaS ist dafür zuständig eine transparente Entwicklungsumgebung bereitzustellen. Dabei stellt der Anbieter eine Plattform zur Verfügung auf der (Web)-Anwendungen entwickelt, getestet und gehostet werden können. Die Anwendungen werden anschließend auf der Infrastruktur des Anbieters ausgeführt und nutzen dessen Ressourcen. Der vollständige Lebenszyklus einer Anwendung kann darüber verwaltet werden. Über APIs werden die Dienste auf der Plattform des jeweiligen Anbieters angesprochen. Der Vorteil besteht darin, dass vor allem kleine Unternehmen ihre Entwicklungsinfrastruktur auf ein Minimum beschränken können. Sie benötigen lediglich einen Computer, einen Web-Browser, evtl. eine lokale IDE, eine Datenverbindung und ihr Wissen, um Anwendungen zu entwickeln. Der Rest obliegt dem Anbieter, der für die Infrastruktur (Betriebssystem, Webserver, Laufzeitumgebungen etc.) verantwortlich ist.

Platform as a Service
Quelle: Cloud Computing mit der Microsoft Plattform, Microsoft Press PreView 1-2009

Hosted Private Platform-as-a-Service

Hosted Private Platform-as-a-Services (Hosted PaaS) überführen die Idee des Public PaaS in eine dedizierte und von einem Anbieter verwaltete Variante. Sie ist insbesondere für Unternehmen attraktiv, die einen Public Ansatz (Shared Infrastructure, Multi-Tenancy) meiden wollen, aber nicht die Ressourcen und das Wissen besitzen, um ihren Entwicklern einen echten PaaS in der eigenen IT-Infrastruktur bereitzustellen. In diesem Fall können sie auf Anbieter zurückgreifen, die ihnen einen exklusiven PaaS in einer für sie reservierten Umgebung zur Verfügung stellen. Der Vorteil besteht darin, dass der Kunde den Hosted Private PaaS genau so nutzen kann wie einen Public PaaS, aber das auf einer nicht geteilten Infrastruktur, die sich beim Anbieter im Rechenzentrum befindet.

Ein weiterer Vorteil eines Hosted PaaS besteht in den Professional Services, die der Anbieter direkt mitliefert, und die dem Kunden dabei helfen, seine Applikationen entweder auf den PaaS zu überführen oder dort neu zu entwickeln. Das Konzept ist exakt vergleichbar mit den Managed Clouds bzw. Business Clouds im IaaS Umfeld. Das ist sowohl für Unternehmen, aber auch für ISVs interessant, die bisher wenig bis keine Erfahrung bei der Entwicklung von Cloud Applikationen haben und Public Angeboten wie Amazon Elastic Beanstalk, Microsoft Windows Azure, Heroku oder Force.com nicht vertrauen.

Ein mögliches Zeichen dafür, dass Public PaaS in Deutschland nicht so richtig in Fahrt kommt ist, das der erste deutsche PaaS Anbieter cloudControl mit der Application Lifecycle Engine seinen Public PaaS in einen Private PaaS gekapselt hat, mit dem Unternehmen und Webhoster (White-Label) einen eigenen PaaS in einer selbstverwalteten Infrastruktur betreiben können. Zusätzlich lässt sich eine Brücke zu einem Hybrid PaaS aufspannen.

Der Managed IaaS Anbieter Pironet NDH ist der erste deutsche Anbieter, der auf den Hosted Private PaaS Zug aufgesprungen ist. Das Unternehmen aus Köln will damit ISVs und SaaS Anbieter eine Plattform inklusive Professional Services bieten, um deren Web-Applikationen aus einem deutschen Rechenzentrum heraus bereitzustellen. Neben .NET, PHP, Java, Perl, Python, Ruby, node.js oder Go bietet Pironet NDH ebenfalls die vollständige Windows Azure PaaS Unterstützung, wie sie von der Microsoft Windows Azure Public Cloud bekannt ist. Damit lassen sich auf für Azure entwickelte Applikationen ebenfalls innerhalb des deutschen Pironet NDH Rechenzentrums betreiben. Beide PaaS Angebote sind separat aufgebaut. Bei dem Polyglot PaaS (multi-language) kommt eine RedHat OpenShift Implementierung zum Einsatz. Der Azure PaaS basiert auf dem Microsoft Windows Azure Pack. Auch wenn sich Pironet NDH vorwiegend auf 1:1 Geschäftsbeziehungen konzentriert, werden im Q1/Q2 2014 ebenfalls Public PaaS Varianten folgen, die allerdings nur sekundär vermarket werden sollen.

Insbesondere bei traditionellen ISVs rennt Pironet NDH mit seinem Angebot offene Türen ein. Deren Kunden werden in Zukunft verstärkt nach Web-Applikationen fragen, was für den einen oder anderen ISV große Herausforderungen birgt. Diese werden unter anderem von den Professional Services profitieren, um bestehende und neue Applikationen schneller auf den Markt zu bringen.

Public Cloud Anbieter werden reagieren müssen

Der „Hosted Private“ Trend kommt aus dem IaaS Bereich, in dem derzeit auch verstärkt Hosted Private Clouds in Form von Managed bzw. Business Clouds nachgefragt werden. Das aus gutem Grund. Insbesondere das Thema Datenschutz treibt ISVs und Unternehmen in die Arme von Anbietern dedizierter Lösungen. Zudem sind Kunden bereit, für eine höhere Sicherheit, Datenhoheit und Consulting mehr Kapital in Cloud-Angebote zu investieren.

Public Cloud Anbieter werden darauf reagieren müssen, um sich den Bedürfnissen der Kunden zu stellen. Mit Salesforce hat der erste große Public Cloud Player die Hosen heruntergelassen. Zunächst ein O-Ton von Joachim Schreiner, Salesforce Deutschland Geschäftsführer: „Private Clouds sind keine Clouds. Das ist nichts anderes als ein Application-Server-Provider-Vertrag, der auch schon im Jahr 2000 hätte abgeschlossen werden können, wenn die nötige Bandbreite verfügbar gewesen wäre.“ Das sieht Salesforce CEO Marc Benioff scheinbar ein wenig anders. Schließlich rollt der Rubel nur dann, wenn die Kunden zufrieden sind. Dafür hat Salesforce auf der Dreamforce 2013 seinen „Salesforce Superpod“ vorgestellt. Dabei handelt es sich um eine Dedicated Cloud auf Basis von HPs Converged Infrastructure. Also im Grunde genommen nichts anderes als eine Hosted Private Cloud.

Kategorien
Analysen

Cloud Computing Mythos: Es ist weniger Know-How erforderlich

Ich bin in einem Artikel, der die Vorteile des Cloud Computing hervorhebt, auf eine interessante Aussage gestossen. In einer Bildunterschrift heißt es „Es muss kein zusätzliches Know-how im Unternehmen aufgebaut werden.“ Das ist völlig falsch. Denn genau das Gegenteil ist der Fall. Es wird immer noch viel mehr Wissen benötigt, als von den Anbietern versprochen wird.

Das notwendige Wissen fehlt

Die Art und Menge des benötigten Wissens hängt von der Art des Service ab, der aus der Cloud genutzt wird. Für eine vermeintlich hochstandardisierte Software-as-a-Service (SaaS) Applikation wie E-Mail wird hinsichtlich des Service und seiner Eigenschaft deutlich weniger Wissen benötigt, als ein Service, der einen bestimmten Prozess abbildet.

Für die Nutzung von Infrastructure-as-a-Service (IaaS) oder Platform-as-a-Service (PaaS) verhält es sich jedoch ganz anders. Zwar übernimmt der Anbieter in diesem Fall den Aufbau, Betrieb und die Wartung der physikalischen Infrastruktur. Die Verantwortung für die virtuelle Infrastruktur (IaaS) obliegt jedoch dem Kunden. Der Anbieter selbst – über kostenpflichtigen Support – oder zertifizierte Systemintegratoren helfen hier beim Aufbau und Betrieb. Genau so verhält es sich bei dem Betrieb einer eigenen Applikation auf einer Cloud-Infrastruktur. Der Cloud Anbieter selbst ist dafür nicht verantwortlich, sondern stellt lediglich die Infrastruktur sowie Mittel und Wege in Form von APIs, Weboberflächen und ggf. weiteren Mehrwertservices zur Verfügung, um den Kunden die Entwicklung zu erleichtern. In diesem Zusammenhang muss auch verstanden werden, dass je nach Cloud-Skalierung – Scale-out vs. Scale-up – die Applikation vollständig anders für die Cloud entwickelt werden muss – nämlich über mehrere Systeme hinweg automatisch skalierbar verteilt (Scale-out) – als es in einer nicht Cloud-Umgebung der Fall ist. Dieses architekturelle Wissen fehlt in den meisten Unternehmen an allen Ecken und Enden, was auch dem Fakt geschuldet ist, dass Hochschulen und Universitäten diese Art des programmatischen Denkens bisher nicht vermittelt haben.

Cloud Computing ist derzeit noch komplexer als es auf dem ersten Blick erscheint. Das Paradebeispiel hierfür ist Netflix. Der US-amerikanische Video-on-Demand Anbieter betreibt seine Plattform innerhalb einer Public Cloud Infrastruktur (Amazon AWS) und hat neben einem umfangreichen Produktivsystem, welches den skalierbaren und performanten Betrieb sicherstellt, ebenfalls eine umfangreiche Test-Suite – die Netflix Symian Army – entwickelt, die nur dafür zuständig ist, den einwandfreien Betrieb des Produktivsystems sicherzustellen – u.a. werden laufend willkürlich virtuelle Maschinen bewusst abgeschossen und das Produktivsystem muss dennoch weiterhin einwandfrei funktionieren.

Bedarf an Managed Cloud steigt

Die Komplexität lässt sich durch das Deploymentmodell zwar weniger verringern, die Verantwortung und das notwendige Know-How jedoch verschieben. Innerhalb einer Public Cloud regiert der Self-Service. Das bedeutet, dass der Kunde zunächst zu 100 Prozent auf sich selbst gestellt ist und die alleinige Verantwortung für die Entwicklung und den Betrieb seiner Applikation trägt.

Dieses haben viele Unternehmen erkannt und gestehen sich ein, dass sie entweder nicht über das notwendige Wissen, Personal und weitere Ressourcen verfügen, um erfolgreich eine Public Cloud (IaaS) zu nutzen. Stattdessen bevorzugen bzw. erwarten sie Hilfe von den Cloud Anbietern. In diesen Fällen handelt es sich allerdings nicht um Public Cloud Anbieter, sondern um Managed Cloud/ Business Cloud Anbieter, die neben Infrastruktur ebenfalls mit Professional Services helfen.

Mehr zum Thema Managed Cloud kann unter „Die Bedeutung der Managed Cloud für Unternehmen“ nachgelesen werden.

Kategorien
Analysen

Dropbox Alternativen für die Unternehmens-IT

Die Popularität einfach bedienbarer Cloud-Storage-Dienste wie Dropbox bereitet IT-Verantwortlichen Kopfzerbrechen. Dabei bietet der Markt inzwischen auch Enterprise-taugliche Lösungen. Dieser Artikel stellt Cloud-Services für den professionellen Einsatz vor.

Dieser Artikel ist exklusiv im IDG-Netzwerk erschienen und kann unter „Cloud Storage treibt die Schatten-IT: Dropbox Alternativen für Unternehmen“ gelesen werden.