Kategorien
Analysen

Der Amazon Web Services (AWS) Ausfall: Letzte Chance – So etwas darf nicht noch einmal passieren!

Nach dem letzten Ausfall der Amazon Web Services (AWS) am 29.06/30.06 habe ich – zurecht – die schlechte Systemarchitektur von Instagram kritisiert. Man sollte niemals alle seine Eier in ein Nest legen. Allerdings habe ich mir noch einmal in Ruhe die Fehler innerhalb der Amazon Cloud während des Ausfalls angeschaut. Amazon muss unbedingt seine Hausaufgaben erledigen, es geht hier schließlich um knallhartes Business und die Kunden zählen auf die Verfügbarkeit der Cloud Infastruktur.

Der Geduldsfaden wird immer dünner

Eines ist klar und das predige ich in jeder Situation. Amazon bzw. jeder IaaS Anbieter stellt „nur“ die nötigen Infrastrukturressourcen in Form von virtuellen Instanzen inkl. Konfigurationstools bereit, um damit sein eigenes virtuelles Rechenzentrum aufzubauen. Die Verfügbarkeit des auf der Cloud betriebenen Systems muss selbst sichergestellt werden. Aber wie, wenn das „Werkzeug“ dafür nicht funktioniert?

David Linthicum schreibt, dass er in der Nähe der Cloud Rechenzentren an der Ost Küste der USA wohnt. Und er bestätigt, dass die Gewitter wirklich sehr stark gewesen sind und die Stromversorgung und das Mobilfunknetz flächendecken lahmgelegt haben. Er schreibt zudem, dass solche Unwetter in dieser Region nicht ungewöhnlich sind und die meisten Cloud Anbieter keine Probleme damit hatten.

Komplexität kann man nicht beherrschen

Amazon ist mit Abstand Marktführer im Cloud Infrastruktur Markt und dieser Ausfall zeigt deutlich, wie schwierig es für Cloud Computing Anbieter (uneingeschränkt) ist, diese massiven Systeme zu betreiben und robust gegen Fehler auszulegen. Immerhin besteht alleine die Amazon Cloud in der Region US-EAST, nach eigenen Angaben, aus 10 Rechenzentren, die in vier Availability Zones aufgeteilt ist.

Die Probleme im Detail

Es handelte sich mal wieder um eine Kaskade von unerwarteten Fehlern, die zu diesem langen Ausfall führten. So konnte in einem Rechenzentrum die Notstromversorgung nicht aktiviert werden. Die USVs konnte die Systeme nicht lange genug mit Strom versorgen, wodurch diese in der Region heruntergefahren werden mussten. Dadurch standen keine virtuellen Instanzen mehr zur Verfügung. Was die Situation jedoch verschlimmerte, waren Probleme mit den Konfigurationstools, Software mit denen Kunden die Ressourcen innerhalb der Region erstellen, verschieben und anpassen können. Dadurch waren die Kunden nicht in der Lage auf den Ausfall zu reagieren.

Engpass

Ein weiteres Problem war ein Engpass während des Bootvorgangs der Amazon Server. Das führte dazu, dass es länger dauerte als erwartet, um wichtige AWS Services wie EC2 und EBS wieder hochzufahren. Das sorgte für ein Folgeproblem, als EBS wieder online war, da hier technische Eingriffe notwendig waren, um sicherzustellen, dass alle auf EBS gespeicherten Daten weiterhin vorhanden sind. Laut Amazon hat es mehrere Stunden benötigt, um diesen Fehler zu beheben.

Ein unbekanntes Problem

Das aber vielleicht schwerwiegendste Problem bestand in einem unvorhergesehen Fehler im Elastic Load Balancer (ELB), der dafür zuständig ist, den Traffic zu den Servern mit ausreichend Kapazität zu leiten. Als EC2 plötzlich nicht mehr verfügbar war, versuchte der ELB weiterhin Workloads auf die Server zu verteilen. Als die Amazon Cloud dann neu gestartet wurde, fuhren ebenfalls eine große Anzahl an ELBs in einem Status hoch der zu einem Fehler führte, den Amazon zuvor noch nicht gesehen hatte. Dieser überflutete die Amazon Cloud mit Anfragen, was wiederum zu einer Verzögerung führte. Dieser Fehler, in Kombination mit einer großen Anzahl neuer Server, die in von dem Ausfall nicht betroffenen Availability Zones durch Kunden ausgerollt wurden, erzeugte weitere Anfragen, die in der Summe die Fehlerbehebung verzögerte.

Gewitter + Viele eigene Fehler

Zwar war die eigentliche Ursache für den Ausfall der Amazon Cloud ein Gewitter. Die Wahrheit ist jedoch, dass sich die Cloud Infrastruktur durch eigene versteckte Fehler wieder selbst außer Gefecht gesetzt hat.

Kunden verlieren Daten

Neben Anbietern wie Instagram, Pinterest und Heroku waren ebenfalls Foursquare, Quran, Moby und Reddit von dem Ausfall betroffen. Dabei sollen mehrere große EC2 Kunden wertvolle Daten verloren haben. Darunter Chartbeat, die von einem Verlust von 11 Stunden an historischen Datenmaterial sprechen. Diese seien laut dem Unternehmen nicht wiederherstellbar.

Alternativen evaluieren

Ich habe mich bisher immer schützend vor die Amazon Web Services gestellt, da sie wirklich einen sehr guten Job machen und für das Cloud Computing stehen. Allerdings muss ich gestehen, dass ich langsam ein wenig irritiert bin was die Vorsichtsmaßnahmen gegenüber „unvorhersagbare“ Ereignisse wie Gewitter und Stromausfälle sind. Das erneut die Notstromversorgung nicht funktioniert, die schlussendlich zu dem Ausfall geführt hat, ist doch sehr merkwürdig und muss hinterfragt werden. Zumal es sich dabei schon um das zweite Mal handelt, wo „ein Schalter“ defekt war. Bis vor einer Woche habe ich meine Hand dafür ins Feuer gelegt, dass Amazon regelmäßig Fail-Over Szenarien durchführt, um sicherzustellen, dass Stromausfälle oder Unwetter routinemäßig „abgearbeitet“ werden und „ein Schalter“ im richtigen Moment mal nicht klemmt. Wo gerade der Strom doch als das analoge Paradebeispiel für das Pay-as-you-go Modell des Cloud Computing steht. Mittlerweile muss ich meine Hand – für die Amazon Web Services – für diesen Fall leider erst einmal zurückziehen.

Die Amazon Web Services haben dem Cloud Computing mit dieser Ausfallserie zwar nicht stark geschadet, aber erneut Diskussionen ausgelöst, die vor Monaten Ad acta gelegt wurden. Es kann einfach nicht sein, dass ein Stromausfall solche Probleme verursacht und schon gar nicht ein zweites Mal.

Es ist daher an der Zeit seine Eier nicht mehr nur in eine Availability Zone oder Region zu legen, sondern sich ebenfalls Gedanken über Alternativen und andere Clouds zu machen, um das eigene Risiko zu minimieren. Ein gutes Beispiel ist die Web TV Agentur Schnee von Morgen von Nikolai Longolius. Das Unternehmen setzt primär auf die Amazon Web Services und hat parallel eine Version für die Google App Engine entwickelt. Risikomanagement halt!

Ich sehe hier für Amazon allerdings noch ein zweites Problem. Nachdem sich das Unternehmen anfangs verstärkt auf die Startups dieser Welt konzentriert hat und weiterhin konzentrieren wird, versuchen sie auch vehement in den Bereich für etablierte Unternehmen einzusteigen. In einem Markt, wo sich bereits erfahrene Anbieter wie HP, IBM und Microsoft tummeln, die Wissen wie man auf die Bedürfnisse von großen Kunden eingeht. Diese Ausfälle werden es Amazon erschweren, Argumente für den Weg in die AWS Cloud zu finden.


Bildquelle: http://thearmadagroup.com

Kategorien
Analysen

Amazon Web Services (AWS) Ausfall: Erklärungen | Erster Kunde geht | Netflix hält die Treue | Okta versteht die Cloud-Architektur

Nach dem erneuten Ausfall von Teilen der Amazon Web Services (AWS) am vergangenen Freitag und Samstag, von denen große Webseiten und Services wie Netflix und Instagram betroffen waren, gab es in dieser Woche neben einer Stellungnahme von Amazon, ebenfalls Reaktionen von Kunden, die zeigen, dass der Geduldsfaden langsam reißt. Allerdings sind auch selbstkritische Töne zu hören.

Amazon erläutert das Problem

Während einer Stellungnahme am Montag erklärte Amazon, dass seine Rechenzentren an der Ostküste der USA von einem Gewitter am Freitag (29.06.12) betroffen waren. Während die Notstromversorgung bei den meisten wie erwartet funktionierte, kam es bei einem einzigen erneut zu einer Fehlfunktion bei der redundanten Stromversorgung. Der daraus resultierte Stromausfall beeinflusste „eine einstellige Prozentzahl an Kunden“. Darunter Instagram, Netflix, Pinterest, Quora, Heroku und Hootsuite.

Erster Kunde verlässt die Amazon Cloud

Wie die InformationWeek berichtet, hat mit Whatsyourprice.com, einem Online Dating Service, der erste AWS Kunde die Konsequenzen aus dem Ausfall am 29.06/ 30.06 gezogen und seine 10 virtuellen Server in eine Co-Location in Las Vegas umgezogen. Neben dem kürzlichen Ausfall war Whatsyourprice.com bereits vom zwei Stündigen Ausfall am 14.06.12 betroffen. Hinzu kam, dass der letzte Ausfall gerade zu einer Zeit eintrat, während nach Angaben des Unternehmens typischerweise viele Singles online sind.

Laut Whatsyourprice.com basierte die Systemarchitektur auf zwei Availability Zones. Dennoch war das Unternehmen nicht in der Lage neue Instanzen in der nicht von dem Ausfall betroffenen Availability Zone zu starten. Whatsyourprice.com kann sich diesen Umstand nicht erklären, da sie ihrer Meinung nach alles richtig gemacht haben und werden auf Grund dieser Situation nicht mehr auf Amazon EC2 setzen.

Netflix hält die Treue

Netflix, die auch von dem Ausfall betroffen waren, werden der Amazon Cloud hingegen nicht den Rücken kehren. Wie das Unternehmen auf seinem Blog schreibt, hat der Ausfall ein paar Schwächen in seiner Architektur aufgezeigt, die ebenfalls den Chaos Monkey überlistet haben. So habe die eigene Load-Balancing Architektur das gesamte Problem während des Ausfalls noch verstärkt.

Dennoch wird Netflix weiterhin auf die (Amazon) Cloud setzen, da der Service seit dem Wechsel in die Cloud eine bessere Uptime hat als zuvor. Zudem sei die eigene Architektur so ausgelegt, dass ein Ausfall von AWS davon nicht beeinflusst wird. Dafür achtet Netflix darauf, die Services weltweit zu verteilen. Während des Ausfalls in der Region US-EAST, konnten europäische Kunden den Services trotzdem nutzen. Darüber hinaus setzt Netflix auf Cassandra, einem Distributed Cloud Storage, der über alle AWS Zonen und Regionen verteilt ist. Cassandra sorgt dafür, dass der Verlust von einem Drittel aller Nodes innerhalb einer Region aufgefangen wird, ohne Daten zu verlieren oder die Verfügbarkeit zu beeinflussen.

Bitte: Nicht den Fehler von Instagram machen

Netflix selbstkritische Analyse sollte sich auch Instagram oder besser Facebook zu Herzen nehmen. Mich wundert, warum die schlechte Systemarchitektur von Instagram während der Due-Diligence-Prüfung durch Facebook bei der 1,5 Milliarden Dollar hohen Übernahme nicht aufgefallen ist.

Okta, ein Cloud basierter Identity Management Service, setzt ebenfalls auf die Cloud Infrastruktur der Amazon Web Services und war für seine Kunden weltweit zu 100% verfügbar. Das schreibt Okta VP Eric Berg auf dem Unternehmensblog. Demnach sei die Systemarchitektur so konzipiert, dass einzelne Komponenten ohne Weiteres zu jeder Zeit ausfallen können. In diesem Fall werden die Anfrage zu einem funktionsfähigen System „irgendwo auf der Welt“ weitergeleitet. An dieser Stelle sehen wir wieder einmal, dass Cloud Computing nicht bedeutet, einfach nur einen virtuellen Server hochzufahren!


Bildquelle: http://apod.nasa.gov

Kategorien
Analysen

Der Ausfall der Amazon Web Services (AWS) zeigt die schlechte Systemarchitektur von Instagram

Auf Grund eines erneuten Ausfalls der Amazon Web Services (AWS) vom 29.06.12 bis 30.06.12 hatten viele Services, darunter populäre Seiten wie Pinterest, Netflix, Instagram und Heroku mit Problemen zu kämpfen. Wohingegen auf Netflix und Pinterest, zumindest hier aus Europa, zugegriffen werden konnte, war Instagram vollständig down. Auf Twitter begann währenddessen eine Wut-Welle gegen die Amazon Web Services, weil das geliebte Instagram nicht genutzt werden konnte. Von Cloud Computing und Marketing Bullshit war die Rede. Was die Nutzer natürlich nicht wissen konnten, es war die schlechte Systemarchitektur von Instagram selbst, die dafür gesorgt hat, dass der Bilderservice nicht erreichbar war.

Schwere Stürme führten zu dem Ausfall

Grund für den Stromausfall waren laut dem Stromversorger Dominion Virginia Power schwere Stürme mit 80 Meilen pro Stunde, die zu massiven Schäden geführt haben. Dominion Virginia Power versorgt mehrere Rechenzentren in der Region Virginia. In­fol­ge­des­sen viel die Stromversorgung für das Amazon Rechenzentrum aus, was erneut zu einer Kaskade von Problemen innerhalb der einzelnen Services der Amazon Cloud führte.

A line of severe storms packing winds of up to 80 mph has caused extensive damage and power outages in Virginia. Dominion Virginia Power crews are assessing damages and will be restoring power where safe to do so. We appreciate your patience during this restoration process. Additional details will be provided as they become available.

Zahlreiche Amazon Services betroffen

Der Ausfall betraf dieses Mal deutlich mehr Services, als noch bei dem Ausfall vor zwei Wochen. Darunter Amazon CloudSearch, Amazon CloudWatch, Amazon Elastic Compute Cloud, Amazon Elastic MapReduce, Amazon ElastiCache, Amazon Relational Database Service und AWS Elastic Beanstalk.

Instagram nutzt nur eine Region

Von dem Ausfall war nur die Availability Zone US-EAST-1 betroffen, die sich in North Virginia befindet. Alle anderen weltweit verteilten Amazon Regionen zeigten keine Fehler und liefen weiterhin stabil. Anders als von dem Ausfall betroffene Anbieter wie Netflix oder Pinterest, war Instagram weltweit überhaupt nicht erreichbar. Das führt eindeutig zu dem Ergebnis, dass Instagram seine Systeme ausschließlich in dieser einen Amazon Region, der US-EAST-1, laufen lässt. Die Entscheider und Systemarchitekten müssen sich daher die Frage gefallen lassen, warum ein mittlerweile so populärer Dienst, der für 1 Milliarde US-Dollar an Facebook verkauft wurde, nicht hochverfügbar ausgelegt ist, indem die Systeme über mehrere Regionen bzw. Availability Zones in der Amazon Cloud verteilt sind. Scheinbar hat Instagram aus den Fehlern anderer Amazon Kunden nicht gelernt, die von den bisherigen Ausfällen betroffen waren.

Für den Fehlerfall vorbereitet sein

Selbstverständlich darf man Amazon von diesem erneuten Ausfall auf keinen Fall freisprechen. Die Region US-EAST-1 in North Virginia scheint zum Problemkind zu werden. Dennoch weißt Amazon regelmäßig und vehement darauf hin: „Design for failure!“

Hierfür hat das Unternehmen eine Webseite geschaffen, auf der Whitepapers zum Download bereitstehen, die dabei helfen, fehlertolerante Anwendungen zu entwickeln und Cloud Architekturen zu verstehen. Dazu gehören u.a. die Folgenden.

AWS Cloud Architecture Best Practices Whitepaper

Dieses Whitepaper gibt einen technischen Überblick aller AWS Services und verschiedener Best Practice Ansätze für die architektonische Gestaltung, um damit effiziente und skalierbare Architekturen zu entwerfen.
Link

Building Fault-Tolerant Applications on AWS Whitepaper

In diesem Whitepaper werden Funktionen für die Erhöhung der Fehlertoleranz vorgestellt, die dazu dienen, um hoch zuverlässige und hochverfügbare Anwendungen innerhalb der AWS Cloud zu entwickeln.
Link

Web Hosting Best Practices Whitepaper

Dieses Whitepaper überprüft detailliert Lösungen für das Web Application Hosting. Dazu gehört unter anderem, wie jeder AWS Service genutzt werden kann, um eine hochverfügbare und skalierbare Webanwendung zu entwerfen.
Link

Leveraging Different Storage Options in the AWS Cloud Whitepaper

Dieses Whitepaper dient dazu, einen Überblick über die Speichermöglichkeiten in der AWS Cloud zu geben und darüber hinaus Szenarien vorzustellen, um eine effektive Nutzung zu erzielen.
Link

AWS Security Best Practices Whitepaper

In diesem Whitepaper werden bestimmte Tools, Funktionen und Richtlinien beschrieben, um zu verstehen, wie Cloud Anwendungen innerhalb der AWS Infrastruktur von Grund auf geschützt werden können.
Link

Netflix und sein Chaos Monkey

Ein Grund warum Netflix ein so robustes und hochverfügbares System auf der Amazon Cloud betreibt, ist der selbst entwickelte und sogenannte Chaos Monkey. Der Chaos Monkey hilft Netflix dabei sicherzustellen, dass alle einzelnen Komponenten unabhängig voneinander arbeiten. Dazu zerstört der Chaos Monkey wahllos Instanzen und Services innerhalb der Netflix AWS Infrastruktur, um seinen Entwicklern dabei zu helfen, zu gewährleisten, dass jede einzelne Komponente antwortet, auch wenn die System-Abhängigkeiten nicht einwandfrei funktionieren.

Kategorien
Analysen

Google Cloud Platform vs. Amazon Web Services – Ein erster Vergleich

Nachdem Google sein Cloud Portfolio mit der Compute Engine erweitert hat, fangen erste Medien an darin den Killer der Amazon Web Services zu sehen. Ein Grund mal die Cloud Services von Google und Amazon gegenüberzustellen. Wer sich für einen direkten Vergleich von Microsoft Windows Azure mit den Amazon Web Services interessiert, sollte hier weiterlesen.

Der Vergleich: Google Cloud vs. Amazon Cloud

Die folgende Tabelle stellt das Cloud Services Portfolio 1:1 gegenüber und schafft Klarheit, wer in welchem Bereich was anbietet, wie der Name des jeweiligen Service lautet und unter welcher URL weitere Informationen zu diesem zu finden sind.

Funktion

Amazon Web Services

Google Cloud Platform

Rechenleistung

Virtuelle Maschinen Elastic Compute Cloud Full Virtual Machines (Google Compute Engine)
High Performance Computing Cluster Compute Instances
MapReduce Elastic Map Reduce Google App Engine
Dynamische Skalierung Auto Scaling Google Compute Engine

Speicher

Unstrukturierter Speicher Simple Storage Service Google Cloud Storage
Flexible Entities SimpleDB
Block Level Storage Elastic Block Store Persistent disk (Google Compute Engine)

Datenbanken

RDBMS Relational Database Service Google Cloud SQL, BigQuery
NoSQL DynamoDB „Google F1“

Caching

CDN CloudFront
In-Memory ElastiCache

Netzwerk

Load Balancer Elastic Load Balancer
Hybrid Cloud Virtual Private Cloud
Peering Direct Connect
DNS Route 53 Public DNS

Messaging

Async Messaging Simple Queue Service
Push Notifications Simple Notification Service
Bulk Email Simple Email Service

Monitoring

Ressourcen Monitoring CloudWatch

Sicherheit

Identitätsmanagement Identity Access Management

Deployment

Ressourcenerstellung CloudFormation
Web Application Container Elastic Beanstalk Google App Engine

Wie man sieht, ist das Google Cloud Portfolio im Vergleich zum Service Angebot der Amazon Web Services noch sehr dünn. Falls ich etwas bei Google übersehen habe, macht mich darauf bitte aufmerksam. Ich werde das dann umgehend nachtragen.

Kategorien
Analysen

Vendor Lock-in? Macht eure Hausaufgaben!

Das Thema Datenschutz und der Vendor Lock-in geben sich beim Thema Cloud Computing die Klinke in die Hand. Im Interview für die Computerwoche machte Eucalyptus CEO Marten Mickos mir gegenüber eine interessante Aussage: „Die Leute erinnern sich daran, was Microsoft und Oracle in der Vergangenheit getan haben. Nun vermuten sie, das VMware dasselbe vorhat.“ Der Wink mit dem Zaunpfahl ist hier nicht zu übersehen. Aber, Marten hat recht!

Tradition in der Moderne: Psychologen an die Front

Der Lock-in selbst ist an sich nicht das Problem. Wie viele Windows (Workstation/ Server) Installationen gibt es bspw. weltweit? Und wie viele Leute ärgern sich täglich über Windows und schimpfen auf das System, nutzen es aber dennoch weil es nicht anders geht? Und warum ist das so? Ganz einfach, selbst in der „alten Welt“ haben wir uns regelmäßig in die Abgründe eines Anbieters begeben und uns bewusst auf einen Vendor Lock-in eingelassen. Es wurde nur in dieser Form, wie wir es heute tun, niemals darüber gesprochen. Denn, bleiben wir beim Beispiel Windows, hat man ein System (Windows Server) aus dem Hause Microsoft, dann hat man sich in 90% aller Fälle beim Mailserver auch für ein Microsoft System (Exchange) entschieden. Passt ja alles so gut zusammen, Schnittstellen und so weiter.

Es geht beim Cloud Vendor Lock-in nicht direkt um den Anbieter oder die Systeme selbst, nein es ist ein psychologisches Problem. Denn wo die DATEN und PROZESSE in der „alten Welt“ noch auf den eigenen Servern ihr Unwesen trieben, befinden sich diese nun beim Anbieter, also nicht mehr im eigenen Einflussbereich.

Macht ALLE eure Hausaufgaben!

Es ist falsch mit dem Finger auf die Cloud Anbieter zu zeigen. Es wäre von den Anbietern aber ebenso falsch, nach Außen nicht offen zu sein.

APIs, APIs, APIs

Neben Ausnahmen stellen allerdings alle großen Player am Markt eine dokumentierte API nach Außen bereit. Wodurch sich die Daten, Systeme usw. wieder aus der Cloud herausholen lassen. Natürlich gibt es Services, die mit Vorsicht zu genießen sind. Zwei davon sind die Amazon DynamoDB und der Amazon Simple Workflow. Bei beiden handelt es sich um proprietäre Systeme, für die man explizit entwickeln muss und es bisher keine on-Premise Lösungen gibt. Aber machen wir uns nichts vor, auch ein Windows Azure, Rackspace, OpenStack, Eucalyptus, Google, T-Systems und wie sie alle heißen haben irgendwo einen Lock-in. Denn dabei handelt es sich nun einmal um proprietäre Systeme. Die Einzige Forderungen die man an die Anbietern stellen kann ist, zu allen Services die sie im Portfolio haben, auch eine umfangreiche API bereitzustellen, was sie zum größten Teil auch machen.

Evaluieren, Evaluieren, Evaluieren

Als Nutzer sollte man sich nicht auf einen Anbieter verlassen und vor allem generalistisch entwickeln. Die Web-TV Agentur „schnee von morgen“ nutzt bspw. primär zwar die Amazon Cloud, hat aber ein equivalentes Code-Modell für die Google App Engine entwickelt. Es bringt nichts mit dem Finger auf einen Anbieter zu zeigen. Wenn er die Anforderungen nicht erfüllt, dann wird er halt nicht genommen, Punkt. Er wird schon sehen, was er davon hat. Um sich bestmöglich vor einem Lock-in zu schützen, muss ein Cloud Nutzer die Anbieter seiner Wahl daher penibelst unter die Lupe nehmen bzw. nehmen lassen und dann den Anbieter für einen Bereich auswählen, bei dem ein Lock-in nicht zutrifft. Es wird in Zukunft zudem vermehrt dazu kommen, dass man nicht alle Services von einem Anbieter bezieht, sondern auf Cloud Broker zurückgreift, die für die Zuteilung der Services zuständig sind.


Bildquelle: http://delimiter.com.au

Kategorien
Analysen

Servus iPad und Android: Microsoft und Surface gehen mit riesen Schritten ins mobile Business

Nun ist sie also da, die iPad und Android Tablet Konkurrenz aus Redmond. Sieht auf dem ersten Blick doch wirklich sexy aus oder nicht? Nachdem Microsoft im Mobile Bereich jahrelange nichts vernünftiges präsentieren konnte, scheinen sie mit Surface nun zumindest alles daran zusetzen auch im Tablet Markt ihre Duftmarke zu hinterlassen. An alle Apple Fanboys: Microsoft kopiert hier nicht das Apple iPad. Nein, Apple hat die Idee eines Tablet Computers von Microsoft übernommen und einfach besser umgesetzt. Ich kann mich noch daran erinnern, dass sich ein Kunde von mir im Jahr 2002 für schlappe 2000 EUR(!) ein Compaq Tablet mit Windows XP Tablet Edition gekauft hat. Er hat ihn niemals benutzt…

Surface: Microsoft geht mit riesen Schritten ins mobile Business

Hallo Unternehmenskunden

Ich möchte hier jetzt nicht auf Surface und den Endkundenmarkt eingehen, das haben mittlerweile schon viele vor mir gemacht. Ich möchte lieber über den Unternehmensmarkt schreiben. Denn wo hingegen alle über die Akzeptanz von Surface im Endkundensegment diskutieren, sollten wir eines nicht vergessen. Es fehlt an echten Tablet Alternativen für den Unternehmenseinsatz. Das iPad und Android Tablets adressieren den Endkundenmarkt. Insbesondere das iPad ist ein Endgerät für den Multimediaeinsatz und so wird es auch beworben. In einem Tweet habe ich bereits meine grobe Einschätzung gegeben die sich auf den Unternehmensmarkt bezieht.

Natürlich muss der Endkundenmarkt befriedigt werden, um die Akzeptanz bei den Nutzern zu erreichen sowie eine kritische Masse zu erhalten. Allerdings erleben wir mit dem Thema Consumerization einen flüssigen Übergang von der Nutzung privater Endgeräte im Unternehmensumfeld, wodurch sich ebenfalls die Art wie wir in Zukunft arbeiten verändern wird. Auch die Freiheit der Mitarbeiter mobil, z.B. aus dem Starbucks oder der Co-Working Location ihrer Wahl, zu arbeiten erfordert neue Technologien und alternativen zu Laptops, die das iPad oder Android Tablets einfach nicht bieten können.

Android Tablets und iPad taugen nichts für den Einsatz im Unternehmen

Andere mögen an dieser Stelle vielleicht anderer Meinung sein und Erfahrungen gemacht haben, aber Android Tablets als auch das iPad sind für den Unternehmenseinsatz nicht geeignet. Google als auch Apple fokussieren sich auf das Endkundensegment, und genau das merkt man. Es fängt bereits bei der Integration der Geräte in die bestehenden Infrastrukturen an. Klar, wenn man eh auf Google Apps setzt, hat man die beste Integration auf Android Tablets, die man sich vorstellen kann. Aber wer kann und möchte schon zu 100% den Google Weg gehen? Hinzu kommt, dass es zwar Office Suites für das iPad gibt und sogar Microsoft plant sein Office auf das iPad zu portieren, aber dennoch existieren Medienbrüche und Unbequemlichkeiten, die das „Büro Feeling“ auf aktuellen Tablets einfach nicht wiedergeben. Wenn es darum geht Filme zu schauen, Musik zu hören oder eine E-Mail zu schreiben sieht es anders aus, aber Android Tablets oder iPad im Büroalltag? No way!

Ich hatte kurz nach der CeBIT bereits über Microsoft und Mobile Lösungen geschrieben und dass Microsoft mit Windows 8 den Spagat zwischen der Cloud und dem Mobile Computing geschafft hat. Surface ist nun der nächste Schritt in die Richtung.

Das Surface ist gut vorbereitet

Das Surface wird in zwei Versionen ausgeliefert. Die Große mit Windows 8 bietet einen i5-Prozessor und 64 bzw. 128 Gigabyte Speicherplatz und einem Mini DisplayPort. Die kleine Version setzt auf einen Nvidia ARM-Prozessor und dem Windows RT Betriebssystem sowie 32 oder 64 Speicherplatz. Microsoft Office wird für beide Version von Haus aus direkt mitgeliefert.

Zudem verfügt das Surface über einen USB-Anschluss sowie einen Slot für Micro-SD-Karten und kann anhand eines „Touch Cover“ mit einer Tastatur inklusive Touchpad erweitert werden. Das „Touch Cover“ dient zudem gleichzeitig als Schutzdeckel für das Display. Mit dem „Type Cover“ liefert Microsoft darüber hinaus einen dickeren Schutzdeckel aus, der über eine echte echte physische Tastatur verfügt und einen ausklappbaren Ständer an der Rückseite bietet.

Microsofts Chance: Die Präsenz in den Unternehmen

Das große Geld lässt sich nur bei den Unternehmen verdienen. Und niemand anders weiß und kann das besser als Microsoft. Kein Apple und kein Google hat hier die Erfahrung, die eine Microsoft besitzt. Und das sollte Microsofts Strategie sein, wenn sie in die Unternehmen gehen.

Vielleicht schaffen sie erneut den Wandel wie damals mit den Windows Servern. Damals gehörte Novell Netware zu dem führenden Server Betriebssystem am Markt. Allerdings nur mit einer Konsole für die Administration. Als Microsoft mit seinen Windows Servern und graphischer Benutzeroberfäche um die Ecke kam, schrumpften Novells Marktanteile immens. Denn, aus eigener Erfahrung kann ich davon berichten, fühlte sich plötzlich jeder „Hobby Admin“ in der Lage einen Windows Server zu administrieren, da die Oberfläche einer Windows Workstation 1:1 dem Windows Server entsprach.

Perfekte Integrationsmöglichkeiten in die Unternehmensinfrastruktur

Was mir an Windows 8 gut gefällt ist die Möglichkeit das Tablet als Desktop Ersatz zu nutzen. Ein Wisch und man befindet sich in der bekannten Windows Oberfläche, die auch nicht Tablet affinen Nutzern das mobile Arbeiten möglich macht, ohne sich dabei großartig umstellen zu müssen. Hier wird auch der Unterschied zwischen einem iPad oder Android Tablet deutlich. Ein Windows 8 Tablet ist in erster Linie als Arbeitsgerät ausgelegt, wohingegen insbesondere Apple mit dem iPad zunächst die Masse der Multimedia Junkies ansprechen möchten.

Mit der lokalen Office 365 Installation auf dem Tablet in Verbindung mit einem SharePoint Server ist das verteilte Arbeiten von jedem Ort aus möglich. Sind das Tablet bzw. der Nutzer also mit dem SharePoint synchronisiert, werden alle Daten automatisch abgeglichen und das Weiterarbeiten mit einem anderen Endgerät ist kein Problem.

Zusammen mit Windows 8, Office 365 und weiteren Lösungen wie Exchange, Sharepoint und Lync liefert Microsoft die ideale Kombination für die eigene IT-Infrastruktur, betrachten wir die Verbreitung von Microsoft Servern in den Unternehmen. Windows 8 und Office 365 sind dabei das bekannte Duo, was wir auch von dem Desktop kennen, nur als Tablet Variante. Exchange, Sharepoint und Lync hingegen arbeiten im Hintergrund. Entweder auf den Servern von Microsoft oder in der Private Cloud im eigenen Rechenzentrum.

Was nun Apple und Google?

Was hat Apple dagegen zu setzen. Seitdem der Messias Jobs nicht mehr da ist, scheint das Unternehmen still zu stehen. Das zeigt bspw. auch eine Kritik an iOS6: Innovation: Fehlanzeige!

Bei Android sieht es schon besser aus. Google will mit seiner Google Apps Suite händeringend in die Unternehmen und hätte gute Chancen, wenn sie mit der guten Integration von Google Apps in Android argumentieren. Allerdings sieht es so aus, als ob Google eher ihre Chromebooks auf Unternehmen loslässt und Android dem Endkundenmarkt überlässt.

Kategorien
Analysen

Amazon Web Services – Das Mekka der Startups! Aber reicht das wirklich aus?

Die Amazon Web Services sind insbesondere bei Startups sehr beliebt. Der unkomplizierte Zugriff auf Infrastruktur Ressourcen haben es Unternehmen wie Pinterest ermöglicht, innerhalb kürzester Zeit einen fullminanten Start hinzulegen und ohne große Investitionen in eigene Infrastruktur zu wachsen. So sagt Pinterest sogar von sich selbst, dass sie ohne AWS nicht so darstehen würden wie heute. Jedoch lässt sich das große Geld bei den großen Unternehmen verdienen. Dafür hat Amazon in den vergangenen Wochen und Monaten einige strategische Entscheidungen in diese Richtung getroffen. Aber ist das Unternehmen überhaupt in der Lage mit seinem Public Cloud Angebot im lukrativen Markt für Geschäftskunden mitzuspielen oder bleiben sie eine reine Anlaufstelle für Startups?

Die Referenzen von Amazon sind beeindruckend

Ein Blick auf die Referenzen der Amazon Web Services beeindruckt. Im Laufe der Jahre sind auf der Public Cloud Infrastruktur eine Vielzahl von bekannten und in der Internetwelt hochgelobte Angebote entstanden. Zusätzlich hat sich um die AWS Solution Provider ein Ökosystem gebildet, die mit Clients, Add-On Services und Consulting die Amazon Cloud erweitern. Der jüngste Geniestreich im Ökosystem war die Veröffentlichung des AWS Marketplace, über den Anbieter und Kunden SaaS Anwendungen auf Basis des Pay per use anbieten und beziehen können.

Startups sind undankbar

Aber in dieser so scheinbar perfekten Welt gibt es auch Dinge zu hinterfragen. So wirbt Amazon auf seinen Veranstaltungen und in sonstigen Vorträgen vehement um die Aufmerksamkeit der Startups. Mit einem guten Grund. Wie ich eingangs geschrieben habe, erhalten Startups bei Amazon schließlich auch sehr unkompliziert die Ressourcen die sie benötigen. Aber lässt sich nur mit Startups wirklich viel Geld verdienen? Frank Sempert von Saugatuck Technology ist bspw. der Meinung, dass Amazon mit seinem Cloud Geschäft derzeit nicht viel verdient. Vielmehr geht er von Gewinnmargen im einstelligen Bereich aus und schätzt, dass Amazon frühestens ab dem Jahr 2015 höhere Margen zwischen 20 und 30 Prozent einfahren wird.

Ein weiterer Punkt: Startups sind undankbar! Ein Beispiel ist Zynga. Nachdem das Unternehmen in der AWS Cloud wachsen konnte, haben sie Amazon den Rücken gekehrt und sind in die eigene Private Cloud geflüchtet. So wird es in Zukunft auch mit anderen Kunden weitergehen. Denn die Amazon Cloud ist für junge Unternehmen ideal um zu wachsen und dabei auszutesten, wann sich das Wachstum bis zu einem gewissen Grad einstellt. Nachdem sich ein Maximum eingestellt hat, werden viele merken, dass eine On-Premise Lösung vielleicht doch die bessere und kostengünstigere Variante ist. Wenn der Kuchen also eine gewisse Größe erreicht hat, wird Amazon in vielen Fällen nicht davon kosten dürfen.

Auf ins Big Business

Das Ziel muss also darin bestehen, ebenfalls etablierte Unternehmen mit ins Kundenportfolio zu bekommen. Ein Blick auf die Referenzenliste zeigt nämlich nicht viele große und etablierte Kunden, was natürlich daran liegen kann, dass diese nicht kommuniziert werden möchten. Das hat Amazon aber bemerkt und ist seit Monaten weltweit auf der Suche nach neuen Mitarbeitern. Zudem bietet das Unternehmen ebenfalls einen Premium Support.

Allerdings ergibt sich für AWS hier ein Problem. Unternehmen setzen vermehrt auf das Cloud Computing. Allerdings zieht es die meisten in die Private Cloud, wobei weniger auf die Kosten und mehr auf das Thema Agilität geachtet wird. Public Clouds werden, auf Grund des Datenschutzes und eines möglichen Lock-in, der bspw. mit Services wie DynamoDB oder dem Amazon Simple Workflow auf jedenfall gegeben ist, eher abgelehnt.

Die Public Cloud wird in Zukunft daher nicht das Maß aller Dinge sein. Sie diente eher als aha Effekt bzw. Referenz für Unternehmen, um zu sehen, was Cloud Computing für Möglichkeiten bietet. Einen ersten richtigen Schritt hat Amazon daher mit der Eucalyptus Kooperation gemacht. Die Zusammenarbeit wird für Amazon der notwendige Türöffner sein, um auf Basis einer Hybrid Cloud attraktive Unternehmen anzusprechen und entsprechende Workloads oder Anwendungen in einem hybriden Modell zu betreiben.

Fazit

Die Amazon Web Services müssen den Sprung ins Big Business schaffen, denn nur mit Startups lässt sich kein Geld verdienen. Ich lasse mich natürlich gerne vom Gegenteil überzeugen, allerdings verhält sich Amazon hier sehr verschlossen und schlüsselt die Zahlen für die Amazon Web Services nicht detailliert auf.

Die aktuelle Entwicklung zeigt, dass sich das Cloud Computing bei etablierten Unternehmen mehr in die Richtung der Private Cloud orientieren wird. Ein erster strategischer Schritt war daher die Kooperation mit Eucalyptus Cloud, um den Hybrid Cloud Gedanken zu vertiefen, der mit dem VPC Service (Virtual Private Cloud) bereits seit längerem existiert. Es ist schwierig zu sagen, ob das allerdings reichen wird. Da es sich bei den Amazon Web Services jedoch um ein reines Service Unternehmen und kein Software Unternehmen handelt, werden sie den Schritt in ein reines Private Cloud Angebot nicht wagen (können). Selbst die Akquisition von Eucalyptus wäre zwar früher oder später vorstellbar, jedoch würde sich Amazon damit die Probleme eines Software Unternehmens ins Haus holen, indem sie dann auch für den Support der On-Premise Software, Upgrades, Bugfixes usw. zuständig wären.

Die Public Cloud ist für (etablierte) Unternehmen natürlich nicht vollständig uninteresant, dennoch prüfen sie, welche Daten in die Public Cloud ausgelagert werden. Denn wie habe ich vor längerer Zeit schon einmal geschrieben: „Am Ende zählt der Use Case.


Bildquelle (von mir modifiziert): http://badische-zeitung.de

Kategorien
Analysen

Die Zukunft der Smartphones liegt in den Apps und der Cloud

Internet Nutzer werden damit beginnen weniger auf Geräte, Gadgets oder Hardware zu achten und sich auf Services konzentrieren, die in den Vordergrund rücken werden. Das bedeutet wiederum, das die Geräte lernen müssen, untereinander zu interagieren, um den Nutzer damit einen nahtlosen Datenzugriff zu ermöglichen. Die Zukunft des Mobile Business liegt nicht in den Smartphones. Es geht um den Nutzer und wie er auf seine Daten zugreifen möchte. Unabhängig von seinem Aufenthaltsort und dem Endgerät das er in dem Moment nutzt.

Der Smartphone Markt wächst

Bis Ende 2012 wird der internationale Smartphone Markt um 25 Prozent wachsen. In Zahlen bedeutet das von 472 Millionen Geräte in 2011 auf 630 Millionen in 2012. Dabei liegt der Grund in der Evolution der Smartphones selbst. Noch vor ein paar Jahren waren Blackberrys die einzig akzeptierten Smartphones in der Geschäftswelt. Mittlerweile haben iPhones und Androids den Großteil der Blackberry Marktanteile übernommen. Die Marktforscher von Maravedis gehen davon aus, dass über 50% aller Smartphones Android Geräte sein werden, 18% fallen auf das iPhone, 13% auf Windows und 12% auf Blackberry.

Smartphones werden zu Daten-Silos

Als Google im vergangenen Jahr sein Chrome vorstellte, wurde deutlich: Google will sich auf die Cloud konzentrieren! Sämtliche Software, Dateien, Anwendungen und Medien sind Browser basiert und befinden sich in der Cloud.

Chrome ist nicht der einzige Browser, der Kontakte, E-Mails, Bookmarks und Spiele mit der Cloud synchronisiert. Doch alle anderen Browser müssen weiterhin die Benutzer Informationen auf dem lokalen System selbst speichern. Chrome OS macht das nicht. Sämtliche Daten befinden sich in der Cloud. Das erlaubt den Nutzer sich von jedem Gerät aus anzumelden und auf alle seine Dateien, Anwendungen und Informationen ortsunabhängig zuzugreifen.

Smartphones werden zu Multiplikatoren für Apps

Appcelerator und IDG haben ermittelt, dass 84 Prozent der Smartphone Nutzer Cloud-basierte Services nutzen. Der überwiegende Teil wird dabei vor allem von populären Social Media Diensten wie Facebook, Twitter, Instagram und ebenfalls Skype getrieben. Alle Services haben mobile Versionen ihrer Webseiten und ermöglichen ihren Mitgliedern damit die nahtlose Nutzung.

Allerdings wird sich mit Apps-Erweiterungen ein weiteres Ökosystem bilden, was rasant wachsen wird. So gibt es schon zahlreiche Apps, mit denen man auf jede Art von Datei über das Smartphone zugreifen und mit ein paar Klicks über Dropbox verschicken kann. Weiterhin gibt es Apps, mit denen man über das Smartphone auf seinen (Windows) Desktop und weitere Daten zugreifen kann. Solche Applikationen werden Laptops in Zukunft ersetzen, da sich sämtliche Daten in der Cloud befinden werden und von überall aus mit einem mobilen Endgerät darauf zugegriffen wird.

Smartphones werden fragmentierte Endgeräte vereinen

Intelligente Technologien wie HTML 5 erlauben es Entwicklern Applikationen und Services zu entwickeln, die auf unterschiedlichen Plattformen genutzt werden können. Sie verringern darüber hinaus Probleme wie die Latenz, da sie bspw. das Caching erlauben. Das Problem mit instabilen Internetverbindungen wird sich dadurch ebenfalls minimieren. Content Delivery Networks (CDN) erlauben zudem das dynamische re-Routing des Datenverkehrs basierend auf der Position des Nutzers.

Die Entwicklung der letzten Jahre hat immer mehr Leute dazu bewegt sich mehrere Endgeräte anzuschaffen. Da wäre der Desktop-PC im Büro, der Laptop für den persönlichen Gebrauch, ein Tablet für externe Termine und natürlich das Smartphone. Dabei scheint das Smartphone das Gerät zu sein, um alle Geräte zu vereinen. Desktop-PCs und Laptops werden gerne im Büro oder zu Hause gelassen, sie sind zu unhandlich. Tablets werden immer noch als nicht geeigneter Laptop Ersatz betrachtet und können i.d.R. ein Telefon nicht ersetzen.

Die Zukunft

Die Zukunft der Smartphones liegt in der Cloud. Es geht nicht mehr um den Anbieter. Es geht auch nicht um die Funktionen des Telefons. Es geht darum, dass die Smartphones das primäre Endgerät des täglichen Lebens werden. Desktop-PCs, Laptops und Tablets werden uns noch weiterhin begleiten, aber eben nur im Büro, Home Office oder in Situationen, denen ein Smartphone „noch“ nicht gewachsen ist. Die Entwicklung muss sich daher auf eine nahtlose Integration mit unterschiedlichen Geräten konzentrieren und es schaffen die Latenz zu verringern.


Bildquelle: http://www.scia-online.com

Kategorien
Analysen

Achtung IT-Abteilungen: Hier kommt Google Drive

Das soll kein Hetzartikel gegen Google Drive werden. Es handelt sich dabei bestimmt um einen hervorragenden Service – ich durfte bisher noch nicht in den Genuss kommen. Dennoch muss auch alles Gute kritisch betrachtet werden. Denn neben den Bedenken bzgl. des Datenschutz, dabei handelt es sich nicht um die Diskussion wegen dem Eigentum der Daten, wird Google Drive auch den IT-Abteilungen massives Kopfzerbrechen bereiten.

Google Drive ist angekommen

Google Drive ist Googles neuer Cloud Storage, der zu Beginn dieser Woche vorgestellt wurde. Google möchte damit die Zusammenarbeit fördern und hat dazu Google Docs und Drive integriert. Google Drive bietet neben Funktionen wie Smart Tagging, einer neuartigen Bilderkennung und der Unterstützung der OCR Technologie ebenfalls 5GB kostenlosen Speicherplatz der mit neun Kapazitätsstufen erweitert werden kann. Der Preis für weiteren Speicher beginnt bei 2,49 US-Dollar pro Monat für 25 GB.

Google Drive im Unternehmen

Google Drive ist selbstverständlich nicht der einzige Cloud Storage, über Dropbox und Box sollten IT-Abteilungen ebenso beunruhigt sein. Aber es gibt einen entscheidenen Unterschied zu allen anderen Cloud Storage Services und Google Drive. Denn auf Grund der Vielzahl an Google Anwendungen, die zudem noch z.T. mit Google Drive integriert sind, allen voran Google Mail, YouTube, Google+ oder Google Maps erschweren es den IT-Abteilungen, Google Drive auszusperren und so das Unternehmen vor Datenverlusten zu beschützen. Bei anderen Anbietern wie Dropbox oder Box ist das einfacher, da beide nur einen Dienst anbieten.
Google Docs konnte bereits seit längerer Zeit als Datenspeicher genutzt werden, jedoch war dieses eher eine „Randfunktion“ die nicht so populär gemacht wurde. Google Drive hingegen wurde bereits im Vorhinein massiv durch die Medien getrieben. Spekulationen und Gerüchte waren in den letzten Wochen an der Tagesordnung. Das führt natürlich dazu, dass Google Drive auch in der breiten Öffentlichtkeit war genommen wird und die Nutzung wahrscheinlich erhöht. Google sollte also angesichts der Probleme für Unternehmen, Möglichkeiten bieten, den Zugriff auf Google Drive separat von anderen Google Dienst zu sperren.

Ich bin zwar persönlich auch kein Fan von Blockaden und mag es frei zu arbeiten. Wenn es jedoch um sensible Unternehmensdaten geht, die ein Mitarbeiter zusammen mit seinen privaten Daten im Google Drive speichern könnte, hört der Spaß ein wenig auf. Zudem wird ein Stück Papier, in dem der Mitarbeiter auf die Nutzung des Service verzichtet, wahrscheinlich nicht viel bringen. Wie bereits geschrieben, ich bin kein Fan von Blockaden, aber in gewissen Maßen muss ein Mitarbeiter auch vor sich selbst geschützt werden. Denn auch wenn die Consumerization langsam Einzug erhält, geht nicht jeder Mitarbeiter so sorgsam mit den Daten um, wie er es sollte.

Es geht an dieser Stelle also darum, wie IT-Abteilungen sicherstellen können, dass ein Mitarbeiter mögliche Unternehmensdaten nicht in seinem privaten Google Drive speichert. Denn solange nicht geklärt ist bzw. Google nicht dazu Stellung nimmt, inwieweit sie mit den Daten die im Google Drive gespeichert werden umgehen, also ggf. analysieren usw., kann und darf Google Drive (für Privatleute) im Unternehmen nicht eingesetzt werden.

Kategorien
Analysen

Amazon Web Services: König der Cloud?

Liegen die restlichen Cloud Anbieter den Amazon Web Services zu Füßen? Es scheint fast so. Zumindest setzt Amazon unbeeindruckt von den Grabenkämpfen zwischen den Open Source Clouds OpenStack und CloudStack seine Entwicklung fort und veröffentlicht fleißig immer weiter neue Cloud Services.

OpenStack vs. CloudStack – Amazon der lachende Dritte

Die Kuriosität der Auseinandersetzung zwischen OpenStack und CloudStack besteht insbesondere darin, dass ca. 95% aller IaaS Anbieter von dem Kampf um die Herrschaft um die Open Source Cloud direkt oder indirekt betroffen sind. Nur die Amazon Web Services nicht. Im Gegenteil, das Unternehmen aus Seattle profitiert sogar noch davon, indem es auf Grund seiner APIs EC2 und S3 immer wieder im Gespräch ist.

Und genau um diese APIs geht es im Kern. So gut wie jeder IaaS Anbieter wirbt mit der Kompatibilität zur Amazon Elastic Compute Cloud (Amazon EC2) und Amazon Simple Storage Service (Amazon S3). EC2 erlaubt das Starten und Verwalten von virtuellen Maschinen in der Amazon Cloud. S3 ist für das Speichern und Verwalten von Daten ebenfalls in der Amazon Cloud zuständig.

So ermöglicht es bspw. Terremark seinen Kunden die Daten aus der Private Cloud ggf. per Cloud Bursting in die Amazon Cloud auszulagern. Ein Blick auf mobile Apps für Android oder iOS zeigt eine Vielzahl von Anwendungen, mit denen die Amazon Cloud gesteuert werden kann oder die mit der Unterstützung der AWS APIs werben. Ubuntu springt ebenfalls auf den Zug auf und wird ab der Version 12.04 Funktionen bieten, um OpenStack Installationen mit den Amazon Web Services zu verbinden.

Ein Grund von Citrix, sich aus dem OpenStack Projekt zurückzuziehen, war die angeblich schlechte Unterstützung der Amazon APIs. Was unverständlich ist, da OpenStack von Beginn mit der Kompatibilität von EC2 und S3 wirbt.

Als ein weiterer Gewinner, im Schatten der Schlacht zwischen OpenStack und CloudStack, wird sich Eucalyptus herauskristallisieren. Die Kooperation der Open Source IaaS Software mit Amazon hat sowohl für Eucalyptus als auch Amazon nur Vorteile. Eucalyptus erhält Unterstützung direkt von der Quelle und kann besser als die anderen Open Source Clouds eine perfekte Integration zur Amazon Cloud bieten. Amazon hingegen kann das Hybrid Cloud Geschäft weiter ausbauen und ist somit bereits mit einem Bein in dem hart umkämpften Unternehmensmarkt. Zudem wird durch diese Kooperation eine erste Brücke zwischen den Private Cloud Installation auf Basis von Eucalyptus und der Public Cloud von Amazon geschaffen, um damit insbesondere das Big Data Geschäft auszubauen.

Ich möchte Amazon hiermit keinen Freifahrtsschein für den Thron in der Cloud ausstellen. Dennoch können einzig die wirklich Großen der Branche wie HP, IBM, T-Systems und Microsoft es sich erlauben nicht auf den Zug aufzuspringen und Kompatibilität zu den Amazon APIs bieten. Wobei auch HP bereits OpenStack für sich entdeckt hat.


Bildquelle: http://gigaom2.wordpress.com