Kategorien
Kommentar

Die Cloud Computing Welt ist hybrid! Zeigt uns Dell wo es lang geht?

Dell hat sich mit einem klaren Schnitt aus der Public Cloud verabschiedet und richtet seine Cloud Computing Strategie nun mit eigenen auf OpenStack-basierten Private Cloud Lösungen, inkl. einem Cloud-Broker-Service für Public Clouds anderer Anbieter, aus. Dieser Schritt kommt im ersten Moment überraschend, macht aber Sinn, wenn man Dell, dessen jüngste Vergangenheit, aber vor allem den Markt genauer betrachtet.

Dells neue Cloud Strategie

Anstatt ein eigenes Public Cloud Angebot am Markt zu platzieren, wird Dell in Zukunft OpenStack-basierte Private Clouds auf Dell Hardware und Software verkaufen. Mit der erst kürzlich akquirierten Cloud-Management Technologie von Enstratius sollen Kunden darüber hinaus in der Lage sein, ihre Ressourcen zu mehr als 20 Public Cloud Anbieter zu verteilen.

Mit einem neuen „Partner Ecosystem“, das derzeit aus drei Anbietern besteht, in Zukunft aber weiter ausgebaut wird, sollen Integrationsmöglichkeiten zwischen den Public Clouds dieser Partner und den Private Clouds der Dell Kunden angeboten werden. Zu dem aktuellen Partnernetzwerk gehören Joyent, ZeroLag und ScaleMatrix. Alle drei sind eher kleine Namen im Infrastructure-as-a-Service (IaaS) Markt.

Dell stärkt damit ebenfalls weiter sein Beratungsgeschäft, indem Kunden aufgezeigt werden soll, welche Workloads und Prozesse in die Public Cloud fließen können.

Enstratius macht Dell zum Cloud-Broker

Ein Blick auf den aktuellen IaaS Public Cloud Markt zeigt, dass Dell mit seiner Strategieänderung richtig liegt. Alle aktuellen IaaS Anbieter jeder Größe reiben sich im Kampf um Marktanteile gegen den Branchenprimus Amazon Web Services auf. Da sich deren Innovationskraft im Vergleich zu Amazon jedoch auf ein Minimum beschränkt und sich die meisten, mit Ausnahme von Google und Microsoft, auf das Bereitstellen von reinen Infrastruktur-Ressourcen (Rechnerleistung, Speicherplatz, usw.) beschränken, sind die Erfolgsaussichten eher gering. Auf einen Preiskampf mit Amazon sollten sich zudem die wenigsten einlassen, das kann sehr schnell nach hinten losgehen.

Anstatt sich ebenfalls mit Amazon und den anderen Public IaaS Anbietern in den Ring zu stellen, positioniert sich Dell nun auf Basis von Boomi, Enstratius und weiteren früheren Akquisitionen als unterstützende Kraft für Cloud Service Anbieter und IT-Abteilungen und versorgt diese mit Hardware, Software und weiteren Mehrwerten.

Insbesondere der Kauf von Enstratius war ein guter Schachzug und macht Dell zum Cloud-Service-Broker. Bei Enstratius handelt es sich um ein Toolset zur Verwaltung von Cloud-Infrastrukturen, darunter die Bereitstellung, die Verwaltung und die Automatisierung von Applikation für – aktuell 23 – Public und Private Cloud Lösungen. Zu erwähnen ist, dass Enstratius neben dem Verwalten von einer Cloud-Infrastruktur ebenfalls den Betrieb von Multi-Cloud Umgebungen ermöglicht. Dazu kann Enstratius als Software-as-a-Service genutzt, als auch in on-Premise Umgebungen im eigenen Rechenzentrum als Software installiert werden.

Die Cloud Computing Welt ist Hybrid

Steigt Dell mit diesem Strategiewechsel nun in die Reihe der Cloud-Innovatoren auf? Bei Weitem nicht! Dell ist alles andere als ein führender Anbieter im Cloud Markt. Die Trümpfe im Cloud-Portfolio sind einzig und allein auf Akquisitionen zurückzuführen. Unterm Strich spielt das aber keine Rolle. Um im mittlerweile stark umkämpften Public Cloud Markt ein Wörtchen mitreden zu können, hätten massive Investitionen getätigt werden müssen, die nicht zwangsläufig erfolgsversprechend gewesen wären. Dell hat verstanden sich auf seine altbewährten Stärken zu konzentrieren und die liegen in erster Linie im Verkauf von Hardware und Software, Stichwort „Converged Infrastructures“ und dem Beratungsgeschäft. Mit dem Kauf des Cloud-Integrations-Service Boomi, der jüngsten Akquisition von Enstratius und der Beteiligung an der OpenStack Gemeinde wurde extern entsprechendes Wissen eingeholt, um sich im weltweiten Cloud Markt zu positionieren. Insbesondere die Enstratius Technologie wird Dell dabei helfen, sich im Markt zu diversifizieren und als Hybrid Cloud-Broker eine führende Rolle einzunehmen.

Die Cloud Welt ist nicht nur Public oder nur Private. Die Wahrheit liegt irgendwo mittendrin und hängt stark von dem jeweiligen Use Case eines Unternehmens ab, die sich in Public, Private aber auch Hybrid Cloud Use Cases unterteilen. In Zukunft werden innerhalb eines Unternehmens alle drei Varianten vertreten sein. Dabei muss die Private Cloud nicht zwangsläufig direkt mit einer Public Cloud verbunden sein, um eine Hybrid Cloud aufzuspannen. Die IT-Abteilungen werden in diesem Fall eine zentrale Rolle spielen, wieder stärker in den Fokus rücken und als unternehmenseigener IT-Service-Broker auftreten. In dieser Rolle haben sie die Aufgabe, die eingesetzten internen und externen Cloud-Services der jeweiligen Fachabteilungen zu koordinieren, um für das Unternehmen den Gesamtüberblick aller Cloud-Services zu haben. Hierbei werden sie Cloud-Broker Services wie der von Dell unterstützen.

Kategorien
Kommentar

Microsoft SkyDrive Erfahrungsbericht – Ein Rückblick nach 6 Monaten intensiver Nutzung

Ich nutze Microsoft SkyDrive nun intensiv seit November 2012. Ich habe den Cloud-Storage Service aus Redmond in einem zurückliegenden Artikel hinsichtlich seiner Diversifikation zu Dropbox und anderen Angeboten gelobt. Dieses zu recht, denn die Integration in die weiteren Services von Microsoft ist wirklich gut gelöst. Jedoch sind auch andere Faktoren bei der Nutzung entscheidend und hier sieht es nicht ganz so rosig aus.

Geschwindigkeit: Der Caterham F1 unter den Cloud Storages

Das ist wirklich ein analog sehr gut gewähltes Beispiel. SkyDrive kommt einfach nicht aus dem Knick. Die initiale Synchronisation hat ernsthaft(!) fast zwei Wochen benötigt! Ich muss zu SkyDrives Verteidigung sagen, dass ich nur hinter einer 4 MBit (3,7 Mbit/s) Leitung mit 288 kbit/s Upload sitze. Dennoch war die immer so oft gewählte Marketing-Floskel „Customer Experience“ mit Dropbox viel galaktischer. Sicherlich war ich mit Dropbox, welches ich vorher genutzt habe, verwöhnt. Das hängt u.a. mit der Deduplizierung zusammen, die SkyDrive nicht verwendet.

Dennoch bin ich nicht der Einzige, der sich über die Geschwindigkeit beklagt. In der Microsoft Community wird ebenfalls von einer „Terrible Skydrive speed performance“ gesprochen.

Transparenz: Man weiß nicht was SkyDrive macht

Das ist wirklich das Schlimmste! Man weiß einfach nicht was SkyDrive im Hintergrund macht. Nach dem Start zeigt das Symbol in der Taskleiste „Änderungen werden gesucht“ an. Das kann schon mal etwas länger dauern. Eine Statusanzeige wie „x Prozent von y“? Fehlanzeige!

Werden Dateien synchronisiert, verwendet SkyDrive die Statusanzeige: „Änderungen werden verarbeitet“. Ja, aber welche Dateien genau? Und wie lange dauert die Synchronisation noch? Was heißt denn Änderungen werden verarbeitet? Und warum dauert das z.B. mal 2 Stunden, ohne das etwas passiert? Ein Benutzer wird hier total im Stich gelassen. Das ist besonders ärgerlich, wenn man „mal eben“ etwas in den SkyDrive Ordner kopiert, um es unterwegs auf einem anderen Gerät nutzen zu können.

Unzuverlässig: SkyDrive Client hängt sich immer wieder auf

In diesem Zusammenhang kommt es dann auch zu dem sehr unglücklichen Umstand, dass sich der SkyDrive Client im Hintergrund anscheinend aufhängt. Da man jedoch nicht weiß, was genau im Hintergrund passiert, ist man als Nutzer völlig aufgeschmissen. Man möge dann meinen, unter „Synchronisationsprobleme anzeigen“, mit einem Rechtsklick auf das SkyDrive Icon in der Taskleiste, gibt es mehr Informationen. Leider nicht, dieser ist ständig grau. Bedeutet also, dass alles in Ordnung ist. Ich frage mich dann aber, wie alles in Ordnung sein kann, wenn „Änderungen werden verarbeitet“ über 9 Stunden für eine Dateigröße von nicht einmal 2MB angezeigt wird. Das ist KEIN SCHERZ!

Manchmal kann man dieses Problem lösen, wenn man den SkyDrive Client beendet und neu startet. Oftmals bringt das aber nichts. Das bedeutet dann, man muss die Dateien, die man eigentlich synchronisieren möchte, wieder aus dem SkyDrive Ordner nehmen, den Client neu starten und die Dateien einzeln hochladen lassen, bis „Alles Aktuell“ ist. Jedoch hat auch das sehr oft nicht funktioniert. Dann heißt die Devise: Browser auf; SkyDrive.com öffnen; und alles von Hand in die entsprechenden Ordner hochladen!

Ich habe mal einen Blogbeitrag gefunden, in dem erklärt wurde, dass dieses Problem wohl an der lokalen SkyDrive Datenbank liegen soll. Die Lösung war, die Verknüpfung des PCs mit SkyDrive aufzuheben und neu zu erstellen. Dann wird die Datenbank neu abgeglichen, was quasi einer initialen Synchronisation entspricht. Unter Windows 7 hat es funktioniert. Allerdings ist das KEINE Lösung! Seit Windows 8 ist SkyDrive jedoch direkt mit dem Benutzer in das Betriebssystem integriert. Somit ist „Diese Option nicht verfügbar, da Sie mit einem Microsoft-Konto angemeldet sind.“

Just wo ich diesen Artikel schreibe, bin ich gerade dabei, eine 3,85 MB PDF-Datei hochzuladen. Status: „Änderungen werden verarbeitet“ – „Letztes Update vor 58 Minuten“. Und ich habe den Client bereits zwei Mal neu gestartet.

Kosten: Unschlagbar

Hinsichtlich der Kosten gibt es keinen Kritikpunkt. Neue SkyDrive Nutzer erhalten 7GB kostenlosen Speicher. Die Speichererweiterungen werden in drei Kapazitätsstufen angeboten. Diese erweitern das kostenlose und bestehende SkyDrive Kontingent. 20GB Speicher kosten 8,00 € pro Jahr, 50GB 19,00 € pro Jahr und 100GB 37,00 € pro Jahr.

Mobile Clients: Gut bedienbar und schnell

Auch an den mobilen Clients gibt es meinem Befinden nach nichts zu kritisieren. Bis auf Linux, stehen für alle Betriebssysteme inkl. iOS und Android Clients zur Verfügung. Die mobilen Clients sind gut und flüssig zu bedienen. Auch der Zugriff auf die Daten im SkyDrive geht schnell.

Unter diesem Umständen nur bedingt empfehlenswert

Trotz der vergleichsweise geringen Kosten, der guten Integration in andere Microsoft Produkte sowie der guten mobilen Clients, kann ich SkyDrive unter den Gesichtspunkten der Geschwindigkeit aber insbesondere der Verlässlichkeit bisher nur bedingt weiterempfehlen. Vielleicht mache ich auch etwas falsch oder habe irgendwo ein Häkchen falsch gesetzt, was ich beides bezweifle, weil SykDrive hier wirklich auf Einfachheit setzt, was wiederum gut ist.

SkyDrive Pro habe ich mir bisher noch nicht angeschaut. Wenn das Produkt, wohl gemerkt für Unternehmen(!), allerdings genau so implementiert ist, dann gute Nacht!

Kategorien
Kommentar

Cloud Computing ist nicht einfach!

Cloud Computing verspricht vermeintlich einfach zu sein. Hier und da einen virtuellen Server starten und fertig ist die eigene virtuelle Cloud Infrastruktur. Wer nun meint, dass ich mit der Aussage recht habe, der liegt dermaßen falsch. Virtuelle Server sind nur ein kleiner Bestandteil einer virtuellen Infrastruktur bei einem Cloud Anbieter. Ein paar virtuelle Maschinen machen noch lange keine Cloud. Die Komplexität liegt in dem, wie die Architektur der Applikation geschaffen ist. Und somit in der Intelligenz, die der Architekt und der Softwareentwickler ihr vereinleibt. Das dies manchmal nicht so umgesetzt wird, haben uns die einen oder anderen Cloud Nutzer nicht nur einmal eindrucksvoll gezeigt. Regelmäßig fallen immer die selben Verdächtigen aus, wenn deren Cloud Anbieter mal wieder mit sich selbst zu kämpfen hat. Cloud Computing ist nicht einfach! Ich meine hiermit nicht simples Software-as-a-Service (SaaS). Ich spreche von Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (PaaS) und hier sogar noch granular von der Königsklasse namentlich Skalierbarkeit und Hochverfügbarkeit. Und genau das sollte man Abseits des Marketing der Cloud Anbieter verstehen und uneingeschränkt berücksichtigen, wenn man Cloud Computing erfolgreich einsetzen möchte.

Software-defined Scalability und Software-defined High-Availability

Derzeit kursieren wieder neue Begriffe durch die IT-Stratosphäre. Software-defined Networking (SDN) und auch Software-defined Datacenter (SDD). Ein SDN führt eine weitere Abstraktionsebene oberhalb der Netzwerkkomponenten ein. Typischerweise besitzt jeder Router und Switch seine eigene lokale Software, über die er per Programmierung mit Intelligenz versorgt wird. Der Netzwerkadministrator sagt dem Router somit bspw. welches Paket unter welchen Bedingungen wohin geleitet werden soll oder auch nicht. Innerhalb eines SDN entfällt die Aufgabe jeder einzelnen Komponente für sich eine lokale Intelligenz einzuverleiben. Die Intelligenz wandert eine Ebene höher in eine Managementschicht, in der das gesamte Netzwerk designed wird und die einzelnen Regeln für jede Komponente zentral festgelegt wird. Ist das Design fertiggestellt, wird es über die Netzwerkkomponenten ausgerollt und das Netzwerk ist konfiguriert. Mit SDN soll es daher möglich sein ein vollständiges Netzwerkdesign „per Knopfdruck“ zu verändern, ohne jede einzelne Komponente direkt anfassen zu müssen.

Die Idee des SDN Konzepts muss bei der Nutzung einer Cloud-Infrastruktur ebenfalls zwingend in Betracht gezogen werden. Denn der Einsatz eines PaaS aber noch viel mehr eines IaaS bedeutet sehr viel Eigenverantwortung. Mehr als man auf dem ersten Blick denken mag. Eine oder zwei virtuelle Maschinen zu starten bedeutet nicht, dass man eine virtuelle Cloud Infrastruktur nutzt. Es sind und bleiben zwei virtuelle Server. Ein IaaS Anbieter stellt darüber hinaus nur die Komponenten, wie die genannten virtuellen Maschinen, Speicherplatz, weitere Services und zusätzlich APIs bereit, mit denen die Infrastruktur genutzt werden kann. Unterm Strich lässt sich vereinfacht sagen, dass ein IaaS Anbieter seinen Kunden nur die Ressourcen und entsprechenden Werkzeuge zur Verfügung stellt, um damit auf seiner Cloud Infrastruktur eine eigene virtuelle Infrastruktur respektive ein eigenes virtuelles Rechenzentrum aufzubauen.

Man muss daher per Software (die eigene Applikation) selbst dafür sorgen, dass die Cloud Infrastruktur bei Bedarf skaliert (Software-defined Scalability, SDS) und im Falle eines Ausfalls einer Cloud Infrastruktur-Komponente berücksichtigen, dass entsprechend eine Ersatzkomponente (z.B. virtuelle Maschine) gestartet wird und die Ausgefallene damit ersetzt wird (Software-defined High-Availability, SDHA). Die Software sorgt also für die Skalierbarkeit und Hochverfügbarkeit der genutzten virtuellen Cloud Infrastruktur, damit die Web-Applikation selbst skaliert und ausfallsicher ist und den Charakter der jeweiligen Cloud eines Anbieters nutzt und das Maximum aus ihr schöpft.

Wie eine Cloud Computing Infrastruktur quasi in Perfektion genutzt wird zeigt Netflix eindrucksvoll.

Cloud Computing ist nicht einfach! Begreif's doch endlich, ...

Quelle: Adrian Cockcroft

Netflix das Paradebeispiel

Netflix ist mit Abstand der größte Cloud Service weltweit. Der Video-Streaming Dienst ist während Spitzenzeiten mittlerweile für ein Drittel des gesamten Internetverkehrs verantwortlich. Diese Nutzeranfragen gilt es selbstverständlich performant und zu jedem Zeitpunkt zu beantworten. Dazu setzt Netflix schon seit seinem Start im Jahr 2009 auf Cloud Technologien und hat im November 2012 seinen vollständigen Technologie-Stack und die darauf basierende Infrastruktur in die Cloud zu den Amazon Web Services verlagert. Hier laufen rund 1.000 virtuelle auf Linux basierende Tomcat Java Server und NGINX Web-Server. Hinzu kommen weitere Services wie Amazon Simple Storage Service (S3) und die NoSQL Datenbank Cassandra in Verbindung mit Memcached sowie ein verteiltes Memory Object Caching.

Das ist jedoch nur die eine Seite der Medaille. Viel wichtiger ist die Nutzung mehrerer Availability Zones in der Amazon Cloud. Netflix nutzt insgesamt drei Availability Zones, um die Verfügbarkeit und Geschwindigkeit des eigenen Service zu erhöhen. Tritt in einer Availability Zone ein Problem auf, ist die Architektur der Netflix-Applikation so ausgelegt, dass der Service durch die anderen beiden weiterlaufen kann. Dabei hat Netflix sich nicht auf die reinen Marketing-Versprechen von Amazon verlassen, sondern mit dem Chaos Gorilla selbst eine eigene Software entwickelt, mit der die Stabilität der virtuellen Server Amazon Elastic Compute Cloud (EC2) getestet wird. Kurzum wird dabei der Ausfall einer kompletten EC2 Region bzw. Availability Zone simuliert, um sicherzustellen, dass der Netflix-Service im Ernstfall weiterhin funktioniert. Eine der größten Herausforderungen besteht dabei darin, dass im Falle eines Fehlers in einer Amazon Zone, das Domain Name System (DNS) automatisch neu konfiguriert wird, damit die Netflix Kunden von dem Ausfall nichts mitbekommen. Die unterschiedlichen APIs der DNS-Anbieter machen die Aufgabe hier allerdings nicht einfacher. Zudem sind die meisten so entwickelt worden, dass die Einstellungen noch manuell vorgenommen werden müssen, was es nicht einfacher macht, dies zu automatisieren.

Unterm Strich ist zu sagen, dass Netflix für den Fehlerfall vorausschauend plant und sich nicht auf die Cloud verlässt. Denn irgendwas läuft auch mal in der Cloud schief, wie in jedem gewöhnlichen Rechenzentrum auch. Mann muss nur darauf vorbereitet sein. Wer sich mehr dafür interessiert, was Netflix macht um diesen Zustand zu erreichen sollte „Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur“ lesen.

Die Einfachheit zählt

Vielleicht verlange ich noch zu viel. Schließlich ist Cloud Computing in seiner Form ein relativ junges Konzept. Dennoch zeigt Netflix eindrucksvoll das es funktioniert. Wenn man jedoch bedenkt, was für einen Aufwand Netflix betreibt, um in der Cloud erfolgreich zu sein, muss man einfach sagen, dass Cloud Computing nicht einfach ist und eine Cloud Infrastruktur, egal bei welchem Anbieter, mit der entsprechenden Architektur aufgebaut werden muss. Das bedeutet im Umkehrschluss, dass die Nutzung der Cloud simpler werden muss, um auch die versprochenen Kostenvorteile zu erzielen. Denn wenn man Cloud Computing richtig nutzt, ist es zwangsläufig nicht günstiger. Neben den Einsparungen der Infrastrukturkosten die immer vorgerechnet werden, dürfen niemals die weiteren Kosten z.B. für das Personal mit den notwendigen Kenntnissen und die Kosten für die Entwicklung der skalierbaren und ausfallsicheren Applikation in der Cloud vernachlässigt werden.

Das erfreuliche ist, dass ich erste Startups am Horizont sehe, die sich der Problematik annehmen und den einfachen Bezug von fertigen Cloud Ressourcen, ohne als Nutzer selbst auf Skalierbarkeit und Hochverfügbarkeit achten zu müssen, zu ihrer Aufgabe gemacht haben.

Kategorien
Kommentar

Toter PC-Markt – Microsoft ist das Bauernopfer!

Eines Vorweg, ich bin auch nicht mit jeder Entscheidung die Microsoft trifft einverstanden und bei Weitem gibt es Produkte die ich auch kritisch betrachte. Aber was hier gerade passiert, zeigt, wie engstirnig manche Argumentationen sind. Hintergrund der Aufregung sind die Schlussfolgerungen der Marktforscher IDC und Gartner zur aktuellen Lage des PC-Marktes. Beide machen Microsoft respektive Windows 8 für den Tod des PC verantwortlich. Zu guter Letzt haben sich auch noch die Investmentbanker von Goldman Sachs und weitere Finanzanalysten angeschlossen und kommen zu absurden Aussagen. Microsoft wird hier zu unrecht als Sündenbock und Bauernopfer benutzt!

Hintergrund: Aktuelle Zahlen des PC-Marktes

Laut IDC wurden im ersten Quartal 2013 nur noch 76,3 Millionen Endgeräte ausgeliefert. Das ist ein Rückgang von 14 Prozent. Gartner legte einen Tag später seine Zahlen vor, die einen Rückgang von 11,2 Prozent zeigen und damit 79,2 Millionen ausgelieferte Personal Computer bedeuten.

Schnell war auch der Schuldige dafür ausgemacht. Microsoft, respektive Windows 8. Denn IDC war eigentlich davon ausgegangen, dass Windows 8 für eine Belebung des PC-Marktes sorgen sollte. Allerdings habe Microsoft die Situation nach IDC Aussage, verschlimmert, da sich die Kunden nicht an die neue Kachel-Umgebung usw. gewöhnen können.

Unterdessen hatte auch die Finanzbranche reagiert. So wird ein Finanzanalyst wie folgt zitiert: „Der PC-Einsatz in den Unternehmen ist ein ausgereifter Markt mit rückläufigen Ersatz-Investitionen und im Endverbraucher-Markt benötigt man kein Office, also auch kein Windows und folglich auch kein Microsoft.“ Die Investmentbanker haben ihren Kunden daher dazu geraten, ihre Anteile an Microsoft Aktien zu verkaufen.

Für mich zeigt diese Aussage, das Investmentbanker und Finanzanalysten überhaupt keine Weitsicht haben und noch viel schlimmer, keine Ahnung von dem Markt haben, den sie bewerten sollen. Anstatt die Schlussfolgerungen von IDC und Gartner zunächst kritisch zu hinterfragen, werden stattdessen unqualifizierte Aussagen getroffen, die für Microsoft und möglicherweise eine ganze Branche finanzielle Auswirkungen haben werden.

Hybrid Tablets sind der Trend

Der PC-Markt ist nicht Tod, er hat sich in den letzten Jahren nur verändert. Und wenn man aus der Sicht von Gartner und IDC nun argumentieren würde, wäre es Apple, die mit der Markteinführung des iPad für den Tod des PC-Marktes verantwortlich sind.

Dabei sieht die Situation ganz anders aus. Der PC ist nicht Tod, er hat nur begonnen eine andere Gestalt anzunehmen. Ich hatte in „meinen fünf Cloud Computing, Mobile und Big Data Vorhersagen für 2013“ darauf hingewiesen, das insbesondere Hybrid Tablets in die Unternehmen einziehen werden. Hybrid Tablets sind Tablets mit einer ansteckbaren oder drehbaren Hardware-Tastatur. Das hat den Hintergrund, dass Tablets uns zwar dabei helfen, die IT, das Internet und weitere Dinge bequemer zu nutzen. Jedoch sind sie für den vollständigen Einsatz im Unternehmen, aber auch im privaten Umfeld, nicht geeignet. Auf Konferenzen und Reisen sehe ich regelmäßig Nutzer, die sich zu ihrem Tablet eine externe Tastatur gekauft haben. Hybrid Tablets sind das beste aus beiden Welten. Das Tablet mit seinem Touchscreen und einer einfach zu bedienenden Benutzeroberfläche plus den klassischen Laptops und ihren Tastaturen. Lange Texte auf einem Tablet mit der virtuellen Tastatur zu schreiben macht keinen Spaß und ist anstrengend, was auch die Reaktionen von Business-Anwendern sind. Darüber hinaus werden Hybrid Tablets die heutigen gewöhnlichen Laptops ersetzen. Und was läuft u.a. auf diesen Hybriden? Richtig, Windows 8 – und sogar MS Office.

Das Hybrid Tablets der Trend sind, hat mittlerweile auch Apple erkannt. Es gibt erste Berichte, dass Apple ein Patent für ein „Hybrid Notebook Tablet“ eingereicht hat.

Das Nutzerverhalten ändert sich

So wie sich der Technologiemarkt entwickelt, wird auch unser Leben und unsere Art wie wir Technologien konsumieren beeinflusst. Hätte Microsoft im Jahr 2002 auf die Tastatur bei ihrem Tablet verzichtet, auf Touch Bedienung gesetzt anstatt auf einen Stift und damit einen dünneren Formfaktor gewählt, hätten sie bereits vor 11 Jahren den PC-Markt auf den Kopf gestellt. Nun war es jedoch Apple, die zum richtigen Zeitpunkt und unter dem Hype des iPod und iPhones mit dem iPad nachlegen konnten.

Allerdings sehen wir auch, dass Microsoft mit seinem Konzept eines Hybrid Tablets aus dem Jahr 2002 bereits das richtige Näschen hatte. Man darf daher sogar sagen, dass Microsoft bereits damals auf das richtige Pferd gesetzt hat. Es war wie so oft nur nicht der richtige Zeitpunkt.

Schauen wir mal rüber zur Automobilbranche sehen wir ähnliche Veränderungen. „Warum parken tausende Neuwagen heimlich in Bayern?“ Weil die Aufträge der Autohersteller zurückgehen und der Absatz von Neufahrzeugen einbricht. „Tausende Neufahrzeuge müssen ausgelagert werden, um neueren Modellen zu weichen und den Markt am Leben zu erhalten.“

Und warum ist das so? Weil sich das Nutzerverhalten und die Ansprüche ändern. Ein hoher SAP-Manager hat mir auf der CeBIT erzählt, dass es bei den Einstellungsgesprächen von Nachwuchskräften schon lange nicht mehr darum geht, ob und welchen Firmenwagen man bekommt. Die Fragen lauten eher, ob man ein iPhone und iPad bekommt.

Ich habe vor ein paar Tagen einen Vortrag von einem Roland Berger Berater gehört. Die Aussage war ganz klar, dass der Automarkt wie wir ihn heute kennen Tod ist. Das Statussymbol Auto verliert immer mehr an Bedeutung. Logisch, neue Mobility-Konzepte wie flinc, Flinkster, book-n-drive oder car2go sind viel kosteneffizienter. In vielen Fällen lohnt es sich einfach nicht mehr, hohe Investitionen in ein eigenes Auto zu tätigen. Neben den monatlichen Kosten für Steuern und Versicherungen sind die Benzinpreise ein Grund. Hier kann man auch keinen einzigen Autohersteller oder ein Modell für diese Misere verantwortlich machen. Es geht darum was die Kunden haben möchten.

Wir erleben derzeit die bis heute größte technische Revolution, die direkt auf unsere Gesellschaft durchschlägt. Ausgehend von IT-Konzepten (Cloud Computing, Mobile, Social Media usw.) entwickeln sich auch in anderen Branchen die Verhaltensweisen der Nutzer. Und dafür ist nicht ein einziges Unternehmen verantwortlich!

Kategorien
Kommentar

Unwissenheit schützt vor Publikation nicht! heute.de und das falsche Verständnis für Cloud Computing

Es ist erschreckend was man immer wieder in der deutschen Medienlandschaft über das Thema Cloud lesen muss. Der Dank dafür geht zunächst an das Social Media Team von Weclapp, deren Tweet ich gelesen habe. Es geht dabei um einen Artikel auf heute.de mit dem Titel „Die „Cloud“ zu Hause„. Sehr besorgniserregend hierbei ist, dass die Leser mit offensichtlichen Falschinformationen versorgt werden. Und das von einem Medium, das einen offiziellen Auftrag vom Staat erhalten hat, die Öffentlichkeit mit qualitativ hochwertigen Inhalten zu informieren.

Gegenstand der Aufregung

Der Artikel „Die „Cloud“ zu Hause“ beginnt einleitend mit dem Zitat „Doch wer seine Daten unter Kontrolle behalten will, kann die Cloud nach Hause verlegen.“ Dann beschreibt der Autor, dass er über massig Speicherplatz in der Cloud verfügt, davon aber gar nichts nutze. Denn: „… meine Cloud steht auf dem Schreibtisch.“ Der Autor hat sich vor „zwei Jahren“ einen Fileserver angeschafft. „Zur selben Zeit“ sei dann auch Cloud Computing zum Trend geworden. Er beschreibt, dass man in der Cloud seine Daten den Anbietern anvertraut. „Doch so praktisch die Cloud-Anwendungen auch sind, so tückisch können sie auf lange Sicht sein.“ Der Autor beschreibt, dass viele Musikdienste in der Cloud bereits eingestellt wurden und nennt als Paradebeispiel den Google Reader. An dieser Stelle gebe ich ihm Recht, Google hat damit wirklich Vertrauen einbüßen müssen. Der Autor kommt hier zum Ergebnis: „Die Abhängigkeit von der Cloud ist hoch.“ Ja, hat er auch recht.

Dann geht’s langsam los:

Dabei hat fast jeder Haushalt die notwendigen Zutaten für den eigenen Server. So sind DSL-Router, die in vielen Haushalten stehen, nichts anderes als abgespeckte Computer und können im Prinzip alles, was die hochspezialisierten Server in den großen Rechenzentren auch können.

Liebe heute Redaktion, fragen Sie mal Amazon, Microsoft, Google, HP, IBM, T-Systems, (wen soll ich noch alles nennen?), ob DSL-Router im Prinzip wirklich alles können wie „… die hochspezialisierten Server in den großen Rechenzentren…“. Ein Tipp, machen Sie es lieber nicht, das Gelächter werden Sie nicht ertragen können!

Dennoch, der Linux Home Server des Autors „… wurde immer mehr zum Cloud-Ersatz.“

Der Artikel widerspricht sich

Der Artikel hat eine Infobox, in der unter anderem die Nachteile des Cloud Computing genannt werden. Ein Punkt sticht besonders hervor: „Wer seine Daten auf einer virtuellen Festplatte in der Datenwolke speichern will, benötigt zudem einen schnellen Internetzugang. Ansonsten kann es Ewigkeiten dauern, bis die Urlaubsvideos verstaut sind.

Liebe heute.de Redaktion, ist Ihnen klar, dass die Breitbandversorgung in Deutschland schleppend voran geht. Nur die wenigsten Haushalte verfügen über einen sehr schnellen Internetanschluss. Außerdem: Eine DSL 16000 Leitung mit 16000 kbit/s Download hat gerade einmal 1024 kbit/s für den Upload zu Verfügung. Damit soll es keine Ewigkeiten dauern, bis die Urlaubsvideos auf dem eigenen Server zu Hause gespeichert sind?

Ein Linux Home Server ist KEINE Cloud

Liebe heute.de Redaktion. Was in Ihrem Artikel mit einer Cloud verglichen wird, stellt den Vergleich eines Apfels mit einer Birne dar. Ein Linux Home Server ist KEINE Cloud.

Das beschreibt eine Cloud:

  • Self-Service
  • Skalierbarkeit
  • Verfügbarkeit
  • Ressourcen-Pools
  • Automatisierung
  • granulare Abrechnung
  • on-Demand Bereitstellung der Ressourcen

Kann das ein Linux Home Server leisten? Nein!

Hier sind Beispiele für Clouds:

Public Cloud:

Private Cloud:

Es gibt KEINE Cloud für zu Hause

Es gibt KEINE Cloud für zu Hause. Wer auch immer dieses Gerücht in die Welt gesetzt hat, er hat Sie angelogen und/ oder falsch informiert! Und nein, es gibt nicht unterschiedliche Meinungen darüber was eine Cloud ist! Es gibt Definitionen (siehe Stichworte oben) und daran sollte man sich auch halten.

Kategorien
Kommentar

Die Amazon Web Services (AWS) nutzen möglicherweise Eucalyptus für den Bau der CIA Private Cloud

Es verdichten sich immer mehr die Gerüchte, dass Amazon für die CIA eine eigene Private Cloud für die Spionage bauen soll. Die erste Frage die sich dabei stellt ist natürlich warum für einen Geheimdienst? Die zweite, warum Amazon AWS als Public Cloud Anbieter, die Serviceanbieter und kein Softwareanbieter sind. Denkt man ein wenig weiter, kommt sofort Eucalyptus ins Spiel.

Der Amazon Deal mit der CIA

Laut der Federal Computer Week, haben die CIA und die Amazon Web Services (AWS) einen 600 Millionen Dollar schweren Vertrag mit einer Laufzeit von 10 Jahren abgeschlossen. Dabei geht es darum, dass Amazon AWS für die CIA eine Private Cloud auf der Infrastruktur der Regierung bauen soll. Viel mehr Informationen gibt es derzeit nicht.

Stellt sich dennoch die Frage, warum die CIA Amazon gefragt hat. Steckt hinter den $$$ noch mehr? Eines ist klar. Amazon gehört zu den wenigen Unternehmen, die über die Kenntnisse und Mitarbeiter verfügen, um sehr erfolgreich eine Cloud Infrastruktur zu betreiben. Trotz manch vermeidbarer Ausfälle, ist die Infrastruktur als äußerst robust und smart entwickelt einzuschätzen. Allerdings hat Amazon einen Nachteil. Sie sind Serviceanbieter und kein Softwareanbieter. Das bedeutet sie haben keine Erfahrung damit, wie man Software ausrollt, Kunden mit Updates usw. versorgt. Zudem werden sie wahrscheinlich bzw. hoffentlich nicht den selben Quellcode für die Cloud der CIA verwenden.

Hier könnte nun aber eine Kooperation ins Spiel kommen, die Amazon vor längerer Zeit mit Eucalyptus eingegangen ist und damit das Problem der nicht vorhandenen Software für on-Premise Clouds und die Erfahrung mit der Wartung usw. von Software für Kunden behebt.

Die Kooperation zwischen Amazon AWS und Eucalyptus

Kurz zusammengefasst handelt es sich bei Eucalyptus um einen eigenständigen Fork der Amazon Cloud, mit dem eine eigene Cloud mit den grundlegenden Eigenschaften und Funktionen der Amazon Cloud nachgebildet werden können.

Die Amazon Web Services und der Private Cloud Infrastruktur-Software Anbieter Eucalyptus haben im März 2012 angekündigt, in Zukunft enger zusammenarbeiten, um die Migration von Daten zwischen der Amazon Cloud und Private Clouds besser zu unterstützen. Dabei ist die Kooperation unterschiedlich aufgebaut. Zunächst sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.

Amazon Eucalyptus Private Cloud für die CIA

Diese Kooperation könnte nun erste Früchte für beide, Amazon als auch Eucalyptus, tragen. Durch die sehr nahe Ähnlichkeit von Eucalyptus zur Amazon Cloud, steht bereits eine fertige und direkt einsetzbare Cloud Software zur Verfügung, die Amazon kennt und sein weiteres Wissen mit einbringen kann. Services, die Eucalyptus noch nicht unterstützt, von der CIA aber benötigt werden, können successive nachgebaut werden.
Das könnte Eucalyptus wiederum bei der eigenen Weiterentwicklung helfen, indem entweder Kenntnisse aus deren Entwicklung oder gar Teile von Services in das generelle Produkt zurückfliessen.

PS:

Ich habe mit der nun scheinbar offiziellen Zusammenarbeit zwischen Amazon und der CIA so meine Probleme. Ein Stichwort heißt hier Vertrauen, was Amazon durch die Kooperation mit einem Geheimdienst für sich nicht weiter fördert.

Kategorien
Kommentar

VMware ist NICHT der Technologie-Enabler der Cloud

In einem vor kurzem erschienen Interview hat sich ein VMware Mitarbeiter zu der für mich sehr vagen und fragwürdigen Aussage „VMware ist der Technologie-Enabler der Cloud, und ich sehe derzeit keinen anderen.“ hinreißen lassen. Ohne VMware zu nahe treten zu wollen, klingt dieser Satz für mich schon sehr stark nach Selbstüberschätzung und gleicht einem Realitätsverlust. Es steht außer Frage, dass VMware der König der Virtualisierung ist, aber zu behaupten dass im Cloud-Umfeld nichts ohne sie funktionieren würde, ist schon sehr anmaßend.

Reality distortion field

Steve Jobs hat es entwickelt, das „Reality distortion field„. Die Eigenschaft jemanden davon überzeugen zu können, was überhaupt nicht stimmt und die Fakten so zu verdrehen, dass es am Ende so aussieht, als ob es seine eigene Idee war. Zum Glück behauptet VMware nicht, dass sie das Cloud Computing erfunden hätten, das wäre dann kein Realitätsverlust, sondern Größenwahn.

Virtualisierung ist kein Cloud Computing

Es ist schon sehr anmaßend zu behaupten, man sei der Technologie-Gott der Cloud. Man überlege mal was VMware tatsächlich als Basis für die Cloud liefert. Es ist die Virtualisierung, also der Hypervisor. Natürlich, Virtualisierung ist eine der wichtigsten Grundlagen für die Cloud. Aber es gehört viel mehr dazu, um die virtuellen Ressourcen zu provisionieren und zu nutzen.

Bleiben wir beim Hypervisor, ist nicht abzustreiten, dass VMware der Marktführer ist. Hier machen sie einen guten Job. Man sollte dennoch nicht vergessen das die Amazon Web Services und Rackspace den Open-Source Hypervisor XEN einsetzen. Die HP Cloud verlässt sich genau so wie die Google Compute Engine auf KVM.

Die echten Player im Cloud Computing Markt setzen also eben nicht auf VMware. Daher kann von VMware als Technologie-Enabler der Cloud überhaupt keine Rede sein.

Darüber hinaus sollte man nicht die vielen anderen Technologie-Anbieter wie openQRM, OpenStack, CloudStack, Eucalyptus, Microsoft usw. vergessen, die Unternehmen dabei helfen Infrastrukturen für die Public als auch Private Cloud aufzubauen. VMware ist sicherlich ein Anbieter, der mittlerweile auch versucht sein Stück vom Kuchen in der Cloud abzubekommen. Aber unterm Strich sind sie auch nur einer von vielen und müssen sich wie jeder andere tagtäglich behaupten.

Ich weiß das ich mir mit diesem Artikel keine Freunde bei VMware machen werde. Aber so eine untragbare Behauptung kann ich nicht einfach so im Internet stehen lassen, tut mir leid VMware!

Kategorien
Kommentar

Eine eigene Private Cloud macht doch finanziell überhaupt keinen Sinn?!

Diese Frage stellte mir ein Besucher auf der CeBIT nach meinem Vortrag/ Panel „Public vs. Private Cloud“ auf der Webciety 2013. Wir haben uns anschließend über die Thematik ein wenig unterhalten. Ihm ging es dabei um die Frage, warum sich manche Unternehmen trotz der hohen Investitionen für eine Private Cloud entscheiden und wie sie diesen Kapitalaufwand messen und rechtfertigen.

Private Cloud ist ein finanzieller Kraftakt

Wer sich für den Aufbau einer echten Private Cloud entscheidet, sollte sich auch bewusst machen, das dies mehr bedeutet, als bspw. nur einen Terminalserver aufzubauen. Cloud Computing, auch in der Private Cloud, bedeutet u.a. Self-Service, Skalierbarkeit, Ressourcen-Pools, Automatisierung, granulare Abrechnung und on-Demand Bereitstellung der Ressourcen. Eine Grundlage der Cloud ist dabei die Virtualisierung. Für die Virtualisierung wird Hardware benötigt, aus welcher die virtuellen Ressourcen erstellt werden. Um eine nennenswerte Skalierbarkeit und vor allem Verfügbarkeit zu gewährleisten, muss hier entsprechend in Hardware investiert werden. Weitere Kostenpunkte sind die Software, welche die Cloud-Funktionalität liefert und die für das Pooling der Ressourcen, die automatische on-Demand Bereitstellung, den Self-Service, die Abrechnung usw. zuständig ist. Darüber hinaus benötigt man das Personal mit den entsprechenden Kenntnissen, das die Cloud-Infrastruktur aufbaut, wartet und betreibt. Man wird dadurch also sein eigener Cloud Anbieter.

Wenn man sich daher überlegt, welche finanziellen Aufwände gestemmt werden müssen, um die Eigenschaften einer eigenen Cloud zu realisieren, kommt man schnell zu dem Ergebnis, dass eine Private Cloud rein wirtschaftlich betrachtet keinen Sinn ergibt. Es sei denn man achtet nicht auf die Kosten und möchte sein Unternehmen in einem sehr privaten Rahmen damit agiler machen und z.B. die Zufriedenheit seiner Mitarbeiter erhöhen, ohne sich dabei in die Abhängigkeit eines Anbieters zu begeben und auf dessen Datenschutzniveau angewiesen zu sein.

Die KPIs des Cloud ROI müssen erweitert werden

Der erfolgreiche Einsatz von Cloud Computing lässt sich nicht immer in harten Zahlen ausdrücken. Mehr dazu habe ich in dem Artikel „Der Cloud Computing ROI: Kosten sagen nicht immer viel aus!“ geschrieben.

Ich rate bewusst, bei der Bewertung des Cloud Computing nicht immer nur auf die reinen Kosten zu schauen, sondern weitere Faktoren mit einzubeziehen, die ein typischer Return on Investment (ROI) nicht kennt. Dessen KPIs (Key Performance Indicator) messen nur den finanziellen Input und den daraus resultierenden Output. Bei der Private Cloud wird der Output aber ständig negativ ausfallen, da direkt kein echter Wertbeitrag zu sehen ist. Es sei denn, man definiert sich einen. Das hat nichts mit Mogeln zu tun, sondern ist eine logische Schlussfolgerung, die sich aus der Flexibilität und Agilität des Cloud Computing ergibt.

Eine dieser KPIs und für mich eine der Entscheidendsten: „Die Zufriedenheit der Mitarbeiter„. Diese sagt aus, wie glücklich meine Mitarbeiter mit der Nutzung und Bereitstellung der aktuellen IT-Infrastruktur sind. Ich behaupte diese KPI wird bei sehr vielen Unternehmen dunkelrot sein. Umsonst gibt es nicht so einen hohen Drang zur Schatten-IT.

Mit dem Aufbau einer Private Cloud lässt sich z.B. die Bereitstellung von Ressourcen stark beschleunigen. Server können damit anstatt in Tagen oder Wochen innerhalb von 5 Minuten zur Verfügung stehen. Insbesondere Entwickler fragen nach der on-Demand Bereitstellung von Ressourcen. Einfach mal direkt fragen. Leider fließt der Wert, der aussagt, dass ein Entwickler bzw. Mitarbeiter zufrieden arbeitet, niemals in den ROI ein. Das sollte er aber. Denn die Agilität, Flexibilität und Zufriedenheit sollten einen ebenso großen Stellenwert einnehmen wie die reinen Kosten.

Kategorien
Kommentar

Die Cloud Vendor Lock-in Diskussion ist überflüssig, denn eigentlich lieben wir ihn alle

Eine beliebte Cloud Computing Diskussion ist der Vendor Lock-in. Die Abhängigkeit von einem Anbieter die so groß ist, dass sich die Änderung der aktuellen Situation aufgrund zu hoher Wechselkosten als unwirtschaftlich gestaltet. Ich hatte so eine Diskussion erst kürzlich wieder während eines Panels und möchte hier mal meine grundsätzliche Einstellung zum Thema Vendor Lock-in schildern. Denn meiner Ansicht nach ist ein Lock-in zwangsläufig nichts Schlechtes. Eigentlich lieben wir ihn. Uns ist es meistens nur nicht bewusst. Darüber hinaus leben wir seit Jahrzehnten und jeder von uns sogar tagtäglich damit. Ein Lock-in ist nicht zu umgehen, er ist immer vorhanden!

Der tagtägliche Lock-in

Ein gutes Beispiel ist IKEA. Unsere Wohnung besteht bis auf die Küche aus Möbeln von IKEA. Warum? Weil es gut aussieht, perfekt zusammenpasst UND Möbel anderer Anbieter sich damit schwer kombinieren lassen. Es ist der perfekte Lock-in. Und? Wir finden es toll, weil es den Zweck, aber vor allem unsere Anforderungen erfüllt. Analog zur IT bedeutet es, dass sich Unternehmen bewusst auf einen vermeintlichen Lock-in mit SAP, Microsoft, Oracle und anderen Anbietern einlassen, weil sie ihn benötigen und weil die genannten Anbieter die Anforderungen weitestgehend erfüllen. Man überlege sich nur mal, wie viele Unternehmen sich SAP angepasst haben und nicht anders herum. Weil es zunächst möglicherweise keine Alternativen gab und weil SAP die gewünschten Funktionen für das tagtägliche Geschäft erfüllte.

Das Paradebeispiel für einen Lock-in ist das iPhone/ iPad. Und? Richtig, alle lieben ihn! Weil das iPhone den eigenen Coolnessfaktor „anhebt“ und auch noch die Funktionen mitbringt die so viele benötigen, auch wenn sie es vorher nicht einmal wussten. Bis auf den Coolnessfaktor gilt dasselbe für Android. Man möge nun argumentieren, dass Android Open-Source sei und die Freiheit damit schließlich größer ist. Das stimmt auf der einen Seite. Und für die Einzelperson mag sich der Aufwand für einen Wechsel relativ in Grenzen halten. Aus der Sicht eines Unternehmens sieht es aber schon wieder ganz anders aus. Hier ist der Lock-in vergleichbar mit einem iPhone/ iPad, nur im Google Universum.

Kein Vendor Lock-in ist reines Marketing-Versprechen

Ähnlich verhält es sich in der Cloud und hier speziell bei OpenStack. Rackspace ist der Lautsprecher der OpenStack Gemeinde. Der Anbieter argumentiert, dass man von einem Public Cloud Anbieter der auf OpenStack setzt, besser in die eigene Private Cloud Infrastruktur zurückkommt. Und liefert natürlich gleich eine eigene OpenStack Private Cloud Distribution mit. Am Ende verdient Rackspace durch Beratung und weitere Dienstleistungen daran. Rackspace Argument ist richtig, aber eher auf der Marketingebene zu verstehen. Denn auch ein Anbieter wie Microsoft bietet mit seinem Windows Server 2012 die Möglichkeit von Azure zurück in die eigene Infrastruktur. Und auch von den Amazon Web Services (AWS) kann man sich befreien, wenn man eine eigene Eucalyptus Cloud besitzt. Zwar bildet Eucalyptus bei weitem noch nicht alle Services von AWS ab, aber das wird im Laufe der Zeit passieren. Ich bin darüber hinaus weiterhin davon überzeugt, dass Amazon Eucalyptus früher oder später kaufen wird.

Also, auch bei OpenStack begibt man sich in einen Lock-in. Zwar wird hier von offenen Standards und APIs gesprochen. Aber im Endeffekt bleibt man damit auch nur im OpenStack Ökosystem gefangen. Das bedeutet, dass man bequem zu einem anderen Anbieter wechseln kann der OpenStack unterstützt. Das Thema Openness wird hier aber eher als Marketingmittel genutzt. Schließlich handelt es sich bei OpenStack und allen anderen kommerziellen Open-Source Vereinigungen um keine Spaßveranstaltungen. Da geht es um knallhartes Business. OpenStack vereinfacht es am Ende nur, zwischen den verschiedenen Anbietern zu wechseln die ebenfalls auf OpenStack setzen. Da aber alle Anbieter quasi auf dieselbe Technologie aufsetzen und sich nur durch Mehrwert-Dienstleistungen abheben, hat man auch hier den OpenStack Technologie Lock-in. (Ja natürlich ist es möglich, sich unabhängig von einem Anbieter eine eigene OpenStack Cloud aufzubauen. Aber der (finanzielle) Aufwand steht in keinem Verhältnis zum späteren Nutzen.)

Ein Lock-in bietet mehr Vorteile als man denkt

Ein Lock-in bietet zudem einige Vorteile. Er schafft Innovationen, von denen man als vermeintlicher „Sklave“ partizipiert. Die Anbieter rollen ständig Verbesserungen aus, von denen wir profitieren. Und, der Lock-in ist gut, solange er genau den Zweck erfüllt, der erwartet wird. Wenn die Lösung die Anforderungen erfüllt ist alles super! Als Unternehmen lässt man sich nach der Entscheidung für einen Anbieter zudem bewusst darauf ein. On-Premise hat man sich seit Jahren auf einen Lock-in eingelassen. Sicherlich ist man mit der einen oder anderen Funktion nicht ganz einverstanden, aber im Großen und Ganzen ist man glücklich, weil die Probleme gelöst und Anforderungen erfüllt werden. Und, als Unternehmen nimmt man auch in der Cloud eine nicht unbedeutende Summe finanzieller Mittel in die Hand. Diese Investitionen müssen sich erst einmal rentieren, bevor man wieder über einen Wechsel nachdenkt. Eines sollte man darüber hinaus nicht vergessen. Hat ein anderer Anbieter großes Interesse daran, ein Unternehmen von einem bestehenden Anbieter loszureißen, wird er alles mögliche in Bewegung setzen, um diesen Weg zu ermöglichen. Bevor man sich also zu viele Gedanken über einen Lock-in macht, sollte man lieber zunächst schauen, wie zukunftssicher die Services und der Cloud-Anbieter selbst sind und das in eine mögliche Exit-Strategie mit einbeziehen.

Fazit: Wir leben ständig mit einem Lock-in, der sich niemals vollständig umgehen und maximal sehr gering halten lässt. Der eine Lock-in ist etwas flexibler als der andere, aber die Entscheidung dafür bleibt. Nicht abzustreiten bleibt, wir lieben ihn, den Lock-in!

Kategorien
Kommentar

Wie zukunftssicher ist das Google Cloud Portfolio?

Google ist bekannt dafür, „mal eben“ einen neuen Service auf den Markt zu schmeißen. Dafür steht die Unternehmenskultur. Sie fördert die Kreativität innerhalb des Unternehmens und sorgt für Innovationen. Am Ende des Tages muss aber auch bei Google der Spielplatz aufgeräumt werden. Das führte in der jüngsten Vergangenheit zu unzähligen Schließungen bekannter und weniger bekannter Services. Neuestes populäres Opfer ist der Google Reader. Dieser soll nun zum 01. Juli 2013 eingestellt werden. Da stellt sich natürlich die Frage, wie anfällig Googles Cloud Services für eine Portfolio Bereinigung sind. Der Finger auf dem Schließen-Button scheint zumindest sehr locker zu sitzen.

Langfristigkeit vs. Popularität

Google stampft den Google Reader ein, da dessen Popularität, nach eigenen Angaben, in der Vergangenheit stark eingebrochen ist. Das Google hier scheinbar nicht ganz richtig liegt, zeigt eine aktuelle Petition gegen dessen Schließung. Immerhin haben sich hier in kürzester Zeit 20.000+ dagegen ausgesprochen.

Manchmal erweckt Google bei mir den Eindruck, ein großes Kind zu sein. Es findet viele Dinge auf einmal spannend (20 Prozent Regel), spielt damit, investiert Zeit und verliert dann das Interesse und die Lust, wenn die Spielkameraden scheinbar auch nicht mehr damit spielen möchten. Die Konzentrationsphase ist nur bei einigen wenigen Produkten wirklich hoch. (Unternehmerisch natürlich richtig.)

Unternehmen sehen das nicht gerne

Google unternimmt derzeit große Anstrengungen sich im Unternehmensumfeld breit zu machen. Hinsichtlich bestehender Anbieter wie Microsoft oder IBM keine leichte Aufgabe. Googles Trumpfkarte ist, dass sie in der Cloud geboren sind und die Regeln aus dem Effeff kennen. Schließlich haben sie diese quasi selbst mit entwickelt.

Dennoch sei die Frage gestattet. Warum soll ein Unternehmen auf Google Cloud Services, wie Google Apps oder die Google Cloud Platform setzen, wenn Services, die scheinbar nicht ausreichend gut genutzt werden, plötzlich geschlossen werden? Auch wenn Google die genannten Cloud Lösungen mittlerweile monetarisiert hat, diese Frage behält ihre Berechtigung. Denn durch die Monetarisierung bekommt der einzelne Service plötzlich eine neue KPI, den Umsatz!

Google darf davon ausgehen, dass Unternehmen nicht davon begeistert sein werden, wenn sie plötzlich eine E-Mail bekommen, dass der von ihnen genutzte Service auf Grund sinkender Attraktivität und Umsatzzahlen in drei Monaten geschlossen wird.

Für Unternehmen ist diese Art des Produktmanagements nicht attraktiv und Google muss lernen, dass Unternehmen anders behandelt werden müssen als Privatnutzer. Auch wenn die Consumerization weiter fortschreitet.

Das Portfolio bereinigen ist gut, aber…

Keine Frage, es ist sinnvoll sein Portfolio stetig zu säubern. Das ist auch vielen anderen Anbietern zu empfehlen. Allerdings scheinen diese im Sinne ihrer Kunden zu handeln und bieten für ihre Produkte und Services eine langfristige Roadmap an. Hingegen scheint der Finger auf dem „Service Schließen-Button“ bei Google relativ locker zu sitzen.

Ich glaube kaum, dass Unternehmen zu einer Petition gegen die Schließung eines Google Services zusammenkommen werden. Zwar hört man immer wieder gerne von „Too big to fail“, aber so groß ist Google dann auch wieder nicht.