Kategorien
Kommentar

CIO: Quo vadis? Kostenstelle oder Business Enabler? #tsy13

Ich hatte am Montag die zukünftige Rolle der IT und des CIO diskutiert. Denn derzeit befinden wir uns im größten Wandel (Disruptive IT), den die IT-Branche seit ihrem Bestehen erlebt hat. Dieser Wandel schlägt direkt auf den CIO und somit auch auf die IT-Abteilungen durch. Dr. No und Kostenstelle waren gestern. Der CIO als Business Enabler ist gefragt, der zusammen mit seinen IT-Mitarbeitern als strategischer Partner des CEO und der Fachabteilungen neue Geschäftsmodelle etabliert und sich damit als Treiber des Business etabliert.

Disruptive IT: Cloud, Big Data und Co. stellen alles auf den Kopf

Cloud Computing, Big Data, Mobility und Collaboration sind die vier disruptiven Technologien, die zur Zeit für ein großes Beben sorgen und CIOs vor große Herausforderungen stellen. Die Erwartungen und Anforderungen der Geschäftsführung und der Fachabteilungen wachsen stetig, Mitarbeiter machen sich selbständig und besorgen sich IT-Leistungen an der IT-Abteilung vorbei (Schatten-IT), da diese nicht in der ausreichend Zeit oder Qualität liefern kann. Man sollte nicht behaupten der Job eines CIOs war einfach, aber derzeit handelt es sich um den Weg durch die Hölle, auf den jeder gerne verzichtet.

Aber das ist die Situation. Und wer weiterhin am Status quo festhält, der wird früher oder später auf der Strecke bleiben. Denn die Business Seite kann es sich nicht leisten auf der Stelle zu treten. Und sie wird ihre Mittel und Wege finden das zu bekommen was sie benötigt. Wenn sie sich nicht bereits schon auf dem Weg befindet.

Panel: The Future Role of CIOs: Managing Costs or Enabling Business?

Im Rahmen des T-Systems Symposium wurde mit Stefanie Kemp (IT Governance, RWE), Prof. Dr. Michael Müller-Wünsch (CIO, Lekkerland Gruppe), Dr. Hans-Joachim Popp (CIO, Deutsches Luft- und Raumfahrtzentrum), Philipp Erler (CIO, Zalando) und Thomas Spreitzer (Chief Marketing Officer, T-Systems) die Zukunft des CIO diskutiert. Ist er ein Kostenverwalter oder doch der Innovationstreiber?

Zwar war es grundsätzlich eine spannende Panel Diskussion. Allerdings war sie, wie erwartend, sehr einseitig, da nur CIOs im Panel vertreten waren und der Counterpart des CEO an allen Ecken und Enden gefehlt hat. Das war wahrscheinlich auch der Grund, warum keine bis wenig Selbstkritik von den CIOs geäußert wurde.

Dennoch war zu merken, dass die CIOs sich dessen bewusst sind, was auf sie zu kommt. Hans-Joachim Popp vom DLR machte deutlich, dass bestehende Geschäftsmodelle von neuen Technologien beeinflusst werden und es für den CIO dadurch in Zukunft immer anstrengender wird. Gleichzeitig kritisierte er, dass nicht jeder, der ein neues Geschäftsmodell aufbauen kann, auch in der Lage ist, die kritischen Prozesse dahinter zu verstehen. Dem schloss sich Zalando CIO Philipp Erler deutlich an und machte klar, dass die Bedienung einer Excel Tabelle nicht unbedingt die Skills abdeckt, um einen Prozess zu steuern. Das ist ein Fakt, den ich nur bestätigen kann. Nur weil ein Mitarbeiter ein iPhone oder eine SaaS-Applikation bedienen kann, ist er nicht in der Lage über wichtige IT-Services für das Unternehmen zu entscheiden. Weiterhin erläuterte Erler das Konzept der Priorisierungsrunde bei Zalando. So sollte sich eine Fachabteilung doch bitte die Frage stellen, ob es sich tatsächlich lohnt, einen eigenen Weg an der IT vorbei zu gehen, wenn die Anfrage nicht verabschiedet wurde. Das ist ein mögliches Mittel gegen die Schatten-IT. Die Frage bleibt allerdings, ob dies den Mitarbeitern in den Fachabteilungen interessiert. Schließlich wurde laut Gartner im Jahr 2012 ca. 25 Prozent des IT-Budget außerhalb der IT-Abteilungen verwaltet.

Lekkerland CIO Michael Müller-Wünsch sieht es als einen entscheidenden Faktor, dass CIOs auch den zeitlichen Spielraum bekommen, um als Business Enabler zu agieren. Die eigene Existenzberechtigung zu zeigen und nachzuweisen sei wichtig, aber auch schwer. Allerdings arbeite die Business Seite und die IT bei Lekkerland aktiv zusammen. T-Systems CMO Thomas Spreitzer gab zu, dass das Marketing gerne über die Herausforderungen des CIO hinwegschaut. Hauptsache es geht schnell. Allerdings bemängelte er auch das Erbsenzählen. IT-Abteilungen sollten sich mehr auf das Rapid Prototyping konzentrieren anstatt auf das Lastenheft.

RWE IT-Governance Verantwortliche Stefanie Kemp stellte die Frage, ob die IT tatsächlich jedem Trend hinterherlaufen muss oder sich nicht lieber auf einzelne Bereiche konzentrieren sollte, die dem Unternehmen tatsächlich helfen. Hierzu sieht sie den Bedarf einer Commodity IT sowie einer Differentiating IT innerhalb der Unternehmen. Also den Anteil der IT, welcher die Dinge am Laufen hält und der Teil, der für Innovationen sorgt. Kemp stellte auch klar heraus, dass Fachabteilungen bei ihr gerne eigene Wege gehen können. Sie sollten aber am Ende auch für den Scherbenhaufen gerade stehen, wenn die Integration in bestehende Systeme usw. nicht funktioniert. Weiterhin sieht Kemp noch viele Hausaufgaben innerhalb des Business, damit die IT überhaupt zum Business Enabler werden kann.

CIO vs. Business: Kommunikation ist der Königsweg

Wenn man sich die Probleme die während des Panels von den CIOs angesprochen wurden zusammenfasst, kann man sich durchaus die Frage stellen, wie Unternehmen heutzutage überhaupt funktionieren. Unterm Strich war zu verstehen, dass beide Seiten scheinbar geschützt in ihren Elfenbeintürmen sitzen und nicht wirklich miteinander reden. Die Realität sieht natürlich anders aus. Aber für beide Seiten wäre das Leben leichter, wenn sie transparent und auf Augenhöhe miteinander Informationen austauschen. Hierzu wird in Zukunft auch das Rollenbild immer wichtiger werden, um die Verantwortlichkeiten klar festzulegen.

Fazit: Die Aufgabe des CIOs wird in Zukunft nicht einfacher werden. Ganz im Gegenteil. Aber wenn er und die Business Seite als Partner arbeiten und aktiv miteinander kommunizieren und sich darauf einigen den selben Weg zu gehen, wird es für beide Seiten einfacher.

Kategorien
Kommentar

Transformation: Die Rolle der IT und des CIO verändert sich! #tsy13

Am 6. November findet das diesjährige T-Systems Symposium in Düsseldorf statt. Nachdem im vergangenen Jahr unter dem Motto „Zero Distance – perfektes Zusammenspiel“ durch innovative Geschäftsmodelle und moderne ICT eine neue Art von Nähe zum Kunden im Mittelpunkt stand, sollen in diesem Jahr die Konsequenzen der Zero Distance diskutiert werden. Ich werde dieses Jahr auf dem Symposium sein und die Themen Cloud, Mobile und Collaboration vor Ort kommentieren und analysieren. Dazu werden in dieser Woche entsprechende Artikel hier auf CloudUser erscheinen.

Es geht um den Kunden

Nie war die Beziehung zum Kunden und Endnutzer so wichtig wie heute. Gleichermaßen ist aber auch der technologische Zugang zu diesen Gruppen noch nie so einfach gewesen wie heute. Das hat auch die Businessseite erkannt und erhöht stetig die Anforderungen an die IT. Eine hohe Verfügbarkeit wie eine ebenso maximale Geschwindigkeit unter den bestmöglichen Sicherheitsanforderungen sind die Ansprüche an denen sich CIOs heute messen lassen müssen. Gleichzeitig müssen heutige Lösungen so einfach und intuitiv zu bedienen sein, um gegen den immer stärker werdenden Wettbewerb um den Kunden vorbereitet zu sein.

Disruptive IT: Die Rolle der IT wird sich verändern müssen

Cloud Computing, Big Data, Mobility und Collaboration sind derzeit die disruptiven Technologien, die in vielen Bereichen einen gewaltigen Wandeln auslösen und die IT-Abteilungen und CIOs vor große Herausforderungen stellen. Diese lassen sich aber auch für die eigenen Zwecke einsetzen und damit neue Chancen entstehen lassen.

Ich habe erst vor kurzem mit einem Analysten Kollegen über die Rolle des CIOs gesprochen. Seine zunächst amüsante doch ernst gemeinte Schlussfolgerung lautete CIO = Career Is Over. Diese Meinung vertrete ich nicht. Dennoch ist die Rolle der IT und ebenfalls die des CIOs einem Wandel ausgesetzt. Der CIO muss als Innovationstreiber anstatt eines Instandhalters verstanden werden und viel stärker in die Diskussionen mit den Fachabteilungen (Marketing, Vertrieb, Produktion, Finanzen, Personal) einbezogen werden bzw. den Dialog suchen. Er muss verstehen, welche Anforderungen erwartet werden, um die notwendigen Anwendungen und Infrastrukturen schnell, skalierbar und so einfach zu bedienen wie Apps und Tools aus dem Consumer-Bereich bereitzustellen. Das bedeutet, dass die interne IT einem Transformationsprozess ausgesetzt werden muss, ohne dabei die Sicherheit und Kosten zu vernachlässigen. Dieser Wandel entscheidet über die Zukunft eines jeden CIOs und ob er weiterhin als Dr. No oder Business Enabler angesehen wird, der als strategisch wichtiger Partner des CEO und der Fachbereiche zum Treiber des Business wird.

Kategorien
Analysen

Die Bedeutung der Managed Cloud für Unternehmen

Cloud Computing wächst kontinuierlich. Dabei wird der Public Cloud das für die Zukunft größte Wachstum vorhergesagt. Je nachdem auf wen man hört, liegt dieses bis zum Jahr 2017 zwischen 107 Milliarden Dollar (IDC) und 244 Milliarden Dollar (Gartner). An dieser Stelle darf man sich als Leser gerne die Frage stellen, woher diese nicht unbedeutende Differenz stammt. Unterhält man sich jedoch mit IT-Entscheidern, entspricht die Public Cloud, die in erster Linie auf standardisierte Workloads und Self-Service ausgelegt ist, nicht den Anforderungen der meisten Unternehmen. Cloud Computing ist definitiv attraktiv, aber die Form ist entscheidend.

Die Komplexität darf nicht unterschätzt werden

Die größten Erfolgsmeldungen aus der Public Cloud stammen bisher von Startups oder Unternehmen, die Ideen und Geschäftsmodelle darin realisiert haben. Zwar wird auch immer wieder von Migrationen von SaaS Anwendungen mit bis zu 90.000 Nutzern berichtet. Und diese Meldungen scheinen die Erfüllungen der Anforderungen gut wieder zu spiegeln. Die Wahrheit in den meisten Unternehmen sieht aber anders aus. Selbst die Migration eines E-Mail Systems, einer der vermeintlich höchststandardisierten Anwendungen, wird dabei zum Abenteuer. Das liegt daran, dass viele Unternehmen kein Standard E-Mail System nutzen und stattdessen weitere proprietäre Add-ons oder selbstentwickelte Erweiterungen angebunden haben, die so nicht in der Cloud existieren.

Hinzu kommen weitere Applikationen, die einfach zur IT-Enterprise Architektur dazu gehören und höchst individuelle Ansprüche erfüllen. Ich habe kürzlich mit dem Strategie-Manager eines deutschen DAX Unternehmens gesprochen das weltweit tätig ist und aktuell eine Cloud Strategie evaluiert. Das Unternehmen verfügt Global über etwa 10.000(!) Applikationen (Desktop, Server, Produktionssysteme usw.). Dieses Beispiel ist sehr extrem und spiegelt nicht die durchschnittlichen Herausforderungen eines Unternehmens dar. Es zeigt aber die Dimension, in der man sich bewegen kann und die sich ebenfalls auf deutlich kleinere Applikations-Infrastrukturen herunterbrechen lassen.

Managed Cloud Services gehört die Zukunft im Unternehmensumfeld

Man möge nun argumentieren, dass die IT-Architekturen der meisten Unternehmen eh viel zu komplex sind und eine Standardisierung jedem gut tun würde. So einfach ist die Realität aber leider nicht. Auch wenn bereits einige Standard Unternehmensapplikationen für Public Clouds zertifiziert sind. Schaut man sich die erfolgreichsten Workloads in der Public Cloud an, handelt es sich dabei um Web-Applikationen für den Massenmarkt und weniger um spezifische Unternehmensapplikationen. Der Großteil der Unternehmen ist für die Cloud nicht vorbereitet. Sondern darauf angewiesen und erwartet gleichermaßen Hilfe auf dem Weg in die Cloud sowie während des Betriebs der Anwendungen und Systeme.

Das hat auch unsere Untersuchung des europäischen Cloud Markts gezeigt. Unternehmen sind interessiert an Cloud Computing und dessen Eigenschaften (Skalierbarkeit, Flexibilität oder Pay per use). Allerdings gestehen sie sich selbst ein, dass sie nicht über das Wissen und die Zeit verfügen oder es einfach nicht (mehr) zu ihrem Kerngeschäft gehört, IT-Systeme zu betreiben und dies stattdessen von dem Cloud-Anbieter übernehmen lassen. Es geht also um eine flexible Art von Managed Services. Darauf sind Public Cloud Anbieter nicht vorbereitet, da ihr Geschäft darin besteht, hochstandardisierte Infrastrukturen, Plattformen, Applikationen und Services bereitzustellen. Abhilfe sollen speziell von dem Anbieter zertifizierte Systemintegratoren bieten.

Hier besteht die Chance für Anbieter von Business Clouds. Also Cloud Anbieter, die kein Public Cloud Modell fahren, sondern anhand von Managed Services den Kunden dabei helfen, den Weg in die Cloud zu meistern und den Betrieb übernehmen und damit einen „Alles aus einer Hand“ Service bieten. Das erfolgt im Normalfall nicht auf einer Shared-Infrastructure sondern innerhalb einer Hosted Private Cloud bzw. einer Dedicated Cloud bei der sich ein Kunde explizit in einem isolierten Bereich befindet. Professional Services runden das Portfolio ab, die bei der Integration, Schnittstellen und der Weiterentwicklung helfen. Business Clouds sind auf Grund dieser Serviceleistungen, Exklusivität und höherer Sicherheit (in der Regel physikalische Isolation) teurer als Public Clouds. Betrachtet man jedoch den Aufwand, den man als Unternehmen selbst in der einen oder anderen Public Cloud betreiben muss, um tatsächlich erfolgreich zu sein oder sich Hilfe von einem der zertifizierten Systemintegratoren holt, dann ist der Kostenvorteil meist eliminiert. Zudem ist Business Cloud (Managed Cloud) Anbietern ein höheres Wissen in die eigene Cloud und deren Eigenschaften gutzuschreiben als Systemintegratoren, da diese die Infrastruktur kennen und zudem weitere spezifische Anpassungen für den Kunden vorgenommen werden können als in einer zumeist hochstandardisierten Public Cloud Infrastruktur.

Public Cloud ist kein No-go für Unternehmen

Die Public Cloud ist für Unternehmen per se kein Tabu-Thema. Im Gegenteil, denn zum einem bietet die Public Cloud den maximal einfachsten und unkompliziertesten Weg in die Cloud-Welt, ohne dabei mit dem Vertrieb in Kontakt zu geraten. Zum anderen kommt es auf die Workloads/ Use Cases an, die identifiziert werden müssen.

Der größte Vorteil einer Public Cloud für Unternehmen besteht darin, dass sie sehr kostengünstig und schnell eigene Erfahrungen in einem echten Cloud-Umfeld sammeln können und sich sehr einfach „Dinge“ ausprobieren lassen. Zudem bietet sie die Gelegenheit sehr günstig und schnell Fehler zu machen und damit frühzeitig daraus zu lernen, was früher sehr schmerzhaft gewesen wäre. Anhand einer Top Down Cloud Strategie lassen sich in der Public Cloud zudem u.a. neue Geschäftsmodelle abbilden, die über Web Applikationen realisiert werden. Hier lassen sich mit einem hybriden Ansatz z.B. die Applikationen von den Daten trennen, um die Skalierbarkeit der Public Cloud für die Applikation selbst auszunutzen, die Daten aber in einem für sich definierten sicheren Bereich zu speichern.

Ob kritische Workloads innerhalb einer Public Cloud betrieben werden sollten ist u.a. eine Entscheidung des Risikomanagements und des eigenen Aufwands den man betreiben will/ kann um dies sicherzustellen. Hierauf muss während der Evaluation zwischen einer Public und einer Managed (Business) Cloud besonders geachtet werden.

Kategorien
Analysen

Quo vadis VMware vCloud Hybrid Service? Was ist vom vCHS zu erwarten?

Im Rahmen der VMworld 2013 Europe in Barcelona im Oktober hat VMware bereits die Verfügbarkeit des vCHS in England mit einem neuen RZ-Standort in Slough in der Nähe von London angekündigt. Die Private-Beta-Version des europäischen vCloud Hybrid Services wird ab dem vierten Quartal 2013 vorliegen, die allgemeine Verfügbarkeit ist für das erste Quartal 2014 geplant. Dieser Schritt zeigt, dass VMware der Public Cloud eine wichtige Bedeutung zuschreibt, wurde er doch insbesondere unternommen, um den Bedürfnissen der europäischen Kunden entgegenzukommen.

Dieser Artikel ist exklusiv auf LANline.de erschienen und kann kostenlos unter „Was bringt VMwares Vcloud Hybrid Service?“ gelesen werden.

Kategorien
Analysen

HP Cloud Portfolio: Überblick & Analyse

HPs Cloud Portfolio besteht aus einer Reihe von Cloud-basierten Lösungen und Services. Dabei ist die HP Public Cloud als echtes Infrastructure-as-a-Service (IaaS) Angebot das aktuelle Kernprodukt, was dementsprechend großzügig vermarktet wird. Die HP Enterprise Services – Virtual Private Cloud bietet eine von HP gehostete Private Cloud. Die Public Cloud Services werden ausschließlich aus den USA mit Rechenzentren im Westen und Osten ausgeliefert. Auch wenn der Vertrieb weltweit aufgestellt ist, wird lediglich Englisch unterstützt.

Portfolio Überblick

Das IaaS Kernangebot umfasst Rechenleistung (HP Cloud Compute), Speicherplatz (HP Cloud Storage) und Netzwerkkapazitäten. Weiterhin stehen die Mehrwertservices HP Cloud Load Balancer, HP Cloud Relational DB, HP Cloud DNS, HP Cloud Messaging, HP Cloud CDN, HP Cloud Object Storage, HP Cloud Block Storage und HP Cloud Monitoring zur Verfügung, mit denen sich eine virtuelle Infrastruktur für eigene Applikationen und Services aufbauen lassen.

Die HP Cloud Infrastruktur basiert auf OpenStack und ist Multi-Mandantenfähig. Die virtuellen Maschinen sind mit KVM virtualisiert und lassen sich in festen Größen (Extra Small bis Double Extra Large) pro Stunde buchen. Der lokale Speicher der virtuellen Maschinen ist nicht persistent. Langfristige Daten lassen sich aber auf einem unabhängigen Block Storage speichern und anbinden. Eigene virtuelle Maschinen Images lassen sich nicht in die Cloud hochladen. Der Load Balancer befindet sich derzeit noch in einer Private Beta. Die Infrastruktur ist eine Multi-Fault-Domain, was von dem Service Level Agreement berücksichtigt wird. Eine Multifaktor Autorisierung wird derzeit nicht angeboten.

Die HP Enterprise Cloud Services bieten eine Vielzahl unterschiedlicher auf Unternehmen ausgerichteter Lösungen. Darunter Recovery-as-a-Service, dedizierte Private Clouds und Hosted Private Clouds. Zu den Applikationsservices gehören Lösungen für Collaboration, Messaging, Mobility und Unified Communications. Zu spezifischen Unternehmensanwendungen zählen HP Enterprise Cloud Services for Microsoft Dynamics CRM, HP Enterprise Cloud Services for Oracle und HP Enterprise Cloud Services for SAP. Professional Services runden das Enterprise Cloud Services Portfolio ab. Die Enterprise Cloud Services – Virtual Private Cloud ist eine von HP gehostete und Mandantenfähige Private Cloud und richtet sich an SAP, Oracle und weitere Unternehmensanwendungen.

Analyse

HP hat viel Erfahrung im Aufbau und Betrieb von IT-Infrastrukturen und verfolgt dieselben Ziele in den Bereichen Public und Private Cloud Infrastrukturen. Dabei setzen sie auf eigene Hardwarekomponenten und ein umfangreiches Partnernetzwerk. HP verfügt über einen weltweit agierenden Vertrieb und ein gleichermaßen hohes Marketingbudget und ist damit in der Lage eine Vielzahl an Kunden zu erreichen. Auch wenn sich die Rechenzentren für die Public Cloud ausschließlich in den USA befinden.

HP hat in den letzten Jahren viel Aufwand und Entwicklung investiert. Dennoch ist der HP Public Cloud Compute Service erst seit Dezember 2012 für die Allgemeinheit am Markt verfügbar. Auf Grund dessen kann HP noch keine aussagekräftige Erfolgsbilanz für seine Public Cloud nachweisen. Es existiert nur eine begrenzte Interoperabilität zwischen der HP Public Cloud, basierend auf OpenStack, und der Private Cloud (HP CloudSystem, HP Converged Cloud) der das HP Cloud OS zugrunde liegt. Da die HP Public Cloud nicht über die Möglichkeit verfügt, eigene virtuelle Maschinen Images auf Basis eines Self-Service hochzuladen, können Kunden derzeit keine Workloads aus der Private Cloud in die Public Cloud übertragen. Selbst dann, wenn die Private Cloud auf OpenStack basiert.

INSIGHTS Report

Der INSIGHTS Report „HP Cloud Portfolio – Überblick & Analyse“ kann hier kostenlos als PDF heruntergeladen werden.

Kategorien
Kommentar

Cloud PR Desaster. Googles Unbeschwertheit zerstört Vertrauen.

Es ist üblich, dass in Unternehmen nur bestimmte „Spokesperson“ auserwählt werden, die öffentlich über das Unternehmen sprechen dürfen. Tragisch wird es, wenn diese Auserwählten Aussagen treffen, die vielerseits zu Fragezeichen und Verunsicherung führen. Google ist nun schon zum zweiten Mal innerhalb kürzester Zeit in so ein Fettnäpfchen getreten. Nachdem Cloud Platform Manager Greg DeMichillie die langfristige Verfügbarkeit der Google Compute Engine merkwürdig kommentiert hatte, lies es sich Google CIO Ben Fried nicht nehmen über die Google-eigene Nutzung der Cloud zu äußern.

Wir sind die Guten – Die anderen sind böse

Im Interview mit AllThingsD erklärte Google CIO Ben Fried den Umgang von Google mit dem Thema Bring your own Device und der Nutzung externer Cloud Services. Wie jeder IT-Verantwortliche mittlerweile mitbekommen haben mag, ist Google seit geraumer Zeit dabei mit aller Gewalt seine Google Apps for Business Lösung in den Unternehmen zu vermarkten. Umso erstaunlicher ist die Aussage von Fried in Bezug auf die Nutzung von Dropbox, die Google für interne Zwecke strikt verbietet.

The important thing to understand about Dropbox,” […] “is that when your users use it in a corporate context, your corporate data is being held in someone else’s data center.

Genau, wenn ich meine Daten nicht auf den eigenen Servern speichere, sondern bei Dropbox, dann liegen sie wahrscheinlich in einem fremden Rechenzentrum. In Dropbox Fall um genauer zu sein auf Amazon S3. Das gilt aber auch für den Fall, wenn ich meine Daten auf Google Drive, Google Apps oder der Google Cloud Platform ablege. Dann liegen die Daten nämlich bei? Google, genau. Das bringt das Cloud Modell nun einmal mit sich.

Fried hat das natürlich, wie auch schon DeMichillie, alles gar nicht so gemeint und korrigierte sich anschließend per E-Mail via AllThingsD.

Fried says he meant that the real concern about Dropbox and other apps is more around security than storage. “Any third-party cloud providers that our employees use must pass our thorough security review and agree under contract to maintain certain security levels,”

Es ging Fried also um die Sicherheit von Dropbox und anderweitiger Cloud Services, als um den Speicherort.

Google ist ein großes Kind

Ich bin mir langsam nicht mehr sicher was man von Google halten soll. Eines ist aber klar, eine professionelle Unternehmenskommunikation sieht anders aus. Gleiches gilt für den Vertrauensaufbau bei den Unternehmenskunden. Google ist zweifelsohne ein innovatives Unternehmen, wenn nicht sogar das innovativste Unternehmen weltweit. Diese Unbeschwertheit eines Kindes die Google und seine Mitarbeiter benötigt, um immer wieder neue interessante Ideen und Technologien zu entwickeln, ist gleichzeitig die größte Schwachstelle. Es ist genau dieser Grad der Naivität in der Außenkommunikation, der es Google auch in Zukunft schwer machen wird, wenn sich daran nichts grundlegend verändert. Zumindest dann, wenn es darum geht im sensiblen Markt für Unternehmenskunden ein Wort mitzureden. Die großen Player, allen voran Microsoft, VMware, IBM, HP und Oracle wissen was Unternehmen hören müssen, um attraktiv zu erscheinen. Und dazu gehören keinesfalls die Aussagen eines Greg DeMichillie oder Ben Fried.

Noch ein interessantes Kommentar auf Ben Kepes Forbes‘ Artikel „Google Shoots Itself In The Foot. Again„.

„[…]Do you really think that Google management really cares about cloud app business or its customer base? Somebody at Google said that they have the capacity they built for themselves and they have the engineering talent so why not sell it. So Brin and Page shoke their heads and they was the last they ever wanted to hear about it. There is nothing exciting about this business, they do not want the responsibilites that come with this client base and they really don’t care. I bet they shut it down.

Kategorien
Analysen

Wir leben bereits in einer Multi-Cloud getriebenen Welt

Nicht zuletzt das Disaster um Nirvanix hat gezeigt, dass man sich nicht auf einen einzelnen Cloud-Anbieter verlassen. Aber auch ungeachtet der Risikostreuung ist der Einsatz einer Multi-Cloud Strategie ein empfehlenswerter Ansatz, der bereits von vielen heute schon bewusst oder unbewusst praktiziert wird.

Hybrid oder Multi-Cloud?

Was bedeutet genau Multi-Cloud? Oder was ist der Unterschied zu einer Hybrid Cloud? Nun, eine Hybrid Cloud verbindet von ihrer Definition her eine eigene Private Cloud bzw. eine on-Premise IT-Infrastruktur mit einer Public Cloud, um die lokalen Infrastrukturen bei Bedarf mit weiteren Ressourcen zu versorgen. Bei diesen Ressourcen kann es sich um Rechenleistung, Speicherplatz aber auch Services in Form von Software handeln. Wird ein lokales E-Mail System mit einem SaaS CRM-System integriert, kann durchaus von einer Hybrid Cloud gesprochen werden. Eine Hybrid Cloud gilt also nicht nur für IaaS bzw. PaaS Szenarien.

Ein Multi-Cloud Konzept erweitert den Hybrid Cloud Gedanken um die Anzahl der zu verbindenden Clouds. Genauer gesagt kann es sich dabei um n-Clouds handeln die in irgendeiner Form miteinander integriert sind. Dabei werden bspw. Cloud-Infrastrukturen so miteinander verbunden, dass die Applikationen verschiedene Infrastrukturen oder Services parallel oder je nach Auslastung oder aktuellen Preisen nutzen. Auch das parallele oder verteilte Speichern von Daten über mehrere Clouds ist vorstellbar, um die Verfügbarkeit und Redundanz der Daten sicherzustellen. Aktuell wird sehr intensiv über Multi-Cloud im IaaS-Umfeld diskutiert. Siehe dazu auch Ben Kepes‘ und Paul Miller’s Mapping Session zum Thema Multi-Cloud sowie Paul’s Sector RoadMap: Multicloud management in 2013.

Was oft vergessen wird ist, dass Multi-Cloud insbesondere im SaaS-Umfeld seine Bedeutung hat. Die Anzahl neuer SaaS-Applikationen wächst täglich und damit auch der Bedarf, diese unterschiedlichen Lösungen miteinander zu integrieren und Daten austauschen zu lassen. Aktuell bewegt sich der Cloud-Markt unkontrolliert auf viele kleine Insellösungen zu, die jede für sich zwar einen Mehrwert bieten, in der Summe jedoch zu vielen kleinen Dateninseln führen. Mit solchen Entwicklungen haben in Unternehmen schon in vor Cloud Zeiten zu kämpfen gehabt und das vergebens.

Risiken streuen

Auch wenn das Cloud-Marketing ständig die Verfügbarkeit und Sicherheit der Daten, Systeme und Applikationen verspricht, liegt die Verantwortung dies sicherzustellen in den eigenen Händen (Das bezieht sich auf eine IaaS Public Cloud). Zwar stellen die Cloud-Anbieter hierfür weitestgehend alle Mittel und Wege zur Verfügung, im IaaS-Bereich muss sich der Kunde aber selbst darum kümmern. Ausfälle wie die der Amazon Web Services oder unvorhergesehene Schließungen wie die von Nirvanix sollten zu mehr Sensibilität bei der Nutzung von Cloud-Services führen. Die Risiken müssen bewusst gestreut werden. Dabei sollten sich nicht alle Eier in einem Nest befinden, sondern strategisch über mehrere verteilt werden.

Best-of-Breed

Die Best-of-Breed Strategie ist der meist verbreitetste Ansatz in IT-Unternehmensarchitekturen. Dabei werden mehrere Branchenlösungen für verschiedene Teilbereiche innerhalb des Unternehmens eingesetzt und miteinander integriert. Die Idee hinter Best-of-Breed besteht darin, die jeweils beste Lösung zu nutzen, die eine All-in-one Lösung in der Regel nicht bieten kann. Man stellt sich also die für seinen Zweck besten Services und Applikationen zusammen.

Verfolgt man diesen Ansatz in der Cloud, befindet man sich direkt in einem Multi-Cloud Szenario, was bedeutet, dass schätzungsweise 90% aller Unternehmen die Cloud-Services nutzen, Multi-Cloud Nutzer sind. Ob die eingesetzten Cloud-Services auch miteinander integriert sind bleibt zu bezweifeln. Was auf der einen Seite empfehlenswert ist, lässt sich auf der anderen Seite in vielen Fällen auch nicht vermeiden. Zwar existieren bereits ein paar gute All-in-one Lösungen am Markt. Dennoch sind die meisten Perlen eigenständig implementiert und müssen mit anderen Lösungen kombiniert werden, z.B. E-Mail und Office/ Collaboration mit CRM und ERP. Das hat von der Risikobetrachtung, insbesondere in der Cloud, seinen Vorteil. Fällt ein Anbieter aus, ist auch nur ein Teil-Service nicht erreichbar und nicht direkt die gesamte Produktivitäts-Umgebung.

Insellösungen vermeiden: Schnittstellen und Integration

Solche Best-of-Breed Ansätze versuchen Cloud-Marktplätze zu schaffen, indem sie einzelne Cloud-Lösungen in unterschiedlichen Kategorien zusammenfassen und Unternehmen damit ein umfangreiches Portfolio verschiedener Lösungen bieten, mit der sich eine Cloud-Produktivitäts-Suite zusammenstellen lässt. Dennoch zeigen, obwohl sehr stark kontrollierte und vermeintlich integrierte Marktplätze an einer entscheidenden Stelle massive Probleme mit der Integration. Es existieren viele einzelne SaaS-Applikationen die nicht zusammenspielen. Das bedeutet, dass keine gemeinsame Datenbasis existiert und das z.B. der E-Mail Service nicht auf die Daten im CRM-Service zugreifen kann und umgekehrt. Damit entstehen wieder, wie bereits oben beschrieben, einzelne Datensilos und Insellösungen innerhalb des Marktplatzes.

Dieses Beispiel zeigt auch die größte Problematik mit einem Multi-Cloud Ansatz. Die Integration der vielen verschiedenen und normalerweise voneinander unabhängig agierenden Cloud-Services und deren Schnittstellen zueinander.

Multi-Cloud ist „The New Normal“ in der Cloud

Das Thema Multi-Cloud wird derzeit insbesondere im IaaS-Umfeld stark diskutiert, um das Risiko zu streuen und die Kosten und Leistungen unterschiedlicher Cloud-Infrastrukturen optimal ausnutzen zu können. Aber ebenfalls im SaaS-Umfeld muss das Thema unbedingt eine höhere Bedeutung zugesprochen werden, um Daten- und Insellösungen in Zukunft zu vermeiden, die Integration zu vereinfachen und Unternehmen bei ihrer Adaption ihrer Best-of-Breed Strategie zu unterstützen.

Ungeachtet diesen Erwartungen ist der Multi-Cloud Einsatz bereits Realität, indem Unternehmen mehrere Cloud Lösungen von vielen unterschiedlichen Anbietern einsetzen, auch wenn diese noch nicht (vollständig) miteinander integriert sind.

Kategorien
Kommentar

AWS Activate. Startups. Marktanteile. Noch Fragen?

Startups sind die Grundlage für den Erfolg der Amazon Web Services (AWS). Mit ihnen ist der IaaS-Marktführer groß geworden. Anhand einer offiziellen Initiative baut AWS diesen Zielkundenmarkt weiter aus und wird die restlichen IaaS-Anbieter damit weiter im Regen stehen lassen. Denn von deren Seite, mit Ausnahme von Microsoft und Rackspace, passiert nichts.

AWS Activate

Es ist kein Geheimnis das AWS sich gezielt die Gunst der Startups „erkauft“. Abgesehen von dem attraktiven Service Portfolio haben Gründer, die von Accelerator unterstützt werden, AWS Credits im zweistelligen Bereich erhalten, um ihre Ideen auf der Cloud Infrastruktur zu starten.

Mit AWS Activate hat Amazon nun ein offizielles Startup-Programm gestartet, um als Business-Enabler für Entwickler und Startups zu dienen. Dieses besteht aus dem „Self-Starter Package“ und dem „Portfolio Package“.

Das Self-Starter Package richtet sich an Startups, die ihr Glück auf eigene Faust versuchen und beinhaltet das bekannte kostenlose AWS-Angebot, welches jeder Neukunde in Anspruch nehmen kann. Hinzu kommen ein AWS Developer Support für einen Monat, „AWS Technical Professional“ Training und ein vergünstigter Zugriff auf Lösungen von SOASTA oder Opscode. Das Portfolio Package ist für Startups die sich in einem Accelerator Programm befinden. Diese erhalten AWS Credits im Wert zwischen 1.000 Dollar und 15.000 Dollar sowie ein Monat bis ein Jahr kostenlosen AWS Business Support. Hinzu kommen „AWS Technical Professional“ und „AWS Essentials“ Trainings.

Noch Fragen wegen der hohen Marktanteile?

Angesichts dieser Initiative werden die Amazon Web Services auch in Zukunft alleine weiter vorne weglaufen. Mit Ausnahme von Microsoft, Google und Rackspace, positioniert sich nur AWS als Plattform für Nutzer, die dort ihre eigenen Ideen umsetzen können. Alle anderen Anbieter umarmen lieber Unternehmenskunden, die eher zögerlich auf den Cloud Zug aufspringen und bieten bei weitem nicht die Möglichkeiten einer AWS Cloud Infrastruktur. Anstatt das Portfolio auf Cloud-Services auszulegen, wird stattdessen mit Rechenleistung und Speicherplatz versucht auf Kundenfang zu gehen. Dabei hat Infrastruktur aus der Cloud mehr zu bedeuten als nur Infrastruktur.

Kategorien
Analysen

Nirvanix. Die Hölle auf Erden. Warum ein Multi-Cloud Ansatz zwangsläufig notwendig ist.

Der eine oder andere wird bestimmt davon gehört haben. Nirvanix hat sich selbst ins Jenseits befördert. Der Enterprise Cloud Storage Service, der unter anderem eine große Kooperation mit IBM eingegangen war, hatte am 16. September 2013 plötzlich die Schließung angekündigt und seinen bestehenden Kunden zunächst eine Frist von zwei Wochen eingeräumt, ihre Daten zu migrieren. Der Zeitraum wurde mittlerweile auf den 15. Oktober 2013 verlängert, da die Kunden mehr Zeit für die Migration benötigen. Wie ein Nirvanix Kunde berichtet, hat dieser dort 20 Petabyte an Daten gespeichert.

Das Ende von Nirvanix

Wie aus dem nichts hat der Enterprise Cloud Storage Anbieter Nirvanix am 16. September 2013 sein Ende erklärt. Bis heute ist nicht bekanntgegeben worden, wie es dazu gekommen ist. Gerüchte sagen, dass eine weitere Finanzierungsrunde fehlgeschlagen sei. Weitere Gründe liegen scheinbar am fehlerhaften Management. So hatte das Unternehmen seit 2008 bis heute fünf CEOs. Vergessen sollte man allerdings auch nicht den starken Konkurrenzkampf im Cloud Storage Umfeld. Zum einen haben in den vergangenen Jahren viele Anbieter ihr Glück versucht. Zum anderen senken die beiden Platzhirsche Amazon Web Services mit Amazon S3 und Microsoft mit Azure Storage in regelmäßigen Zyklen die Preise für ihre Services, die ebenfalls Enterprise-fähig sind. Auch hat es für Nirvanix nichts genützt von Gartner als einer der Top Cloud Storage Service Anbieter genannt zu werden.

Besonders brisant ist die Tatsache, dass Nirvanix in 2011 einen fünf Jahres Vertrag mit IBM abgeschlossen hat, um IBMs SmartCloud Enterprise Storage Services um Cloud-basierte Speicherkapazitäten zu erweitern. Wie IBM angekündigt hat, sollen auf Nirvanix gespeicherte Daten auf den IBM SoftLayer Object Storage umgezogen werden. Als IBM Kunde würde ich trotzdem vorsichtig anfragen, wie es um meine gespeicherten Daten steht.

Multi-Cloud: Die Eier müssen über mehrere Nester verteilt werden

Zunächst ein Gruß an die Venture Capital Gemeinde. Wenn es stimmt, dass Nirvanix auf Grund einer fehlgeschlagenen Finanzierungsrunde den Dienst einstellen musste, dann sehen wir, was für eine Verantwortung mittlerweile in deren Händen liegt. Mehr braucht man dazu nicht schreiben.

Wie soll man als Cloud-Nutzer mit so einem Horror-Szenario wie dem von Nirvanix umgehen? Nun, wie man sieht scheint eine gute Kundenbasis und Kooperationen mit globalen Playern kein Garant dafür zu sein, dass ein Service langfristig überlebt. Auch Google spielt derzeit seine Cloud-Strategie auf dem Rücken seiner Kunden aus und trifft keine verbindliche Zusage über das langfristige bestehen seiner Services auf der Google Cloud Platform, wie etwa der Google Compute Engine (GCE). Im Gegenteil, es ist davon auszugehen, dass die GCE nicht lange überleben wird wie andere bekannte Google Services auch.

Backup und Multi-Cloud

Auch wenn der Cloud Storage Anbieter für die Verfügbarkeit der Daten zu sorgen hat, trägt man als Kunde eine Sorgfaltspflicht und die muss darin bestehen, dass man über den Zustand seiner Daten informiert ist und – auch in der Cloud – für Redundanzen und Backups sorgt. Mittlerweile sind Funktionen in den gängigsten Cloud Storage Services integriert, um nahtlose Backups der Daten vorzunehmen und mehrfache Kopien zu erstellen.

Zwar befinden wir uns im Zeitalter der Cloud, dennoch gilt weiterhin: Datensicherung! Man sollte daher sicherstellen, dass ständig ein getestetes(!) und zuverlässiges Backup sowie ein Wiederherstellungsplan existieren. Weiterhin muss ausreichend Bandbreite zur Verfügung stehen, um schnellstmöglich die Daten verschieben zu können. Auch das sollte in regelmäßigen Abständen anhand eines Migration-Audit überprüft werden, um im Fall aller Fälle schnell handeln zu können.

20 Petabyte an Daten mal eben so zu verschieben ist keine leichte Aufgabe. Daher muss man sich über andere Ansätze Gedanken machen. Multi-Cloud ist ein Konzept was in Zukunft immer stärker an Bedeutung gewinnen wird. Dabei werden Daten und Applikationen über mehrere Cloud-Plattformen und Anbieter hinweg (parallel) verteilt. Darüber hatten bereits meine Analysten Kollegen und Freunde Paul Miller und Ben Kepes während ihrer Mapping Session auf der GigaOM Structure in San Francisco diskutiert. Paul hatte im Anschluss daran einen interessanten Sector RoadMap Report zum Thema Multicloud Management geschrieben.

Auch wenn neben Scalr, CliQr, Rightscale und Enstratius bereits einige Management Plattformen für Multi-Cloud existieren, befinden wir uns immer noch in einem sehr frühen Stadium was die Nutzung angeht. schnee von morgen webTV von Nikolai Longolius bspw. setzt primär auf die Amazon Web Services und hat als Fallback Szenario eine native Web-Applikation 1:1 für die Google App Engine entwickelt. Das ist kein Multi-Cloud Ansatz, zeigt aber dessen Bedeutung, um weniger Aufwand für eine Anbieterübergreifende Hochverfügbarkeit und Skalierbarkeit zu erreichen. Wie Pauls Sector Roadmap gut zeigt, ist es insbesondere die Kompatibilität der APIs, der eine große Bedeutung zugesprochen werden muss. Unternehmen werden sich in Zukunft nicht mehr nur auf einen Anbieter verlassen können, sondern ihre Daten und Applikationen über mehrere Anbieter verteilen, um eine Best-of-Breed-Strategie zu fahren und das Risiko gezielt zu streuen.

Das sollte auch in Erwägung gezogen werden, wenn man einfach „nur“ Daten in der Cloud speichert. Das goldene Nest ist die Summe aus mehreren verteilten.

Kategorien
Events

Veranstaltungstipp: CSC Cloud Strategie Forum

Am 22.10.13 lädt CSC zu einem kostenlosen Cloud Strategie Forum nach München ein. Nach einem Impulsvortrag von CSCs Mark Masterson werde ich eine dynamisch gehaltene Diskussionsrunde führen und zeigen, was die Cloud für Unternehmen bereithält, welche Herausforderungen auf dem Weg zu einer eigenen Cloud Strategie gemeistert werden müssen und was keinesfalls missachtet werden sollte.

Agenda

  • Impulsvortrag von Mark Masterson, „Resident Troublemaker“.
  • Dynamische Diskussionsrunde geführt von René Büst, Cloud Analyst, Top 50 Cloud Computing Blogger weltweit.
  • Gemeinsames Abendessen mit vielen Gelegenheiten zum Networking.

Inhalte des Vortrags zur Diskussionsrunde

  • Use Case Identifikation und Potentiale von Cloud Computing.
  • Anforderungen die zu beachten sind.
  • Cloud Enterprise Architecture – Überblick
  • Cloud Governance – Überblick
  • Cloud Skills – Überblick
  • Marktüberblick IaaS

Weitere Informationen und die Anmeldung

  • Wann: 22. Oktober 2013, 16:00 Uhr
  • Wo: Mandarin Oriental Hotel, Neuturmstrasse 1, 80331 München

Die kostenlose Anmeldung ist unter CSC Cloud Strategie Forum zu finden.