Kategorien
Analysen

Runtastic: Als Consumer App in der Business Cloud

Die Erfolgsmeldungen aus der Public Cloud reißen nicht ab. Ständig erscheinen neue Web- und mobile Applikationen, die auf Infrastructure-as-a-Service (IaaS) Angebote setzen. Das ist nur ein Grund, der Marktforscher wie IDC (107 Milliarden Dollar) und Gartner (244 Milliarden Dollar) dazu bewegt, der Public Cloud bis zum Jahr 2017 eine vermeintlich goldene Zukunft zu bescheinigen. Den Erfolg der Public Cloud kann man nicht wegdiskutieren, die Fakten sprechen für sich. Jedoch sind es derzeit überwiegend Startups und vielmals unkritische Workloads die sich in die Public Cloud bewegen. Spricht man hingegen mit IT-Entscheidern von Unternehmen, die über ausgewachsene IT-Infrastrukturen verfügen, sieht die Realität anders aus. Das zeigt auch unsere Studie über den Europäischen Cloud Markt. Insbesondere der Self-Service und die Komplexität wird von den Public Cloud Anbietern unterschätzt, wenn sie auf Unternehmenskunden zugehen. Aber auch für junge Unternehmen ist die Public Cloud nicht zwangsläufig die beste Wahl. Ich habe kürzlich mit Florian Gschwandtner (CEO) und Rene Giretzlehner (CTO) von Runtastic gesprochen, die sich gegen die Public Cloud und für eine Business Cloud, genauer T-Systems, entschieden haben.

Runtastic: Von 0 auf über 50.000.000 Downloads in drei Jahren

Runtastic besteht aus einer Reihe von Apps für Ausdauer, Kraft & Toning, Gesundheit & Wellness sowie Fitness und hilft den Nutzern dabei ihre Gesundheits- und Fitnessziele zu erreichen.

Das Unternehmen wurde im Jahr 2009 in Linz (Österreich) gegründet und hat auf Grund seines enormen Wachstums in der internationalen Mobile Health und Fitness-Branche mittlerweile Standorte in Linz, Wien und San Francisco. Die Wachstumszahlen sind beeindruckend. Nach 100.000 Downloads im Juli 2010 sind es mittlerweile über 50.000.000 Downloads (Stand: Oktober 2013). Davon alleine 10.000.000 Downloads in Deutschland, Österreich und der Schweiz, was in etwa mehr als ein Download pro Sekunde bedeutet. Runtastic verfügt über 20.000.000 registrierte Nutzer, bis zu 1.000.000 täglich aktive Nutzer und mehr als 6.000.000 monatlich aktive Nutzer.


Quelle: Runtastic, Florian Gschwandtner, November 2013

Neben den mobilen Apps setzt Runtastic ebenfalls auf das Angebot eigener Hardware, um die Apps und Services bequemer nutzen zu können. Ein weiterer interessanter Service ist das „Story Running“, der zu mehr Abwechslung und Action beim Laufen führen soll.

Runtastic: Gründe für die Business Cloud

Angesichts dieser Wachstumszahlen und Anzahl der ständig wachsenden Apps und Services ist Runtastic ein idealer Kandidat für eine Cloud Infrastruktur. Im Vergleich zu ähnlichen Angeboten sogar für eine Public Cloud. Möge man meinen. Runtastic begann mit seiner Infrastruktur bei einem klassischen Webhoster – ohne Cloud Modell. In den vergangenen Jahren wurden einige Erfahrungen mit unterschiedlichen Anbietern gesammelt. Auf Grund der ständigen Expansion, neuer Rahmenbedingungen, der wachsenden Kundenanzahl und der Bedarf an Hochverfügbarkeit war der Grund die Infrastruktur in eine Cloud auszulagern.

Dabei war eine Public Cloud für Runtastic nie eine Option, da der dedizierte(!) Speicherort der Daten höchste Priorität besitzt und das nicht nur auf Grund von Sicherheitsaspekten oder dem NSA-Skandal. So kamen die Amazon Web Services (AWS) allein aus technischen Gründen nicht in Frage, da viele Ansprüche von Runtastic sich darauf nicht abbilden lassen. Unter anderem umfasst die Kerndatenbank in etwa 500GB auf einem einzelnen MySQL-Node, was laut Giretzlehner AWS nicht erfüllen kann. Zudem sind die Kosten in einer Public Cloud für solche großen Server dermaßen teuer, das sich eine eigene Hardware schnell rechnet.

Stattdessen hat sich Runtastic für die Business Cloud von T-Systems entschieden. Gründe hierfür waren ein gutes Setup, ein hoher Qualitätsanspruch sowie zwei Rechenzentren an einem Standort (in zwei getrennten Gebäuden). Hinzu kommt ein hoher Sicherheitsstandard, ein professioneller technischer Service als auch die Kompetenz der Mitarbeiter und Ansprechpartner und eine sehr gute Anbindung an die Internetknoten in Wien und Frankfurt.

Dabei kombiniert Runtastic das Colocation Modell mit einem Cloud-Ansatz. Das bedeutet, dass Runtastic die Grundlast mit eigener Hardware abdeckt und Lastspitzen über Infrastructure-as-a-Service (IaaS) Rechenleistung von T-Systems abfängt. Das Management der Infrastruktur läuft automatisiert mittels Chef. Der Großteil der Infrastruktur ist zwar virtualisiert. Allerdings fährt Runtastic einen hybriden Ansatz. Das bedeutet, dass die Kerndatenbank, der Storage und der NoSQL Cluster auf Bare Metal (nicht virtualisiert) betrieben werden. Auf Grund der globalen Reichweite (90 T-Systems Rechenzentren weltweit) kann Runtastic auch in Zukunft sicherstellen, dass alle Apps nahtlos und überall funktionieren.

Eine etwas unkonventionelle Entscheidung ist der Drei-Jahresvertrag, den Runtastic mit T-Systems eingegangen ist. Dazu gehören das Housing der zentralen Infrastruktur, ein redundanter Internetzugang sowie der Bezug von Rechenleistung und Speicherplatz aus der T-Systems Cloud. Runtastic hat sich für dieses Modell entschieden, da sie die Partnerschaft mit T-Systems langfristig sehen und nicht von heute auf morgen die Infrastruktur verlassen wollen.

Ein weiterer wichtiger Grund für eine Business Cloud war der direkte Draht zu Ansprechpartnern und Professional Services. Das spiegelt sich zwar auch in einem höheren Preis wieder, den Runtastic jedoch bewusst in Kauf nimmt.

Es geht auch ohne Public Cloud

Runtastic ist das beste Beispiel dafür, dass junge Unternehmen auch ohne eine Public Cloud erfolgreich sein können und eine Business Cloud definitiv eine Option ist. Zwar setzt Runtastic nicht vollständig auf eine Cloud-Infrastruktur. Jedoch muss in jedem Einzelfall der Business Case gerechnet werden, ob es sich (technisch) lohnt, Teile in eine eigene Infrastruktur zu investieren und die Lastspitzen per Cloud-Infrastruktur abzufangen.

Man sieht an diesem Beispiel allerdings auch, dass die Public Cloud kein Selbstgänger für die Anbieter ist und Beratung und Professional Services aus einer Business bzw. Managed Cloud gefragt sind.

Während der Keynote auf der AWS re:Invent 2013 präsentierte Amazon AWS seinen Vorzeigekunden Netflix und dessen Netflix Cloud Plattform (siehe Video, ab 11 Minuten), die speziell für die Amazon Cloud Infrastruktur entwickelt wurde. Amazon verkauft die Netflix Tools selbstverständlich als einen positiven Aspekt, was sie definitiv sind. Allerdings verschweigt Amazon den Aufwand, den Netflix betreibt, um die Amazon Web Services zu nutzen.

Netflix zeigt sehr eindrucksvoll wie eine Public Cloud Infrastruktur via Self-Service genutzt wird. Wenn man jedoch bedenkt, was für einen Aufwand Netflix betreibt, um in der Cloud erfolgreich zu sein, muss man einfach sagen, dass Cloud Computing nicht einfach ist und eine Cloud Infrastruktur, egal bei welchem Anbieter, mit der entsprechenden Architektur aufgebaut werden muss. Das bedeutet im Umkehrschluss, dass die Nutzung der Cloud nicht immer zu den versprochenen Kostenvorteilen führt. Neben den Einsparungen der Infrastrukturkosten die immer vorgerechnet werden, dürfen niemals die weiteren Kosten z.B. für das Personal mit den notwendigen Kenntnissen und die Kosten für die Entwicklung der skalierbaren und ausfallsicheren Applikation in der Cloud vernachlässigt werden.

In diesem Zusammenhang sollte auch der übermäßige Einsatz von infrastrukturnahen Services überdacht werden. Auch wenn diese das Entwicklerleben vereinfachen. Als Unternehmen sollte man sich vorher überlegen, ob diese Services tatsächlich zwingend benötigt werden, um sich alle Türen offen zu halten. Virtuelle Maschinen und Standard-Workloads lassen sich relativ einfach umziehen. Bei Services, die sehr nah in die eigene Applikationsarchitektur eingreifen, sieht es anders aus.

Kategorien
Kommentar

Disruptive Welt der IT: Neue Technologien verändern ständig den Status quo der Unternehmen #tsy13

Zero Distance klingt im ersten Moment wie eine dieser neumodischen Marketingphrasen, mit denen uns Anbieter tagtäglich erzählen, wie sie die Welt verbessern wollen. Nun, es handelt sich dabei auch um genau eine von diesen Marketingphrasen. Aber eine, in der viel Wahrheit steckt. Betrachtet man die Use Cases, die auf dem T-Systems Symposium 2013 gezeigt wurden und viele weitere weltweit, dann wird deutlich, was für Potentiale uns die moderne Informationstechnologie ermöglicht. Die Cloud bzw. Cloud Computing sind dabei nur ein Mittel zum Zweck und dienen als Enabler für neue Geschäftsmodelle und helfen bei der Veränderung unserer Welt.

Wer nicht handelt der stirbt aus!

Fakt ist, dass traditionelle Unternehmen dem Untergang geweiht sind, wenn sie sich nicht verändern. An alten Werten festzuhalten ist nicht immer die beste Strategie – insbesondere im Zeitalter des Digital Business. Startups tauchen wie aus dem nichts auf und überrennen Marktführer in ihrem Bereich, die gar keine Chance haben so schnell zu reagieren. Es ist der Vorteil der grünen Wiese, den die Startups ausnutzen und sich nicht mit lästigen Altlasten in der IT und anderweitigen Bereichen auseinandersetzen müssen. Aber es gibt auch die Unternehmen, die schon eine geraume Zeit erfolgreich auf dem Markt verweilen und die Zeichen der Zeit erkannt haben. Neue Technologien und Konzepte haben immer irgendeinen Einfluss auf das Business. Einige Unternehmen haben es verstanden sich neu zu erfinden und Cloud Computing, Big Data, Mobile und Collaboration gewinnbringend für die eigene Zwecke zu nutzen, um sich dadurch zu verändern. Andere hingegen können oder wollen es nicht verstehen und bleiben lieber ihrem Status quo treu.

Hey Bauer, wo bleibt der Bulle?

Es ist immer wieder erstaunlich in welchen Bereichen der Industrie die Informationstechnologie einen massiven Einfluss nimmt und dabei für mehr Effizienz sorgt. Nehmen wir das Beispiel der Landwirtschaft. Konkreter das Paarungsverhalten der Kühe. Das ist wichtig, denn eine Kuh gibt nur dann Milch, wenn sie gekalbt hat. Es ist für den Bauer daher von besonderem Interesse, das hier alles reibungslos abläuft.

Die Lösung: Ist eine Kuh brünstig, macht sie währenddessen typische Kopfbewegungen. Daher bekommt jede Kuh ein Halsband inkl. einem Mobilfunkchip. Der Bauer erhält darüber die Information, dass er den Bullen startklar machen kann. Auch beim Kalben hilft die Lösung. Dazu überträgt das Tool die Werte eines Thermometers mit integrierter SIM Karte. Etwa 48 Stunden vor der Geburt verändert sich die Körpertemperatur der Kuh. Der Bauer erhält zwei Stunden vor der Geburt eine SMS, um rechtzeitig vor Ort zu sein.

IT-Abteilungen müssen proaktiver werden

IT-Abteilungen sind und waren schon immer die Prügelknaben im Unternehmen. Zu recht? Nun, einige ja, andere wiederum nicht. Aber sind es die IT-Abteilungen alleine, die für die Transformation des Business zuständig sind? Jein. In erster Linie ist die Geschäftsführung für die Ausrichtung der Unternehmensstrategie verantwortlich. Sie muss sagen, welchen Weg das Unternehmen gehen soll, schließlich hat sie die Visionen. Das große Aber besteht allerdings in der Art wie die IT-Abteilung sich in diesem Kontext verhält. Ist sie einfach nur die unterstützende Kraft, die je nach Bedarf auf die Wünsche der Geschäftsführung und der Kollegen reagiert oder agiert sie lieber proaktiv?

Angriff ist die beste Verteidigung. IT-Abteilungen sollten heute am technischen und innovativen Puls der Zeit sitzen und über die Veränderungen im Markt informiert sein. Über eine ständige interne oder externe Markt- und Trendforschung müssen sie wissen, was auf sie und ggf. auf ihr Unternehmen zukommt und darauf schnellstmöglich und proaktiv reagieren, um nicht zu viel Zeit zu verlieren und im besten Fall einen Wettbewerbsvorteil zu schaffen. Je nach Trend müssen sie nicht auf jeden Zug aufspringen, aber sie sollten sich damit zumindest auseinandersetzen und verstanden haben, welcher Einfluss dadurch entsteht und ob sie oder ihr Unternehmen davon betroffen sind. Wenn sie Potential für neue Geschäftsmodelle erkennen, sollten sie diese in die Geschäftsführung tragen, die auch verstehen muss, dass IT heute Enabler und nicht nur Instandhalter ist. Das bedeutet, dass die IT-Abteilung im Unternehmen heute einen viel größeren Stellenwert hat als noch vor zehn Jahren.

Hierzu muss die Geschäftsführung der IT-Abteilung jedoch unter die Arme greifen und die IT-Abteilung von ihren Routineaufgaben befreien. In etwa 80 Prozent der IT-Ausgaben werden heute in den IT-Betrieb investiert und das nur, um die Dinge am Laufen zu erhalten. Es handelt sich also um Investitionen in den Status quo, die zu keinen Innovationen führen. Hingegen werden lediglich nur 20 Prozent der Ausgaben in Verbesserungen oder Weiterentwicklungen investiert. Dieses Verhältnis muss sich drehen, und die Geschäftsführung zusammen mit dem CIO haben die Aufgabe, diesen Wandel vorzunehmen, damit ein Unternehmen auch in Zukunft innovativ und wettbewerbsfähig bleibt.

Hören Sie auf den Status quo zu umarmen.

Kategorien
Analysen

Die vollständig vernetzte Welt wird Wirklichkeit #tsy13

Unternehmen sind in ihrem Alltag ständig kürzeren Veränderungszyklen ausgesetzt. Dabei ist die Consumerization of IT ein großer Treiber, die auch in Zukunft eine wichtige Bedeutung behalten wird. Seit mehreren Jahren zeigen Mobilität, Cloud, neue Applikationen, das Internet of Things und Big Data (Analysen) ihre Auswirkungen. Neben diesen technologischen Einflüssen sind es aber auch die geschäftlichen Auswirkungen wie neue Geschäftsmodelle, ständiges Wachstum, Globalisierung und gleichzeitig die Themen Sicherheit und Compliance die zu neuen Herausforderungen führen.

Die Evolution des Internets hinterlässt ihre Spuren

Betrachtet man die Evolution des Internets, wird deutlich, dass die Auswirkungen auf die Unternehmen und unsere Gesellschaft mit dem Wachstum von intelligenten Verbindungen wachsen. Gestartet mit einfachen Verbindungen über E-Mail oder Web und damit der Digitalisierung des Informationszugangs, folgte die vernetzte Wirtschaft, bei der es mit E-Commerce und Collaboration darum ging, Geschäftsprozesse zu digitalisieren. Anschließend folgte etwas, das Cisco als „Realitätsnahe Erfahrungen“ bezeichnet. Dazu gehört die Digitalisierung von geschäftlichen und sozialen Interaktionen wie Social Media, Mobile und Cloud. Der nächste Zustand den wir erreichen werden ist das „Internet of Everything“, bei dem Menschen, Prozesse, Daten und Dinge verbunden werden – die Digitalisierung der Welt.

Jeder Baustein hat im Internet of Everything seine eigene Bedeutung. Die Verbindungen zwischen den Menschen werden relevanter und wertvoller. Die richtige Person oder auch Maschine erhält über intelligente Prozesse zum richtigen Zeitpunkt die richtigen Informationen. Die Daten werden zu wertvolleren Informationen für die Entscheidungsfindung verarbeitet. Physische Geräte (Dinge) werden über das Internet untereinander vernetzt, um die intelligenten Entscheidungen zu ermöglichen.

Auf dem T-Systems Symposium 2013 in Düsseldorf sagte Cisco, dass sie im Jahr 2020 etwa 50 Milliarden untereinander vernetzte Smart Objects erwarten. Hingegen wird dann weltweit gerade einmal mit 7,6 Milliarden Menschen gerechnet. Weiterhin ist Cisco der Meinung, dass derzeit 99 Prozent der Welt noch nicht vernetzt ist und wir in Zukunft Billionen von Smart Sensors sehen werden. Diese werden unter anderem in intelligenten Gebäuden, Städten oder Häusern verbaut und dabei helfen Energie zu sparen und effizienter zu leben. Sie werden aber ebenfalls dazu führen, die Produktivität zu erhöhen oder das Gesundheitswesen zu verbessern.

Technologische Grundlagen für die vollständig vernetzte Welt

Auf Grund seiner massiven Skalierbarkeit, Verteilung, neuartigen Anwendungen und den Möglichkeiten des Überallzugriffs, ist die Cloud eine der Hauptgrundlagen für die vollständig vernetzte Welt. Ciscos Cloud Strategie besteht daher darin, Cloud Anbieter und Unternehmen es zu ermöglichen, unterschiedliche Arten von Cloud Services bereitzustellen und zu „brokern“. Gleichzeitig sollen von Cisco Applikationsplattformen für verschiedene Cloud Kategorien angeboten werden.

Die Cloud muss allerdings um Ansätze aus dem Internet der Dinge angereichert werden. Dazu gehören intelligentere Geschäftsprozesse, Menschen zu Machine-2-Machine Kommunikation sowie weitere Dinge wie Sensoren und Aktoren die überall verteilt sind. Im Endeffekt ist eine weltweit stark skalierbare Infrastruktur notwendig, die zeitliche Schwankungen und Anforderungen zwischen den unterschiedlichen Workloads steuern kann.

Eine weitere Schlüsselkomponente ist daher etwas, dass Cisco als Fog Computing bezeichnet. Der Fog hat die Aufgabe, Daten und Workloads näher an den Nutzer zu bringen, der sich am Rande einer Datenverbindung befindet. In diesem Zusammenhang wird dann auch vom „Edge Computing“ gesprochen. Der Fog befindet sich organisatorisch unterhalb der Cloud und dient als optimiertes Übertragungsmedium für die Services und Daten, die sich in der Cloud befinden. Der Begriff „Fog Computing“ wurde von Cisco als ein neues Paradigma geprägt, der verteilte Endgeräte innerhalb des Internet of Things bei dem kabellosen Datentransfer unterstützen soll. Fog Computing baut konzeptionell auf bestehende und weit verbreitete Technologien wie den Content Delivery Networks (CDN) auf, soll aber, auf Grund von Cloud Technologien, das Bereitstellen von viel komplexeren Services ermöglichen.

Da immer größere Datenmengen an eine immer größer werdende Anzahl an Benutzern ausgeliefert werden müssen, sind Konzepte notwendig, welche die Idee der Cloud verbessern und es Unternehmen und Anbietern ermöglichen, ihre Inhalte an den Endkunden über eine geographisch weit verbreitete Plattform bereitzustellen. Fog Computing soll dabei helfen, die verteilten Daten näher an den Endkunden zu transportieren und dabei die Latenz und Anzahl der dafür benötigten Hops zu verringern und Mobile Computing und Streaming Services dadurch besser zu unterstützen. Neben dem Internet of Things ist die steigende Nachfrage der Nutzer, zu jeder Zeit, von jedem Ort und mit jedem Gerät auf ihre Daten zugreifen zu können, ein weiterer Grund, warum die Idee des Fog Computing an Bedeutung zunehmen wird.

Die wesentliche Eigenschaft des Fog Computing besteht also darin, dass Workloads völlig autark von der Cloud agieren können, um den schnellen, nahen und stabilen Zugriff eines Service sicherzustellen.

Die vernetzte Welt benötigt intelligentere Technologien

Um die Cloud als die grundlegende Basis für das Internet of Things bzw. des Internet of Everything zu nutzen, müssen noch einige Hürden aus dem Weg geschafft werden. Das aktuelle Cloud Bereitstellungsmodell sieht vor, dass die Daten, in der Regel, direkt und ohne eine Zwischenschicht zum Endgerät bzw. den Endnutzer ausgeliefert werden. (Anmerkung: Es existieren bereits CDN und Edge Locations, die für das Caching und somit Beschleunigen sorgen.) Es wird daher davon ausgegangen, dass die Bandbreite zur Übertragung der Daten maximal ist und theoretisch eine Verzögerung von Null existiert. Das ist jedoch nur theoretisch der Fall. In der Praxis sorgen hohe Latenzen und somit Verzögerungen, eine schlechte Elastizität und die zur Bandbreite wesentlich schneller ansteigenden Datenmengen, für Probleme.

Aus diesem Grund sind Ansätze wie Fog Computing erforderlich, um davon ausgehen zu können, dass eine limitierte Bandbreite vorhanden, unterschiedliche Verzögerungszeiten sowie unterbrochene Verbindungen vorhanden sind. Ideen wie der Fog etablieren sich als eine intelligente Zwischenschicht, Cache bzw. wie eine Art Verstärker und koordinieren die Anforderungen unterschiedlicher Workloads, Daten und Informationen, so dass diese unabhängig voneinander und performant an die Objekte im Internet of Everything ausgeliefert werden.

Kategorien
Analysen

So lassen sich Schatten-IT und Covered Clouds auflösen #tsy13

Die Schatten-IT oder wie VMware es nennt, Covered Clouds (versteckt genutzte Cloud Services) sind ein großes Problem für Unternehmen. Einer VMware Studie zufolge vermuten 37 Prozent der führenden europäischen IT-Entscheider in ihren Unternehmen nicht erfasste Ausgaben für Cloud-Services. 58 Prozent der europäischen Wissensarbeiter würden ungenehmigte Cloud-Services nutzen.

Pro und Kontra für Schatten-IT (Covered Clouds)

Diese unerlaubte Nutzung hat auch ihre finanziellen Einflüsse. In den betroffenen Unternehmen vermuten Führungskräfte aus dem IT-Bereich, dass durchschnittlich 1,6 Millionen Euro ohne Erlaubnis des Unternehmens ausgegeben werden. Dies macht im Durchschnitt 15 Prozent des jährlichen IT-Budgets dieser Unternehmen aus.

Allerdings wird diese Entwicklung von vielen als positiv erachtet. 72 Prozent der IT-Führungskräfte sehen darin einen Nutzen für ihr Unternehmen. Denn 31 Prozent von diesen sind der Meinung, dass Schatten-IT und Covered Clouds das Wachstum und die Innovation beschleunigen. Mehr als die Hälfte gaben an, dass das Unternehmen dadurch schneller auf Kundenanforderungen reagieren kann.

Dennoch gibt es auch große Sicherheitsbedenken. Von denjenigen, die Schatten-IT nicht befürworten, befürchtete mehr als die Hälfte eine Verschärfung der Sicherheitsrisiken. Diese Einblicke gab VMware während des T-Systems Symposium 2013 in Düsseldorf.

Eine Maßnahme: IT-as-a-Service

IT-as-a-Service ist ein Betriebsmodell, bei dem die IT-Abteilung wie eine eigene Business Einheit geführt wird und selbst Produkte und Services für das eigene Unternehmen entwickelt. Dabei muss sich die IT-Abteilung gegen externe Mitbewerber behaupten. Schließlich haben Fachabteilungen in der heutigen Zeit eine grenzenlose Auswahl von anderen Anbietern am Markt.

VMware hat es sich zur Aufgabe gemacht, IT-Abteilungen hierzu die technischen Mittel zu liefern und sieht in IT-as-a-Service eine Chance das Verhältnis Instandhaltung zu Innovation auf 50:50 auszugleichen, anstatt die Mehrheit der Aufwendungen in die Instandhaltung zu investieren. Heute beträgt das Verhältnis ca. 80 Prozent (Wartung) zu 20 Prozent (Innovation).

VMware liegt richtig, wenn sie versuchen, sich als führender Anbieter für IT-as-a-Service Lösungen zu etablieren. Als einer der wenigen Infrastrukturanbieter am Markt sind sie mit ihren Fähigkeiten in der Lage die technischen Mittel für diesen Umschwung in den Unternehmen zu liefern. Man muss hierzu allerdings beachten, dass IT-as-a-Service kein technischer Ansatz ist, sondern sich fest im Denken der IT Abteilungen verankern muss, um erfolgreich umgesetzt zu werden. VMware kann somit nur zeigen, welche technischen Mittel zur Verfügung stehen, um den Wandel einzuleiten.

Service Portal als Middleware für die Mitarbeiter

IT-as-a-Service ist für die Schatten-IT nicht die Non-plus Ultra Lösung, kann aber dabei helfen, diesem über die Jahre gewachsenen Phänomen entgegenzuwirken. Die entsprechenden Konzepte und Technologien stehen bereit und müssen nun umgesetzt werden.

Ist eine IT-as-a-Service Philosophie innerhalb der IT-Abteilung entstanden, sollte damit begonnen werden, ein eigenes Service Portal für die Mitarbeiter, über welches diese kontrolliert auf interne und externe Cloud Services zugreifen, zu etablieren. Dabei kann es sich sowohl um Infrastruktur (virtuelle Server und Speicherplatz) als auch um Software und Plattformen handeln. Die IT-Abteilung wird dadurch immer mehr zum Service Manager (Broker) und kann durch die Nutzung externer Ressourcen (hybrid Modell) sicherstellen, dass die Mitarbeiter mit einer hohen Servicegüte rechnen können. So lässt sich einem Entwickler zum Beispiel ein Server anstatt in mehreren Wochen, innerhalb von fünf Minuten bereitstellen. Dabei sollte zudem betrachtet werden, dass Entwickler nicht nur an Rechenleistung und Speicherplatz interessiert sind, sondern auch Services benötigen, um Applikationen und eigene Services auf eine einfachere Art und Weise zu entwickeln. Das kann unter anderem durch Eigenschaften eines Platform-as-a-Service (PaaS) realisiert werden.

Kategorien
Kommentar

Transformation: Die Rolle der IT und des CIO verändert sich! #tsy13

Am 6. November findet das diesjährige T-Systems Symposium in Düsseldorf statt. Nachdem im vergangenen Jahr unter dem Motto „Zero Distance – perfektes Zusammenspiel“ durch innovative Geschäftsmodelle und moderne ICT eine neue Art von Nähe zum Kunden im Mittelpunkt stand, sollen in diesem Jahr die Konsequenzen der Zero Distance diskutiert werden. Ich werde dieses Jahr auf dem Symposium sein und die Themen Cloud, Mobile und Collaboration vor Ort kommentieren und analysieren. Dazu werden in dieser Woche entsprechende Artikel hier auf CloudUser erscheinen.

Es geht um den Kunden

Nie war die Beziehung zum Kunden und Endnutzer so wichtig wie heute. Gleichermaßen ist aber auch der technologische Zugang zu diesen Gruppen noch nie so einfach gewesen wie heute. Das hat auch die Businessseite erkannt und erhöht stetig die Anforderungen an die IT. Eine hohe Verfügbarkeit wie eine ebenso maximale Geschwindigkeit unter den bestmöglichen Sicherheitsanforderungen sind die Ansprüche an denen sich CIOs heute messen lassen müssen. Gleichzeitig müssen heutige Lösungen so einfach und intuitiv zu bedienen sein, um gegen den immer stärker werdenden Wettbewerb um den Kunden vorbereitet zu sein.

Disruptive IT: Die Rolle der IT wird sich verändern müssen

Cloud Computing, Big Data, Mobility und Collaboration sind derzeit die disruptiven Technologien, die in vielen Bereichen einen gewaltigen Wandeln auslösen und die IT-Abteilungen und CIOs vor große Herausforderungen stellen. Diese lassen sich aber auch für die eigenen Zwecke einsetzen und damit neue Chancen entstehen lassen.

Ich habe erst vor kurzem mit einem Analysten Kollegen über die Rolle des CIOs gesprochen. Seine zunächst amüsante doch ernst gemeinte Schlussfolgerung lautete CIO = Career Is Over. Diese Meinung vertrete ich nicht. Dennoch ist die Rolle der IT und ebenfalls die des CIOs einem Wandel ausgesetzt. Der CIO muss als Innovationstreiber anstatt eines Instandhalters verstanden werden und viel stärker in die Diskussionen mit den Fachabteilungen (Marketing, Vertrieb, Produktion, Finanzen, Personal) einbezogen werden bzw. den Dialog suchen. Er muss verstehen, welche Anforderungen erwartet werden, um die notwendigen Anwendungen und Infrastrukturen schnell, skalierbar und so einfach zu bedienen wie Apps und Tools aus dem Consumer-Bereich bereitzustellen. Das bedeutet, dass die interne IT einem Transformationsprozess ausgesetzt werden muss, ohne dabei die Sicherheit und Kosten zu vernachlässigen. Dieser Wandel entscheidet über die Zukunft eines jeden CIOs und ob er weiterhin als Dr. No oder Business Enabler angesehen wird, der als strategisch wichtiger Partner des CEO und der Fachbereiche zum Treiber des Business wird.

Kategorien
Analysen

Die Bedeutung der Managed Cloud für Unternehmen

Cloud Computing wächst kontinuierlich. Dabei wird der Public Cloud das für die Zukunft größte Wachstum vorhergesagt. Je nachdem auf wen man hört, liegt dieses bis zum Jahr 2017 zwischen 107 Milliarden Dollar (IDC) und 244 Milliarden Dollar (Gartner). An dieser Stelle darf man sich als Leser gerne die Frage stellen, woher diese nicht unbedeutende Differenz stammt. Unterhält man sich jedoch mit IT-Entscheidern, entspricht die Public Cloud, die in erster Linie auf standardisierte Workloads und Self-Service ausgelegt ist, nicht den Anforderungen der meisten Unternehmen. Cloud Computing ist definitiv attraktiv, aber die Form ist entscheidend.

Die Komplexität darf nicht unterschätzt werden

Die größten Erfolgsmeldungen aus der Public Cloud stammen bisher von Startups oder Unternehmen, die Ideen und Geschäftsmodelle darin realisiert haben. Zwar wird auch immer wieder von Migrationen von SaaS Anwendungen mit bis zu 90.000 Nutzern berichtet. Und diese Meldungen scheinen die Erfüllungen der Anforderungen gut wieder zu spiegeln. Die Wahrheit in den meisten Unternehmen sieht aber anders aus. Selbst die Migration eines E-Mail Systems, einer der vermeintlich höchststandardisierten Anwendungen, wird dabei zum Abenteuer. Das liegt daran, dass viele Unternehmen kein Standard E-Mail System nutzen und stattdessen weitere proprietäre Add-ons oder selbstentwickelte Erweiterungen angebunden haben, die so nicht in der Cloud existieren.

Hinzu kommen weitere Applikationen, die einfach zur IT-Enterprise Architektur dazu gehören und höchst individuelle Ansprüche erfüllen. Ich habe kürzlich mit dem Strategie-Manager eines deutschen DAX Unternehmens gesprochen das weltweit tätig ist und aktuell eine Cloud Strategie evaluiert. Das Unternehmen verfügt Global über etwa 10.000(!) Applikationen (Desktop, Server, Produktionssysteme usw.). Dieses Beispiel ist sehr extrem und spiegelt nicht die durchschnittlichen Herausforderungen eines Unternehmens dar. Es zeigt aber die Dimension, in der man sich bewegen kann und die sich ebenfalls auf deutlich kleinere Applikations-Infrastrukturen herunterbrechen lassen.

Managed Cloud Services gehört die Zukunft im Unternehmensumfeld

Man möge nun argumentieren, dass die IT-Architekturen der meisten Unternehmen eh viel zu komplex sind und eine Standardisierung jedem gut tun würde. So einfach ist die Realität aber leider nicht. Auch wenn bereits einige Standard Unternehmensapplikationen für Public Clouds zertifiziert sind. Schaut man sich die erfolgreichsten Workloads in der Public Cloud an, handelt es sich dabei um Web-Applikationen für den Massenmarkt und weniger um spezifische Unternehmensapplikationen. Der Großteil der Unternehmen ist für die Cloud nicht vorbereitet. Sondern darauf angewiesen und erwartet gleichermaßen Hilfe auf dem Weg in die Cloud sowie während des Betriebs der Anwendungen und Systeme.

Das hat auch unsere Untersuchung des europäischen Cloud Markts gezeigt. Unternehmen sind interessiert an Cloud Computing und dessen Eigenschaften (Skalierbarkeit, Flexibilität oder Pay per use). Allerdings gestehen sie sich selbst ein, dass sie nicht über das Wissen und die Zeit verfügen oder es einfach nicht (mehr) zu ihrem Kerngeschäft gehört, IT-Systeme zu betreiben und dies stattdessen von dem Cloud-Anbieter übernehmen lassen. Es geht also um eine flexible Art von Managed Services. Darauf sind Public Cloud Anbieter nicht vorbereitet, da ihr Geschäft darin besteht, hochstandardisierte Infrastrukturen, Plattformen, Applikationen und Services bereitzustellen. Abhilfe sollen speziell von dem Anbieter zertifizierte Systemintegratoren bieten.

Hier besteht die Chance für Anbieter von Business Clouds. Also Cloud Anbieter, die kein Public Cloud Modell fahren, sondern anhand von Managed Services den Kunden dabei helfen, den Weg in die Cloud zu meistern und den Betrieb übernehmen und damit einen „Alles aus einer Hand“ Service bieten. Das erfolgt im Normalfall nicht auf einer Shared-Infrastructure sondern innerhalb einer Hosted Private Cloud bzw. einer Dedicated Cloud bei der sich ein Kunde explizit in einem isolierten Bereich befindet. Professional Services runden das Portfolio ab, die bei der Integration, Schnittstellen und der Weiterentwicklung helfen. Business Clouds sind auf Grund dieser Serviceleistungen, Exklusivität und höherer Sicherheit (in der Regel physikalische Isolation) teurer als Public Clouds. Betrachtet man jedoch den Aufwand, den man als Unternehmen selbst in der einen oder anderen Public Cloud betreiben muss, um tatsächlich erfolgreich zu sein oder sich Hilfe von einem der zertifizierten Systemintegratoren holt, dann ist der Kostenvorteil meist eliminiert. Zudem ist Business Cloud (Managed Cloud) Anbietern ein höheres Wissen in die eigene Cloud und deren Eigenschaften gutzuschreiben als Systemintegratoren, da diese die Infrastruktur kennen und zudem weitere spezifische Anpassungen für den Kunden vorgenommen werden können als in einer zumeist hochstandardisierten Public Cloud Infrastruktur.

Public Cloud ist kein No-go für Unternehmen

Die Public Cloud ist für Unternehmen per se kein Tabu-Thema. Im Gegenteil, denn zum einem bietet die Public Cloud den maximal einfachsten und unkompliziertesten Weg in die Cloud-Welt, ohne dabei mit dem Vertrieb in Kontakt zu geraten. Zum anderen kommt es auf die Workloads/ Use Cases an, die identifiziert werden müssen.

Der größte Vorteil einer Public Cloud für Unternehmen besteht darin, dass sie sehr kostengünstig und schnell eigene Erfahrungen in einem echten Cloud-Umfeld sammeln können und sich sehr einfach „Dinge“ ausprobieren lassen. Zudem bietet sie die Gelegenheit sehr günstig und schnell Fehler zu machen und damit frühzeitig daraus zu lernen, was früher sehr schmerzhaft gewesen wäre. Anhand einer Top Down Cloud Strategie lassen sich in der Public Cloud zudem u.a. neue Geschäftsmodelle abbilden, die über Web Applikationen realisiert werden. Hier lassen sich mit einem hybriden Ansatz z.B. die Applikationen von den Daten trennen, um die Skalierbarkeit der Public Cloud für die Applikation selbst auszunutzen, die Daten aber in einem für sich definierten sicheren Bereich zu speichern.

Ob kritische Workloads innerhalb einer Public Cloud betrieben werden sollten ist u.a. eine Entscheidung des Risikomanagements und des eigenen Aufwands den man betreiben will/ kann um dies sicherzustellen. Hierauf muss während der Evaluation zwischen einer Public und einer Managed (Business) Cloud besonders geachtet werden.

Kategorien
Analysen

Quo vadis VMware vCloud Hybrid Service? Was ist vom vCHS zu erwarten?

Im Rahmen der VMworld 2013 Europe in Barcelona im Oktober hat VMware bereits die Verfügbarkeit des vCHS in England mit einem neuen RZ-Standort in Slough in der Nähe von London angekündigt. Die Private-Beta-Version des europäischen vCloud Hybrid Services wird ab dem vierten Quartal 2013 vorliegen, die allgemeine Verfügbarkeit ist für das erste Quartal 2014 geplant. Dieser Schritt zeigt, dass VMware der Public Cloud eine wichtige Bedeutung zuschreibt, wurde er doch insbesondere unternommen, um den Bedürfnissen der europäischen Kunden entgegenzukommen.

Dieser Artikel ist exklusiv auf LANline.de erschienen und kann kostenlos unter „Was bringt VMwares Vcloud Hybrid Service?“ gelesen werden.

Kategorien
Analysen

HP Cloud Portfolio: Überblick & Analyse

HPs Cloud Portfolio besteht aus einer Reihe von Cloud-basierten Lösungen und Services. Dabei ist die HP Public Cloud als echtes Infrastructure-as-a-Service (IaaS) Angebot das aktuelle Kernprodukt, was dementsprechend großzügig vermarktet wird. Die HP Enterprise Services – Virtual Private Cloud bietet eine von HP gehostete Private Cloud. Die Public Cloud Services werden ausschließlich aus den USA mit Rechenzentren im Westen und Osten ausgeliefert. Auch wenn der Vertrieb weltweit aufgestellt ist, wird lediglich Englisch unterstützt.

Portfolio Überblick

Das IaaS Kernangebot umfasst Rechenleistung (HP Cloud Compute), Speicherplatz (HP Cloud Storage) und Netzwerkkapazitäten. Weiterhin stehen die Mehrwertservices HP Cloud Load Balancer, HP Cloud Relational DB, HP Cloud DNS, HP Cloud Messaging, HP Cloud CDN, HP Cloud Object Storage, HP Cloud Block Storage und HP Cloud Monitoring zur Verfügung, mit denen sich eine virtuelle Infrastruktur für eigene Applikationen und Services aufbauen lassen.

Die HP Cloud Infrastruktur basiert auf OpenStack und ist Multi-Mandantenfähig. Die virtuellen Maschinen sind mit KVM virtualisiert und lassen sich in festen Größen (Extra Small bis Double Extra Large) pro Stunde buchen. Der lokale Speicher der virtuellen Maschinen ist nicht persistent. Langfristige Daten lassen sich aber auf einem unabhängigen Block Storage speichern und anbinden. Eigene virtuelle Maschinen Images lassen sich nicht in die Cloud hochladen. Der Load Balancer befindet sich derzeit noch in einer Private Beta. Die Infrastruktur ist eine Multi-Fault-Domain, was von dem Service Level Agreement berücksichtigt wird. Eine Multifaktor Autorisierung wird derzeit nicht angeboten.

Die HP Enterprise Cloud Services bieten eine Vielzahl unterschiedlicher auf Unternehmen ausgerichteter Lösungen. Darunter Recovery-as-a-Service, dedizierte Private Clouds und Hosted Private Clouds. Zu den Applikationsservices gehören Lösungen für Collaboration, Messaging, Mobility und Unified Communications. Zu spezifischen Unternehmensanwendungen zählen HP Enterprise Cloud Services for Microsoft Dynamics CRM, HP Enterprise Cloud Services for Oracle und HP Enterprise Cloud Services for SAP. Professional Services runden das Enterprise Cloud Services Portfolio ab. Die Enterprise Cloud Services – Virtual Private Cloud ist eine von HP gehostete und Mandantenfähige Private Cloud und richtet sich an SAP, Oracle und weitere Unternehmensanwendungen.

Analyse

HP hat viel Erfahrung im Aufbau und Betrieb von IT-Infrastrukturen und verfolgt dieselben Ziele in den Bereichen Public und Private Cloud Infrastrukturen. Dabei setzen sie auf eigene Hardwarekomponenten und ein umfangreiches Partnernetzwerk. HP verfügt über einen weltweit agierenden Vertrieb und ein gleichermaßen hohes Marketingbudget und ist damit in der Lage eine Vielzahl an Kunden zu erreichen. Auch wenn sich die Rechenzentren für die Public Cloud ausschließlich in den USA befinden.

HP hat in den letzten Jahren viel Aufwand und Entwicklung investiert. Dennoch ist der HP Public Cloud Compute Service erst seit Dezember 2012 für die Allgemeinheit am Markt verfügbar. Auf Grund dessen kann HP noch keine aussagekräftige Erfolgsbilanz für seine Public Cloud nachweisen. Es existiert nur eine begrenzte Interoperabilität zwischen der HP Public Cloud, basierend auf OpenStack, und der Private Cloud (HP CloudSystem, HP Converged Cloud) der das HP Cloud OS zugrunde liegt. Da die HP Public Cloud nicht über die Möglichkeit verfügt, eigene virtuelle Maschinen Images auf Basis eines Self-Service hochzuladen, können Kunden derzeit keine Workloads aus der Private Cloud in die Public Cloud übertragen. Selbst dann, wenn die Private Cloud auf OpenStack basiert.

INSIGHTS Report

Der INSIGHTS Report „HP Cloud Portfolio – Überblick & Analyse“ kann hier kostenlos als PDF heruntergeladen werden.

Kategorien
Kommentar

Cloud PR Desaster. Googles Unbeschwertheit zerstört Vertrauen.

Es ist üblich, dass in Unternehmen nur bestimmte „Spokesperson“ auserwählt werden, die öffentlich über das Unternehmen sprechen dürfen. Tragisch wird es, wenn diese Auserwählten Aussagen treffen, die vielerseits zu Fragezeichen und Verunsicherung führen. Google ist nun schon zum zweiten Mal innerhalb kürzester Zeit in so ein Fettnäpfchen getreten. Nachdem Cloud Platform Manager Greg DeMichillie die langfristige Verfügbarkeit der Google Compute Engine merkwürdig kommentiert hatte, lies es sich Google CIO Ben Fried nicht nehmen über die Google-eigene Nutzung der Cloud zu äußern.

Wir sind die Guten – Die anderen sind böse

Im Interview mit AllThingsD erklärte Google CIO Ben Fried den Umgang von Google mit dem Thema Bring your own Device und der Nutzung externer Cloud Services. Wie jeder IT-Verantwortliche mittlerweile mitbekommen haben mag, ist Google seit geraumer Zeit dabei mit aller Gewalt seine Google Apps for Business Lösung in den Unternehmen zu vermarkten. Umso erstaunlicher ist die Aussage von Fried in Bezug auf die Nutzung von Dropbox, die Google für interne Zwecke strikt verbietet.

The important thing to understand about Dropbox,” […] “is that when your users use it in a corporate context, your corporate data is being held in someone else’s data center.

Genau, wenn ich meine Daten nicht auf den eigenen Servern speichere, sondern bei Dropbox, dann liegen sie wahrscheinlich in einem fremden Rechenzentrum. In Dropbox Fall um genauer zu sein auf Amazon S3. Das gilt aber auch für den Fall, wenn ich meine Daten auf Google Drive, Google Apps oder der Google Cloud Platform ablege. Dann liegen die Daten nämlich bei? Google, genau. Das bringt das Cloud Modell nun einmal mit sich.

Fried hat das natürlich, wie auch schon DeMichillie, alles gar nicht so gemeint und korrigierte sich anschließend per E-Mail via AllThingsD.

Fried says he meant that the real concern about Dropbox and other apps is more around security than storage. “Any third-party cloud providers that our employees use must pass our thorough security review and agree under contract to maintain certain security levels,”

Es ging Fried also um die Sicherheit von Dropbox und anderweitiger Cloud Services, als um den Speicherort.

Google ist ein großes Kind

Ich bin mir langsam nicht mehr sicher was man von Google halten soll. Eines ist aber klar, eine professionelle Unternehmenskommunikation sieht anders aus. Gleiches gilt für den Vertrauensaufbau bei den Unternehmenskunden. Google ist zweifelsohne ein innovatives Unternehmen, wenn nicht sogar das innovativste Unternehmen weltweit. Diese Unbeschwertheit eines Kindes die Google und seine Mitarbeiter benötigt, um immer wieder neue interessante Ideen und Technologien zu entwickeln, ist gleichzeitig die größte Schwachstelle. Es ist genau dieser Grad der Naivität in der Außenkommunikation, der es Google auch in Zukunft schwer machen wird, wenn sich daran nichts grundlegend verändert. Zumindest dann, wenn es darum geht im sensiblen Markt für Unternehmenskunden ein Wort mitzureden. Die großen Player, allen voran Microsoft, VMware, IBM, HP und Oracle wissen was Unternehmen hören müssen, um attraktiv zu erscheinen. Und dazu gehören keinesfalls die Aussagen eines Greg DeMichillie oder Ben Fried.

Noch ein interessantes Kommentar auf Ben Kepes Forbes‘ Artikel „Google Shoots Itself In The Foot. Again„.

„[…]Do you really think that Google management really cares about cloud app business or its customer base? Somebody at Google said that they have the capacity they built for themselves and they have the engineering talent so why not sell it. So Brin and Page shoke their heads and they was the last they ever wanted to hear about it. There is nothing exciting about this business, they do not want the responsibilites that come with this client base and they really don’t care. I bet they shut it down.

Kategorien
Analysen

Wir leben bereits in einer Multi-Cloud getriebenen Welt

Nicht zuletzt das Disaster um Nirvanix hat gezeigt, dass man sich nicht auf einen einzelnen Cloud-Anbieter verlassen. Aber auch ungeachtet der Risikostreuung ist der Einsatz einer Multi-Cloud Strategie ein empfehlenswerter Ansatz, der bereits von vielen heute schon bewusst oder unbewusst praktiziert wird.

Hybrid oder Multi-Cloud?

Was bedeutet genau Multi-Cloud? Oder was ist der Unterschied zu einer Hybrid Cloud? Nun, eine Hybrid Cloud verbindet von ihrer Definition her eine eigene Private Cloud bzw. eine on-Premise IT-Infrastruktur mit einer Public Cloud, um die lokalen Infrastrukturen bei Bedarf mit weiteren Ressourcen zu versorgen. Bei diesen Ressourcen kann es sich um Rechenleistung, Speicherplatz aber auch Services in Form von Software handeln. Wird ein lokales E-Mail System mit einem SaaS CRM-System integriert, kann durchaus von einer Hybrid Cloud gesprochen werden. Eine Hybrid Cloud gilt also nicht nur für IaaS bzw. PaaS Szenarien.

Ein Multi-Cloud Konzept erweitert den Hybrid Cloud Gedanken um die Anzahl der zu verbindenden Clouds. Genauer gesagt kann es sich dabei um n-Clouds handeln die in irgendeiner Form miteinander integriert sind. Dabei werden bspw. Cloud-Infrastrukturen so miteinander verbunden, dass die Applikationen verschiedene Infrastrukturen oder Services parallel oder je nach Auslastung oder aktuellen Preisen nutzen. Auch das parallele oder verteilte Speichern von Daten über mehrere Clouds ist vorstellbar, um die Verfügbarkeit und Redundanz der Daten sicherzustellen. Aktuell wird sehr intensiv über Multi-Cloud im IaaS-Umfeld diskutiert. Siehe dazu auch Ben Kepes‘ und Paul Miller’s Mapping Session zum Thema Multi-Cloud sowie Paul’s Sector RoadMap: Multicloud management in 2013.

Was oft vergessen wird ist, dass Multi-Cloud insbesondere im SaaS-Umfeld seine Bedeutung hat. Die Anzahl neuer SaaS-Applikationen wächst täglich und damit auch der Bedarf, diese unterschiedlichen Lösungen miteinander zu integrieren und Daten austauschen zu lassen. Aktuell bewegt sich der Cloud-Markt unkontrolliert auf viele kleine Insellösungen zu, die jede für sich zwar einen Mehrwert bieten, in der Summe jedoch zu vielen kleinen Dateninseln führen. Mit solchen Entwicklungen haben in Unternehmen schon in vor Cloud Zeiten zu kämpfen gehabt und das vergebens.

Risiken streuen

Auch wenn das Cloud-Marketing ständig die Verfügbarkeit und Sicherheit der Daten, Systeme und Applikationen verspricht, liegt die Verantwortung dies sicherzustellen in den eigenen Händen (Das bezieht sich auf eine IaaS Public Cloud). Zwar stellen die Cloud-Anbieter hierfür weitestgehend alle Mittel und Wege zur Verfügung, im IaaS-Bereich muss sich der Kunde aber selbst darum kümmern. Ausfälle wie die der Amazon Web Services oder unvorhergesehene Schließungen wie die von Nirvanix sollten zu mehr Sensibilität bei der Nutzung von Cloud-Services führen. Die Risiken müssen bewusst gestreut werden. Dabei sollten sich nicht alle Eier in einem Nest befinden, sondern strategisch über mehrere verteilt werden.

Best-of-Breed

Die Best-of-Breed Strategie ist der meist verbreitetste Ansatz in IT-Unternehmensarchitekturen. Dabei werden mehrere Branchenlösungen für verschiedene Teilbereiche innerhalb des Unternehmens eingesetzt und miteinander integriert. Die Idee hinter Best-of-Breed besteht darin, die jeweils beste Lösung zu nutzen, die eine All-in-one Lösung in der Regel nicht bieten kann. Man stellt sich also die für seinen Zweck besten Services und Applikationen zusammen.

Verfolgt man diesen Ansatz in der Cloud, befindet man sich direkt in einem Multi-Cloud Szenario, was bedeutet, dass schätzungsweise 90% aller Unternehmen die Cloud-Services nutzen, Multi-Cloud Nutzer sind. Ob die eingesetzten Cloud-Services auch miteinander integriert sind bleibt zu bezweifeln. Was auf der einen Seite empfehlenswert ist, lässt sich auf der anderen Seite in vielen Fällen auch nicht vermeiden. Zwar existieren bereits ein paar gute All-in-one Lösungen am Markt. Dennoch sind die meisten Perlen eigenständig implementiert und müssen mit anderen Lösungen kombiniert werden, z.B. E-Mail und Office/ Collaboration mit CRM und ERP. Das hat von der Risikobetrachtung, insbesondere in der Cloud, seinen Vorteil. Fällt ein Anbieter aus, ist auch nur ein Teil-Service nicht erreichbar und nicht direkt die gesamte Produktivitäts-Umgebung.

Insellösungen vermeiden: Schnittstellen und Integration

Solche Best-of-Breed Ansätze versuchen Cloud-Marktplätze zu schaffen, indem sie einzelne Cloud-Lösungen in unterschiedlichen Kategorien zusammenfassen und Unternehmen damit ein umfangreiches Portfolio verschiedener Lösungen bieten, mit der sich eine Cloud-Produktivitäts-Suite zusammenstellen lässt. Dennoch zeigen, obwohl sehr stark kontrollierte und vermeintlich integrierte Marktplätze an einer entscheidenden Stelle massive Probleme mit der Integration. Es existieren viele einzelne SaaS-Applikationen die nicht zusammenspielen. Das bedeutet, dass keine gemeinsame Datenbasis existiert und das z.B. der E-Mail Service nicht auf die Daten im CRM-Service zugreifen kann und umgekehrt. Damit entstehen wieder, wie bereits oben beschrieben, einzelne Datensilos und Insellösungen innerhalb des Marktplatzes.

Dieses Beispiel zeigt auch die größte Problematik mit einem Multi-Cloud Ansatz. Die Integration der vielen verschiedenen und normalerweise voneinander unabhängig agierenden Cloud-Services und deren Schnittstellen zueinander.

Multi-Cloud ist „The New Normal“ in der Cloud

Das Thema Multi-Cloud wird derzeit insbesondere im IaaS-Umfeld stark diskutiert, um das Risiko zu streuen und die Kosten und Leistungen unterschiedlicher Cloud-Infrastrukturen optimal ausnutzen zu können. Aber ebenfalls im SaaS-Umfeld muss das Thema unbedingt eine höhere Bedeutung zugesprochen werden, um Daten- und Insellösungen in Zukunft zu vermeiden, die Integration zu vereinfachen und Unternehmen bei ihrer Adaption ihrer Best-of-Breed Strategie zu unterstützen.

Ungeachtet diesen Erwartungen ist der Multi-Cloud Einsatz bereits Realität, indem Unternehmen mehrere Cloud Lösungen von vielen unterschiedlichen Anbietern einsetzen, auch wenn diese noch nicht (vollständig) miteinander integriert sind.