Kategorien
Analysen

Meine Cloud Computing Vorhersagen für 2014

Das Jahr 2013 neigt sich dem Ende und es ist wieder einmal an der Zeit in die Glaskugel für das kommende Jahr zu schauen. Hierzu habe ich mir zehn Themen herausgegriffen von denen ich glaube, dass Sie im Cloud Bereich relevant sein werden.

1. Die AWS vs. OpenStack API Diskussion wird niemals enden

Diese Vorhersage gilt übrigens auch für die Jahre 2015, 2016 usw. Sie hört sich im ersten Moment lustig an. Allerdings nerven diese Diskussionen langsam. OpenStack hat ganz andere Probleme, als sich ständig mit den Amazon Web Services (AWS) vergleichen zu lassen. Zumal die Unruhen, die ständig von außen hinein getragen werden, nicht weiterhelfen. Wenn die OpenStack API zu 100% kompatibel mit der AWS API sein soll, dann kann sich OpenStack gleich in Eucalyptus umbenennen!

Die OpenStack Community muss ihren eigenen Weg finden und es den Service Providern ermöglichen, abseits vom Branchenprimus AWS, eigene Angebote aufbauen zu können. Allerdings liegt diese Mammutaufgabe wiederum nur in den Händen der Anbieter. Schließlich handelt es sich bei OpenStack nur um einen großen Baukasten von Lösungen für den Aufbau von Cloud Computing Infrastrukturen. Was am Ende (Geschäftsmodell) dabei herauskommt, ist nicht die Aufgabe der OpenStack Community.

Mehr unter „Gefangen im goldenen Käfig. OpenStack Provider sitzen in der Falle.

2. Die Sicherheit erhält mehr Gewicht

Unabhängig von dem jüngsten NSA Skandal wurde schon immer die Sicherheit und das Vertrauen von (Public) Cloud Anbietern in Frage gestellt. Dabei sind (Public) Cloud Anbieter sicherheitstechnisch besser aufgestellt, als es die meisten Unternehmen weltweit sein können. Das liegt zum einen an den Ressourcen (Hardware, Software, Rechenzentrum und Personal) die in das Thema Sicherheit investiert werden. Zum anderen aber insbesondere daran, dass es sich dabei um ihr Kerngeschäft handelt, den reibungslosen und sicheren Betrieb sicherzustellen.

Vertrauen ist die Grundlage einer jeden Beziehung. Das gilt sowohl im privaten als auch im geschäftlichen Umfeld. Das hart erarbeitete Vertrauen der letzten Jahre wird derzeit auf die Probe gestellt und die Anbieter tun gut daran, sich weiter zu öffnen. „Security through obscurity“ ist ein veraltetes Konzept. Die Kunden benötigen und wollen mehr Klarheit darüber, was mit ihren Daten passiert. Das wird sich je nach Region der Erde unterscheiden. Aber zumindest in Europa werden die Kunden ihren Anbieter deutlich härter auf die Probe stellen.

Mehr unter „Wie schützen Unternehmen ihre Daten gegen die Überwachung in der Cloud?

3. Die Private Cloud bleibt attraktiv

Die Private Cloud ist finanziell und hinsichtlich der Ressourcenallokation (Skalierbarkeit, Flexibilität) nicht die attraktivste Form der Cloud. Dennoch wird sie, ungeachtet der Prognosen mancher Marktforscher, nicht ihre Bedeutung verlieren. Im Gegenteil, hier wird die Sensibilität der Entscheider trotz des Kostendrucks unterschätzt, welche die Kontrolle und Hoheit über die Daten und Systeme behalten wollen. Das spiegelt sich auch in aktuellen Zahlen von Crisp Research wieder. Demnach wurden in Deutschland im Jahr 2013 nur etwa 210 Millionen Euro für Public Infrastructure-as-a-Service (IaaS) ausgegeben. Hingegen lagen die Investitionen für Private Cloud Infrastrukturen bei 2,3 Milliarden Euro.

Eine aktuelle Studie von Forrester zeigt zudem:

„From […] over 2,300 IT hardware buyers, […] about 55% plan to build an internal private cloud within the next 12 months.“

Das heißt nun nicht, dass Deutschland das Land der Private Clouds werden muss. Schließlich geht es immer um den spezifischen Workload und Use Case, der in einer Private oder Public Cloud abgebildet wird. Es zeigt aber einen deutlichen Trend hin zu einer weiteren Form wie Cloud Computing in Zukunft genutzt wird.

4. Willkommen Hosted Private Cloud

Nachdem ebenfalls Salesforce auf den Zug aufgesprungen ist, wird klar, dass Unternehmenskunden sich mit der Nutzung einer reinen Public Cloud nicht anfreunden können. In Kooperation mit HP hat Salesforce eine dedizierte Variante seiner Cloud Angebote angekündigt – „Salesforce Superpod“.

Dieser extreme Wandel in Salesforce Strategie bestätigt unsere Untersuchung des europäischen Cloud Markts. Unternehmen sind interessiert an Cloud Computing und dessen Eigenschaften (Skalierbarkeit, Flexibilität oder Pay per use). Allerdings gestehen sie sich selbst ein, dass sie nicht über das Wissen und die Zeit verfügen oder es einfach nicht (mehr) zu ihrem Kerngeschäft gehört, IT-Systeme zu betreiben und dies stattdessen von dem Cloud-Anbieter übernehmen lassen. Es geht also um eine flexible Art von Managed Services. Darauf sind Public Cloud Anbieter nicht vorbereitet, da ihr Geschäft darin besteht, hochstandardisierte Infrastrukturen, Plattformen, Applikationen und Services bereitzustellen.

Hier besteht die Chance für Anbieter von Business Clouds. Also Cloud Anbieter, die kein Public Cloud Modell fahren, sondern anhand von Managed Services den Kunden dabei helfen, den Weg in die Cloud zu meistern und den Betrieb übernehmen und damit einen „Alles aus einer Hand“ Service bieten. Das erfolgt im Normalfall nicht auf einer Shared-Infrastructure sondern innerhalb einer Hosted Private Cloud bzw. einer Dedicated Cloud bei der sich ein Kunde explizit in einem isolierten Bereich befindet. Professional Services runden das Portfolio ab, die bei der Integration, Schnittstellen und der Weiterentwicklung helfen. Business Clouds sind auf Grund dieser Serviceleistungen, Exklusivität und höherer Sicherheit (in der Regel physikalische Isolation) teurer als Public Clouds. Betrachtet man jedoch den Aufwand, den man als Unternehmen selbst in der einen oder anderen Public Cloud betreiben muss, um tatsächlich erfolgreich zu sein oder sich Hilfe von einem der zertifizierten Systemintegratoren holt, dann ist der Kostenvorteil meist eliminiert.

5. Die Hybrid Cloud bleibt der Dauerbrenner

Die Hybrid Cloud ist ein Dauerbrenner während der Diskussionen um die Zukunft der Cloud. Aber sie ist real. International wird die die Public Cloud zunächst überwiegend eingesetzt, um kurzfristig auf Ressourcen und Systeme ohne großen Aufwand und bequem Zugriff zu erhalten. Langfristig betrachtet wird sich dies in eine Hybrid Cloud formen, indem IT-Abteilungen auch ihre eigenen Infrastrukturen auf das Level einer Public Cloud (Skalierbarkeit, Self-Service, usw.) bringen, um ihre internen Kunden zu versorgen. In Deutschland und Europa ist es genau umgekehrt. Hier wird bevorzugt auf Private Clouds gesetzt, da die Themen Datenschutz und Datensicherheit höchste Priorität besitzen. Europäer müssen und werden sich erst an die Public Cloud gewöhnen, um gewisse Teile – zum Teil auch kritischere Systeme – mit einer Public Cloud zu verbinden oder teilweise darin auszulagern.

Grundsätzlich wird es bei der Hybrid Cloud verstärkt um die Beweglichkeit der Daten gehen. Das bedeutet, dass die Daten eher lokal in einer eigenen Infrastruktur gehalten werden und für die Verarbeitung in eine andere Cloud, z.B. Public Cloud, verschoben wird, um anschließend wieder innerhalb der lokalen Infrastruktur abgelegt zu werden. Dabei muss es sich nicht immer wieder um dieselbe Cloud eines Anbieters handeln, sondern je nach Kosten, Service Level und Anforderungen mehrere Clouds betreffen.

6. Die Multi Cloud ist Realität

Das Thema Multi-Cloud wird derzeit insbesondere im IaaS-Umfeld stark diskutiert, um das Risiko zu streuen und die Kosten und Leistungen unterschiedlicher Cloud-Infrastrukturen optimal ausnutzen zu können. Aber ebenfalls im SaaS-Umfeld muss das Thema unbedingt eine höhere Bedeutung zugesprochen werden, um Daten- und Insellösungen in Zukunft zu vermeiden, die Integration zu vereinfachen und Unternehmen bei ihrer Adaption ihrer Best-of-Breed Strategie zu unterstützen.

Ungeachtet diesen Erwartungen ist der Multi-Cloud Einsatz bereits Realität, indem Unternehmen mehrere Cloud Lösungen von vielen unterschiedlichen Anbietern einsetzen, auch wenn diese noch nicht (vollständig) miteinander integriert sind.

Mehr unter „Wir leben bereits in einer Multi-Cloud getriebenen Welt„.

7. Die Mobile Cloud kommt endgültig an

Mittlerweile gibt es Anbieter, die den Mobile Cloud Claim für ihr Marketing entdeckt haben. Viel zu spät. Tatsache ist, dass wir seit der Einführung der ersten Smartphones in einer Mobile Cloud Welt leben. Der Großteil aller Daten und Informationen, auf die wir von Smartphones und Tablets zugreifen, befinden sich nicht mehr auf dem lokalen Endgerät sondern auf einem Server in der Cloud.

Lösungen wie Amazon WorkSpaces oder Amazon AppStream unterstützen diesen Trend. Auch wenn Unternehmen noch vorsichtig mit dem Auslagern von Desktops sind, wird Amazon WorkSpaces diesen Trend stärken, wovon auch Anbieter wie Citrix und VMware profitieren werden. Amazon AppStream unterstreicht die Mobile Cloud im vollen Umfang, indem graphikintensive Anwendungen und Spiele vollständig in der Cloud verarbeitet und nur auf das Endgerät gestreamed werden.

Mehr unter „Die Mobile Cloud ist der wahre Megatrend“ und „Die Bedeutung von mobilen und cloud-basierten Arbeitsweisen wächst stetig„.

8. Hybrid PaaS ist der Top-Trend

Die Bedeutung von Platform-as-a-Services (PaaS) nimmt stetig zu. Beobachtungen und Gespräche mit Anbietern, die bisher kein Mittel gegen Amazon AWS im Infrastructure-as-a-Service (IaaS) Umfeld gefunden haben, zeigen, dass diese ihre reinen Compute und Storage Angebote vertikal um einen PaaS erweitern werden und damit versuchen, die Gunst der Entwickler zu gewinnen.

Andere Trends zeigen, dass Private PaaS bzw. Hosted Private PaaS versuchen Marktanteile zu gewinnen. cloudControl hat mit der Application Lifecycle Engine seinen Public PaaS in einen Private PaaS gekapselt, mit dem Unternehmen einen eigenen PaaS in einer selbstverwalteten Infrastruktur betreiben können. Zusätzlich lässt sich eine Brücke zu einem Hybrid PaaS aufspannen. IaaS Anbieter Pironet NDH hat das Windows Azure Pack von Microsoft adaptiert, um auf dieser Basis einen Azure PaaS innerhalb einer gehosteten privaten Umgebung anzubieten. Das ist aus diesem Grund interessant, da hiermit die Lücke zwischen einem Public und einen Private PaaS geschlossen wird. Mit einem Private PaaS haben Unternehmen zwar wieder vollständige Kontrolle über die Umgebung, müssen diese aber ebenfalls aufbauen und verwalten. Innerhalb einer gehosteten Variante sorgt der Anbieter dafür.

9. Partner Ökosysteme werden wichtiger

Public Cloud Anbieter sollten sich verstärkt darum kümmern, ein hochqualitatives Netzwerk von Partnern und ISVs aufzubauen, um Kunden den Weg in die Cloud zu ebnen. Das bedeutet, dass der Channel verstärkt in Anspruch genommen werden sollte, um auf eine breite Basis von Kunden zu treffen, die potentielle Kandidaten für die Cloud sind. Der Channel wird jedoch mit dem Problem kämpfen, ausreichend gut ausgebildete Mitarbeiter für das Zeitalter der Cloud zu finden.

10. Cloud Computing wird einfacher

In 2014 werden Angebote auf dem Markt erscheinen, welche die Nutzung des Cloud Computing einfacher machen. Bei diesen Angeboten muss den „Randthemen“ der Verfügbarkeit und Skalierbarkeit weniger Beachtung gewidmet werden. Stattdessen können sich Cloud Nutzer auf ihre tatsächlichen Kernkompetenzen konzentrieren und ihre Energie in die Entwicklung der eigentlichen Applikation investieren.

Ein Beispiel: Infrastructure-as-a-Service Marktführer Amazon AWS sagt zwar, dass sich IT-Abteilungen durch die Nutzung der AWS Public Cloud nicht mehr um die Beschaffung und Wartung der notwendigen physikalischen Infrastruktur kümmern müssen. Stattdessen verlagert sich die Komplexität jedoch eine Ebene höher. Auch wenn mittlerweile zahlreiche Tutorials und Whitepaper existieren, spricht AWS öffentlich nicht aussagekräftig darüber, dass Skalierbarkeit und Verfügbarkeit innerhalb einer Scale-out Cloud Infrastruktur beliebig kompliziert werden kann. Das sind Kosten die niemals vernachlässigt werden dürfen.

Ein Tipp: (Hosted) Community Clouds

Ich sehe ein wachsendes Potential für die Community Cloud (MEHR HIER), die derzeit noch keine große Verbreitung hat. In diesem Zusammenhang sehe ich zudem einen Wechsel von einer zurzeit stark ausgeprägten Zentralität zu einer Semi-Dezentralität.

Die meisten Unternehmen und Organisationen sehen in der Public Cloud einen großen Vorteil und wollen in ihren Genuss kommen, um Kosten zu reduzieren, ihre IT zu konsolidieren und gleichermaßen mehr Skalierbarkeit und Flexibilität erhalten. Auf der anderen Seite sind Zukunftssicherheit, Vertrauen, Unabhängigkeit und Kontrolle wichtige Artefakte, die niemand gerne aufgeben möchte.

Die Community Cloud ist der Mittelweg, um beides zu erreichen. Zukunftssicherheit, Vertrauen, Unabhängigkeit und Kontrolle durch den Einfluss, was in der Community Cloud passiert und die Vorteile einer Public Cloud, durch das Partizipieren von einer echten Cloud Infrastruktur.

Es stehen mittlerweile einige Lösungen bereit, die als Basis für die eigene professionelle Cloud genutzt werden können. Dabei sollte man jedoch immer ein Auge auf die grundlegende Infrastruktur richten, die das Rückgrat der gesamten Cloud bildet. In diesem Zusammenhang darf man auch nicht den Aufwand unterschätzen, den es bedeutet, eine professionelle Cloud-Umgebung aufzubauen, ordnungsgemäß zu betreiben und zu warten. Weiterhin sind die Kosten für die notwendigen physikalischen Ressourcen zu kalkulieren.

Aus diesem Grund macht es für viele kleinere und mittlere Unternehmen, aber auch Bürogemeinschaften, Co-Working Spaces oder regelmäßige Projektpartnerschaften Sinn, den Community Cloud Gedanken in Betracht zu ziehen, um in den Genuss der Public Cloud (Shared Umgebung) zu kommen aber weiterhin Einfluss auf die Zukunftssicherheit, das Vertrauen, die Unabhängigkeit und Kontrolle der Umgebung zu haben und Kostenvorteile u.a. durch Ressourcenallokation zu erzielen. Hierzu sollte man sich zudem überlegen, ein Team aufzubauen, dass sich exklusiv um den Aufbau, Betrieb, die Administration und Wartung der Community Cloud kümmert. Dafür ist kein eigenes Rechenzentrum oder eine Co-Location erforderlich. Ein IaaS-Anbieter kann dazu als ideale Basis für eine Hosted Community Cloud dienen.

Kategorien
Analysen

Kriterien zur Auswahl eines Cloud Storage Anbieter

Die Suche nach einem Cloud-Storage-Anbieter hängt in den meisten Fällen mit den individuellen Anforderungen zusammen, die der Service erfüllen soll. Diese müssen Entscheider im Vorfeld erörtern und festlegen. Dazu gehört vor allem die Klassifizierung der Daten. Dabei wird definiert, welche Daten in der Cloud und welche in der eigenen On-premise-Infrastruktur gespeichert werden.

Dieser Artikel ist exklusiv im IDG-Netzwerk erschienen und kann unter „Wenn Dropbox die falsche Lösung ist: Cloud Storage – wie Sie den richtigen Anbieter finden“ gelesen werden.

Kategorien
Analysen

Die Amazon Web Services greifen nach der Enterprise IT. Ein Realitätscheck.

Die AWS re:Invent 2013 ist vorbei und die Amazon Web Services (AWS) haben mit einigen neuen Services begonnen, die Hände weiter nach den Unternehmenskunden auszustrecken. Nachdem sich AWS als führender Infrastrukturanbieter und Enabler für Startups und neue Geschäftsmodelle in der Cloud etabliert hat, versucht das Unternehmen aus Seattle schon seit geraumer Zeit einen Fuß direkt in das lukrative Unternehmensumfeld zu bekommen. Aktuelle Public Cloud Marktzahlen für das Jahr 2017 von IDC (107 Milliarden Dollar) und Gartner (244 Milliarden Dollar) geben AWS Rückenwind und bestärken den IaaS Marktführer in seiner reinen Public Cloud Strategie.

Die neuen Services

Mit Amazon WorkSpaces, Amazon AppStream, AWS CloudTrail und Amazon Kinesis hat Amazon interessante neue Services präsentiert, die insbesondere Unternehmenskunden adressieren.

Amazon WorkSpaces

Amazon WorkSpaces ist ein Service, der virtuelle Desktops auf Basis von Microsoft Windows bereitstellt, mit dem sich eine eigene Virtual Desktop Infrastructure (VDI) innerhalb der Amazon Cloud aufbauen lässt. Als Basis kommt der Windows Server 2008 R2 zum Einsatz, der Desktops mit einer Windows 7 Oberfläche ausrollt. Alle Services und Applikationen werden aus Amazon Rechenzentren auf die entsprechenden Endgeräte gestreamt, wobei das PCoIP (PC over IP) von Teradici zum Einsatz kommt. Dabei kann es sich um Desktop-PCs, Notebooks, Smartphones oder Tablets handeln. Zudem lässt sich Amazon WorkSpaces mit einer Microsoft Active Directory kombinieren, was die Benutzerverwaltung vereinfacht. Standardmäßig werden die Desktops mit bekannten Anwendungen wie Firefox oder Adobe Reader/ Flash ausgeliefert. Dies lässt sich von den Administratoren beliebig anpassen.

Mit Amazon WorkSpaces betritt Amazon völlig neues Terrain, in welchem mit Citrix und VMware bereits zwei absolute Marktgrößen warten. VMware hatte erst während der VMworld in Barcelona die Übernahme von Desktone bekanntgegeben. VDI ist grundsätzlich ein sehr spannendes Marktsegment, da es die Unternehmens-IT von Administrationsaufgaben erlöst und Infrastrukturkosten reduziert. Allerdings handelt es sich hierbei um ein noch sehr junges Marktsegment. Unternehmen sind zudem noch sehr vorsichtig bei der Auslagerung ihrer Desktops, da anders als bei klassischen on-Premise Terminal Services, die Bandbreite (Netzwerk, Internet, Datenverbindung) von entscheidender Bedeutung ist.

Amazon AppStream

Amazon AppStream ist ein Service, der als ein zentrales Backend für graphisch umfangreiche Applikationen dient. Damit soll die eigentliche Leistung des Endgeräts, auf dem die Applikationen genutzt werden, keine Rolle mehr spielen, da sämtliche Ein- und Ausgaben innerhalb der Amazon Cloud verarbeitet werden.

Da die Leistung der Endgeräte in Zukunft wahrscheinlich eher noch mehr zunehmend wird, muss die lokale Leistung vermutlich nicht berücksichtigt werden. Allerdings ist der Service für den Aufbau einer echten Mobile Cloud, bei der sich sämtliche Daten und Informationen in der Cloud befinden und die Geräte lediglich als Konsumenten genutzt werden, durchaus interessant. Weiterhin ist die Kombination mit Amazon WorkSpaces zu betrachten, um Applikationen auf Endgeräte bereitzustellen, die lediglich als ThinClients dienen und keine weitere lokale Intelligenz und Leistung benötigen.

AWS CloudTrail

AWS CloudTrail hilft beim Überwachen und Aufzeichnen der AWS API Aufrufe von einem oder mehrerer Accounts. Dabei werden Aufrufe über die AWS Management Console, dem AWS Command Line Interface (CLI), von eigenen Anwendungen oder Anwendungen von Drittanbietern berücksichtigt. Die erhobenen Daten werden entweder in Amazon S3 oder Amazon Glacier zur Auswertung gespeichert und lassen sich über die AWS Management Console, dem AWS Command Line Interface oder Tools von Drittanbietern betrachten. Derzeit lassen sich nur Amazon EC2, Amazon ECS, Amazon RDS und Amazon IAM überwachen. Amazon CloudTrail kann kostenlos genutzt werden. Kosten entstehen für das Speichern der Daten auf Amazon S3 und Amazon Glacier sowie für die Benachrichtigungen über Amazon SNS.

AWS CloudTrial gehört, auch wenn er nicht sehr spannend ist (Logging), zu den wichtigsten Services für Unternehmenskunden, die Amazon in letzter Zeit veröffentlicht hat. Die gesammelten Logdateien helfen bei der Compliance, indem sie sämtliche Zugriffe auf AWS Services aufzeichnen und damit das Einhalten von gesetzlichen Rahmenbedingungen nachweisen können. Ebenso verhält es sich mit Sicherheitsaudits, bei denen sich damit Sicherheitslücken und unberechtigte oder fehlerhafte Zugriffe auf Daten nachvollziehen lassen. Amazon ist gut beraten, AWS CloudTrail schnellstmöglich über alle weiteren AWS Services zu erweitern und für sämtliche Regionen weltweit verfügbar zu machen. Insbesondere die Europäer werden es danken.

Amazon Kinesis

Amazon Kinesis ist ein Service zur Echtzeitverarbeitung von großen Datenströmen. Hierzu ist Kinesis in der Lage Datenströme beliebiger Größe aus einer Vielzahl unterschiedlicher Quellen zu verarbeiten. Die Steuerung erfolgt aus der AWS Management Console, indem sich einer Anwendung unterschiedliche Datenströme zuweisen und darüber speichern lassen. Auf Grund von Amazons massiver Skalierbarkeit bestehen keine Kapazitätsbegrenzungen. Allerdings werden die Daten automatisch auf die weltweiten Amazon Rechenzentren verteilt. Als Use Cases für Kinesis gelten die üblichen Verdächtigen: Finanzdaten, Social Media sowie Daten aus dem Internet of Things/ Everything (Sensoren, Maschinen usw.).

Der eigentliche Vorteil von Kinesis, als Big Data Lösung, besteht in der Echtzeitverarbeitung von Daten. Gängige Standard-Lösungen am Markt verarbeiten die Daten via Batch, wodurch die Daten niemals zum direkten Zeitpunkt, sondern maximal ein paar Minuten später verarbeitet werden können. Kinesis hebt diese Barriere auf und ermöglicht neue Möglichkeiten zur Auswertung von Live-Daten.

Herausforderungen: Public Cloud, Komplexität, Self-Service, „Lock-in“

Schaut man auf die aktuellen AWS Referenzen, ist die Quantität als auch die Qualität beeindruckend. Schaut man genauer hin, handelt es sich bei den Top-Referenzen allerdings weiterhin um Startups, unkritische Workloads oder komplett neue Entwicklungen die dort verarbeitet werden. Das bedeutet, dass die meisten bestehenden IT-Systeme, um die es tatsächlich geht, sich noch gar nicht in der Cloud befinden. Das hängt neben den Bedenken vor dem Kontrollverlust und Compliance Themen damit zusammen, dass das Scale-out Prinzip es für Unternehmen beliebig kompliziert macht, ihre Anwendungen und Systeme in die AWS-Cloud zu migrieren. Am Ende läuft es darauf hinaus, dass sie von Vorne beginnen müssen, da ein nicht verteilt entwickeltes System nicht so funktioniert, wie es auf einer verteilten Cloud Infrastruktur laufen sollte – Stichworte: Skalierbarkeit, Hochverfügbarkeit, Multi-AZ. Das sind Kosten die nicht unterschätzt werden sollten. Das führt dazu, dass selbst die Migration eines vermeintlich einfachen Webshops zu Herausforderungen für Unternehmen werden, die nicht über die Zeit und das notwendige Cloud-Wissen verfügen, um den Webshop für die (Scale-out) Cloud Infrastruktur neu zu entwickeln.

Hinzu kommt, dass sich die Skalierbarkeit und Verfügbarkeit einer Applikation auf der AWS Cloud nur sauber realisieren lässt, wenn man sich an die Services und APIs hält, mit denen dies sichergestellt wird. Weiterhin stehen viele weitere infrastrukturnahe Services zur Verfügung bzw. werden ständig veröffentlicht, die das Leben für den Entwickler sichtlich einfacher machen. Der Lock-in ist damit vorprogrammiert. Zwar bin ich auf dem Standpunkt, dass ein Lock-in nichts Schlechtes sein muss, solange der Anbieter die gewünschten Anforderungen erfüllt. Dennoch sollte sich ein Unternehmen vorher überlegen, ob diese Services tatsächlich zwingend benötigt werden. Virtuelle Maschinen und Standard-Workloads lassen sich relativ einfach umziehen. Bei Services, die sehr nah in die eigene Applikationsarchitektur eingreifen, sieht es anders aus.

Zum Schluss. Auch wenn einige Marktforscher der Public Cloud eine goldende Zukunft prophezeien, sollte man die Zahlen nicht zu sehr auf die Goldwaage legen. Cloud Marktzahlen werden schon seit Jahren immer mal wieder nach unten korrigiert. Außerdem muss man im Einzelfall betrachten, wie sich diese Zahlen tatsächlich zusammensetzen. Aber darum geht es hier nicht. Am Ende des Tages geht es darum, was der Kunde will. Andy Jassy hat auf der re:Invent noch einmal deutlich gemacht, dass Amazon AWS konsequent auf die Public Cloud setzen wird und in keine eigenen Private Cloud Lösungen investieren wird. Man kann dies nun als Arroganz und Ignoranz gegenüber den Kunden, dem puren Willen nach Disruption oder einfach nur Selbstbestätigung interpretieren. Fakt ist, auch wenn Amazon wohl die Private Cloud für die CIA bauen wird, haben sie bei weitem nicht die Ressourcen und Kenntnisse, um als Softwareanbieter am Markt aufzutreten. Amazon AWS ist ein Service-Anbieter. Allerdings haben sie mit Eucalyptus einen starken Verbündeten auf der Private Cloud Seite, der es ermöglicht eine AWS-ähnliche Cloud Infrastruktur im eigenen Rechenzentrum aufzubauen.

Anmerkung hierzu: Nahezu alle Eucalyptus Kunden sollen ebenfalls AWS Kunden sein (Quelle: Eucalyptus). Das bedeutet im Umkehrschluss, dass einige Hybrid Cloud Infrastrukturen zwischen on-Premise Eucalyptus Infrastrukturen und der Amazon Public Cloud bestehen.

Vorteile: AWS Marketplace, Ökosystem, Enabler, Innovationstreiber

Was bei den ganzen Diskussionen um Amazon AWS und Unternehmenskunden leider immer wieder kläglich vergessen und auch von Amazon viel zu wenig beworben wird, ist der AWS Marketplace. Im Vergleich zu der Cloud Infrastruktur, die Kunden nutzen können, um eigene Lösungen zu entwickeln, bietet der Marketplace voll funktionsfähige Softwarelösungen von Partnern (z.B. SAP), die auf der AWS Infrastruktur automatisch ausgerollt werden können. Die Kosten für die Nutzung der Software werden pro Stunde oder pro Monat abgerechnet. Hinzu kommen die AWS Gebühren für die dafür benötigte Infrastruktur. Hier steckt der eigentliche Mehrwert für Unternehmen, ihre bestehenden Standardsysteme bequem in die Cloud auszulagern und sich von den on-Premise Systemen zu trennen.

Man muss bei den Amazon Web Services daher strikt zwischen der Nutzung von Infrastruktur für die Eigenentwicklung und dem Betrieb von fertigen Lösungen trennen. Beides ist in der der Amazon Cloud möglich. Hinzu kommt das Ökosystem von Partnern und Systemintegratoren, die AWS Kunden dabei helfen, ihre Lösungen zu entwickeln. Denn auch wenn AWS selbst (derzeit noch) ein reiner Infrastruktur Anbieter ist, müssen sie gleichermaßen als Plattform für andere Anbieter und Partner verstanden werden, die darauf ihre Geschäfte betreiben. Darin besteht auch der maßgebliche Erfolg und Vorteil gegenüber anderen Anbietern am Markt und wird langfristig die Attraktivität bei den Unternehmenskunden erhöhen.

Hinzu kommt, dass Amazon der absolute Innovationstreiber in der Cloud ist, dem kein anderer Cloud-Anbieter derzeit technologisch das Wasser reichen kann. Dazu bedarf es keiner re:Invent. Stattdessen zeigt sich dies nahezu jeden Monat von Neuem.

Amazon AWS ist – bedingt – tauglich für die Enterprise IT

Je nach Land und Use Case variieren die Anforderungen, die Amazon für Unternehmen erfüllen muss. Europäische Kunden sind hier meist bedachter mit der Datenhaltung und speichern die Daten lieber im eigenen Land. Ich saß schon mit mehr als einem Kunden zusammen, der technisch überzeugt war aber das Speichern der Daten in Irland nicht in Frage kam. In einigen Fällen ist es aber auch die fehlende Einfachheit der Nutzung. Das bedeutet, dass ein Unternehmen seine bestehende Anwendung oder Webseite nicht für die Amazon Infrastruktur (neu) entwickeln möchte. Gründe hierfür sind die fehlende Zeit und das Wissen um dies umzusetzen, was gleichzeitig zu einen längeren Time to Market führen würde. Beides lässt sich auf die Komplexität zurückführen, um auf den Amazon Web Services Skalierbarkeit und Verfügbarkeit zu erreichen. Es sind nun einmal nicht nur ein paar API-Aufrufe. Stattdessen muss die vollständige Architektur auf die AWS Cloud ausgerichtet werden. In Amazons Fall liegt es insbesondere an der horizontalen Skalierung (scale-out) die dies erforderlich macht. Die Unternehmen würden lieber die vertikale Skalierung (scale-up) bevorzugen, um das bestehende System 1:1 migrieren zu können und nicht von vorne zu beginnen, sondern direkt in der Cloud Erfolge zu erzielen.

Die AWS Referenzen zeigen allerdings auch, dass ausreichend Use Cases für Unternehmen in der Public Cloud existieren, bei denen die Datenhaltung eher als unkritisch betrachtet werden kann, solange die Daten vorher klassifiziert und anschließend verschlüsselt abgelegt werden.

Analysten Kollege Larry Carvalho hat sich auf der re:Invent mit ein paar AWS Unternehmenskunden unterhalten. Ein Kunde hat eine gehostete Webseite auf AWS für weniger als $7.000 Dollar implementiert, wofür ein anderer Systemintegrator $70.000 berechnen wollte. Ein anderer Kunde hat ausgerechnet, dass er für eine on-Premise Business Intelligence Lösung inkl. Wartung etwa $200.000 pro Jahr zahlen würde. Auf Amazon AWS lediglich $10.000 pro Jahr. Diese Beispiele zeigen, dass AWS auf der einen Seite ein Enabler ist. Auf der anderen Seite aber auch, dass die Sicherheitsbedenken in einigen Fällen den Kosteneinsparungen in den Unternehmen weichen werden.

Kategorien
Analysen

Runtastic: Als Consumer App in der Business Cloud

Die Erfolgsmeldungen aus der Public Cloud reißen nicht ab. Ständig erscheinen neue Web- und mobile Applikationen, die auf Infrastructure-as-a-Service (IaaS) Angebote setzen. Das ist nur ein Grund, der Marktforscher wie IDC (107 Milliarden Dollar) und Gartner (244 Milliarden Dollar) dazu bewegt, der Public Cloud bis zum Jahr 2017 eine vermeintlich goldene Zukunft zu bescheinigen. Den Erfolg der Public Cloud kann man nicht wegdiskutieren, die Fakten sprechen für sich. Jedoch sind es derzeit überwiegend Startups und vielmals unkritische Workloads die sich in die Public Cloud bewegen. Spricht man hingegen mit IT-Entscheidern von Unternehmen, die über ausgewachsene IT-Infrastrukturen verfügen, sieht die Realität anders aus. Das zeigt auch unsere Studie über den Europäischen Cloud Markt. Insbesondere der Self-Service und die Komplexität wird von den Public Cloud Anbietern unterschätzt, wenn sie auf Unternehmenskunden zugehen. Aber auch für junge Unternehmen ist die Public Cloud nicht zwangsläufig die beste Wahl. Ich habe kürzlich mit Florian Gschwandtner (CEO) und Rene Giretzlehner (CTO) von Runtastic gesprochen, die sich gegen die Public Cloud und für eine Business Cloud, genauer T-Systems, entschieden haben.

Runtastic: Von 0 auf über 50.000.000 Downloads in drei Jahren

Runtastic besteht aus einer Reihe von Apps für Ausdauer, Kraft & Toning, Gesundheit & Wellness sowie Fitness und hilft den Nutzern dabei ihre Gesundheits- und Fitnessziele zu erreichen.

Das Unternehmen wurde im Jahr 2009 in Linz (Österreich) gegründet und hat auf Grund seines enormen Wachstums in der internationalen Mobile Health und Fitness-Branche mittlerweile Standorte in Linz, Wien und San Francisco. Die Wachstumszahlen sind beeindruckend. Nach 100.000 Downloads im Juli 2010 sind es mittlerweile über 50.000.000 Downloads (Stand: Oktober 2013). Davon alleine 10.000.000 Downloads in Deutschland, Österreich und der Schweiz, was in etwa mehr als ein Download pro Sekunde bedeutet. Runtastic verfügt über 20.000.000 registrierte Nutzer, bis zu 1.000.000 täglich aktive Nutzer und mehr als 6.000.000 monatlich aktive Nutzer.


Quelle: Runtastic, Florian Gschwandtner, November 2013

Neben den mobilen Apps setzt Runtastic ebenfalls auf das Angebot eigener Hardware, um die Apps und Services bequemer nutzen zu können. Ein weiterer interessanter Service ist das „Story Running“, der zu mehr Abwechslung und Action beim Laufen führen soll.

Runtastic: Gründe für die Business Cloud

Angesichts dieser Wachstumszahlen und Anzahl der ständig wachsenden Apps und Services ist Runtastic ein idealer Kandidat für eine Cloud Infrastruktur. Im Vergleich zu ähnlichen Angeboten sogar für eine Public Cloud. Möge man meinen. Runtastic begann mit seiner Infrastruktur bei einem klassischen Webhoster – ohne Cloud Modell. In den vergangenen Jahren wurden einige Erfahrungen mit unterschiedlichen Anbietern gesammelt. Auf Grund der ständigen Expansion, neuer Rahmenbedingungen, der wachsenden Kundenanzahl und der Bedarf an Hochverfügbarkeit war der Grund die Infrastruktur in eine Cloud auszulagern.

Dabei war eine Public Cloud für Runtastic nie eine Option, da der dedizierte(!) Speicherort der Daten höchste Priorität besitzt und das nicht nur auf Grund von Sicherheitsaspekten oder dem NSA-Skandal. So kamen die Amazon Web Services (AWS) allein aus technischen Gründen nicht in Frage, da viele Ansprüche von Runtastic sich darauf nicht abbilden lassen. Unter anderem umfasst die Kerndatenbank in etwa 500GB auf einem einzelnen MySQL-Node, was laut Giretzlehner AWS nicht erfüllen kann. Zudem sind die Kosten in einer Public Cloud für solche großen Server dermaßen teuer, das sich eine eigene Hardware schnell rechnet.

Stattdessen hat sich Runtastic für die Business Cloud von T-Systems entschieden. Gründe hierfür waren ein gutes Setup, ein hoher Qualitätsanspruch sowie zwei Rechenzentren an einem Standort (in zwei getrennten Gebäuden). Hinzu kommt ein hoher Sicherheitsstandard, ein professioneller technischer Service als auch die Kompetenz der Mitarbeiter und Ansprechpartner und eine sehr gute Anbindung an die Internetknoten in Wien und Frankfurt.

Dabei kombiniert Runtastic das Colocation Modell mit einem Cloud-Ansatz. Das bedeutet, dass Runtastic die Grundlast mit eigener Hardware abdeckt und Lastspitzen über Infrastructure-as-a-Service (IaaS) Rechenleistung von T-Systems abfängt. Das Management der Infrastruktur läuft automatisiert mittels Chef. Der Großteil der Infrastruktur ist zwar virtualisiert. Allerdings fährt Runtastic einen hybriden Ansatz. Das bedeutet, dass die Kerndatenbank, der Storage und der NoSQL Cluster auf Bare Metal (nicht virtualisiert) betrieben werden. Auf Grund der globalen Reichweite (90 T-Systems Rechenzentren weltweit) kann Runtastic auch in Zukunft sicherstellen, dass alle Apps nahtlos und überall funktionieren.

Eine etwas unkonventionelle Entscheidung ist der Drei-Jahresvertrag, den Runtastic mit T-Systems eingegangen ist. Dazu gehören das Housing der zentralen Infrastruktur, ein redundanter Internetzugang sowie der Bezug von Rechenleistung und Speicherplatz aus der T-Systems Cloud. Runtastic hat sich für dieses Modell entschieden, da sie die Partnerschaft mit T-Systems langfristig sehen und nicht von heute auf morgen die Infrastruktur verlassen wollen.

Ein weiterer wichtiger Grund für eine Business Cloud war der direkte Draht zu Ansprechpartnern und Professional Services. Das spiegelt sich zwar auch in einem höheren Preis wieder, den Runtastic jedoch bewusst in Kauf nimmt.

Es geht auch ohne Public Cloud

Runtastic ist das beste Beispiel dafür, dass junge Unternehmen auch ohne eine Public Cloud erfolgreich sein können und eine Business Cloud definitiv eine Option ist. Zwar setzt Runtastic nicht vollständig auf eine Cloud-Infrastruktur. Jedoch muss in jedem Einzelfall der Business Case gerechnet werden, ob es sich (technisch) lohnt, Teile in eine eigene Infrastruktur zu investieren und die Lastspitzen per Cloud-Infrastruktur abzufangen.

Man sieht an diesem Beispiel allerdings auch, dass die Public Cloud kein Selbstgänger für die Anbieter ist und Beratung und Professional Services aus einer Business bzw. Managed Cloud gefragt sind.

Während der Keynote auf der AWS re:Invent 2013 präsentierte Amazon AWS seinen Vorzeigekunden Netflix und dessen Netflix Cloud Plattform (siehe Video, ab 11 Minuten), die speziell für die Amazon Cloud Infrastruktur entwickelt wurde. Amazon verkauft die Netflix Tools selbstverständlich als einen positiven Aspekt, was sie definitiv sind. Allerdings verschweigt Amazon den Aufwand, den Netflix betreibt, um die Amazon Web Services zu nutzen.

Netflix zeigt sehr eindrucksvoll wie eine Public Cloud Infrastruktur via Self-Service genutzt wird. Wenn man jedoch bedenkt, was für einen Aufwand Netflix betreibt, um in der Cloud erfolgreich zu sein, muss man einfach sagen, dass Cloud Computing nicht einfach ist und eine Cloud Infrastruktur, egal bei welchem Anbieter, mit der entsprechenden Architektur aufgebaut werden muss. Das bedeutet im Umkehrschluss, dass die Nutzung der Cloud nicht immer zu den versprochenen Kostenvorteilen führt. Neben den Einsparungen der Infrastrukturkosten die immer vorgerechnet werden, dürfen niemals die weiteren Kosten z.B. für das Personal mit den notwendigen Kenntnissen und die Kosten für die Entwicklung der skalierbaren und ausfallsicheren Applikation in der Cloud vernachlässigt werden.

In diesem Zusammenhang sollte auch der übermäßige Einsatz von infrastrukturnahen Services überdacht werden. Auch wenn diese das Entwicklerleben vereinfachen. Als Unternehmen sollte man sich vorher überlegen, ob diese Services tatsächlich zwingend benötigt werden, um sich alle Türen offen zu halten. Virtuelle Maschinen und Standard-Workloads lassen sich relativ einfach umziehen. Bei Services, die sehr nah in die eigene Applikationsarchitektur eingreifen, sieht es anders aus.

Kategorien
Analysen

Airbus trennt den Reisenden vom Gepäck #tsy13

Auf dem T-Systems Symposium 2013 hat Airbus mit Bag2Go einen intelligenten Koffer vorgestellt, der völlig autark ohne den Eigentümer reisen und zum Zielort transportiert werden kann. Reisenden möchte Airbus damit mehr Flexibilität und Mobilität ermöglichen, indem sie Gepäckfrei mit dem Flugzeug, Schiff, Zug, Auto, auf dem Fahrrad oder zu Fuß an das Ziel gelangen. Der Bag2Go Services setzt hierzu auf der Business Cloud Infrastruktur von T-Systems auf.

Hintergrund zu Bag2Go

Ein Bag2Go verfügt über eine selbstständige Gewichtsanzeige, die Möglichkeit eines automatisierten Check-Ins; er kann selbstständig befördert werden und verfügt über Funktionen einer kontinuierlichen Verfolgung. Hinzu kommt, dass laut Airbus sämtliche Normen, die heute Standard sind, konsequent eingehalten werden, so dass die aktuelle Infrastruktur an Flughäfen nicht verändert werden muss. Anhand einer Smartphone App lässt sich der Status und Aufenthaltsort ständig überwachen.

Airbus plant mit unterschiedlichen Transportdiensten (z.B. DHL) zusammenzuarbeiten. So kann der Reisende bspw. mit dem Flugzeug an den Zielort fliegen, sein Gepäck aber auf dem Landweg, dem Schiff oder einem anderen Flugzeug an das Ziel gelangen. Paketservices oder Haus-zu-Haus-Gepäckbeförderungsdienste sollen den Transport des Gepäcks an jeden beliebigen Bestimmungsort im In- oder Ausland im Rahmen einer Hotel- oder Kreuzfahrtbuchung übernehmen.

Eine Nachverfolgung ist grundsätzlich praktisch, ergibt aber nur Sinn, wenn man auch in das Geschehen eingreifen kann. Hierzu setzt Airbus auf ein GPS-Tracking in Zusammenarbeit mit einem Transportdienstleister, z. B. Transport/Logistik oder die Fluggesellschaft.

Motivation von Airbus

Airbus hat das Bag2Go Konzept natürlich nicht ohne Eigennutzen entwickelt. Es geht darum, bereits heute die ersten Weichen für die Flugzeuge der Zukunft zu stellen. Das bedeutet, dass Airbus nachhaltige und ultraleichte Flugzeugtypen bauen wird, für die so wenig Gewicht wie möglich benötigt wird. Zugleich wird auch der Treibstoffverbrauch dadurch signifikant sinkenden. Das schwere Gepäck aus dem Flugzeug zu entfernen ist dabei die Schlüsselkomponente. Die Trennung der Passagier- und Gepäckströme versetzt Airbus und die gesamte Branche somit in die Lage, die Gepäckbeförderung proaktiv zu steuern und völlig neue Geschäftschancen zu erschließen.

Laut Airbus wird die Containerisierung von Gepäck kontinuierlich an Bedeutung gewinnen, da immer mehr Menschen eine Haus-zu-Haus-Beförderungen in Anspruch nehmen werden und ihr Gepäck bis zu drei Tage vor dem Abflug aufgeben oder einen Gepäckaufgabe-Kiosk nutzen. Aus diesem Grund wird Airbus versuchen vollständig vernetzte Transportkapseln als Standard zu etablieren.

Interessanter Ansatz – Aber nicht für jeden

Airbus steht mit seinem Konzept weniger technischen aber mehr rechtlichen Problemen gegenüber. So müssen ein Reisender und sein Gepäck zusammen fliegen. Ein Koffer darf maximal „nachfliegen“, aber nicht alleine oder gar „vorfliegen“. Hinzu kommt, dass Geschäftsleute während des Vortrags die Gepäckabgabe drei Tage im Voraus in Frage gestellt haben, da sie selbst maximal eine Stunde vor dem Flug den Koffer packen. Ein paar weitere Gespräche nach dem Vortrag bestätigten die allgemeine Meinung und Einstellungen von Geschäftsreisenden zu dem Thema.

Dennoch handelt es sich bei Bag2Go um ein interessantes Konzept, was wir bald in der Realität erleben werden und gleichzeitig um einen spannenden Use Case für das Internet of Things. Bag2Go bildet dabei analog die Architektur des Internet Routings ab, wo einzelne IP-Pakete eines normalerweise zusammenhängen Datenstroms auch unterschiedliche Wege zum Ziel nehmen können.

Kategorien
Analysen

Die vollständig vernetzte Welt wird Wirklichkeit #tsy13

Unternehmen sind in ihrem Alltag ständig kürzeren Veränderungszyklen ausgesetzt. Dabei ist die Consumerization of IT ein großer Treiber, die auch in Zukunft eine wichtige Bedeutung behalten wird. Seit mehreren Jahren zeigen Mobilität, Cloud, neue Applikationen, das Internet of Things und Big Data (Analysen) ihre Auswirkungen. Neben diesen technologischen Einflüssen sind es aber auch die geschäftlichen Auswirkungen wie neue Geschäftsmodelle, ständiges Wachstum, Globalisierung und gleichzeitig die Themen Sicherheit und Compliance die zu neuen Herausforderungen führen.

Die Evolution des Internets hinterlässt ihre Spuren

Betrachtet man die Evolution des Internets, wird deutlich, dass die Auswirkungen auf die Unternehmen und unsere Gesellschaft mit dem Wachstum von intelligenten Verbindungen wachsen. Gestartet mit einfachen Verbindungen über E-Mail oder Web und damit der Digitalisierung des Informationszugangs, folgte die vernetzte Wirtschaft, bei der es mit E-Commerce und Collaboration darum ging, Geschäftsprozesse zu digitalisieren. Anschließend folgte etwas, das Cisco als „Realitätsnahe Erfahrungen“ bezeichnet. Dazu gehört die Digitalisierung von geschäftlichen und sozialen Interaktionen wie Social Media, Mobile und Cloud. Der nächste Zustand den wir erreichen werden ist das „Internet of Everything“, bei dem Menschen, Prozesse, Daten und Dinge verbunden werden – die Digitalisierung der Welt.

Jeder Baustein hat im Internet of Everything seine eigene Bedeutung. Die Verbindungen zwischen den Menschen werden relevanter und wertvoller. Die richtige Person oder auch Maschine erhält über intelligente Prozesse zum richtigen Zeitpunkt die richtigen Informationen. Die Daten werden zu wertvolleren Informationen für die Entscheidungsfindung verarbeitet. Physische Geräte (Dinge) werden über das Internet untereinander vernetzt, um die intelligenten Entscheidungen zu ermöglichen.

Auf dem T-Systems Symposium 2013 in Düsseldorf sagte Cisco, dass sie im Jahr 2020 etwa 50 Milliarden untereinander vernetzte Smart Objects erwarten. Hingegen wird dann weltweit gerade einmal mit 7,6 Milliarden Menschen gerechnet. Weiterhin ist Cisco der Meinung, dass derzeit 99 Prozent der Welt noch nicht vernetzt ist und wir in Zukunft Billionen von Smart Sensors sehen werden. Diese werden unter anderem in intelligenten Gebäuden, Städten oder Häusern verbaut und dabei helfen Energie zu sparen und effizienter zu leben. Sie werden aber ebenfalls dazu führen, die Produktivität zu erhöhen oder das Gesundheitswesen zu verbessern.

Technologische Grundlagen für die vollständig vernetzte Welt

Auf Grund seiner massiven Skalierbarkeit, Verteilung, neuartigen Anwendungen und den Möglichkeiten des Überallzugriffs, ist die Cloud eine der Hauptgrundlagen für die vollständig vernetzte Welt. Ciscos Cloud Strategie besteht daher darin, Cloud Anbieter und Unternehmen es zu ermöglichen, unterschiedliche Arten von Cloud Services bereitzustellen und zu „brokern“. Gleichzeitig sollen von Cisco Applikationsplattformen für verschiedene Cloud Kategorien angeboten werden.

Die Cloud muss allerdings um Ansätze aus dem Internet der Dinge angereichert werden. Dazu gehören intelligentere Geschäftsprozesse, Menschen zu Machine-2-Machine Kommunikation sowie weitere Dinge wie Sensoren und Aktoren die überall verteilt sind. Im Endeffekt ist eine weltweit stark skalierbare Infrastruktur notwendig, die zeitliche Schwankungen und Anforderungen zwischen den unterschiedlichen Workloads steuern kann.

Eine weitere Schlüsselkomponente ist daher etwas, dass Cisco als Fog Computing bezeichnet. Der Fog hat die Aufgabe, Daten und Workloads näher an den Nutzer zu bringen, der sich am Rande einer Datenverbindung befindet. In diesem Zusammenhang wird dann auch vom „Edge Computing“ gesprochen. Der Fog befindet sich organisatorisch unterhalb der Cloud und dient als optimiertes Übertragungsmedium für die Services und Daten, die sich in der Cloud befinden. Der Begriff „Fog Computing“ wurde von Cisco als ein neues Paradigma geprägt, der verteilte Endgeräte innerhalb des Internet of Things bei dem kabellosen Datentransfer unterstützen soll. Fog Computing baut konzeptionell auf bestehende und weit verbreitete Technologien wie den Content Delivery Networks (CDN) auf, soll aber, auf Grund von Cloud Technologien, das Bereitstellen von viel komplexeren Services ermöglichen.

Da immer größere Datenmengen an eine immer größer werdende Anzahl an Benutzern ausgeliefert werden müssen, sind Konzepte notwendig, welche die Idee der Cloud verbessern und es Unternehmen und Anbietern ermöglichen, ihre Inhalte an den Endkunden über eine geographisch weit verbreitete Plattform bereitzustellen. Fog Computing soll dabei helfen, die verteilten Daten näher an den Endkunden zu transportieren und dabei die Latenz und Anzahl der dafür benötigten Hops zu verringern und Mobile Computing und Streaming Services dadurch besser zu unterstützen. Neben dem Internet of Things ist die steigende Nachfrage der Nutzer, zu jeder Zeit, von jedem Ort und mit jedem Gerät auf ihre Daten zugreifen zu können, ein weiterer Grund, warum die Idee des Fog Computing an Bedeutung zunehmen wird.

Die wesentliche Eigenschaft des Fog Computing besteht also darin, dass Workloads völlig autark von der Cloud agieren können, um den schnellen, nahen und stabilen Zugriff eines Service sicherzustellen.

Die vernetzte Welt benötigt intelligentere Technologien

Um die Cloud als die grundlegende Basis für das Internet of Things bzw. des Internet of Everything zu nutzen, müssen noch einige Hürden aus dem Weg geschafft werden. Das aktuelle Cloud Bereitstellungsmodell sieht vor, dass die Daten, in der Regel, direkt und ohne eine Zwischenschicht zum Endgerät bzw. den Endnutzer ausgeliefert werden. (Anmerkung: Es existieren bereits CDN und Edge Locations, die für das Caching und somit Beschleunigen sorgen.) Es wird daher davon ausgegangen, dass die Bandbreite zur Übertragung der Daten maximal ist und theoretisch eine Verzögerung von Null existiert. Das ist jedoch nur theoretisch der Fall. In der Praxis sorgen hohe Latenzen und somit Verzögerungen, eine schlechte Elastizität und die zur Bandbreite wesentlich schneller ansteigenden Datenmengen, für Probleme.

Aus diesem Grund sind Ansätze wie Fog Computing erforderlich, um davon ausgehen zu können, dass eine limitierte Bandbreite vorhanden, unterschiedliche Verzögerungszeiten sowie unterbrochene Verbindungen vorhanden sind. Ideen wie der Fog etablieren sich als eine intelligente Zwischenschicht, Cache bzw. wie eine Art Verstärker und koordinieren die Anforderungen unterschiedlicher Workloads, Daten und Informationen, so dass diese unabhängig voneinander und performant an die Objekte im Internet of Everything ausgeliefert werden.

Kategorien
Analysen

So lassen sich Schatten-IT und Covered Clouds auflösen #tsy13

Die Schatten-IT oder wie VMware es nennt, Covered Clouds (versteckt genutzte Cloud Services) sind ein großes Problem für Unternehmen. Einer VMware Studie zufolge vermuten 37 Prozent der führenden europäischen IT-Entscheider in ihren Unternehmen nicht erfasste Ausgaben für Cloud-Services. 58 Prozent der europäischen Wissensarbeiter würden ungenehmigte Cloud-Services nutzen.

Pro und Kontra für Schatten-IT (Covered Clouds)

Diese unerlaubte Nutzung hat auch ihre finanziellen Einflüsse. In den betroffenen Unternehmen vermuten Führungskräfte aus dem IT-Bereich, dass durchschnittlich 1,6 Millionen Euro ohne Erlaubnis des Unternehmens ausgegeben werden. Dies macht im Durchschnitt 15 Prozent des jährlichen IT-Budgets dieser Unternehmen aus.

Allerdings wird diese Entwicklung von vielen als positiv erachtet. 72 Prozent der IT-Führungskräfte sehen darin einen Nutzen für ihr Unternehmen. Denn 31 Prozent von diesen sind der Meinung, dass Schatten-IT und Covered Clouds das Wachstum und die Innovation beschleunigen. Mehr als die Hälfte gaben an, dass das Unternehmen dadurch schneller auf Kundenanforderungen reagieren kann.

Dennoch gibt es auch große Sicherheitsbedenken. Von denjenigen, die Schatten-IT nicht befürworten, befürchtete mehr als die Hälfte eine Verschärfung der Sicherheitsrisiken. Diese Einblicke gab VMware während des T-Systems Symposium 2013 in Düsseldorf.

Eine Maßnahme: IT-as-a-Service

IT-as-a-Service ist ein Betriebsmodell, bei dem die IT-Abteilung wie eine eigene Business Einheit geführt wird und selbst Produkte und Services für das eigene Unternehmen entwickelt. Dabei muss sich die IT-Abteilung gegen externe Mitbewerber behaupten. Schließlich haben Fachabteilungen in der heutigen Zeit eine grenzenlose Auswahl von anderen Anbietern am Markt.

VMware hat es sich zur Aufgabe gemacht, IT-Abteilungen hierzu die technischen Mittel zu liefern und sieht in IT-as-a-Service eine Chance das Verhältnis Instandhaltung zu Innovation auf 50:50 auszugleichen, anstatt die Mehrheit der Aufwendungen in die Instandhaltung zu investieren. Heute beträgt das Verhältnis ca. 80 Prozent (Wartung) zu 20 Prozent (Innovation).

VMware liegt richtig, wenn sie versuchen, sich als führender Anbieter für IT-as-a-Service Lösungen zu etablieren. Als einer der wenigen Infrastrukturanbieter am Markt sind sie mit ihren Fähigkeiten in der Lage die technischen Mittel für diesen Umschwung in den Unternehmen zu liefern. Man muss hierzu allerdings beachten, dass IT-as-a-Service kein technischer Ansatz ist, sondern sich fest im Denken der IT Abteilungen verankern muss, um erfolgreich umgesetzt zu werden. VMware kann somit nur zeigen, welche technischen Mittel zur Verfügung stehen, um den Wandel einzuleiten.

Service Portal als Middleware für die Mitarbeiter

IT-as-a-Service ist für die Schatten-IT nicht die Non-plus Ultra Lösung, kann aber dabei helfen, diesem über die Jahre gewachsenen Phänomen entgegenzuwirken. Die entsprechenden Konzepte und Technologien stehen bereit und müssen nun umgesetzt werden.

Ist eine IT-as-a-Service Philosophie innerhalb der IT-Abteilung entstanden, sollte damit begonnen werden, ein eigenes Service Portal für die Mitarbeiter, über welches diese kontrolliert auf interne und externe Cloud Services zugreifen, zu etablieren. Dabei kann es sich sowohl um Infrastruktur (virtuelle Server und Speicherplatz) als auch um Software und Plattformen handeln. Die IT-Abteilung wird dadurch immer mehr zum Service Manager (Broker) und kann durch die Nutzung externer Ressourcen (hybrid Modell) sicherstellen, dass die Mitarbeiter mit einer hohen Servicegüte rechnen können. So lässt sich einem Entwickler zum Beispiel ein Server anstatt in mehreren Wochen, innerhalb von fünf Minuten bereitstellen. Dabei sollte zudem betrachtet werden, dass Entwickler nicht nur an Rechenleistung und Speicherplatz interessiert sind, sondern auch Services benötigen, um Applikationen und eigene Services auf eine einfachere Art und Weise zu entwickeln. Das kann unter anderem durch Eigenschaften eines Platform-as-a-Service (PaaS) realisiert werden.

Kategorien
Analysen

Die Bedeutung der Managed Cloud für Unternehmen

Cloud Computing wächst kontinuierlich. Dabei wird der Public Cloud das für die Zukunft größte Wachstum vorhergesagt. Je nachdem auf wen man hört, liegt dieses bis zum Jahr 2017 zwischen 107 Milliarden Dollar (IDC) und 244 Milliarden Dollar (Gartner). An dieser Stelle darf man sich als Leser gerne die Frage stellen, woher diese nicht unbedeutende Differenz stammt. Unterhält man sich jedoch mit IT-Entscheidern, entspricht die Public Cloud, die in erster Linie auf standardisierte Workloads und Self-Service ausgelegt ist, nicht den Anforderungen der meisten Unternehmen. Cloud Computing ist definitiv attraktiv, aber die Form ist entscheidend.

Die Komplexität darf nicht unterschätzt werden

Die größten Erfolgsmeldungen aus der Public Cloud stammen bisher von Startups oder Unternehmen, die Ideen und Geschäftsmodelle darin realisiert haben. Zwar wird auch immer wieder von Migrationen von SaaS Anwendungen mit bis zu 90.000 Nutzern berichtet. Und diese Meldungen scheinen die Erfüllungen der Anforderungen gut wieder zu spiegeln. Die Wahrheit in den meisten Unternehmen sieht aber anders aus. Selbst die Migration eines E-Mail Systems, einer der vermeintlich höchststandardisierten Anwendungen, wird dabei zum Abenteuer. Das liegt daran, dass viele Unternehmen kein Standard E-Mail System nutzen und stattdessen weitere proprietäre Add-ons oder selbstentwickelte Erweiterungen angebunden haben, die so nicht in der Cloud existieren.

Hinzu kommen weitere Applikationen, die einfach zur IT-Enterprise Architektur dazu gehören und höchst individuelle Ansprüche erfüllen. Ich habe kürzlich mit dem Strategie-Manager eines deutschen DAX Unternehmens gesprochen das weltweit tätig ist und aktuell eine Cloud Strategie evaluiert. Das Unternehmen verfügt Global über etwa 10.000(!) Applikationen (Desktop, Server, Produktionssysteme usw.). Dieses Beispiel ist sehr extrem und spiegelt nicht die durchschnittlichen Herausforderungen eines Unternehmens dar. Es zeigt aber die Dimension, in der man sich bewegen kann und die sich ebenfalls auf deutlich kleinere Applikations-Infrastrukturen herunterbrechen lassen.

Managed Cloud Services gehört die Zukunft im Unternehmensumfeld

Man möge nun argumentieren, dass die IT-Architekturen der meisten Unternehmen eh viel zu komplex sind und eine Standardisierung jedem gut tun würde. So einfach ist die Realität aber leider nicht. Auch wenn bereits einige Standard Unternehmensapplikationen für Public Clouds zertifiziert sind. Schaut man sich die erfolgreichsten Workloads in der Public Cloud an, handelt es sich dabei um Web-Applikationen für den Massenmarkt und weniger um spezifische Unternehmensapplikationen. Der Großteil der Unternehmen ist für die Cloud nicht vorbereitet. Sondern darauf angewiesen und erwartet gleichermaßen Hilfe auf dem Weg in die Cloud sowie während des Betriebs der Anwendungen und Systeme.

Das hat auch unsere Untersuchung des europäischen Cloud Markts gezeigt. Unternehmen sind interessiert an Cloud Computing und dessen Eigenschaften (Skalierbarkeit, Flexibilität oder Pay per use). Allerdings gestehen sie sich selbst ein, dass sie nicht über das Wissen und die Zeit verfügen oder es einfach nicht (mehr) zu ihrem Kerngeschäft gehört, IT-Systeme zu betreiben und dies stattdessen von dem Cloud-Anbieter übernehmen lassen. Es geht also um eine flexible Art von Managed Services. Darauf sind Public Cloud Anbieter nicht vorbereitet, da ihr Geschäft darin besteht, hochstandardisierte Infrastrukturen, Plattformen, Applikationen und Services bereitzustellen. Abhilfe sollen speziell von dem Anbieter zertifizierte Systemintegratoren bieten.

Hier besteht die Chance für Anbieter von Business Clouds. Also Cloud Anbieter, die kein Public Cloud Modell fahren, sondern anhand von Managed Services den Kunden dabei helfen, den Weg in die Cloud zu meistern und den Betrieb übernehmen und damit einen „Alles aus einer Hand“ Service bieten. Das erfolgt im Normalfall nicht auf einer Shared-Infrastructure sondern innerhalb einer Hosted Private Cloud bzw. einer Dedicated Cloud bei der sich ein Kunde explizit in einem isolierten Bereich befindet. Professional Services runden das Portfolio ab, die bei der Integration, Schnittstellen und der Weiterentwicklung helfen. Business Clouds sind auf Grund dieser Serviceleistungen, Exklusivität und höherer Sicherheit (in der Regel physikalische Isolation) teurer als Public Clouds. Betrachtet man jedoch den Aufwand, den man als Unternehmen selbst in der einen oder anderen Public Cloud betreiben muss, um tatsächlich erfolgreich zu sein oder sich Hilfe von einem der zertifizierten Systemintegratoren holt, dann ist der Kostenvorteil meist eliminiert. Zudem ist Business Cloud (Managed Cloud) Anbietern ein höheres Wissen in die eigene Cloud und deren Eigenschaften gutzuschreiben als Systemintegratoren, da diese die Infrastruktur kennen und zudem weitere spezifische Anpassungen für den Kunden vorgenommen werden können als in einer zumeist hochstandardisierten Public Cloud Infrastruktur.

Public Cloud ist kein No-go für Unternehmen

Die Public Cloud ist für Unternehmen per se kein Tabu-Thema. Im Gegenteil, denn zum einem bietet die Public Cloud den maximal einfachsten und unkompliziertesten Weg in die Cloud-Welt, ohne dabei mit dem Vertrieb in Kontakt zu geraten. Zum anderen kommt es auf die Workloads/ Use Cases an, die identifiziert werden müssen.

Der größte Vorteil einer Public Cloud für Unternehmen besteht darin, dass sie sehr kostengünstig und schnell eigene Erfahrungen in einem echten Cloud-Umfeld sammeln können und sich sehr einfach „Dinge“ ausprobieren lassen. Zudem bietet sie die Gelegenheit sehr günstig und schnell Fehler zu machen und damit frühzeitig daraus zu lernen, was früher sehr schmerzhaft gewesen wäre. Anhand einer Top Down Cloud Strategie lassen sich in der Public Cloud zudem u.a. neue Geschäftsmodelle abbilden, die über Web Applikationen realisiert werden. Hier lassen sich mit einem hybriden Ansatz z.B. die Applikationen von den Daten trennen, um die Skalierbarkeit der Public Cloud für die Applikation selbst auszunutzen, die Daten aber in einem für sich definierten sicheren Bereich zu speichern.

Ob kritische Workloads innerhalb einer Public Cloud betrieben werden sollten ist u.a. eine Entscheidung des Risikomanagements und des eigenen Aufwands den man betreiben will/ kann um dies sicherzustellen. Hierauf muss während der Evaluation zwischen einer Public und einer Managed (Business) Cloud besonders geachtet werden.

Kategorien
Analysen

Quo vadis VMware vCloud Hybrid Service? Was ist vom vCHS zu erwarten?

Im Rahmen der VMworld 2013 Europe in Barcelona im Oktober hat VMware bereits die Verfügbarkeit des vCHS in England mit einem neuen RZ-Standort in Slough in der Nähe von London angekündigt. Die Private-Beta-Version des europäischen vCloud Hybrid Services wird ab dem vierten Quartal 2013 vorliegen, die allgemeine Verfügbarkeit ist für das erste Quartal 2014 geplant. Dieser Schritt zeigt, dass VMware der Public Cloud eine wichtige Bedeutung zuschreibt, wurde er doch insbesondere unternommen, um den Bedürfnissen der europäischen Kunden entgegenzukommen.

Dieser Artikel ist exklusiv auf LANline.de erschienen und kann kostenlos unter „Was bringt VMwares Vcloud Hybrid Service?“ gelesen werden.

Kategorien
Analysen

HP Cloud Portfolio: Überblick & Analyse

HPs Cloud Portfolio besteht aus einer Reihe von Cloud-basierten Lösungen und Services. Dabei ist die HP Public Cloud als echtes Infrastructure-as-a-Service (IaaS) Angebot das aktuelle Kernprodukt, was dementsprechend großzügig vermarktet wird. Die HP Enterprise Services – Virtual Private Cloud bietet eine von HP gehostete Private Cloud. Die Public Cloud Services werden ausschließlich aus den USA mit Rechenzentren im Westen und Osten ausgeliefert. Auch wenn der Vertrieb weltweit aufgestellt ist, wird lediglich Englisch unterstützt.

Portfolio Überblick

Das IaaS Kernangebot umfasst Rechenleistung (HP Cloud Compute), Speicherplatz (HP Cloud Storage) und Netzwerkkapazitäten. Weiterhin stehen die Mehrwertservices HP Cloud Load Balancer, HP Cloud Relational DB, HP Cloud DNS, HP Cloud Messaging, HP Cloud CDN, HP Cloud Object Storage, HP Cloud Block Storage und HP Cloud Monitoring zur Verfügung, mit denen sich eine virtuelle Infrastruktur für eigene Applikationen und Services aufbauen lassen.

Die HP Cloud Infrastruktur basiert auf OpenStack und ist Multi-Mandantenfähig. Die virtuellen Maschinen sind mit KVM virtualisiert und lassen sich in festen Größen (Extra Small bis Double Extra Large) pro Stunde buchen. Der lokale Speicher der virtuellen Maschinen ist nicht persistent. Langfristige Daten lassen sich aber auf einem unabhängigen Block Storage speichern und anbinden. Eigene virtuelle Maschinen Images lassen sich nicht in die Cloud hochladen. Der Load Balancer befindet sich derzeit noch in einer Private Beta. Die Infrastruktur ist eine Multi-Fault-Domain, was von dem Service Level Agreement berücksichtigt wird. Eine Multifaktor Autorisierung wird derzeit nicht angeboten.

Die HP Enterprise Cloud Services bieten eine Vielzahl unterschiedlicher auf Unternehmen ausgerichteter Lösungen. Darunter Recovery-as-a-Service, dedizierte Private Clouds und Hosted Private Clouds. Zu den Applikationsservices gehören Lösungen für Collaboration, Messaging, Mobility und Unified Communications. Zu spezifischen Unternehmensanwendungen zählen HP Enterprise Cloud Services for Microsoft Dynamics CRM, HP Enterprise Cloud Services for Oracle und HP Enterprise Cloud Services for SAP. Professional Services runden das Enterprise Cloud Services Portfolio ab. Die Enterprise Cloud Services – Virtual Private Cloud ist eine von HP gehostete und Mandantenfähige Private Cloud und richtet sich an SAP, Oracle und weitere Unternehmensanwendungen.

Analyse

HP hat viel Erfahrung im Aufbau und Betrieb von IT-Infrastrukturen und verfolgt dieselben Ziele in den Bereichen Public und Private Cloud Infrastrukturen. Dabei setzen sie auf eigene Hardwarekomponenten und ein umfangreiches Partnernetzwerk. HP verfügt über einen weltweit agierenden Vertrieb und ein gleichermaßen hohes Marketingbudget und ist damit in der Lage eine Vielzahl an Kunden zu erreichen. Auch wenn sich die Rechenzentren für die Public Cloud ausschließlich in den USA befinden.

HP hat in den letzten Jahren viel Aufwand und Entwicklung investiert. Dennoch ist der HP Public Cloud Compute Service erst seit Dezember 2012 für die Allgemeinheit am Markt verfügbar. Auf Grund dessen kann HP noch keine aussagekräftige Erfolgsbilanz für seine Public Cloud nachweisen. Es existiert nur eine begrenzte Interoperabilität zwischen der HP Public Cloud, basierend auf OpenStack, und der Private Cloud (HP CloudSystem, HP Converged Cloud) der das HP Cloud OS zugrunde liegt. Da die HP Public Cloud nicht über die Möglichkeit verfügt, eigene virtuelle Maschinen Images auf Basis eines Self-Service hochzuladen, können Kunden derzeit keine Workloads aus der Private Cloud in die Public Cloud übertragen. Selbst dann, wenn die Private Cloud auf OpenStack basiert.

INSIGHTS Report

Der INSIGHTS Report „HP Cloud Portfolio – Überblick & Analyse“ kann hier kostenlos als PDF heruntergeladen werden.