Kategorien
Analysen

Die Leistungsmetriken einer Cloud sind entscheidend

Cloud Computing verändert unaufhörlich die Art wie IT Services bereitgestellt werden. Neben Kosteneinsparungen gehören die einfache Adaption und ein vereinfachtes Service-Management zu den ursprünglichen Versprechen des Cloud Computing. Dennoch sehen sich Unternehmen aktuell damit konfrontiert, wie sie Services aus der Cloud mit ihrer bestehenden Unternehmens- und IT-Strategie integrieren können. Werden Cloud Lösungen im Unternehmen eingeführt, gehören Verfügbarkeit, Leistungsmetriken und die Sicherheit zu den größten Herausforderungen. Daher ist es notwendig eine Cloud-Strategie zu entwickeln, um die Transformation Schritt für Schritt zu vollziehen.

Die Leistungsmetriken entscheiden über eine Cloud

Viele Unternehmen entscheiden sich über einen Verbund unterschiedlicher Clouds (Federated Cloud). Dabei befinden sich einige Anwendungen innerhalb einer Public Cloud und ein paar in einer Private Cloud. Auf die restlichen Alt-Anwendungen wird über ein klassisches VPN zugegriffen. Um die Masse der dabei entstehenden und übertragenen Informationen zu überwachen ist ein Performance-Management-System notwendig, dass einen Überblick über sämtliche Aktivitäten aller Anwendungen gibt. Speziell die Performanz einer Anwendung misst, wie Leistungsstark die Cloud Umgebung ist, auf der sich die Anwendung befindet.

Schlechte Leistungsmetriken ergeben sich durch eine geringe Bandbreite, Latenzen auf den Datenverbindungen, zu wenig Speicherplatz bzw. langsame Festplatten, geringer Arbeitsspeicher und zu geringe CPU Zyklen. In den meisten Fällen führen zudem nicht ausreichend Ressourcen zu einer schlechten Performance der Anwendung. In manchen Fällen sorgt eine schlechte Applikations-Architektur dafür, dass die Geschwindigkeit der Anwendungen nicht den gewünschten Ergebnissen entspricht, indem die Prozesse der Anwendungen nicht korrekt über die Cloud Ressourcen verteilt wurden.

Dabei sollten Performance-Probleme keinesfalls unterschätzt werden. Denn diese können die Servicebereitstellung erheblich beeinflussen. Für einen Anwender macht es keinen Unterschied, ob der Service eine schlechte Performance hat oder gar nicht verfügbar ist. In beiden Fällen kann er den Cloud Service nicht erwartungsgemäß nutzen. Eine schlechte Performance ist daher ein No-Go und muss unter allen Umständen vermieden werden. Neben dem Verlust von Kunden sorgt eine schlechte Performance für eine Verringerung der Mitarbeiter- und allgemeinen Produktivität und kann sogar zu einem vollständigen Ausfall führen.

Die Cloud Umgebung muss beachtet werden

Die Performance einer Anwendung kann signifikant von der Umgebung abhängen in der sie bereitgestellt wird. Unternehmen müssen daher sicherstellen, dass die Performance der jeweiligen Applikation entspechend angepasst wird, bevor sie auf eine Cloud Computing Infrastruktur migriert wird bzw. neu entwickelt wird, um die Vorteile der Cloud zu nutzen. Dabei sollte man immer beachten, dass sich die Leistungsmetriken von Cloud zu Cloud unterscheiden, was zu einer echten Herausforderung werden kann.

Planen, Separieren und Skalieren

Die Kapazitätsplanung ist ein wichtiger Bestandteil der Cloud-Strategie, wenn Unternehmen ihre eigenen Cloud Umgebungen aufsetzen. Denn nur mit ausreichend Ressourcen lassen sich performante Anwendung bereitstellen, die den Mitarbeitern dabei helfen ihre Produktivität zu erhöhen.

Neben der Kapazitätsplanung ist das Thema Skalierbarkeit ein weiterer wichtiger Baustein, um die Performance einer Anwendung in der Cloud sicherzustellen bzw. diese zu erhöhen. Eine gute Anwendungsarchitektur reduziert Engpässe und Performance Probleme, indem Ressourcen intensive Prozesse voneinander getrennt und die Last über mehrere virtuelle Maschinen innerhalb der Cloud Umgebung verteilt werden.

Private Cloud ist nicht der goldene Weg

Viele Unternehmen entscheiden sich vermehrt für eine Private Cloud im eigenen Rechenzentrum, um die Kontrolle über Ressourcen, Daten, Sicherheit usw. zu behalten. Richtig ist, dass eine Private Cloud die Agilität eines Unternehmens verbessert und die Systeme bis zu einem gewissen Grad skalieren können. Allerdings sollte sich ein Unternehmen immer bewusst machen, das die Skalierbarkeit einer Private Cloud einem manuellen Prozess gleicht. Bei diesem muss in Echtzeit auf Ressourcenengpässe durch das eigene Personal reagiert werden, indem weitere Hardwarekomponenten in Form von Speicherplatz, Arbeitsspeicher oder Rechenleistung nachgerüstet werden. Für jede virtuelle Instanz wird schließlich auch die physikalische Hardware benötigt. Neben Hardware- und Softwareressourcen sind Tools zum Echtzeit-Monitoring der Umgebung daher unerlässlich.

Service Levels

In der Public Cloud bzw. Virtual/ Managed Private Cloud kann ein Service Level Agreement die Performance erhöhen, da in diesem die zu erwartenden Metriken für die Verfügbarkeit und Leistung festgehalten sind. Dabei sollte ein besonderes Augenmerk auf die Performance der Anwendung und die notwendige Leistung des Netzwerks gelegt werden. Mit diesen Werten lassen sich die erforderlichen Performance-Metriken der Cloud Computing Umgebung bestimmen. Hilfreich kann es zudem sein, wenn man die Performance der Anwendung in kleine Parameter zerlegt. Damit lassen sich die versprochenen Metriken besser messen.

Die Cloud ist kein Allheilmittel

Eine Cloud Computing Umgebung beseitigt zwangsläufig nicht alle Performance-Probleme einer Anwendung. Es besteht sogar die Möglichkeit, dass eine Cloud, im Vergleich zu einer nicht Cloud Umgebung zu mehr Performance-Problemen führt. Aus diesem Grund ist das ständige Überwachen sämtlicher Metriken einer Anwendung notwendig, um ein Gefühl für die Leistung der Cloud und der darauf bereitgestellten Anwendung zu bekommen. Darüber hinaus sorgt man damit selbst dafür, dass die vereinbarten Service Levels eingehalten werden und die Performance und Skalierbarkeit der Anwendung von Seiten des Cloud Computing Anbieters sichergestellt werden.


Bildquelle: http://www.fusionio.com

Kategorien
Analysen

Die Google Cloud Platform

Google hat mit der Einführung seiner Compute Engine sein Portfolio zu einem vollständigen Cloud Computing Stack ausgebaut. Als schärfster Konkurrent gelten die Amazon Web Services (AWS), die den Markt der Infrastructure-as-a-Services mit Abstand anführen. Anders als AWS geht Google jedoch in die Breite. Und auch wenn die Anzahl der Google Cloud Services mit denen von AWS in der Masse [Vergleich] noch nicht mithalten können, finden Entwickler in Googles Portfolio jede Menge Möglichkeiten, ihre Anwendungen in der Google Cloud zu betreiben.

Die Google Cloud Plattform

Ein vollständiger Cloud Stack

Die Google Cloud setzt sich aus neun einzelnen Services zusammen und deckt den kompletten Cloud Stack, Infrastructure-as-a-Service (IaaS), Platform-as-a-Service (PaaS) und Software-as-a-Service (SaaS) ab. Dazu gehören die Google App Engine, die Google Compute Engine, der Google Cloud Storage, Google BigQuery, die Google Prediction API, die Google Translation API, Google Apps, Google Cloud SQL und Google F1.

Google App Engine

Die Google App Engine ist das Platform-as-a-Service (PaaS) Angebot von Google. Sie gehört mit der Erscheinung im Jahr 2008 zu einer der ersten PaaS am Markt und war der einzige Service der Python und Java gleichzeitig unterstützte. Die Google App Engine wurde entwickelt, um Anwendungen auch mit hoher Last oder während der Verarbeitung von vielen Daten zuverlässig ausführen zu lassen. Dazu unterstützt die Google App Engine dynamische Webdienste inkl. gängiger Web-Technologien, einen persistenten Speicher inkl. der Möglichkeit für Abfragen, Sortierungen und Transaktionen, Automatische Skalierung und Loadbalancing, eine Entwicklungsumgebung für lokale Systeme zur Simulation der Google App Engine, Warteschlangen für die Steuerung von Aufgaben die eine hohe Performance benötigten, uvm.

Für das Speichern der Anwendungen wird von der App Engine eine verteilte Datenhaltung verwendet, wobei der verteilte Speicher mit der Menge der Daten wächst.

Die Google App Engine bietet verschiedene APIs zur Arbeit mit und der Verwaltung von Applikationen. Mit dem URL-Fetch Service können Anwendungen auf andere Ressourcen wie Web Services oder Daten über das Internet zugreifen. Dabei wird dieselbe Google Infrastuktur verwendet, wie sie auch von bekannten Google Produkten genutzt wird. Mittels der App Engine Mail API sind Anwendungen in der Lage direkt E-Mails zu versenden. Per Memcache kann auf Daten zugegriffen werden, die nicht im persistenten Speicher abgelegt werden. Durch einen schnellen in-Memory Key-Value Cache ist eine Anwendung in der Lage mehreren Instanzen parallel nur temporär vorhandene Daten performant bereitzustellen. Anhand der Image Manipulation API sind Anwendungen in der Lage Bilder zu verändern.

Anwendungen können so gesteuert werden, dass sie hoch performante Aufgaben dann erledigen, wenn die Belastung durch Anfragen nicht so hoch ist, z.B. zu einer vorher definierten Uhrzeit oder Tag. Des Weiteren besteht die Möglichkeit eine Anwendung in eine Warteschleife zu legen oder sie im Hintergrund auszuführen.

Google Compute Engine

Die Google Compute Engine bietet Infrastructure-as-a-Services á la Google. Damit erhält man die Möglichkeit, virtuelle Maschinen (VM) mit dem Linux Betriebssystem auf der Google Infrastruktur, die auch von Google Mail und anderen Services eingesetzt wird, zu nutzen.

Die Compute Engine setzt auf Ubuntu als auch CentOS Linux Betriebssysteme, virtuelle Maschinen mit 1,2,4 oder 8 Kernen und 3,75 GB Arbeitsspeicher pro virtueller Instanz. Speicherarten stehen in drei Varianten zu Verfügung.

Flüchtiger Speicher: Auf jeder virtuellen Instanz befindet sich ein flüchtiger lokaler Speicher, bei dem die Daten nur während des Lebenszyklus einer virtuellen Maschinen gespeichert werden. Wenn die VM gestoppt wird, werden alle Daten gelöscht. Dennoch werden alle Daten die auf die VM geschrieben verschlüsselt abgelegt. Persistenter Speicher: Die Google Compute Engine bietet einen persistenten Speicher, der als Service (virtuelle Fesplatte) mit dem Google Storage Netzwerk verbunden ist und über dieselbe Latenz und Geschwindigkeit wie der lokale Speicher einer VM verfügt. Daten die auf diese “virtuelle Festplatte” gespeichert werden, werden automatisch über mehrere physikalische Festplatten innerhalb eines Google Rechenzentrum repliziert. Darüber hinaus können Snapshots von den Festplatten für Backup/ Restore Zwecke erstellt werden. Zudem besteht die Möglichkeit diese virtuellen Platten als Laufwerk in mehrere virtuelle Maschinen zu mounten, um davon Daten zu lesen. Wie beim lokalen VM Speicher sind auch die Daten auf den virtuellen Festplatten verschlüsselt. Google Cloud Storage: Der Google Cloud Storage existiert für Entwickler schon etwas länger. Er bietet die Möglichkeit, Daten persistent zu speichern und auf die Buckets (Ordner) innerhalb des Storage mit einer VM zuzugreifen.

Über der Google Netzwerk lassen sich die virtuellen Maschinen mit der Aussenwelt und innerhalb des Netzwerks selbst verbinden. Der Netzwerk Stack ist so aufgebaut, dass sich die virtuellen Maschinen eines Nutzers in einem isolierten Bereich befinden und von Dritten nicht ohne Weiteres darauf zugegriffen werden kann. Die virtuellen Maschinen können entweder mit statischen oder dynamischen IP-Adressen verknüpft werden, um anschließend über das Internet auf diese zuzugreifen. Über eine Firewall können die Zugriffe auf die virtuellen Maschinen kontrolliert werden.

Alle Management Tools basieren auf einer offenen RESTful API. Google plant darüber hinaus, alle verfügbaren Tools als Open Source zu veröffentlichen, um den Nutzern die Möglichkeiten zu geben, eigene Tools nach ihren Bedürfnissen zu entwickeln. Google arbeitet bereits mit ein paar Partner darunter RightScale, Puppet Labs, OpsCode, Numerate, Cliqr und MapR zusammen, die in Zukunft die Google Compute Engine unterstützen und integrieren werden und weitere Management-Kapazitäten anbieten.

Google Cloud Storage

Der Google Cloud Storage existiert für Entwickler schon etwas länger. Er bietet die Möglichkeit, Daten persistent zu speichern und auf die Buckets (Ordner) innerhalb des Storage mit einer VM zuzugreifen.

Google Cloud Storage bietet zudem unterschiedliche Einsatzszenarien. Neben der Archivierung und dem Datenbackup, lassen sich darüber hinaus Anwendungsdaten darin ablegen, um einen ortsunabhängigen Zugriff darauf zu ermöglichen. Der Zugriff auf die Daten lässt sich über Access Control Lists (ACLs) steuern.

Der Storage Service dient als grundsätzliche Basis für andere Google Cloud und Analytics Services wie der Google Prediction API und Google BigQuery Service. Zudem lassen sich darüber statische Inhalte für Webseiten ausliefern.

Google BigQuery

Google BigQuery nennt sich Googles Big Data Service und soll Unternehmen und Entwicklern bei der Analyse ihrer Daten helfen ohne die dafür notwendige Infrastruktur zu besitzen.

Da Google auf Grund der Indexierung des Webs auf Systeme für die Analyse riesiger Datenmengen angewiesen ist, wurden entsprechend bereits einige Tools entwickelt, die allerdings nur für den internen Einsatz vorgesehen sind. Aus diesen Tools wurde nun der BigQuery Service quasi abgeleitet.

BigQuery ist ein Online Analytical Processing (OLAP) System, um Datensätze mit Milliarden von Zeilen und Terabytes an Daten zu verarbeiten und zielt auf Unternehmen und Entwickler in Unternehmen ab, die mit riesigen Datenmengen (Big Data) balancieren müssen. BigQuery kann auf unterschiedliche Arten genutzt werden. Entweder mit einer Web-Oberfläche, einer REST API oder via Kommandozeile. Die Daten können zur Verarbeitung per CSV Format auf die Google Server hochgeladen werden.

Die Preise orientieren sich an der Menge der gespeicherten Daten und der Anzahl der Anfragen. Für den Speicherplatz berechnet Google 0,12 Dollar pro GB pro Monat bis zu einer maximalen Speichermenge von 2TB. Für die Anfragen werden 0,035 Dollar pro verarbeitetes GB berechnet. Die Limits liegen hier bei 1000 Anfragen pro Tag sowie 20TB zu verarbeitende Daten pro Tag. Für die ersten 100GB an verarbeitenden Daten pro Monat entstehen keine Kosten. Weitere Informationen stehen hier.

BigQuery ist nicht für die OLTP (Online Transaction Processing) Verarbeitung geeignet. Genauso wenig können Änderungen an den auf BigQuery gespeicherten Daten vorgenommen werden. Unternehmen, die eher eine klassische relationale Datenbank für OLTP benötigen, empfiehlt Google seine Cloud basierte Datenbank Google Cloud SQL, welche die volle SQL-Syntax unterstützt.

Google Prediction API

Die Google Prediction API ermöglicht den Zugriff auf Googles Algorithmen zur künstlichen Generierung von Wissen aus Erfahrung. Damit können Daten analysiert und Ergebnisse vorausgesagt werden. Anhand der Eingabe von numerischen Werten oder Text bietet die Prediction API Möglichkeiten für den Musterabgleich bzw. der musterbasierten Suche sowie dem maschinellen Lernen.

Die API kann genutzt werden, um bspw. die Gewohnheiten eines bestimmten Benutzers zu analysieren oder vorherzusagen, welche anderen Filme oder Produkte einem Benutzer vielleicht gefallen. Als weitere Use Cases nennt Google das Kategorisieren von E-Mails als Spam oder nicht Spam sowie die Analyse von positiven oder negativen Kommentaren zu einem Produkt oder anhand der bisherigen Ausgaben zu schätzen, wie viel ein Nutzer an einem bestimmten Tag ausgeben wird.

Google Translation API

Die Google Translation API ist ein Tool, mit dem Texte automatisiert von eine Sprache in eine andere übersetzt werden können. Dafür stehen der Quelltext, die Quellsprache sowie die Zielsprache, in welche der Text übersetzt werden soll. Im Prinzip handelt es sich genau um den Service, der sich hinter http://translate.google.de befindet. Mit der Translation API lassen sich eigene mehrsprachige Applikationen oder Webseiten programmatisch anbieten.

Die Google Platform Extended

Wenn man sich den Google Cloud Stack anschaut, sollte man sich ebenfalls das restliche Ökosystem anschauen. Dazu gehören Google Apps, Google Cloud SQL und Google F1.

Google Apps

Google Apps ist die webbasierte Software-as-a-Service Office & Collaboration Suite von Google. Sie umfasst in der kostenlosen Standard Edition und der Edition für Non-Profit Organisationen die Programme Mail, Kalender, Text & Tabellen, Sites, Talk und Kontakte. Die Premier- und Education Editionen verfügen zusätzlich noch über Video, Groups und APIs für Erweiterungen und die Integration in die eigene Infrastruktur sowie weitere Services von Partnern.

Mail

Google Mail verfügt je nach Edition über einen Speicherplatz von 7 GByte bis 25 GByte. Die Ablage der E-Mails erfolgt nicht klassisch in einer Ordnerstruktur, stattdessen können Labels definiert werden mit der jede E-Mail beliebig getaggt werden kann.

Auch die Art der Verwaltung einer E-Mail Kommunikation ist anders als bei herkömmlichen E-Mail Clients. Werden bei Thunderbird, Outlook etc. für jede E-Mail die hin und her geschickt wird eine separate „physische“ E-Mail erstellt die dann im Posteingang und/oder Postausgang liegt, werden die E-Mails bei Google Mail in sogenannten Konversationen verwaltet. Dabei entsteht ein „Objekt“ an das jede E-Mail die zu dieser Konversation (Betreff) gehört angehängt wird. Jede Benutzer der an dieser Konversation teilnimmt, erhält zur Unterscheidung eine andere Farbe.

Die Technologie des Spamfilter halte ich für einzigartig. Ich nutze Google Apps nun seit mehreren Jahren und hab in der Zeit nicht eine Spam E-Mail im Posteingang gefunden, dafür ist der Spamordner immer randvoll! Auch die Suche nach E-Mails oder Inhalten von E-Mails funktioniert sehr gut, da merkt man gut, welchen Kernbereich Google normalerweise abdeckt.

Der verschlüsselte Zugriff auf die Postfächer kann lokal von jedem Benutzer oder global über die Managementkonsole festgelegt werden. Seit kurzem ist allerdings nur noch der SSL-Zugriff möglich. Der mobile Zugriff auf Google Mail ist ebenfalls möglich. dazu sind Anwendungen für Android, iPhone, Blackberry und weitere Smartphones wie z.B. Nokia vorhanden. Migrationstools erlauben zusätzlich das Importieren von E-Mail Konten aus anderen Systemen wie Microsoft Exchange oder Lotus Notes.

Google Mail verfügt weiterhin über ein integriertes Messaging System, welches ich weiter unten für die Anwendung Talk beschreibe.

Kalender

Der Google Kalender ist vollständig mit Google Mail verknüpft. Nachdem ein Eintrag erstellt wurde, können Freunde/ Bekannte oder Mitarbeiter darüber direkt per E-Mail informiert bzw. eingeladen werden. Weiterhin können die eigenen Kalender lesend und/oder schreibend anderen Personen freigegeben werde, um ihnen den Zugriff darauf zu gewähren. Dadurch haben Kollegen z.B. die Möglichkeit die Termine eines anderen Kollegen in ihrem Kalender zu sehen und ggf. sogar zu bearbeiten.

Google Kalender ist ebenfalls mit Google Sites verknüpft, damit kann ein Kalender(eintrag) auf einer Webseite veröffentlicht werden. Kalender können darüber hinaus – z.B. für Veranstaltungen – grundsätzlich öffentlich verfügbar gemacht und in Googles Kalendergallerie aufgenommen werden.

Der mobile Zugriff ist ebenso wie bei Google Mail möglich. Zusätzlich können Kalenderbenachrichtigungen per SMS verschickt werden.

Text & Tabellen

Text & Tabellen ermöglicht das gemeinsame Bearbeiten (inkl. Versionierung) von Dateien in Echtzeit. Das beschränkt sich entweder nur auf die Benutzer in der eigenen Domain, aber auch externe Partner und Kunden können darauf den Zugriff erhalten und aktiv mitarbeiten.

Die erarbeiteten Dokumente, Tabellen und Präsentationen können anschließend z.B. auf den Webseiten von Google Sites oder im Intranet eingebettet werden. Päsentationen können über das Internet abgehalten werden, ohne dass sich die Zielgruppe am selben Ort befindet, die benötigt nur einen Browser mit aktiver Internetverbindung.

Text & Tabellen bietet bereits vorgefertigte Vorlagen für Formulare, z.B. für Umfragen oder Registrierungen die auf Webseiten verfügbar gemacht, per E-Mail verschickt oder in Dokumente eingebunden werden. Die eingegeben Daten werden dabei automatisch in einer verknüpften Tabelle gespeichert. Darüber hinaus existieren Vorlagen für Geschäftsdokumente, Visitenkarten, Briefköpfe, Zeiterfassungsformulare etc., die ebenfalls in vorhandene Dokumente integriert werden können.

Texte & Tabellen unterstützt und kann folgende Dateiformate importieren und exportieren: DOC, XLS, CSV, PPT, TXT, HTML, PDF.

Der mobile Zugriff mit Android, Blackberry oder iPhone ist ebenfalls möglich.

Sites

Mit Google Sites kann jede beliebige Art von Webseite erstellt werden, wie z.B. Seiten für das Intranet in einem Unternehmen, für Teams, Projekte, Abteilungen, Schulungen oder Wikis. Der Zugriff ist per se nur für Leute innerhalb der Domain erlaubt. Die Seiten können aber für externe Partner, Kunden ider Lieferanten zugänglich gemacht werden.

Innerhalb eine Google Sites Webseite können unterschiedliche Arten von Inhalten eingebettet werden. Dazu gehören Textdokumente, Tabellen, Präsentationen, Videos, Formulare oder Photos. Darüber hinaus ist die Google Suchfunktion vorab in jeder Site integriert, wodurch der gesamte Inhalt indiziert ist und schnell gefunden werden kann.

Talk

Google Talk ist in zwei Varianten verfügbar. Die erste ist die klassische Software, die auf dem PC installiert und von dort genutzt wird. Damit stehen auf dem PC Chat-, Sprach- und Videofunktionen zur Verfügung.

Die zweite Variante ist eine integrierte Instant Messaging Funktion innerhalb von Google Mail, mit der direkt eine Verbindung mit den Kontakten im eigenen Addressbuch oder per Mausklick auf den Absender einer E-Mail hergestellt werden kann. Vorausgesetzt, der Kontakt verfügt über ein Google-Talk Konto bzw. einen ICQ/AIM Account. Über ein zusätzliches Plugin kann das Instant Messaging um Voice- und Video-Chat Funktionen erweitert werden. Der Chat-Verlauf innerhalb von Google Mail kann dabei in einem Chat-Protokoll für jede einzelne Sitzung (pro Tag) aufgezeichnet werden. Das Protokoll wird nach dem Beenden der Sitzung wie eine E-Mail im Archiv abgelegt.

Ist man im Besitz eines Android Smartphones, kann die Chat-Funktion von Google Talk auch unterwegs genutzt werden.

Kontakte

Google Kontakte ist keine Anwendung im eigentlichen Sinne. Vielmehr hat man damit die Möglichkeit seine Kontakte in einem separaten „großen“ Fenster zu verwalten. Normalerweise erreicht man die Kontakte in Google Mail über den Button „Kontakte“ auf der linken Seite. Dabei werden die Kontakte dann in dem Bereich angezeigt, wo sonst die E-Mail Konversationen aufgelistet werden. Das kann auf Geräten, wie z.B. Netbooks ziemlich eng werden, wodurch das Auslagern in ein weiteres Fenster wesentlich komfortabler ist.

Google Cloud SQL

Mit Google Cloud SQL lassen sich relationale Datenbanken erstellen, konfigurieren und nutzen, die in Googles Cloud gehostet werden. Dabei handelt es sich um einen vollständig durch Google administrierten Service, der für eigene Anwendungen und Services eingesetzt werden kann.

Google Cloud SQL basiert auf der MySQL Datenbank. Damit lassen sich sämtliche Anwendungen, Daten und Services zwischen der on-Premise Welt und der Cloud hin- und herbewegen

Google F1

Google F1 ist ein relationales Datenbankmanagementsystem (RDBMS) von Google, das laut Google über umfangreiche Funktionen einer relationalen Datenbank verfügt. Dazu gehören ein festgelegtes Schema und eine parallel arbeitende SQL Query-Engine. Zudem setzt F1 auf Googles verteiltem Speichersystem auf, das sich über Google Rechenzentren erstreckt. Der Speicher wird dynamisch geteilt und unterstützt eine transaktional konsistente Replikation über mehrere Rechenzentren hinweg, wodurch Ausfälle bewältigt werden, ohne Daten zu verlieren.

Fazit

Die Amazon Web Services haben derzeit ein sehr vertikal ausgerichtetes Portfolio. Dabei konzentriert sich das Unternehmen auf den Ausbau seiner Infrastructure Services mit Mehrwert-Diensten wie bspw. Elastic Beanstalk. Beanstalk selbst ist kostenlos. Der Umsatz erfolgt mit der darunter liegenden Infrastruktur die der Kunde nutzt.

Google hingegen stellt sich breiter auf und hat in allen Cloud Bereichen, IaaS, PaaS und SaaS einen Fuß in der Tür. Der Anfang wurde mit der Google App Engine gemacht. Google ist nun einmal ein Entwickler-Unternehmen. Sie haben nie einen Hehl daraus gemacht, dass sie ihre Überkapazitäten herausgeben, damit Entwickler weltweit die Google Infrastruktur nutzen können, um Anwendungen zu entwickeln. Anschließend folgte mit Google Apps der SaaS Bereich. Dieser hat sich aus den Consumer-Produkten (Mail, Docs, usw.) abgeleitet und stellt quasi ein Best-off dieser einzelnen Services dar. Alles zusammen bildet eine Office Suite unter einer eigenen Domain. Der letzte Bereich den Google erobern will ist IaaS. Die Google Compute Engine ermöglicht das starten und betreiben eigener virtueller Maschinen auf Googles Infrastruktur. Andere Services wie Google Cloud SQL oder Google F1 gehören offiziell noch nicht in die Google Cloud Platform unter http://cloud.google.com. Allerdings ist zu erwarten, dass dies bald geschehen wird. Auch BigQuery war zunächst nur ein reines Developer Projekt, wurde nach der Beta Phase aber recht zügig zur Cloud Platform hinzugefügt.

Kategorien
Analysen

Schatten-IT gewinnt weiter an Bedeutung: IT-Abteilungen verlieren immer mehr Einfluss

Das die Schatten-IT im Zusammenspiel mit dem Cloud Computing stark wachsen wird und in Zukunft immer mehr an Bedeutung gewinnt, haben Dietmar Wiedemann und ich bereits Mitte 2011 beschrieben (Erstveröffentlichung, 16.08.2011). Nun hat eine Studie der Wirtschaftsprüfer von PricewaterhouseCoopers (PwC) ergeben, dass mehr als 30 Prozent der IT-Ausgaben nicht aus dem offiziellen IT-Budget stammen und damit um die IT-Abteilungen herum eingekauft wird.

Die IT-Abteilung wird übergangen

Die jeweiligen Unternehmensbereiche umgehen mittlerweile die IT-Abteilungen, um ihre eigenen Entscheidungen zu treffen, welche Cloud-basierte Applikationen oder mobile Endgeräte sie einsetzen wollen. Der CIO und die IT-Mitarbeiter haben also immer weniger Kenntnisse darüber, was für IT-Lösungen tatsächlich im Unternehmen eingesetzt werden und verlieren die Kontrolle darüber.

Bis zu 30 Prozent der Ausgaben fließen an der IT-Abteilung vorbei

Basierend auf einer Umfrage „Raising Your Digital IQ“, befragte PwC 500 US-amerikanische Unternehmen mit einem Jahresumsatz von etwa 500 Millionen US-Dollar. PwC schätzt, dass zwischen 15 Prozent bis zu 30 Prozent der IT-Ausgaben an der IT-Abteilung vorbei ausgegeben wird.

Dabei machen Cloud Services den größten Anteil an Ausgaben aus, die nicht über den gewöhnlichen Einkaufsprozess stattfinden. In den meisten Fällen fällt diese Form der Schatten-IT erst dann auf, wenn die Bereichsleiter mit den Cloud Services zu den IT-Abteilungen gehen und einfordern, dass die Unternehmensdaten zur Analyse mit den Daten aus der Cloud integriert werden.

Schatten-IT ist ein evolutionärer Schritt

Für mich kommt diese Entwicklung, wich ich bereits 2011 geschrieben habe, nicht überraschend. Die IT-Abteilungen gelten seit Jahren als die Spielverderber und Innovationsbremsen in den Unternehmen. Lange saßen sie am längeren Hebel, wenn es darum ging, dem Mitarbeiter oder den Projekten spezifischen Anwendungen oder Hardware zu besorgen. Das dauerte z.T. mehrere Wochen, gar Monate. Mit dem Einzug des Cloud Computing, BYOD und der Consumerization of IT (CoIT) wandelt sich das Bild. IT-Abteilungen werden nicht überflüssig, aber sie müssen langsam damit beginnen, von ihrem Thron herunterzukommen und mit den Mitarbeitern und Kollegen auf einer Ebene kommunizieren.

Schatten-IT schafft Probleme

CIOs sollten natürlich mit Bedenken der Schatten-IT entgegentreten. Nicht nur, dass sie dadurch die Kontrolle über ihre IT-Infrastruktur verlieren und die Heterogenisierung voranschreitet. Wie sollen sie damit umgehen, wenn ein Mitarbeiter selbstverständlich erwartet, dass sein Android oder iPhone integriert werden soll, das Unternehmen aber eine Blackberry Strategie verfolgt? Oder wenn das Smartphone plötzlich keine Verbindung mehr zum Provider aufbaut? Wer ist dann dafür verantwortlich? Eine weitere Herausforderung besteht zudem darin, wenn Daten unter dem Radar der IT-Abteilung in einem Cloud Service verschwinden.

Ich habe bereits das Thema voranschreitende Heterogenisierung angesprochen. IT-Abteilungen kämpfen grundsätzlich mit Insellösungen in ihrer IT-Umgebung. Es gibt nun einmal nicht die homogone IT-Infrastruktur, wo jedes Rad in das andere fasst bzw. jede Schnittstelle perfekt mit der anderen integriert ist. Durch die Schatten-IT werden sich die Insellösungen weiter vergrößern. Es werden immer mehr voneinander unabhängige Silos von Daten und Plattformen enstehend, jede mit einer eigenen proprietären Schnittstelle.

Schatten-IT treibt die Innovationskraft

IT-Abteilungen mögen die Schatten-IT als eine Anarchie der eigenen Kollegen verstehen. Damit könnten sie auf der einen Seite sogar recht haben. Ich würde es allerdings eher als einen Hilfeschrei der Kollegen verstehen, die einfach nicht mehr auf die IT-Abteilung warten wollen bzw. können. Schließlich nimmt der Druck in den Fachabteilungen ständig zu, dem Markt Innovationen und neue Lösungen zu präsentieren.

Schatten-IT fördert meiner Meinung nach die Innovationskraft im Unternehmen. Und das nicht nur auf Grund von Cloud Services. Die Fachabteilungen tun gut daran, die Zügel in die Hand zu nehmen und den IT-Abteilungen zu zeigen, was sie benötigen. IT-Abteilungen werden versuchen den unerlaubten Zugriff auf Cloud-basierte Lösungen zu unterbinden. Das wird die Produktivität der Fachabteilungen jedoch wieder vermindern. Besser wäre es, wenn die IT-Abteilungen, für das Wohl des Unternehmens, sich frühzeitig mit neuen Technologien und Trends auseinanderzusetzen, diese evaluieren und den Kollegen präventiv anbieten, anstatt nur auf die Entscheidungen der Fachabteilungen zu reagieren.

Lösung: Kommunikation

Wie kann der Schatten-IT vorgebeugt oder gegen eine bestehende entgegengewirkt werden? Zwei Wörter: Miteinander reden! (Zwischenmenschliche Kommunikation!)

Weitere Artikel zum Thema Schatten-IT


Bildquelle: http://www.hotpixel.ch

Kategorien
Analysen

Der Weg in die Cloud ist schwerer als man denkt!

Sollen Anwendungen in die Cloud verlagert werden, heißt es, diese auch für die Cloud zu entwickeln und sich nicht starr an die bekannten Pattern zu halten. Denn die Cloud verzeiht keine Ineffizienz. Möchte man den Vorteil der Cloud wie Infrastructure-as-a-Service (IaaS) oder Platform-as-a-Service (PaaS) für sich nutzen, bedeutet dies mehr Arbeit, als die meisten IT-Abteilungen vermutlich glauben.

Unternehmens-IT ist sehr komplex

Trotz der großen Euphorie um die Cloud, sollte man nicht vergessen wie komplex die Unternehmens-IT im Laufe der Zeit geworden ist. Dabei ist die Komplexität jedoch nicht das Ergebnis der IT oder der Technologien selbst. Es ist die Summe aller Einflüsse aus dem Unternehmen und was von der IT erwartet wird. Alle Technologien müssen aufeinander optimal abgestimmt werden, die internen Prozesse unterstützen und zugleich noch schnellstmöglich und mit minimalem Budget realisiert werden.

In der Regel bedeutet dies, kommerzielle Softwarelösungen einzukaufen. Diese an die Bedürfnisse des Unternehmens anzupassen und anschließend so zu integrieren, dass manuell so wenig wie möglich angepasst werden muss und gleichzeitig das Maximum an Informationen aus dem Unternehmen gezogen werden kann. Mehrere proprietäre Softwarelösungen plus deren Integration führen zu einer komplexen IT-Umgebung. So kann eine IT-Infrastruktur schnell aus z.T. mehreren hunderten von Anwendungen bestehen. Diese wurden unabhängig voneinander und mit unterschiedlichen Design-Standards entwickelt und tragen die Handschrift verschiedener Architekten.

Die Migration in die Cloud ist eine Herausforderung

Die bestehenden Anwendungen in die Cloud zu migrieren ist eine nicht zu unterschätzende Aufgabe. Im Gegenteil, es ist sehr wahrscheinlich, dass die meisten on-Premise Applikationen aus dem Portfolio trotz eines neuen Entwurfs nicht ihren Weg in die Cloud finden. Die IT-Abteilungen werden es nicht schaffen, die bestehenden proprietären Lösungen „einfach so“ in die Cloud zu verschieben, das funktioniert nicht. Jede einzelne Lösung für sich ist ein Individuum und hat spezielle Konfigurationen und Eigenschaften, die eine Cloud so nicht unterstützen kann.

Fassen wir mal ein paar Punkte zusammen:

  • Anpassung vornehmen, damit die Anforderungen erfüllt werden. – Nicht einfach!
  • Integration mit weiterhin bestehenden lokalen Anwendungen (hybrid). – Nicht einfach!
  • Dokumentation der Konfigurationen für eine erneute Migration. – Nicht einfach!
  • Sicherstellen der korrekten Lizenzierung. – Nicht einfach!
  • . . . – Nicht einfach!

Soll ein selbst entwickeltes System in die Cloud verlagert werden, wird es nicht einfacher. Es ist vergleichbar mit dem re-Design einer COBOL Batch-Anwendung für Mainframes in eine objektorientierte Variante. Denn so wie man von der COBOL Applikation in die objektorientierte Applikation die Objekte im Hinterkopf behalten musste, so muss man heute die Eigenschaften und Möglichkeiten der Cloud berücksichtigen.

Ist eine Anwendung erfolgreich in die Cloud migriert worden, bedeutet das jedoch nicht, dass es mit der Zweiten einfacher wird. Im Gegenteil, es kann sogar schwieriger werden. Denn jede Anwendung hat ihre individuellen Eigenschaften und basiert i.d.R. auf anderen technischen Standards und einem eigenen Design.

Zeit und Geduld

Verfolgt man das Ziel, das gesamte Portfolio in die Cloud zu verlagern, muss man sich auf einen langen und hügeligen Weg vorbereiten. Das saubere re-Design einer Anwendung oder gar der gesamten IT-Umgebung für die Cloud benötigt Zeit und vor allem Geduld. Denn wenn es so einfach wäre, gebe es schon mehrere Referenzprojekte.


Bildquelle: http://ccis.ucsd.edu

Kategorien
Analysen

Tipps für die Wahl einer Cloud Computing Beratung

Jeder Berater ist auf seinem Gebiet „der führende“ Cloud Computing Dienstleister. Das macht es für Einkäufer und Entscheidungsträger in Unternehmen nicht leichter, den richtigen Partner zu finden, mit dem sie ihren Weg in die Cloud bestreiten. Zudem fehlt z.T. die Transparenz, was die Berater tatsächlich können. Dieses und weitere Themen nehme ich aus Gesprächen immer wieder mit. Dabei ist die Wahl des Dienstleister entscheidend für den Erfolg oder Misserfolgt eines Wechsels in die Cloud. Nachdem man sich für eine Software (SaaS) bzw. eine Plattform (PaaS) oder Infrastruktur (IaaS) entschieden hat, heißt es die richtige IT-Beratung zu finden – Das ist Mission Critical!

Der Berater ist Mission Critical

Angesichts der Unterschiede zwischen Public Cloud und on-Premise Umgebungen, ist es wichtig, den richtigen Partner mit der entsprechenden Erfahrung zu finden. Denn ein Berater mit klassischem Rechenzentrums-Know-How wird in der Cloud nicht viel weiterhelfen können.

Existiert nachgewiesene Erfahrung in der zu implementierenden Lösung

Der Berater sollte über umfangreiches Wissen zu dem Service verfügen, um den es geht. Hier muss der Dienstleister entsprechende Referenzen vorweisen können inkl. möglichen speziellen Themen und Bereichen die man selbst verfolgt.

Kennt der Berater das Marktsegment

Der Dienstleister sollte sich in dem Marktsegment auskennen, in dem man selbst tätig ist. Auch hier helfen wiederum Referenzen aus dem eigenen Segment und Kunden, die ähnlich aufgestellt sind wie man selbst. Ist man selbst bspw. nur ein kleines- oder mittelständisches Unternehmen, sollte man keinen Dienstleister wählen, der auf internationale Großkonzerne spezialisiert ist.

Bietet er ergänzende Lösungen

Einige Dienstleister haben neben Beratungs- und Implementationsleistungen sich ebenfalls auf die Entwicklung von Add-ons für eine bestimmte Lösung spezialisiert und bieten dafür einen gewissen Mehrwert. Diese Dienstleister verfügen in der Regel zudem über ein sehr gutes technisches Wissen zu dem Produkt und haben ebenfalls tiefes Wissen über den jeweiligen Markt.

Kann er weltweit implementieren

Cloud Computing ist ein globales Thema. Darüber hinaus können Cloud Umgebungen schnell weltweit wachsen. Wenn notwendig, hilft hier auf jedenfall ein Dienstleister mit internationaler Erfahrung. Falls ja, dann sollte der Dienstleister auf jedenfall weltweit und über das Internet Schulungen anbieten sowie über einen internationalen Support verfügen.

Cloud Integration

Die Bedeutung von Cloud zu Cloud Integration wird weiter an Bedeutung zunehmen. Hier sollte der Dienstleister neben Erfahrungen mit unterschiedlichen Anbietern ebenfalls bereits Multi-Vendor Installationen und Integrationen durchgeführt haben.

Die Akzeptanz entscheidet

Jedes Projekt steht und fällt am Ende mit der Akzeptanz der späteren Nutzer. Der Dienstleister sollte daher Lösungen iterativ entwickeln können, um die Anforderungen der Nutzer und der IT gleichermaßen erfüllen zu können.

Reputation und Vertrauen

Neben einer guten Reputation ist das Vertrauen in den Dienstleister entscheidend. Schließlich startet man mit einem Projekt in eine langfristige Geschäftsbeziehung, zu der ebenfalls der Cloud Anbieter selbst gehört. Vertrauen schafft Vertrauen und sorgt zudem für eine dauerhafte Beziehung.

Externe Artikel zu Cloud Computing Anbieter

Ich habe im Laufe der letzten Jahre ein paar Artikel für IT-Magazine geschrieben, in denen ich die Portfolios einzelner Anbieter betrachtet habe, die ebenfalls Professional Services im Angebot haben.


Bildquelle: http://createyournextcustomer.techweb.com

Kategorien
Analysen

Trends und Fakten rund um den Cloud Computing Markt

Auch wenn die Meinungen und Reaktionen rund um die Cloud immer sehr „vielfältig“ ausfallen, ist die generelle Meinung, dass Cloud Computing rasant wächst und weiter stark wachsen wird. Während die Marktforscher von Market Research Media dem Cloud Markt bis 2020 ein Wachstum von 270 Milliarden US-Dollar voraussagen, ist Forrester ein wenig vorsichtiger und vermutet bis 2014 ein Wachstum von ca. 55 Milliarden US-Dollar.

Aktuelle Fakten und Trends im Cloud Computing Markt

Aber wie wird sich der Cloud Markt in Zukunft verhalten und welche Trends erwarten uns? In das Orakel zu schauen, was in der Zukunft passieren wird und wie sich das genau in Zahlen niederschlägt ist sehr schwierig. Umsonst müssen sich die Marktforscher nicht immer mal wieder nach unten korrigieren. Dennoch sind die Zahlen gute Richtwerte und anhand der aktuellen Marktentwicklung lassen sich gut neue Trends und Bedürfnisse erkennen.

Software-as-a-Service (SaaS)

Der SaaS-Markt bietet auf Grund seiner Vielfalt und Möglichkeiten das größte Marktsegment in der Cloud und wird damit auch der größte Bereich im Cloud Computing Markt bleiben. Gartner hat hier verschiedene Kategorien von SaaS Applikationen differenziert. Dazu gehören aktuell CRM, ERP, Web Conferencing, Kollaborationsplattformen und Social Software Suites.

Infrastructure-as-a-Service (IaaS)

IaaS wird in den kommenden Jahren ein stetiges Wachstum behalten. Allerdings sieht Forrester in Dynamic Infrastructure Services auf lange Sicht mehr Potential als in IaaS. Dennoch sollte man nicht vernachlässigen, dass IaaS die Lösung für die Herausforderungen von Big Data ist.

Platform-as-a-Service (PaaS)

Nach einer Gartner Studie hat PaaS das schnellste Wachstum von allen Services in der Cloud. Die Wachstumsraten in den jeweiligen PaaS Teilsegmenten gliedern sich dabei wie folgt auf: Anwendungsentwicklung (22%), Datenbankmanagementsysteme (48.5%), Business Intelligence Plattformen (38.9%) und Anwendungsinfrastruktur und Middleware (26.5%).

Business Process Management

Der Cloud BPM (bpmPaaS) Markt soll von Jahr zu Jahr um ca. 25% wachsen. 40% der Unternehmen die bereits BPM einsetzen, nutzen BPM aus der Cloud. Gartner hat mehr als 30 bpmPaaS Anwendungen und Plattformen identifiziert und hat diese als Model-Driven BPM-Plattform in der Cloud kategorisiert, mit denen Prozess-orientierte Anwendungen der nächsten Generation entwickelt werden sollen, die für Differenzierung und Innovation sorgen werden.

Big Data

Big Data wird, laut Gartner, den Unternehmen in den nächsten 2 bis 5 Jahren entscheidende Vorteile bringen. Bis 2015 soll Big Data den Unternehmen dabei helfen einen strategischen Vorteil gegenüber des Mitbewerbs zu erhalten. Gartner definiert Big Data dabei als Methode um große Datenmengen, zusätzlich zur Batch-Verarbeitung, fließend zu verarbeiten. Integraler Bestandteil von Big Data ist ein erweiterbares Framework, dass Daten direkt verarbeitet oder diese an einen Prozess-Workflow weiterleitet. Gartner unterscheidet Big Data dabei zusätzlich in strukturierte und unstrukturierte Daten.

Cloud Business Marketplaces

Cloud Marketplaces gehören zu der logischen Entwicklung des Cloud Computing, um Unternehmen und Entwicklern den einfachen Zugriff auf IT-Ressourcen zu ermöglichen. Neben einer gut dokumentierten API gehören ebenfalls übersichtliche und umfangreiche Web-Oberflächen zu einem guten Cloud Angebot, die es dem Nutzer ermöglichen sich „auch mal eben“ eine Cloud Infrastruktur „zusammenzuklicken“, um z.B. ein paar Tests durchzuführen. Bereits viele Anbieter sind auf diesen Zug aufgesprungen und ermöglichen über einen eigenen Cloud Marktplatz den Zugriff auf ihre IaaS-Ressourcen. Zudem reichern sie ihre Infrastruktur-Angebote über den Marktplatz mit Betriebssystem-Images oder weiteren Software-Lösungen an, um den virtuellen Ressourcen damit einen echten Nutzen zu geben.

Cloud Brokerage Services

Das Cloud Services Brokerage Modell bietet ein architektonisches-, business-, und IT-Betriebs-Modell, mit dem verschiedene Cloud Services bereitgestellt, verwaltet und adaptiert werden können. Und das sich innerhalb eines föderierten und konsistenten Bereitstellung-, Abrechnung-, Sicherheit-, Administration- und Support-Framework befindet.

Unternehmen werden damit in die Lage versetzt, ihr Cloud-Services Management zu vereinheitlichen, um damit den Innovationsgrad zu erhöhen, die globale Zusammenarbeit zu verbessern, die Betriebskosten zu senken und insgesamt besser zu wachsen. Cloud Computing Anbieter erhalten damit die Möglichkeit die Bereitstellung ihrer Cloud Services zu vereinheitlichen und ihr eigenes Services Netzwerk zu differenzieren und damit eine umfangreiche Cloud Computing Plattform bereitzustellen. Technologie-Anbieter können damit ein Ökosystem von Mehrwertdiensten aufbauen, um ihre wichtigsten Angebote zu differenzieren, die Kundenbindung erhöhen und neue Vertriebswege erschließen.

Ein Cloud Service Broker ist ein Drittanbieter, der im Auftrag seiner Kunden Cloud Services mit Mehrwerten anreichert und dafür sorgt, dass der Service die spezifischen Erwartungen eines Unternehmens erfüllt. Darüber hinaus hilft er bei der Integration und Aggregation der Services, um ihre Sicherheit zu erhöhen oder den originalen Service mit bestimmten Eigenschaften zu erweitern.

Master Data Management (MDM)

Master Data Management (MDM) Lösungen aus der Cloud und hybride IT Konzepte sind das erste Mal im Hype Cycle vertreten. Gartner erwartet, dass MDM Lösungen aus der Cloud ein steigendes Interesse in Unternehmen erhält, da das allgemeine Interesse an MDM stetig steigt. Als führende Anbieter in diesem Bereich sieht Gartner Cognizant, Data Scout, IBM, Informatica, Oracle und Orchestra Networks.

Private Cloud

Die Private Cloud gehört zu den beliebtesten Cloud Deployment Modellen. Laut einer Gartner Umfrage planen 75% der Befragten bis 2014 eine Strategie in diesem Bereich. Bereits viele unterschiedliche Unternehmen haben Private Cloud Lösungen in Pilot-Projekten und im produktiven Betrieb im Einsatz. Dabei ist das Hauptziel, für sich den größten Nutzen aus der Virtualisierung zu ziehen.

Fazit

Unabhängig von den oben getroffenen Annahmen werden alle Segmente des Cloud Computing Markt durch den Zustand unserer Wirtschaft und die weltweite Nachfrage nach IT-Dienstleistungen beeinflusst werden. Cloud Computing ist ein attraktiver Wachstumsmarkt besonders für kleine- und mittelständische Unternehmen, aber bietet ebenfalls ein erhebliches Potenzial für Unternehmen jeder Größe.


Bildquelle: http://www.moeller-horcher.de

Kategorien
Analysen

Vorteile und Nachteile von Open-Source Cloud Computing Lösungen

Open-Source Cloud Frameworks haben in den vergangenen Monaten einen riesen Hype erlebt. Die vermeintlich großen Player wie Rackspace, HP, VMware und Citrix sorgen für die finanzielle Unterstützung von Lösungen wie OpenStack oder CloudStack und lassen unaufhörlich ihre Marketingkampagnen laufen. Dabei verfolgen alle genannten nur ein Ziel: Den Cloud Computing Krösus Amazon Web Services vom Thron zu stoßen. Allerdings müssen sich die Open-Source Anbieter die Frage gefallen lassen, ob ihre Technologien bereits für den Einsatz im Unternehmen taugen.

Vor- und Nachteile von Open-Source Clouds

Open-Source Cloud-Implementierungen gibt es erst seit ein paar Jahren und haben bis jetzt noch nicht ausreichend Anwendungsfälle im produktiven Betrieb. Obwohl eine Reihe von Early-Adoptern aus dem Telkosektor, Finanzdienstleister und wissenschaftliche Einrichtungen bereits Alternativen in Open-Source Cloud Systeme suchen, ist die Vielzahl an Unternehmen darüber nicht informiert. Es lohnt sich daher mal einen Blick auf die Vor- und Nachteile zu werfen.

Vorteil: Flexibilität

Per Definition bieten Open-Source Clouds ein höheres Maß an Flexibilität als der proprietäre Mitbewerb. Statt sich einfach nur mit dem Lesen von Anleitungen zufrieden zugeben oder an Schulungen teilzunehmen, können Nutzer selbst Änderungen an dem Code vornehmen und sich selbst mit eigenem Code an verschiedenen Projekten beteiligen. Zudem können sie eigene Projekte starten, eigene Dokus zur Verfügung stellen oder Seminare abhalten. Interaktionen mit der Gemeinschaft und der damit verbundenen Weiterbildung ermöglichen dem Anwender mehr Flexibilität bei der Gestaltung ihres Cloud-Designs und fördert innovative interne oder externe Lösungen.

Vorteil: Vendor Lock-In

Ein Argumente der Open-Source Cloud Community ist die Prävention vor einem Vendor Lock-in. Die Argumente sind einfach. Wird eine Cloud auf Basis einer offenen und weit verbreiteten Open-Source Technologien aufgebaut, hat kein Anbieter die Möglichkeit die volle Kontrolle über das Open-Source Framework zu erhalten. Damit können Anwender schneller auf die Entwicklung der Technologien im Rahmen des Open-Cloud Stacks reagieren. Darüber hinaus geben Open-Source Clouds dem Nutzer die Freiheit, seine Cloud an seine individuellen Bedürfnisse und Unternehmensziele anzupassen, statt diese anhand einer einzigen proprietäre Lösung aufzubauen.

Vorteil: Einsparung

Open-Source Software ermöglicht auf Grund seiner Lizenzierung die kostenlose Nutzung und hat damit preislich einen enormen Vorteil gegenüber dem kommerziellen Mitbewerb. Egal ob sich ein Nutzer nun für ein reines Open-Source Angebot oder für eine kommerzielle Open-Source Lösung entscheidet, wird er im Vergleich zu einer proprietären Software Kosten sparen können. In jedem Fall besteht für jedes Unternehmen die Möglichkeit, durch Open-Source Software, bei gleichzeitiger Erhöhung der Flexibilität, die Kosten zu senken, was einen Gewinn für jede Organisation darstellt.

Vorteil: Kontrolle, Offene Standards, APIs

Eine Open-Source Cloud setzt auf offene Standards und APIs und wird nicht von einem einzigen Hersteller kontrolliert. Das erlaubt es Unternehmen, die Kontrolle über die darunter liegende Hardware Infrastruktur und Managementplattform zu behalten, unabhängig davon, um welche Technologie es sich handelt. Des Weiteren ermöglichen offene APIs eine bessere Integration in bestehende offene oder proprietäre Lösungen, womit sichergestellt wird, dass aktuelle IT-Investitionen innerhalb der neuen Architektur weiterhin relevant sind.

Vorteil: Portabilität

Baut man seine Cloud auf Basis von Open-Source auf, sollte man immer schauen, wie es mit der Interoperabilität zu anderen Public, Private oder Hybrid Cloud Lösungen ausschaut. Entscheidet man sich für eine offene Technologie erhält man damit ein höheres Maß an Portabilität innerhalb des großen Cloud Ökosystems. Anstatt ihre eigenen Möglichkeiten auf proprietäre Technologien zu beschränken, können sich Nutzer an unterschiedlichen Open-Source Cloud Technologien bedienen und damit ihre IT-Entscheidungen unterstreichen und die eigenen Bedürfnisse und Unternehmensziele damit unterstützen.

Nachteil: Mangel an Unterstützung

Anwender die sich dafür entscheiden, ihre Cloud auf reiner Open-Source Software aufzubauen, begeben sich bzgl. Support in die Abhängigkeit des Open-Source Projekts. Das kann ganz schön zäh und schmerzhaft werden. Denn der Support kommt hier anhand von Foren, Chats, Q&A Systemen und Bug-Tracking Systemen von der Crowd. Zudem sollte man sich als Nutzer aktiv in der Community beteiligen und etwas dazu beitragen, was in der Welt der kommerziellen Software nicht notwendig ist. Auf der anderen Seite kann man sich für kommerzielle Open-Source Cloud Lösungen entscheiden, die für professionellen Support sorgen.

Nachteil: Kosten

Zwar haben Open-Source Lösungen auf Grund der in der Regel kostenlosen Lizenzen, im Vergleich zu kommerzieller Software, einen Kostenvorteil, allerdings gibt es auch hier Kosten die nicht zu vernachlässigen sind. Zum einen wird für den Aufbau einer Open-Source Cloud ein nicht zu unterschätzendes Wissen für die Entwicklung benötigt. Zum anderen müssen auch die Administratoren für einen einwandfreien Betrieb der Infrastruktur sorgen, wofür intensive Kenntnisse für die Verwaltung und Wartung der Lösung erforderlich sind. Darüber hinaus wird externes Fachwissen in Form von Beratung oder Entwicklung-Ressourcen benötigt.

Nachteil: Reifegrad

Je schneller sich das Open-Source Cloud Ökosystem entwickelt, kann sich ein Anwender nicht zwangsläufig darauf verlassen, das und wie lange ein Open-Source Projekt bestand hat. Wenn sich ein Cloud Architekt während des Designs einer Open-Source heute für eine bestimmte Technologie entscheidet, kann es durchaus passieren, das ihn diese in Zukunft einholen wird, da das Projekt eingestellt und nicht mehr weiterentwickelt wird. Mit den stetig steigenden Open-Source Projekten und unterschiedlichen Ansichten ist es für den Anwender zunehmend schwieriger geworden sich für den „richtigen“ Weg zu entscheiden.

Fazit

Entscheider die sich für eine Cloud Infrastruktur entscheiden wollen diese hochverfügbar, einfach zu bedienen und so agil, dass sie sich mit den Bedürfnissen der Unternehmensziele verändert. Es ist daher entscheidend, dass sich ein Entscheider zunächst über die Unternehmensziele im klaren ist und sich mit seiner bestehenden IT-Infrastruktur auseinandersetzt, bevor er über den Aufbau einer Open-Source oder proprietären Cloud Infrastuktur nachdenkt. Möglicherweise kann man auch zu dem Ergebnis kommen, dass eine eigene Cloud für das Unternehmen keinen nennenswerten Vorteil bietet und andere Möglichkeiten evaluiert werden müssen.

Sollte die Entscheidung zu Gunsten einer Open-Source Cloud Lösung fallen, macht es durchaus Sinn eine kommerzielle Open-Source Software in Betracht zu ziehen, hinter der ein Unternehmen steht, das für die Kontinuität des Projekts und eine klare Richtung sorgt und darüber hinaus professionellen Support bietet. Damit kann das Risiko einer Open-Source Cloud Lösung deutlich minimiert werden.


Bildquelle: https://new.edu

Kategorien
Analysen

Ausfallprävention: Diese Fragen sollte man seinem Cloud Computing Anbieter stellen

Ausfälle, wie der kürzlich bei den Amazon Web Services, in der Cloud, sind für alle Beteiligten sehr ärgerlich. Der Kunde verliert im schlimmsten Fall seine Daten und Kunden, hat aber in der Regel mit der Nichtverfügbarkeit seiner Systeme zu kämpfen. Der Anbieter, auf der anderen Seite, muss sich erklären und erleidet einen Imageverlust.

Vor Ausfällen ist niemand geschützt

Seit 2007 haben 568 Stunden Ausfallzeit von 13 namhaften Cloud Services mehr als 71.700,000 US-Dollar an Kosten verursacht, das zeigt eine Studie der International Working Group on Cloud Computing Resiliency (IWGCR). Dabei liegt die durchschnittliche Nichtverfügbarkeit von Cloud Services bei 7,5 Stunden pro Jahr. Das entspricht einer garantierten Verfügbarkeit von 99,9 Prozent, die weit weg von dem liegt, was von geschäftskritischen Systemen (99,999 Prozent) erwartet wird. Im Vergleich dazu beträgt die durchschnittliche Nichtverfügbarkeit von Strom in einer modernen Großstadt weniger als 15 Minuten pro Jahr.

Zwar vergüten die Cloud Anbieter die Ausfallzeiten, indem für den Zeitraum des Ausfalls keine Gebühren berechnet oder Rabatte erstattet werden, allerdings bezieht sich das lediglich auf die genutzte Infrastruktur. Die weiteren Kosten, die dem Kunden durch den Ausfall entstanden sind – Ersatzansprüche seiner Kunden, Datenverluste, usw. – erstattet der Cloud Anbieter nicht.

Fragen an den Cloud Computing Anbieter

Der Kunde wird also nicht geschützt und sollte sich vorab selbst darum kümmern den Anbieter auf Herz und Nieren zu prüfen.

Entspricht das SLA den eigenen Ansprüchen?

Cloud Anbieter werben in der Regel mit einer Verfügbarkeit von 99,9%. Wen das die eigenen Ansprüche nicht befriedigt oder das Unternehmen eine deutlich höhere Verfügbarkeit benötigt, der muss nachverhandeln. Zudem sollte man darauf achten, dass im Vertrag für jeden Service gut definierte Wiederherstellungspunkte beschrieben sind und welche Objekte das betrifft. Erwartet man eine Verfügbarkeit von 99,999% ist allerdings davon auszugehen, dass man hier monatlich deutlich draufzahlen muss.

Wie wird Verfügbarkeit und Ausfallzeit bestimmt?

Was genau bezeichnet der Anbieter selbst als Ausfall? Ist es die nicht Verfügbarkeit der gesamten Infrastruktur oder wenn 10%, 20% oder 60% der Nutzer von dem Problem betroffen sind? Wie sieht es aus, wenn das System zwar technisch einwandfrei funktioniert, aber sehr langsam arbeitet? Die meisten Anbieter schließen eine Reihe von Themen in ihren AGBs aus, die nicht als Ausfall bezeichnet werden, darunter Notsituationen oder Ausfälle von 15 Minuten oder weniger.

Wie schaut es mit höherer Gewalt aus?

Die meisten Cloud Anbieter schließen Ereignisse durch höhere Gewalt aus. Dazu gehören Naturkatastrophen, Kriege und Streiks. Hier muss man allerdings genauer hinschauen. Wenn bspw. die Notstromaggregate auf Grund eines Defektes an der eigenen Infrastruktur ausfallen, ist es wiederum keine höhere Gewalt, selbst dann wenn der Stromausfall z.B. durch ein Unwetter ausgelöst wurde. (eigene Meinung)

Wie robust ist die Cloud Umgebung?

Hier sollte man genau hinschauen. Befindet sich das Rechenzentrum z.B. in einem Erdbeben gefährdeten Gebiet, ist das ein enormes Risiko. Man sollte die Cloud Umgebung daher immer einer genauen technischen Prüfung unterziehen, wenn man die Cloud Services ernsthaft nutzen will.

Wie sehen die Notfallpläne aus?

Hier sollte man besonders drauf achten, das haben die letzten Ausfälle gezeigt! Es gilt daher, sich einen Blick auf die Notfallpläne zu verschaffen und ggf. einen Besuch vor Ort vorzunehmen und einen Audit durchzuführen. Das gilt für den gesamten Prozess inkl. der eigenen Anwendung, die auf der Cloud Infrastruktur betrieben wird, falls es zu einem Ausfall kommt.

Wie oft werden die Notfallpläne gestestet?

Nur weil der Anbieter über einen Notfallplan verfügt, bedeutet das nicht, dass dieser auch funktioniert. Fakten sind hier gefragt. Hier ist es angebracht sich die Ergebnisse der letzten Tests zu zeigen und dieses ebenfalls vertraglich festzuhalten.

Wie nutze ich die Infrastruktur am besten?

Beim letzten Ausfall der Amazon Web Services waren viele Services nicht verfügbar, da sich diese nur auf eine AWS Region konzentriert haben. Andere hingegen waren dennoch erreichbar, da sie ihre Systeme intelligent über die Amazon Cloud verteilt haben. 1. Ermöglicht ein Anbieter diese Vorgehensweise? 2. Wie nutze ich diese (gibt es eine Dokumentation dafür)?

Kann ich bevorzugt behandelt werden?

Sollte es zu einem Ausfall kommen, sind in der Regel mehrere Kunden davon betroffen. Der Anbieter wird also dafür sorgen müssen tausende von Kunden wieder online zu bringen. Hier kann es sich lohnen, für eine bevorzugte Behandlung zu zahlen, wenn die eigene Anwendung geschäftskritisch ist.

Due Diligence?

Neben den technischen Prüfungen ist es ebenfalls interessant zu wissen, wie der Anbieter z.B. auf der finanziellen Seite aufgestellt ist, um seine eigenen Rechnungen zu bezahlen. Was nützt also eine sehr robuste Infrastruktur, wenn der Anbieter auf Grund einer Insolvenz plötzlich nicht mehr erreichbar ist.


Bildquelle: http://www.mobileappz.tv, http://blog.cloudbees.com

Kategorien
Analysen

MS Office 2013: Microsoft rückt die Cloud endgültig ins Zentrum seines Portfolios

Die Cloud ist der Renner 2012. Vor zwei Tagen präsentierte Microsoft seine neueste Office Version und zeigte damit deutlich, dass die Cloud zum zentralen Dreh- und Angelpunkt aller Angebote aus dem Hause Microsoft werden wird. Das neue MS Office ist geräteübergreifend per Touch, Stift sowie Maus und Tastatur zu bedienen und ist gezielt in Microsoft Surface Geräte mit Windows 8 bzw. RT integriert. Neben der Cloud enthält Microsoft Office in Zukunft ebenfalls Social Media Eigenschaften, mit denen Dokumente gemeinsam bearbeitet und Informationen ausgetauscht werden können. Zudem wird Office nun als Cloud Services angeboten, wodurch die Software durch Microsoft ständig auf dem aktuellen Stand gehalten wird.

Die neuen Office 2013 Funktionen im Überblick

Die Customer Preview von Office 2013 ist bereits in englischer Sprache verfügbar und kann unter http://www.office.com/preview kostenlos heruntergeladen werden. Darüber hinaus sind Vorabversionen von SharePoint, Exchange, Lync, Project & Visio sind ebenfalls verfügbar. Zu den Highlights der neuen Version zählen:

Office und Windows 8

Die von Smartphones und Tablets bekannte Touch-Steuerung ist nun vollständig in Office implementiert. Damit lassen sich Dokumente und Präsentationen in Zukunft per Finger erstellen und bearbeiten. Traditionell bewusste Nutzer können auf digitale Tinte statt der Tastatur zurückgreifen. Per Stift lässt sich der Text für eine E-Mail direkt auf dem Bildschirm schreiben, der anschließend in das Format der E-Mail umgewandelt wird. Mit dem Stift lassen sich zudem weitere Funktionen steuern. In ARM-basierten Windows 8 Geräten sowie Microsoft Surface ist das Office Home und Student 2013 RT mit neuen Versionen der Anwendungen Word, Excel, PowerPoint und OneNote bereits enthalten.

Office und die Cloud

Microsoft Office wird Cloud zentriert und speichert die Dokumente in Zukunft auf SkyDrive. Dadurch stehen alle Inhalte auf sämtlichen Geräten wie Tablet, PC und Smartphones zur Verfügung. Darüber hinaus stehen die Dokumente ebenfalls offline synchronisiert bereit, sobald der Nutzer eine aktive Datenverbindung hat. Über eine Roaming-Funktion werden personalisierte Einstellungen wie die zuletzt verwendeten Dateien oder auch Vorlagen gesichert. Nutzer können im Rahmen ihres Abonnements Office-Anwendungen mit vollem Funktionsumfang über das Internet zu einem fremden Windows-PC streamen und dadurch ihre Office-Anwendungen verwenden. Das neue Office ist als Cloud-basierter Abo-Service verfügbar. Nutzer erhalten automatisch Upgrades und Freiminuten für Skype sowie Extraspeicher auf SkyDrive.

Office und Social Media

Zu den weiteren zentralen Funktionen der neuen Office-Version gehört die nahtlose Integration der Social Media Kanäle, wie LinkedIn oder Yammer sowie Facebook oder Skype. Die Anmeldung an Yammer, dem sozialen Netzwerk für Unternehmen, ist kostenlos. Die Social Media Plattform kann sofort nach Anmeldung genutzt werden und integriert SharePoint und Microsoft Dynamics. Über die neue Funktion People Card erfolgt eine direkte Integration der Kontakte aus sozialen Netzwerken in Office, worüber Informationen mit Fotos, Statusaktualisierungen, Kontaktdaten und Activity Feeds der Benutzerkonten aus Facebook und LinkedIn zur Verfügung stehen. Darüber hinaus verfügt die neue Office-Version über eine Skype Integration, wodurch Nutzer ihre Kontakte aus Skype direkt in Lync integrieren und damit alle Personen in Skype anrufen oder per Sofortnachricht kontaktieren können.

Neue Abo-Dienste für Office 365

Das vollständige Angebot sowie die Preise werden im Herbst bekannt gegeben. Allerdings stehen bereits drei neue Abodienste von Office 365 bereit. Sobald diese verfügbar sind, werden im Rahmen jedes neuen Abonnements die neuen Office 2013 Versionen der Anwendungen Word, Excel, PowerPoint, OneNote, Outlook, Publisher und Access bereistehen. Zudem erhalten Abonnenten künftig Rechte auf Versionsaktualisierungen sowie Nutzungsrechte für bis zu fünf PCs oder Macs und Mobilgeräte.

Zu den drei neuen Editionen gehören:

Office 365 Home Premium

Fokussiert Familien und Endkunden. Der Service umfasst eine zusätzliche Speicherkapazität von 20 GB auf SkyDrive und 60 Freiminuten für Skype pro Monat.

Office 365 Small Business Premium

Adressiert Kleinunternehmen. Dieser Service umfasst Emails, die gemeinsame Nutzung von Kalendern, Website-Tools und Internetkonferenzen in HD auf Unternehmensebene.

Office 365 ProPlus

Für Unternehmenskunden, die erweiterte Geschäftsfunktionen und eine hohe Flexibilität bei der Bereitstellung und Verwaltung der Systeme in der Cloud benötigen.

Ein logischer Schritt

Das Microsoft die nächste Version seiner Office Suite sehr Cloud zentrisch aufstellt ist nicht überraschend sondern ein logischer Schritt, der sich durch das Cloud Computing sowie die Strategie die sich in den vergangenen Jahren und Monaten herauskristallisiert hat. Nachdem bereits Dynamics CRM Online zu 30% mehr Kunden geführt hat und Dynamics NAV 2013 im Herbst in die Cloud wandern wird, feilt Microsoft neben Azure und Office 365 mit Office 2013 nun endgültig an einem vollständigen Cloud Portfolio.
Insbesondere durch die Integration der neuen Office Suite mit den mobilen Systemen rund um Surface und Windows 8/RT, schafft Microsoft den Spagat zwischen der Cloud und mobilen Endgeräten, über den ich bereits kurz nach der CeBIT geschrieben habe. Zwar unterstützt Office 365 bereits den online/ offline Mode zur Bearbeitung von Dokumenten, jedoch scheint Microsoft dies mit der Integration in SkyDrive zu optimieren, um ebenfalls die Plattformunabhängigkeit sicherzustellen.

Der Mitbewerb muss sich warm anziehen

Die Konkurrenz allen voran Google muss sich langsam warm anziehen. Google Apps gehört zu den schärfsten Konkurrenten von Cloud Office Suites wenn es um das Geschäftskundensegment geht. Allerdings scheint der aktuelle Innovationsgrad von Microsoft im Cloud Bereich Google derzeit ein wenig zu überholen. Speziell die vollständige Integration der kommenden mobilen Endgeräte rund um Windows 8 wirkt sehr attraktiv. Wo Google mit seinen Chromebooks in erster Linie vollständig auf die Cloud setzt und nach und nach offline Features hinzufügt, verfolgt Microsoft den hybriden Ansatz, um direkt einer nicht vorhandenen Datenverbindung vorzubeugen.

Wo ich bei Microsoft weiterhin einen deutlichen Vorteil sehe ist die Reputation. Google gilt als Datenkrake und leider tun sie alles, um dieses Image beizubehalten. Und auch wenn Google das innovativste Unternehmen unser Zeit ist, sollte man die Medaille von beiden Seiten betrachten, siehe Google Drive und Datenschutz. Bei der Cloud geht es nun einmal um Transparenz und Vertrauen und etablierte Unternehmen werden eher mit einem langjährigen Partner zusammenarbeiten, dessen (on-Premise) Produkte sie kennen und schätzen gelernt haben, anstatt zu experimentieren. Bei Startups sieht es allerdings wieder anders aus.

Kategorien
Analysen

Microsoft attackiert die Amazon Web Services über die Private Cloud

Microsoft portiert seine Cloud Lösungen Windows Azure Web Sites, Virtual Machines und das Service Management Portal auf den Windows Server und ermöglicht es damit Hosting Anbieter ihren Kunden hochverfügbare Webseiten und Infrastructure-as-a-Service Lösungen auf Basis von Microsoft Cloud Technologien anzubieten. Anders als die Google Compute Engine, lassen sich die neuen Microsoft Cloud Lösungen prinzipiell auch in einer Private Cloud aufbauen. Die Cloud Implementierung, die sich bei etablierten Unternehmen tendenziell als die Bevorzugte herausstellt.

Microsoft Hosting Services

Die Microsoft Hosting Services setzten sich im Kern aus der „Windows Server Hosting Platform“, „Infrastructure-as-a-Service“, „Windows Azure“ und den „Business Productivity Hosting Solutions“ zusammen. Dabei bietet die Hosting Plattform ein Framework, Web Server, Datenbanken und weitere Tools, mit denen Web Seiten auf Windows gehostet werden können. Mit dem „Dynamic Data Center Toolkit“ können Web-Hoster on-Demand virtuelle Server, Cluster, Netzwerkinfrastrukturen und Speicherplatz bereitstellen. Über Windows Azure stehen Möglichkeiten zur Verfügung, neue Anwendungen auszurollen sowie neue Cloud Services zu erstellen. Die „Business Productivity Hosting Solutions“ ermöglichen das Anbieten von Business Anwendungen auf Basis von Microsoft Exchange 2010 und SharePoint 2010.

Granularer wird zwischen „Web Sites“, „Virtual Machines“, dem „Service Management Portal“ und einer „API“ unterschieden.

Web Sites

Mit „Web Sites“ können hochverfügbare und skalierbare Webseiten-Infrastrukturen aufgebaut werden, mit denen man über 10.000 Seiten in einer einzigen Web Farm verwalten kann. Zudem werden unterschiedliche Frameworks und Sprachen wie ASP.NET, ASP, PHP und Node.js mit einer vollständigen Git Integration unterstützt.

Virtual Machines

Zusammen mit bekannten Microsoft Technologien wie System Center und Windows Server lassen sich Infrastructure-as-a-Service Angebote aufbauen, mit denen virtuelle Machinen mit Windows Server und Linux bereitgestellt werden.

Service Management Portal und API

Anhand einer Metro-basierten Oberfläche und einem Self-Service Portal lassen sich „Web Sites“ und „Virtual Machines“ verwalten. Mit einer REST-basierten API lässt sich das Portal anpassen und erweitern, um damit bspw. andere Portal anzubinden.

Amazon ist ein reiner Service Anbieter

Auch wenn sich das neue Microsoft Angebot in erster Linie an Hosting-Anbieter richtet, sollte man nicht vergessen, wie einfach es ist, die Lösungen für die Private Cloud verfügbar zu machen.

Die Amazon Web Services verstehen es zwar hochwertige Public Cloud IaaS auszuliefern. Wenn es um die on-Premise Anforderungen von Unternehmen geht, hat Microsoft hier allerdings die Nase vorn. Wo AWS in der Cloud geboren ist und langsam damit anfangen muss, etablierte Kunden von der Basis abzuholen, um das große Geschäft zu machen, kommt Microsoft aus dem on-Premise Bereich und ist hier mit Abstand Marktführer.

Zudem weiß Microsoft, was es bedeutet, Software anzubieten, diese zu warten, Updates auszuliefern usw. Amazon ist ein reiner Service Anbieter und ist in kurzer Zeit nicht in der Lage diese Expertise und vor allem die notwendigen Vertriebskanäle aufzubauen.

Private Cloud wird bevorzugt

Und genau darin besteht auch Microsofts großer Vorteil. Das Unternehmen befindet sich bereits dort, wo die meisten Unternehmen gerne bleiben möchte, in den eigenen vier Wänden ihres Rechenzentrums, in der Private Cloud. Laut einer KPMG-Studie haben fast 60% (400 Befragte) der IT-Entscheider gute Erfahrung mit Private Cloud Lösungen gemacht. 21% wollen in Zukunft hier gezielter investieren. Dabei fließen bereits 19% des IT-Budgets in die Private Cloud, bevorzugt in Infrastructure-as-a-Services.

Für das Jahr 2013 wollen ein Drittel der befragten Unternehmen 26% – 50% ihres IT-Budget in die Private Cloud stecken. Darüber hinaus interessieren sich ca. 90% der Unternehmen nicht(!) für die Public Cloud, wobei 6% diese nutzen und 7% darüber nachdenken.

Amazons einziger Private Cloud Anker heißt Eucalyptus

Man kann sich nun die Frage stellen, ob AWS überhaupt daran interessiert ist, mit Microsoft in der Private Cloud in den Wettbewerb zu ziehen. Egal wird es ihnen allerdings nicht sein, das haben Maßnahmen zu Beginn des Jahres gezeigt.

Genauer geht es um den Deal der Amazon Web Services mit Eucalyptus Inc., die einen Fork der Amazon Web Services für die Private Cloud anbieten. Die Kooperation ist so aufgebaut, das Entwickler aus beiden Unternehmen Lösungen schaffen werden, um Private Cloud Lösungen auf Basis von Eucalyptus mit der Amazon Infrastruktur nahtlos zu verbinden. Zudem sollen die Kunden für die Nutzung von AWS als auch Eucalyptus dieselben Management Tools verwenden können. Darüber hinaus soll die Kompatibilität beider APIs verbessert werden.

Eucalyptus ist derzeit also der einzige Weg für die Amazon Web Services in die Rechenzentren der Unternehmen, wo Microsoft bereits wartet.