Kategorien
News

Der Einfluss des Cloud Computing auf Unternehmen

Dieses Paper erörtert den Einfluss des Cloud Computing auf Unternehmen und ihre Informationstechnologie. Dabei ist das Ziel die Identifikation der Bereiche eines Unternehmens bzw. dessen Unternehmens-IT, die unmittelbar von dem Einsatz des Cloud Computing betroffen sind. Dazu werden die Einflüsse und Herausforderungen extrahiert,denen sich Unternehmen stellen müssen, wenn sie Cloud Computing adaptieren wollen und welche Kriterien zu beachten sind wenn es darum geht einen Anbieter auszuwählen.

Der Einfluss des Cloud Computing auf Unternehmen by René Büst

Kategorien
Analysen

Die Leistungsmetriken einer Cloud sind entscheidend

Cloud Computing verändert unaufhörlich die Art wie IT Services bereitgestellt werden. Neben Kosteneinsparungen gehören die einfache Adaption und ein vereinfachtes Service-Management zu den ursprünglichen Versprechen des Cloud Computing. Dennoch sehen sich Unternehmen aktuell damit konfrontiert, wie sie Services aus der Cloud mit ihrer bestehenden Unternehmens- und IT-Strategie integrieren können. Werden Cloud Lösungen im Unternehmen eingeführt, gehören Verfügbarkeit, Leistungsmetriken und die Sicherheit zu den größten Herausforderungen. Daher ist es notwendig eine Cloud-Strategie zu entwickeln, um die Transformation Schritt für Schritt zu vollziehen.

Die Leistungsmetriken entscheiden über eine Cloud

Viele Unternehmen entscheiden sich über einen Verbund unterschiedlicher Clouds (Federated Cloud). Dabei befinden sich einige Anwendungen innerhalb einer Public Cloud und ein paar in einer Private Cloud. Auf die restlichen Alt-Anwendungen wird über ein klassisches VPN zugegriffen. Um die Masse der dabei entstehenden und übertragenen Informationen zu überwachen ist ein Performance-Management-System notwendig, dass einen Überblick über sämtliche Aktivitäten aller Anwendungen gibt. Speziell die Performanz einer Anwendung misst, wie Leistungsstark die Cloud Umgebung ist, auf der sich die Anwendung befindet.

Schlechte Leistungsmetriken ergeben sich durch eine geringe Bandbreite, Latenzen auf den Datenverbindungen, zu wenig Speicherplatz bzw. langsame Festplatten, geringer Arbeitsspeicher und zu geringe CPU Zyklen. In den meisten Fällen führen zudem nicht ausreichend Ressourcen zu einer schlechten Performance der Anwendung. In manchen Fällen sorgt eine schlechte Applikations-Architektur dafür, dass die Geschwindigkeit der Anwendungen nicht den gewünschten Ergebnissen entspricht, indem die Prozesse der Anwendungen nicht korrekt über die Cloud Ressourcen verteilt wurden.

Dabei sollten Performance-Probleme keinesfalls unterschätzt werden. Denn diese können die Servicebereitstellung erheblich beeinflussen. Für einen Anwender macht es keinen Unterschied, ob der Service eine schlechte Performance hat oder gar nicht verfügbar ist. In beiden Fällen kann er den Cloud Service nicht erwartungsgemäß nutzen. Eine schlechte Performance ist daher ein No-Go und muss unter allen Umständen vermieden werden. Neben dem Verlust von Kunden sorgt eine schlechte Performance für eine Verringerung der Mitarbeiter- und allgemeinen Produktivität und kann sogar zu einem vollständigen Ausfall führen.

Die Cloud Umgebung muss beachtet werden

Die Performance einer Anwendung kann signifikant von der Umgebung abhängen in der sie bereitgestellt wird. Unternehmen müssen daher sicherstellen, dass die Performance der jeweiligen Applikation entspechend angepasst wird, bevor sie auf eine Cloud Computing Infrastruktur migriert wird bzw. neu entwickelt wird, um die Vorteile der Cloud zu nutzen. Dabei sollte man immer beachten, dass sich die Leistungsmetriken von Cloud zu Cloud unterscheiden, was zu einer echten Herausforderung werden kann.

Planen, Separieren und Skalieren

Die Kapazitätsplanung ist ein wichtiger Bestandteil der Cloud-Strategie, wenn Unternehmen ihre eigenen Cloud Umgebungen aufsetzen. Denn nur mit ausreichend Ressourcen lassen sich performante Anwendung bereitstellen, die den Mitarbeitern dabei helfen ihre Produktivität zu erhöhen.

Neben der Kapazitätsplanung ist das Thema Skalierbarkeit ein weiterer wichtiger Baustein, um die Performance einer Anwendung in der Cloud sicherzustellen bzw. diese zu erhöhen. Eine gute Anwendungsarchitektur reduziert Engpässe und Performance Probleme, indem Ressourcen intensive Prozesse voneinander getrennt und die Last über mehrere virtuelle Maschinen innerhalb der Cloud Umgebung verteilt werden.

Private Cloud ist nicht der goldene Weg

Viele Unternehmen entscheiden sich vermehrt für eine Private Cloud im eigenen Rechenzentrum, um die Kontrolle über Ressourcen, Daten, Sicherheit usw. zu behalten. Richtig ist, dass eine Private Cloud die Agilität eines Unternehmens verbessert und die Systeme bis zu einem gewissen Grad skalieren können. Allerdings sollte sich ein Unternehmen immer bewusst machen, das die Skalierbarkeit einer Private Cloud einem manuellen Prozess gleicht. Bei diesem muss in Echtzeit auf Ressourcenengpässe durch das eigene Personal reagiert werden, indem weitere Hardwarekomponenten in Form von Speicherplatz, Arbeitsspeicher oder Rechenleistung nachgerüstet werden. Für jede virtuelle Instanz wird schließlich auch die physikalische Hardware benötigt. Neben Hardware- und Softwareressourcen sind Tools zum Echtzeit-Monitoring der Umgebung daher unerlässlich.

Service Levels

In der Public Cloud bzw. Virtual/ Managed Private Cloud kann ein Service Level Agreement die Performance erhöhen, da in diesem die zu erwartenden Metriken für die Verfügbarkeit und Leistung festgehalten sind. Dabei sollte ein besonderes Augenmerk auf die Performance der Anwendung und die notwendige Leistung des Netzwerks gelegt werden. Mit diesen Werten lassen sich die erforderlichen Performance-Metriken der Cloud Computing Umgebung bestimmen. Hilfreich kann es zudem sein, wenn man die Performance der Anwendung in kleine Parameter zerlegt. Damit lassen sich die versprochenen Metriken besser messen.

Die Cloud ist kein Allheilmittel

Eine Cloud Computing Umgebung beseitigt zwangsläufig nicht alle Performance-Probleme einer Anwendung. Es besteht sogar die Möglichkeit, dass eine Cloud, im Vergleich zu einer nicht Cloud Umgebung zu mehr Performance-Problemen führt. Aus diesem Grund ist das ständige Überwachen sämtlicher Metriken einer Anwendung notwendig, um ein Gefühl für die Leistung der Cloud und der darauf bereitgestellten Anwendung zu bekommen. Darüber hinaus sorgt man damit selbst dafür, dass die vereinbarten Service Levels eingehalten werden und die Performance und Skalierbarkeit der Anwendung von Seiten des Cloud Computing Anbieters sichergestellt werden.


Bildquelle: http://www.fusionio.com

Kategorien
Analysen

Die Google Cloud Platform

Google hat mit der Einführung seiner Compute Engine sein Portfolio zu einem vollständigen Cloud Computing Stack ausgebaut. Als schärfster Konkurrent gelten die Amazon Web Services (AWS), die den Markt der Infrastructure-as-a-Services mit Abstand anführen. Anders als AWS geht Google jedoch in die Breite. Und auch wenn die Anzahl der Google Cloud Services mit denen von AWS in der Masse [Vergleich] noch nicht mithalten können, finden Entwickler in Googles Portfolio jede Menge Möglichkeiten, ihre Anwendungen in der Google Cloud zu betreiben.

Die Google Cloud Plattform

Ein vollständiger Cloud Stack

Die Google Cloud setzt sich aus neun einzelnen Services zusammen und deckt den kompletten Cloud Stack, Infrastructure-as-a-Service (IaaS), Platform-as-a-Service (PaaS) und Software-as-a-Service (SaaS) ab. Dazu gehören die Google App Engine, die Google Compute Engine, der Google Cloud Storage, Google BigQuery, die Google Prediction API, die Google Translation API, Google Apps, Google Cloud SQL und Google F1.

Google App Engine

Die Google App Engine ist das Platform-as-a-Service (PaaS) Angebot von Google. Sie gehört mit der Erscheinung im Jahr 2008 zu einer der ersten PaaS am Markt und war der einzige Service der Python und Java gleichzeitig unterstützte. Die Google App Engine wurde entwickelt, um Anwendungen auch mit hoher Last oder während der Verarbeitung von vielen Daten zuverlässig ausführen zu lassen. Dazu unterstützt die Google App Engine dynamische Webdienste inkl. gängiger Web-Technologien, einen persistenten Speicher inkl. der Möglichkeit für Abfragen, Sortierungen und Transaktionen, Automatische Skalierung und Loadbalancing, eine Entwicklungsumgebung für lokale Systeme zur Simulation der Google App Engine, Warteschlangen für die Steuerung von Aufgaben die eine hohe Performance benötigten, uvm.

Für das Speichern der Anwendungen wird von der App Engine eine verteilte Datenhaltung verwendet, wobei der verteilte Speicher mit der Menge der Daten wächst.

Die Google App Engine bietet verschiedene APIs zur Arbeit mit und der Verwaltung von Applikationen. Mit dem URL-Fetch Service können Anwendungen auf andere Ressourcen wie Web Services oder Daten über das Internet zugreifen. Dabei wird dieselbe Google Infrastuktur verwendet, wie sie auch von bekannten Google Produkten genutzt wird. Mittels der App Engine Mail API sind Anwendungen in der Lage direkt E-Mails zu versenden. Per Memcache kann auf Daten zugegriffen werden, die nicht im persistenten Speicher abgelegt werden. Durch einen schnellen in-Memory Key-Value Cache ist eine Anwendung in der Lage mehreren Instanzen parallel nur temporär vorhandene Daten performant bereitzustellen. Anhand der Image Manipulation API sind Anwendungen in der Lage Bilder zu verändern.

Anwendungen können so gesteuert werden, dass sie hoch performante Aufgaben dann erledigen, wenn die Belastung durch Anfragen nicht so hoch ist, z.B. zu einer vorher definierten Uhrzeit oder Tag. Des Weiteren besteht die Möglichkeit eine Anwendung in eine Warteschleife zu legen oder sie im Hintergrund auszuführen.

Google Compute Engine

Die Google Compute Engine bietet Infrastructure-as-a-Services á la Google. Damit erhält man die Möglichkeit, virtuelle Maschinen (VM) mit dem Linux Betriebssystem auf der Google Infrastruktur, die auch von Google Mail und anderen Services eingesetzt wird, zu nutzen.

Die Compute Engine setzt auf Ubuntu als auch CentOS Linux Betriebssysteme, virtuelle Maschinen mit 1,2,4 oder 8 Kernen und 3,75 GB Arbeitsspeicher pro virtueller Instanz. Speicherarten stehen in drei Varianten zu Verfügung.

Flüchtiger Speicher: Auf jeder virtuellen Instanz befindet sich ein flüchtiger lokaler Speicher, bei dem die Daten nur während des Lebenszyklus einer virtuellen Maschinen gespeichert werden. Wenn die VM gestoppt wird, werden alle Daten gelöscht. Dennoch werden alle Daten die auf die VM geschrieben verschlüsselt abgelegt. Persistenter Speicher: Die Google Compute Engine bietet einen persistenten Speicher, der als Service (virtuelle Fesplatte) mit dem Google Storage Netzwerk verbunden ist und über dieselbe Latenz und Geschwindigkeit wie der lokale Speicher einer VM verfügt. Daten die auf diese “virtuelle Festplatte” gespeichert werden, werden automatisch über mehrere physikalische Festplatten innerhalb eines Google Rechenzentrum repliziert. Darüber hinaus können Snapshots von den Festplatten für Backup/ Restore Zwecke erstellt werden. Zudem besteht die Möglichkeit diese virtuellen Platten als Laufwerk in mehrere virtuelle Maschinen zu mounten, um davon Daten zu lesen. Wie beim lokalen VM Speicher sind auch die Daten auf den virtuellen Festplatten verschlüsselt. Google Cloud Storage: Der Google Cloud Storage existiert für Entwickler schon etwas länger. Er bietet die Möglichkeit, Daten persistent zu speichern und auf die Buckets (Ordner) innerhalb des Storage mit einer VM zuzugreifen.

Über der Google Netzwerk lassen sich die virtuellen Maschinen mit der Aussenwelt und innerhalb des Netzwerks selbst verbinden. Der Netzwerk Stack ist so aufgebaut, dass sich die virtuellen Maschinen eines Nutzers in einem isolierten Bereich befinden und von Dritten nicht ohne Weiteres darauf zugegriffen werden kann. Die virtuellen Maschinen können entweder mit statischen oder dynamischen IP-Adressen verknüpft werden, um anschließend über das Internet auf diese zuzugreifen. Über eine Firewall können die Zugriffe auf die virtuellen Maschinen kontrolliert werden.

Alle Management Tools basieren auf einer offenen RESTful API. Google plant darüber hinaus, alle verfügbaren Tools als Open Source zu veröffentlichen, um den Nutzern die Möglichkeiten zu geben, eigene Tools nach ihren Bedürfnissen zu entwickeln. Google arbeitet bereits mit ein paar Partner darunter RightScale, Puppet Labs, OpsCode, Numerate, Cliqr und MapR zusammen, die in Zukunft die Google Compute Engine unterstützen und integrieren werden und weitere Management-Kapazitäten anbieten.

Google Cloud Storage

Der Google Cloud Storage existiert für Entwickler schon etwas länger. Er bietet die Möglichkeit, Daten persistent zu speichern und auf die Buckets (Ordner) innerhalb des Storage mit einer VM zuzugreifen.

Google Cloud Storage bietet zudem unterschiedliche Einsatzszenarien. Neben der Archivierung und dem Datenbackup, lassen sich darüber hinaus Anwendungsdaten darin ablegen, um einen ortsunabhängigen Zugriff darauf zu ermöglichen. Der Zugriff auf die Daten lässt sich über Access Control Lists (ACLs) steuern.

Der Storage Service dient als grundsätzliche Basis für andere Google Cloud und Analytics Services wie der Google Prediction API und Google BigQuery Service. Zudem lassen sich darüber statische Inhalte für Webseiten ausliefern.

Google BigQuery

Google BigQuery nennt sich Googles Big Data Service und soll Unternehmen und Entwicklern bei der Analyse ihrer Daten helfen ohne die dafür notwendige Infrastruktur zu besitzen.

Da Google auf Grund der Indexierung des Webs auf Systeme für die Analyse riesiger Datenmengen angewiesen ist, wurden entsprechend bereits einige Tools entwickelt, die allerdings nur für den internen Einsatz vorgesehen sind. Aus diesen Tools wurde nun der BigQuery Service quasi abgeleitet.

BigQuery ist ein Online Analytical Processing (OLAP) System, um Datensätze mit Milliarden von Zeilen und Terabytes an Daten zu verarbeiten und zielt auf Unternehmen und Entwickler in Unternehmen ab, die mit riesigen Datenmengen (Big Data) balancieren müssen. BigQuery kann auf unterschiedliche Arten genutzt werden. Entweder mit einer Web-Oberfläche, einer REST API oder via Kommandozeile. Die Daten können zur Verarbeitung per CSV Format auf die Google Server hochgeladen werden.

Die Preise orientieren sich an der Menge der gespeicherten Daten und der Anzahl der Anfragen. Für den Speicherplatz berechnet Google 0,12 Dollar pro GB pro Monat bis zu einer maximalen Speichermenge von 2TB. Für die Anfragen werden 0,035 Dollar pro verarbeitetes GB berechnet. Die Limits liegen hier bei 1000 Anfragen pro Tag sowie 20TB zu verarbeitende Daten pro Tag. Für die ersten 100GB an verarbeitenden Daten pro Monat entstehen keine Kosten. Weitere Informationen stehen hier.

BigQuery ist nicht für die OLTP (Online Transaction Processing) Verarbeitung geeignet. Genauso wenig können Änderungen an den auf BigQuery gespeicherten Daten vorgenommen werden. Unternehmen, die eher eine klassische relationale Datenbank für OLTP benötigen, empfiehlt Google seine Cloud basierte Datenbank Google Cloud SQL, welche die volle SQL-Syntax unterstützt.

Google Prediction API

Die Google Prediction API ermöglicht den Zugriff auf Googles Algorithmen zur künstlichen Generierung von Wissen aus Erfahrung. Damit können Daten analysiert und Ergebnisse vorausgesagt werden. Anhand der Eingabe von numerischen Werten oder Text bietet die Prediction API Möglichkeiten für den Musterabgleich bzw. der musterbasierten Suche sowie dem maschinellen Lernen.

Die API kann genutzt werden, um bspw. die Gewohnheiten eines bestimmten Benutzers zu analysieren oder vorherzusagen, welche anderen Filme oder Produkte einem Benutzer vielleicht gefallen. Als weitere Use Cases nennt Google das Kategorisieren von E-Mails als Spam oder nicht Spam sowie die Analyse von positiven oder negativen Kommentaren zu einem Produkt oder anhand der bisherigen Ausgaben zu schätzen, wie viel ein Nutzer an einem bestimmten Tag ausgeben wird.

Google Translation API

Die Google Translation API ist ein Tool, mit dem Texte automatisiert von eine Sprache in eine andere übersetzt werden können. Dafür stehen der Quelltext, die Quellsprache sowie die Zielsprache, in welche der Text übersetzt werden soll. Im Prinzip handelt es sich genau um den Service, der sich hinter http://translate.google.de befindet. Mit der Translation API lassen sich eigene mehrsprachige Applikationen oder Webseiten programmatisch anbieten.

Die Google Platform Extended

Wenn man sich den Google Cloud Stack anschaut, sollte man sich ebenfalls das restliche Ökosystem anschauen. Dazu gehören Google Apps, Google Cloud SQL und Google F1.

Google Apps

Google Apps ist die webbasierte Software-as-a-Service Office & Collaboration Suite von Google. Sie umfasst in der kostenlosen Standard Edition und der Edition für Non-Profit Organisationen die Programme Mail, Kalender, Text & Tabellen, Sites, Talk und Kontakte. Die Premier- und Education Editionen verfügen zusätzlich noch über Video, Groups und APIs für Erweiterungen und die Integration in die eigene Infrastruktur sowie weitere Services von Partnern.

Mail

Google Mail verfügt je nach Edition über einen Speicherplatz von 7 GByte bis 25 GByte. Die Ablage der E-Mails erfolgt nicht klassisch in einer Ordnerstruktur, stattdessen können Labels definiert werden mit der jede E-Mail beliebig getaggt werden kann.

Auch die Art der Verwaltung einer E-Mail Kommunikation ist anders als bei herkömmlichen E-Mail Clients. Werden bei Thunderbird, Outlook etc. für jede E-Mail die hin und her geschickt wird eine separate „physische“ E-Mail erstellt die dann im Posteingang und/oder Postausgang liegt, werden die E-Mails bei Google Mail in sogenannten Konversationen verwaltet. Dabei entsteht ein „Objekt“ an das jede E-Mail die zu dieser Konversation (Betreff) gehört angehängt wird. Jede Benutzer der an dieser Konversation teilnimmt, erhält zur Unterscheidung eine andere Farbe.

Die Technologie des Spamfilter halte ich für einzigartig. Ich nutze Google Apps nun seit mehreren Jahren und hab in der Zeit nicht eine Spam E-Mail im Posteingang gefunden, dafür ist der Spamordner immer randvoll! Auch die Suche nach E-Mails oder Inhalten von E-Mails funktioniert sehr gut, da merkt man gut, welchen Kernbereich Google normalerweise abdeckt.

Der verschlüsselte Zugriff auf die Postfächer kann lokal von jedem Benutzer oder global über die Managementkonsole festgelegt werden. Seit kurzem ist allerdings nur noch der SSL-Zugriff möglich. Der mobile Zugriff auf Google Mail ist ebenfalls möglich. dazu sind Anwendungen für Android, iPhone, Blackberry und weitere Smartphones wie z.B. Nokia vorhanden. Migrationstools erlauben zusätzlich das Importieren von E-Mail Konten aus anderen Systemen wie Microsoft Exchange oder Lotus Notes.

Google Mail verfügt weiterhin über ein integriertes Messaging System, welches ich weiter unten für die Anwendung Talk beschreibe.

Kalender

Der Google Kalender ist vollständig mit Google Mail verknüpft. Nachdem ein Eintrag erstellt wurde, können Freunde/ Bekannte oder Mitarbeiter darüber direkt per E-Mail informiert bzw. eingeladen werden. Weiterhin können die eigenen Kalender lesend und/oder schreibend anderen Personen freigegeben werde, um ihnen den Zugriff darauf zu gewähren. Dadurch haben Kollegen z.B. die Möglichkeit die Termine eines anderen Kollegen in ihrem Kalender zu sehen und ggf. sogar zu bearbeiten.

Google Kalender ist ebenfalls mit Google Sites verknüpft, damit kann ein Kalender(eintrag) auf einer Webseite veröffentlicht werden. Kalender können darüber hinaus – z.B. für Veranstaltungen – grundsätzlich öffentlich verfügbar gemacht und in Googles Kalendergallerie aufgenommen werden.

Der mobile Zugriff ist ebenso wie bei Google Mail möglich. Zusätzlich können Kalenderbenachrichtigungen per SMS verschickt werden.

Text & Tabellen

Text & Tabellen ermöglicht das gemeinsame Bearbeiten (inkl. Versionierung) von Dateien in Echtzeit. Das beschränkt sich entweder nur auf die Benutzer in der eigenen Domain, aber auch externe Partner und Kunden können darauf den Zugriff erhalten und aktiv mitarbeiten.

Die erarbeiteten Dokumente, Tabellen und Präsentationen können anschließend z.B. auf den Webseiten von Google Sites oder im Intranet eingebettet werden. Päsentationen können über das Internet abgehalten werden, ohne dass sich die Zielgruppe am selben Ort befindet, die benötigt nur einen Browser mit aktiver Internetverbindung.

Text & Tabellen bietet bereits vorgefertigte Vorlagen für Formulare, z.B. für Umfragen oder Registrierungen die auf Webseiten verfügbar gemacht, per E-Mail verschickt oder in Dokumente eingebunden werden. Die eingegeben Daten werden dabei automatisch in einer verknüpften Tabelle gespeichert. Darüber hinaus existieren Vorlagen für Geschäftsdokumente, Visitenkarten, Briefköpfe, Zeiterfassungsformulare etc., die ebenfalls in vorhandene Dokumente integriert werden können.

Texte & Tabellen unterstützt und kann folgende Dateiformate importieren und exportieren: DOC, XLS, CSV, PPT, TXT, HTML, PDF.

Der mobile Zugriff mit Android, Blackberry oder iPhone ist ebenfalls möglich.

Sites

Mit Google Sites kann jede beliebige Art von Webseite erstellt werden, wie z.B. Seiten für das Intranet in einem Unternehmen, für Teams, Projekte, Abteilungen, Schulungen oder Wikis. Der Zugriff ist per se nur für Leute innerhalb der Domain erlaubt. Die Seiten können aber für externe Partner, Kunden ider Lieferanten zugänglich gemacht werden.

Innerhalb eine Google Sites Webseite können unterschiedliche Arten von Inhalten eingebettet werden. Dazu gehören Textdokumente, Tabellen, Präsentationen, Videos, Formulare oder Photos. Darüber hinaus ist die Google Suchfunktion vorab in jeder Site integriert, wodurch der gesamte Inhalt indiziert ist und schnell gefunden werden kann.

Talk

Google Talk ist in zwei Varianten verfügbar. Die erste ist die klassische Software, die auf dem PC installiert und von dort genutzt wird. Damit stehen auf dem PC Chat-, Sprach- und Videofunktionen zur Verfügung.

Die zweite Variante ist eine integrierte Instant Messaging Funktion innerhalb von Google Mail, mit der direkt eine Verbindung mit den Kontakten im eigenen Addressbuch oder per Mausklick auf den Absender einer E-Mail hergestellt werden kann. Vorausgesetzt, der Kontakt verfügt über ein Google-Talk Konto bzw. einen ICQ/AIM Account. Über ein zusätzliches Plugin kann das Instant Messaging um Voice- und Video-Chat Funktionen erweitert werden. Der Chat-Verlauf innerhalb von Google Mail kann dabei in einem Chat-Protokoll für jede einzelne Sitzung (pro Tag) aufgezeichnet werden. Das Protokoll wird nach dem Beenden der Sitzung wie eine E-Mail im Archiv abgelegt.

Ist man im Besitz eines Android Smartphones, kann die Chat-Funktion von Google Talk auch unterwegs genutzt werden.

Kontakte

Google Kontakte ist keine Anwendung im eigentlichen Sinne. Vielmehr hat man damit die Möglichkeit seine Kontakte in einem separaten „großen“ Fenster zu verwalten. Normalerweise erreicht man die Kontakte in Google Mail über den Button „Kontakte“ auf der linken Seite. Dabei werden die Kontakte dann in dem Bereich angezeigt, wo sonst die E-Mail Konversationen aufgelistet werden. Das kann auf Geräten, wie z.B. Netbooks ziemlich eng werden, wodurch das Auslagern in ein weiteres Fenster wesentlich komfortabler ist.

Google Cloud SQL

Mit Google Cloud SQL lassen sich relationale Datenbanken erstellen, konfigurieren und nutzen, die in Googles Cloud gehostet werden. Dabei handelt es sich um einen vollständig durch Google administrierten Service, der für eigene Anwendungen und Services eingesetzt werden kann.

Google Cloud SQL basiert auf der MySQL Datenbank. Damit lassen sich sämtliche Anwendungen, Daten und Services zwischen der on-Premise Welt und der Cloud hin- und herbewegen

Google F1

Google F1 ist ein relationales Datenbankmanagementsystem (RDBMS) von Google, das laut Google über umfangreiche Funktionen einer relationalen Datenbank verfügt. Dazu gehören ein festgelegtes Schema und eine parallel arbeitende SQL Query-Engine. Zudem setzt F1 auf Googles verteiltem Speichersystem auf, das sich über Google Rechenzentren erstreckt. Der Speicher wird dynamisch geteilt und unterstützt eine transaktional konsistente Replikation über mehrere Rechenzentren hinweg, wodurch Ausfälle bewältigt werden, ohne Daten zu verlieren.

Fazit

Die Amazon Web Services haben derzeit ein sehr vertikal ausgerichtetes Portfolio. Dabei konzentriert sich das Unternehmen auf den Ausbau seiner Infrastructure Services mit Mehrwert-Diensten wie bspw. Elastic Beanstalk. Beanstalk selbst ist kostenlos. Der Umsatz erfolgt mit der darunter liegenden Infrastruktur die der Kunde nutzt.

Google hingegen stellt sich breiter auf und hat in allen Cloud Bereichen, IaaS, PaaS und SaaS einen Fuß in der Tür. Der Anfang wurde mit der Google App Engine gemacht. Google ist nun einmal ein Entwickler-Unternehmen. Sie haben nie einen Hehl daraus gemacht, dass sie ihre Überkapazitäten herausgeben, damit Entwickler weltweit die Google Infrastruktur nutzen können, um Anwendungen zu entwickeln. Anschließend folgte mit Google Apps der SaaS Bereich. Dieser hat sich aus den Consumer-Produkten (Mail, Docs, usw.) abgeleitet und stellt quasi ein Best-off dieser einzelnen Services dar. Alles zusammen bildet eine Office Suite unter einer eigenen Domain. Der letzte Bereich den Google erobern will ist IaaS. Die Google Compute Engine ermöglicht das starten und betreiben eigener virtueller Maschinen auf Googles Infrastruktur. Andere Services wie Google Cloud SQL oder Google F1 gehören offiziell noch nicht in die Google Cloud Platform unter http://cloud.google.com. Allerdings ist zu erwarten, dass dies bald geschehen wird. Auch BigQuery war zunächst nur ein reines Developer Projekt, wurde nach der Beta Phase aber recht zügig zur Cloud Platform hinzugefügt.

Kategorien
Analysen

Schatten-IT gewinnt weiter an Bedeutung: IT-Abteilungen verlieren immer mehr Einfluss

Das die Schatten-IT im Zusammenspiel mit dem Cloud Computing stark wachsen wird und in Zukunft immer mehr an Bedeutung gewinnt, haben Dietmar Wiedemann und ich bereits Mitte 2011 beschrieben (Erstveröffentlichung, 16.08.2011). Nun hat eine Studie der Wirtschaftsprüfer von PricewaterhouseCoopers (PwC) ergeben, dass mehr als 30 Prozent der IT-Ausgaben nicht aus dem offiziellen IT-Budget stammen und damit um die IT-Abteilungen herum eingekauft wird.

Die IT-Abteilung wird übergangen

Die jeweiligen Unternehmensbereiche umgehen mittlerweile die IT-Abteilungen, um ihre eigenen Entscheidungen zu treffen, welche Cloud-basierte Applikationen oder mobile Endgeräte sie einsetzen wollen. Der CIO und die IT-Mitarbeiter haben also immer weniger Kenntnisse darüber, was für IT-Lösungen tatsächlich im Unternehmen eingesetzt werden und verlieren die Kontrolle darüber.

Bis zu 30 Prozent der Ausgaben fließen an der IT-Abteilung vorbei

Basierend auf einer Umfrage „Raising Your Digital IQ“, befragte PwC 500 US-amerikanische Unternehmen mit einem Jahresumsatz von etwa 500 Millionen US-Dollar. PwC schätzt, dass zwischen 15 Prozent bis zu 30 Prozent der IT-Ausgaben an der IT-Abteilung vorbei ausgegeben wird.

Dabei machen Cloud Services den größten Anteil an Ausgaben aus, die nicht über den gewöhnlichen Einkaufsprozess stattfinden. In den meisten Fällen fällt diese Form der Schatten-IT erst dann auf, wenn die Bereichsleiter mit den Cloud Services zu den IT-Abteilungen gehen und einfordern, dass die Unternehmensdaten zur Analyse mit den Daten aus der Cloud integriert werden.

Schatten-IT ist ein evolutionärer Schritt

Für mich kommt diese Entwicklung, wich ich bereits 2011 geschrieben habe, nicht überraschend. Die IT-Abteilungen gelten seit Jahren als die Spielverderber und Innovationsbremsen in den Unternehmen. Lange saßen sie am längeren Hebel, wenn es darum ging, dem Mitarbeiter oder den Projekten spezifischen Anwendungen oder Hardware zu besorgen. Das dauerte z.T. mehrere Wochen, gar Monate. Mit dem Einzug des Cloud Computing, BYOD und der Consumerization of IT (CoIT) wandelt sich das Bild. IT-Abteilungen werden nicht überflüssig, aber sie müssen langsam damit beginnen, von ihrem Thron herunterzukommen und mit den Mitarbeitern und Kollegen auf einer Ebene kommunizieren.

Schatten-IT schafft Probleme

CIOs sollten natürlich mit Bedenken der Schatten-IT entgegentreten. Nicht nur, dass sie dadurch die Kontrolle über ihre IT-Infrastruktur verlieren und die Heterogenisierung voranschreitet. Wie sollen sie damit umgehen, wenn ein Mitarbeiter selbstverständlich erwartet, dass sein Android oder iPhone integriert werden soll, das Unternehmen aber eine Blackberry Strategie verfolgt? Oder wenn das Smartphone plötzlich keine Verbindung mehr zum Provider aufbaut? Wer ist dann dafür verantwortlich? Eine weitere Herausforderung besteht zudem darin, wenn Daten unter dem Radar der IT-Abteilung in einem Cloud Service verschwinden.

Ich habe bereits das Thema voranschreitende Heterogenisierung angesprochen. IT-Abteilungen kämpfen grundsätzlich mit Insellösungen in ihrer IT-Umgebung. Es gibt nun einmal nicht die homogone IT-Infrastruktur, wo jedes Rad in das andere fasst bzw. jede Schnittstelle perfekt mit der anderen integriert ist. Durch die Schatten-IT werden sich die Insellösungen weiter vergrößern. Es werden immer mehr voneinander unabhängige Silos von Daten und Plattformen enstehend, jede mit einer eigenen proprietären Schnittstelle.

Schatten-IT treibt die Innovationskraft

IT-Abteilungen mögen die Schatten-IT als eine Anarchie der eigenen Kollegen verstehen. Damit könnten sie auf der einen Seite sogar recht haben. Ich würde es allerdings eher als einen Hilfeschrei der Kollegen verstehen, die einfach nicht mehr auf die IT-Abteilung warten wollen bzw. können. Schließlich nimmt der Druck in den Fachabteilungen ständig zu, dem Markt Innovationen und neue Lösungen zu präsentieren.

Schatten-IT fördert meiner Meinung nach die Innovationskraft im Unternehmen. Und das nicht nur auf Grund von Cloud Services. Die Fachabteilungen tun gut daran, die Zügel in die Hand zu nehmen und den IT-Abteilungen zu zeigen, was sie benötigen. IT-Abteilungen werden versuchen den unerlaubten Zugriff auf Cloud-basierte Lösungen zu unterbinden. Das wird die Produktivität der Fachabteilungen jedoch wieder vermindern. Besser wäre es, wenn die IT-Abteilungen, für das Wohl des Unternehmens, sich frühzeitig mit neuen Technologien und Trends auseinanderzusetzen, diese evaluieren und den Kollegen präventiv anbieten, anstatt nur auf die Entscheidungen der Fachabteilungen zu reagieren.

Lösung: Kommunikation

Wie kann der Schatten-IT vorgebeugt oder gegen eine bestehende entgegengewirkt werden? Zwei Wörter: Miteinander reden! (Zwischenmenschliche Kommunikation!)

Weitere Artikel zum Thema Schatten-IT


Bildquelle: http://www.hotpixel.ch

Kategorien
News

Checkliste: Kriterien zur Auswahl eines Cloud Computing Anbieter

Cloud Computing Anbieter haben auf Unternehmen den größten Einfluss auf dem Weg in die Cloud. Dazu zählen die Eigenschaften und der Charakter des Anbieters bzgl. des Umgangs mit seinen Kunden und wie dieser arbeitet. Die größte Herausforderung stellt zudem die Selektion eines oder mehrerer Anbieter dar, um die Ansprüche des Unternehmens in Bezug auf die Integrationsmöglichkeiten, die Unterstützung der Geschäftsprozesse etc. so optimal wie möglich zu erfüllen.

Diese Checkliste hilft bei der Bestimmung von Kriterien für die Auswahl eines Cloud Computing Anbieter.

Checkliste: Kriterien zur Auswahl eines Cloud Computing Anbieter by René Büst

Kategorien
Analysen

Der Weg in die Cloud ist schwerer als man denkt!

Sollen Anwendungen in die Cloud verlagert werden, heißt es, diese auch für die Cloud zu entwickeln und sich nicht starr an die bekannten Pattern zu halten. Denn die Cloud verzeiht keine Ineffizienz. Möchte man den Vorteil der Cloud wie Infrastructure-as-a-Service (IaaS) oder Platform-as-a-Service (PaaS) für sich nutzen, bedeutet dies mehr Arbeit, als die meisten IT-Abteilungen vermutlich glauben.

Unternehmens-IT ist sehr komplex

Trotz der großen Euphorie um die Cloud, sollte man nicht vergessen wie komplex die Unternehmens-IT im Laufe der Zeit geworden ist. Dabei ist die Komplexität jedoch nicht das Ergebnis der IT oder der Technologien selbst. Es ist die Summe aller Einflüsse aus dem Unternehmen und was von der IT erwartet wird. Alle Technologien müssen aufeinander optimal abgestimmt werden, die internen Prozesse unterstützen und zugleich noch schnellstmöglich und mit minimalem Budget realisiert werden.

In der Regel bedeutet dies, kommerzielle Softwarelösungen einzukaufen. Diese an die Bedürfnisse des Unternehmens anzupassen und anschließend so zu integrieren, dass manuell so wenig wie möglich angepasst werden muss und gleichzeitig das Maximum an Informationen aus dem Unternehmen gezogen werden kann. Mehrere proprietäre Softwarelösungen plus deren Integration führen zu einer komplexen IT-Umgebung. So kann eine IT-Infrastruktur schnell aus z.T. mehreren hunderten von Anwendungen bestehen. Diese wurden unabhängig voneinander und mit unterschiedlichen Design-Standards entwickelt und tragen die Handschrift verschiedener Architekten.

Die Migration in die Cloud ist eine Herausforderung

Die bestehenden Anwendungen in die Cloud zu migrieren ist eine nicht zu unterschätzende Aufgabe. Im Gegenteil, es ist sehr wahrscheinlich, dass die meisten on-Premise Applikationen aus dem Portfolio trotz eines neuen Entwurfs nicht ihren Weg in die Cloud finden. Die IT-Abteilungen werden es nicht schaffen, die bestehenden proprietären Lösungen „einfach so“ in die Cloud zu verschieben, das funktioniert nicht. Jede einzelne Lösung für sich ist ein Individuum und hat spezielle Konfigurationen und Eigenschaften, die eine Cloud so nicht unterstützen kann.

Fassen wir mal ein paar Punkte zusammen:

  • Anpassung vornehmen, damit die Anforderungen erfüllt werden. – Nicht einfach!
  • Integration mit weiterhin bestehenden lokalen Anwendungen (hybrid). – Nicht einfach!
  • Dokumentation der Konfigurationen für eine erneute Migration. – Nicht einfach!
  • Sicherstellen der korrekten Lizenzierung. – Nicht einfach!
  • . . . – Nicht einfach!

Soll ein selbst entwickeltes System in die Cloud verlagert werden, wird es nicht einfacher. Es ist vergleichbar mit dem re-Design einer COBOL Batch-Anwendung für Mainframes in eine objektorientierte Variante. Denn so wie man von der COBOL Applikation in die objektorientierte Applikation die Objekte im Hinterkopf behalten musste, so muss man heute die Eigenschaften und Möglichkeiten der Cloud berücksichtigen.

Ist eine Anwendung erfolgreich in die Cloud migriert worden, bedeutet das jedoch nicht, dass es mit der Zweiten einfacher wird. Im Gegenteil, es kann sogar schwieriger werden. Denn jede Anwendung hat ihre individuellen Eigenschaften und basiert i.d.R. auf anderen technischen Standards und einem eigenen Design.

Zeit und Geduld

Verfolgt man das Ziel, das gesamte Portfolio in die Cloud zu verlagern, muss man sich auf einen langen und hügeligen Weg vorbereiten. Das saubere re-Design einer Anwendung oder gar der gesamten IT-Umgebung für die Cloud benötigt Zeit und vor allem Geduld. Denn wenn es so einfach wäre, gebe es schon mehrere Referenzprojekte.


Bildquelle: http://ccis.ucsd.edu

Kategorien
Analysen

Tipps für die Wahl einer Cloud Computing Beratung

Jeder Berater ist auf seinem Gebiet „der führende“ Cloud Computing Dienstleister. Das macht es für Einkäufer und Entscheidungsträger in Unternehmen nicht leichter, den richtigen Partner zu finden, mit dem sie ihren Weg in die Cloud bestreiten. Zudem fehlt z.T. die Transparenz, was die Berater tatsächlich können. Dieses und weitere Themen nehme ich aus Gesprächen immer wieder mit. Dabei ist die Wahl des Dienstleister entscheidend für den Erfolg oder Misserfolgt eines Wechsels in die Cloud. Nachdem man sich für eine Software (SaaS) bzw. eine Plattform (PaaS) oder Infrastruktur (IaaS) entschieden hat, heißt es die richtige IT-Beratung zu finden – Das ist Mission Critical!

Der Berater ist Mission Critical

Angesichts der Unterschiede zwischen Public Cloud und on-Premise Umgebungen, ist es wichtig, den richtigen Partner mit der entsprechenden Erfahrung zu finden. Denn ein Berater mit klassischem Rechenzentrums-Know-How wird in der Cloud nicht viel weiterhelfen können.

Existiert nachgewiesene Erfahrung in der zu implementierenden Lösung

Der Berater sollte über umfangreiches Wissen zu dem Service verfügen, um den es geht. Hier muss der Dienstleister entsprechende Referenzen vorweisen können inkl. möglichen speziellen Themen und Bereichen die man selbst verfolgt.

Kennt der Berater das Marktsegment

Der Dienstleister sollte sich in dem Marktsegment auskennen, in dem man selbst tätig ist. Auch hier helfen wiederum Referenzen aus dem eigenen Segment und Kunden, die ähnlich aufgestellt sind wie man selbst. Ist man selbst bspw. nur ein kleines- oder mittelständisches Unternehmen, sollte man keinen Dienstleister wählen, der auf internationale Großkonzerne spezialisiert ist.

Bietet er ergänzende Lösungen

Einige Dienstleister haben neben Beratungs- und Implementationsleistungen sich ebenfalls auf die Entwicklung von Add-ons für eine bestimmte Lösung spezialisiert und bieten dafür einen gewissen Mehrwert. Diese Dienstleister verfügen in der Regel zudem über ein sehr gutes technisches Wissen zu dem Produkt und haben ebenfalls tiefes Wissen über den jeweiligen Markt.

Kann er weltweit implementieren

Cloud Computing ist ein globales Thema. Darüber hinaus können Cloud Umgebungen schnell weltweit wachsen. Wenn notwendig, hilft hier auf jedenfall ein Dienstleister mit internationaler Erfahrung. Falls ja, dann sollte der Dienstleister auf jedenfall weltweit und über das Internet Schulungen anbieten sowie über einen internationalen Support verfügen.

Cloud Integration

Die Bedeutung von Cloud zu Cloud Integration wird weiter an Bedeutung zunehmen. Hier sollte der Dienstleister neben Erfahrungen mit unterschiedlichen Anbietern ebenfalls bereits Multi-Vendor Installationen und Integrationen durchgeführt haben.

Die Akzeptanz entscheidet

Jedes Projekt steht und fällt am Ende mit der Akzeptanz der späteren Nutzer. Der Dienstleister sollte daher Lösungen iterativ entwickeln können, um die Anforderungen der Nutzer und der IT gleichermaßen erfüllen zu können.

Reputation und Vertrauen

Neben einer guten Reputation ist das Vertrauen in den Dienstleister entscheidend. Schließlich startet man mit einem Projekt in eine langfristige Geschäftsbeziehung, zu der ebenfalls der Cloud Anbieter selbst gehört. Vertrauen schafft Vertrauen und sorgt zudem für eine dauerhafte Beziehung.

Externe Artikel zu Cloud Computing Anbieter

Ich habe im Laufe der letzten Jahre ein paar Artikel für IT-Magazine geschrieben, in denen ich die Portfolios einzelner Anbieter betrachtet habe, die ebenfalls Professional Services im Angebot haben.


Bildquelle: http://createyournextcustomer.techweb.com

Kategorien
Analysen

Trends und Fakten rund um den Cloud Computing Markt

Auch wenn die Meinungen und Reaktionen rund um die Cloud immer sehr „vielfältig“ ausfallen, ist die generelle Meinung, dass Cloud Computing rasant wächst und weiter stark wachsen wird. Während die Marktforscher von Market Research Media dem Cloud Markt bis 2020 ein Wachstum von 270 Milliarden US-Dollar voraussagen, ist Forrester ein wenig vorsichtiger und vermutet bis 2014 ein Wachstum von ca. 55 Milliarden US-Dollar.

Aktuelle Fakten und Trends im Cloud Computing Markt

Aber wie wird sich der Cloud Markt in Zukunft verhalten und welche Trends erwarten uns? In das Orakel zu schauen, was in der Zukunft passieren wird und wie sich das genau in Zahlen niederschlägt ist sehr schwierig. Umsonst müssen sich die Marktforscher nicht immer mal wieder nach unten korrigieren. Dennoch sind die Zahlen gute Richtwerte und anhand der aktuellen Marktentwicklung lassen sich gut neue Trends und Bedürfnisse erkennen.

Software-as-a-Service (SaaS)

Der SaaS-Markt bietet auf Grund seiner Vielfalt und Möglichkeiten das größte Marktsegment in der Cloud und wird damit auch der größte Bereich im Cloud Computing Markt bleiben. Gartner hat hier verschiedene Kategorien von SaaS Applikationen differenziert. Dazu gehören aktuell CRM, ERP, Web Conferencing, Kollaborationsplattformen und Social Software Suites.

Infrastructure-as-a-Service (IaaS)

IaaS wird in den kommenden Jahren ein stetiges Wachstum behalten. Allerdings sieht Forrester in Dynamic Infrastructure Services auf lange Sicht mehr Potential als in IaaS. Dennoch sollte man nicht vernachlässigen, dass IaaS die Lösung für die Herausforderungen von Big Data ist.

Platform-as-a-Service (PaaS)

Nach einer Gartner Studie hat PaaS das schnellste Wachstum von allen Services in der Cloud. Die Wachstumsraten in den jeweiligen PaaS Teilsegmenten gliedern sich dabei wie folgt auf: Anwendungsentwicklung (22%), Datenbankmanagementsysteme (48.5%), Business Intelligence Plattformen (38.9%) und Anwendungsinfrastruktur und Middleware (26.5%).

Business Process Management

Der Cloud BPM (bpmPaaS) Markt soll von Jahr zu Jahr um ca. 25% wachsen. 40% der Unternehmen die bereits BPM einsetzen, nutzen BPM aus der Cloud. Gartner hat mehr als 30 bpmPaaS Anwendungen und Plattformen identifiziert und hat diese als Model-Driven BPM-Plattform in der Cloud kategorisiert, mit denen Prozess-orientierte Anwendungen der nächsten Generation entwickelt werden sollen, die für Differenzierung und Innovation sorgen werden.

Big Data

Big Data wird, laut Gartner, den Unternehmen in den nächsten 2 bis 5 Jahren entscheidende Vorteile bringen. Bis 2015 soll Big Data den Unternehmen dabei helfen einen strategischen Vorteil gegenüber des Mitbewerbs zu erhalten. Gartner definiert Big Data dabei als Methode um große Datenmengen, zusätzlich zur Batch-Verarbeitung, fließend zu verarbeiten. Integraler Bestandteil von Big Data ist ein erweiterbares Framework, dass Daten direkt verarbeitet oder diese an einen Prozess-Workflow weiterleitet. Gartner unterscheidet Big Data dabei zusätzlich in strukturierte und unstrukturierte Daten.

Cloud Business Marketplaces

Cloud Marketplaces gehören zu der logischen Entwicklung des Cloud Computing, um Unternehmen und Entwicklern den einfachen Zugriff auf IT-Ressourcen zu ermöglichen. Neben einer gut dokumentierten API gehören ebenfalls übersichtliche und umfangreiche Web-Oberflächen zu einem guten Cloud Angebot, die es dem Nutzer ermöglichen sich „auch mal eben“ eine Cloud Infrastruktur „zusammenzuklicken“, um z.B. ein paar Tests durchzuführen. Bereits viele Anbieter sind auf diesen Zug aufgesprungen und ermöglichen über einen eigenen Cloud Marktplatz den Zugriff auf ihre IaaS-Ressourcen. Zudem reichern sie ihre Infrastruktur-Angebote über den Marktplatz mit Betriebssystem-Images oder weiteren Software-Lösungen an, um den virtuellen Ressourcen damit einen echten Nutzen zu geben.

Cloud Brokerage Services

Das Cloud Services Brokerage Modell bietet ein architektonisches-, business-, und IT-Betriebs-Modell, mit dem verschiedene Cloud Services bereitgestellt, verwaltet und adaptiert werden können. Und das sich innerhalb eines föderierten und konsistenten Bereitstellung-, Abrechnung-, Sicherheit-, Administration- und Support-Framework befindet.

Unternehmen werden damit in die Lage versetzt, ihr Cloud-Services Management zu vereinheitlichen, um damit den Innovationsgrad zu erhöhen, die globale Zusammenarbeit zu verbessern, die Betriebskosten zu senken und insgesamt besser zu wachsen. Cloud Computing Anbieter erhalten damit die Möglichkeit die Bereitstellung ihrer Cloud Services zu vereinheitlichen und ihr eigenes Services Netzwerk zu differenzieren und damit eine umfangreiche Cloud Computing Plattform bereitzustellen. Technologie-Anbieter können damit ein Ökosystem von Mehrwertdiensten aufbauen, um ihre wichtigsten Angebote zu differenzieren, die Kundenbindung erhöhen und neue Vertriebswege erschließen.

Ein Cloud Service Broker ist ein Drittanbieter, der im Auftrag seiner Kunden Cloud Services mit Mehrwerten anreichert und dafür sorgt, dass der Service die spezifischen Erwartungen eines Unternehmens erfüllt. Darüber hinaus hilft er bei der Integration und Aggregation der Services, um ihre Sicherheit zu erhöhen oder den originalen Service mit bestimmten Eigenschaften zu erweitern.

Master Data Management (MDM)

Master Data Management (MDM) Lösungen aus der Cloud und hybride IT Konzepte sind das erste Mal im Hype Cycle vertreten. Gartner erwartet, dass MDM Lösungen aus der Cloud ein steigendes Interesse in Unternehmen erhält, da das allgemeine Interesse an MDM stetig steigt. Als führende Anbieter in diesem Bereich sieht Gartner Cognizant, Data Scout, IBM, Informatica, Oracle und Orchestra Networks.

Private Cloud

Die Private Cloud gehört zu den beliebtesten Cloud Deployment Modellen. Laut einer Gartner Umfrage planen 75% der Befragten bis 2014 eine Strategie in diesem Bereich. Bereits viele unterschiedliche Unternehmen haben Private Cloud Lösungen in Pilot-Projekten und im produktiven Betrieb im Einsatz. Dabei ist das Hauptziel, für sich den größten Nutzen aus der Virtualisierung zu ziehen.

Fazit

Unabhängig von den oben getroffenen Annahmen werden alle Segmente des Cloud Computing Markt durch den Zustand unserer Wirtschaft und die weltweite Nachfrage nach IT-Dienstleistungen beeinflusst werden. Cloud Computing ist ein attraktiver Wachstumsmarkt besonders für kleine- und mittelständische Unternehmen, aber bietet ebenfalls ein erhebliches Potenzial für Unternehmen jeder Größe.


Bildquelle: http://www.moeller-horcher.de

Kategorien
Analysen

Vorteile und Nachteile von Open-Source Cloud Computing Lösungen

Open-Source Cloud Frameworks haben in den vergangenen Monaten einen riesen Hype erlebt. Die vermeintlich großen Player wie Rackspace, HP, VMware und Citrix sorgen für die finanzielle Unterstützung von Lösungen wie OpenStack oder CloudStack und lassen unaufhörlich ihre Marketingkampagnen laufen. Dabei verfolgen alle genannten nur ein Ziel: Den Cloud Computing Krösus Amazon Web Services vom Thron zu stoßen. Allerdings müssen sich die Open-Source Anbieter die Frage gefallen lassen, ob ihre Technologien bereits für den Einsatz im Unternehmen taugen.

Vor- und Nachteile von Open-Source Clouds

Open-Source Cloud-Implementierungen gibt es erst seit ein paar Jahren und haben bis jetzt noch nicht ausreichend Anwendungsfälle im produktiven Betrieb. Obwohl eine Reihe von Early-Adoptern aus dem Telkosektor, Finanzdienstleister und wissenschaftliche Einrichtungen bereits Alternativen in Open-Source Cloud Systeme suchen, ist die Vielzahl an Unternehmen darüber nicht informiert. Es lohnt sich daher mal einen Blick auf die Vor- und Nachteile zu werfen.

Vorteil: Flexibilität

Per Definition bieten Open-Source Clouds ein höheres Maß an Flexibilität als der proprietäre Mitbewerb. Statt sich einfach nur mit dem Lesen von Anleitungen zufrieden zugeben oder an Schulungen teilzunehmen, können Nutzer selbst Änderungen an dem Code vornehmen und sich selbst mit eigenem Code an verschiedenen Projekten beteiligen. Zudem können sie eigene Projekte starten, eigene Dokus zur Verfügung stellen oder Seminare abhalten. Interaktionen mit der Gemeinschaft und der damit verbundenen Weiterbildung ermöglichen dem Anwender mehr Flexibilität bei der Gestaltung ihres Cloud-Designs und fördert innovative interne oder externe Lösungen.

Vorteil: Vendor Lock-In

Ein Argumente der Open-Source Cloud Community ist die Prävention vor einem Vendor Lock-in. Die Argumente sind einfach. Wird eine Cloud auf Basis einer offenen und weit verbreiteten Open-Source Technologien aufgebaut, hat kein Anbieter die Möglichkeit die volle Kontrolle über das Open-Source Framework zu erhalten. Damit können Anwender schneller auf die Entwicklung der Technologien im Rahmen des Open-Cloud Stacks reagieren. Darüber hinaus geben Open-Source Clouds dem Nutzer die Freiheit, seine Cloud an seine individuellen Bedürfnisse und Unternehmensziele anzupassen, statt diese anhand einer einzigen proprietäre Lösung aufzubauen.

Vorteil: Einsparung

Open-Source Software ermöglicht auf Grund seiner Lizenzierung die kostenlose Nutzung und hat damit preislich einen enormen Vorteil gegenüber dem kommerziellen Mitbewerb. Egal ob sich ein Nutzer nun für ein reines Open-Source Angebot oder für eine kommerzielle Open-Source Lösung entscheidet, wird er im Vergleich zu einer proprietären Software Kosten sparen können. In jedem Fall besteht für jedes Unternehmen die Möglichkeit, durch Open-Source Software, bei gleichzeitiger Erhöhung der Flexibilität, die Kosten zu senken, was einen Gewinn für jede Organisation darstellt.

Vorteil: Kontrolle, Offene Standards, APIs

Eine Open-Source Cloud setzt auf offene Standards und APIs und wird nicht von einem einzigen Hersteller kontrolliert. Das erlaubt es Unternehmen, die Kontrolle über die darunter liegende Hardware Infrastruktur und Managementplattform zu behalten, unabhängig davon, um welche Technologie es sich handelt. Des Weiteren ermöglichen offene APIs eine bessere Integration in bestehende offene oder proprietäre Lösungen, womit sichergestellt wird, dass aktuelle IT-Investitionen innerhalb der neuen Architektur weiterhin relevant sind.

Vorteil: Portabilität

Baut man seine Cloud auf Basis von Open-Source auf, sollte man immer schauen, wie es mit der Interoperabilität zu anderen Public, Private oder Hybrid Cloud Lösungen ausschaut. Entscheidet man sich für eine offene Technologie erhält man damit ein höheres Maß an Portabilität innerhalb des großen Cloud Ökosystems. Anstatt ihre eigenen Möglichkeiten auf proprietäre Technologien zu beschränken, können sich Nutzer an unterschiedlichen Open-Source Cloud Technologien bedienen und damit ihre IT-Entscheidungen unterstreichen und die eigenen Bedürfnisse und Unternehmensziele damit unterstützen.

Nachteil: Mangel an Unterstützung

Anwender die sich dafür entscheiden, ihre Cloud auf reiner Open-Source Software aufzubauen, begeben sich bzgl. Support in die Abhängigkeit des Open-Source Projekts. Das kann ganz schön zäh und schmerzhaft werden. Denn der Support kommt hier anhand von Foren, Chats, Q&A Systemen und Bug-Tracking Systemen von der Crowd. Zudem sollte man sich als Nutzer aktiv in der Community beteiligen und etwas dazu beitragen, was in der Welt der kommerziellen Software nicht notwendig ist. Auf der anderen Seite kann man sich für kommerzielle Open-Source Cloud Lösungen entscheiden, die für professionellen Support sorgen.

Nachteil: Kosten

Zwar haben Open-Source Lösungen auf Grund der in der Regel kostenlosen Lizenzen, im Vergleich zu kommerzieller Software, einen Kostenvorteil, allerdings gibt es auch hier Kosten die nicht zu vernachlässigen sind. Zum einen wird für den Aufbau einer Open-Source Cloud ein nicht zu unterschätzendes Wissen für die Entwicklung benötigt. Zum anderen müssen auch die Administratoren für einen einwandfreien Betrieb der Infrastruktur sorgen, wofür intensive Kenntnisse für die Verwaltung und Wartung der Lösung erforderlich sind. Darüber hinaus wird externes Fachwissen in Form von Beratung oder Entwicklung-Ressourcen benötigt.

Nachteil: Reifegrad

Je schneller sich das Open-Source Cloud Ökosystem entwickelt, kann sich ein Anwender nicht zwangsläufig darauf verlassen, das und wie lange ein Open-Source Projekt bestand hat. Wenn sich ein Cloud Architekt während des Designs einer Open-Source heute für eine bestimmte Technologie entscheidet, kann es durchaus passieren, das ihn diese in Zukunft einholen wird, da das Projekt eingestellt und nicht mehr weiterentwickelt wird. Mit den stetig steigenden Open-Source Projekten und unterschiedlichen Ansichten ist es für den Anwender zunehmend schwieriger geworden sich für den „richtigen“ Weg zu entscheiden.

Fazit

Entscheider die sich für eine Cloud Infrastruktur entscheiden wollen diese hochverfügbar, einfach zu bedienen und so agil, dass sie sich mit den Bedürfnissen der Unternehmensziele verändert. Es ist daher entscheidend, dass sich ein Entscheider zunächst über die Unternehmensziele im klaren ist und sich mit seiner bestehenden IT-Infrastruktur auseinandersetzt, bevor er über den Aufbau einer Open-Source oder proprietären Cloud Infrastuktur nachdenkt. Möglicherweise kann man auch zu dem Ergebnis kommen, dass eine eigene Cloud für das Unternehmen keinen nennenswerten Vorteil bietet und andere Möglichkeiten evaluiert werden müssen.

Sollte die Entscheidung zu Gunsten einer Open-Source Cloud Lösung fallen, macht es durchaus Sinn eine kommerzielle Open-Source Software in Betracht zu ziehen, hinter der ein Unternehmen steht, das für die Kontinuität des Projekts und eine klare Richtung sorgt und darüber hinaus professionellen Support bietet. Damit kann das Risiko einer Open-Source Cloud Lösung deutlich minimiert werden.


Bildquelle: https://new.edu

Kategorien
Kommentar

Der Feind ist mitten unter uns: Das ETSI will den vermeintlich sicheren Cloud Hafen Europa zerstören

Europa verliert seinen Status als vermeintlich sicherer Hafen für Cloud Services. Die Zeiten, in denen Berater, Rechtsanwälte und Datenschützer den Finger vor den Bösen USA heben können sind vorbei. Der Feind ist Mitten unter uns und heißt ETSI (European Telecommunications Standards Institute).

Europa und Datenschutz… Kinder das waren noch Zeiten!

Werden wir wahrscheinlich unseren Kindern und Enkeln erzählen. Lange galt Europa als das Vorbild, wenn es um den Datenschutz ging. Die erste Frage die sich ein Cloud Anbieter von Beratern, Analysten und Kunden gefallen lassen musste war, ob er denn auch ein Rechenzentrum in Europa betreibe. Denn hier kommen die „bösen“ USA schließlich nicht an die Daten ran. Aus und vorbei. Geht es nach der ETSI, sind wir alle bald weltweit gleich gestellt, sei es in den USA, Asien, Afrika und ja, sogar in EUROPA!

Wie das ZDF bzw. ORF-Journalist Erich Moechel schreiben, will das ETSI „eine geheime Hintertür für die Cloud“. Dabei soll es darum gehen, den Sicherheitsbehörden das Abhören und Überwachen von Kommunikationsdaten in der Cloud zu erleichtern. Das soll neben Angeboten wie Facebook, Twitter usw. ebenfalls Unternehmensangebote wie die Amazon Web Services, Microsoft Windows Azure und andere Anbieter betreffen. Dazu habe sich das ETSI eine Backdoor überlegt, um unkompliziert den unautorisierten Zugriff zu ermöglichen.

SSL wird ausgehebelt

Bei der ETSI Idee handelt es sich, wie sonst oft diskutiert, allerdings nicht um rechtliche Themen wie bspw. dem „Patriot Act“. Hier geht es um reine Technik. Das ETSI will eine Schnittstelle definieren, mit der europäische Sicherheitsbehörden Zugriff auf die Cloud Services der Anbieter erhalten. Die ETSI-Arbeitsgruppe “TC Lawful Interception” stellt sich die Umsetzung so vor, dass die Internet-Anbieter sämtlichen Verkehr standardmäßig umleiten. Nutzt ein Anwender eine verschlüsselte HTTPS-Verbindung (was mittlerweile Standard ist), soll der Datenverkehr auf spezielle Server in das Rechenzentrum des Internet-Anbieter umgeleitet werden. Hier sollen die Sicherheitsbehörden dann den Zugriff auf die Daten erhalten. Um das zu realisieren, müssen die entsprechenden SSL-Zertifikate ausgehebelt werden. Der ETSI geht es nach eigenen Angaben nur um die Erfassung der Datenkommunikation und nicht um die Kontrolle der Inhalte. Der britische Sicherheitsspezialisten und Leiter des Computer Laboratory der Universität Cambridge Ross Anderson hingegen schreibt nach einer Analyse des ETSI-Entwurfs allerdings: „Wenn man die Infrastruktur baut, auf die sich das ETSI geeinigt hat, kann diese für Überwachungsaktivitäten genutzt werden.“

Willkommen Private Cloud

Wird die Idee Realität ist das Vertrauen in die Public Cloud zerstört und Public Cloud Services – die für das Cloud Computing in Reinform stehen – wären demnach tod! Interessant ist, dass die Marktforscher von Gartner für 2012 ein großes Wachstum in der Public Cloud sehen. Zudem sollen die Ausgaben für Enterprise Public Cloud Services bis 2016 die 207 Milliarden US-Dollar erreichen.

Ziehen wir diese neue Entwicklung heran, wird Gartner seine Prognosen wohl herunterschrauben müssen. Die Bedenken von CIOs, Public Cloud Services zu nutzen, sind derzeit eh schon höher als gedacht. Der Hauptgrund sind die Befürchtungen vor Datenlecks in der Public Cloud. Deutsche Unternehmen werden die Gedanken der ETSI ebenfalls nicht gerne hören. Eine Umfrage von IDC ergab vor kurzem, das ein Drittel der befragten deutschen Unternehmen in 2013 zwischen 26% – 50% ihres IT-Budget in die Private Cloud investieren wollen. Allerdings interessieren sich 90% der Unternehmen nicht(!) für die Public Cloud.


Bildquelle: http://mully1.wordpress.com