Kategorien
Kommentar

Mehrwert-Services sind die Zukunft von Infrastructure-as-a-Service

Der Titel dieses Beitrags mag ein wenig irritieren. Schließlich handelt es sich bei Infrastructure-as-a-Service (IaaS) bereits um Services. Aber ich habe meinen Grund dafür. Von Beginn an bezeichnet Gartner die Amazon Web Services, in seinem Magic Quadrant, als den führenden Anbieter im IaaS Markt. Wen ich hier mittlerweile jedoch vermisse ist Windows Azure. Aber warum ist es gerade Amazon, die den Markt anführen und warum gehört Windows Azure meiner Meinung nach ebenfalls in denselben Quadranten wie Amazon.

Frühe Präsenz und ein ausgeprägtes Angebot zahlen sich aus

Ein Grund für Amazons Erfolg liegt unumstritten in der frühen Präsenz am Markt. Als erster IaaS Anbieter (2006) haben sie den Markt geprägt und dem Cloud Computing damit die Richtung vorgegeben, an der sich viele Anbieter orientieren. Microsoft folgte mit Windows Azure zwar relativ spät (2010), hat sein Portfolio aber schnell ausgebaut.

Ein weiterer aber viel prägnanter Grund sind die Services beider Anbieter. Wie bei den anderen IaaS Anbietern am Markt, stehen bei Amazon AWS und Microsoft Windows Azure nicht nur die reine Infrastruktur im Vordergrund, sondern viel mehr Lösungen drum herum. Das Angebot beider Anbieter ist im Vergleich zum restlichen Markt sehr ausgeprägt und bietet deutlich mehr als nur virtuelle Server und Speicherplatz. Und das ist der Knackpunkt.

Die Infrastruktur nutzbar machen

IaaS bedeutet im Kern das Angebot von Rechenleistung, Speicherplatz und Netzwerkkapazitäten als Service im Pay as you go Modell. Das beherzigen die meisten Cloud Anbieter am Markt. Nur nicht Amazon AWS und Windows Azure. Beide bieten viele Mehrwert-Services um ihre Infrastruktur herum an und machen diese damit nutzbar. Kunden sind damit in der Lage die „dumme“ Infrastruktur direkt produktiv zu nutzen.

Egal welchen Anbieter man sich aus dem Public Cloud Bereich zur Brust nimmt, in der Regel besteht das Angebot aus Compute (Rechenleistung), Storage (Speicherplatz) und Database (Datenbanken). Der eine oder andere bietet zudem noch ein CDN (Content Delivery Network) und Tools für das Monitoring. Das war es dann aber auch schon. Hingegen zeigt ein Blick auf die Services von Amazon AWS und Windows Azure, wie umfangreich deren Portfolio mittlerweile ist.

Daher, Mehrwert-Services sind der Schlüssel und die Zukunft von Infrastructure-as-a-Service, mit denen sich die Infrastruktur gewinnbringender nutzen lässt.

Kategorien
Kommentar

Ein deutscher Patriot Act schadet dem deutschen Cloud Computing Markt

Wie netzpolitik.org berichtet, arbeiten das deutsche Bundesfinanzministerium sowie das Bundesinnenministerium an der Überwachung von Daten in der Cloud. Ebenso arbeiten das Zollkriminalamt (ZKA) sowie das Bundesamt für Verfassungsschutz im Rahmen internationaler Arbeitsgruppen an Methoden, um Daten aus der Cloud abzuhören. Zusammen mit der Bundesnetzagentur gehören beide dazu dem „European Telecommunications Standards Institute“ (ETSI) an. Zwar sei das Bundeskriminalamt (BKA) nicht direkt mit involviert, sei aber in Kontakt mit dem ZKA und habe Einfluss auf Entwicklungen und Beschlüsse.

Das ETSI soll Datenschutz umgehen

Bereits im August hatte ich darüber geschrieben, dass sich das ETSI mit Technologien beschäftigt, um den Datenschutz trotz Mechanismen wie z.B. SSL auszuhebeln.

Das ETSI soll dazu „eine geheime Hintertür für die Cloud“ entwickeln. Dabei soll es darum gehen, den Sicherheitsbehörden das Abhören und Überwachen von Kommunikationsdaten in der Cloud zu erleichtern. Das soll neben Angeboten wie Facebook, Twitter usw. ebenfalls Unternehmensangebote wie die Amazon Web Services, Microsoft Windows Azure und andere Anbieter betreffen. Dazu habe sich das ETSI eine Backdoor überlegt, um unkompliziert den unautorisierten Zugriff zu ermöglichen.

SSL wird ausgehebelt

Bei der ETSI Idee handelt es sich, wie sonst oft diskutiert, allerdings nicht um rechtliche Themen wie bspw. dem „Patriot Act“. Hier geht es um reine Technik. Das ETSI will eine Schnittstelle definieren, mit der europäische Sicherheitsbehörden Zugriff auf die Cloud Services der Anbieter erhalten. Die ETSI-Arbeitsgruppe “TC Lawful Interception” stellt sich die Umsetzung so vor, dass die Internet-Anbieter sämtlichen Verkehr standardmäßig umleiten. Nutzt ein Anwender eine verschlüsselte HTTPS-Verbindung (was mittlerweile Standard ist), soll der Datenverkehr auf spezielle Server in das Rechenzentrum des Internet-Anbieter umgeleitet werden. Hier sollen die Sicherheitsbehörden dann den Zugriff auf die Daten erhalten. Um das zu realisieren, müssen die entsprechenden SSL-Zertifikate ausgehebelt werden. Der ETSI geht es nach eigenen Angaben nur um die Erfassung der Datenkommunikation und nicht um die Kontrolle der Inhalte. Der britische Sicherheitsspezialisten und Leiter des Computer Laboratory der Universität Cambridge Ross Anderson hingegen schreibt nach einer Analyse des ETSI-Entwurfs allerdings: „Wenn man die Infrastruktur baut, auf die sich das ETSI geeinigt hat, kann diese für Überwachungsaktivitäten genutzt werden.“

Konsortium hilft beim Forschen zum Schnüffeln

Wie netzpolitik weiter schreibt, arbeiten die Deutsche Telekom und die 1&1 Internet AG zusammen unter der Firma „Strategie- und Forschungszentrum Telekommunikation“ (SFZ TK) an dem gemeinsamen Projekt mit dem Namen „CLOUD“ an der Überwachung von Cloud-Diensten. Zwar geht es nur um die „Fragestellungen zu Cloud-Computing und dessen Implikationen auf die Telekommunikationsüberwachung“, aber was man zwischen den Zeilen lesen kann ist besorgniserregend:

„Die unter Umständen weltweite und nicht transparente Verteilung der Daten, Software, Betriebssysteme und Speicher sowie der in der Regel auf verschlüsselten Kommunikationsprotokollen basierende Zugang zu Cloud-Diensten erschwert einen Zugriff der Sicherheitsbehörden.“

Neben dem BKA und der Bundespolizei arbeitet ebenfalls das Bundesamt für Verfassungsschutz mit SFZ TK zusammen.

Deutschland verbaut sich selbst einen kleinen Wettbewerbsvorteil

Im Mai hatte ich im Verlauf der SecureCloud 2012 in Frankfurt noch die Gelegenheit mit mehreren Beratern zu sprechen. Die durchweg einstimmigen Aussagen waren, dass sich Cloud Angebote aus Deutschland mit dem Verkaufsargument des hohen Datenschutzniveau sehr gut verkaufen lassen.

Ein deutscher Patriot Act schadet dem deutschen Cloud Computing Markt

Einige Cloud Anbieter aus Deutschland werben u.a. mit solchen Geschichten wie „Made in Germany“ und hohen Datenschutzanforderungen in unserem Land. So ganz unrecht haben sie damit natürlich nicht. Im Vergleich zu anderen Ländern ist der Zugriff auf Daten bei einem deutschen Anbieter so ohne weiteres nicht möglich.

Dieser Wettbewerbsvorteil – TRUST (wir erinnern uns an die CeBIT 2012) – wird, geht es nach der deutschen Bundesregierung, jedoch bald verschwinden. Es geht dann nicht mehr darum, wer den besseren Datenschutz bieten kann oder vertrauenswürdig ist, sondern einzig und allein darum wer die besten Services und die innovativsten Produkte hat. Unternehmen müssen in Zukunft zudem noch besser darauf achten, ihre Daten zu klassifizieren und entscheiden, was in die Cloud soll und was doch lieber on-Premise bleibt. Darüber hinaus wird diese Entwicklung Einfluss auf den Markt haben, da sich immer mehr Unternehmen für eine eigene Private Cloud entscheiden.

Willkommen Private Cloud

Das Vertrauen in die Public Cloud wird weiter sinken und Public Cloud Services – die für das Cloud Computing in Reinform stehen – werden demnach einen weiteren Dämpfer erhalten! Interessant ist, dass die Marktforscher von Gartner für 2012 ein großes Wachstum in der Public Cloud sehen. Zudem sollen die Ausgaben für Enterprise Public Cloud Services bis 2016 die 207 Milliarden US-Dollar erreichen.

Ziehen wir diese neue Entwicklung heran, wird Gartner seine Prognosen wohl herunterschrauben müssen. Die Bedenken von CIOs, Public Cloud Services zu nutzen, sind derzeit eh schon höher als gedacht. Der Hauptgrund sind die Befürchtungen vor Datenlecks in der Public Cloud. Deutsche Unternehmen werden die Gedanken der deutschen Regierung ebenfalls nicht gerne hören. Eine Umfrage von IDC ergab vor kurzem, das ein Drittel der befragten deutschen Unternehmen in 2013 zwischen 26% – 50% ihres IT-Budget in die Private Cloud investieren wollen. Allerdings interessieren sich 90% der Unternehmen nicht(!) für die Public Cloud.

Kategorien
Kommentar

Ausfälle in der Cloud liegen in der Natur des Menschen

Wenn die Cloud fällt sind es wir Menschen, die dafür verantwortlich sind. Wie soll es auch anders sein. Schließlich programmieren und konfigurieren sich die Systeme nicht von alleine. Und auch wenn es heißt „No cloud without automation“ muss man eigentlich sagen „(No cloud without automation) without human skills“. Insbesondere zeigen sich unsere menschlichen Schwächen in der Cloud dann, wenn es wieder mal zu einem Ausfall kommt. Vor allem in diesem Jahr haben wir ein paar davon gesehen.

Menschen machen Fehler

Und das ist ok. Solange aus diesen Fehlern auch gelernt wird. Was bei dem einen oder anderen Anbieter dieses Jahr nicht der Fall war. Ich will und werde hier keine Namen nennen, denn diejenigen Wissen bestimmt selbst, dass sie etwas deutlich besser machen müssen. Aber wenn ein Notstromaggregat innerhalb kürzester Zeit zweimal nicht funktioniert und ebenfalls sämtliche Notfallpläne scheitern, läuft etwas falsch!
Zwar war dieser Ausfall, von dem ich hier spreche, in erster Linie kein menschliches Versagen. Denn gegen einen Wirbelsturm und Gewitter sind wir machtlos. Aber die Kaskade von Fehlern die während des Unwetters passiert war, ist unerklärlich.

Andere Fehler die in diesem Jahr passiert sind, lassen sich dem Menschen direkt zuordnen. Zum einen waren da bspw. falsch konfigurierte Netzwerkschnittstellen die dafür gesorgt haben, dass die Netze der Anbieter mit Daten überflutet wurden und sich somit selbst Schachmatt gesetzt haben. Oder es wurden erst kürzlich bei einem Anbieter Änderungen an der Konfiguration der Load-Balancer vorgenommen, die zu einem längeren Ausfall führten.

Wie gesagt, Menschen machen Fehler. Und daher sollte man nicht immer „der großen bösen Cloud“ die Schuld geben, sondern hinter die Fassade schauen und bedenken, dass dort auch nur Menschen wie Du und ich sitzen.

In diesem Sinne, auf in ein besseres 2013. 🙂

Kategorien
Kommentar

Zerlegt: Forrester Cloud Computing Vorhersagen 2013

Wie viele andere große Analystenhäuser hat auch Forrester in seine ganz persönliche Glaskugel geschaut und Vorhersagen für den Cloud Computing Markt getroffen, die im Jahr 2013 wirklich zutreffen sollen. Insgesamt sind es zehn Theorien, die hier nachgelesen werden können. Ich habe die für mich drei interessantesten Aussagen aufgegriffen und aus meiner Sicht beleuchtet.

Cloud und Mobile werden eins

Laut Forrester steckt heutzutage nur ein sehr kleiner Mehrwert in einer mobilen Applikation die sich nicht mit einem Back-End im Internet verbindet. Diese Back-Ends befinden sich in der Cloud, da ein gewöhnliches Rechenzentrum ansonsten einer unvorhersagbar Last ausgesetzt sind.

Diesem muss ich widersprechen. Denn diese Vorhersage ist schon längst eingetreten. Schauen wir uns mobile Apps auf iOS, Android oder Windows Phone an, wird schnell deutlich, dass sich die meisten Daten bereits nicht mehr auf dem lokalen Endgerät befinden und stattdessen live von einem Server geladen werden. Bekannte Beispiele sind Foursquare, Dropbox, Google Drive, SkyDrive, Facebook, Twitter, Google Plus, Analytics Tools, Instagram, Evernote (hybrid), usw.

Mehr zu dem Thema unter „Die mobile Cloud ist der wahre Megatrend“ aus dem März 2011.

Wir werden das Thema Cloud SLA weniger betonen

Forrester hat verstanden, dass Applikationen so entwickelt werden müssen, dass sie sich selbst schützen. Anstatt die Elastizität in die Anwendung zu implementieren, sollte nun auf Best Practice Ansätze gehört werden. Ebenso verhält es sich mit der Ausfallsicherheit aus der Cloud Plattform heraus.

Man sagt dazu auch „Design for Failure“, denn „Everything fails everytime“, auch Cloud Infrastrukturen. Cloud Computing per se liefert dem Kunden keine Hochverfügbarkeit, es stellt aber die Mittel und Wege bereit, um Hochverfügbarkeit zu erreichen. Speziell im Bereich Infrastructure-as-a-Service muss man darauf achten und die Eigenschaften der horizontalen Skalierbarkeit einer Cloud Infrastruktur nutzen, um seine Applikation und die Systeme so verfügbar wie möglich auslegen. Das bedeutet nicht nur einen Server einsetzten, sondern mehrere verteilt über verschiedene Availability Zones (Rechenzentren) und Regionen (weltweite Streuung). Als Cloud-Architekt muss man sich die Skalierbarkeit der Cloud zu Nutze machen und das Design der Anwendung für verteilte Infrastrukturen auslegen. Das bedeutet ebenfalls, dass automatisch ein neuer Server hochgefahren wird, wenn die Last zunimmt und auch automatisch wieder herunterfährt wenn er nicht mehr benötigt wird.

Dennoch sollte man die Anbietern hinsichtlich der SLAs nicht aus den Augen verlieren. Der Service-Level muss stimmen und eingehalten werden. Meiner Ansicht nach sind die „Schmerzen“ für die Anbieter nicht groß genug, wenn etwas passiert. „Nur“ die Kosten erstatten, die während des Zeitraums des Ausfalls angefallen sind, reicht nicht aus.

Wir hören auf die Cloud mit AWS gleichzusetzen

Während Amazon AWS mit einem Marktanteil von 70% zu dem größten und Einflussreichsten Cloud Anbieter aufgestiegen ist, sieht Forrester für das kommende Jahr ein paar Konkurrenten, die vergleichbar mit Amazons angeboten sein werden. Dazu zählt Forrester z.B. Microsoft Windows Azure, Googles Cloud oder OpenStack basierte Clouds.

Die stärkste Konkurrenz zu den Amazon Web Services ist, wie Forrester richtig sagt, Microsoft Windows Azure und die Google Cloud Platform. Alle andere müssen massiv aufholen, da die meisten nur(!) Infrastruktur anbieten. Amazon hat es geschafft viele Mehrwert-Services um die AWS Infrastruktur aufzubauen, mit denen die Kunden die „dumme“ Infrastruktur auch gewinnbringend nutzen können. Genau so verhält es sich mit Microsoft und Google. Andere Public Cloud Anbieter dagegen haben nur Rechenleistung und Speicherplatz, das war es dann aber auch. Manche reden derzeit zwar viel darüber, dass sie ein neuartiges IaaS haben (quasi ein IaaS der nächsten Generation), dahinter steckt aber weiterhin nur dumme Infrastruktur, mit der ein Kunde erst einmal nicht viel anfangen kann.

Ein guter Ansatz für einen IaaS der nächsten Generation ist Infrastructure-as-a-Platform. Denn aktuelle IaaS wie AWS sind sehr kompliziert zu verstehen und daher ebenfalls schwer zu nutzen.

Kategorien
Kommentar

"Variable Cloud-Verträge" Bitte was?

Ich bin auf der deutschen CIO.de auf ein Interview mit dem Titel „Wir brauchen variable Cloud-Verträge“ gestoßen? Bitte was? Variable Cloud-Verträge? Das sind drei Wörter die so zusammen überhaupt keinen Sinn ergeben und zeigen, dass das Cloud Computing Konzept irgendwie noch nicht angekommen ist oder und das wäre sehr prekär, die Anbieter falsch beraten.

Zerlegt: „Variable Cloud-Verträge“

Nehmen wir dieses Wortgeflecht mal auseinander und bilden es auf die grundsätzlichen Prinzipien des Cloud Computing ab, kommen wir zu dem folgenden Ergebnis:

Variable

Cloud Computing ist per se variable. Sogar variabler als jede Form des Outsourcing, dass wir in der Geschichte der IT gesehen haben. Und das bezogen auf die zeitliche Nutzung als auch bzgl. der Abrechnung. Siehe nächsten Punkt.

Cloud

Kurz und knapp zusammengefasst bedeutet Cloud (Computing) der flexible (variable) Bezug von (IT)-Ressourcen über eine Datenverbindung, bevorzugt das Internet.

Flexible bzw. variable bedeutet, dass man die Ressourcen zu dem Zeitpunkt bezieht, nutzt und wieder „zurückgibt“, wann man es als Kunde möchte (on Demand) und das man nur für die Ressourcen bezahlt, die man innerhalb dieses Zeitraums auch tatsächlich verwendet hat (pay as you go).

Also höchst variable!

Verträge

Im klassischen Gedanken gibt es beim Cloud Computing keine „richtigen“ Verträge, wie wir es normalerweise kennen. In der Public Cloud reicht eine Kreditkarte. Natürlich geht man in einer Form einen Vertrag ein, aber dieser ist bzw. sollte von der Anbieterseite so gestaltet sein, dass man als Kunde das Maximum an Flexibilität erhält. Also die Abrechnung z.B. pro Stunde erfolgt und kein monatlicher oder gar jährlicher Vertrag geschlossen wird. Wird die Infrastruktur des Anbieters ab einem gewissen Zeitpunkt nicht mehr genutzt ist Ende mit der Abrechnung.

Die konkrekte Aussage

Die Aussage in dem Interview liest sich wie folgt:

„Cloud Computing ist ein Trend, den man einfach nutzen muss. Wesentlich für uns ist die vertragliche Umsetzung. Was die Cloud bringt, ist ja die schnelle Nutzbarkeit von IT-Leistungen und die Verfügbarkeit losgelöst vom Unternehmen. Interessant wird es für uns aber erst dann, wenn alle relevanten Sicherheitsanforderungen erfüllt sind, wenn man von einem Anbieter zum andern wechseln kann und sich die Verträge variabel gestalten lassen. Das heißt konkret, die bezogenen Ressourcen müssen sich innerhalb von 24 Stunden sowohl nach oben als auch nach unten anpassen lassen.“

Insbesondere der letzte (fett markierte) Teil ist besorgniserregend!

„… wenn man von einem Anbieter zum andern wechseln kann und sich die Verträge variabel gestalten lassen.“ Das heißt konkret, die bezogenen Ressourcen müssen sich innerhalb von 24 Stunden sowohl nach oben als auch nach unten anpassen lassen.“

Diese Aussage zeigt mir auf der einen Seite, dass der Marktüberblick fehlt. Denn es gibt ausreichend (echte) Cloud Computing Anbieter, bei denen genau diese Forderung möglich ist. Genannt seien z.B. die Amazon Web Services, Microsoft Windows Azure oder auch CloudSigma. Auf der anderen Seite bedeutet dies aber auch, dass so manche Anbieter weiterhin ein falsches Spiel spielen und Cloud Computing nach ihren eigenen Regeln definieren und die Kunden damit verwirren.

Kategorien
Kommentar

Cloud Computing: Offen oder Geschlossen? Vendor Lock-in ist kein Argument!

Cloud Computing spaltet sich derzeit in zwei Lager. Die Liebhaber eines geschlossenen, proprietären Systems und die Befürworter einer offenen (Open-Source) Cloud. Interessanterweise stellen verstärkt die Open-Source Jünger, allen voran das OpenStack Projekt die größten Lautsprecher dar (Rackspace: Linux der Cloud). Sei es auch nur, um mehr Aufmerksamkeit von den derzeit erfolgreichen geschlossenen Systemen (Amazon Web Services (AWS), Microsoft Windows Azure) auf sich zu lenken. Eines vorweg, pauschal lässt sich nicht sagen, welcher Ansatz der „Bessere“ ist. Es hängt immer von den eigenen Anforderungen und Möglichkeiten ab. Zudem sollte man schauen, wie geschlossen die proprietären Systeme wirklich sind. Man wird zum einen merken, dass viel mehr religiöse Ansichten dahinter stecken als man denkt und das die Argumentation Vendor Lock-in bei Open-Source Clouds nicht zwangsläufig zutrifft. Denn einen Vendor Lock-in hat man immer.

Geschlossene Cloud gleich Lock-in?

Hauptargumentation aus dem Open-Source Lager gegen proprietare Cloud Angebote ist das Risiko eines Lock-in. Um diesen zu umgehen, solle man stattdessen auf Angebote setzen, die auf Open-Source basieren, um sich über eine eigene Private Cloud die Freiheit zu verschaffen, also die Infrastruktur und Daten dann ggf. in die eigene Cloud zu transferieren.

Eines sollte man jedoch nicht vergessen, ohne Open-Source funktioniert derzeit so gut wie kein Cloud Angebot. So besteht die AWS Cloud aus wahrscheinlich der größten XEN (Hypervisor) Installation weltweit. Zudem wird argumentiert, dass mann sich bei AWS in einen Lock-in begibt. Bei der DynamoDB mag dies richtig sein. Aber für alle anderen Services gibt es Lösungen wie Eucalyptus, openQRM oder sogar OpenStack selbst, die entsprechende Schnittstellen bereitstellen. Und auch Microsoft ermöglicht es, zwischen Windows Azure und einer auf Microsoft basierenden Private Cloud mit dem Microsoft Server 2012 und dem System Center 2012 Daten usw. hin und her zu schieben. Man ist hier also auch nicht zwangsläufig auf die Public Cloud angewiesen.

Wo versteckt sich der Lock-in?

Ein Vendor Lockin besteht dann, wenn ein System, Angebot oder Lösung sehr stark abhängig macht.

Ein analoges Beispiel dafür ist Ikea. Das Design der Möbel ist so markant, dass es für einen Innenarchitekten Laien (wie mich) schwierig ist, es mit einem anderen Design zu kombinieren. Also geht man dazu über, weitere Möbel bei Ikea zukaufen. Zudem verfügt Ikea über eigene Maße und proprietäre Techniken z.B. bei den Waschbecken oder auch bei den Küchen, Schrauben und sonstigen Verbindungen.

Das Risiko des Lock-ins in der Cloud befindet sich hauptsächlich bei den Daten und Prozessen, wenn diese dort ebenfalls abgebildet werden. Denn in beiden Fällen befinden sich hier die geschäftskritischen Bereiche, die so beweglich wie möglich in der Cloud liegen sollten.

Die Ressourcen wie virtuelle Maschinen sind nicht, wie möglicherweise vermutet, von dem Lock-in betroffen. Hierzu existieren bereits diverse Import/ Export Tools z.B. von VMware für AWS oder speziell V2V (Virtual to Virtual) oder V2P (Virtual to Physical) Mechanismen von openQRM. Das bedeutet, das sich virtuelle Maschinen und deren Inhalte bequem hin und her schieben lassen.

Die Daten selbst sind in der Cloud in der Regel ebenfalls nicht von einem Lock-in betroffen. Die meisten Anbieter verfügen über entsprechende Schnittstellen, über die sich die Daten bewegen und transferieren lassen. Bei den Prozessen wird es schon schwieriger. Aber, wie viele Unternehmen haben in der Vergangenheit ihre Prozesse in die Hände von SAP Systemen gelegt und damit einen Lock-in verursacht?

Ein Lock-in ist nichts Schlechtes

Ein Lock-in, wenn er denn vorliegt, muss nicht immer etwas Schlechtes sein. Im Gegenteil, er führt zu Innovationen und verringert die Komplexität. Der Anbieter nimmt einem beim Design und der Auswahl Stückweit die Entscheidung ab und sorgt für eine stetige Weiterentwicklung und Verbesserung des Systems.

Zudem sollte man schauen, wer sich einen Lock-in nicht leisten kann. Kleine und mittelständische unternehmen, die ggf. über eine kleine oder keine IT-Abteilung verfügen, nehmen das gerne in Kauf, da sie sich die Implementation einer komplexen Umgebung nicht leisten können bzw. nicht über die Expertise verfügen. Analoges Beispiel, Ikea: Man bekommt relativ günstig gute Möbel und kann alles miteinander gut kombinieren.

Außerdem, schaut man sich Open-Source Projekte wie OpenStack an, wird deutlich, dass es nicht immer einfach ist, alle Interessen unter einen Hut zu bekommen. Open-Source mag zwar offen sein. Auf Grund der vielen beteiligten Unternehmen können so manche Konflikte den Innovationsgrad jedoch verringern. Aus diesem Grund kann ein Vorteil darin bestehen, wenn nur ein Unternehmen an der Spitze des Projekts/ Angebots steht und die Koordination übernimmt. Auch wenn mehrere Teilnehmer mehr Input und Expertise liefern. Hier haben auch geschlossene Anbieter einen Vorteil, da sie alleine verantwortlich sind, und damit schneller handeln. Das kann im Umkehrschluss bedeuten, dass der Lock-in von OpenStack in den potentiellen Konflikten und dem daraus folgenden langsamen Innovationsgrad besteht.

APIs sind entscheidend

Wichtig für jedes Cloud Computing Angebot sind die APIs. Auf diese muss sowohl von Innen als auch von Außen zugegriffen werden können, um auf dieser Basis die Daten in aus der Cloud zu transferieren.

Vorteile vs. Nachteile von Open-Source

Open-Source Cloud-Implementierungen gibt es erst seit ein paar Jahren und haben bis jetzt noch nicht ausreichend Anwendungsfälle im produktiven Betrieb. Obwohl eine Reihe von Early-Adoptern aus dem Telkosektor, Finanzdienstleister und wissenschaftliche Einrichtungen bereits Alternativen in Open-Source Cloud Systeme suchen, ist die Vielzahl an Unternehmen darüber nicht informiert. Es lohnt sich daher mal einen Blick auf die Vor- und Nachteile zu werfen.

Vorteil: Flexibilität

Per Definition bieten Open-Source Clouds ein höheres Maß an Flexibilität als der proprietäre Mitbewerb. Statt sich einfach nur mit dem Lesen von Anleitungen zufrieden zugeben oder an Schulungen teilzunehmen, können Nutzer selbst Änderungen an dem Code vornehmen und sich selbst mit eigenem Code an verschiedenen Projekten beteiligen. Zudem können sie eigene Projekte starten, eigene Dokus zur Verfügung stellen oder Seminare abhalten. Interaktionen mit der Gemeinschaft und der damit verbundenen Weiterbildung ermöglichen dem Anwender mehr Flexibilität bei der Gestaltung ihres Cloud-Designs und fördert innovative interne oder externe Lösungen.

Vorteil: Vendor Lock-In

Ein Argumente der Open-Source Cloud Community ist die Prävention vor einem Vendor Lock-in. Die Argumente sind einfach. Wird eine Cloud auf Basis einer offenen und weit verbreiteten Open-Source Technologien aufgebaut, hat kein Anbieter die Möglichkeit die volle Kontrolle über das Open-Source Framework zu erhalten. Damit können Anwender schneller auf die Entwicklung der Technologien im Rahmen des Open-Cloud Stacks reagieren. Darüber hinaus geben Open-Source Clouds dem Nutzer die Freiheit, seine Cloud an seine individuellen Bedürfnisse und Unternehmensziele anzupassen, statt diese anhand einer einzigen proprietäre Lösung aufzubauen.

Vorteil: Einsparung

Open-Source Software ermöglicht auf Grund seiner Lizenzierung die kostenlose Nutzung und hat damit preislich einen enormen Vorteil gegenüber dem kommerziellen Mitbewerb. Egal ob sich ein Nutzer nun für ein reines Open-Source Angebot oder für eine kommerzielle Open-Source Lösung entscheidet, wird er im Vergleich zu einer proprietären Software Kosten sparen können. In jedem Fall besteht für jedes Unternehmen die Möglichkeit, durch Open-Source Software, bei gleichzeitiger Erhöhung der Flexibilität, die Kosten zu senken, was einen Gewinn für jede Organisation darstellt.

Vorteil: Kontrolle, Offene Standards, APIs

Eine Open-Source Cloud setzt auf offene Standards und APIs und wird nicht von einem einzigen Hersteller kontrolliert. Das erlaubt es Unternehmen, die Kontrolle über die darunter liegende Hardware Infrastruktur und Managementplattform zu behalten, unabhängig davon, um welche Technologie es sich handelt. Des Weiteren ermöglichen offene APIs eine bessere Integration in bestehende offene oder proprietäre Lösungen, womit sichergestellt wird, dass aktuelle IT-Investitionen innerhalb der neuen Architektur weiterhin relevant sind.

Vorteil: Portabilität

Baut man seine Cloud auf Basis von Open-Source auf, sollte man immer schauen, wie es mit der Interoperabilität zu anderen Public, Private oder Hybrid Cloud Lösungen ausschaut. Entscheidet man sich für eine offene Technologie erhält man damit ein höheres Maß an Portabilität innerhalb des großen Cloud Ökosystems. Anstatt ihre eigenen Möglichkeiten auf proprietäre Technologien zu beschränken, können sich Nutzer an unterschiedlichen Open-Source Cloud Technologien bedienen und damit ihre IT-Entscheidungen unterstreichen und die eigenen Bedürfnisse und Unternehmensziele damit unterstützen.

Nachteil: Mangel an Unterstützung

Anwender die sich dafür entscheiden, ihre Cloud auf reiner Open-Source Software aufzubauen, begeben sich bzgl. Support in die Abhängigkeit des Open-Source Projekts. Das kann ganz schön zäh und schmerzhaft werden. Denn der Support kommt hier anhand von Foren, Chats, Q&A Systemen und Bug-Tracking Systemen von der Crowd. Zudem sollte man sich als Nutzer aktiv in der Community beteiligen und etwas dazu beitragen, was in der Welt der kommerziellen Software nicht notwendig ist. Auf der anderen Seite kann man sich für kommerzielle Open-Source Cloud Lösungen entscheiden, die für professionellen Support sorgen.

Nachteil: Kosten

Zwar haben Open-Source Lösungen auf Grund der in der Regel kostenlosen Lizenzen, im Vergleich zu kommerzieller Software, einen Kostenvorteil, allerdings gibt es auch hier Kosten die nicht zu vernachlässigen sind. Zum einen wird für den Aufbau einer Open-Source Cloud ein nicht zu unterschätzendes Wissen für die Entwicklung benötigt. Zum anderen müssen auch die Administratoren für einen einwandfreien Betrieb der Infrastruktur sorgen, wofür intensive Kenntnisse für die Verwaltung und Wartung der Lösung erforderlich sind. Darüber hinaus wird externes Fachwissen in Form von Beratung oder Entwicklung-Ressourcen benötigt.

Nachteil: Reifegrad

Je schneller sich das Open-Source Cloud Ökosystem entwickelt, kann sich ein Anwender nicht zwangsläufig darauf verlassen, das und wie lange ein Open-Source Projekt bestand hat. Wenn sich ein Cloud Architekt während des Designs einer Open-Source heute für eine bestimmte Technologie entscheidet, kann es durchaus passieren, das ihn diese in Zukunft einholen wird, da das Projekt eingestellt und nicht mehr weiterentwickelt wird. Mit den stetig steigenden Open-Source Projekten und unterschiedlichen Ansichten ist es für den Anwender zunehmend schwieriger geworden sich für den „richtigen“ Weg zu entscheiden.

Fazit

Verantwortliche die sich für eine Cloud Infrastruktur entscheiden, wollen diese hochverfügbar, einfach zu bedienen und so agil, dass sie sich mit den Bedürfnissen der Unternehmensziele verändert. Es ist daher entscheidend, dass sich ein Entscheider zunächst über die Unternehmensziele im klaren ist und sich mit seiner bestehenden IT-Infrastruktur auseinandersetzt, bevor er über eine Open-Source oder proprietären Cloud Infrastruktur nachdenkt. Möglicherweise kann man auch zu dem Ergebnis kommen, dass eine Open-Source Cloud für das Unternehmen keinen nennenswerten Vorteil bietet und eine proprietäre Cloud besser für den eigenen Innovationsgrad ist oder auch andere Möglichkeiten evaluiert werden müssen.

Kategorien
Kommentar

Deutsche Cloud: Ist Deutschland souverän? Lieber keine Unternehmensdaten in Deutschland speichern?

So mancher deutsche Cloud Computing Anbieter brüstet sich mit den hohen Datenschutzrichtlinien in unserem Land. Da wird der Patriot Act als Vorwand genommen, sich doch lieber für eine „Deutsche Cloud“ zu entscheiden, statt für einen „bösen“ US-amerikanischen Anbieter bzw. dessen deutsches Tochterunternehmen. Datenschutz „Made in Germany“ halt.

Datenschutz in Deutschland: Nur Wunschdenken?

Ein Video von Frontal 21 rückt, meiner Ansicht nach, sämtliche Datenschutz-Diskussionen in ein anderes Licht. Nein, es stellt nicht das Cloud Computing in Frage, sondern Deutschland als Standort zum Speichern von Daten. Abgesehen davon, Cloud Computing ist ein globales und kein lokales Konzept („Deutsche Cloud“…). Aber, haben die Macher des Videos ernsthaft gut recherchiert, würde Irland als Standort für Cloud Computing Anbieter in Europa völlig ausreichen. Anders ausgedrückt: Als Unternehmen sollte man davon dann tatsächlich absehen, seine Daten bei einem Anbieter in Deutschland zu speichern. Denn was ist unser Bundesdatenschutzgesetz unter Berücksichtigung dieses Videos noch wert?

Quelle: Deutschland souverän?
Weitere Informationen: Die demokratische Souveränität ist teilsuspendiert

Kategorien
Kommentar

Dropbox, Microsoft SkyDrive oder Google Drive: Die weiteren Services eines Cloud Storage sind entscheidend

Dropbox ist der Platzhirsch unter den Cloud Storage Services, mit – nach eigenen Angaben – 100 Millionen Nutzern ist der Speicherdienst unangefochten weltweit die Nummer eins. Was man aber nicht vergessen sollte, Dropbox ist „nur“ ein Speicher und hat bisher keine weiteren nennenswerten Vorteile zu bieten. Cloud Storage bedeutet mittlerweile nämlich viel mehr als nur Cloud Storage sowie es auch sehr wichtig ist, mehr als nur reine Infrastruktur anzubieten, wenn man langfristig konkurrenzfähig bleiben möchte. Warum andere Anbieter wie Microsoft SkyDrive deutlich attraktiver sind als Dropbox und warum man Google Drive lieber nicht nutzen sollte, erläutere ich in diesem Artikel.

Dropbox ist nur ein simpler Cloud Storage

Wie ich es bereits vor Kurzem zum Thema Infrastructure-as-a-Services (IaaS) geschrieben habe, muss man als Anbieter mittlerweile mehr bieten als nur „reine“ Infrastruktur wie Rechenleistung oder Speicherplatz. Nur macht genau Dropbox dies nicht. Dropbox ist einfach nur ein Speicher. Um den Cloud Storage herum hat das Unternehmen es bisher nicht geschafft ein eigenes Ökosystem von Services zu schaffen, die dem Nutzer mehr bieten als nur Daten darin abzulegen und per Link zu teilen. Möchte ich zum Beispiel eine Word-Datei über die Webseite aufrufen, um sie „nur“ zu betrachten, öffnet sich das Downloadfenster. Ich bin also auf ein lokales Betriebssystem angewiesen. Dropbox ist daher zu nativ gestrickt. Das hat natürlich den Vorteil, dass für jedes System ein Client zur Verfügung steht, der allerdings auch zwangsläufig benötigt wird.

Wie sieht es aber aus, wenn ich mit mehreren Parteien an einer Datei parallel arbeiten möchte? Online via Webbrowser ist das nicht möglich. Und lokal über einen der nativen Clients? Auch nicht! Dropbox ist einfach nur ein Stück Speicher im Internet ohne weitere Intelligenz, Möglichkeiten der Zusammenarbeit und anderen Mehrwertdiensten.

Microsoft SkyDrive und Google Drive

Wo Dropbox aufhört, fangen Cloud Storage Lösungen wie Microsoft SkyDrive oder Google Drive erst richtig an. Beide Services sind vollständig in das eigene Ökosystem des jeweiligen Anbieters nahtlos integriert und bieten neben dem Speichern weitere Dienste.

Google hat durch die Veröffentlichung von Google Drive ihre Online-Textverarbeitung Google Docs aufgebohrt. Das bedeutet, dass Dokumente die auf Google Drive gespeichert sind auch online im Browser bearbeitet werden können. Und das sogar mit mehreren Leuten gleichzeitig und ortsunabhängig. Microsoft SkyDrive ist ein standalone Cloud Storage Service. Allerdings hat Microsoft mit den Office Web Apps eine abgespeckte Version von bekannten Office Produkten wie Word oder Excel integriert, mit denen Dokumente online und mit mehreren Leuten parallel bearbeitet werden können. Was vielen das bekannte lokale Microsoft Office-feeling auch im Browser ermöglicht.

Ein kleines Minus bekommt SkyDrive, da es derzeit noch keinen nativen Linux-Client von Microsoft gibt. (War ein Kritikpunkt von einem Bekannten, der als Linux-Nutzer ernsthaft über einen Wechsel nachgedacht hatte und auf Grund des fehlenden nativen Linux-Clients es dann gelassen hat.) Allerdings ist die SkyDrive API offen, was es jedem erlaubt, einen eigenen SkyDrive-Client für Linux zu schreiben.

Das alles meine ich mit „Infrastruktur bedeutet mehr als nur Infrastruktur“. Die Services, die von dem Anbieter um die „dumme“ Infrastruktur herum aufgebaut werden, machen den Unterschied.

Die Preise – Dropbox muss nachlegen

Preislich ist Microsoft SkyDrive derzeit unschlagbar günstig. Zunächst bekommt man 7GB kostenlosen Speicherplatz, der für 37 EUR pro Jahr um 100GB erweitert werden kann. Hinzu kommt, das Microsoft ein seriöser und renommierter Anbieter ist, dessen Infrastruktur erprobt ist. Zum Vergleich, bei Dropbox erhält man 100GB für 99 US-Dollar pro Jahr. 100GB kosten bei Google Drive 59,88 US-Dollar pro Jahr.

Google Drive sollte lieber nicht genutzt werden

Auch wenn Google Drive technologisch ein sehr interessanter Cloud Storage ist und viel mehr bietet als ein Dropbox, ist von der Nutzung des Service aus Datenschutzgründen abzuraten.

“Meine größten Bedenken Google Drive zu nutzen sind, dass Google bereits alle meine E-Mails, Web-Analytics Daten und Suchbegriffe besitzt. Möchte ich denen wirklich noch mehr Daten geben?”, Chen S. im Dropbox Forum.

“Wie viele andere Nutzer, bin auch ich nicht erfreut darüber, dass Google über immer mehr Informationen aus meinem Leben verfügt, die ich in ihrer Cloud speichere.”, Christopher H. im Dropbox Forum.

“Google kann diese Daten in irgendeiner Form für interne Zwecke nutzen. Das kann das Verkaufen personalisierter Werbeanzeigen auf Basis meiner hochgeladenen Daten sein.”, Mark Mc. im Dropbox Forum.

Google Pressesprecher Stefan Keuchel hatte nach der Veröffentlichung von Google Drive und den ersten Kritiken bereits Stellung bezogen:

“Drives Nutzungsbedingungen sind eindeutig, was dir gehört, wird auch deins bleiben.”

Natürlich sagt Google, dass alle Daten die in Google Drive gespeichert werden das Eigentum des Nutzers bleiben. Das ist ja wohl selbstverständlich und ist keiner weiteren Stellungnahme würdig. Darum geht es bei dieser Diskussion aber auch nicht! Es geht darum, was Google mit den auf Google Drive gespeicherten Daten macht. Denn es wird nicht endgültig ausgeschlossen, dass Google diese Daten verwendet, um damit weitere Analysen und Geschäfte vorzunehmen. Wenn Google die Daten auf Google Drive dazu verwenden würde, hätte die Nutzung des Google Cloud Storage einen sehr faden Beigeschmack. Eines muss man sich natürlich vor Augen halten. Wenn ich im Internet etwas kostenlos bekomme, bin ich das Produkt. In Googles Fall werde ich mit Werbung “versorgt” und Google kann die Daten für anonyme Analysen nutzen. Allerdings bietet Google ebenfalls kostenpflichtigen Speicherplatz an. Bedeutet, der Nutzer bezahlt für die Leistung die Google erbringt. In diesem Fall wäre es für Google nicht mehr gerechtfertigt, die Daten für Werbezwecke und weiteres zu verwenden. Für die kostenlosen 5GB wäre es grenzwertig aber falsch. Aber wie will Google auseinander halten, welche Daten sich jetzt in dem kostenlosen 5GB Speicher befinden und welche in dem restlichen bezahlten.

Google hat bis heute genau zu dieser Thematik keine Stellung bezogen. Und solange es hierfür keine offizielle schriftliche Aussage von Google gibt, unterstelle ich Google, dass die Daten – auch bei dem kostenpflichtigen Speicherplatz – für eigene Zwecke analysiert und weiterverarbeitet werden. Und solange sollte Google Drive lieber nicht genutzt werden.


Bildquelle: ©Gerd Altmann / PIXELIO

Kategorien
Kommentar

CIOs sind genervt von falschen Cloud Services und deren Marketing (CloudWashing)

Es ist kein überraschendes Ergebnis und zeigt, dass CloudWasher zu den großen Verlieren gehören. Denn IT-Entscheider wollen sich nun einmal nicht von falschen Cloud Services in die Irre führen lassen. Dieses und mehr ergab eine Umfrage vom Cloud Anbieter ElasticHosts unter mehreren CIOs weltweit.

83 Prozent der CIOs sind genervt vom falschen Marketing

Die Umfrage ergab, dass 83 Prozent der befragten CIOs frustiert sind, sich ständig mit dem falschen Marketing der selbsternannten Cloud-Services auseinandersetzen zu müssen, die sich am Ende als ganz herkömmliche Hosting-Lösungen herausstellen. Ganz gewöhnliche Webhosting-Lösungen, die den Namen Cloud beinhalten: CloudWashing! (Interessant dazu auch: Klassische Webhoster und ihr Kampf mit Infrastructure-as-a-Service).

Zwei Drittel (67 Prozent) der Befragten gaben an, dass Ihnen bereits „Cloud“-Services mit einer festen Laufzeit angeboten wurden. 40 Prozent berichten von Angeboten, die nicht elastisch oder skalierbar waren und bei 32 Prozent verfügte das Angebot über keinen Self-Service.

Web-Hosting ist KEIN Cloud-Hosting!

Es ist mittlerweile kein Geheimnis mehr, dass die meisten Angebote, die den Namen „Cloud“ oder „Cloud Computing“ im Namen tragen nur namentlich neu aufgelegte Standard Hosting-Lösungen sind, die nicht über eine einzige Kerneigenschaft des Cloud Computing verfügen. Das bedeutet über keinen Self-Service, keine automatische Bereitstellung der Ressourcen, keine Elastizität oder Skalierbarkeit weder noch über ein Pay as you go Model verfügen.

Es muss etwas unternommen werden!

Die Umfrage zeigt erneut, dass es an der Zeit ist, etwas zu unternehmen und die CloudWasher für ihre Lügen öffentlich bekanntgemacht werden müssen. Denn auf der einen Seite kosten falsche Cloud Services den IT-Einkäufern viel Zeit. Hinzu kommt, dass eine „fake Cloud“ irgendwann doch für ein Projekt eingesetzt wird und zu schweren Folgen für den Kunden führen kann und den echten Cloud Angeboten zudem im Weg steht.

Wie David Linthicum schön schreibt:

Truth be told, most of those presentations are given by salespeople who don’t know a cloud from a hole in the ground; they actually believe they’re selling is a cloud. Used cars, appliances, PCs, cloud services — the sales process is all the same, right?

Word!, oder?


Bildquelle: ©Thommy-Weiss / PIXELIO

Kategorien
Kommentar

Cloud Washing: D-Link führt seine Kunden an der Nase herum

Vor ungefähr zwei Wochen habe ich eine Pressemitteilung von D-Link mit dem Betreff „DIR-506L Router verleiht der Cloud Flügel“ erhalten. Da stellt sich natürlich die Frage: Seit wann kooperiert ein Hersteller von Netzwerkhardware mit einem Energiedrink aus Österreich und was hat das alles mit Cloud Computing zu tun? Einfache Antwort: Nichts. D-Link ist hier schlicht und einfach auf den Marketingzug „Cloud“ aufgesprungen und suggeriert mit so einer Aussage den Medien aber vor allem seinen Kunden, ein Cloud Produkt im Portfolio zu haben, CloudWashing also.

Das Marketing zerstört das Verständnis für Cloud Computing

In der Pressemitteilung heißt es großzügig:

D-Link, der Netzwerkexperte für das digitale Zuhause, erweitert die Cloud-Familie um einen neuen Router: Mit dem tragbaren DIR-506L lässt sich die persönliche Datenwolke bequem in die Tasche stecken.

und weiter

Besonders einfach klappt das mit den Apps für …. Egal ob iPhone, iPad oder Android-Endgerät, die kostenlose App macht den Zugriff und Umgang mit digitalen Inhalten innerhalb der Personal Cloud zu einem Kinderspiel. Anwender können Medien vom Endgerät oder Massenspeicher ganz einfach auf andere PCs, Tablets oder Smartphones streamen und haben so jederzeit uneingeschränkten Zugriff auf Musik, Fotos, Filme, Powerpoint Präsentationen, Excel-Listen oder PDF-Dateien. Das funktioniert natürlich ebenfalls in die andere Richtung: Wichtige Daten landen auch unterwegs bequem und schnell als Backup auf dem am Router angeschlossenen USB-Speicher.

Ich glaube das Kinderspiel für D-Link an dieser Stelle ist es, über ein verwirrendes Marketing seine Kunden auf den falschen Weg zu bringen und sich als Anbieter von Cloud Produkten zu positionieren, die sie definitiv nicht haben. Seit wann hat die Cloud denn z.B. einen USB-Anschluß?

Es kommt aber noch besser.

Mit D-Link in der Personal Cloud
D-Link investiert konsequent in die Entwicklung von Cloud Produkten sowie Services. … Bereits verfügbar sind die Cloud Router … mehrere Netzwerkkameras sowie der Netzwerk-Videorekorder …

Alles klar? Es ist wirklich eine Schande, wie D-Link versucht, seine Kunden an der Nase herumzuführen. Es werden mittlerweile sogar Netzwerkkameras und Netzwerk-Videorekorder cloudifiziert, nur um über den Cloud-Zug den Absatz zu erhöhen. Wohlgemerkt auf Kosten und dem Rücken der Kunden.

Was ist Cloud Computing?

Es gibt klare Beschreibungen was Cloud Computing ist. Dazu gibt es hier viel zu lesen:

83 Prozent aller Unternehmen sind genervt vom Cloud Washing

Solche Marketing-Aktionen, wie sie nicht nur D-Link betreibt, nervt übrigens über 83 Prozent der Unternehmen. Das ergab eine Umfrage von ElasticHosts. Meine Einwände sind also nicht ganz unberechtigt.

Übrigens ist auch Adron Hall von CloudAve das nebulöse Marketing von D-Link – neben ein paar Anderen – negativ aufgefallen.


Bildquelle: ©Thommy-Weiss / PIXELIO