Kategorien
Kommentar

Woran erkennt man einen (echten) Cloud Service?

Ist es nun Cloud oder nur „vercloudifiziert“? Woran kann ich als Anwender einen echten Cloud Service erkennen? Diese Frage ist nicht immer ganz einfach zu beantworten, da die Kniffe meistens im Detail versteckt sind bzw. sich in der Infrastruktur befinden, in die in der Regel nicht hineingeschaut werden kann. Eines Vorweg, ein Service der über das Internet angeboten wird ist nicht gleich ein Cloud Service!

Einen echten Cloud Service zu erkennen ist nicht immer ganz einfach

Grundsätzlich kann bei der Betrachtung zwischen dem technischen und wirtschaftlichen Bereich unterschieden werden, um einen ersten Eindruck zu erhalten, ob es denn nun ein Cloud Service ist oder nicht. Dazu sollte man sich bspw. ein verifiziertes und echtes Cloud Computing Angebot wie im IaaS Bereich z.B. die Amazon Web Services oder im Bereich SaaS Microsoft Office 365 oder Google Apps vor Augen halten und damit einen Vergleich anstellen.

Wichtige Anzeichen die für einen Cloud Service sprechen sind Flexibilität, Skalierbarkeit und Hochverfügbarkeit. Die Flexibilität spielt insbesondere bei der Abrechnung der Kosten eine wichtige Rolle. Die Skalierbarkeit und Hochverfügbarkeit sind die technischen Themen.

Technik, Technik, Technik

So sollte ein Nutzer z.B. schon ein wenig genauer hinschauen, wenn er plötzlich eine E-Mail erhält, in der ein Wartungsfenster für einen SaaS Dienst angekündigt wird. Auch wenn wir nicht in die Infrastruktur des Anbieters hineinschauen können, Wartungsfenster gehören nicht zum Cloud Computing. Nehmen wir hier die verifizierten Cloud Anbieter Amazon, Google und Microsoft zum Vergleich, gibt es bei allen drei keine Wartungsfenster. Zumindest wurde ich bisher noch nie über so eine Maßnahme informiert. Von anderen Anbietern hingegen schon. Hier sprechen wir nämlich von dem Punkt Hochverfügbarkeit. Wenn die Infrastruktur von Amazon regelmäßig Wartungsfenster benötigen würde, könnten sie ihren Dienst nicht in der Form anbieten.

Skalierbarkeit bedeutet, dass ich entsprechend angeforderte Ressourcen wie Rechenleistung, Speicherplatz aber auch neue Benutzerkonten im Falle von SaaS umgehend erhalte, ohne darauf ein paar Minuten oder gar Stunden warten zu müssen. Hier sind mir bisher keine negativen Beispiele aufgefallen.

Die Kosten im Auge behalten

Wirtschaftlich betrachtet geht Cloud Computing Hand in Hand mit der Flexibilität, die der Anwender durch die Nutzung erhält. Das bedeutet er zahlt nur für die Ressourcen – Rechenleistung, Speicherplatz aber auch wiederum Nutzerkonten – die er tatsächlich in einem bestimmten Zeitraum genutzt bzw. benötigt hat. Hinzu kommt, das für die Nutzung des Angebots keine Einrichtungsgebühr oder gar eine Grundgebühr gezahlt werden muss.

Die Flexibilität zahlt sich zudem dadurch aus, das monatlich abrechnet wird. Eine Abrechnung für ein ganzes Jahr ist schon sehr grenzwertig, da ich den Service evtl. nur für ein halbes Jahr benötige, in diesem Fall dann aber laufende Kosten für ein weiteres halbes Jahr anfallen. Vorsicht, es gibt Anbieter, die monatliche Preise kommunizieren, der Vertrag aber für ein Jahr abgeschlossen wird. Zudem muss hier dann noch separat gekündigt werden.

Vorher informieren oder beraten lassen

Wie zu sehen, gibt es Erkennungsmerkmale für einen (echten) Cloud Service. IaaS Angebote sind die transparentesten Angebote, da anhand der Services und der Nutzung zu sehen ist, wie flexibel, skalierbar und hochverfügbar die Infrastruktur ist. Ebenso sind die Kosten nachvollziehbar. Ähnlich verhält es sich bei PaaS. SaaS Dienste werden leider immer wieder „vercloudifiziert“. D.h. dass hier viel bei den Preisen und Laufzeiten getrixt wird. Daher sollte man sich vorab über den Service genau informieren, einen verifizierten Cloud Anbieter (siehe oben) zum Vergleich heranziehen oder vorab eine unabhängige Beratung einholen.


Bildquelle: http://www.planung-analyse.de

Kategorien
News

Sony schickt seine PS3 Photo Suite in die Cloud

Die künftige Bild- und Videobearbeitungs-Software „PlayMemories Studio“ der PlayStation 3 (PS3) wird als Cloud Service angeboten werden, was mit einem Blick auf den Markt nicht verwundert.

Ein logischer Schritt für alle Spieleanbieter die Cloud zu nutzen.

Viele Anbieter nutzen mittlerweile die Cloud, um ihren Kunden einen hybriden Ansatz zu ermöglichen. So hat neben Apple mit OS X Lion ebenfalls Microsoft sein neues Betriebssystem Windows 8 die Cloud als festen Bestandteil des Systems gemacht. Hinzu kommen Anbieter wie Google mit Android oder auch Samsung.

Sony ist hier nicht der Vorreiter im Spielemarkt, der auf den Cloud Zug aufspringt. Xbox Nutzer können bspw. ihre Spielstände bereits in der Microsoft Cloud abspeichern.

PlayMemories Online wird über einen Speicherplatz von 5 GB verfügen, auf dem z.B. Bilder und Videos von einem PC oder Smartphone hochgeladen werden können. Anschließend können diese Daten auf der PS3 bearbeitet und ebenfalls über die Cloud auf Tablets, Smartphones sowie auf Sonys digitalen Bilderrahmen und der PlayStation Vita betrachtet werden.


Bildquelle: http://www.dashhacks.com, http://www.blogcdn.com

Kategorien
Analysen

Nach der Cloud, wird Amazon auch der Big Data Gigant?

IaaS Cloud Infrastrukturen haben auf Grund ihrer Skalierbarkeit die idealen Voraussetzungen für die Verarbeitungen großer Datenmengen, wodurch Big Data ein idealer Anwendungsfall für Cloud Computing ist. Aber welcher Anbieter wird das Rennen um die Verarbeitung machen?

Big Data ist ein idealer Anwendungsfall für das Cloud Computing

Amazon Web Services

Ein Kandidat ist Amazon. Zum einen hat das Unternehmen auf Grund seines Kerngeschäfts, dem Web-Shop, eine große Expertise bei der Verarbeitung und Analyse großer Datenmengen aufgebaut und diese, betrachtet an der Evolution und dem Funktionsumfang der Webseite, stetig weiterentwickelt. Hinzu kommen aber auch die Amazon Web Services und der darunter liegenden massiv skalierbaren Infrastruktur, die ideal für die Verarbeitung von Big Data ist und die Unternehmen nutzen können, um dort Anwendungen für die Analyse ihrer Daten zu betreiben. Dazu stehen mit Amazon EC2, Amazon S3 und Amazon Elastic MapReduce gut miteinander zu kombinierende Services zur Verfügung. Neben dem Service AWS Import/ Export, mit dem große Datenmengen auf dem Postweg an Amazon geschickt werden können, die von Amazon dann direkt in die Cloud kopiert werden, hat sich Amazon mit der vor kurzem angekündigten Kooperation mit dem Private Cloud Infrastruktur-Software Anbieter Eucalyptus zudem eine gute Ausgangsposition geschaffen, um Unternehmen die Möglichkeit zu geben, über eine Hybrid Cloud Daten aus der Private in die Amazon Cloud übertragen zu lassen.

Google

Google hat ebenfalls viel Erfahrung bei der Verarbeitung großer Datenmengen, was u.a. auf die Indexierung des Internets und die damit verbundene Suche zurückzuführen ist – ebenfalls beides Kerngeschäfte von Google. Hinzu kommt, das Google kürzlich mit Google BigQuery einen neuen Service für Entwickler vorgestellt hat, auf dem Anwendungen entwickelt werden können, um Big Data zu verarbeiten. Dieser befindet sich aktuell aber noch in der geschlossenen Betaphase.

Anders als die Amazon Web Services scheint Google allerdings nicht so konsequent auf das Business getrimmt zu sein. Zudem wirkt Google an vielen Stellen immer noch wie ein großer Spielplatz für die eigenen Entwickler, was natürlich immer wieder gute Innovationen hervorbringt, Google sich aber bereits eingestehen musste, dass einige Services doch einfach mehr Kapital verbrennen als Nutzen ergeben. So wurde die Google App Engine anfangs stark gepushed, hat im Laufe der Zeit aber etwas an Innovation verloren.

Microsoft

Microsofts Kerngeschäft hat im Vergleich zu Amazon oder Google in erster Linie nichts mit der Verarbeitung großer Datenmengen zu tun. Dennoch steht mit Windows Azure ebenfalls eine skalierbare Infrastruktur bereit, auf der Unternehmen Big Data analysieren können.

Im Vergleich zu Google oder Amazon ist Microsoft aber bereits schon dort lange angekommen, wo die beiden erst genannten erst zielstrebig hinwollen, das Business. Microsoft sollte die Herausforderungen und Wünsche, insbesondere bei den renommierten Unternehmen, kennen und gezielt darauf eingehen können.

Erste infrastrukturelle Schritte hat Microsoft bereits mit der Unterstützung von Hadoop auf Azure unternommen und eine Agenda zeigt die weiteren Vorhaben für das Jahr 2012. So wird das Unternehmen mit Hilfe von Hortonworks und einer ODBC Schnittstelle Apache Hadoop an Microsofts Excel anbinden und so Big Data ins Büro bringen. Damit können Business Intelligence (BI) Tools einen direkten Zugang zu einem Hadoop Cluster erhalten und via Excel Pivot-Analysen durchgeführt werden.

Die Anderen

Es existieren eine Vielzahl an Unternehmen, die mit Big Data tagtäglich in ihrem Kerngeschäft konfrontiert werden. Dazu gehören bspw. ebay, Facebook, XING, LinkedIn oder auch Twitter. Allerdings bietet keines dieser genannten Unternehmen einen Public Cloud Service an, mit dem Big Data von Dritten verarbeitet werden könnte. Die Kosten für den Ausbau einer stärker skalierbaren Infrastruktur wären wohl auch zu hoch.

Allerdings sollten auch renommierte Unternehmen wie SAP, IBM oder Oracle im Bereich Big Data nicht aus den Augen gelassen werden. Die Expertise aus dem Kerngeschäft ist zweifelsohne vorhanden.


Bildquelle: https://www.emcforums2011.com, http://www.techweekeurope.es

Kategorien
News

Microsoft schickt sein Dynamics ERP in die Cloud

Microsoft hat erste Schritte unternommen, seine Enterprise Resource Planning Lösung Dynamics ERP Cloud-fähig zu machen und gegen Ende 2012 bereitzustellen. Dieses wurde auf der Convergence Conference in Houston bekanntgegeben.

Bereits auf der Convergence 2011 sprach Microsoft öffentlich über Gedanken, die ERP Anwendung über die eigene Azure Cloud Plattform auszurollen. Diese Ideen werden nun im vierten Quartal 2012 umgesetzt, wodurch NAV 2013 und GP 2013 als Cloud Lösungen bereitgestellt werden. Eine Beta Version von NAV 2013 wird im kommenden Mai veröffentlicht.

Neben diesen Erneuerungen plant Microsoft ebenfalls Kooperationen mit ISV Partnern, die in Zukunft ihre Anwendung via Windows Azure als Cloud Services anbieten sollen.

Mit dem Weg von Dynamics in die Cloud erhofft sich Microsoft eine gewisse Differenzierung von anderen Anbietern im Markt. Da die Redmonder damit nun in der Lage sind, per Public, Private und Hybrid Cloud Lösungen ihren Kunden unterschiedliche Nutzungsstrategien anzubieten.

Kategorien
News

Microsoft senkt die Preise für Office 365

Microsoft kämpft verstärkt um die Anteile der Unternehmenskunden in der Cloud. Ein nächster Schritt besteht in der Ermäßigung der Preise für Unternehmen um bis zu 20%.

Laut Windows IT Pro, waren alle Services rund um Office 365 mittlerweile seit einem halben Jahr ohne einen bekannten Ausfall funktionsfähig. Neben den Preissenkungen ein möglicherweise weiteres aussagekräftiges Argument für zukünftige Office 365 Nutzer in die Microsoft Cloud zu wechseln.

Seit der Einführung von Office 365 im vergangenen Jahr ist Microsoft damit beschäftigt, sich gegenüber Google Apps zu behaupten. Und das insbesondere in großen Unternehmen und Regierungseinrichtungen. Zum Ende des vergangenen Jahres machten kleine Unternehmen ca. 90 Prozent der Office 365 Nutzerbasis aus. Google hat nach eigenen Angaben bisher mehr Erfolg mit Großkunden.

In einem Blogpost vom 14. März durch Kirk Koenigsbauer, VP von Microsoft Office, schreibt Microsoft, dass sie die eigenen Einsparungen (Economies of scale) an die Nutzer weitergeben möchten und die Kosten für Office 365 Unternehmenskunden um bis zu 20% gesenkt haben. Die Kosten für Microsoft Sharepoint wurden sogar um 92 Prozent gesenkt. So kostet ein Gigabyte Speicher statt 2,50 Dollar nun nur noch 0,20 Dollar pro Gigabyte.


Bildquelle: http://www.progmic.com

Kategorien
Services

E-Mail Migration mit der Cloud

Der Datentransfer zwischen zwei E-Mail Providern macht nicht wirklich Spaß und hat ebenso viele Probleme bereitet. Aber vor allem war es unbequem. Per POP3 die Daten aus dem einen Postfach herunterladen und in das Neue integrieren. Zeitraubend und langweilig. Aber dafür gibt es nun etwas aus der Cloud.

Der Service nennt sich ganz klassisch E-Mail Umzug und hilft bei der automatisierten Migration der Daten eines Postfaches in ein neues. Derzeit werden 14 Provider unterstützt zwischen denen die Postfächer gewechselt werden können. Aber auch die Migration von Provider > On-Premise bzw. On-Premise > Provider oder On-Premise > On-Premise ist möglich. Dafür werden aktuell 9 E-Mail Systeme unterstützt. Eine Voraussetzungen dafür ist jedoch der öffentliche Zugriff auf das jeweilige On-Premise System, da die Migration und Steuerung über den Umzugsdienst vorgenommen wird.

E-Mail Migration in und aus der Cloud

Um den Umzug zu starten, wählt man den aktuellen Anbieter und den neuen Anbieter, bestellt sich einen Voucher (pro E-Mail Konto wird einer benötigt), startet die Migration und wartet. Je nach Postfachgröße dauert diese mehrere Minuten bzw. Stunden. Allerdings sorgt das System für den Rest. Über eine Statusseite kann der aktuelle Vorgang pro Postfach überwacht werden und berichtet über mögliche Fehler während der Migration.

E-Mail Migration in und aus der Cloud

Die Kosten pro Postfach das migriert werden soll, betragen 14,99 EUR. Hier werden alle E-Mails umgezogen, wobei die Größe des Postfaches nicht größer als 10 GB sein darf. Der Dienst bietet ebenfalls einen kostenlosen Umzug von Postfächern. Hier ist die Größe allerdings auf 20 MB beschränkt und es werden nur die E-Mails der letzten 10 Tage berücksichtigt. Zum Testen sollte das dennoch ausreichen.

Der Service eignet sich gut für Unternehmen die eine Vielzahl von Postfächern migrieren wollen, aber auch für Provider oder Webhoster, die den Dienst als White-Label ihren eigenen Kunden anbieten möchten. Auch für Studenten könnte ein Nutzen vorhanden sein, da die Konten nach der Exmatrikulation in der Regel nur ein paar Wochen aktiv bleiben. Hier kann ggf. auch der kostenlose Dienst ausreichen.

Die E-Mail Migration sollte nur der Anfang bleiben, wenn man bedenkt, welche weiteren wichtigen Daten in Zukunft bei Providern gespeichert werden. Neben E-Mail Services bieten Google mit Docs, Microsoft mit Office 365 bzw. SkyDrive oder auch Zoho mit Writer und weiteren Tools, Lösungen für das Arbeiten in der Cloud, währenddessen immer mehr Daten generiert werden, die ggf. migriert werden müssen.

Kategorien
News

Azure Nutzer erhalten für den Ausfall am 29. Februar eine Gutschrift über 33%

Microsoft hat eine detaillierte Analyse veröffentlicht, in der beschrieben wird was genau zu dem weit verbreiteten Ausfall des Azure Cloud-Service am 29. Februar geführt hat.

Wie von Seiten Microsoft bekannt wurde, erhalten alle Azure Nutzer zudem eine Gutschrift über 33% rückwirkend für den ganzen Monat, egal ob sie von dem Ausfall betroffen waren oder nicht.

Der weitreichende Azure Ausfall begann am 28. Februar ca. gegen 21.00 Uhr ET (Eastern Time). Dadurch waren Kunden in Europa, Nordamerika und anderen Regionen durch eine Reihe von aufeinanderfolgenden Problemen im Laufe der folgenden zwei Tagen betroffen. Nutzer berichteten, dass sie nicht in der Lage waren, auf das Azure-Dashboard zuzugreifen, das im Prinzip das einzige Mittel ist, um Statusinformationen über die einzelnen Azure Services zu erhalten. Die Probleme wurden am Morgen (ET) des 1. März weitestgehend behoben.

Der Schaltjahr-Bug verursachte zunächst einen ersten Ausfall, der wiederum zu einem weiteren Ausfall führte. Bill Laing, Chef des Server und Cloud Teams bei Microsoft erläutert den Beginn des Ausfalls so:

“The leap day bug immediately triggered at 4:00PM PST, February 28th (00:00 UST February 29th) when GAs (guest agents) in new VMs tried to generate certificates. Storage clusters were not affected because they don’t run with a GA, but normal application deployment, scale-out and service healing would have resulted in new VM creation. At the same time many clusters were also in the midst of the rollout of a new version of the FC (fabric controller), HA (host agent) and GA.”

Microsoft werde, laut Laing, natürlich aus dem Ausfall lernen und neue Testmethoden einführen, Verbesserungen in der Verfügbarkeit des Dashboard-Service vornehmen sowie weitere Kommunikationskanäle einrichten, um über Ausfälle schneller zu informieren.


Bildquelle: http://blog.otto-office.com

Kategorien
Analysen

Microsoft und Amazon liefern sich Preiskampf in der Cloud

Als Anbieter mit einem großen Public Cloud Portfolio kämpft Microsoft nun nicht mehr nur mit Google, sondern liefert sich seit kurzem auch einen Preiskampf mit den Amazon Web Services. Das gute daran: die Gewinner sind die Nutzer.

Der Kampf verlagert sich in die Cloud

Nachdem Microsoft am Ende der vergangenen Woche seine Preise für Windows Azure Storage und Windows Azure Compute gesenkt hat und damit auf die Preissenkungen der Amazon Web Services, ebenfalls in der vergangenen Woche, reagiert hat, befinden sich die derzeitigen Preise für Speicherplatz und Rechenleistung aus der Cloud auf einem niedrigen Rekordniveau und befinden sich auf dem Stand hiesiger Stromtarife.

Die Frage ist, wie lange das noch so weitergehen kann, denn die Preise können im Prinzip nur weiter fallen. Betrachten wir nämlich die Tatsache, das die Stromtarife auf Erdgaspreisen, saisonalen Einflüssen und weiteren Variablen basieren, kann Cloud Computing noch günstiger werden.

Die Preisgestaltung beider Anbieter ist nicht direkt vergleichbar, da die Preise und Dienstleistungen variieren. Aber die Kernaussage dieses Wettbewerbs ist eindeutig: Die Preise werden weiter sinken.

Beispielweise kostet eine Amazon Small (Standard) On-Demand Instanz mit Linux/Unix 0,090 Dollar (ca. 0,067 EUR) pro Stunde. Eine Windows Instanz 0,115 Dollar (ca. 0,088 EUR) pro Stunde. Ich zahle derzeit ca. 0,244 EUR pro Kilowattstunde an meinen Stromanbieter.

Beide Anbieter argumentieren, dass sie ihre eigenen Einsparungen (Economies of scale) sehr gerne an ihre Kunden weiterreichen und fokussieren Entwickler, Startups, kleine Unternehmen sowie Großkunden.

Nachdem nun aber auch HP und weitere Anbieter in den Cloud Computing Markt für IaaS Ressourcen eingestiegen sind, werden die Preise noch weiter fallen.


Bildquellen: http://www.merkur-online.de, http://diepresse.com

Kategorien
News

Microsoft senkt die Preise für Windows Azure Storage und Windows Azure Compute

Wie Holger Sirtl bereits in der vergangenen Woche auf seinem offiziellen Microsoft Blog angekündigt hat, wurden die Preise für Windows Azure Storage und Windows Azure Compute reduziert.

Nach den Preissenkungen für SQL Azure im vergangenen Monat, wurden die Preise nun auch für Windows Azure Storage und Windows Azure Compute angepasst.

Die jeweiligen Änderungen setzen sich wie folgt zusammen:

  • Der Windows Azure Storage wird 12% günstiger (jetzt 0,0887 € pro monatlich gespeichertem GB an Daten auf Grundlage des täglichen Durchschnitts).
  • Die 6-Monate-Abos für Windows Azure Storage werden 14% günstiger.
  • Der Preis für eine Rechenstunde einer Extra Small (XS) Instanz wurde halbiert und somit um 50% gesenkt (jetzt 0,0142 € pro Rechenstunde, ca. 1,5 Cent!)

So betragen die Kosten für das Hosting einer Web Applikation auf einer XS-Instanz mit 100 MB SQL-Azure-Speicher jetzt ca. 14,20 €

Kategorien
Analysen

Sinn und Unsinn von Cloud Siegeln, Zertifikaten, Verbänden und Initiativen

Axel von Leitner, Mitbegründer und Geschäftsführer von 42HE, einem Cloud Startup aus Köln hat auf dem Unternehmensblog die Problematik und Situation mit Cloud Computing Siegeln und Verbänden bzw. speziellen Initiativen stark kritisiert.

Dem Grundtenor von Axel muss ich zustimmen. Aber fangen wir von Vorne an. Es existieren mittlerweile einige Verbände und Initiativen, wie wir es auch aus anderen Bereichen kennen. Dazu gehören z.B. Verbände und Vereine wie EuroCloud, SaaS-EcoSystem oder Initiativen wie Cloud Services Made in Germany und Deutsche Wolke.

Cloud Computing ist ein globaler Ansatz und kein deutsches Konzept

Was insbesondere die Initiativen gemeinsam haben ist, dass Sie mit diversen Versprechen versuchen, so viele Anbieter von Cloud Computing Services wie möglich in die eigenen Reihen zu lotsen. Vor allem „Cloud Services Made in Germany“ springt auf das vermeintliche Qualitätsmerkmal Made in Germany auf und verspricht dabei „Mehr Rechtssicherheit bei der Auswahl von Cloud-basierten Diensten…“.

Cloud Computing aus Deutschland = Qualität?

Die Liste der Unternehmen, die sich an „Cloud Services Made in Germany“ beteiligen ist lang. Die Prüfungskriterien äußerst schwach, was die hohe Beteiligung erklären könnte. Für die Aufnahme muss ein Unternehmen folgende Kriterien erfüllen:

  • Das Unternehmen des Cloud Service-Betreibers wurde in Deutschland gegründet und hat dort seinen Hauptsitz.
  • Das Unternehmen schließt mit seinen Cloud Service-Kunden Verträge mit Service Level Agreements (SLA) nach deutschem Recht.
  • Der Gerichtsstand für alle vertraglichen und juristischen Angelegenheiten liegt in Deutschland.
  • Das Unternehmen stellt für Kundenanfragen einen lokal ansässigen, deutschsprachigen Service und Support zur Verfügung.

Quelle: http://www.cloud-services-made-in-germany.de/beteiligung

Die Frage die man sich hier nun stellen sollte ist, wo ist das wirkliche Qualitätskriterium, dass die Initiative prüft? Handelt es dabei sich um ein Qualitätsmerkmal, dass ich meinen Firmensitz in Deutschland habe? Nein! Das ich einen deutschen Support anbiete? Ja, vielleicht! Das ich meine Geschäfte und Verträge nach deutschem Recht abschließe? Recht und Datenschutz als Qualitätmerkmal? Ist das nicht ein bisschen weit hergeholt?

In den Kriterien wird in keinster Weise auf die wirkliche Qualität eines Service eingegangen. Darf sich der Service wirklich Cloud Service nennen? Wie ist das Abrechnungsmodell? Sorgt der Anbieter für eine Cloud Computing konforme Skalierbarkeit und Hochverfügbarkeit? Und viele weitere Fragen, die essentiell wichtig sind, um die Qualität eines Cloud Service zu bewerten!

Die Initiative „Cloud Services Made in Germany“ versteckt sich leider einzig und allein hinter den vermeintlich hohen Datenschutzanforderungen in Deutschland, sagt aber nichts über die tatsächliche Qualität eines Cloud Computing Anbieters bzw. dessen Services aus.

Eine Cloud für Deutschland?

Dieser Aufgabe hat sich die Initiative „Deutsche Wolke“ gewidmet. Es handelt sich dabei um einen Zusammenschluß deutscher und internationaler Organisationen zum Aufbau einer föderalen Cloud-Infrastruktur für Deutschland. Die Initiative verkauft sich zwar leider ebenfalls unter dem Deckmantel von „Made in Germany“, hat aber dennoch einen ganz anderen qualitativ höherwertigen Anspruch als z.B. „Cloud Services Made in Germany“.

Denn mit mit einer eigenen Cloud Infrastruktur auf Basis von offenen Standards und Schnittstellen und unter dem Aspekt hoher Verfügbarkeit und strengen Datenschutzrichtlinien werden die derzeit noch überschaubaren Partner von „Deutsche Wolke“ anscheinend deutlich besser überprüft.

Dennoch argumentiert auch die „Deutsche Wolke“ verstärkt mit den hohen Datenschutzrichtlinien in Deutschland.

Auch die Verbände wollen mir ihren Zertifikaten ein Wort mitreden

Dann gibt es noch die Verbände EuroCloud und SaaS-EcoSystem, die vor allem durch ihre Gütesiegel und Zertifikate auffallen. EuroCloud hat dafür seinen SaaS Star Audit im Angebot. Das SaaS-EcoSystem hingegen hat mit „Cloud-Experte“ sein Qualitäts-Zertifikat für Saas & Cloud Computing Berater sowie sein „Trust in Cloud“ für Cloud Computing Anbieter.

Die Qualität und der Nutzen solcher Zertifikate und Gütesiegel stehen und fallen natürlich mit den Unternehmen, die mit der Prüfung beauftragt sind sowie den Prüfkriterien. Hinzu kommt ebenfalls ein großer Geldbeutel, um sich zertifizieren zu lassen. Speziell das Zertifikat „Cloud-Experte“ des SaaS-EcoSystem ist mit Vorsicht zu genießen. Bisher haben nur zwei Marketingexperten(!) das Zertifikat erhalten, was ich bereits in einem älteren Artikel kritisiert habe.

Aber auch bei dem EuroCloud SaaS Star Audit scheint sich bisher nicht viel getan zu haben. Zumindest gibt es seit dem letzten Artikel keine neuen Services, die einen Star Audit erfolgreich absolviert haben.

Deutschland doch kein Qualitätskriterium für die Cloud?

„Cloud Made in Germany“. Wer den vermeintlich höheren Datenschutz als Wettbewerbsvorteil sieht ist auf dem falschen Weg in die Cloud! Denn das ist ein Trugschluss und ein Argument was nicht zutrifft.

Natürlich darf der Patriot Act nicht unterschätzt werden. Insbesondere auf Grund seiner nicht vorhandenen Transparenz, wann welche US-Regierungseinheit Zugriffe auf bestimmte Daten erhält. Jedoch sollte man nicht vergessen, das seit jeher ein deutscher Staatsanwalt in ein Rechenzentrum Zugriff erhalten kann, wenn er einen trifftigen Grund hat. Sei es nun beim Cloud Computing oder Outsourcing. Auch wenn hier zunächst ein richterlicher Beschluss vorliegen muss.

Zudem haben auch unsere deutschen Politiker daran Interesse unkompliziert Zugriff auf diverse Daten zu erhalten. Diese Diskussionen werden ebenfalls schon seit Jahren geführt. Ich bin kein Jurist und schon gar kein Politiker und kann dazu nicht viel sagen. Allerdings halte ich es für falsch, sich nur auf den Datenschutz auszuruhen. Made in Germany steht für Qualität das ist richtig, aber nicht zwingend im Bereich der Informationstechnologie und schon gar nicht im Bereich Cloud Computing – es gibt natürlich ein paar Ausnahmen. Es ist schade, dass so schreiben zu müssen, aber die Realität ist, das uns andere Länder, insbesondere die USA Jahre voraus sind. Diese schießen erst und entschuldigen sich später, wohingegen die Deutschen über alles debattieren (müssen) bevor eine Entscheidung getroffen wird. Deutsche Unternehmen sollten sich lieber auf ihre Innovationskraft konzentrieren, die definitiv vorhanden ist, anstatt sich hinter Siegeln zu verstecken.

Denn wie wir sehen, haben es die Cloud Computing Player wie Amazon, Google, Microsoft oder auch Salesforce nicht nötig, sich mit einem (deutschen) Siegel, Zertifikat oder dergleichen zu profilieren und denen interessiert es auch nicht, zu recht! Schließlich ist Cloud Computing ein globaler Ansatz und kein deutsches Konzept!