Kategorien
Kommentar

Reaktion der Google PR Agentur auf die langfristige Verfügbarkeit der Google Compute Engine

Nach meinem Artikel, in dem ich das langfristige Bestehen der Google Compute Engine (GCE) in Frage gestellt habe, hat sich Googles PR Agentur bei mir gemeldet, um die Beweggründe zu verstehen. Ich habe in dem Artikel auf ein GigaOM Interview von Googles Cloud Platform Manager Greg DeMichillie reagiert, der keine Garantie für die langfristige Verfügbarkeit der GCE geben würde.

Hintergrund

Google Cloud Platform Manager Greg DeMichillie ging in einem Interview mit GigaOM auf die Frage der langfristigen Verfügbarkeit von Google Cloud Services ein und antwortete dabei für mich unerwartet und nicht im Sinne des Kunden.

„DeMichillie wouldn’t guarantee services like Compute Engine will be around for the long haul, but he did try to reassure developers by explaining that Google’s cloud services are really just externalized versions of what it uses internally. ”There’s no scenario in which Google suddenly decides, ‘Gee, I don’t think we need to think about storage anymore or computing anymore.“

Zwar relativiert DeMichillie am Ende, dass Google seine Cloud Services wohl nicht in einer Kamikaze-Aktion schließt. Dennoch handelt es sich um eine verwirrende Aussage, über einen Service, welcher erst seit relativ kurzer am Markt ist.

Die Antwort von Googles PR Agentur

Ich möchte vorab klarstellen, dass es kein Anruf war, um mich zu beeinflussen, sondern sich zu informieren und zu verstehen, wie es zu dem Artikel kam. Googles PR Agentur sagte, dass DeMichillie anscheinend falsch verstanden wurde und mein Artikel nur diese negative Aussage herausstellt und die positiven Themen vernachlässigt hat. Google würde derzeit massiv in Infrastruktur Ressourcen investieren und es keine Anzeichen und Gründe dafür gibt, dass gerade die Google Compute Engine eingestellt wird.

Meine Stellungnahme

Es ging und geht niemals darum Google (oder irgendeinen anderen Anbieter) in ein schlechtes Licht zu stellen. Das habe ich auch der PR Agentur gesagt. Aber am Ende des Tages muss der Nutzer beraten und gleichermaßen geschützt werden. Außerdem berate ich als Analyst und Advisor Unternehmen, die sich auf mein Urteil verlassen. Daher muss ich auf solche Aussagen, gerade wenn Sie direkt von einem Mitarbeiter eines Anbieters stammen, reagieren und diese in meine Entscheidungsmatrix mit aufnehmen. Was soll ich machen, wenn ich einem Kunden die Nutzung der GCE empfehle, da dies technisch und von den Anforderungen her passt, Google anschließend aber ankündigt den Service zu schließen? Aus diesem Grund reagiere ich auf solche Themen äußerst sensibel. Außerdem hat sich Google in den letzten Monaten und Jahren nicht mit Ruhm bekleckert wenn es darum geht, sein Service-Portfolio aufrechtzuerhalten. Das Ende des Google Reader hat bei den Nutzern mehr negative Reaktionen hervorgerufen als der aktuelle NSA-Skandal. Dabei handelt es sich wohlgemerkt um einen kostenlosen Service für Endkunden. Bei der Google Compute Engine sprechen wir allerdings von einem Angebot das überwiegend Unternehmen anspricht. Es geht für die Unternehmen also um viel Kapital das sie in die Hand nehmen, um ihre Workloads auf die GCE zu bringen. Wird der Service nun plötzlich geschlossen, ensteht je nach Unternehmen ein nicht zu beziffernder wirtschaftlicher Schaden, um die Daten und Applikation zu migrieren. Das sollte Google bei seinen Entscheidungen bedenken. Auch wenn es sich in diesem Fall nur um eine Aussage in einem Interview gehandelt hat. Vertrauen in das Cloud-Portfolio schafft sie nicht und passt zudem sehr gut zu den Erfahrungen der jüngsten Vergangenheit, wenn Google den Besen auspackt.

Kategorien
Kommentar

"Amazon ist nur ein Webshop!" – "Europa braucht größere Eier!"

Ich hatte in diesem Jahr die Ehre die CEO Couch des Open-Xchange Summit 2013 zu moderieren. Dabei handelt es sich um ein Format, bei der Top CEOs mit provokanten Fragen konfrontiert werden und zu einem bestimmten Thema auf den Punkt antworten. Zum meinen Gästen gehörten Hermann-Josef Lamberti (EADS), Dr. Marten Schönherr (Deutsche Telekom Laboratories), Herbert Bockers (Dimension Data) und Rafael Laguna (Open-Xchange). Das Hauptthema in diesem Jahr war Cloud Computing und wie sich deutsche und europäische Anbieter gegen die vermeintlich übermächtige Konkurrenz aus den USA behaupten sollten. Ich habe zwei Aussagen herausgegriffen die während der CEO Couch genannt wurden, die ich kritisch diskutieren möchte.

Amazon ist nur ein Webshop!

Eine Aussage hat mir Sorgenfalten bereitet. Denn zum einen hatte bereits VMware damit unterstrichen, dass sie ihren vermeintlich größten Mitbewerber scheinbar unterschätzen, zum anderen ist sie absolut falsch. Um Amazon heute immer noch als einen Webshop zu bezeichnen muss man seine Augen sehr weit schließen und in etwa 90% des Unternehmens ausblenden. Amazon ist heute mehr als ein Webshop. Amazon ist ein Technologie Unternehmen bzw. Anbieter. Rafael hat dies während seiner Keynote sehr gut dargestellt. Es gibt derzeit drei Anbieter die es geschafft haben jeweils ein eigenes geschlossenes Ökosystem von den Web-Angeboten über die Inhalte bis zu den Endgeräten aufzubauen. Dazu gehören Google, Apple und Amazon.

Neben dem Webshop Amazon.com gehören weitere Technologie-Angebote und -Services zu dem Unternehmen. Darunter die Amazon Web Services, Content Distribution für digitale Bücher, Musik und Filme (LoveFilm, Amazon Instant Video), die E-Book Reader Kindle sowie der Kindle Fire (mit einer eigenen Android Version), die Suchmaschinen A9.com, Alexa Internet und die Filmdatenbank IMDb.

Wenn man sich darüber hinaus einmal anschaut wie Jeff Bezos Amazon führt (z.B. Kindle Strategie; Verkauf zum Selbstkostenpreis; Umsatz über Inhalte), stehen bei ihm langfristiges Wachstum und Marktanteile im Vordergrund, anstatt schnelle Gewinne zu erzielen.

Wer einen guten Eindruck von Jeff Bezos‘ Denkweise bekommen möchte, dem empfehle ich den Fireside Chat mit Werner Vogels auf dem 2012er AWS re: Invent. Die 40 Minuten lohnen sich.

Europa braucht größere Eier!

Die Couch war sich geschlossen einig. Obwohl Europa das Potential und die Unternehmen hat, um in der Cloud abgesehen von Datenschutzthemen auch technisch und innovativ ein Wort mitzureden, werden im Vergleich zu den USA zu kleine Brötchen gebacken oder besser ausgedrückt: „Europa braucht größere Eier.“. Das hängt zum einen mit dem Kapital zusammen, dass Investoren in den USA bereit sind zu investieren, zum anderen aber auch an der Mentalität etwas zu riskieren, zu scheitern und groß und langfristig zu denken. An dieser Stelle können europäische Unternehmer und vor allem Investoren von Jeff Bezos lernen. Es geht um den langfristigen Erfolg und nicht darum schnell Geld zu verdienen.

Das ist meiner Ansicht nach auch ein Grund, warum wir niemals ein europäisches Unternehmen sehen werden, dass z.B. den Amazon Web Services (AWS) das Wasser reichen wird. Die potentiellen Kandidaten wie T-Systems, Orange und andere große ICT-Anbieter, die über die Rechenzentren, Infrastrukturen, das Personal und notwendige Wissen verfügen, konzentrieren sich lieber auf die Zielkunden die sie seit jeher bedienen – die Unternehmenskunden. Hingegen wird die Public Cloud sowie AWS-ähnliche Services für Startups und Entwickler völlig vernachlässigt. Das ist auf der einen Seite in Ordnung, da Cloud Angebote auf Enterprise Level und Virtual Private bzw. Hosted Private Cloud Lösungen benötigt werden, um die Bedürfnisse der Unternehmenskunden zu befriedigen. Auf der anderen Seite darf man sich dann aber auch nicht wundern, dass AWS derzeit die meisten Marktanteile besitzt und als Innovationsmaschine gilt. Die bestehenden ICT-Anbieter sind nicht bereit ihre bestehenden Geschäfte zu verändern oder durch neue Modelle zu erweitern, um damit weitere für sie attraktive Zielgruppen anzusprechen.

Allerdings, wie es auch mein Freund Ben Kepes gut beschrieben hat, ist Amazon derzeit zu recht mit Abstand der Liebling und Marktführer in der Cloud. Aber es gibt noch ausreichend Platz für andere Anbieter im Markt, die Use Cases und Workloads anbieten können, die Amazon nicht bedienen kann. Oder weil sich die Kunden einfach gegen die Nutzung von AWS entscheiden, da es für sie zu kompliziert, aufwendig, zu teuer oder mit rechtlichen Themen nicht vereinbar ist.

Also Europa, legt euch größere Eier zu! Ausreichend Potential ist vorhanden. Schließlich haben Anbieter wie T-Systems, Greenqloud, UpCloud, Dimension Data, CloudSigma oder ProfitBricks konkurrenzfähige Angebote. Von Marten Schönherr habe ich erfahren, dass er mit seinem Startup dabei ist ein Chromebook ohne Chrome zu entwickeln. Mir will allerdings nicht der Gedanke aus dem Kopf gehen, dass Rafael und Open-Xchange (OX App Suite) ihre Finger da mit im Spiel haben.

Kategorien
Kommentar

Die Bedeutung von mobilen und cloud-basierten Arbeitsweisen wächst stetig

Die Vorteile flexibler Arbeitsweisen auf Grund mobiler und Cloud Technologien überwiegen die Bedenken und Risiken von 86 Prozent leitender Angestellter und Geschäftsführer von kleinen und mittelständischen Unternehmen (KMU). Zu diesem Ergebnis kommt eine weltweite Studie unter 1.250 Unternehmen aus Europa, Nordamerika und Australien von YouGov im Auftrag von Citrix.

Verbesserte Produktivität und Imagesteigerung

Eine Steigerung der Produktivität erwarten 48 Prozent und somit ungefähr die Hälfte der Befragten durch die Möglichkeit von flexiblen Arbeitsweisen. 32 Prozent erhoffen sich dadurch eine Verbesserung ihres Image als Arbeitgeber. In etwa ein Viertel (23 Prozent) sehen in mobilen Arbeitsmethoden einen besseren Ausgleich der Work-Life-Balance, die speziell berufstätigen Eltern (29 Prozent) entgegenkommen. Weiterhin sehen 39 Prozent eine verbesserte Integration externer Teams und 28 Prozent Vorteile in der Geschäftskontinuität.

Bedenken mit dem Privatleben

Dennoch verursachen mobile Arbeitsweisen auch Bedenken. Die größten beziehen sich auf die Trennung zwischen privatem und beruflichem (41 Prozent) und die Befürchtung, dass sich die Mitarbeiter dadurch zu sehr verpflichtet fühlen können, Überstunden zu machen. Zwar haben bereits die Hälfte der befragten Unternehmen mobile Arbeitsweisen umgesetzt, begegnen aber dennoch Befürchtungen mit mündlichen oder schriftlich fixierten Regelungen. Stichwort: Kontrolle der Mitarbeiter. Allerdings stehen diese Einschränkungen im Widerspruch zum Wunsch die Arbeit in Eigenverantwortung zu organisieren. Dazu lehnt die Mehrheit von 73 Prozent Regeln ab, die flexibles und mobiles Arbeiten in Zeitfenstern organisieren, da hiermit die grundsätzliche Idee mobiler und flexbiler Arbeitsweisen eingeschränkt werden. Ansonsten wären Mitarbeiter nicht mehr in der Lage, den Ort und die Zeit selbst zu wählen um für sich am produktivsten zu sein und ihr Berufs- und Privatleben in Einklang zu bringen.

Mobile und cloud-basierte Arbeitsmethoden sind wichtig

Unser Arbeitsleben findet für viele schon lange nicht mehr in einem lokalen begrenzten Bereich statt. Stattdessen leben wir in einer globalen, vernetzten und vor allem mobilen Welt, aus der jeder die Vorteile für sich ziehen sollte, um produktiver, somit gewinnbringender für das Unternehmen zu sein und gleichzeitig ein ausgeglichenes Privatleben führen kann.

Moderne Unternehmen müssen ihren Mitarbeitern heutzutage die Möglichkeiten/ Freiheiten geben, von dort aus zu arbeiten wo sie möchten. Dabei muss es sich nicht immer um den Starbucks um die Ecke handeln. Aber es bietet die Gelegenheit, sich in kreative Bereiche wie bspw. Co-Working Spaces zurückzuziehen und somit andere Eindrücke und Meinungen zu gewinnen und von potentiellen Kunden oder Partnern Rückmeldungen zu erhalten. Der größte Vorteil besteht aber in der Möglichkeit, aus dem Routinealltag im Büro des Unternehmens zu entfliehen und sich somit weiterzuentwickeln. Cloud- und mobile Technologien ermöglichen dies wie keine anderen Technologien zuvor.

Die Gefahr sich zu überarbeiten oder gar in einen Burnout zu enden spielt in unserer heutigen Arbeitswelt ständig mit. Aber dafür sind keine flexiblen bzw. mobilen Arbeitsweisen verantwortlich. Im Gegenteil, ein Mitarbeiter erhält damit mehr Freiheiten, sich auch mal eine „Auszeit“ in einer privaten oder in dem Moment gewünschten Umgebung zu verschaffen, um damit einen Ausgleich zu finden. Dennoch müssen Mitarbeiter damit mehr Eigenverantwortung übernehmen, um ihre vereinbarten Ziele zu erreichen und gleichzeitig sich selbst in Schutz zu nehmen und so zu organisieren, um weiterhin ein Privatleben zu haben, wobei ebenfalls der Arbeitgeber helfen sollte, um dafür die Aufmerksamkeit zu wecken.

Kategorien
Kommentar

Die Google Compute Engine scheint keine langfristige Lösung zu sein

In einem Interview mit GigaOM hat Googles Cloud Platform Manager Greg DeMichillie eine seltsame Aussage über die Zukunft von der Google Compute Engine gemacht, welche erneut zu einer Diskussion führen muss, wie zukunftssicher dass Google Cloud Service Portfolio tatsächlich ist und wie sehr man sich auf den Suchmaschinenanbieter in seinen nicht Kernbereichen verlassen sollte.

Google ist zu agil für seine Kunden

Nachdem Google angekündigt hatte, den Google Reader einzustellen, hatte ich bereits die Zukunftssicherheit des Google Cloud Portfolio in Frage gestellt. Insbesondere wegen dem Hintergrund, dass Google immer mehr Services monetarisiert, diese mit dem Umsatz dadurch eine weitere KPI erhalten und damit noch schneller von einer Schließung bedroht sein können. Google Cloud Platform Manager Greg DeMichillie ging in einem Interview mit GigaOM genau auf diese Frage ein und antwortete unerwartet und nicht im Sinne des Kunden.

„DeMichillie wouldn’t guarantee services like Compute Engine will be around for the long haul, but he did try to reassure developers by explaining that Google’s cloud services are really just externalized versions of what it uses internally. ”There’s no scenario in which Google suddenly decides, ‘Gee, I don’t think we need to think about storage anymore or computing anymore.“

Zwar relativiert DeMichillie am Ende, dass Google seine Cloud Services wohl nicht in einer Kamikaze-Aktion schließt. Dennoch handelt es sich um eine verwirrende Aussage, über einen Service, welcher erst seit relativ kurzer am Markt ist.

Das sind Dinge die ein Kunde nicht hören sollte

Die entscheidende Frage ist, warum sich ein potentieller Kunde überhaupt noch langfristig für die Google Compute Engine entscheiden sollte? Auf Grund dieser Aussage muss man von einer langfristigen Planung mit der Nutzung der Google Compute Engine abraten und sich stattdessen lieber auf Cloud Computing Anbieter konzentrieren, die ihr Kerngeschäft tatsächlich im Infrastructure-as-a-Service Bereich haben und nicht so gutmütig sind ihre Überkapazitäten zu verkaufen, sondern ein ernsthaftes Cloud Computing Geschäft betreiben.

Ich möchte nicht den Teufel an die Wand malen. Aber Neuigkeiten wie die plötzliche Schließung von Nirvanix – einem Enterprise Cloud Storage Anbieter – schlagen große Wellen und verunsichern die Nutzer. Das sollte auch Google langsam verstehen, wenn sie ein ernsthafter Anbieter von Cloud Computing Ressourcen werden wollen!

Kategorien
Kommentar

Gefährlich: VMware unterschätzt OpenStack

Langsam sollte man sich ernsthaft Sorgen machen, wer den Verantwortlichen von VMware diktiert, was sie zu sagen haben. Anfang März diesen Jahres sagt COO Carl Eschenbach, dass es für ihn schwer vorstellbar ist, dass VMware mit seinen Partnern nicht gegen ein Unternehmen das Bücher verkauft (Anmerkung: Amazon) bestehen kann. Naja, die Realität sieht derzeit anders aus. Dann kommt Ende März ein VMware Mitarbeiter aus Deutschland zum dem Schluss, dass VMware der Technologie-Enabler der Cloud sei und er derzeit keinen anderen sehe. Das dies bei weitem gefehlt ist, wissen wir auch. Nun setzt CEO Pat Gelsinger noch einen obendrauf und behauptet, dass OpenStack nicht für Unternehmen gedacht sei. Zeit für eine Aufklärung.

Augen zu und durch!

In einem Interview mit Network World äußerte sich VMware CEO Pat Gelsinger zu OpenStack und erwartet nicht, dass das Open-Source Projekt eine erhebliche Reichweite im Unternehmensumfeld haben wird. Stattdessen halte er es für ein Framework das Services Provider nutzen können, um Public Clouds aufzubauen. Im Gegenteil dazu habe VMware eine sehr große Verbreitung mit extrem großen VMware Umgebung. Die Kosten für einen Wechsel und weitere Themen seien daher nicht besonders effektiv. Allerdings sieht Gelsinger bei Cloud- und Service-Anbietern, also in Bereichen in denen VMware in der Vergangenheit nicht erfolgreich Geschäfte gemacht hat, viel Potential für OpenStack.

Weiterhin betrachtet Gelsinger OpenStack für VMware aber als eine strategisch wichtige Initiative, welche VMware gerne unterstützt. VMware wird sicherstellen, dass seine Produkte und Services innerhalb von Cloud-Umgebungen auf Basis der Open-Source Lösung funktionieren. In diesem Zusammenhang eröffnet OpenStack für VMware ebenfalls neue Möglichkeiten, um in den Markt für Service Provider einzusteigen, ein Bereich, den VMware in der Vergangenheit vernachlässigt hat. VMware und Gelsinger sehen OpenStack daher als eine Möglichkeit, um sich breiter aufzustellen.

Hochmut kommt vor dem Fall

Pat Gelsinger hat Recht wenn er sagt, dass OpenStack für Service Provider gedacht ist. Auch gehört VMware weiterhin zu den führenden Virtualisierungsanbietern im Unternehmensumfeld. Jedoch ist diese Art von Schubladendenken gefährlich für VMware. Denn das Blatt kann sich sehr schnell wenden. Gelsinger mag zwar die hohen Wechselkosten als Grund sehen, warum Unternehmen weiterhin auf VMware setzen sollten. Allerdings sollte man eins nicht vergessen. VMware ist nur(!) beim Thema Virtualisierung stark – beim Hypervisor. In Bezug auf das Thema Cloud Computing, wo OpenStack seinen Schwerpunkt hat, sieht es nicht so rosig aus, wie es aussehen könnte. Man muss ehrlich sagen, dass VMware hier den Trend verschlafen hat, frühzeitig Lösungen zu bringen, die es ermöglichen, die virtualisierte Infrastruktur auch Cloud-fähig zu machen. Und über höherwertige Services und Self-Service es der IT-Abteilung zu erlauben zu einem Service-Broker zu werden. Mittlerweile stehen Lösungen bereit, allerdings wächst der Mitbewerb, nicht nur aus dem Open-Source Umfeld, stetig weiter.

Das sehen auch IT-Einkäufer und Entscheider. Ich habe schon mit mehr als einem IT-Manager gesprochen der plant, seine VMware Infrastruktur gegen etwas Offenes, in den meisten Fällen wurde KVM genannt, und Kostengünstigeres auszutauschen. Das ist erst einmal nur die Virtualisierungsebene die wegbrechen kann. Weiterhin gibt es mittlerweile einige Anwendungsfälle auch großer Unternehmen (siehe On-Premise Private Cloud), die OpenStack für den Aufbau einer eigenen Cloud-Infrastruktur nutzen. Was ebenfalls nicht vergessen werden darf ist, dass immer mehr Unternehmen in Richtung Hosted Private Cloud oder Public Cloud Anbieter wechseln und das eigene Rechenzentrum im Laufe der Zeit an Bedeutung verlieren wird. In diesem Zusammenhang spielt auch die Hybrid Cloud eine immer größere Rolle, um den Transfer und Migration von Daten und Systemen bequemer zu gestalten. Bereits hier hat sich OpenStack auf Grund seiner Verbreitung im Hosted Private Cloud und Public Cloud Umfeld einen großen Vorteil gegenüber VMware verschafft.

Mit solchen Aussagen versucht VMware natürlich OpenStack aus dem eigenen Hoheitsgebiet – on-Premise Unternehmenskunden – wegzureden, um dort seine eigenen Lösungen zu platzieren. Dennoch sollte VMware nicht den Fehler machen und OpenStack unterschätzen.

Kategorien
Kommentar

ProfitBricks eröffnet Preiskampf mit den Amazon Web Services für Infrastructure-as-a-Service

ProfitBricks macht ernst. Das Berliner Infrastructure-as-a-Service (IaaS) Startup geht mit einer harten Kante gegen die Amazon Web Services vor und reduziert seine Preise sowohl in den USA als auch in Europa um 50 Prozent. Weiterhin hat der IaaS-Anbieter einen Vergleich vorgelegt, der zeigt, dass die eigenen virtuellen Server eine mindestens doppelt so hohe Performance haben sollen als die der Amazon Web Services und Rackspace. Damit versucht sich ProfitBricks über den Preis als auch über die Leistung von den US-amerikanischen Top Anbietern zu diversifizieren.

Die Preise für Infrastructure-as-a-Services sind noch viel zu hoch

Einhergehend mit der Ankündigung zeigt sich CMO Andreas Gauger entsprechend angriffslustig. „Wir haben den Eindruck, dass die regelrecht als Marktbeherrscher auftretenden Cloud Unternehmen aus den USA ihre Marktmacht für zu hohe Preise missbrauchen. Sie muten den Unternehmen bewusst undurchsichtige Tarifmodelle zu und verkünden regelmäßig punktuelle Preissenkungen, um den Eindruck einer Preisdegression zu wecken“, so Gauger.

ProfitBricks hat sich daher das Ziel gesetzt, den IaaS-Markt über den Preis von hinten aufzurollen und technische Innovationen und damit für einen Anbieter enstehende Kosteneinsparungen auch direkt und merkbar an den Kunden durchzureichen.

Bis zu 45 Prozent günstiger als Amazon AWS

ProfitBricks positioniert sich sehr deutlich gegen Amazon AWS und zeigt zwei Preisvergleiche. Kostet eine M1 Medium Instanz mit 1 Core, 3,75 GB RAM und 250 GB Block Storage bei Amazon AWS 0,1291 Euro pro Stunde bzw. 93,15 Euro pro Monat, enstehen bei ProfitBricks hierfür Kosten von 0,0694 EUR pro Stunde bzw. 49,95 Euro pro Monat. Eine Einsparung von 45 Prozent.

Werden 1 Core, 8 GB RAM und 1.000 GB redundanter Storage benötigt, ist der Unterschied noch größer. Die Kosten für eine M1 XLarge Instanz mit 4 Cores, 15 GB RAM und 1.680 GB temporärem Storage inkl. 1.000 GB Block Storage belaufen sich bei Amazon pro Monat auf 372,62 Euro. Bei ProfitBricks würden für die exakt geforderten Anforderungen 130,22 Euro pro Monat entstehen. Dabei handelt es sich um eine Einsparung von 65 Prozent pro Server.

Diversifikation allein über den Preis ist schwierig

Sich als IaaS-Anbieter alleine über den Preis zu diversifizieren ist schwierig. Wir erinnern uns, Infrastruktur ist Commodity und vertikale Services sind die Zukunft der Cloud, mit denen der Kunde einen Mehrwert erhält.

Auf diesem Weg dem IaaS Platzhirsch die Stirn zu bieten ist mutig und wirkt sehr tollkühn. Allerdings sollte man eines nicht vergessen. Als Hosting-Experten der ersten Stunde werden Andreas Gauger und Achim Weiß die Zahlen rund um ihre Infrastruktur validiert haben und suchen mit dieser Aktion sicherlich nicht den kurzen Ruhm. Es bleibt daher abzuwarten wie Amazon AWS und die anderen IaaS-Anbieter auf diesen Schlag reagieren werden. Denn ProfitBricks zeigt mit dieser Preisreduzierung, dass Kunden Infrastruktur tatsächlich deutlich günstiger bekommen können, als es derzeit der Fall ist.

Etwas sollte man als IaaS-Nutzer bei dieser Preisdiskussion allerdings nicht aus den Augen verlieren. Neben den Preisen für Rechenleistung und Speicherplatz – die immer wieder hochgehalten werden – gibt es weitere Faktoren zu berücksichtigen, die den Preis bestimmen und welche immer erst am Ende des Monats wirklich in Erinnerung gerufen werden. Dazu gehören die Kosten für den Datentransfer in die Cloud hinein und aus der Cloud heraus sowie Kosten für anderweitige Services die um die Infrastruktur herum angeboten und pro API Aufruf berechnet werden. Da fehlt in mancher Hinsicht die Transparenz. Weiterhin ist ein Vergleich der unterschiedlichen IaaS-Anbieter nur schwierig darzustellen, da viele mit unterschiedlichen Einheiten, Konfigurationen und/oder Paketen arbeiten.

Kategorien
Kommentar

Gefangen im goldenen Käfig. OpenStack Provider sitzen in der Falle.

OpenStack ist als Cloud-Software auf dem Vormarsch. Reihenweise mehren sich die Ankündigungen, dass immer mehr Unternehmen und Anbieter auf das nun mehr drei Jahre alte Open-Source Projekt zurückgreifen, um skalierbare Lösungen und eigene Infrastructure-as-a-Service (IaaS) Angebote zu präsentieren. Allerdings steckt die OpenStack-Gemeinde meiner Ansicht nach in einem großen Dilemma – Diversifizierung. Hinzu kommt, dass von Außen immer wieder unnötige Unruhen hinein getragen werden, die genau diese Problematik nicht betrachten. So sind zum Beispiel die Diskussionen über die Amazon API Kompatibilität durch Randy Bias genau so wenig förderlich wie Simon Wardleys Forderung, OpenStack müsse so sein wie die Amazon Web Services (quasi ein Klon). OpenStack muss seinen eigenen Weg finden. Allerdings ist OpenStack selbst nicht das Problem, es sind die Provider die OpenStack einsetzen. Diese stehen zu 100% in der Verantwortung sinnvolle Angebote zu präsentieren und OpenStack für sich gewinnbringend einzusetzen.

Amazon API Kompatibilität ist ein Mittel zum Zweck

Ich halte es für wichtig, dass OpenStack die Amazon API implementiert, um die Möglichkeit zu bieten, ggf. eine Hybrid Cloud zu den Amazon Web Services aufspannen zu können. OpenStack Service Provider sollten ihren Kunden zumindest die Option anbieten, um nicht nur theoretisch keinen Vendor lock-in zu versprechen, sondern diesen tatsächlich zu ermöglichen.

Das war es aber auch schon. Mehr Einfluss sollte Amazon auf die OpenStack-Gemeinde nicht haben dürfen. Um mal die Kurve zur „Linux der Cloud“ zu bekommen. Hat Linux sich an Microsoft Windows orientiert? Nein. Und es ist trotzdem erfolgreich geworden. Meiner Ansicht liegt das Problem auch darin begründet, dass Linux aus einer Ideologie heraus von einer einzelnen Person entwickelt und dann von einer großen Community voran getrieben wurde. OpenStack hingegen wurde ins Leben gerufen um zu 100% einen kommerziellen Zweck für die OpenStack-Gemeinde zu erfüllen. Aus diesem Grund ist OpenStack nichts anderes als eine große Marketingmaschine aller beteiligten Provider. Die OpenStack-Gemeinschaft muss ihren eigenen Weg finden, selbst für Innovationen sorgen und sich von dem was Amazon macht nicht beeinflussen lassen.

Amazon Web Services sind NICHT der größte Konkurrent

Was ich in der ganzen Amazon Web Services vs. OpenStack Diskussion weiterhin nicht verstehe ist, dass hier ständig Äpfel mit Birnen verglichen werden. Wie kann man einen Public Cloud Anbieter mit einer Software für den Aufbau von Public/ Private Clouds vergleichen? Es muss viel mehr darum gehen, dass man die OpenStack Provider – und zwar jeden einzelnen – mit den Amazon Web Services vergleicht. Erst dann kann man eine echte Aussage treffen!

Allerdings wird man dann sehr schnell merken, dass der durch die OpenStack-Gemeinde selbst ernannte Konkurrent Amazon Web Services überhaupt nicht der Konkurrent ist! Das hört sich jetzt hart an, ist aber die Wahrheit. Es gibt derzeit keinen einzigen OpenStack Service Provider der den Amazon Web Services ansatzweise das Wasser reichen kann. Die Amazon Web Services sind der imaginäre Konkurrent, der Wunsch-Konkurrent in den Köpfen der Anbieter. Ich stelle dazu mal das Service-Angebot der beiden Top Public Cloud OpenStack Provider Rackspace und HP den Amazon Web Services gegenüber.

Amazon Web Services

Rackspace

HP

Amazon EC2 Cloud Servers Compute
Auto Scaling
Elastic Load Balancing Cloud Load Balancers Load Balancer
Amazon EMR
Amazon VPC
Amazon Route 53 Cloud DNS DNS
AWS Direct Connect
Amazon S3 Cloud Files Object Storage
Amazon Glacier Cloud Backup
Amazon EBS Cloud Block Storage Block Storage
AWS Import/Export
AWS Storage Gateway
Amazon CloudFront CDN
Amazon RDS Cloud Databases Relational Database
Amazon DynamoDB
Amazon ElastiCache
Amazon Redshift
Amazon CloudSearch
Amazon SWF
Amazon SQS Messaging
Amazon SES
Amazon SNS
Amazon FPS
Amazon Elastic Transcoder
AWS Management Console Management Console
AWS Identity and Access Management (IAM)
Amazon CloudWatch Cloud Monitoring Monitoring
AWS Elastic Beanstalk Application Platform as a Service
AWS CloudFormation
AWS Data Pipeline
AWS OpsWorks
AWS CloudHSM
AWS Marketplace
Cloud Sites
Managed Cloud
Mobile Stacks

Diese Gegenüberstellung zeigt, dass nicht die Amazon Web Services der größte Konkurrenz sind, sondern die Gefahr aus dem eigenen Lager kommt. Wo ist die Diversifizierung, wenn schon die beiden großen OpenStack Public Cloud Provider zu 90% exakt dieselben Services anbieten? Das Service-Portfolio sowohl von Rackspace als auch von HP ist bei weitem nicht in der Lage, eine Konkurrenz zu den Amazon Web Services darzustellen. Im Gegenteil, beide nehmen sich gegenseitig Marktanteile weg, indem das Angebot nahezu identisch ist.

Gefangen im goldenen Käfig

Die OpenStack Provider stecken in einem Dilemma, das ich als den goldenen Käfig betrachte. Hinzu kommt, dass sich alle Anbieter im Grunde genommen gegenseitig kannibalisieren, das zeigt die Gegenüberstellung der Services von Rackspace und HP, indem die Portfolios sich kaum unterscheiden.

Aber warum sitzen alle OpenStack Provider nun im goldenen Käfig. Nun, sie profitieren voneinander, indem jeder neue Ideen und Lösungen dem Projekt zur Verfügung stellt und alle gleichermaßen von einer gemeinsamen Code-Basis profitieren, um daraus ihr eigenes Angebot schnüren zu können. Das bedeutet im Umkehrschluss aber auch, dass niemand einen echten Wettbewerbsvorteil daraus ziehen kann, indem alle mit den selben Mitteln in diesem Käfig sitzen. Der Käfig selbst beinhaltet grundsätzlich etwas Wertvolles und bietet über die vorhanden Services seine Möglichkeiten. Allerdings hat jeder Anbieter nur eingeschränkte Freiheiten, indem alle über dieselbe Grundversorgung verfügen.

Rackspace versucht sich über einen erweiterten Support zu differenzieren. Piston Cloud hält sich ganz aus dem Public Cloud Wettbewerb heraus und bietet nur Private bzw. Hosted Private Clouds an.

Ich habe auf Twitter schon Diskussionen verfolgt, in denen es darum ging, sich mit Amazon mit einer OpenStack Hybrid Cloud zu duellieren. Da vergessen so manche allerdings Eucalyptus auf ihrer Rechnung, die eine exklusive Partnerschaft mit Amazon haben und in letzter Zeit immer mehr Services entwickelt haben, um die Service-Lücke zu Amazon zu schließen.

Weiterhin darf eines nicht außer Acht gelassen werden. Der Vergleich mit Linux scheint vom Ansatz her richtig zu sein. Allerdings können die meisten Linux Distributionen kostenlos genutzt werden. OpenStack Provider hingegen müssen ihre Services verkaufen, um rentabel zu sein. Das bedeutet ebenfalls, dass OpenStack Provider dazu verdammt sind, so viel Profit wie möglich aus ihrem Service-Angebot zu machen, um die laufenden Kosten für die Infrastruktur usw. zu decken.

Differenzierung geht nur über ein attraktives Service-Portfolio

Mit dem goldenen Käfig muss man sich als OpenStack Provider abfinden. Aber das bedeutet nicht, dass man deswegen nur einer von vielen Anbietern bleiben muss. Zum einen sollte man davon Abstand nehmen, Infrastructure-as-a-Services als tragendes Geschäftsmodell zu sehen, zumindest als kleiner Anbieter. Infrastruktur ist Commodity. Weiterhin sollte man nicht damit weitermachen oder gar damit anfangen, die Amazon Web Services nachzuahmen, der Zug ist abgefahren. Stattdessen sollte versucht werden, das Rad weiter zu entwickeln und über Innovationen die nächsten Amazon Web Services zu werden.

Vielmehr geht es allerdings darum, dass jeder OpenStack Provider das Beste für sich aus dem OpenStack Projekt machen muss und dabei die Innovationen nicht vergessen darf. In Zukunft wird nur derjenige Cloud-Anbieter erfolgreich sein, der Services anbietet, die den Kunden einen echten Mehrwert bieten. Dabei kann und wird OpenStack eine sehr große Rolle spielen, allerdings nicht im Mittelpunkt stehen sondern nur als Mittel zum Zweck dienen.

Die OpenStack Provider müssen damit anfangen, aus der Marketingmaschine OpenStack die Innovationsmaschine OpenStack zu machen. Dann kommt die Bewunderung von ganz alleine.

Kategorien
Kommentar

Top Cloud Computing Washer – Diese Unternehmen sagen die Unwahrheit über ihre Produkte

Seit Beginn des Cloud Computing versuchen die alten Hardwarehersteller ihr Geschäft vor Umsatzeinbrüchen zu retten, indem sie ihre Speicherlösungen wie NAS (Network Attached Storage) oder anderweitige Lösungen als „Private Cloud“ Produkte verkaufen, um sich damit gegen echte flexible, skalierbare und verfügbare Lösungen aus der Cloud zu positionieren. Der Amerikaner nennt diese Art des Marketing „Cloud-Washing“. Selbstverständlich nutzen diese Anbieter die aktuelle politische Lage (PRISM, Tempora, usw.), um das Marketing um ihre Produkte weiter zu verstärken. Tragischerweise springen auch junge Unternehmen auf diesen Zug mit auf. Denn was die Alten können, dürfen sie schließlich auch. Falsch gedacht. Was diese Anbieter jedoch überhaupt nicht interessiert ist, dass sie echte Anbieter von Cloud Computing Lösungen damit rücksichtslos mit Füßen treten. Das ist falsch und eine Wettbewerbsverzerrung, da mit Marketingfloskeln geworben wird, die nachweislich nicht erfüllt werden können. Unterm Strich wird also nicht nur der Mitbewerb und die Cloud von diesen Anbietern in ein falsches Licht gerückt, sondern ebenfalls dem Kunden ein Produkt mit falschen Vorstellungen verkauft. Der eine oder andere Entscheider wird mit Sicherheit bald sein böses Erwachen erleben.

Hintergrund: Cloud Computing vs. Cloud-Washing

Auf CloudUser sind in den letzten Jahren viele Artikel zum Thema Cloud-Washing erschienen. Hier eine kleine Auswahl:

Was sagt denn Wikipedia?

Private Cloud, laut Wikipedia

„Private Cloud – die private Rechnerwolke – bietet Zugang zu abstrahierten IT-Infrastrukturen innerhalb der eigenen Organisation (Behörde, Firma, Verein).“

Nach der NIST Definition, laut Wikipedia

Das NIST listet fünf essenzielle Charakteristika für Cloud-Computing

  • Selbstzuweisung von Leistungen aus der Cloud durch den oder die Nutzer, die bei Bedarf bereitstehen soll („Self-service provisioning“ und „As-needed availability“).
  • Skalierbarkeit bietet die Entkopplung von Nutzungsschwankungen und Infrastrukturbeschränkungen (Scalability).
  • Zuverlässigkeit („reliability“) und Ausfalltoleranz („fault-tolerance“) garantieren permanent definierte Qualitätsstandards der IT-Infrastruktur für den Nutzer.
  • Optimierung und Konsolidierung bietet Effizienz und Ökonomie in Anpassung an fortlaufende Umweltschutzstandards, die sukzessive vom Cloud-Diensteanbieter optimiert werden können (Optimization/Consolidation).
  • Qualitätssicherung und -kontrolle kann fortlaufend durch den Diensteanbieter überwacht und sichergestellt werden, ohne dass die Nutzer belastet werden müssten (QoS – Quality of Service).

Quelle: http://de.wikipedia.org/wiki/Cloud-Computing

Top Cloud Computing Washer

Protonet

Der neueste Geniestreich aus der Hamburger Startup-Szene. Ein NAS mit einer graphischen Oberfläche für Social Collaboration in einer wirklich(!) hübschen orangen Box wird als Private Cloud vermarktet. Dabei wird selbstverständlich das PRISM-Pferd geritten.

ownCloud

Bis auf den Namen steckt grundsätzlich erst einmal nicht viel Cloud in ownCloud. ownCloud ist ein Stück Software mit der sich – nicht ohne großen Aufwand – ein (echter) Cloud-Storage aufbauen lässt. Dafür wird natürlich auch ein Betriebssystem, Hardware und vieles mehr benötigt.

Synology

Synology schreibt selbst, dass sie „… ein Anbieter von dedizierten Network Attached Storage (NAS)-Produkten.“ sind. Fein, warum dann auf den Private Cloud Zug aufspringen? Klar, verkauft sich derzeit gut. Wenn aus der Cloud bald Qloud werden sollte, dann verkauft Synology bestimmt auch Private Qlouds.

D-Link

D-Link ist auch nicht von schlechten Eltern. In einer Pressemitteilung aus dem vergangenen Jahr hieß es großzügig:

D-Link, der Netzwerkexperte für das digitale Zuhause, erweitert die Cloud-Familie um einen neuen Router: Mit dem tragbaren DIR-506L lässt sich die persönliche Datenwolke bequem in die Tasche stecken.

und

D-Link investiert konsequent in die Entwicklung von Cloud Produkten sowie Services. … Bereits verfügbar sind die Cloud Router … mehrere Netzwerkkameras sowie der Netzwerk-Videorekorder …

D-Link cloudifiziert mittlerweile sogar Netzwerkkameras und Netzwerk-Videorekorder, nur um über den Cloud-Zug den Absatz zu erhöhen. Wohlgemerkt auf Kosten und dem Rücken der Kunden.

Oracle

Oracle liebt Hardware und Lizenzen. Das war auch anfangs deutlich zu merken. Vorkonfigurierte Applikationsserver, die für eine monatliche Gebühr anzumieten waren und dann im Rechenzentrum des Kunden installiert werden sollten, wurden als Infrastructure-as-a-Service vermarket. Langsam fängt sich der Anbieter jedoch. Es bleibt abzuwarten, welchen Einfluss die Kooperation mit Salesforce auf Larry Ellison haben wird. Er wird sich bestimmt immer noch ärgern, dass er die Sun Cloud Technologie nach der Übernahme einfach nicht mehr beachtet hat.

Weitere Tipps sind erwünscht

Das sind nur ein paar Anbieter, die den Cloud Computing Zug nutzen, um ihr bestehendes oder sogar neues Geschäftsmodell zu sichern. Wer weitere Tipps hat, darf diese mit dem Betreff „Cloud-Washer“ gerne an clouduser[at]newagedisruption[.]com senden.

Kategorien
Kommentar

Die IT-Abteilung stirbt nicht aus – Aber sie wird sich verändern müssen

Vor kurzem machte ein Artikel in der englischen Computerworld die Runde, in der die These aufgestellt wurde, dass die IT-Abteilungen bis zum Ende dieser Dekade verschwinden könnten. Ingo Notthoff von T-Systems stellte daraufhin auf Facebook die Frage zur Debatte, ob „Die IT-Abteilungen aussterben werden.“. Ich hatte dazu eindeutig geantwortet, dass sie nicht aussterben, sondern sich zum Service Broker wandeln. Diese Diskussion hat Ingo wiederum in einem Blogbeitrag niedergeschrieben. Ich möchte an dieser Stelle das Thema noch einmal aufgreifen und meinen Standpunkt ausführlich darlegen.

Trotz Consumerization of IT fehlen die wichtigen Kenntnisse

Auch wenn ich alles sehr begrüße, was in jeder Form verspricht disruptiv zu sein. Es gibt Dinge, die werden auch in Zeiten des massiven Einsatzes von Technologien und Self-Services benötigt. Ich rede vom Menschen.

Ich weiß und es ist richtig, dass Cloud-Services per Self-Service quasi von jedem im Unternehmen genutzt werden können, um die Ziele nach den persönlichen Anforderungen zu erreichen ohne jedes Mal auf die IT-Abteilung warten zu müssen. Aber ist das auch vernünftig? Kann jeder, nur weil er ein iPhone oder eine SaaS-Applikation bedienen kann, ebenfalls darüber entscheiden, welche Services wertvoll und wichtig für das Unternehmen sind. Im Zweifelsfall wird das Wissen dann zu 100% von externen Beratern eingeholt, was nicht zwangsläufig immer von Vorteil ist. Kosten für Personal sparen ist schön und gut, aber irgendwann hört es auf. Denn wo hierfür Kosten eingespart werden, müssen andere dafür mehr arbeiten. Die Line of Business Manager werden sich bedanken.

Außerdem muss man einfach mal in die Unternehmen reinhören. Selbstverständlich möchten die meisten, dass die IT schneller funktioniert, aber möchten sie neben ihren Hauptaufgaben auch noch dafür die Verantwortung übernehmen? Nein. Das funktioniert sicherlich für ein paar Bereiche im Unternehmen, aber den meisten Mitarbeitern werden die Kenntnisse, Lust und Zeit dafür fehlen.

IT-Abteilungen müssen sich neu erfinden

Nachdem ich meine Lanze für die IT-Abteilungen gebrochen habe, muss auch hier Kritik geäußert werden. Hat sich nicht jeder schon über die langsame, der Zeit hinterherhängende IT-Abteilung geärgert? Wie kann es sein, dass man auf die Hardware für ein Testsystem(!) bis zu 3 Monate warten muss und am Ende stellt sich heraus, dass es doch nur eine virtuelle Maschine ist. Solche Erfahrungen füttern natürlich diejenigen, welche die IT-Abteilungen am liebsten von heute auf morgen abschaffen möchten. In diesem Fall sogar zurecht.

Trotzdem ist jede gute IT-Abteilung sehr wertvoll für jedes Unternehmen. Die Extrembeispiele bestätigen glücklicherweise nicht die Regel. Allerdings darf keine IT-Abteilung so weitermachen, sondern sich über einen strukturellen Wandel Gedanken machen und diesen letztendlich auch umsetzen. Durch die Cloud hat sie ihre zentrale Position für den Einkauf und Betrieb von IT-Lösungen verloren. Schatten-IT ist hier das bislang bewährte Mittel der Mitarbeiter, um sich an der IT-Abteilung vorbei, schnell und nach Bedarf IT-Services zu besorgen.

Diesen Umstand gilt es zu beseitigen. Schatten-IT ist nicht unbedingt etwas sehr schlechtes. Zumindest hilft sie dabei, dass Mitarbeiter ihre Aufgaben schnell und auf ihre Art zu arbeiten erledigen. Für jeden Entscheider und IT-Verantwortlichen ist sie allerdings vergleichbar mit einem Gang über glühende Kohlen. Es gibt in einem Unternehmen nichts Schlimmeres, wenn die linke Hand nicht weiß was die rechte macht oder wenn IT-Lösungen zu einem unkontrollierten Wildwuchs ausufern. Das lässt sich nur durch eine zentrale Organisation handhaben. Bei der sich die IT-Abteilungen nicht wieder in ihren Elfenbeinturm zurückbegeben sollen, sondern pro-aktiv mit den Mitarbeiten der Fachabteilungen kommunizieren, um deren Bedürfnisse und Anforderungen zu verstehen. Die IT-Abteilung ist der interne IT-Dienstleister der Mitarbeiter und Fachabteilungen und so gehört sie auch ins Unternehmen eingeordnet. Broker-Plattformen sind in Zeiten von internen und externen (Cloud)-Services die Werkzeuge mit denen sie die Koordination für die Mitarbeiter regeln.

Koordination ist enorm wichtig

Wo wir abschließend noch einmal zu dem Thema IT-Verantwortung innerhalb des Unternehmens kommen. Je nachdem welcher Studie man Glauben schenken soll, ist die Private Cloud derzeit die bevorzugte Cloud-Form im Unternehmen. Immerhin sagen das 69 Prozent der Befragten. Darüber hinaus treffen in 80 Prozent aller Fälle die IT-Abteilungen die Entscheidungen über den Einkauf von IT-Lösungen. Das hört sich im ersten Moment nach dem Erhalt des Status Quo an. Wird auf Grund der aktuellen politischen Entwicklungen aber wohl vorerst die Realität bleiben. Nichts desto trotz ermöglichen auch echte Private Cloud Lösungen den Unternehmen eine flexible Zuweisung von Ressourcen über einen Self-Service an ihre Mitarbeiter.

Doch wer soll diese Private Cloud Infrastrukturen aufbauen und wer soll sie koordinieren? Es können nur die IT-Abteilungen machen. Allen anderen Mitarbeitern fehlen dazu die notwendigen Kenntnisse und die Zeit. IT-Abteilungen müssen von den Anbietern in der Public Cloud lernen und den Fachabteilungen auf einem ähnlichen Weg einen schnellen und vor allem unkomplizierten Zugriff auf IT-Ressourcen ermöglichen. Das funktioniert nur, wenn sie sich als Service-Broker für interne und externe IT-Services aufstellen und sich als partnerschaftlicher Dienstleister verstehen.

Kategorien
Kommentar

Erbärmlich: Protonet und sein Cloud Marketing

Erst einmal herzlichen Glückwunsch Protonet. 200.000 EUR auf Seedmatch zu erzielen, das muss man erst einmal schaffen. Meinen Artikel über euch scheint ihr ja gelesen zu haben. Er wurde sogar auf Seedmatch verlinkt aber dennoch verkauft ihr euer Produkt als Cloud Computing Produkt? „Protonet revolutioniert den Cloud Computing Markt mit dem einfachsten Server der Welt, der das Beste der Cloud mit den Vorteilen lokaler Hardware verbindet.“ Tut mir leid, auch wenn ich eure Box tatsächlich interessant finde, aber dass ihr diese an Stelle eines „NAS“ am Markt positioniert, lieber auf den Cloud Computing Zug aufspringt und Cloud-Washing betreibt, finde ich erbärmlich.

Protonet sagt die Unwahrheit!

Ich hatte mich mit Ali Jelveh auf der CeBIT 2012 kurz nach der Protonet Veröffentlichung darüber unterhalten. Und er hat in diesem Gespräch zugegeben, dass Protonet mit Cloud nichts zu tun hat, sich aber gut anhört, weil gerade jeder über die Cloud spricht.

Protonet täuscht gezielt Investoren

Auf Seedmatch schreibt Protonet:

„Glaubwürdigkeit
Wir erzählen eine ehrliche, authentische Geschichte. Wir müssen unser Produkt nicht künstlich schön reden. Unabhängigkeit und Freiheit im digitalen Zeitalter betreffen jeden. Und wir bieten das notwendige Werkzeug zum Erhalt dieser Grundwerte.“

Dann stellt sich mir aber die Frage, warum ihr eure Lösung für etwas verkauft, was es gar nicht ist? Glaubwürdigkeit ist etwas anderes.

Für die Investoren wird natürlich schön auf den Cloud Zug aufgesprungen:

„In Bezug auf die einzelnen Nutzenaspekte der Protonet-Box konkurrieren wir jeweils mit einer Reihe von Wettbewerbern. Im Homeserver-Bereich konkurrieren wir mit Anbietern wie Synology, Iomega, Western Digital und Buffalo. Im Social Collaboration Markt machen wir Diensten wie Yammer, Dropbox, TeamBox oder Campfire künftig Marktanteile strittig. Unsere innovative Kombination aus Hardware und Kollaborationsplattform in einem Designprodukt bietet momentan kein anderes Unternehmen.“

„Kurzum: Alle Vorteile der Cloud – ohne die Nachteile. Unsere Kunden erlangen ihre Informationshoheit und Datenkontrolle zurück und genießen höchstmögliche Datensicherheit.“

Weiterhin hat Protonet die Wachstumszahlen des Cloud Computing Markt genutzt, um sich attraktiver zu machen, obwohl Protonet mit Cloud Computing nichts zu tun hat!

Cloud Computing Eigenschaften

Ich hatte hier bereits 2010 beschrieben, worauf man bei einem echten Cloud Service achten sollte.

  • On Demand:
    Ich beziehe die Ressourcen zu dem Zeitpunkt, wenn ich Sie auch tatsächlich benötige. Anschließend „gebe ich sie wieder zurück“.
  • Pay as you Go:
    Ich bezahle nur für die Ressourcen, die ich auch tatsächlich nutze, wenn ich sie nutze. Dabei wird entweder z.B. pro Benutzer, pro Gigabyte oder pro Minute/ Stunde abgerechnet.
  • Keine Grundgebühr:
    Bei einem Cloud Computing Angebot zahle ich keine monatliche/ jährliche Grundgebühr!
  • Hohe Verfügbarkeit:
    Wenn ich die Ressourcen benötige, kann ich sie zu diesem Zeitpunkt auch nutzen.
  • Hohe Skalierbarkeit:
    Die Ressourcen lassen sich automatisiert meinen Bedürfnissen anpassen. Das bedeutet, dass sie entweder mit meinen Ansprüchen wachsen, wenn ich mehr Leistung benötige oder sich verkleinern, wenn die Anforderungen wieder abnehmen.
  • Hohe Zuverlässigkeit:
    Die von mir genutzten Ressourcen sind zu dem Zeitpunkt wenn ich sie nutze tatsächlich verfügbar, worauf ich mich verlassen kann.
  • Blackbox:
    Ich muss mich nicht darum kümmern, wie es im Inneren des Cloud Angebots aussieht. Ich nutze einfach den Service über eine offene, gut dokumentierte Schnittstelle.
  • Automatisierung:
    Nachdem ich eine Grundeinrichtung bzgl. meiner Bedürfnisse vorgenommen habe, sind von mir keine weiteren manuellen Eingriffe während der Nutzung des Angebots notwendig. Ich muss z.B. die Leistung der Server oder die Größe des Speicherplatzes nicht manuell anpassen. Dafür werden mir Möglichkeiten zur Automation bereitgestellt.
  • Zugriff über das Internet:
    Darüber kann diskutiert werden. Allerdings ist der Kostenvorteil den man durch Cloud Computing erhält obsolet, wenn eine teure exklusive Mietleitung benötigt wird, um bspw. die Ressourcen eines Anbieters zu nutzen.
  • Keine zusätzlichen Installationen:
    Bei einem SaaS Angebot erfolgt die vollständige Nutzung über den Webbrowser ohne dabei eine weitere Softwarekomponenten wie z.B. Java (Umgebung) installieren zu müssen.

Frage, kann ein NAS diese Eigenschaften erfüllen? Nein!

Selbst international steht Protonet in der Kritik

Unabhängig davon, dass ich mit Ihm jemals über Protonet gesprochen habe, hat mein Freund und Analysten-Kollege Ben Kepes aus Neuseeland die Lösung kritisch aufgefasst und ebenfalls in die Kategorie Cloud-Washing abgelegt.

Zwei Bereiche die auch Ben sehr deutlich hervorhebt:

Protonet makes total sense, it’s a great solution. But it isn’t in any way cloud.

Let’s use the age old acronyms to run a check on this, firstly Cloudcamp founder Dave Nielsen’s OSSM that states that a cloud service should be:

  • On demand
  • Scalable
  • Self service
  • Metered

Well Protonet isn’t scalable (beyond the obvious ability to swap out drives for bigger ones, its service isn’t metered and while some might call it self-service, driving down to your local computer supplies retailer for a new drive doesn’t really cut it when compared to true programmatical access.

So let’s take another try, this time using the father of Cloudonomics, Joe Weinman’s, CLOUD mnemonic. According to Weinman, a cloud service should be;

  • Common infrastructure
  • Location independence
  • Online accessibility
  • Utility pricing
  • On-demand resources

So Protonet scores even lower using this test. Sadly.

Herzlichen Glückwunsch Protonet, ihr habt es bei Ben auf einen der einflussreichsten Cloud Blogs der Welt geschafft, allerdings hat auch er euch durchschaut!

Journalisten hinterfragen nicht kritisch genug

Das beste ist, dass selbst deutsche Journalisten sich von diesem Marketing ins Bockshorn jagen lassen. Auf CIO.de ist ein lobender Artikel erschienen und exakt in der Mitte ist eine Info-Box mit dem Titel:

„Die Vorteile des Cloud Computings“.

Darin steht

„Speziell für kleine und mittelständische Betriebe stellen Anfangsinvestitionen in die IT eine enorme Hürde dar. Cloud-Modelle bieten als Alternative nicht nur die Chance, Kapitalkosten in Betriebskosten umzuwandeln, sondern auch unter dem Strich zu sparen.“

Der krasse Gegensatz auf einer einzigen Seite.

Update: CIO.de hat den oben genannten Artikel nach Veröffentlichung dieses Beitrags berechtigterweise wieder von Ihrer Webseite entfernt. Daher leitet der Link auf die Homepage des Magazins.

Ehrlichkeit, Ehrlichkeit, Ehrlichkeit

Zusammenfassende Frage: Was hat Protonet mit Cloud Computing oder einer Private Cloud zu tun? Zusammenfassende und einfache Antwort: Gar nichts.

Ich finde es ganz ehrlich, lächerlich, auf den Cloud Computing Zug aufzuspringen, die Investoren, Journalisten und den Rest der Öffentlichkeit mit so einer Marketingblase zu verwirren und dann noch Geld einzukassieren. Dabei hat Protonet es nicht einmal nötig. Das aufgebohrte NAS mit Chatter Kopie ist grundsätzlich eine gute Idee. Und ganz im Ernst, ich gönne Protonet den bisherigen Erfolg. Aber sein Geschäft auf Unwahrheiten und Täuschungen aufzubauen ist schon bei vielen nach hinten losgegangen.

Dieser Beitrag ist mit viel Emotion geschrieben und hört sich böse an. Aber jedes einzelne Wort meine ich ernst, weil Unwahrheiten für den eigenen Vorteil verbreiten keine Kavaliersdelikte sind!