Kategorien
Analysen

Salesforce baut Rechenzentrum in Deutschland. Wann folgen Amazon, Microsoft Google und Co.?

Salesforce wird im Jahr 2015 einen Rechenzentrumsstandort in Deutschland eröffnen. Crisp Research hält den Schritt als den einzig logisch Richtigen um deutsche Unternehmenskunden anzuziehen. Es bleibt allerdings die Frage offen, warum die anderen großen Cloud Player wie Amazon AWS, Microsoft und Google nicht schon lange in Deutschland gelandet sind!

Salesforce expandiert nach Europa

Nach einem Umsatzwachstum von 41 Prozent für das Finanzjahr 2014 wird der CRM Anbieter Salesforce seine Aktivitäten für das Finanzjahr 2015 in Europa weiter verstärken. Hierzu sollen europaweit mehr als 500 neue Arbeitsplätze und weitere Rechenzentren entstehen. Das erste der drei Rechenzentren wird nach Unternehmensangaben im August in Großbritannien eröffnet. Zwei weitere sollen im Jahr 2015 in Deutschland und Frankreich folgen. Bereits auf der letzten Salesforce Customer Company Tour im vergangenen Juli wurde ein Rechenzentrum für dieses Frühjahr in London angekündigt.

Auch Salesforce hat zu kämpfen

Fakt ist, trotz des Umsatzwachstums von 41 Prozent in Europa und stolz verkündeter Kunden wie BMW Group, Deutsche Post DHL, Sixt, Vaillant und Carl Zeiss Vision hat Salesforce es nicht leicht. Auch das zeigen die Investitionen und Expansionen mit weiteren Rechenzentren in Europa. Salesforce muss näher an den Kunden herankommen, wenn der Kunde nicht von alleine kommt. Es ist nicht das erste Bekenntnis, dass die Public Cloud in dieser Form nicht für alle funktioniert. Bereits im November letzten Jahres kündigte Salesforce CEO Mark Benioff mit dem “Salesforce Superpod” nichts anderes als eine Dedicated Private Cloud auf der Salesforce Infrastruktur an, um Kunden die Möglichkeit zu bieten das CRM-System nicht auf der Public Cloud, sondern einem extra für sie abgetrennten Bereich zu nutzen. Man sieht also, es wird ständig und in langsamen Schritten zurückgerudert. Natürlich nur im Sinne der Kunden.

Deutschland sollte nicht unterschätzt werden

Salesforce Expansion nach Deutschland zeigt außerdem, dass der Druck enorm sein muss und Deutschland attraktiver ist als vermutet. Schließlich behandeln die meisten amerikanischen Unternehmen den deutschen Markt eher stiefmütterlich.

Der Großteil der amerikanischen Cloud Anbieter versorgt den europäischen Markt derzeit über Rechenzentren in Irland (Dublin) und den Niederlanden (Amsterdam). Das stößt bei vielen Deutschen, vornehmlich Datenschützern und mittelständischen Unternehmen, auf Unbehagen. Das Speichern von Daten außerhalb von Deutschland und ein Vertrag maximal nach europäischem Recht wird nicht gerne gesehen. Jedoch sollte und darf der Wirtschaftsstandort Deutschland nicht vernachlässigt werden. Für die US-amerikanischen Unternehmen mag Deutschland zwar ein kleines Land sein, aber die Wirtschaftskraft zu unterschätzen wäre fatal.

Die Erwartungshaltung ist riesig

Salesforce positioniert sich mit Salesforce1 mittlerweile als eine allumfassende Plattform für die Entwicklung von Social, Mobile und weiteren Cloud-basierten Applikationen und richtet sich damit gezielt an Entwickler, ISVs, Endanwender und Administratoren. Salesforce versucht damit sein Image als reiner CRM-Anbieter abzuschütteln.

Salesforce sieht sich somit nicht mehr nur im Wettbewerb mit anderen CRM-Anbietern sondern ebenfalls mit den großen Playern wie Microsoft, Amazon AWS und Google, deren Cloud-Stack auch stetig weiter ausgebaut wird und bei fast allen nahezu vollständig ist. Die Expansion mit einem eigenen Rechenzentrum in Deutschland ist für Salesforce damit ein enormer Wettbewerbsvorteil gegenüber anderen Anbietern wie Amazon AWS, Microsoft oder Google. Insbesondere im stark umkämpften Markt für Unternehmenskunden, in denen Amazon AWS und Google sich schwer tun und wo Microsoft auf Grund seiner bestehenden breiten Kundenbasis bereits eine gute Ausgangslage hat.

Crisp Research ist der Meinung, dass spätestens nach dieser Ankündigung kein Anbieter, der den deutschen Markt als ernsthaft attraktiv betrachtet, mehr daran vorbeikommt, ebenfalls ein eigenes Rechenzentrum in Deutschland zu eröffnen. Zahlen von Crisp Research zeigen eine deutliche Anforderung von mittelständischen Unternehmen an Cloud Anbieter, dass die Daten in einem deutschen Rechenzentrum gespeichert werden müssen. Etwa 75 Prozent sehen darin die Notwendigkeit, um durch physische Lokalität der Daten das deutsche Recht einfacher anwendbar zu machen.

Microsoft sorgt für ein großes Fragezeichen

Warum hat zum Beispiel Microsoft nicht schon längst ein Rechenzentrum in Deutschland gebaut? Das Unternehmen ist seit Jahrzehnten in Deutschland tätig und sollte die Kundenbasis und deren Bedenken besser kennen als jeder andere Cloud Anbieter! Crisp Research hat erste Gerüchte über Rechenzentrumsstandorte von Amazon AWS und Microsoft in Deutschland gehört. Eine offizielle Bestätigung, als auch ein Dementi blieben bis heute allerdings aus.

Der Standortvorteil eines Rechenzentrums in Deutschland ist nicht zu vernachlässigen, um aktiv damit zu beginnen, den deutschen Unternehmen ihre Bedenken zu nehmen. Die Cloud Computing Anbieter haben in der Vergangenheit viel geredet und versprochen. Aussagekräftige Taten blieben jedoch aus. Nach IBM, mit einem Cloud-Rechenzentrum in Ehningen bei Stuttgart, hat nun auch Salesforce den richtigen Schritt gemacht. Wir sind gespannt wer folgen wird.

Kategorien
Analysen

Desktop-as-a-Service: Google begibt sich in die Abhängigkeit von VMware.

Im ersten Moment war es eine unerwartete Ankündigung, die auf dem zweiten Blick allerdings sehr schnell einen Sinn ergibt. VMware und Google haben in der vergangenen Woche eine Partnerschaft verkündet, um über VMwares Desktop-as-a-Service Plattform Unternehmen Windows-Applikationen, Daten und Desktops auf Google Chromebooks auszuliefern. Crisp Research hält die Partnerschaft für einen klugen Schachzug von beiden Beteiligten. Jedoch ist Google hier in einer deutlich schwächeren Partnersituation und gesteht Schwächen seines eigenen Cloud Service Portfolios für Unternehmenskunden ein.

Desktop-as-a-Service: Der Markt wird vielfältiger

Desktop-as-a-Service (DaaS) ist nach der Server- und Speicherentwicklung der nächste logische Schritt, bei dem vollständige Desktop-PCs im Rechenzentrum virtualisiert und von dort aus zentral auf Endgeräte ausgeliefert werden. Die Vorteile liegen klar auf der Hand. Vollwertige Computersysteme, die sogenannten Fat-Clients, führen zu maßgeblichen Investitionen in Hardware, Bereitstellung, Support, Betrieb und Aktualisierungen. Hinzukommen Ausgaben für die Sicherheit und Compliance.

Crisp Research beziffert die Jährlichen Gesamtausgaben von Standard Desktop-PCs auf rund 1.560 EUR. Durch die Umstellung auf Thin-Clients, die im minimalsten Fall nur über eine Netzwerkschnittstelle und ein BIOS verfügen, lassen sich die Ausgaben reduzieren und pro Desktop etwa 150-200 EUR pro Jahr einsparen.

Der Markt für DaaS wird zwischen zwei Segmenten unterschieden. Zum einen die grundlegenden Infrastrukturen. Dazu gehören Angebote von VMware, Citrix, Univention, Wyse oder Microsoft. Die sowohl als on-Premise als auch Public Cloud Angebote genutzt werden. Der Markt für DaaS Backendinfrastrukturen wird immer vielfältiger. Das jüngste prominente Mitglied sind die Amazon Web Services (AWS) mit den Amazon WorkSpaces. Nach Angaben von AWS Integrationspartnern waren die Test-Accounts für Amazon WorkSpaces innerhalb kürzester Zeit vergeben. Crisp Research geht davon aus, dass sich die Amazon Web Services als weltweit führender Anbieter von Infrastructure-as-a-Services auch in diesem Bereich signifikante Marktanteile sichern werden.

Auf der anderen Seite werden die Endgeräte benötigt, mit denen sich die virtualisierten Desktops nutzen lassen. Hierzu zählen klassischerweise die bekannten Thin-Clients. Google verfolgt mit seinen Chromebooks einen völlig neuen Ansatz. Das System startet direkt in das Chrome OS, was im Kern den Google Chrome Browser widerspiegelt. Ein Nutzer booted somit sofort in die Cloud.

Google Chromebooks – noch erhebliche Schwächen im Unternehmenseinsatz

Google Chromebooks sind auf der einen Seite revolutionär, da die lokale Komponente vollständig ausgeblendet wird und Daten und Applikationen zu 100 Prozent in der Cloud gespeichert bzw. aus der Cloud genutzt werden. Auf der anderen Seite birgt der Ansatz auch seine Schwächen, die derzeit mehr überwiegen als die vermeintlichen Vorteile die von einem Chromebook ausgehen.

Die Idee der Chromebooks ist grundsätzlich gut. Das lokale System verfügt über eine minimale Intelligenz und keine höherwertigen Softwarekomponenten, die wie bspw. ein Windows Betriebssystem, ständig mit einem Neustart auf dem aktuellen Stand gehalten werden müssen. Stattdessen ist der Browser das Betriebssystem, wodurch Google Software- und Sicherheitsupdates on-Demand vornehmen kann, ohne das der Nutzer davon etwas bemerkt.

Auch Googles Strategie sämtliche Services, wie zum Beispiel die Google Apps for Business Suite, mit den Chromebooks zu integrieren ist ein kluger Schachzug, um die User Experience der Chromebooks sowie die Public Cloud Services in die Unternehmen zu tragen und dort bekannter zu machen. Über den Google Apps eigenen Marketplace lassen sich in Zukunft zudem immer mehr Services von Drittanbietern monetarisieren. Leider ist die ganzheitliche Umsetzung bis heute nur mäßig. Bis auf Google Mail und Google Kalender ist der Rest der Google Apps for Business Suite nicht unternehmenstauglich. Insbesondere Google Docs, als Textverarbeitung Kernprodukt einer Office Suite, zeigt noch erhebliche Schwächen und steht in keiner Konkurrenz zu einem Microsoft Word. Auch wenn der Software-as-a-Service Markt stetig wächst, ist der Vorteil, der sich durch die lose und beliebige Nutzung von Cloud Services auf den Chromebooks ergibt, durch die nicht vorhandenen leistungsfähigen Enterprise Applikationen, die weiterhin benötigt werden, aufgehoben. Nutzer benötigen immer wieder Applikationen, die ausschließlich für lokale Betriebssysteme wie Windows, Mac oder Linux zur Verfügung stehen. Dieser Status wird nicht so bleiben, aber Stand heute existieren diese Nachteile.

VMware öffnet Google das Tor in die Unternehmen

Um seinen Chromebooks eine echte Business Customer Experience zu bieten ist die Partnerschaft mit VMware ein notwendiger und kluger Schachzug, um in kurzer Zeit einen Fuß in die Türen der Unternehmen zu bekommen. Anwender können damit auf ihre Windows Anwendungen, Daten und Desktops anhand der VMware Blast HTML5 Technologie über einen Web-basierten Katalog vom Chromebook aus zugreifen.

Zudem können Unternehmen mittels VMware Horizon DaaS zwischen einer Virtual Desktop Infrastructure (VDI) oder Remote Desktop Services (RDS) Verbindung wählen. Zusammen mit VMware Horizon View lassen sich die Chromebooks als on-Premise Service nutzen. In Zukunft soll die gemeinsame Lösung als DaaS-Angebot von VMware und anderen vCloud Service Anbietern in der Cloud oder in hybriden Umgebungen zur Verfügung gestellt werden.

Google – Abschied von der reinen Public-Cloud-Lehre

Die Partnerschaft zwischen VMware und Google zeigt, dass Google derzeit noch nicht in der Lage ist, den Enterprise-IT-Markt allein mit eigenen Kräften zu überzeugen. Die Anforderungen der Unternehmensanwender sind derzeit noch zu vielfältig und komplex – und verlangen daher nach hybriden und stark integrierten Lösungen.

Mit der VMware-Partnerschaft kann es Google aber vielleicht gelingen, ein trojanisches Pferd in die Unternehmen einzuschleusen und deren Nutzer von der browser-basierten User Experience seiner Cloud-Dienste abhängig zu machen. Ob das Anfixen über die Virtual Desktop Services auf den Chromebooks langfristig funktioniert bleibt abzuwarten. Sicher ist, dass Google das Enterprise Business mittlerweile ernst nimmt und nicht als reines Anhängsel seines Online Werbegeschäfts versteht. Nach Einschätzungen von Crisp Research bereitet Google derzeit noch weitere Kooperation vor, die das Standing seiner Google Apps auf Seiten großer IT-Anwender verbessern sollen.

Kategorien
Kommentar

Cloud PR Desaster. Googles Unbeschwertheit zerstört Vertrauen.

Es ist üblich, dass in Unternehmen nur bestimmte „Spokesperson“ auserwählt werden, die öffentlich über das Unternehmen sprechen dürfen. Tragisch wird es, wenn diese Auserwählten Aussagen treffen, die vielerseits zu Fragezeichen und Verunsicherung führen. Google ist nun schon zum zweiten Mal innerhalb kürzester Zeit in so ein Fettnäpfchen getreten. Nachdem Cloud Platform Manager Greg DeMichillie die langfristige Verfügbarkeit der Google Compute Engine merkwürdig kommentiert hatte, lies es sich Google CIO Ben Fried nicht nehmen über die Google-eigene Nutzung der Cloud zu äußern.

Wir sind die Guten – Die anderen sind böse

Im Interview mit AllThingsD erklärte Google CIO Ben Fried den Umgang von Google mit dem Thema Bring your own Device und der Nutzung externer Cloud Services. Wie jeder IT-Verantwortliche mittlerweile mitbekommen haben mag, ist Google seit geraumer Zeit dabei mit aller Gewalt seine Google Apps for Business Lösung in den Unternehmen zu vermarkten. Umso erstaunlicher ist die Aussage von Fried in Bezug auf die Nutzung von Dropbox, die Google für interne Zwecke strikt verbietet.

The important thing to understand about Dropbox,” […] “is that when your users use it in a corporate context, your corporate data is being held in someone else’s data center.

Genau, wenn ich meine Daten nicht auf den eigenen Servern speichere, sondern bei Dropbox, dann liegen sie wahrscheinlich in einem fremden Rechenzentrum. In Dropbox Fall um genauer zu sein auf Amazon S3. Das gilt aber auch für den Fall, wenn ich meine Daten auf Google Drive, Google Apps oder der Google Cloud Platform ablege. Dann liegen die Daten nämlich bei? Google, genau. Das bringt das Cloud Modell nun einmal mit sich.

Fried hat das natürlich, wie auch schon DeMichillie, alles gar nicht so gemeint und korrigierte sich anschließend per E-Mail via AllThingsD.

Fried says he meant that the real concern about Dropbox and other apps is more around security than storage. “Any third-party cloud providers that our employees use must pass our thorough security review and agree under contract to maintain certain security levels,”

Es ging Fried also um die Sicherheit von Dropbox und anderweitiger Cloud Services, als um den Speicherort.

Google ist ein großes Kind

Ich bin mir langsam nicht mehr sicher was man von Google halten soll. Eines ist aber klar, eine professionelle Unternehmenskommunikation sieht anders aus. Gleiches gilt für den Vertrauensaufbau bei den Unternehmenskunden. Google ist zweifelsohne ein innovatives Unternehmen, wenn nicht sogar das innovativste Unternehmen weltweit. Diese Unbeschwertheit eines Kindes die Google und seine Mitarbeiter benötigt, um immer wieder neue interessante Ideen und Technologien zu entwickeln, ist gleichzeitig die größte Schwachstelle. Es ist genau dieser Grad der Naivität in der Außenkommunikation, der es Google auch in Zukunft schwer machen wird, wenn sich daran nichts grundlegend verändert. Zumindest dann, wenn es darum geht im sensiblen Markt für Unternehmenskunden ein Wort mitzureden. Die großen Player, allen voran Microsoft, VMware, IBM, HP und Oracle wissen was Unternehmen hören müssen, um attraktiv zu erscheinen. Und dazu gehören keinesfalls die Aussagen eines Greg DeMichillie oder Ben Fried.

Noch ein interessantes Kommentar auf Ben Kepes Forbes‘ Artikel „Google Shoots Itself In The Foot. Again„.

„[…]Do you really think that Google management really cares about cloud app business or its customer base? Somebody at Google said that they have the capacity they built for themselves and they have the engineering talent so why not sell it. So Brin and Page shoke their heads and they was the last they ever wanted to hear about it. There is nothing exciting about this business, they do not want the responsibilites that come with this client base and they really don’t care. I bet they shut it down.

Kategorien
Kommentar

Reaktion der Google PR Agentur auf die langfristige Verfügbarkeit der Google Compute Engine

Nach meinem Artikel, in dem ich das langfristige Bestehen der Google Compute Engine (GCE) in Frage gestellt habe, hat sich Googles PR Agentur bei mir gemeldet, um die Beweggründe zu verstehen. Ich habe in dem Artikel auf ein GigaOM Interview von Googles Cloud Platform Manager Greg DeMichillie reagiert, der keine Garantie für die langfristige Verfügbarkeit der GCE geben würde.

Hintergrund

Google Cloud Platform Manager Greg DeMichillie ging in einem Interview mit GigaOM auf die Frage der langfristigen Verfügbarkeit von Google Cloud Services ein und antwortete dabei für mich unerwartet und nicht im Sinne des Kunden.

„DeMichillie wouldn’t guarantee services like Compute Engine will be around for the long haul, but he did try to reassure developers by explaining that Google’s cloud services are really just externalized versions of what it uses internally. ”There’s no scenario in which Google suddenly decides, ‘Gee, I don’t think we need to think about storage anymore or computing anymore.“

Zwar relativiert DeMichillie am Ende, dass Google seine Cloud Services wohl nicht in einer Kamikaze-Aktion schließt. Dennoch handelt es sich um eine verwirrende Aussage, über einen Service, welcher erst seit relativ kurzer am Markt ist.

Die Antwort von Googles PR Agentur

Ich möchte vorab klarstellen, dass es kein Anruf war, um mich zu beeinflussen, sondern sich zu informieren und zu verstehen, wie es zu dem Artikel kam. Googles PR Agentur sagte, dass DeMichillie anscheinend falsch verstanden wurde und mein Artikel nur diese negative Aussage herausstellt und die positiven Themen vernachlässigt hat. Google würde derzeit massiv in Infrastruktur Ressourcen investieren und es keine Anzeichen und Gründe dafür gibt, dass gerade die Google Compute Engine eingestellt wird.

Meine Stellungnahme

Es ging und geht niemals darum Google (oder irgendeinen anderen Anbieter) in ein schlechtes Licht zu stellen. Das habe ich auch der PR Agentur gesagt. Aber am Ende des Tages muss der Nutzer beraten und gleichermaßen geschützt werden. Außerdem berate ich als Analyst und Advisor Unternehmen, die sich auf mein Urteil verlassen. Daher muss ich auf solche Aussagen, gerade wenn Sie direkt von einem Mitarbeiter eines Anbieters stammen, reagieren und diese in meine Entscheidungsmatrix mit aufnehmen. Was soll ich machen, wenn ich einem Kunden die Nutzung der GCE empfehle, da dies technisch und von den Anforderungen her passt, Google anschließend aber ankündigt den Service zu schließen? Aus diesem Grund reagiere ich auf solche Themen äußerst sensibel. Außerdem hat sich Google in den letzten Monaten und Jahren nicht mit Ruhm bekleckert wenn es darum geht, sein Service-Portfolio aufrechtzuerhalten. Das Ende des Google Reader hat bei den Nutzern mehr negative Reaktionen hervorgerufen als der aktuelle NSA-Skandal. Dabei handelt es sich wohlgemerkt um einen kostenlosen Service für Endkunden. Bei der Google Compute Engine sprechen wir allerdings von einem Angebot das überwiegend Unternehmen anspricht. Es geht für die Unternehmen also um viel Kapital das sie in die Hand nehmen, um ihre Workloads auf die GCE zu bringen. Wird der Service nun plötzlich geschlossen, ensteht je nach Unternehmen ein nicht zu beziffernder wirtschaftlicher Schaden, um die Daten und Applikation zu migrieren. Das sollte Google bei seinen Entscheidungen bedenken. Auch wenn es sich in diesem Fall nur um eine Aussage in einem Interview gehandelt hat. Vertrauen in das Cloud-Portfolio schafft sie nicht und passt zudem sehr gut zu den Erfahrungen der jüngsten Vergangenheit, wenn Google den Besen auspackt.

Kategorien
Kommentar

Die Google Compute Engine scheint keine langfristige Lösung zu sein

In einem Interview mit GigaOM hat Googles Cloud Platform Manager Greg DeMichillie eine seltsame Aussage über die Zukunft von der Google Compute Engine gemacht, welche erneut zu einer Diskussion führen muss, wie zukunftssicher dass Google Cloud Service Portfolio tatsächlich ist und wie sehr man sich auf den Suchmaschinenanbieter in seinen nicht Kernbereichen verlassen sollte.

Google ist zu agil für seine Kunden

Nachdem Google angekündigt hatte, den Google Reader einzustellen, hatte ich bereits die Zukunftssicherheit des Google Cloud Portfolio in Frage gestellt. Insbesondere wegen dem Hintergrund, dass Google immer mehr Services monetarisiert, diese mit dem Umsatz dadurch eine weitere KPI erhalten und damit noch schneller von einer Schließung bedroht sein können. Google Cloud Platform Manager Greg DeMichillie ging in einem Interview mit GigaOM genau auf diese Frage ein und antwortete unerwartet und nicht im Sinne des Kunden.

„DeMichillie wouldn’t guarantee services like Compute Engine will be around for the long haul, but he did try to reassure developers by explaining that Google’s cloud services are really just externalized versions of what it uses internally. ”There’s no scenario in which Google suddenly decides, ‘Gee, I don’t think we need to think about storage anymore or computing anymore.“

Zwar relativiert DeMichillie am Ende, dass Google seine Cloud Services wohl nicht in einer Kamikaze-Aktion schließt. Dennoch handelt es sich um eine verwirrende Aussage, über einen Service, welcher erst seit relativ kurzer am Markt ist.

Das sind Dinge die ein Kunde nicht hören sollte

Die entscheidende Frage ist, warum sich ein potentieller Kunde überhaupt noch langfristig für die Google Compute Engine entscheiden sollte? Auf Grund dieser Aussage muss man von einer langfristigen Planung mit der Nutzung der Google Compute Engine abraten und sich stattdessen lieber auf Cloud Computing Anbieter konzentrieren, die ihr Kerngeschäft tatsächlich im Infrastructure-as-a-Service Bereich haben und nicht so gutmütig sind ihre Überkapazitäten zu verkaufen, sondern ein ernsthaftes Cloud Computing Geschäft betreiben.

Ich möchte nicht den Teufel an die Wand malen. Aber Neuigkeiten wie die plötzliche Schließung von Nirvanix – einem Enterprise Cloud Storage Anbieter – schlagen große Wellen und verunsichern die Nutzer. Das sollte auch Google langsam verstehen, wenn sie ein ernsthafter Anbieter von Cloud Computing Ressourcen werden wollen!

Kategorien
Analysen

Google erweitert die Compute Engine um Load Balancer Funktionalität. Aber wo bleibt die Innovationsmaschine?

In einem Blogpost hat Google weitere Erneuerungen an seiner Cloud Platform bekanntgeben. Neben der Erweiterung und Verbesserung des Google Cloud Datastore und der Ankündigung der Google App Engine 1.8.3, hat das Infrastructure-as-a-Service (IaaS) Angebot Google Compute Engine nun einen Load Balancing Service erhalten.

Neues vom Google Cloud Datastore

Um die Produktivität von Entwicklern weiter zu erhöhen, hat Google seinen Cloud Datastore um mehrere Funktionalitäten erweitert. Dazu gehören die Google Query Language (GQL). Die GQL ist eine SQL-ähnliche Sprache und richtet sich speziell an datenintensive Applikationen, um Entities und Keys aus dem Cloud Datastore abzufragen. Weiterhin lassen sich über die Abfrage von Metadaten weitere Statistiken von den darunterliegenden Daten erhalten. Google sieht darin einen Vorteil, um bspw. eigene interne Administrationskonsolen zu entwickeln, eigene Analysen vorzunehmen oder eine Anwendung zu debuggen. Zudem wurden Verbesserungen an dem lokalen SDK vorgenommen. Dazu gehören Erweiterungen am Kommandozeilen Tool sowie eine Unterstützung für Entwickler, die Windows einsetzen. Nachdem der Cloud Datastore in seiner ersten Version die Sprachen Java, Python und Node.js unterstützt hat, wurde nun auch Ruby hinzugefügt.

Google App Engine 1.8.3

Die Erneuerungen der Google App Engine Version 1.8.3 richten sich überwiegend an die PHP Laufzeitumgebung. Weiterhin wurde die Integration mit dem Google Cloud Storage, der nach Aussagen von Google an Beliebtheit gewinnt, verstärkt. Ab sofort können über Funktionen wie opendir() oder writedir() direkt auf die Buckets des Cloud Storage zugegriffen werden. Weiterhin können über is_readable() und is_file() weitere stat()-ing Informationen abgefragt werden. Ebenfalls lassen sich nun Metadaten an die Dateien im Cloud Storage anhängen. Zudem wurden anhand eines durch memcache realisierten „Optimistic Reading Cache“ Verbesserungen im Hinblick auf die Performance vorgenommen. Insbesondere die Geschwindigkeit von Anwendungen, welche regelmäßig von derselben Datei im Cloud Storage lesen, soll sich damit erhöhen.

Load Balancing mit der Compute Engine

Die Google Compute Engine wurde um eine Layer 3 Load Balancing Funktionalität erweitert, mit der sich nun auch auf Googles IaaS Angebot skalierbare und fehlertolerante Web-Applikationen entwickeln lassen. Mit der Load Balancing Funktion lässt sich der eingehende TCP/UDP Traffic über unterschiedliche Compute Engine Maschinen (virtuelle Maschinen) innerhalb derselben Region verteilen. Zudem kann damit sichergestellt werden, dass keine fehlerhaften virtuellen Maschinen eingesetzt werden, um HTTP-Anfragen zu beantworten und Lastspitzen ausgeglichen werden. Die Konfiguration des Load Balancer erfolgt entweder per Kommandozeile oder über die REST-API. Die Load Balancer Funktion kann noch bis Ende 2013 kostenlos genutzt werden, anschließend wird der Service kostenpflichtig.

Google holt viel zu langsam auf

Zwei wichtige Erneuerungen stechen bei den Neuigkeiten zur Google Cloud Platform hervor. Zum einen die neue Load Balancing Funktion der Compute Engine, zum anderen die bessere Integration der App Engine mit dem Google Cloud Storage.

Die Load Balancing Erweiterung kommt zugegebenermaßen viel zu spät. Schließlich handelt es sich dabei um eine der essentiellen Funktionen eines Cloud Infrastruktur Angebots, um dafür zu sorgen, skalierbare und hochverfügbare Systeme zu entwickeln und welche alle anderen bestehenden Anbieter am Markt bereits im Portfolio haben.

Die erweiterte Integration des Cloud Storage mit der Google App Engine ist insofern wichtig, um Entwicklern mehr S3-ähnliche Funktionen aus dem PaaS heraus zu bieten und damit mehr Möglichkeiten im Hinblick auf den Zugriff und die Verarbeitung von Daten in einem zentralen und skalierbaren Speicherort zu bieten.

Unterm Strich kann man sagen, dass Google sein IaaS Portfolio weiter stetig ausbaut. Was dabei allerdings auffällt, ist die sehr langsame Geschwindigkeit. Von der Innovationsmaschine Google, die man aus vielen anderen Bereichen des Unternehmens kennt, ist gar nichts zu erkennen. Google erweckt den Eindruck, dass es IaaS anbieten muss, um nicht allzu viele Entwickler an die Amazon Web Services und andere Anbieter zu verlieren, die Compute Engine aber nicht hoch priorisiert hat. Dadurch wirkt das Angebot sehr stiefmütterlich behandelt. Das zeigt z.B. die sehr späte Erweiterung um das Load Balancing. Ansonsten dürfte man von einem Unternehmen wie Google erwarten, mehr Ehrgeiz und Geschwindigkeit in den Ausbau des Angebots zu investieren. Schließlich sind bei keinem anderen Unternehmen, mit Ausnahme von Amazon, mehr Erfahrungen im Bereich hochskalierbarer Infrastrukturen vorhanden. Dies sollte sich relativ schnell in ein öffentliches Angebot umwandeln lassen, zumal Google gerne damit wirbt, das Kunden dieselbe Infrastruktur nutzen können, auf der ebenfalls sämtliche Google Services betrieben werden. Abgesehen von der App Engine, die jedoch im PaaS-Markt einzuordnen ist, muss sich die Google Compute Engine weiterhin hinten anstellen, was auch noch eine längere Zeit der Fall sein wird, wenn nicht die Geschwindigkeit forciert wird und weitere essentielle Services ausgerollt werden.

Kategorien
Analysis

Google Compute Engine: Google is officially in the game

Google officially gets in the battle for market share in the infrastrucuture-as-a-service (IaaS) area. What was only determined for a selected group of customers starting one year ago, the company from Mountain View has now made available for the general public as part of the Google I/O 2013. It’s about their cloud computing offering, Google Compute Engine (GCE).

News about the Google Compute Engine

With App Engine, BigQuery and Cloud Storage, Google has steadily expanded its cloud portfolio since 2008. What was missing was an infrastructure-as-a-service solution that can be used as needed to start virtual machines. The Google Compute Engine (GCE) released Google to its I/O 2012 in a closed beta, to use virtual machines (VM) with the Linux operating system on the Google infrastructure, which is also used by Gmail and other services.

Together with the Google I/O 2013, the GCE has now reached the general availability. Furthermore, Google has launched the Cloud Datastore, a by Google fully managed NoSQL database for non-relational data. Independent from the GCE the service provides automatic scalability, ACID transactions, and SQL-like queries and indexes. In addition, there is a limited preview of the PHP programming language for App Engine. With that Google wants to address developers and users of open source applications such as WordPress. Beyond that, the integration has been improved with other parts of the cloud platform such as Cloud SQL and Cloud Storage. Further, Google looks at the feedback of its users, that it should be possible to develop simple modularized applications on the App Engine. In response, it is now possible to partition applications into individual components. Each with its own scaling, deployment, versioning and performance setting.

More news

Other major announcements include more granular billing, new instance types as well as an ISO 27001 certification:

  • Granular billing: Each instance type is now billed per minute, where 10 minutes will be charged at least.
  • New instance types: There are new micro and small instance types that are meant to process smaller workloads inexpensive and require little processing power.
  • More space: The size of the „Persistent Disks“, which can be connected to a virtual instance have been extended up to 8.000 percent. This means that now a persistent disk can be attached with a size of up to 10 terabytes to a virtual machine within the Compute Engine.
  • Advanced routing: The Compute Engine now supports based on Google’s own SDN (Software Defined Network) opportunities for software-defined routing. With that instances can act as gateways and VPN server. In addition it can be use to develop applications so that they run in the own local network and in the Google cloud.
  • ISO 27001 certification: The Compute Engine, App Engine and Cloud Storage are fully certified with ISO 27001:2005.

Developer: Google vs. Amazon vs. Microsoft

First, the biggest announcement for the Google Compute Engine (GCE) is its general availability. In recent months, the GCE was held up by every news as THE Amazon killer, although it was still in a closed beta, and thus there was no comparison at eye level. The true time reckoning begins now.

Many promise from the GCE that Google creates a real competitor to Amazon Web Services. The fact is that the Google Compute Engine is an IaaS offering and Google due to its core business, have the expertise to build highly scalable infrastructures and to operate them highly available. The Google App Engine also shows that Google knows how to address developers, even if the market narrows here with increasingly attractive alternatives.

A lack of diversification

Having a look at the compute engine, we see instances, storage, and services for the storing and processing of structured and unstructured data (Big Query, SQL Cloud and Cloud Datastore). Whoever sees Google as THE Amazon killer from this point, should scale down its expectations once a little. Amazon has a very diversified portfolio of cloud services that enables to use the Amazon cloud infrastructure. Google needs to tie in with it, but this should not be too difficult, since many Google services are already available. A look at the services of Amazon AWS and the Google Cloud Platform is worthwhile for this reason.

Hybrid operation for applications

Google may not be underestimated in any case. On the contrary, from a first performance comparison between the Google and Amazon cloud, Google emerged as the winner. This lies inter alia in the technologies that Google is constantly improving, and on its global high-performance network. What is particularly striking, Google now offers the possibility to develop applications for a hybrid operation in the own data center and for the Google cloud. This is an unexpected step, since Google have been rather the motto „cloud only“. However, Google has been struggling lately with technical failures similar to Amazon, which does not contribute to the strengthening of trust in Google.

A potshot is the new pricing model. Instances are now charged per minute (at least 10 minutes of use). Amazon and Microsoft still charge their instances per hour. Whether the extension of the „Persistent Disks“ up to 10 terabytes will contribute a diversification we will see. Amazon is also under developers regarded as the pioneer among IaaS providers, which will make it not easier for Google to gain market share in this segment. In addition, Google may assume that, next to ordinary users, developers also do not want to play Google’s „service on / off“ games.

Amazon and Microsoft are already one step ahead

Where Google with its SaaS solution Google Apps massively tries to penetrate corporate customers for quite some time, the Compute Engine is aimed primarily at developers. Amazon and Microsoft have also begun in this customer segment, but long since begun to make their infrastructures respectively platforms attractive for enterprise customers. Here is still much work for Google, if this customer segment is to be developed, which is inevitably. However, in this area it is about much more than just technology, but about creating trust and to consider organizational issues (data protection, contracts, SLAs, etc.) as valuable.

Google’s problem: volatility

No doubt, Google is by far the most innovative company on our planet. But equally the most volatile and data hungriest. This also developers and especially companies both observed and should ask the question how future-proof the Google cloud portfolio is. If the compute engine is a success, don’t worry about it! But what if it is for Google(!) a non-seller. One remembers the Google Reader, whose user numbers were not sufficient enough for Google. In addition, the compute engine has another KPI, revenue! What does Google do when it’s no longer economic?

Kategorien
Analysen

Google Compute Engine: Google ist offiziell im Spiel

Nun steigt auch Google offiziell in den Kampf um Marktanteile im Infrastrucuture-as-a-Services (IaaS) Bereich ein. Was seit einem Jahr nur einem ausgewählten Personen- bzw. Kundenkreis bestimmt war, hat das Unternehmen aus Mountain View jetzt im Rahmen der Google I/O 2013 der Allgemeinheit verfügbar gemacht. Die Rede ist von seinem Cloud Computing Angebot, der Google Compute Engine (GCE).

Neuigkeiten zur Google Compute Engine

Mit der Google App Engine, BigQuery und dem Google Cloud Storage hat Google seit 2008 sein Cloud Portfolio stetig ausgebaut. Was noch fehlte war eine Infrastructure-as-a-Service Lösung, mit der virtuelle Maschinen bei Bedarf genutzt werden können. Die Google Compute Engine (GCE) brachte Google zu seiner I/O 2012 in einer geschlossenen Beta auf den Markt, um virtuelle Maschinen (VM) mit dem Linux Betriebssystem auf der Google Infrastruktur, die auch von Google Mail und anderen Services eingesetzt wird, zu nutzen.

Zusammen mit der Google I/O 2013 hat die GCE nun auch den Status der allgemeinen Verfügbarkeit erreicht. Weiterhin hat Google einen Cloud Datastore, eine von Google vollständig verwaltete NoSQL Datenbank für nicht relationale Daten, veröffentlicht. Der von der GCE unabhängige Service bietet eine automatische Skalierbarkeit, ACID Transaktionen sowie SQL-artige Anfragen und Indizes. Weiterhin gibt es eine eingeschränkte Vorschau der Programmiersprache PHP für die App Engine. Damit will Google Entwickler und Nutzer von Open-Source Applikationen wie z.B. WordPress ansprechen. Zudem wurde die Integration mit anderen Teilen der Cloud Plattform wie Google Cloud SQL und Cloud Storage verbessert. Darüber hinaus geht Google auf die Rückmeldung seiner Nutzer ein, dass es möglich sein sollte, Applikationen auf der App Engine einfacher modularisiert zu entwickeln. Als Reaktion darauf ist es nun möglich, Applikationen in einzelne Komponenten zu partitionieren. Jede mit ihrer eigenen skalierungs-, bereitstellungs-, versionierungs- und performance- Einstellung.

Weitere Neuigkeiten

Zu den weiteren größeren Ankündigungen gehören u.a. eine granularere Abrechnung, neue Instanz-Typen sowie eine ISO 27001 Zertifizierung:

  • Genauere Abrechnung: Jeder Instanz-Typ wird nun pro Minute abgerechnet, wobei 10 Minuten mindestens berechnet werden.
  • Neue Instanz-Typen: Es gibt nun neue Micro- und Small Instanz-Typen, die dafür gedacht sind, kostengünstig kleinere Workloads zu verarbeiten, die nur wenig Rechenleistung benötigen.
  • Mehr Speicherplatz: Die Größe der „Persistent Disks“, die mit einer virtuellen Instanz verbunden werden können, wurden um bis zu 8.000 Prozent erweitert. Das bedeutet, dass nun eine Persistent Disk mit einer Größe von bis zu 10 Terabyte an eine virtuelle Maschine der Compute Engine angehängt werden kann.
  • Erweitertes Routing: Die Compute Engine unterstützt nun basierend auf dem eigenen SDN (Software-Defined Networking) Möglichkeiten für das Software-Defined Routing. Damit lassen sich Instanzen als Gateways und VPN-Server einsetzen und Applikationen so entwickeln, dass diese im eigenen lokalen Netzwerk als auch in der Google Cloud laufen.
  • ISO 27001 Zertifizierung: Die Compute Engine, App Engine und Cloud Storage wurden vollständig mit ISO 27001:2005 zertifiziert.

Entwickler: Google vs. Amazon vs. Microsoft

Zunächst, die größte Ankündigung für die Google Compute Engine (GCE) ist ihre allgemeine Verfügbarkeit. In den letzten Monaten wurde die GCE nach jeder Neuigkeit als DER Amazon Killer hochgehalten, obwohl sie sich noch in einer geschlossenen Beta befand und somit kein Vergleich auf Augenhöhe bestand. Die wirkliche Zeitrechnung beginnt jetzt.

Viele versprechen sich von der GCE, dass Google damit einen echten Konkurrenten zu den Amazon Web Services schafft. Fakt ist, das es sich bei der Google Compute Engine um ein IaaS Angebot handelt und Google auf Grund seines Kerngeschäfts über die Expertise, hochskalierbare Infrastrukturen aufzubauen und diese hochverfügbar zu betreiben, verfügt. Die Google App Engine zeigt darüber hinaus, dass Google es versteht, Entwickler anzusprechen, auch wenn sich der Markt hier mit zunehmend attraktiven Alternativen verengt.

Es fehlt die Diversifikation

Schauen wir uns die Compute Engine an, dann sehen wir Instanzen, Speicherplatz, sowie Services für das Speichern und Verarbeiten von strukturierten und unstrukturierten Daten (Big Query, Cloud SQL und Cloud Datastore). Wer Google unter diesen Gesichtspunkten daher als DEN Amazon Killer sieht, sollte seine Erwartungen erst einmal ein wenig herunterschrauben. Amazon hat ein sehr diversifiziertes Portfolio an Cloud Services, mit denen die Amazon Cloud Infrastruktur genutzt werden kann. Daran muss Google erst einmal anknüpfen, was sich allerdings nicht als all zu schwer erweisen dürfte, da viele Google Services bereits vorhanden sind. Ein Blick auf das Serviceangebot von Amazon AWS und der Google Cloud Platform ist aus diesem Grund lohnenswert.

Hybrid Betrieb für Applikationen

Google darf auf keinen Fall unterschätzt werden. Im Gegenteil, aus einem ersten Performance-Vergleich zwischen der Google Cloud Platform und Amazon AWS ging Google als Sieger hervor. Das liegt u.a. an den Technologien, die Google ständig verbessert sowie an seinem weltweiten hochperformanten Netzwerk. Was besonders auffällt, Google bietet nun die Möglichkeit, Applikationen für einen hybrid Betrieb, im eigenen Rechenzentrum und in der Google Cloud, zu entwickeln. Das ist ein unerwarteter Schritt, da bei Google bisher eher die Devise „Cloud only“ lautete. Allerdings hat auch Google in letzter Zeit ähnlich wie Amazon mit technischen Ausfällen zu kämpfen gehabt, was nicht zur Stärkung des Vertrauens in Google beiträgt.

Ein Seitenhieb ist das neue Preismodell. Instanzen werden nun pro Minute (mindestens 10 Minuten Nutzung) abgerechnet. Amazon und auch Microsoft rechnen ihre Instanzen derzeit noch pro Stunde ab. Ob die Erweiterung der „Persistent Disks“ auf bis zu 10 Terabyte zur Diversifikation beiträgt wird sich zeigen. Amazon gilt auch unter Entwicklern als der Vorreiter unter den IaaS Anbietern, was es für Google nicht einfacher machen wird in diesem Segment (Entwickler) ausreichend Marktanteile zu gewinnen. Außerdem darf Google davon ausgehen, dass neben den gewöhnlichen Nutzern, ebenfalls Entwickler keine Lust auf Googles „Service an/aus“ Spielchen haben.

Amazon und Microsoft sind schon einen Schritt voraus

Wo Google mit seiner SaaS Lösung Google Apps seit geraumer Zeit massiv auch Unternehmenskunden angeht, richtet sich die Compute Engine in erster Linie an Entwickler. Amazon und Microsoft haben auch in diesem Kundensegment angefangen, aber längst damit begonnen, ihre Infrastrukturen respektive Plattformen für Unternehmenskunden attraktiver zu machen. Hier wird auf Google noch viel Arbeit zukommen, wenn dieses Kundensegment erschlossen werden soll, was zwangsläufig unumgänglich ist. Allerdings geht es in diesem Bereich um viel mehr als nur Technologien, sondern darum, Vertrauen zu schaffen und organisatorische Themen (Datenschutz, Verträge, SLA, usw.) für wertvoll zu erachten.

Googles Problem: Unbeständigkeit

Keine Frage, bei Google handelt es sich mit Abstand um das innovativste Unternehmen auf unserem Planeten. Aber gleichermaßen auch um das Unbeständigste und Datenhungrigste. Das werden auch Entwickler und speziell Unternehmen beobachtet haben und beide sollten sich die Frage stellen, wie Zukunftssicher das Google Cloud Portfolio überhaupt ist. Wird die Compute Engine ein Erfolg, braucht man sich keine Sorgen machen. Aber was ist, wenn sie für Google(!) zum Ladenhüter wird. Man erinnere sich an den Google Reader, dessen Nutzerzahlen für Google nicht mehr ausreichend genug waren. Hinzu kommt, dass die Compute Engine einen weiteren KPI hat, den Umsatz! Was macht Google, wenn dieser nicht mehr stimmen sollte?!

Kategorien
Analysis

Windows Azure Infrastructure Services – Microsoft is not yet on par with Amazon AWS

That Microsoft, as one of the world’s leading IT companies eventually have to fight with an „online store“ and a „search engine“ for market share, probably, no one ever dared to dream in Redmond. But that is the reality. Amazon and its Amazon Web Services (AWS) are the engine of innovation in the cloud computing market. And even Google is catching up steadily. Google has specifically in the platform-as-a-service (PaaS) market with the App Engine and the software-as-a-service (SaaS) market with Google Apps already well positioned products. Amazon, however, is in the area of infrastructure-as-a-service (IaaS) the absolute market leader. Here also Microsoft attacks now. After Windows Azure was positioned as a pure PaaS on market at the beginning, more and more IaaS components were added successively. With the new release, Microsoft has now officially rolled out the Windows Azure infrastructure services. For many this step comes too late, as a large market share in this area already have been spent to AWS. However, where it initially looks disadvantageous also some benefits, that are overlooked by most, are hidden.

Windows Azure Infrastructure Services at a glance

Basically, the Azure infrastructure services are nothing new. In a public release preview this have already been presented in June 2012. According to Microsoft, „… more than 1.4 million virtual machines have been created and used by hundreds of millions of processor hours.“ In addition, today already more than 50 percent of Fortune 500 companies use Windows Azure and thereby manage a total of more than four trillion data and information on Windows Azure. The capacity for compute and storage solutions double in about every six to nine months. According to Microsoft, every day nearly 1,000 new customers register on Windows Azure.

With the release of Windows Azure infrastructure services, Microsoft’s cloud computing stack has now officially completed. In addition to the operation of virtual machines, the update includes the associated network components. Furthermore, Microsoft now offers support for virtual machines and also the most common Microsoft server workloads such as Microsoft BizTalk or SQL Server 2012. In addition to Windows the Linux operating system is fully valid supported on the virtual machines. The Windows Azure Virtual Networks should also allow hybrid operations.

New instances and updated SLAs

In addition to new virtual instances, for example with more storage capacity of 28GB and 56GB, virtual images are also prepared, such as for BizTalk Server and SQL Server. Prepared Linux images, inter alia CentOS, Ubuntu and Suse Linux Enterprise Server (SLES), are provided by commercial vendors. Furthermore, there are numerous open source applications prepared in the VM Images depot on self-service basis. Microsoft server products including Microsoft Dynamics NAV 2013, SharePoint Server 2013, BizTalk Server 2013 have already been tested from Microsoft to run on the virtual machines.

Furthermore, the Service Level Agreements (SLAs) have been revised. Microsoft guarantees 99.95 percent availability including financial security, if there is a failure on Microsoft’s side. In addition to an SLA for cloud services Microsoft offers seven SLAs specifically for memory, SQL database, SQL Reporting, Service Bus, Caching, CDN and media services.

7/24/365 Support

A Microsoft support team is available every day around the clock. The support plans are divided into four levels from developer support through Premier Support.

Price reduction for virtual machines and cloud services

Such as Amazon AWS also Microsoft passes his savings through economies of scale to its customers. This immediately following new prices and extensions are available:

  • Virtual machines (Windows, default instances), are up to 31 May in reduced prices. The new general availability rates apply from 1 June 2013. For a small instance the new price is € 0.0671 per hour.
  • The prices for virtual machines (Linux) for default instances have been reduced by 25 percent. From 16 April 2013, prices for small, medium, large and extra large instances be reduced by 25 percent. The price for a small Linux instance will be reduced from € 0.0596 per hour to € 0.0447 per hour in all regions.
  • The prices for virtual networks start at € 0.0373 per hour, effective from 1 June 2013. Up to 1 June, customers can use the virtual network for free.
  • The prices of cloud services for Web and Worker roles were reduced by 33 percent for default instances. From 16 April 2013 the price drops for small, medium, large and extra large instances by 33 percent. The price for a small worker role will be reduced from € 0.0894 per hour to € 0.0596 per hour in all regions.

Not too late for the big part of the pie

Even though Microsoft is very late in the highly competitive market for infrastructure-as-a-service does not mean that they missed the boat. In many countries the adaptation of cloud computing just started. In addition, the big money is made at the established corporate clients and only then with the startups. Even Amazon has understood that and has taken the appropriate measures.

Furthermore, the importance of the private cloud, and thus the hybrid cloud increases worldwide. And here the hand already looks quite different. Microsoft has with its Windows Server 2012 a well-placed product for the private cloud, which can be seamlessly integrated with Windows Azure. Here Amazon AWS can just quickly be active with a possible acquisition of Eucalyptus. A first intensive cooperation between the two companies already exists.

However, the Windows Azure infrastructure services are primarily public cloud services. And here it must be said that the diversity of the service portfolio of the Amazon Web Services is still significantly greater than of Windows Azure. For example, services such as Elastic IP or CloudFormation are missing. Nevertheless, Microsoft with its portfolio is currently the only public cloud provider on the market, who can be seriously dangerous for Amazon AWS. Because „infrastructure means more than just infrastructure“ and therefore it is about „making the infrastructure usable„.

See also: Amazon Web Services vs. Microsoft Windows Azure – A direct comparison (to be updated)

And what about Google?

Google should not be underestimated in any case. On the contrary, in a first performance comparison between the Google Cloud Platform and Amazon AWS, Google emerged as the winner. However, the current service portfolio of the Google Cloud Platform is confined in the core of computing power, storage and databases. Other value added services that rely on the platform, are still missing. In addition, Google can currently only be seen as a pure public cloud provider. In the private/ hybrid cloud environment are no products to be found yet. This needs to be improved with collaborations and acquisitions to meet the needs of conservative corporate customers in the future. Especially since Google still has a not to be underestimated reputation problem in data protection and data acquisitiveness. Here more transparency must be shown.

Microsoft is not yet on par with Amazon AWS

With the official release of the Windows Azure infrastructure services, Microsoft has begun to catch up with the Amazon Web Services in infrastructure-as-a-service market. But a game at eye level can not be mentioned here. Because something new, or even innovations can not be found in the new Azure release. Instead, Microsoft only tries to catch up the technology advantage of Amazon AWS with the extension of infrastructure resources, … but that’s it. The degree of innovation by Amazon should not be underestimate, who expand its cloud platform with other disruptive services and functions at regular intervals.

Nevertheless, in the attractive environment for enterprise customers Microsoft is in a good position and has expanded its portfolio with the Azure infrastructure services with another important component towards Amazon. In addition, Microsoft already has a very large on-premise customer base that needs to be transferred to the cloud now. Among them renowned and financially well-positioned companies. And this is precisely the area in which Amazon has still to build trust. Moreover, one should not neglect the ever-growing private cloud market. Here, the hands on both sides are equally quite different.

That Microsoft is not yet on par with Amazon in the IaaS area does not mean that they will not be successful. It is not necessarily decisive, to be the first on the market and have the best product, but to persuade its existing and potential customers expect to provide an added value. And it would not be the first time that Microsoft would do this.

Kategorien
Analysen

Windows Azure Infrastruktur Services – Microsoft ist noch nicht auf Augenhöhe mit Amazon AWS

Das Microsoft, als eines der weltweit führenden IT-Unternehmen, irgendwann einmal mit einem „Online-Shop“ und einem „Suchmaschinenanbieter“ um Marktanteile kämpfen muss, hätte in Redmond wahrscheinlich auch niemand jemals zu träumen gewagt. Jedoch ist das die Realität. Amazon ist mit seinen Amazon Web Services (AWS) mit Abstand der Innovationsmotor im Cloud Computing Markt. Und auch Google holt stetig auf. Google hat speziell im Platform-as-a-Service (PaaS) Markt mit der App Engine und dem Software-as-a-Service (SaaS) Markt mit Google Apps bereits gut positionierte Produkte. Amazon ist hingegen im Bereich Infrastructure-as-a-Service (IaaS) der absolute Marktführer. Und hier greift nun auch Microsoft an. Nachdem Windows Azure zu Beginn als reiner PaaS am Markt positioniert wurde, sind sukzessive IaaS Komponenten hinzugefügt worden. Mit seinem neuen Release hat Microsoft nun offiziell die Windows Azure Infrastruktur Services ausgerollt. Für viele kommt dieser Schritt zu spät, da bereits große Marktanteile in diesem Bereich an AWS abgeflossen sind. Allerdings, wo es zunächst nachteilig ausschaut, verbergen sich auch einige Vorteile, die von den meisten übersehen werden.

Windows Azure Infrastruktur Services im Überblick

Grundsätzlich sind die Azure Infrastruktur Services nichts Neues. In einer öffentlichen Release Preview wurden diese bereits im Juni 2012 vorgestellt. Nach Aussage von Microsoft wurden seitdem „… mehr als 1,4 Millionen virtuelle Maschinen erstellt und mit mehreren hundert Millionen Prozessorstunden genutzt.“ Zudem sollen heute schon mehr als 50 Prozent der Fortune 500 Unternehmen Windows Azure nutzen und dabei insgesamt mehr als vier Billionen Daten und Informationen auf Windows Azure verwalten. Die Kapazitäten für Compute- und Storage-Lösungen verdoppeln sich in etwa alle sechs bis neun Monate. Laut Microsoft melden sich inzwischen täglich fast 1.000 neue Kunden für Windows Azure an.

Mit dem Release der Windows Azure Infrastruktur Services hat Microsoft seinen Cloud Computing Stack nun auch offiziell vervollständigt. Neben dem Betrieb von virtuellen Maschinen umfasst das Update die dazugehörigen Netzwerkkomponenten. Weiterhin bietet Microsoft nun auch Support für virtuelle Maschinen und auch die gängigsten Microsoft Server Workloads wie zum Beispiel Microsoft BizTalk oder SQL Server 2012. Neben Windows wird auf den virtuellen Maschinen auch das Linux Betriebssystem vollwertig unterstützt. Die Windows Azure Virtual Networks sollen zudem einen echten Hybridbetrieb ermöglichen.

Neue Instanzen und aktualisierte SLAs

Neben neuen virtuellen Instanzen mit zum Beispiel mehr Speicherkapazität von 28GB und 56GB, stehen auch vorbereitete virtuelle Images, z.B. vom BizTalk Server und SQL Server zur Verfügung. Vorbereitete Linux-Images, u.a. CentOS, Ubuntu und Suse Linux Enterprise Server (SLES), werden von kommerziellen Händlern bereitgestellt. Weiterhin stehen zahlreiche Open-Source-Anwendungen als vorbereitete Images im VM Depot auf Self-Service-Basis zur Verfügung. Microsoft Server-Produkte einschließlich Microsoft Dynamics NAV 2013, SharePoint Server 2013, BizTalk Server 2013 wurden für die Ausführung auf den virtuellen Maschinen von Microsoft bereits getestet.

Weiterhin wurden die Service Level Agreements (SLAs) überarbeitet. Microsoft garantiert eine 99,95 prozentige Verfügbarkeit inkl. finanzieller Absicherung, wenn es zu einem Ausfall auf Microsofts Seite kommt. Neben einem SLA für die Cloud Services bietet Microsoft sieben weitere SLAs speziell für Speicher, SQL-Datenbank, SQL Reporting, Service Bus, Caching, CDN und die Medienservices.

7/24/365 Support

Ein Microsoft Support-Team steht jeden Tag rund um die Uhr zur Verfügung. Die Support-Pläne unterteilen sich in vier Stufen vom Entwicklersupport bis hin zum Premier Support.

Preissenkungen für virtuelle Maschinen und Cloud-Services

Wie Amazon AWS gibt auch Microsoft seine Ersparnisse durch den Economies of Scale an seine Kunden weiter. Dazu stehen ab sofort folgende neue Preise und Erweiterungen bereit:

  • Virtuelle Maschinen (Windows, Standardinstanzen) gibt es bis zum 31. Mai zu reduzierten Preisen. Die neuen allgemeinen Verfügbarkeitspreise gelten ab dem 1. Juni 2013. Für eine kleine Instanz gilt der neue Preis 0,0671 € pro Stunde.
  • Die Preise für virtuelle Maschinen (Linux) für Standardinstanzen wurden um 25 Prozent gesenkt. Ab dem 16. April 2013 werden die Preise für kleine, mittlere, große und sehr große Instanzen um 25 Prozent gesenkt. Der Preis für eine kleine Linux-Instanz beispielsweise wird von 0,0596 €pro Stunde auf 0,0447 € pro Stunde in allen Regionen gesenkt.
  • Die Preise für virtuelle Netzwerke starten bei 0,0373 € pro Stunde, gültig ab dem 1. Juni 2013. Bis zum 1. Juni können Kunden das virtuelle Netzwerk kostenlos nutzen.
  • Die Preise für Cloud-Services für Web- und Workerrollen wurden um 33 Prozent für Standardinstanzen gesenkt. Ab dem 16. April 2013 sinkt der Preis für kleine, mittlere, große und sehr große Instanzen um 33 Prozent. Der Preis für eine kleine Workerrolle beispielsweise wird von 0,0894 € pro Stunde auf 0,0596 € pro Stunde in allen Regionen gesenkt.

Nicht zu spät für den großen Teil vom Kuchen

Auch wenn Microsoft in dem mittlerweile sehr stark umkämpften Markt für Infrastructure-as-a-Service spät dran ist, bedeutet es nicht, dass der Zug abgefahren ist. In vielen Ländern beginnt gerade erst die Adaption des Cloud Computing. Darüber hinaus wird das große Geld bei den etablierten Unternehmenskunden verdient und erst dann bei den Startups dieser Welt. Das hat auch Amazon verstanden und entsprechende Maßnahmen eingeleitet.

Weiterhin nimmt die Bedeutung der Private Cloud und somit auch der Hybrid Cloud weltweit zu. Und hier sieht das Blatt dann bereits ganz anders aus. Microsoft hat mit seinem Windows Server 2012 ein gut platziertes Produkt für die Private Cloud, was sich nahtlos mit Windows Azure integrieren lässt. Hier kann Amazon AWS nur über eine mögliche Eucalyptus Acquisition schnell aktiv werden. Eine erste intensive Kooperation beider Unternehmen besteht bereits.

Allerdings, die Windows Azure Infrastruktur Services sind in erster Linie Public Cloud Services. Und hier muss man sagen, dass die Vielfalt des Service-Portfolios der Amazon Web Services noch deutlich größer ist als das von Windows Azure. Zum Beispiel fehlen Services wie Elastic IP oder CloudFormation. Dennoch, Microsoft ist mit seinem Portfolio derzeit der einzige Public Cloud Anbieter am Markt, der Amazon AWS ernsthaft gefährlich werden kann. Denn „Infrastruktur bedeutet mehr als nur Infrastruktur“ und daher heißt es „die Infrastruktur nutzbar machen„.

Siehe: Amazon Web Services vs. Microsoft Windows Azure – Ein direkter Vergleich (wird aktualisiert)

Und was ist mit Google?

Google darf auf keinen Fall unterschätzt werden. Im Gegenteil, aus einem ersten Performance-Vergleich zwischen der Google Cloud Platform und Amazon AWS ging Google als Sieger hervor. Allerdings beschränkt sich das aktuelle Serviceportfolio der Google Cloud Platform im Kern auf Rechenleistung, Speicherplatz und Datenbanken. Weitere Mehrwertservices, die auf der Plattform aufsetzen, fehlen noch. Darüber hinaus ist Google derzeit als reiner Public Cloud Anbieter zu sehen. Im Private/ Hybrid Cloud Umfeld sind bisher keine Produkte zu finden. Hier müsste mit Kooperationen bzw. Akquisitionen nachgebessert werden, um auch in Zukunft die Bedürfnisse von konservativen Unternehmenskunden zu befriedigen. Zumal Google weiterhin ein nicht zu unterschätzendes Reputationsproblem hinsichtlich Datenschutz und Datensammelwut hat. Hier muss noch mehr Transparenz gezeigt werden.

Microsoft ist noch nicht auf Augenhöhe mit Amazon AWS

Mit der offiziellen Veröffentlichung der Windows Azure Infrastruktur Services hat Microsoft damit begonnen zu den Amazon Web Services im Infrastructure-as-a-Service Markt aufzuschließen. Von einem Spiel auf Augenhöhe kann hier aber noch nicht die Rede sein. Denn etwas Neuartiges oder gar Innovationen lassen sich im neuen Azure Release nicht finden. Stattdessen wird lediglich versucht den Technologievorsprung von Amazon AWS mit der Erweiterung von Infrastruktur-Ressourcen aufzuholen, mehr aber nicht. Dabei darf man nicht den Innovationsgrad von Amazon unterschätzen, die in regelmäßigen Abständen ihre Cloud Plattform mit weiteren disruptiven Services und Funktionen ausbauen.

Dennoch, für das attraktive Umfeld für Unternehmenskunden ist Microsoft in einer guten Ausgangsposition und hat sein Portfolio mit den Azure Infrastruktur Services um eine weitere wichtige Komponente gegenüber Amazon erweitert. Darüber hinaus verfügt Microsoft bereits über eine sehr große on-Premise Kundenbasis, die nun in die Cloud überführt werden muss. Darunter renommierte und finanziell gut aufgestellte Unternehmen. Und das ist genau der Bereich in dem Amazon erst noch Vertrauen aufbauen muss. Zudem sollte man den stetig wachsenden Private Cloud Markt nicht vernachlässigen. Hier sehen die Karten auf beiden Seiten gleich ganz anders aus.

Das Microsoft im IaaS Bereich noch nicht auf Augenhöhe mit Amazon ist, bedeutet nicht, dass sie nicht erfolgreich sein werden. Es ist zwangsläufig nicht entscheidend, als erster am Markt zu sein und das beste Produkt zu haben, sondern seine bestehenden und potentiellen Kunden davon zu überzeugen, einen Mehrwert zu bieten. Und es wäre nicht das erste Mal, dass Microsoft dies schaffen würde.