Kategorien
Analysen

Amazon AWS baut Rechenzentrum in Deutschland: Nette Idee!

Die Amazon Web Services werden eine neue Cloud-Region speziell für den deutschen Markt mit einem Rechenzentrum in Deutschland (Frankfurt) eröffnen. Aber ist das wirklich so spannend für die deutschen Unternehmen?

Amazon AWS landet in Deutschland

Amazon AWS hat die Bedeutung des deutschen Marktes und die Bedenken deutscher Unternehmen scheinbar erkannt. Crisp Research weiß aus sicheren Quellen, dass der Cloud-Anbieter in den kommenden Wochen eine Cloud-Region für den deutschen Markt mit einem Standort in Frankfurt eröffnen wird.

Nachdem Salesforce einen deutschen Rechenzentrumsstandort angekündigt hat, folgt mit Amazon der nächste große US-amerikanische Cloud-Anbieter. Dies zeigt erneut die Attraktivität des Standorts Deutschland. Schließlich behandeln die meisten amerikanischen Unternehmen den deutschen Markt ansonsten eher stiefmütterlich. Typischerweise versorgt der Großteil der amerikanischen Cloud-Anbieter den europäischen Markt über Rechenzentren in Irland (Dublin) und den Niederlanden (Amsterdam). Das verringert bei vielen deutschen, vornehmlich mittelständischen Unternehmen, die Attraktivität. Beratungsgespräche mit IT-Anwendern zeigen ständig, dass das Speichern von Daten außerhalb von Deutschland und ein Vertragswerk, das maximal auf europäischem Recht beruht, nicht gerne gesehen wird.

AWS Portfolio: Annäherung an die Enterprise-IT

Neben dem Rechenzentrumsstandort hat Amazon mit AWS CloudTrail bereits im letzten Jahr einen ersten Service vorgestellt, um Unternehmen mehr Kontrolle über die Compliance zu ermöglichen. AWS CloudTrail hilft beim Überwachen und Aufzeichnen der AWS API Aufrufe von einem oder mehrerer Accounts. Dabei werden Aufrufe über die AWS Management Console, dem AWS Command Line Interface (CLI), von eigenen Anwendungen oder Anwendungen von Drittanbietern berücksichtigt. Die erhobenen Daten werden entweder in Amazon S3 oder Amazon Glacier zur Auswertung gespeichert und lassen sich über Tools von AWS oder externen Anbietern betrachten. Derzeit lassen sich nur Amazon EC2, Amazon ECS, Amazon RDS und Amazon IAM überwachen. Amazon CloudTrail kann kostenlos genutzt werden. Kosten entstehen für das Speichern der Daten auf Amazon S3 und Amazon Glacier sowie für die Benachrichtigungen über Amazon SNS.

AWS CloudTrial gehört zu den wichtigsten Services für Unternehmenskunden, die Amazon in der letzten Zeit veröffentlicht hat. Die gesammelten Logdateien helfen bei der Compliance, indem sie sämtliche Zugriffe auf AWS Services aufzeichnen und damit das Einhalten von gesetzlichen Rahmenbedingungen nachweisen können. Ebenso verhält es sich mit Sicherheitsaudits, bei denen sich damit Sicherheitslücken und unberechtigte oder fehlerhafte Zugriffe auf Daten nachvollziehen lassen.

Unternehmenskunden quo vadis?

Nachdem sich AWS als führender Infrastrukturanbieter und Enabler für Startups und neue Geschäftsmodelle in der Cloud etabliert hat, versucht das Unternehmen aus Seattle schon seit geraumer Zeit einen Fuß direkt in das lukrative Unternehmensumfeld zu bekommen. Es bleibt allerdings eine Frage offen. Wird das ausreichen, um eine kritische Masse deutscher Unternehmen zu erreichen, um sich von einem Anbieter für Startups und Entwickler zu einer ernsthaften Alternative für IT-Workloads für Unternehmen zu entwickeln?

Ja, unter bestimmten Voraussetzungen:

  •            Unternehmensrelevante Services müssen ebenfalls direkt in anderen Regionen bereitgestellt werden und nicht vorerst nur in den US-Regionen.
  •           AWS benötigt ein Partnernetzwerk, um an die Masse an attraktiven deutschen Unternehmenskunden zu gelangen.
  •           Die Lokalisierung von sämtlichen Informationen, wie White Paper, HowTos und Schulungen ist kritisch.
  •           Weniger Self-Service, mehr Managed Services und Professional Services, z.B. über das Partnernetzwerk.
  •           Verringerung der Komplexität durch Vereinfachung der Nutzung des Scale-Out Prinzips.
  •           Cloud Connectivity für die zuverlässige Anbindung an die Services.
  •           Vermeidung des Service Lock-in.
  •           Stärkung des AWS Marketplace für einfachere Nutzung von skalierbaren Standardworkloads und Applikationen.
  •           Berücksichtung von Hybrid Cloud Szenarien und Stärkung des Partners Eucalyptus auf der Private Cloud Seite.

Anmerkung zur Eucalyptus Partnerschaft: Nahezu alle Eucalyptus Kunden sollen ebenfalls AWS Kunden sein (Quelle: Eucalyptus). Das bedeutet im Umkehrschluss, dass einige Hybrid Cloud Infrastrukturen zwischen on-Premise Eucalyptus Infrastrukturen und der Amazon Public Cloud bestehen.

Die bestehenden Fragezeichen: Microsoft und Google

Mittelständische Unternehmen fordern von Cloud-Anbietern, dass die Daten in einem deutschen Rechenzentrum gespeichert werden. Etwa 75 Prozent sehen darin die Notwendigkeit, um durch physische Lokalität der Daten das deutsche Recht einfacher anwendbar zu machen.

Nach Salesforce, IBM und Amazon bleiben lediglich zwei wichtige Cloud Anbieter übrig, von denen Investitionen in diese Richtung zu erwarten wären.

Über Google darf man leider getrost sagen, dass zu diesem Thema über kurz oder lang nichts passieren wird. Die DNA und Mentalität des Unternehmens hinsichtlich Datenlokalität und Kundenbedenken weicht von denen anderer Anbieter zu stark ab.

Bei Microsoft liegen die Karten grundsätzlich gut. Allerdings brauchen die Redmonder diese vorerst nicht ausspielen. Microsoft verfolgt eine andere Strategie, indem mit dem Cloud OS Partnernetwork  weltweit lokale Anbieter (z.B. Pironet NDH in Deutschland) dazu ermächtigt werden, mit dem sogenannten „Azure Pack“ eine eigene auf  Microsoft Azure basierende Cloud-Infrastruktur in einem gehosteten Modell aus einem lokalen Rechenzentrum anzubieten.

Wie sich der Trend lokaler Rechenzentren entwickeln wird bleibt abzuwarten. Unterm Strich ist Deutschland und speziell der Standort Frankfurt, u.a. auf Grund des DE-CIX, gut darauf vorbereitet, weitere internationale Cloud-Anbieter aufzunehmen. Eine wichtige Erkenntnis aus dieser Entwicklung ist, dass internationale Anbieter die Bedenken verstanden haben und gewillt sind Kompromisse einzugehen, was am Ende dem Anwender zu Gute kommen wird.

Kategorien
Analysen

Marketplace: Das OpenStack Momentum wird größer

Die OpenStack Community hat einen Marktplatz veröffentlicht, mit dem sich Nutzer über OpenStack Public Clouds, Distributionen, Integratoren und Schulungen informieren können.  Über 4000 Teilnehmer des OpenStack Summit zeigen, dass die Open-Source Cloud-Infrastruktursoftware deutlich an Momentum gewinnt.

Hintergrund: Der OpenStack Marketplace

Der OpenStack Marketplace richtet sich an Unternehmen und Organisationen, die OpenStack basierende Clouds aufbauen oder nutzen wollen. Die Community reagiert, nach eigenen Angaben, damit auf die Menge an Anfragen, wie die ersten Schritte mit OpenStack aussehen sollten. Hierzu startet der Markplatz mit fünf Kategorien für Public Clouds, Distributionen, Schulungen, Beratungen- und Integrationsanbieter sowie Treiber für Hardware und API Unterstützung. OpenStack Nutzer sollen damit die Möglichkeit erhalten, Produkte und Services miteinander zu vergleichen die am besten zu ihren Anforderungen passen. Um in den Marktplatz aufgenommen zu werden müssen alle Produkte und Services vorgegebene technische Anforderungen erfüllen und Produktinformationen wie die OpenStack Version und weitere Eigenschaften transparent angeben.

Funktionen des Marktplatzes

Der Marktplatz soll die Qualität des OpenStack Ökosystems verbessern, indem allen Anbietern Standards auferlegt werden sollen, die Public Cloud Services als auch Distributionen und Appliances anbieten. Anhand des Bereiches „Driver“ können sich Nutzer darüber informieren, ob zu ihrer vorhandenen Server-, Speicher- und Netzwerkhardware entsprechende OpenStack Treiber zur Verfügung stehen. Hierzu lässt sich vergleichen, welche OpenStack Version zu welcher Technologie kompatibel ist, um die Integration vorzunehmen. Um den Nutzern Kontrolle zu geben, bietet der Marktplatz ebenfalls die Möglichkeit die Erfahrungen mit dem OpenStack Ökosystem zu bewerten und zu kommentieren.

Kategorien des Marktplatzes

Public Clouds

Der Bereich fasst globale Public Infrastructure-as-a-Service Angebote auf Basis von OpenStack zusammen. Zu den Aufnahmekriterien gehört eine Infrastruktur auf Basis einer aktuellen OpenStack Version und der Zugriff die OpenStack APIs.

OpenStack-Marketplace_Public-Clouds

Distributionen

Die Kategorie umfasst OpenStack Distributionen, die für den Aufbau und Betrieb von Public, Private und Hybrid Cloud Infrastrukturen. Die Distribution muss auf einer aktuellen OpenStack Version basieren und den Zugriff auf die APIs ermöglichen.

Integratoren und Berater

Der Marktplatz bietet eine Auswahl weltweit tätiger Integrations- und Beratungsanbieter, die bei dem Aufbau und Betrieb OpenStack basierter Cloud-Infrastrukturen helfen.

Schulungen

Der Schulungsbereich des Marktplatzes existiert bereits seit September 2013 und wird nach Angaben der OpenStack Community stark nachgefragt. Seit dem Start wurden bisher 250 Kurse verteilt über 30 Länder hinweg angeboten.

Treiber

Zur letzten Kategorie zählt die „Driver“-Sektion. Die OpenStack Community stellt in diesem Bereich Treiber zur Verfügung, die mit OpenStack kompatible sind und arbeitet in diesem Zusammenhang eng mit den Herstellern zusammen.

Das OpenStack Momentum wird stetig größer

OpenStack lässt sich für unterschiedliche Szenarien als Infrastrukturunterbau von Public, Private und Hybrid Clouds aufbauen. Crisp Research hält die Erweiterung des Marktplatzes für einen wichtigen Schritt durch die Community, um Nutzer auf dem Weg zur eigenen OpenStack Cloud oder dem Einsatz einer OpenStack Infrastruktur bei einem Anbieter zu unterstützen. Hierfür ist es erforderlich die richtige Mischung von Produkten, Services und Ressourcen aus der Community zu finden, um erfolgreich zu sein.

Gleichzeitig wird der Marktplatz die Qualität des Projekts selbst, aber vor allem die der Angebote verbessern und damit die Attraktivität bei potentiellen Nutzern erhöhen, sich für eine OpenStack Distribution oder Cloud zu entscheiden. Weiterhin dient der Marktplatz als Kontrollinstanz, um die Qualität durch die Nutzer zu bewerten.

OpenStack-Deployments_Q1-Q2_2014

 

Das OpenStack Momentum wird deutlich wenn man sich die Zahlen des kürzlich vergangenen OpenStack Summit anschaut. Mehr als 4000 Teilnehmer zeigen die wachsende Bedeutung der Open-Source Cloud-Infrastruktursoftware. Ebenso verhält es sich mit aktuellen Einsatzzahlen von OpenStack. Die weltweiten Projekte sind im Vergleich zum Januar 2014 um 60 Prozent weiter angestiegen.

Hierbei liegen On-Premise Private Cloud Installationen an der Spitze. Wurden im Januar noch 55 Installationen weltweit gezählt, sind es im Mai bereits 85. Auch die Anzahl der weltweiten OpenStack Public Clouds wuchs von 17 auf 29.

Insbesondere die Mitglieder der OpenStack Community werden von dem Marktplatz profitieren, um einen direkten Kontakt zu potentiellen IT-Einkäufern und Entscheidern, die aktiv am Auswahlprozess beteiligt sind. Das sollten auch Anbieter aus dem deutschsprachigen Raum, wie die B1 Systems GmbH (Deutschland) oder ICCLAB (Schweiz) für sich nutzen.

Kategorien
Analysen

Red Hat Openshift Marketplace: Der Ökosystem-Wahnsinn nimmt kein Ende

Red Hat präsentiert mit dem OpenShift Marketplace ein Ökosystem für Services von Partnern, mit denen sich Applikationen auf dem Platform-as-a-Service erweitern lassen. Crisp Research sieht darin keine Innovation hält dies aber für einen wichtigen Schritt.

Red Hat hat mit dem OpenShift Marketplace  ein Ökosystem vorgestellt, mit denen Nutzer des Platform-as-a-Service (PaaS) Lösungen von Drittanbietern für ihre eigenen Cloud Applikationen testen und integrieren können. Nach Angaben von Red Hat erhält die Public Variante von OpenShift damit exakt dieselben Möglichkeiten eines Partner Ökosystems, wie sie bereits für Enterprise Kunden auf der on-Premise Seite zur Verfügung stehen.

OpenShift Marketplace: Einer von Vielen 

Es stellt sich die Frage, ob ein weiterer Marketplace notwendig ist. Auf der einen Seite handelt es sich dabei um nichts Neues. Andere PaaS Anbieter wie Heroku oder cloudControl verfolgen seit langem dieselbe Strategie und stellen anhand von “Add-ons” ein ähnliches Ökosystem für die Erweiterung von PaaS Applikationen bereit. Allerdings hat Red Hat einen guten Grund zu folgen, was sich ebenfalls positiv auf die Kundenbasis auswirken wird. Zu Lösungen auf dem Marketplace zählen bereits Blazemeter (Lasttest-as-a-Service), MongoLab (MongoDB-as-a-Service), ClearDB (MySQL-as-a-Service), NewRelic (Application Performance Monitoring und Analytics) und Sendgrid (E-Mail-as-a-Service).

Insbesondere für kleinere Partner bildet das OpenShift Ökosystem eine ideale Vermarktungsplattform, um mehr Aufmerksamkeit auf die eigenen Services zu ziehen.

Während der Gesamtmarkt für Platform-as-a-Services erst langsam in Fahrt kommt, schaut es bei OpenShift etwas anders aus. Red Hat hat es geschafft seine Technologien Cloud-fähig zu machen und sowohl für Private als auch Public Szenarien anzubieten. Gleichzeitig setzen deutsche Anbieter wie T-Systems und Pironet NDH auf OpenShift um in einer gehosteten Variante einen PaaS in einem deutschen Rechenzentrum zu betreiben. Red Hat zeigt mit OpenShift darüber hinaus, dass es zu Recht als Open Source Koryphäe gilt. So setzt Red Hat für OpenShift als Infrastrukturbasis auf die Open Source Cloud-Infrastruktursoftware OpenStack

In einem aktuellen Report hat Crisp Research die wichtigsten Hintergründe  zum OpenStack Einsatz in Unternehmen verfasst.

Cloud Marketplaces gehören zu einem vollständigen Portfolio

Cloud Marketplaces gehören mittlerweile zur Grundausstattung der meisten Cloud Anbieter. Die Vielzahl der großen Anbieter wie Amazon Web Services, Google und Salesforce haben eigene bereits seit langem im Portfolio. Die grundsätzliche Idee besteht darin, den eigenen Kunden diejenigen Technologien von Drittanbietern aufzuzeigen, die mit einem führenden Anbieter zusammenarbeiten und damit selbst die eigene Marktposition zu festigen.

Weitere Hintergründe und die Bedeutung von Cloud Marketplaces sind im Artikel “Cloud Marketplaces sind die Zukunft des Cloud Computing” zu finden.

Kategorien
Analysen

Report: Amazon AWS vs. Microsoft Azure – Die Public Cloud Giganten im Vergleich

Nachdem Microsoft in den letzten Jahrzehnten mit Anbietern wie Novell, Oracle, IBM oder HP um on-Premise Marktanteile kämpfen musste, hat sich mit den Amazon Web Services ein neuer Gigant in der Public Cloud etabliert, der nun verstärkt seine Fühler in Richtung der Unternehmenskunden ausstreckt. Ein Markt, der vorwiegend von Microsoft beherrscht wird und einenormes Potential für die Anbieter offenbart. Marktprognosen von Crisp Research zeigen in den nächsten Jahren ein deutliches Wachstum von 40 Prozent pro Jahr, wodurch sich die Umsätze alleine in Deutschland im Jahr 2018 auf 28 Milliarden Euro belaufen werden. Dieser Analyst Report vergleicht das Service-Portfolio sowie die Strategie der Amazon Web Services mit denen von Microsoft Azure.

Der Report steht kostenlos unter AWS vs. Azure: Duell um die Vormachtstellung  in der Public Cloud zum kostenlosen Download zur Verfügung.

 

 

Kategorien
Analysen

Cloud und Unternehmen: Google steht sich selbst im Weg

Google hat auf seinem Event Google Cloud Platform Live einige Neuigkeiten für sein Infrastruktur- und Plattform Angebot angekündigt und gleichzeitig die Preise radikal gesenkt. Ein Blick in die Nutzungsbedingungen der Google Cloud Platform und das Verhalten zeigen allerdings, dass Google den Markt weiterhin nicht verstanden hat und sich klar und deutlich als rücksichtsloser Datensauger positioniert.

Auf dem Google Cloud Platform Live Event hat Senior Vice President Urs Hölzle beachtenswerte Zahlen über die Nutzung der Google Cloud Platform gezeigt. Demnach sollen in etwa 4,75 Millionen aktive Applikationen auf der Plattform laufen sowie 6,3 Billionen Datenabfragen und 28 Milliarden Front-End Anfragen pro Tag stattfinden. Allerdings sollte an dieser Stelle in Betracht gezogen werden, dass die Google Cloud Platform sich u.a. aus der Google Compute Engine (GCE), der Google App Engine (GAE) und weiteren einzelnen Services zusammensetzt und speziell die GAE bereits seit nun mehr sechs Jahren am Markt aktiv ist. Damit sind diese Zahlen weiterhin beachtenswert, sollten aber auch nicht überwertet werden.

Die Preise für IaaS Ressourcen fallen weiter gegen Null

Mit einer radikalen Preisreduzierung will Google sich attraktiver gegenüber den Amazon Web Services aufstellen. Die Preise für den Big Data Analytics Service BigQuery werden daher um satte 85 Prozent reduziert. Der Preis für Cloud Storage Service fällt um bis zu 65 Prozent. Die Kosten für die virtuellen Maschinen der Compute Engine werden für alle Regionen, Typen und Größen um bis zu 32 Prozent gesenkt.

Einen Tag später kündigte Amazon AWS auf seinem AWS Summit 2014 in San Francisco seine insgesamt 42te Preissenkung an. Die Preise für Amazon S3 werden demnach im Schnitt um weitere 51 Prozent gesenkt. Für das erste Terrabyte an Daten kostet 1 GB Speicherplatz bei AWS nun 0,085 US-Dollar, bei Google 0,026 US-Dollar. Die Preise für eine AWS M3 Instanz wurden um 38 Prozent gesenkt und kostet statt ehemals 0,113 US-Dollar ab dem 1. April nun 0,07 US-Dollar pro Stunde.

Auch Microsoft hat mittlerweile reagiert und seine Preise für Azure reduziert.

Crisp Research rät anderen IaaS Anbietern, sich nicht auf diesen Preiskampf einzulassen und stattdessen in Services zu investieren, die den Kunden einen echten Mehrwert bieten. Gegen die Economies of Scale von Amazon AWS, Google oder Microsoft wird es langfristig  schwer sein, profitabel mitzuhalten.

Google holt technisch auf

Neben den Preissenkungen hat Google ebenfalls technische Erneuerungen angekündigt. Dazu gehören sogenannte Managed Virtual Machines (VM) für die App Engine, die laut Google mit ein paar Codezeilen automatisch gestartet und verwaltet werden können. Diese Art der VM soll die Stabilität der Compute Engine mit den programmierbaren Kontrollmöglichkeiten durch die App Engine kombinieren.

Weiterhin wird die Compute Engine nun weitere Betriebssystemimages unterstützen. Darunter Red Hat Enterprise Linux und SUSE Linux Enterprise Server. In einer Limited Preview wird ebenfalls der Windows Server 2008 R2 bereitgestellt.

Der BigQuery Service wurde so erweitert, dass nun 100.000 Datensätze pro Sekunde abgefragt werden können, um damit die Analyse großer Datenströme zu ermöglichen. Diese und weitere Verbesserungen dienen grundsätzlich dazu, um Services und Applikationen für andere Google Angebote wie Android, Chrome usw. zu entwickeln und mit Googles anderen Services und Plattformen zu verbinden.

Google hegt und pflegt das Image der Datenkrake

Trotz der Preissenkungen und technischer Erneuerungen lohnt ein Blick in die Nutzungsbedingungen der Google Cloud Platform. Hier findet sich unter 1.2 der Lizenzvereinbarungen:

“By submitting, posting, generating, or displaying any Application and/or Customer Data on or through the Services, Customer gives Google a worldwide, non-sublicensable, non-transferable, non-exclusive, terminable, limited license to use any Application and/or Customer Data for the sole purpose of enabling Google to provide, maintain, protect, and improve the Services in accordance with the Agreement.” Quelle: https://developers.google.com/cloud/terms/

In einem Satz zusammengefasst bedeutet diese Passage nichts anderes als dass Google sich das Recht einräumt, sämtliche Applikationen und Kundendaten für bestimmte eigene Zwecke zu verwenden. Da diese Zwecke nicht weiter spezifiziert bzw. eingeschränkt sind, rät Crisp Research Unternehmen und professionellen Entwicklern von jeglicher Nutzung des Service ab, um rechtliche Probleme mit den eigenen Kunden zu vermeiden.

Google bevormundet seine Kunden

Unterm Strich ist Googles größtes Problem allerdings, dass der Suchmaschinenanbieter nicht wie ein kundenorientiertes Unternehmen handelt. Anbieter wie beispielsweise Salesforce, Microsoft oder Amazon stellen sich hierbei ganz anders auf. Ganz im Gegenteil, Google versucht ständig seine Nutzer zu bevormunden und ihnen aufzuzwingen wie und nach welchen Regeln sie zu handeln haben. Das mag bei technisch nicht versierten Privatnutzern vielleicht funktionieren. Schließlich sind die Alternativen sehr gering. Mit erfahrenen Administratoren, CIOs und Entwicklern kann man so langfristig allerdings nicht umgehen.

Ein Zeichen dafür sind die oben angesprochenen Nutzungsbedingungen der Google Cloud Platform. Aber auch Googles Umgang mit den Kunden im Rahmen von Portfoliobereinigungen der eigenen Services zeigt, dass Google noch lange nicht in der Welt der Enterprise-IT angekommen ist. Dienste kurzfristig abzuschalten, ohne eine echte Alternative anzubieten (vgl. Google RSS Reader), ist in der Welt der Unternehmens-IT nicht akzeptabel.

Im Rahmen vieler Gespräche mit CIOs und IT-Entscheidern im Mittelstand, hat sich für Crisp Research klar gezeigt, dass langfristiges Commitment und somit die Aufrechterhaltung der Services ein absolut kritischer Punkt für die Anwender ist.

Für Unternehmen hat die Google Cloud Platform derzeit keine Relevanz

Google hat, auf Grund seiner App Engine, definitiv eine große Verbreitung in der Entwickler Community. Für Workloads von Unternehmen ist die Google Cloud Platform aber derzeit keine Option und kann nicht mit Angeboten von Amazon AWS, IBM Softlayer oder Microsoft Azure mithalten.

Entwickler und Startups sind eine nicht zu unterschätzende Kundengruppe. Aber das große Geld wird bei den Unternehmenskunden verdient. Damit ist es, nicht nur für Google sondern ebenfalls für AWS, wichtig sich auf die Bedürfnisse der Unternehmen einzulassen und mit entsprechenden Services und Lösungen zu reagieren. Amazon AWS hat dies mit CloudTrail und WorkSpaces verstanden. Von Google sind bisher keine Ansätze zu erkennen. Das gilt ebenfalls für die doch sehr Google native App Engine. Andere PaaS Angebote wie Red Hat OpenShift oder IBM BlueMix sind deutlich offener gestaltet und passen besser in die Cloud Strategie von Unternehmenskunden.

Weiterhin ist es wichtig eine horizontale Variationsvielfalt zu bieten. Google als auch Amazon bieten ausschließlich Public Cloud Services, das war’s. IBM und Microsoft hingegen sind in der Lage von Public über Private bis hin zu Hybrid Cloud Szenarien anzubieten und das inklusive weiteren Dienstleistungen und Professional Services. Das bedeutet, dass beide Unternehmen in der Lage sind auf die Deployment-Anforderungen und Bedürfnisse ihrer Kunden eingehen zu können, wodurch die horizontale Angebotsbreite das Maximum im Markt bietet.

Trotz angeblich 4,75 Millionen aktiven Applikationen und täglich 6,3 Billionen Datenabfragen, sieht Crisp Research in der Google Cloud Platform derzeit noch keine Alternative für Unternehmenskunden. Nicht nur die Nutzungsbedingungen zeigen, dass Google die Bedenken rücksichtslos übersieht und versucht, seine Interessen uneingeschränkt durchzusetzen. Anbieter wie IBM, Microsoft und Amazon hingegen sind deutlich näher an den Kunden und verstehen deren Bedürfnisse.  Google geht es im Online-Werbegeschäft derzeit immer noch zu gut. Das Cloud-Business macht derzeit deutlich weniger als ein Prozent des Konzernumsatzes aus und ist noch lange nicht profitabel. Google muss sich weiterhin deutlich zu seinem Cloud-Portfolio bekennen, eine klare Roadmap aufstellen und sich ebenfalls daran halten. Nur so kann der Suchmaschinenriese  Vertrauen bei seinen Cloud-Kunden aufbauen.

Kategorien
Analysen

Salesforce baut Rechenzentrum in Deutschland. Wann folgen Amazon, Microsoft Google und Co.?

Salesforce wird im Jahr 2015 einen Rechenzentrumsstandort in Deutschland eröffnen. Crisp Research hält den Schritt als den einzig logisch Richtigen um deutsche Unternehmenskunden anzuziehen. Es bleibt allerdings die Frage offen, warum die anderen großen Cloud Player wie Amazon AWS, Microsoft und Google nicht schon lange in Deutschland gelandet sind!

Salesforce expandiert nach Europa

Nach einem Umsatzwachstum von 41 Prozent für das Finanzjahr 2014 wird der CRM Anbieter Salesforce seine Aktivitäten für das Finanzjahr 2015 in Europa weiter verstärken. Hierzu sollen europaweit mehr als 500 neue Arbeitsplätze und weitere Rechenzentren entstehen. Das erste der drei Rechenzentren wird nach Unternehmensangaben im August in Großbritannien eröffnet. Zwei weitere sollen im Jahr 2015 in Deutschland und Frankreich folgen. Bereits auf der letzten Salesforce Customer Company Tour im vergangenen Juli wurde ein Rechenzentrum für dieses Frühjahr in London angekündigt.

Auch Salesforce hat zu kämpfen

Fakt ist, trotz des Umsatzwachstums von 41 Prozent in Europa und stolz verkündeter Kunden wie BMW Group, Deutsche Post DHL, Sixt, Vaillant und Carl Zeiss Vision hat Salesforce es nicht leicht. Auch das zeigen die Investitionen und Expansionen mit weiteren Rechenzentren in Europa. Salesforce muss näher an den Kunden herankommen, wenn der Kunde nicht von alleine kommt. Es ist nicht das erste Bekenntnis, dass die Public Cloud in dieser Form nicht für alle funktioniert. Bereits im November letzten Jahres kündigte Salesforce CEO Mark Benioff mit dem “Salesforce Superpod” nichts anderes als eine Dedicated Private Cloud auf der Salesforce Infrastruktur an, um Kunden die Möglichkeit zu bieten das CRM-System nicht auf der Public Cloud, sondern einem extra für sie abgetrennten Bereich zu nutzen. Man sieht also, es wird ständig und in langsamen Schritten zurückgerudert. Natürlich nur im Sinne der Kunden.

Deutschland sollte nicht unterschätzt werden

Salesforce Expansion nach Deutschland zeigt außerdem, dass der Druck enorm sein muss und Deutschland attraktiver ist als vermutet. Schließlich behandeln die meisten amerikanischen Unternehmen den deutschen Markt eher stiefmütterlich.

Der Großteil der amerikanischen Cloud Anbieter versorgt den europäischen Markt derzeit über Rechenzentren in Irland (Dublin) und den Niederlanden (Amsterdam). Das stößt bei vielen Deutschen, vornehmlich Datenschützern und mittelständischen Unternehmen, auf Unbehagen. Das Speichern von Daten außerhalb von Deutschland und ein Vertrag maximal nach europäischem Recht wird nicht gerne gesehen. Jedoch sollte und darf der Wirtschaftsstandort Deutschland nicht vernachlässigt werden. Für die US-amerikanischen Unternehmen mag Deutschland zwar ein kleines Land sein, aber die Wirtschaftskraft zu unterschätzen wäre fatal.

Die Erwartungshaltung ist riesig

Salesforce positioniert sich mit Salesforce1 mittlerweile als eine allumfassende Plattform für die Entwicklung von Social, Mobile und weiteren Cloud-basierten Applikationen und richtet sich damit gezielt an Entwickler, ISVs, Endanwender und Administratoren. Salesforce versucht damit sein Image als reiner CRM-Anbieter abzuschütteln.

Salesforce sieht sich somit nicht mehr nur im Wettbewerb mit anderen CRM-Anbietern sondern ebenfalls mit den großen Playern wie Microsoft, Amazon AWS und Google, deren Cloud-Stack auch stetig weiter ausgebaut wird und bei fast allen nahezu vollständig ist. Die Expansion mit einem eigenen Rechenzentrum in Deutschland ist für Salesforce damit ein enormer Wettbewerbsvorteil gegenüber anderen Anbietern wie Amazon AWS, Microsoft oder Google. Insbesondere im stark umkämpften Markt für Unternehmenskunden, in denen Amazon AWS und Google sich schwer tun und wo Microsoft auf Grund seiner bestehenden breiten Kundenbasis bereits eine gute Ausgangslage hat.

Crisp Research ist der Meinung, dass spätestens nach dieser Ankündigung kein Anbieter, der den deutschen Markt als ernsthaft attraktiv betrachtet, mehr daran vorbeikommt, ebenfalls ein eigenes Rechenzentrum in Deutschland zu eröffnen. Zahlen von Crisp Research zeigen eine deutliche Anforderung von mittelständischen Unternehmen an Cloud Anbieter, dass die Daten in einem deutschen Rechenzentrum gespeichert werden müssen. Etwa 75 Prozent sehen darin die Notwendigkeit, um durch physische Lokalität der Daten das deutsche Recht einfacher anwendbar zu machen.

Microsoft sorgt für ein großes Fragezeichen

Warum hat zum Beispiel Microsoft nicht schon längst ein Rechenzentrum in Deutschland gebaut? Das Unternehmen ist seit Jahrzehnten in Deutschland tätig und sollte die Kundenbasis und deren Bedenken besser kennen als jeder andere Cloud Anbieter! Crisp Research hat erste Gerüchte über Rechenzentrumsstandorte von Amazon AWS und Microsoft in Deutschland gehört. Eine offizielle Bestätigung, als auch ein Dementi blieben bis heute allerdings aus.

Der Standortvorteil eines Rechenzentrums in Deutschland ist nicht zu vernachlässigen, um aktiv damit zu beginnen, den deutschen Unternehmen ihre Bedenken zu nehmen. Die Cloud Computing Anbieter haben in der Vergangenheit viel geredet und versprochen. Aussagekräftige Taten blieben jedoch aus. Nach IBM, mit einem Cloud-Rechenzentrum in Ehningen bei Stuttgart, hat nun auch Salesforce den richtigen Schritt gemacht. Wir sind gespannt wer folgen wird.

Kategorien
Analysen

Pulse 2014: IBM und seine Open Cloud Story

Während seiner Hausmesse Pulse 2014 in Las Vegas hat IBM seine Unternehmensstrategie für die kommenden Jahre deutlich kommuniziert. Open-Source wird einmal mehr zur zentrale Säule und soll dem Unternehmen den Weg zu den Enterprise-Workloads und Entwicklern ebnen. Eine weitere wichtige Rolle wird Softlayer einnehmen. Crisp Research hält die Open Cloud Strategie für eine erfolgsversprechende Strategie, sieht im Bare Metal Ansatz von Softlayer die logische Ergänzung des IBM Portfolios.

OpenStack und Cloud Foundry als zentrale Bausteine der Open-Source Strategie

IBM blickt auf eine lange Open-Source Historie zurück. Bereits die Attraktivität von Linux hat IBM in der Unternehmens-IT vorangetrieben. So ist es kaum verwunderlich, dass diese Strategie ebenfalls auf die Cloud übertragen wird. Nachdem mit Todd Moore bereits eine strategisch wichtige Position innerhalb des Boards of Directors in der OpenStack Foundation (Cloud IaaS) besetzt wurde, gehört IBM ebenfalls zu den Gründern der Cloud Foundry Foundation (PaaS) zu denen auch EMC, Hewlett-Packard, Rackspace, SAP und VMware zählen.

Das Engagement an zwei der wichtigsten Open Cloud Communities zeigt die Bedeutung von Open-Source für IBM und spiegelt sich auch in den architekturellen Konzepten wieder. Dabei sieht IBM das Thema Open-Source ganz klar als Mittel zum Zweck, um auf dieser Basis eigene kommerzielle Produkte anzubieten. OpenStack dient als die Infrastrukturbasis für viele bereits bestehende Produkte und Lösungen und wird in Zukunft als grundlegende Basis unter das gesamte IBM Cloud Portfolio ausgerollt. Für IBM ist es daher essentiell wichtig einen aktiven Einfluss auf die Ausrichtung von OpenStack zu nehmen. Hierzu beteiligt sich das Unternehmen ebenfalls aktiv an der Weiterentwicklung des Open-Source Projekts.

Crisp Research beschäftigt sich derzeit intensiv mit OpenStack und wird dazu mehrere Research Paper veröffentlichen.

BlueMix: IBMs Polyglot Platform-as-a-Service

IBM setzt gezielt auf Open-Source Software wie OpenStack und Cloud Foundry, um kommerzielle Angebote am Markt zu platzieren.

Unter dem Codenamen BlueMix hat IBM offiziell den Betastatus seines eigenen Platform-as-a-Service (PaaS) angekündigt. BlueMix gilt bei IBM als zentrale Komponente seiner Cloud-Strategie und basiert auf Cloud Foundry. Nach Angaben von Todd Moore werden beide Lösungen etwa alle zwei Monate miteinander abgeglichen um BlueMix auf einen aktuellen Cloud Foundry Versionsstand zu bringen, bzw. um Cloud Foundry mit möglichen Erweiterungen aus dem BlueMix System zu verbessern.

BlueMix ist als offener Polyglot PaaS designed und unterstützt derzeit die Programmiersprachen Java, Node.js und Ruby. Neben Integration und Mobile Services sowie DevOps zur Continuous Integration bietet der BlueMix Catalogue weitere Services die für die Entwicklung eigener Applikationen auf BlueMix genutzt werden können. Darunter CloudCode, DataCache, ElasticMQ, JazzHub, MongoDB, MySQL und RabbitMQ.

Als Infrastruktur-Basis von Cloud Foundry dient OpenStack (IBM Smart Cloud Orchestrator, IBM Platform Computing).

Softlayer: IBMs Infrastructure-as-a-Service Waffe aus dem Untergrund

Softlayer war medial bisher eher ein unbeschriebenes Blatt. Erst durch die Akquisition von IBM stieg der IaaS-Anbieter aus dem Untergrund hervor indem er von IBM selbst konsequent als potentieller Amazon Web Services Killer vermarktet wird. Softlayer muss sich keinesfalls verstecken. Was die wenigsten wissen: bekannte Web- und Mobile-Angebote wie WhatsApp, Tumblr, Dropbox, EA, MachineZone, fitbit und Yelp nutzen die Softlayer Infrastruktur. Zu Unternehmenskunden gehören u.a. Samsung, Citrix und Repsol. Hinzu kommt, dass von den 40 Rechenzentren die IBM bis 2015 geöffnet haben wird, stammen immerhin 13 Stück aus der Akquisition von Softlayer.

Softlayer setzt innerhalb seiner Infrastruktur auf ein hybrides Modell. Neben virtuellen Servern können Kunden sogenannte Bare Metal Server (dedizierte physikalische Hosts) anmieten. Eine Variante die IBM während der Pulse 2014 mit vielen Vorträgen prominent vermarktet hat und mit Performance Tests gegen Rivalen wie die Amazon Web Services schießt, die bekanntlich nur eine virtuelle Infrastruktur anbieten. Nach Angaben von Softlayer werden die Bare Metal und die virtuellen Server mittels derselben API (1.600 Stück), demselben Portal und eigenem internen Managementsystem provisioniert. Zudem sei Softlayer in der Lage, Bare Metal Server zu 100 Prozent automatisiert innerhalb von zwei bis vier Stunden bereitzustellen. Softlayer selbst unterstützt OpenStack derzeit nur als Installation auf den Bare Metal Servern. Das bedeutet, dass die technologische Infrastruktur unterhalb von Softlayer bisher nicht durch OpenStack ausgetauscht wurde. Allerdings unterstützt Softlayer, nach eigenen Angaben, die komplette OpenStack API, wodurch Softlayer als Deployment- und Managementwerkzeug für OpenStack dienen kann.

Der Bare Metal Ansatz ist vor allem für die Kunden interessant, die Performance benötigen, ihre Applikationen kennen und über stabile Workloads verfügen. Um kurzfristig Lastspitzen abzufangen können diese dann auf virtuelle Server zurückgreifen, die innerhalb kürzester Zeit aus der Softlayer Cloud bereitgestellt werden. Denn eines muss an dieser Stelle klar und deutlich gesagt werden: Der Bare Metal Ansatz von IBM Softlayer hat mit einem Cloud-Model nichts zu tun.

Für eine interessante Neuigkeit sorgte IBM mit der Akquisition von Cloudant, einem Database-as-a-Service Anbieter, der in das Softlayer Portfolio integriert wird. Das spannende an diesem Zukauf ist allerdings weniger die technische Seite, sondern vielmehr die Historie von Cloudant. Im Jahr 2009 als Startup auf der Cloud-Infrastruktur der Amazon Web Services gestartet, wechselte Cloudant auf Grund von Performance-Probleme mit dem XEN Hypervisor der AWS Cloud auf die Bare Metal Infrastruktur von Softlayer. Nach Angaben von Cloudant CTO Adam Kocoloskiist es für Cloudant nicht notwendig Server innerhalb von Sekunden hochzufahren. Die Performance ist für den Service entscheidender wodurch Bare Metal der bessere Ansatz ist.

IBM bietet gute Voraussetzungen für Enterprise-Workloads

IBM richtet sich mit seiner Cloud-Strategie vorwiegend an Unternehmenskunden und Entwickler in Unternehmen. IBM setzt dabei auf einen selbst gewählten „Dynamic Cloud“ Slogan, der die off-Premise und die on-Premise Welt bedienen und verbinden soll. Ob IBM mit seinem BlueMix PaaS zu spät dran ist wird sich zeigen. Es ist zwangsläufig nicht entscheidend, als erster am Markt zu sein und das beste Produkt zu haben, sondern seine bestehenden und potentiellen Kunden davon zu überzeugen, einen Mehrwert zu bieten. Es wäre nicht das erste Mal, dass ein Anbieter dies schaffen würde. Und IBM hat hierzu definitiv die finanzielle Ausdauer, das technische Know-how und die Wahrnehmung und Verbreitung in seiner Kernzielgruppe.

Der Vertrieb wurde im Software Umfeld bereits auf eine Cloud-First Strategie (Software-as-a-Service) umgestellt, was nach Aussagen von IBM für den einen oder anderen Vertriebsmitarbeiter eine Umstellung sein wird, nicht mehr harte Lizenzen sondern Abonnements zu verkaufen. Aber die Zielrichtung ist klar und deutlich vorgegeben.

Cloud Foundry als auch OpenStack sind für IBM die grundlegende Basis für die Zukunft und die Cloud Strategie. Hierzu wird OpenStack stetig als Infrastrukturbasis unter das komplette Portfolio ausgerollt. Gleichzeitig geht Crisp Research davon aus, dass Softlayer kontinuierlich in das IBM Cloud Portfolio integriert wird und auch hier OpenStack in Zukunft die Infrastrukturbasis bildet. Noch in diesem plant IBM weltweit 40 Rechenzentren in 15 Ländern online zu haben, um darüber seine Cloud Services bereitzustellen. In 2015 soll in die aufstrebenden und durchaus lukrativen Märkte im Mittleren Osten und Afrika expandiert werden.

Bare Metal ist die Realität der Hybrid Cloud

Die Bare Metal Story von IBM Softlayer führt zu der Frage, ob der Cloud Markt und Initiativen wie das Open Compute Project die Preise für Hardware so in den Keller getrieben haben, dass es sich für die Anbieter als auch Anwender lohnt, selbst Server bei einem Nutzungsgrad von nur 30 Prozent anzuschaffen und zu betreiben. Die Nahtoderfahrung von HP zeigt wie bedrohlich die aktuelle Marktsituation für Hardwareproduzenten ist. Das musste auch bereits IBM selbst am eigenen Leib erfahren und hat sein x86 Servergeschäft an Lenovo verkauft.

Für diejenige die ihre konstanten Workloads kennen und Performance für die Applikationen benötigen, kann das Softlayer Bare Metal Modell durchaus interessant sein. Insbesondere dann, wenn nur kurzzeitige Lastspitzen abgefangen werden müssen, was in dem Fall dann per virtuelle Server von Softlayer geschehen kann, um die Infrastruktur nach oben atmen zu lassen.

Crisp Research meint, dass IBM die Enterprise Workloads seiner potentiellen Kundengruppen besser kennt als jeder andere Cloud Anbieter am Markt und Softlayer damit in der Lage ist, zielgerichtet die Bedürfnisse und Anforderungen zu erfüllen. Schlussendlich geht es darum einen ganzheitlichen Ansatz zu verfolgen, um den potentiellen Kunden eine große Vielfalt bieten zu können. Ansonsten wird man schnell zum Nischenanbieter und kann entweder nur Entwickler oder Unternehmenskunden bedienen.

Kategorien
Analysen

Report: OpenStack im Unternehmenseinsatz – Teil 1: Grundlagen und aktueller Einsatz

Der OpenStack Zug nimmt auch in Deutschland langsam Fahrt auf. Die Anzahl der Anfragen von CIOs, die das Open Source-basierte Cloud Management-Framework als Alternative evaluieren, ist in den vergangenen 6 Monaten deutlich gestiegen, wie interne Statistiken von Crisp Research belegen.

Für immer mehr Unternehmen stellt sich die Frage, ob OpenStack in den kommenden Jahren ein fester Bestandteil der Cloud-Integrationsstrategie wird und demnach bei der Planung und Implementierung hybrider Cloud-Infrastrukturen mit berücksichtigt werden muss.

Im Rahmen mehrerer aktueller Research-Projekte geht Crisp Research der Fragen nach, inwieweit OpenStack schon „Enterprise-ready“ ist und welche Hürden bis zur Enterprise-Grade Cloud Management Plattform noch zu nehmen sind. In diesem kostenlosen Report wird ein Überblick zur Entwicklung, den Komponenten und aktuellen Einsatzszenarien gegeben.

Der Report steht kostenlos unter „OpenStack im Unternehmenseinsatz (Teil 1)“ zum Download zur Verfügung.

Kategorien
Analysen

Desktop-as-a-Service: Google begibt sich in die Abhängigkeit von VMware.

Im ersten Moment war es eine unerwartete Ankündigung, die auf dem zweiten Blick allerdings sehr schnell einen Sinn ergibt. VMware und Google haben in der vergangenen Woche eine Partnerschaft verkündet, um über VMwares Desktop-as-a-Service Plattform Unternehmen Windows-Applikationen, Daten und Desktops auf Google Chromebooks auszuliefern. Crisp Research hält die Partnerschaft für einen klugen Schachzug von beiden Beteiligten. Jedoch ist Google hier in einer deutlich schwächeren Partnersituation und gesteht Schwächen seines eigenen Cloud Service Portfolios für Unternehmenskunden ein.

Desktop-as-a-Service: Der Markt wird vielfältiger

Desktop-as-a-Service (DaaS) ist nach der Server- und Speicherentwicklung der nächste logische Schritt, bei dem vollständige Desktop-PCs im Rechenzentrum virtualisiert und von dort aus zentral auf Endgeräte ausgeliefert werden. Die Vorteile liegen klar auf der Hand. Vollwertige Computersysteme, die sogenannten Fat-Clients, führen zu maßgeblichen Investitionen in Hardware, Bereitstellung, Support, Betrieb und Aktualisierungen. Hinzukommen Ausgaben für die Sicherheit und Compliance.

Crisp Research beziffert die Jährlichen Gesamtausgaben von Standard Desktop-PCs auf rund 1.560 EUR. Durch die Umstellung auf Thin-Clients, die im minimalsten Fall nur über eine Netzwerkschnittstelle und ein BIOS verfügen, lassen sich die Ausgaben reduzieren und pro Desktop etwa 150-200 EUR pro Jahr einsparen.

Der Markt für DaaS wird zwischen zwei Segmenten unterschieden. Zum einen die grundlegenden Infrastrukturen. Dazu gehören Angebote von VMware, Citrix, Univention, Wyse oder Microsoft. Die sowohl als on-Premise als auch Public Cloud Angebote genutzt werden. Der Markt für DaaS Backendinfrastrukturen wird immer vielfältiger. Das jüngste prominente Mitglied sind die Amazon Web Services (AWS) mit den Amazon WorkSpaces. Nach Angaben von AWS Integrationspartnern waren die Test-Accounts für Amazon WorkSpaces innerhalb kürzester Zeit vergeben. Crisp Research geht davon aus, dass sich die Amazon Web Services als weltweit führender Anbieter von Infrastructure-as-a-Services auch in diesem Bereich signifikante Marktanteile sichern werden.

Auf der anderen Seite werden die Endgeräte benötigt, mit denen sich die virtualisierten Desktops nutzen lassen. Hierzu zählen klassischerweise die bekannten Thin-Clients. Google verfolgt mit seinen Chromebooks einen völlig neuen Ansatz. Das System startet direkt in das Chrome OS, was im Kern den Google Chrome Browser widerspiegelt. Ein Nutzer booted somit sofort in die Cloud.

Google Chromebooks – noch erhebliche Schwächen im Unternehmenseinsatz

Google Chromebooks sind auf der einen Seite revolutionär, da die lokale Komponente vollständig ausgeblendet wird und Daten und Applikationen zu 100 Prozent in der Cloud gespeichert bzw. aus der Cloud genutzt werden. Auf der anderen Seite birgt der Ansatz auch seine Schwächen, die derzeit mehr überwiegen als die vermeintlichen Vorteile die von einem Chromebook ausgehen.

Die Idee der Chromebooks ist grundsätzlich gut. Das lokale System verfügt über eine minimale Intelligenz und keine höherwertigen Softwarekomponenten, die wie bspw. ein Windows Betriebssystem, ständig mit einem Neustart auf dem aktuellen Stand gehalten werden müssen. Stattdessen ist der Browser das Betriebssystem, wodurch Google Software- und Sicherheitsupdates on-Demand vornehmen kann, ohne das der Nutzer davon etwas bemerkt.

Auch Googles Strategie sämtliche Services, wie zum Beispiel die Google Apps for Business Suite, mit den Chromebooks zu integrieren ist ein kluger Schachzug, um die User Experience der Chromebooks sowie die Public Cloud Services in die Unternehmen zu tragen und dort bekannter zu machen. Über den Google Apps eigenen Marketplace lassen sich in Zukunft zudem immer mehr Services von Drittanbietern monetarisieren. Leider ist die ganzheitliche Umsetzung bis heute nur mäßig. Bis auf Google Mail und Google Kalender ist der Rest der Google Apps for Business Suite nicht unternehmenstauglich. Insbesondere Google Docs, als Textverarbeitung Kernprodukt einer Office Suite, zeigt noch erhebliche Schwächen und steht in keiner Konkurrenz zu einem Microsoft Word. Auch wenn der Software-as-a-Service Markt stetig wächst, ist der Vorteil, der sich durch die lose und beliebige Nutzung von Cloud Services auf den Chromebooks ergibt, durch die nicht vorhandenen leistungsfähigen Enterprise Applikationen, die weiterhin benötigt werden, aufgehoben. Nutzer benötigen immer wieder Applikationen, die ausschließlich für lokale Betriebssysteme wie Windows, Mac oder Linux zur Verfügung stehen. Dieser Status wird nicht so bleiben, aber Stand heute existieren diese Nachteile.

VMware öffnet Google das Tor in die Unternehmen

Um seinen Chromebooks eine echte Business Customer Experience zu bieten ist die Partnerschaft mit VMware ein notwendiger und kluger Schachzug, um in kurzer Zeit einen Fuß in die Türen der Unternehmen zu bekommen. Anwender können damit auf ihre Windows Anwendungen, Daten und Desktops anhand der VMware Blast HTML5 Technologie über einen Web-basierten Katalog vom Chromebook aus zugreifen.

Zudem können Unternehmen mittels VMware Horizon DaaS zwischen einer Virtual Desktop Infrastructure (VDI) oder Remote Desktop Services (RDS) Verbindung wählen. Zusammen mit VMware Horizon View lassen sich die Chromebooks als on-Premise Service nutzen. In Zukunft soll die gemeinsame Lösung als DaaS-Angebot von VMware und anderen vCloud Service Anbietern in der Cloud oder in hybriden Umgebungen zur Verfügung gestellt werden.

Google – Abschied von der reinen Public-Cloud-Lehre

Die Partnerschaft zwischen VMware und Google zeigt, dass Google derzeit noch nicht in der Lage ist, den Enterprise-IT-Markt allein mit eigenen Kräften zu überzeugen. Die Anforderungen der Unternehmensanwender sind derzeit noch zu vielfältig und komplex – und verlangen daher nach hybriden und stark integrierten Lösungen.

Mit der VMware-Partnerschaft kann es Google aber vielleicht gelingen, ein trojanisches Pferd in die Unternehmen einzuschleusen und deren Nutzer von der browser-basierten User Experience seiner Cloud-Dienste abhängig zu machen. Ob das Anfixen über die Virtual Desktop Services auf den Chromebooks langfristig funktioniert bleibt abzuwarten. Sicher ist, dass Google das Enterprise Business mittlerweile ernst nimmt und nicht als reines Anhängsel seines Online Werbegeschäfts versteht. Nach Einschätzungen von Crisp Research bereitet Google derzeit noch weitere Kooperation vor, die das Standing seiner Google Apps auf Seiten großer IT-Anwender verbessern sollen.

Kategorien
Analysen

Die Community Cloud wird an Bedeutung gewinnen.

Wie kommen Unternehmen aus der Cloud heraus ohne ihre Komfortzone zu verlieren. Diese Fragen hören wir immer wieder. Ich bin der Meinung, dass man sich nicht zwangsläufig aus der Cloud zurückziehen muss, sondern einfach versuchen sollte, mehr Kontrolle zurückzugewinnen und die Ideen der Cloud für sich selbst zu nutzen. In diesem Zusammenhang sollte man die Community Cloud in Betracht ziehen, denn diese wird in meinen Augen immer mehr an Bedeutung gewinnen. Der Bedarf und vor allem das Verständnis hierfür muss nur geweckt werden. Tenor: “Aufbau einer eigenen Hosted Private Cloud, betrieben von einer Gemeinschaft die sich vertraut.” Das ist sowohl für Unternehmen, Organisationen, Bürogemeinschaften und regelmäßige Projektpartner interessant.

Was ist eine Community Cloud?

Innerhalb einer Community Cloud schließen sich Unternehmen einer gleichen Branche zusammen und fassen ihren eigenen Private Clouds zu einer Community Cloud zusammen, die nur exklusiv diesen Mitgliedern zugänglich ist. Community Clouds bieten sich an, wenn Unternehmen dieselben Anforderungen und Aufgaben haben und die Infrastruktur auf ähnliche Weise nutzen wollen. Der Vorteil einer Community Cloud besteht in der Reduzierung des Kapazitätsbedarfs und somit einer verbesserten Ressourcenallokation auf Grund der gemeinsamen Nutzung von Ressourcen. Dies führt zu einer allgemeinen Kostenreduzierung und verringert den allgemeinen Overhead. Abgesehen von der darunterliegenden Infrastruktur können alle Mitglieder der Community Cloud ebenfalls dieselben Services und Applikationen gemeinsam nutzen.

Ein sehr gutes Beispiel für eine Community Cloud ist das ENX Netzwerk, ein Zusammenschluss der „europäischen Automobilindustrie für den sicheren Austausch kritischer Entwicklungs-, Einkaufs-, und Produktionssteuerungsdaten.“ Das ENX bietet den angeschlossenen Automobilherstellern- und Lieferanten unternehmensübergreifende Managed Security Services und einen einheitlichen Service Level des darunter liegenden Netzwerkes. Gleichzeitig ist das ENX Netzwerk für die angeschlossenen Nutzer so offen und flexibel gestaltet wie das öffentliche Internet.

Gründe für eine Community Cloud

Bereits das Ergebnis einer BITKOM Studie im Februar 2013 kam zu dem Ergebnis, dass im Jahr 2012 immerhin 34 Prozent auf eine Private Cloud setzen und 29 Prozent planen, diese Cloud-Form in Zukunft einzusetzen. Der Grund dafür liegt in der Angst vor einem Datenverlust in der Public Cloud. Das sagten zumindest 79 Prozent.

Die Neuauflage der BITKOM Studie, mit aktuellen Ergebnissen für das Jahr 2013, liefert ein paar Veränderungen. Weiterhin setzten mit 36 Prozent der befragten Unternehmen die meisten auf eine Private Cloud. Das sind zwei Prozent mehr als im Jahr 2012. Das Interesse an der Public Cloud hat mit insgesamt 15 Prozent deutlicher zugenommen.

Interessanterweise gaben allerdings auch 77 Prozent der Unternehmen an, dass die größte Hürde für den Einsatz einer Private Cloud [… die Sorge vor einem unberechtigten Zugriff auf sensible Daten …] ist. Weitere 45 Prozent haben Angst vor einem Verlust der Daten, die in der Private Cloud gespeichert sind.

Zukunftssicherheit, Vertrauen und Abhängigkeit

Während eines Vortrags bei einem Unternehmen dessen Namen ich nicht nennen darf und mit Folien die nicht öffentlich zugänglich sind, habe ich in meinen zukünftigen Cloud-Trends die Treiber für die steigende Bedeutung von Community Clouds aufgezeigt.

Ich habe dabei die drei Treiber als „höhere Zukunftssicherheit“, „größeres Vertrauen“ und „weniger Abhängigkeit/ mehr Kontrolle“ charakterisiert. Es sind exakt die Themen, die auch in aktuellen Diskussionen immer wieder aufkommen. Damals, im März 2013, habe ich die „höhere Zukunftssicherheit“ am Beispiel der Schließung vom Google Reader festgemacht. Da die Nutzer sich nicht sicher sein können, wie lange ein Cloud Service überhaupt überlebt. Als Beispiel für „größeres Vertrauen“ mussten die mittlerweile bestätigten Berichte, dass Amazon AWS eine Cloud für den CIA bauen soll, herhalten. Schließlich sollte man schon stutzig werden, wenn ein Marktführer mit einem Geheimdienst zusammenarbeitet – wie wir mittlerweile alle feststellen durften… Den Grund für „(weniger) Abhängigkeit“ habe ich aus dem Zeit-Artikel „Das autarke Dorf„, der im selben Zeitraum erschienen ist und bei dem es darum geht, dass ein kleines Dorf in Brandenburg sich unabhängig von den Energiekonzernen gemacht hat und dort sogar ein eigenes Stromnetz besitzt. Cloud Computing = Utility Computing = Stromnetz…

Maximale Zentralität hin zur Semi-Dezentralität

Allein auf Grund dieser drei Treiber, plus den aktuellen Diskussionen, sehe ich ein wachsendes Potential für die Community Cloud, die derzeit noch keine große Verbreitung hat. In diesem Zusammenhang sehe ich zudem einen Wechsel von einer zurzeit stark ausgeprägten Zentralität zu einer Semi-Dezentralität.

Die meisten Unternehmen und Organisationen sehen in der Public Cloud einen großen Vorteil und wollen in ihren Genuss kommen, um Kosten zu reduzieren, ihre IT zu konsolidieren und gleichermaßen mehr Skalierbarkeit und Flexibilität erhalten. Auf der anderen Seite sind Zukunftssicherheit, Vertrauen, Abhängigkeit und Kontrolle wichtige Artefakte, die niemand gerne aufgeben möchte.

Die Community Cloud ist der Mittelweg, um beides zu erreichen. Zukunftssicherheit, Vertrauen, Abhängigkeit und Kontrolle durch den Einfluss, was in der Community Cloud passiert und die Vorteile einer Public Cloud, durch das Partizipieren von einer echten Cloud Infrastruktur.

Tipp: Hosted Community Cloud

Es stehen mittlerweile einige Lösungen bereit, die als Basis für die eigene professionelle (Community) Cloud genutzt werden können. Dabei sollte man jedoch immer ein Auge auf die grundlegende Infrastruktur richten, die das Rückgrat der gesamten Cloud bildet. In diesem Zusammenhang darf man allerdings auch nicht den Aufwand unterschätzen, den es bedeutet, eine professionelle Cloud-Umgebung aufzubauen, ordnungsgemäß zu betreiben und zu warten. Weiterhin sind die Kosten für die notwendigen physikalischen Ressourcen zu kalkulieren.

Aus diesem Grund macht es für viele kleinere und mittlere Unternehmen, aber auch Bürogemeinschaften, Co-Working Spaces oder regelmäßige Projektpartnerschaften Sinn, den Community Cloud Gedanken in Betracht zu ziehen, um in den Genuss der Public Cloud (Shared Umgebung) zu kommen aber weiterhin Einfluss auf die Zukunftssicherheit, das Vertrauen, die Abhängigkeit und Kontrolle der Umgebung zu haben und Kostenvorteile u.a. durch Ressourcenallokation zu erzielen. Hierzu sollte man sich zudem überlegen, ein Team aufzubauen, dass sich exklusiv um den Aufbau, Betrieb, die Administration und Wartung der Community Cloud kümmert. Vergleiche dazu das ENX-Netzwerk. Dafür ist kein eigenes Rechenzentrum oder eine Co-Location erforderlich. Ein IaaS-Anbieter kann dazu als ideale Basis für eine Hosted Community Cloud dienen.