Kategorien
Analysen

Wir leben bereits in einer Multi-Cloud getriebenen Welt

Nicht zuletzt das Disaster um Nirvanix hat gezeigt, dass man sich nicht auf einen einzelnen Cloud-Anbieter verlassen. Aber auch ungeachtet der Risikostreuung ist der Einsatz einer Multi-Cloud Strategie ein empfehlenswerter Ansatz, der bereits von vielen heute schon bewusst oder unbewusst praktiziert wird.

Hybrid oder Multi-Cloud?

Was bedeutet genau Multi-Cloud? Oder was ist der Unterschied zu einer Hybrid Cloud? Nun, eine Hybrid Cloud verbindet von ihrer Definition her eine eigene Private Cloud bzw. eine on-Premise IT-Infrastruktur mit einer Public Cloud, um die lokalen Infrastrukturen bei Bedarf mit weiteren Ressourcen zu versorgen. Bei diesen Ressourcen kann es sich um Rechenleistung, Speicherplatz aber auch Services in Form von Software handeln. Wird ein lokales E-Mail System mit einem SaaS CRM-System integriert, kann durchaus von einer Hybrid Cloud gesprochen werden. Eine Hybrid Cloud gilt also nicht nur für IaaS bzw. PaaS Szenarien.

Ein Multi-Cloud Konzept erweitert den Hybrid Cloud Gedanken um die Anzahl der zu verbindenden Clouds. Genauer gesagt kann es sich dabei um n-Clouds handeln die in irgendeiner Form miteinander integriert sind. Dabei werden bspw. Cloud-Infrastrukturen so miteinander verbunden, dass die Applikationen verschiedene Infrastrukturen oder Services parallel oder je nach Auslastung oder aktuellen Preisen nutzen. Auch das parallele oder verteilte Speichern von Daten über mehrere Clouds ist vorstellbar, um die Verfügbarkeit und Redundanz der Daten sicherzustellen. Aktuell wird sehr intensiv über Multi-Cloud im IaaS-Umfeld diskutiert. Siehe dazu auch Ben Kepes‘ und Paul Miller’s Mapping Session zum Thema Multi-Cloud sowie Paul’s Sector RoadMap: Multicloud management in 2013.

Was oft vergessen wird ist, dass Multi-Cloud insbesondere im SaaS-Umfeld seine Bedeutung hat. Die Anzahl neuer SaaS-Applikationen wächst täglich und damit auch der Bedarf, diese unterschiedlichen Lösungen miteinander zu integrieren und Daten austauschen zu lassen. Aktuell bewegt sich der Cloud-Markt unkontrolliert auf viele kleine Insellösungen zu, die jede für sich zwar einen Mehrwert bieten, in der Summe jedoch zu vielen kleinen Dateninseln führen. Mit solchen Entwicklungen haben in Unternehmen schon in vor Cloud Zeiten zu kämpfen gehabt und das vergebens.

Risiken streuen

Auch wenn das Cloud-Marketing ständig die Verfügbarkeit und Sicherheit der Daten, Systeme und Applikationen verspricht, liegt die Verantwortung dies sicherzustellen in den eigenen Händen (Das bezieht sich auf eine IaaS Public Cloud). Zwar stellen die Cloud-Anbieter hierfür weitestgehend alle Mittel und Wege zur Verfügung, im IaaS-Bereich muss sich der Kunde aber selbst darum kümmern. Ausfälle wie die der Amazon Web Services oder unvorhergesehene Schließungen wie die von Nirvanix sollten zu mehr Sensibilität bei der Nutzung von Cloud-Services führen. Die Risiken müssen bewusst gestreut werden. Dabei sollten sich nicht alle Eier in einem Nest befinden, sondern strategisch über mehrere verteilt werden.

Best-of-Breed

Die Best-of-Breed Strategie ist der meist verbreitetste Ansatz in IT-Unternehmensarchitekturen. Dabei werden mehrere Branchenlösungen für verschiedene Teilbereiche innerhalb des Unternehmens eingesetzt und miteinander integriert. Die Idee hinter Best-of-Breed besteht darin, die jeweils beste Lösung zu nutzen, die eine All-in-one Lösung in der Regel nicht bieten kann. Man stellt sich also die für seinen Zweck besten Services und Applikationen zusammen.

Verfolgt man diesen Ansatz in der Cloud, befindet man sich direkt in einem Multi-Cloud Szenario, was bedeutet, dass schätzungsweise 90% aller Unternehmen die Cloud-Services nutzen, Multi-Cloud Nutzer sind. Ob die eingesetzten Cloud-Services auch miteinander integriert sind bleibt zu bezweifeln. Was auf der einen Seite empfehlenswert ist, lässt sich auf der anderen Seite in vielen Fällen auch nicht vermeiden. Zwar existieren bereits ein paar gute All-in-one Lösungen am Markt. Dennoch sind die meisten Perlen eigenständig implementiert und müssen mit anderen Lösungen kombiniert werden, z.B. E-Mail und Office/ Collaboration mit CRM und ERP. Das hat von der Risikobetrachtung, insbesondere in der Cloud, seinen Vorteil. Fällt ein Anbieter aus, ist auch nur ein Teil-Service nicht erreichbar und nicht direkt die gesamte Produktivitäts-Umgebung.

Insellösungen vermeiden: Schnittstellen und Integration

Solche Best-of-Breed Ansätze versuchen Cloud-Marktplätze zu schaffen, indem sie einzelne Cloud-Lösungen in unterschiedlichen Kategorien zusammenfassen und Unternehmen damit ein umfangreiches Portfolio verschiedener Lösungen bieten, mit der sich eine Cloud-Produktivitäts-Suite zusammenstellen lässt. Dennoch zeigen, obwohl sehr stark kontrollierte und vermeintlich integrierte Marktplätze an einer entscheidenden Stelle massive Probleme mit der Integration. Es existieren viele einzelne SaaS-Applikationen die nicht zusammenspielen. Das bedeutet, dass keine gemeinsame Datenbasis existiert und das z.B. der E-Mail Service nicht auf die Daten im CRM-Service zugreifen kann und umgekehrt. Damit entstehen wieder, wie bereits oben beschrieben, einzelne Datensilos und Insellösungen innerhalb des Marktplatzes.

Dieses Beispiel zeigt auch die größte Problematik mit einem Multi-Cloud Ansatz. Die Integration der vielen verschiedenen und normalerweise voneinander unabhängig agierenden Cloud-Services und deren Schnittstellen zueinander.

Multi-Cloud ist „The New Normal“ in der Cloud

Das Thema Multi-Cloud wird derzeit insbesondere im IaaS-Umfeld stark diskutiert, um das Risiko zu streuen und die Kosten und Leistungen unterschiedlicher Cloud-Infrastrukturen optimal ausnutzen zu können. Aber ebenfalls im SaaS-Umfeld muss das Thema unbedingt eine höhere Bedeutung zugesprochen werden, um Daten- und Insellösungen in Zukunft zu vermeiden, die Integration zu vereinfachen und Unternehmen bei ihrer Adaption ihrer Best-of-Breed Strategie zu unterstützen.

Ungeachtet diesen Erwartungen ist der Multi-Cloud Einsatz bereits Realität, indem Unternehmen mehrere Cloud Lösungen von vielen unterschiedlichen Anbietern einsetzen, auch wenn diese noch nicht (vollständig) miteinander integriert sind.

Kategorien
Analysen

Fog Computing: Daten, Informationen, Anwendungen und Services müssen effizienter zum Endnutzer

Richtig gelesen, hier geht es nicht um CLOUD Computing sondern um FOG Computing. Nachdem sich die Cloud auf einem guten Weg befindet in der Breite adaptiert zu werden, folgen erste Konzepte, um die Nutzung skalierbarer und flexibler Infrastrukturen, Plattformen und Applikationen um weitere Services zu erweitern, um die Daten und Informationen schneller an den Endnutzer auszuliefern. Das ist im Kern genau die Aufgabe des Fog Computing. Der Fog soll dafür sorgen, dass Cloud Services, Rechenleistung, Speicherplatz, Workloads, Anwendungen und große Datenmengen an jegliche Ecken (Edge) eines Netzwerkes (Internet) auf einer echten verteilten Art und Weise bereitgestellt werden.

Was bedeutet Fog Computing?

Der Fog hat die Aufgabe, Daten und Workloads näher an den Nutzer zu bringen, der sich am Rande einer Datenverbindung befindet. In diesem Zusammenhang wird dann auch vom „Edge Computing“ gesprochen. Der Fog befindet sich organisatorisch unterhalb der Cloud und dient als optimiertes Übertragungsmedium für die Services und Daten, die sich in der Cloud befinden. Der Begriff „Fog Computing“ wurde von Cisco als ein neues Paradigma geprägt, der verteilte Endgeräte innerhalb des Internet of Things bei dem kabellosen Datentransfer unterstützen soll. Fog Computing baut konzeptionell auf bestehende und weit verbreitete Technologien wie den Content Delivery Networks (CDN) auf, soll aber, auf Grund von Cloud Technologien, das Bereitstellen von viel komplexeren Services ermöglichen.

Da immer größere Datenmengen an eine immer größer werdende Anzahl an Benutzern ausgeliefert werden müssen, sind Konzepte notwendig, welche die Idee der Cloud verbessern und es Unternehmen und Anbietern ermöglichen, ihre Inhalte an den Endkunden über eine geographisch weit verbreitete Plattform bereitzustellen. Fog Computing soll dabei helfen, die verteilten Daten näher an den Endkunden zu transportieren und dabei die Latenz und Anzahl der dafür benötigten Hops zu verringern und Mobile Computing und Streaming Services dadurch besser zu unterstützen. Neben dem Internet of Things ist die steigende Nachfrage der Nutzer, zu jeder Zeit, von jedem Ort und mit jedem Gerät auf ihre Daten zugreifen zu können, ein weiterer Grund, warum die Idee des Fog Computing an Bedeutung zunehmen wird.

Was sind Use Cases von Fog Computing?

Man sollte sich von diesem neuen Begriff nicht zu sehr verwirren lassen. Zwar handelt es sich beim Fog Computing um eine neue Terminologie. Schaut man jedoch hinter die Fassade wird schnell deutlich, dass diese Technologie bereits in modernen Rechenzentren und der Cloud eingesetzt wird. Der Blick auf ein paar Use Cases verdeutlicht dies.

Nahtlose Integration mit der Cloud und anderweitigen Services

Der Fog soll die Cloud nicht ersetzen. Durch Fog Services soll die Cloud erweitert werden, indem die Nutzerdaten isoliert werden, die sich ausschließlich am Rande (Edge) eines Netzwerks befinden. Von dort aus soll es Administratoren ermöglicht werden, analytische Auswertungen, Sicherheitsfunktionen und weitere Services direkt mit eigenen Cloud Modell zu verbinden. Die Infrastruktur wird hierbei weiterhin vollständig auf dem Cloud Konzept basieren, am Rande jedoch um das Fog Computing erweitert.

Services die vertikal auf der Cloud aufsetzen

Viele Unternehmen und unterschiedliche Arten von Services nutzen bereits die Ideen des Fog Computing, indem sie umfangreiche Inhalte zielgerichtet an ihre Kunden ausliefern. Dazu gehören u.a. Webshops oder Anbieter von Medieninhalten. Ein gutes Beispiel hierfür ist Netflix, die damit ihre zahlreichen weltweit verteilten Kunden erreichen können. Mit der Datenhaltung in einem oder zwei zentralen Rechenzentren wäre die Auslieferung des Video on-Demand Service sonst nicht effizient möglich. Fog Computing ermöglicht somit das Bereitstellen von sehr großen gestreamten Datenmengen, indem die Daten performant direkt in die Nähe des Endkunden ausgeliefert werden.

Bessere Unterstützung für mobile Endgeräte

Mit dem stetigen Wachstum mobiler Endgeräte und Daten erhalten Administratoren durch Fog Computing mehr Kontrollmöglichkeiten darüber, wo sich die Nutzer gerade befinden, von wo sie sich anmelden und wie sie auf Informationen zugreifen. Dies führt neben einer höheren Geschwindigkeit für den Endnutzer ebenfalls zu einer höheren Sicherheit und Datenschutz, indem die Daten an unterschiedlichen Eckpunkten kontrolliert werden können. Zudem erlaubt Fog Computing eine bessere Integration mit verschiedenen Cloud Services und sorgt somit für eine optimierte Verteilung über mehrere Rechenzentren hinweg.

Aufbau einer sehr engen geographischen Verteilung

Fog Computing erweitert bestehende Cloud Services, indem es ein Edge Network aufspannt, das aus vielen verteilten Endpunkten besteht. Diese dichte geographisch verteilte Infrastruktur bietet Vorteile für unterschiedliche Use Cases. Dazu gehören eine schnellere Erhebung und Analyse von Big Data, eine bessere Unterstützung für Location-based Services indem sich die gesamten WAN Strecken besser überbrücken lassen, sowie die Möglichkeit, Daten in Echtzeit und dazu noch massiv skalierbar auszuwerten.

Daten befinden sich nah beim Nutzer

Die Menge an Daten, die durch Cloud Services entsteht, erfordert das Caching der Daten oder weitere Services, die sich dieser Thematik annehmen. Diese Services befinden sich in der Nähe des Endnutzers, um damit die Latenz zu verbessern und den Datenzugriff zu optimieren. Anstatt die Daten und Informationen zentral in Rechenzentren weit entfernt von dem jeweiligen Nutzer abzulegen, sorgt der Fog für die direkte Nähe der Daten beim Kunden.

Fog Computing ergibt einen Sinn

Man kann von Buzzwords halten was man möchte. Erst wenn man hinter die Kulisse schaut wird es interessant. Denn je mehr Services, Daten und Applikationen für den Endnutzer bereitgestellt werden, desto mehr haben die Hersteller die Aufgabe Wege zu finden, um die Bereitstellungsprozesse zu optimieren. Das bedeutet, dass Informationen näher an den Nutzer herangetragen und gleichzeitig die Latenzen verringert werden müssen, um auf das Internet of Things vorbereitet zu sein. Es besteht kein Zweifel daran, dass die Consumerization of IT und BYOD die Nutzung und demnach den Verbrauch an Bandbreiten ansteigen lassen werden.

Immer mehr Nutzer greifen auf mobile Lösungen zurück, um ihre Geschäfte abzuwickeln und mit dem Privatleben in Einklang zu bringen. Immer reichhaltigere Inhalte und Daten werden über Cloud Computing Plattformen an die „Ecken“ des Internets ausgeliefert wo gleichzeitig die Bedürfnisse der Anwender immer größer werden. Mit der Zunahme der Daten-und Cloud-Services Nutzung wird Fog Computing eine zentrale Rolle spielen und dabei helfen die Latenzen zu verringern und die Qualität für den Nutzer zu verbessern. In Zukunft werden wir neben immer größeren Datenmengen ebenfalls mehr Services sehen, die auf Daten zurückgreifen und dem Nutzer effizienter bereitgestellt werden müssen. Administratoren und Anbieter erhalten durch Fog Computing die Möglichkeit ihren Kunden umfangreiche Inhalte deutlich schneller und effizienter und vor allem viel wirtschaftlicher bereitzustellen. Dies führt zu einem schnelleren Zugriff auf die Daten, bessere Auswertungsmöglichkeiten für Unternehmen und gleichermaßen zu einer verbesserten Nutzung für den Endnutzer.

In erster Linie wird Cisco das Wort Fog Computing prägen wollen, um es für s(eine) groß angelegte Marketingkampagne zu nutzen. Allerdings, spätestens wenn der Fog einen ähnlichen Buzz wie die Cloud erzeugt, werden wir immer mehr CDN oder anderweitige Hersteller, die etwas in die Richtung anbieten, als Fog-Anbieter wiederfinden.

Kategorien
Analysen

Nirvanix. Die Hölle auf Erden. Warum ein Multi-Cloud Ansatz zwangsläufig notwendig ist.

Der eine oder andere wird bestimmt davon gehört haben. Nirvanix hat sich selbst ins Jenseits befördert. Der Enterprise Cloud Storage Service, der unter anderem eine große Kooperation mit IBM eingegangen war, hatte am 16. September 2013 plötzlich die Schließung angekündigt und seinen bestehenden Kunden zunächst eine Frist von zwei Wochen eingeräumt, ihre Daten zu migrieren. Der Zeitraum wurde mittlerweile auf den 15. Oktober 2013 verlängert, da die Kunden mehr Zeit für die Migration benötigen. Wie ein Nirvanix Kunde berichtet, hat dieser dort 20 Petabyte an Daten gespeichert.

Das Ende von Nirvanix

Wie aus dem nichts hat der Enterprise Cloud Storage Anbieter Nirvanix am 16. September 2013 sein Ende erklärt. Bis heute ist nicht bekanntgegeben worden, wie es dazu gekommen ist. Gerüchte sagen, dass eine weitere Finanzierungsrunde fehlgeschlagen sei. Weitere Gründe liegen scheinbar am fehlerhaften Management. So hatte das Unternehmen seit 2008 bis heute fünf CEOs. Vergessen sollte man allerdings auch nicht den starken Konkurrenzkampf im Cloud Storage Umfeld. Zum einen haben in den vergangenen Jahren viele Anbieter ihr Glück versucht. Zum anderen senken die beiden Platzhirsche Amazon Web Services mit Amazon S3 und Microsoft mit Azure Storage in regelmäßigen Zyklen die Preise für ihre Services, die ebenfalls Enterprise-fähig sind. Auch hat es für Nirvanix nichts genützt von Gartner als einer der Top Cloud Storage Service Anbieter genannt zu werden.

Besonders brisant ist die Tatsache, dass Nirvanix in 2011 einen fünf Jahres Vertrag mit IBM abgeschlossen hat, um IBMs SmartCloud Enterprise Storage Services um Cloud-basierte Speicherkapazitäten zu erweitern. Wie IBM angekündigt hat, sollen auf Nirvanix gespeicherte Daten auf den IBM SoftLayer Object Storage umgezogen werden. Als IBM Kunde würde ich trotzdem vorsichtig anfragen, wie es um meine gespeicherten Daten steht.

Multi-Cloud: Die Eier müssen über mehrere Nester verteilt werden

Zunächst ein Gruß an die Venture Capital Gemeinde. Wenn es stimmt, dass Nirvanix auf Grund einer fehlgeschlagenen Finanzierungsrunde den Dienst einstellen musste, dann sehen wir, was für eine Verantwortung mittlerweile in deren Händen liegt. Mehr braucht man dazu nicht schreiben.

Wie soll man als Cloud-Nutzer mit so einem Horror-Szenario wie dem von Nirvanix umgehen? Nun, wie man sieht scheint eine gute Kundenbasis und Kooperationen mit globalen Playern kein Garant dafür zu sein, dass ein Service langfristig überlebt. Auch Google spielt derzeit seine Cloud-Strategie auf dem Rücken seiner Kunden aus und trifft keine verbindliche Zusage über das langfristige bestehen seiner Services auf der Google Cloud Platform, wie etwa der Google Compute Engine (GCE). Im Gegenteil, es ist davon auszugehen, dass die GCE nicht lange überleben wird wie andere bekannte Google Services auch.

Backup und Multi-Cloud

Auch wenn der Cloud Storage Anbieter für die Verfügbarkeit der Daten zu sorgen hat, trägt man als Kunde eine Sorgfaltspflicht und die muss darin bestehen, dass man über den Zustand seiner Daten informiert ist und – auch in der Cloud – für Redundanzen und Backups sorgt. Mittlerweile sind Funktionen in den gängigsten Cloud Storage Services integriert, um nahtlose Backups der Daten vorzunehmen und mehrfache Kopien zu erstellen.

Zwar befinden wir uns im Zeitalter der Cloud, dennoch gilt weiterhin: Datensicherung! Man sollte daher sicherstellen, dass ständig ein getestetes(!) und zuverlässiges Backup sowie ein Wiederherstellungsplan existieren. Weiterhin muss ausreichend Bandbreite zur Verfügung stehen, um schnellstmöglich die Daten verschieben zu können. Auch das sollte in regelmäßigen Abständen anhand eines Migration-Audit überprüft werden, um im Fall aller Fälle schnell handeln zu können.

20 Petabyte an Daten mal eben so zu verschieben ist keine leichte Aufgabe. Daher muss man sich über andere Ansätze Gedanken machen. Multi-Cloud ist ein Konzept was in Zukunft immer stärker an Bedeutung gewinnen wird. Dabei werden Daten und Applikationen über mehrere Cloud-Plattformen und Anbieter hinweg (parallel) verteilt. Darüber hatten bereits meine Analysten Kollegen und Freunde Paul Miller und Ben Kepes während ihrer Mapping Session auf der GigaOM Structure in San Francisco diskutiert. Paul hatte im Anschluss daran einen interessanten Sector RoadMap Report zum Thema Multicloud Management geschrieben.

Auch wenn neben Scalr, CliQr, Rightscale und Enstratius bereits einige Management Plattformen für Multi-Cloud existieren, befinden wir uns immer noch in einem sehr frühen Stadium was die Nutzung angeht. schnee von morgen webTV von Nikolai Longolius bspw. setzt primär auf die Amazon Web Services und hat als Fallback Szenario eine native Web-Applikation 1:1 für die Google App Engine entwickelt. Das ist kein Multi-Cloud Ansatz, zeigt aber dessen Bedeutung, um weniger Aufwand für eine Anbieterübergreifende Hochverfügbarkeit und Skalierbarkeit zu erreichen. Wie Pauls Sector Roadmap gut zeigt, ist es insbesondere die Kompatibilität der APIs, der eine große Bedeutung zugesprochen werden muss. Unternehmen werden sich in Zukunft nicht mehr nur auf einen Anbieter verlassen können, sondern ihre Daten und Applikationen über mehrere Anbieter verteilen, um eine Best-of-Breed-Strategie zu fahren und das Risiko gezielt zu streuen.

Das sollte auch in Erwägung gezogen werden, wenn man einfach „nur“ Daten in der Cloud speichert. Das goldene Nest ist die Summe aus mehreren verteilten.

Kategorien
Analysen

Enterprise Cloud Computing: T-Systems startet "Enterprise Marketplace"

Mit dem Business Marketplace konnte die Deutsche Telekom nach eigenen Angaben bereits 10.000 mittelständische Unternehmen erreichen. Nun soll ein ähnlicher Erfolg auch im Großkundenumfeld erzielt werden. Dazu steht jetzt der Enterprise Marketplace bereit, über den sich Software, Hardware oder Paket-Lösungen nach Bedarf buchen und ebenfalls unternehmensspezifische Eigenentwicklungen den eigenen Mitarbeitern bereitstellen lassen.

SaaS, IaaS und fertige Pakete

Der Enterprise Marketplace richtet sich speziell an die Bedürfnisse von Großunternehmen und bietet neben Software-as-a-Service-Lösungen (SaaS) ebenfalls vorkonfigurierte Images (Appliances) und konfigurierbare Gesamtpakete an, die sich in die bestehenden Systemlandschaften integrieren lassen sollen. Alle Services inklusive der integrierten Eigenentwicklungen befinden sich in einer Hosted Private Cloud und werden über das Netz der Telekom bereitgestellt.

Standardlösungen und Eigenentwicklung

Der Enterprise Marketplace bietet weitestgehend standardisierte Services. Die Nutzung dieser Services beinhaltet neue Releases, Updates und Patches. Die Abrechnung erfolgt monatlich und je nach Nutzung des jeweiligen Angebots. T-Systems stellt ebenfalls fertige Appliances wie bspw. einen vorkonfigurierten Apache Application Server bereit der nach Bedarf mit eigener Software erweitert und verwaltet werden kann. Weiterhin sollen Kunden in Zukunft selbst wählen können, welches T-Systems Rechenzentrum sie nutzen möchten.

Innerhalb des Enterprise Marketplace können ebenfalls unterschiedliche Angebote aus dem Marktplatz miteinander kombiniert werden, z.B. ein Webserver mit Datenbank und Content-Management-System. Weiterhin lassen sich eigene Lösungen wie Monitoring-Tools integrieren. Diese eigenen Lösungen lassen sich ebenfalls den restlichen Marktplatzteilnehmern zur Verfügung stellen. Wer und wie viele Teilnehmer Zugriff auf diese Lösung im Enterprise Marketplace erhalten entscheidet das Unternehmen alleine.

Zudem kann die Performance der jeweiligen Appliance des Enterprise Marketplace individuell angepasst werden. Der Nutzer erhält hierzu Einfluss auf die Anzahl der CPUs sowie die Größe des RAM und Speicherplatz und die Anbindungsbandbreite. In einer weiteren Ausbaustufe erfolgen ebenfalls Managed Services die Patches, Updates und Release-Wechsel beinhalten.

Marktplatz mit Lösungen von externen Anbietern

Ein individuelles Dashboard sorgt für die Übersicht aller eingesetzten bzw. freigegeben Applikationen innerhalb des Enterprise Marketplace. Zu den aktuellen Lösungen auf dem Marktplatz zählen unter anderem Web Server (z.B. Apache und Microsoft IIS), Application Server (z.B. Tomcat und JBoss), SQL-Datenbanken, Microsoft Enterprise Search sowie OpenSource-Pakete (z.B. LAMP Stack oder Joomla). Weiterhin kooperiert T-Systems mit einer Reihe von SaaS-Lösungen von Software-Partnern, die speziell für den Betrieb auf der T-Systems Infrastruktur geprüft wurden. Dazu gehören u.a. die Steuersoftware TAXOR, die Enterprise Social Media Lösung tibbr, die Business Process Management Suite T-Systems Process Cloud sowie das Nachhaltigkeitsmanagement WeSustain.

Cloud Computing auf Enterprise Level

T-Systems ist mit dem Enterprise Marketplace bereits dort angekommen, wohin sich andere Anbieter wie Amazon, Microsoft, Google, HP und Rackspace erst auf den Weg gemacht haben – bei den lukrativen Unternehmenskunden. Wo sich der Business Marketplace in erster Linie lediglich als Marktplatz für SaaS-Lösungen präsentiert, geht T-Systems mit dem Enterprise Marketplace deutlich weiter und bietet neben SaaS-Anwendungen ebenfalls Infrastruktur-Ressourcen und vollständige Lösungsansätze für Unternehmen inkl. die Integration von Eigenentwicklungen sowie Managed-Services.

Im Vergleich zu den aktuellen Cloud Playern am Markt verfügt T-Systems über keine Public Cloud und konzentriert sich stattdessen auf das Bereitstellen seiner Angebote über eine (Hosted/ Virtual) Private Cloud. Das kann sich mittelfristig rentieren. Aktuelle Marktzahlen von IDC versprechen ein Wachstum für die Public Cloud von 2013 mit 47,3 Billionen Dollar auf 107 Billionen Dollar im Jahr 2017. Die Beliebtheit der Private Cloud wird laut IDC zu Gunsten der Virtual Private Cloud (Hosted Private Cloud) abschwächen, sobald Public Cloud Anbieter damit beginnen, entsprechende Lösungen anzubieten, um den Bedenken der Kunden entgegenzukommen.

Ähnliche Beobachtungen haben wir während unserer GigaOM Studie „The state of Europe’s homegrown cloud market“ gemacht. Cloud-Kunden fordern vermehrt Managed-Services. Zwar wollen sie von den Eigenschaften der Public Cloud – flexible Nutzung der Ressourcen, Pay per use – profitieren, dieses aber gleichzeitig in einem sehr sicheren Umfeld inkl. der Unterstützung bei der Integration von Anwendungen und Systemen durch den Anbieter. All dies können die Public Cloud Player in dieser Form derzeit noch nicht bieten, da sie sich vornehmlich auf ihre Self-Service Angebote konzentrieren. Das ist in Ordnung, da sie damit bestimmte Use Cases effektiv bedienen und bisher beachtliche Marktanteile in einem bestimmten Zielkundensegment erreicht haben. Wollen Sie allerdings an die großen Fische im Enterprise Segment gelangen, werden sie ihre Strategie an das T-Systems Portfolio ausrichten müssen, um die individuellen Bedürfnisse der Kunden bedienen zu können.

Eine Anmerkung zu dem Auswahlprozess von Partnern für den Enterprise Marketplace: Gespräche mit Partnern, die auf dem Business Marketplace ihre Lösungen anbieten, bestätigen einen knallharten Auswahlprozess, der für den Partner zu einer echten „Qual“ werden kann. Spezifische Anpassungen speziell an die Sicherheitsinfrastruktur von T-Systems sind keine Einzelfälle und zeugen von einer hohen Qualitätssicherung durch T-Systems.

Kategorien
Analysen

Ein Blick auf Europas eigenen Cloud Computing Markt

Europas Cloud-Markt wird weitestgehend von den Amazon Web Services, Microsoft Windows Azure und Rackspace beherrscht. Also dieselben Anbieter, die auch den Rest der Welt dominieren. Jeder dieser Anbieter hat Niederlassungen in Europa und alle versuchen die speziellen Bedenken der Europäer zu genügen. Nichtsdestotrotz entwickeln eine steigende Anzahl lokaler Anbieter ihre eigenen Cloud Computing Lösungen für den europäischen Markt. Für GigaOM Research haben Paul Miller und ich die Gründe und Bedeutungen für diese lokalen Anbieter genauer betrachtet und gefragt, ob Europas stetig wachsende Sorge mit der Dominanz US-amerikanischer Anbieter in der Cloud ein tatsächlicher Treiber für einen Wandel sein kann. Das Ziel ist es, herauszufinden, ob es einen einheitlichen europäischen Cloud-Markt gibt den diese Unternehmen bedienen müssen oder ob verschiedene Märkte zu adressieren sind.

Wesentliche Inhalte aus dem Report

  • Europäische Bedenken mit der Dominanz US-amerikanischer Cloud Anbieter
  • Gründe für die Entwicklung von Cloud Lösungen innerhalb Europas
  • Der Nutzen einer transnationalen Cloud Infrastruktur
  • Der Nutzen von lokalen oder regionalen Cloud Infrastrukturen
  • Eine Auswahl von nativen Cloud Anbietern aus Europa

Europäische Cloud Anbieter in diesem Report

  • ProfitBricks
  • T-Systems
  • DomainFactory
  • City Cloud
  • Colt
  • CloudSigma
  • GreenQloud

Der Report

Der vollständige Report kann unter „The state of Europe’s homegrown cloud market“ gelesen werden.

Kategorien
Analysen

Gründe für eine Entscheidung gegen die Amazon Web Services

Keine Frage, die Amazon Web Services sind bei der Anbieterauswahl in der Cloud immer eine große Option. Allerdings erlebe ich häufiger Situationen, in denen Unternehmen bewusst eine Entscheidung gegen die Nutzung treffen und stattdessen einen anderen Anbieter bevorzugen. Anbei die zwei häufigsten Gründe.

Rechtssicherheit und Datenschutz

Der Speicherort der Daten, insbesondere der Kundendaten, ist der naheliegendste und häufigste Grund für eine Entscheidung gegen die Amazon Web Services. Die Daten sollen weiterhin im eigenen Land gespeichert werden und sich nach dem Umstieg in die Cloud nicht in einem Rechenzentrum eines anderen Landes in der EU befinden. In diesem Fall ist das AWS Rechenzentrum in Irland keine Option.

Fehlende Einfachheit, Wissen und Time to Market

Sehr oft ist es aber auch die fehlende Einfachheit der Nutzung. Das bedeutet, dass ein Unternehmen seine bestehende Anwendung oder Webseite nicht für die Amazon Infrastruktur (neu) entwickeln möchte. Gründe hierfür sind die fehlende Zeit und das Wissen um dies umzusetzen, was gleichzeitig zu einen längeren Time to Market führen würde. Beides lässt sich auf die Komplexität zurückführen, um auf den Amazon Web Services Skalierbarkeit und Verfügbarkeit zu erreichen. Es sind nun einmal nicht nur ein paar API-Aufrufe. Stattdessen muss die vollständige Architektur auf die AWS Cloud ausgerichtet werden. In Amazons Fall liegt es insbesondere an der horizontalen Skalierung (scale-out) die dies erforderlich macht. Die Unternehmen würden lieber die vertikale Skalierung (scale-up) bevorzugen, um das bestehende System 1:1 migrieren zu können und nicht von vorne zu beginnen, sondern direkt in der Cloud Erfolge zu erzielen.

Kategorien
Analysen

AWS OpsWorks + AWS VPC: Amazon AWS erhöht das Tempo in der Hybrid Cloud

Nachdem die Amazon Web Services (AWS) im vergangenen Jahr das deutsche Unternehmen Peritor und dessen Lösung Scalarium akquiriert und in AWS OpsWorks umbenannt haben, folgt die weitere Einbindung in die AWS Cloud Infrastruktur. Der nächste Schritt ist die Integration mit der Virtual Private Cloud, was angesichts der aktuellen Marktentwicklung ein weiterer Seitenhieb in Richtung der Verfolger ist.

AWS OpsWorks + AWS Virtual Private Cloud

Bei AWS OpsWorks handelt es sich um eine DevOps Lösung mit der Anwendungen bereitgestellt, angepasst und verwaltet werden können. Kurzum lässt sich damit der gesamte Lebenszyklus einer Applikation steuern. Dazu gehören Funktionen wie ein Nutzer-basiertes SSH-Management, CloudWatch Metriken für die aktuelle Last und den Speicherverbrauch sowie automatische RAID Volume konfigurationen und weitere Möglichkeiten zum Applikations-Deployment. Weiterhin lässt sich OpsWorks mit Chef erweitern, indem individuelle Chef Rezepte genutzt werden.

Die neue Virtual Private Cloud (VPC) Unterstützung ermöglicht nun diese OpsWorks Funktionen innerhalb eines isolierten privaten Netzwerks. Dadurch lassen sich z.B. auch Anwendungen aus einer eigenen IT-Infrastruktur in eine VPC in der Amazon Cloud übertragen, indem eine sichere Verbindung zwischen dem eigenen Rechenzentrum und der Amazon Cloud hergestellt wird. Damit verhalten sich Amazon EC2-Instanzen innerhalb einer VPC so, als ob Sie sich in dem vorhandenen Unternehmensnetzwerk befinden würden.

OpsWorks und VPC sind erst der Anfang

Glaubt man dem Ergebnis der Rackspace 2013 Hybrid Cloud Umfrage, dann haben 60 Prozent der IT-Entscheider die Hybrid Cloud als Hauptziel vor Augen. Dabei wollen bzw. haben ebenfalls 60 Prozent ihre Applikationen und Workloads aus der Public Cloud abgezogen. 41 Prozent haben angegeben die Public Cloud teilweise verlassen zu wollen. 19 Prozent wollen die Public Cloud sogar vollständig verlassen. Die Gründe für den Einsatz einer Hybrid Cloud anstatt einer Public Cloud sind eine höhere Sicherheit (52 Prozent), mehr Kontrolle (42 Prozent) sowie eine bessere Performance und höhere Zuverlässigkeit (37 Prozent). Zu den Top Vorteilen, von denen Hybrid Cloud Nutzer berichten, gehören mehr Kontrolle (59 Prozent), eine höhere Sicherheit (54 Prozent), eine höhere Zuverlässigkeit (48 Prozent), Kostenvorteile (46 Prozent) und eine bessere Performance (44 Prozent).

Diesen Trend hat AWS bereits im März 2012 erkannt und erste strategische Schritte eingeleitet. Denn die Integration von OpsWorks mit VPC ist im Grunde genommen nur ein Nebenschauplatz. Den eigentlichen Trumpf hat AWS mit der Kooperation von Eucalyptus in der Hand, die im vergangenen Jahr unterzeichnet wurde. Hierbei geht es darum, die Kompatibilität mit den AWS APIs zu verbessern, indem AWS Eucalyptus mit weiteren Informationen versorgt. Weiterhin sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Die Kunden sollen zudem die Möglichkeit bekommen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Erste Erfolge der Kooperation konnte Eucalyptus mit Version 3.3 bereits präsentieren.

Spannend bleibt wie die Zukunft von Eucalyptus aussieht. Irgendwann wird das Open-Source Unternehmen gekauft oder verkauft. Die Frage ist wer den ersten Schritt macht. Mein Tipp ist weiterhin, dass AWS eine Akquisition von Eucalyptus anstreben muss. Aus strategisch und technologischer Sicht führt daran eigentlich kein Weg vorbei.

Angesichts dieser Tatsache dürfen sich Rackspace und alle anderen, die mittlerweile auf den Hybrid Cloud Zug aufgesprungen sind, keine all zu großen Hoffnungen machen. Auch hier hat Amazon frühzeitig die Weichen gestellt und ist ebenfalls für dieses Szenario vorbereitet.

Kategorien
Analysen

Amazon EBS: Wann beseitigen die Amazon Web Services ihren Single Point of Failure?

Innerhalb kürzester Zeit standen die Amazon Web Services in der Region US-EAST-1 in North Virginia wieder still. Zum einen am 19. August 2013, wobei anscheinend ebenfalls Amazon.com mit in die Tiefe gezogen wurde und zuletzt am 25. August 2013. Ursachen sollen wieder Unwetter gewesen sein. Dabei hat es dann natürlich auch wieder die üblichen Verdächtigen, allen voran Instagram und Reddit, erwischt. Instagram scheint vehement auf seine Cloud-Architektur zu vertrauen, die ihnen regelmäßig um die Ohren fliegt, wenn in North Virginia der Blitz einschlägt. Allerdings muss auch Amazon AWS scheinbar langsam etwas an seiner Infrastruktur verändern, denn so darf es nicht weitergehen.

US-EAST-1: Alt, günstig und brüchig

Die Amazon Region US-East-1 ist die älteste und meist genutzte Region in Amazons Cloud Computing Infrastruktur. Das hängt zu einem damit zusammen, das die Kosten im Vergleich zu anderen Regionen hier deutlich günstiger sind, wobei die Region Oregon mittlerweile preislich angepasst wurde. Zum anderen befinden sich hier auf Grund des Alters auch viele ältere Kunden mit vermutlich nicht für die Cloud optimierten Systemarchitekturen.

Alle Eier in einem Nest

Den Fehler, den die meisten Nutzer begehen ist, dass sie sich nur auf eine Region, in diesem Fall US-East-1, verlassen. Fällt diese aus, ist auch der eigene Service natürlich nicht mehr erreichbar. Das gilt für alle weltweiten Amazon Regionen. Um diese Situation zu umgehen, sollte ein Multi-Regionen Konzept gewählt werden, indem die Anwendung skalierbar und hochverfügbar über mehrere Regionen verteilt wird.

Amazon EBS: Single Point of Failure

Ich habe bereits im vergangenen Jahr die These aufgestellt, dass die Amazon Web Services über einen Single Point of Failure verfügen. Im Folgenden sind die Statusmeldungen vom 25. August 2013 zu sehen, die meine These unterstreichen. Das erste Mal bin ich durch einen Blogeintrag vom Amazon AWS Kunden awe.sm darauf aufmerksam geworden, die von ihren Erfahrungen in der Amazon Cloud berichten. Die fett markierten Stellen sind von entscheidender Bedeutung.

EC2 (N. Virginia)
[RESOLVED] Degraded performance for some EBS Volumes
1:22 PM PDT We are investigating degraded performance for some volumes in a single AZ in the US-EAST-1 Region
1:29 PM PDT We are investigating degraded performance for some EBS volumes and elevated EBS-related API and EBS-backed instance launch errors in a single AZ in the US-EAST-1 Region.
2:21 PM PDT We have identified and fixed the root cause of the performance issue. EBS backed instance launches are now operating normally. Most previously impacted volumes are now operating normally and we will continue to work on instances and volumes that are still experiencing degraded performance.
3:23 PM PDT From approximately 12:51 PM PDT to 1:42 PM PDT network packet loss caused elevated EBS-related API error rates in a single AZ, a small number of EBS volumes in that AZ to experience degraded performance, and a small number of EC2 instances to become unreachable due to packet loss in a single AZ in the US-EAST-1 Region. The root cause was a „grey“ partial failure with a networking device that caused a portion of the AZ to experience packet loss. The network issue was resolved and most volumes, instances, and API calls returned to normal. The networking device was removed from service and we are performing a forensic investigation to understand how it failed. We are continuing to work on a small number of instances and volumes that require additional maintenance before they return to normal performance.
5:58 PM PDT Normal performance has been restored for the last stragglers of EC2 instances and EBS volumes that required additional maintenance.

ELB (N. Virginia)
[RESOLVED] Connectivity Issues
1:40 PM PDT We are investigating connectivity issues for load balancers in a single availability zone in the US-EAST-1 Region.
2:45 PM PDT We have identified and fixed the root cause of the connectivity issue affecting load balancers in a single availability zone. The connectivity impact has been mitigated for load balancers with back-end instances in multiple availability zones. We continue to work on load balancers that are still seeing connectivity issues.
6:08 PM PDT At 12:51 PM PDT, a small number of load balancers in a single availability zone in the US-EAST-1 Region experienced connectivity issues. The root cause of the issue was resolved and is described in the EC2 post. All affected load balancers have now been recovered and the service is operating normally.

RDS (N. Virginia)
[RESOLVED] RDS connectivity issues in a single availability zone
1:39 PM PDT We are currently investigating connectivity issues to a small number of RDS database instances in a single availability zone in the US-EAST-1 Region
2:07 PM PDT We continue to work to restore connectivity and reduce latencies to a small number of RDS database instances that are impacted in a single availability zone in the US-EAST-1 Region
2:43 PM PDT We have identified and resolved the root cause of the connectivity and latency issues in the single availability zone in the US-EAST-1 region. We are continuing to recover the small number of instances still impacted.
3:31 PM PDT The majority of RDS instances in the single availability zone in the US-EAST-1 Region that were impacted by the prior connectivity and latency issues have recovered. We are continuing to recover a small number of remaining instances experiencing connectivity issues.
6:01 PM PDT At 12:51 PM PDT, a small number of RDS instances in a single availability zone within the US-EAST-1 Region experienced connectivity and latency issues. The root cause of the issue was resolved and is described in the EC2 post. By 2:19 PM PDT, most RDS instances had recovered. All instances are now recovered and the service is operating normally.

Amazon EBS bildet die Basis vieler anderer Services

Die fett markierten Stellen sind aus diesem Grund von entscheidender Bedeutung, da alle diese Services gleichzeitig von einem einzigen Service abhängig sind: Amazon EBS. Zu dieser Erkenntnis ist awe.sm während seiner Analyse gekommen. Wie awe.sm festgestellt hat, ist EBS so gut wie immer das Hauptproblem größerer Ausfälle bei Amazon. So auch in dem obigen Ausfall. Mehr zum Amazon Elastic Block Store.

Zu den Services die von Amazon EBS abhängig sind gehören u.a. der Elastic Load Balancer (ELB), die Relational Database Service (RDS) oder Elastic Beanstalk.

Q: What is the hardware configuration for Amazon RDS Standard storage?
Amazon RDS uses EBS volumes for database and log storage. Depending on the size of storage requested, Amazon RDS automatically stripes across multiple EBS volumes to enhance IOPS performance.

Quelle: http://aws.amazon.com/rds/faqs/

EBS Backed
EC2: If you select an EBS backed AMI
ELB: You must select an EBS backed AMI for EC2 host
RDS
Elastic Beanstalk
Elastic MapReduce

Quelle: Which AWS features are EBS backed?

Load balancing across availability zones is excellent advice in principle, but still succumbs to the problem above in the instance of EBS unavailability: ELB instances are also backed by Amazon’s EBS infrastructure.

Quelle: Kommentar – How to work around Amazon EC2 outages

Wie man sieht hängen nicht wenige Services von Amazon EBS ab. Das bedeutet im Umkehrschluss, fällt EBS aus, sind diese Services ebenfalls nicht mehr verfügbar. Besonders tragisch verhält es sich mit dem Amazon Elastic Load Balancer (ELB), der dafür zuständig ist, im Fehlerfall oder bei großer Last den Datenverkehr zu leiten. Fällt also Amazon EBS aus und soll der Datenverkehr daraufhin in eine andere Region übertragen werden, funktioniert das nicht, da der Load Balancer ebenfalls von EBS abhängig ist.

Ich kann mich irren. Schaut man sich jedoch die vergangenen Ausfälle an, sprechen die Indizien dafür, dass Amazon EBS die zentrale Fehlerquelle innerhalb der Amazon Cloud ist.

Es darf daher die Frage erlaubt sein, ob einem Leader ständig dieselbe Komponente seiner Infrastruktur um die Ohren fliegen darf, die im Prinzip sogar als Single Point of Failure zu betrachten ist? Und ob ein Infrastructure-as-a-Service (IaaS) Anbieter, der die meisten Ausfälle von allen Anbietern am Markt zu verzeichnen hat, unter diesem Gesichtspunkt als Leader zu bezeichnen ist. Auch wenn ich immer wieder propagiere, dass man als Nutzer eines Public IaaS selbst für die Skalierbarkeit und Hochverfügbarkeit sorgen muss, hat der Anbieter selbst dennoch die Pflicht dafür zu sorgen, dass die Infrastruktur zuverlässig funktioniert.

Kategorien
Analysen

Cloud Storage Box könnte Dropbox und Microsoft SkyDrive Marktanteile kosten

Um für private Anwender und kleine Unternehmen attraktiver zu werden, hat der Cloud Storage Anbieter Box sein Preismodell erweitert. Ab sofort kann neben den bestehenden Tarifen für Privatanwender, Business- und Enterprise-Kunden ebenfalls ein Starter-Tarif gewählt werden, der sowohl für kleine Unternehmen und Freelancer aber auch Privatkunden interessant ist.

Privatkunden bekommen mehr kostenlosen Speicherplatz, kleine Unternehmen einen eigenen Tarif

Das Angebot für private Nutzer wurde von ehemals kostenlosen 5GB auf 10GB erhöht. Zudem wurde das Portfolio um einen neuen Starter-Tarif erweitert, der sich insbesondere an kleinere Unternehmen richten soll. Dieser bietet 100GB Speicherplatz für 1 bis max. 10 Benutzer pro Unternehmensaccount für 4EUR pro Benutzer pro Monat.

Box, die in erster Linie große Unternehmen ansprechen, erhofft sich damit, dass kleinere Unternehmenskunden und Endkunden verstärkt ihre Daten in der Cloud speichern, anstatt diese auf fehleranfälligen lokalen Datenträgern speichern bzw. sichern. Nach Aussage von CEO Aaron Levie wird Box insbesondere durch die Themen Informationen und Collaboration vorangetrieben. Ob es sich nun um einen global agierenden Konzern, ein kleines Unternehmen oder einen Freelancer handelt, am Ende geht es darum, dass man in der Lage ist, Inhalte zu teilen und von überall darauf zuverlässig und sicher zuzugreifen, so Levie.

Der neue Starter-Tarif ist nur ein Haken

Man muss ehrlich sagen, dass der neue Start-Tarif sehr interessant ist, da er die Bedürfnisse einer bestimmten Zielgruppe erfüllt. Allerdings handelt es sich dabei nicht um kleine Unternehmen, sondern Freelancer und auf jeden Fall Privatanwender. Die Funktionen die um den Speicherplatz herum angeboten werden sind definitiv auf Unternehmenslevel. Neben diversen Sicherheitsfunktionen (keine Ende-zu-Ende Verschlüsselung) auf unterschiedlichen Ebenen, stehen Integrationsmöglichkeiten über Apps auf Basis eines Ökosystems von externen Entwicklern zur Verfügung. Jedoch sind 100GB für kleine Unternehmen viel zu wenig, zumal dieses Konto für 1 bis 10 Benutzer ausgelegt ist. 10 GB pro Nutzer wird sehr schnell sehr eng. Hinzu kommt, dass viele weitere interessante und wichtige Funktionen für Unternehmen erst mit der nächsten Tarifstufe „Business“ für 12 EUR pro Benutzer pro Monat angeboten werden. Wobei mindestens drei Benutzer einzurichten sind. Dazu gehören dann 1000GB Speicherplatz sowie weitere Sicherheitsfunktionen auf Ordner- und Dateiebene pro Benutzer, Integrationsmöglichkeiten in eine Active Directory, Google Apps und Salesforce, eine erweiterte Benutzerverwaltung usw. Daher muss man zusammenfassend sagen, dass der Starter-Tarif einzig und alleine als Haken dient, um Unternehmen an Land zu ziehen.

Auf der anderen Seite ist dieser Tarif für Privatnutzer und Freelancer sehr interessant, die mehr Funktionen zu einem günstigeren Preis und zu einer ähnlichen Performance benötigen wie bei Dropbox. Denn, zwar wurde der kostenlose Privatkundentarif auf 10GB erweitert, dafür ist aber die kostenlose Obergrenze von 50GB weggefallen. Wer nun mehr als die 10GB benötigt, muss 100GB für 9 EUR pro Monat kaufen. Es macht daher also ebenfalls als Privatnutzer viel mehr Sinn, sich für einen Starter Tarif zu entscheiden und nur 4 EUR pro Monat bzw. 48 EUR pro Jahr zu bezahlen.

Der Starter Tarif kann durchaus dafür sorgen, dass Dropbox und Microsoft SkyDrive Marktanteile verlieren, wenn sich diese Erneuerung herum spricht. Insbesondere SkyDrive sollte sich warm anziehen. Zwar ist Microsofts Cloud Storage gut in die Windows Betriebsysteme integriert und weiterhin der preisgünstigste am Markt. Allerdings ist SkyDrive sehr langsam und die Benutzerfreundlichkeit ist unterdurchschnittlich. Nur um ein winziges aber entscheidendes Detail hervorzuheben, was Box ganz einfach besser macht. Die Transparenz, das was gerade im Hintergrund passiert. Zum Vergleich: Box hat eine kleine App unter Windows in welcher der Status angezeigt wird. Hier ist zu sehen: Der Fortschritt in Prozent; die ungefähre Zeit die noch verbleibt bis der Upload abgeschlossen ist; die Datei die gerade verarbeitet wird; wie viele Dateien noch verarbeitet werden müssen; wie viele Dateien insgesamt verarbeitet werden. Microsoft SkyDrive zeigt nix von alledem an. Man wird als Nutzer vollständig im dunklen stehen gelassen.

Dropbox ist als Performancekönig bekannt. Auch die Benutzerfreundlichkeit ist gut. Dennoch hat der Box Starter Tarif, auf Grund seiner erweiterten Funktionsmöglichkeiten zu einem günstigeren Preis und einer ähnlichen Performance, durchaus das Potential Dropbox Konkurrenz zu machen.

Anmerkung: Aufgrund der aktuellen Sicherheitslage wird darauf hingewiesen, dass Box ein U.S. amerikanischer Anbieter ist und die Daten in den USA gespeichert werden. Zwar werden diese dort Serverseitig verschlüsselt gespeichert. Box bietet allerdings keine Ende-zu-Ende Verschlüsselung an (nur SSL bei der Übertragung). Die Schlüssel für die auf Box‘ Infrastruktur verschlüsselt gespeicherten Daten befinden sich ebenfalls im Besitz von Box und nicht des Benutzers. Aus diesem Grund hat Box zu jeder Zeit die Möglichkeit Daten eigenständig zu entschlüsseln, um Dritte darauf Zugriff zu gewähren.

Kategorien
Analysen

Google Apps vs. Microsoft Office 365: Was sagen die vermuteten Marktanteile wirklich aus?

Im Blog von UserActivion wird in regelmäßigen Abständen die Verbreitung der Office und Collaboration Lösungen von Google Apps und Microsoft Office 356 verglichen. Ich bin zufällig auf die Marktanteile pro Branche aufmerksam geworden, danke Michael Herkens. Das Ergebnis ist aus dem Juli und zeigt die Marktanteile beider Cloud Lösungen für den Monat Juni. Der Beitrag zeigt ebenfalls einen Vergleich zum Vormonat Mai. Was dabei auffällt ist, dass Google Apps in jeder Branche mit Abstand vorne liegt. Bei der Größe und generellen Verbreitung von Microsoft ist das schon ungewöhnlich. Daher lohnt sich ein Blick hinter die Kulissen.

Google Apps mit klaren Vorsprung vor Office 365

Glaubt man den Zahlen von UserActivion, liegt Google Apps mit einem deutlichen Vorsprung in den Branchen Handel (84,3 Prozent), Technologie (88,2 Prozent), Bildung (77,4 Prozent), Gesundheitswesen (80,3 Prozent) und Regierungen (72,3 Prozent) vorne.

Im weltweiten Vergleich sieht es ähnlich aus. Allerdings hat Office 365 zum Mai in Nordamerika, Europa und Skandinavien etwas aufgeholt. Dennoch liegt das aktuelle Verhältnis laut UserActivion bei 86:14 für Google Apps. In Ländern wie Norwegen und Denmark ist ein ausgeglichenes 50:50 Verhältnis.


Quelle: useractivation.com


Quelle: useractivation.com

Haben die Google Apps Martkanteile eine Aussagekraft?

Diese Frage ist relativ einfach zu beantworten. Sie haben eine Aussagekraft was die Verbreitung von Google Apps angeht. Allerdings sagen sie nichts darüber aus, was für einen Umsatz Google mit diesen Marktanteilen macht. Denn gemessen daran dürfte das Verhältnis zwischen Google Apps und Office 365 etwas anders aussehen. Warum?

Nun, Google Apps hat mittlerweile so einen großen Marktanteil, weil die Google Apps Standard Version (existiert nicht mehr) für eine bestimmte Anzahl von Nutzern und die Google Apps for Education sehr sehr lange kostenlos genutzt werden konnte. Die Education Version ist weiterhin kostenlos. Das führt natürlich dazu, dass ebenfalls sehr sehr viele Nutzer, die über eine eigene Domain verfügen, sich für eine kostenlose Google Apps Standard Version entschieden haben, die auch nach der Abkündigung der Version weiterhin genutzt werden darf. Die einzige Einschränkung sind die maximalen Benutzer pro Domain.

So kommt es zum Beispiel dazu, dass alleine ich als einzelne Person in den vergangenen Jahren neun (9) Google Apps Standard Accounts registriert habe. Die meisten habe ich immer noch. Davon nutze ich derzeit zwei (Standard, Business) aktiv und bezahle für einen (Business).

Die Google Apps Marktanteile müssen daher wie folgt herunter gebrochen werden:

  • Google Apps Nutzer.
  • Nicht aktive Google Apps Nutzer.
  • Aktive Google Apps Nutzer die nicht bezahlen.
  • Aktive Google Apps Nutzer die bezahlen.

Wird dieses Verhältnis nun gewichtet und auf die Marktanteile in Bezug auf den Umsatz angewendet, würde Microsoft deutlich besser abschneiden. Warum?

Am Ende des Tages geht es ums harte Geld. Microsoft hat von Beginn an nichts zu verschenken. Zwar kann Office 365 für kurze Zeit kostenlos getestet werden. Anschließend fällt aber die Entscheidung für einen kostenpflichtigen Tarif oder nicht. Das bedeutet, dass davon auszugehen ist, dass jeder Office 365 Kunde, der sich nicht mehr in der Testphase befindet, gleichzeitig ein aktiver und zahlender Nutzer ist. Sicherlich erhält Google von den nicht zahlenden aktiven Nutzern Einblicke über deren Verhalten und kann ein bisschen Werbung platzieren. Bleibt aber die Frage offen, wie viel das wirklich ausmacht.

Das heißt nicht, dass Google Apps keine große Verbreitung hat. Aber es zeigt, dass die Strategie von Google zumindest in eine Richtung aufgeht. Accounts verschenken, um darüber Marktanteile zu erhalten zahlt sich (logischerweise) aus. Zudem zeigt es, dass Marktanteile nicht gleichzeitig Profitabilität bedeuten. Die meisten Menschen nehmen gerne etwas an was sie kostenlos bekommen – das Internet-Prinzip. Dass auch Google langsam damit beginnen muss seine Kundenbasis zu monetarisieren lässt sich durch die Abkündigung der kostenlosen Standardversion erkennen. Die kritische Masse scheint erreicht worden zu sein.

Microsoft war mit Office 365 im Vergleich zu Google Apps erst spät am Markt und muss erst einmal kräftig aufholen. Hinzu kommt, dass Microsoft (scheinbar) nichts zu verschenken hat. Ausgehend davon, dass die Zahlen von UserActivion valide sind, kann ein weiterer Grund durchaus darin bestehen, dass die Webseiten und das Angebot von Office 365 – im Vergleich zu Google Apps – viel zu undurchsichtig und kompliziert sind. (Tipp: Einfach mal die Webseiten besuchen.)

Google kopiert das Microsoft Prinzip

Abschließend lässt sich auf Basis der UserActivion Zahlen sagen, dass Google auf dem Besten Weg ist, dass Microsoft-Prinzip auf sich selbst anzuwenden. Microsofts Weg in die Unternehmen ging damals über die Heimanwender von Windows, Office und Outlook Produkten. Die Strategie ging auf. Wer auch am Abend mit den bekannten Programmen aus Redmond arbeitet, hat es tagsüber bei der Arbeit leichter, da er sich damit auskennt. Auch die Empfehlungen für ein Produkt von Microsoft durch die Mitarbeiter war dadurch vorprogrammiert. Dasselbe galt für die Windows Server. Wenn ein Windows Betriebssystem so einfach zu bedienen und zu konfigurieren ist, dann kann ein Server schließlich nicht viel komplizierter sein. Damit konnten auch die Entscheider ins Boot geholt werden.
Ein ähnliches Prinzip lässt sich bei Google erkennen. Google Apps ist nichts anderes als ein Best of der Google Services für Enduser, GMail, GDocs usw. verpackt in einer Suite. Die Verbreitung dieser Services ist mittlerweile ebenfalls relativ hoch, wodurch davon auszugehen ist, dass die meisten IT-Entscheider damit vertraut sind. Es bleibt daher weiter spannend zu sehen, wie sich die echten(!) Marktanteile zwischen Google Apps und Office 365 entwickeln.