Kategorien
Kommentar

AWS Activate. Startups. Marktanteile. Noch Fragen?

Startups sind die Grundlage für den Erfolg der Amazon Web Services (AWS). Mit ihnen ist der IaaS-Marktführer groß geworden. Anhand einer offiziellen Initiative baut AWS diesen Zielkundenmarkt weiter aus und wird die restlichen IaaS-Anbieter damit weiter im Regen stehen lassen. Denn von deren Seite, mit Ausnahme von Microsoft und Rackspace, passiert nichts.

AWS Activate

Es ist kein Geheimnis das AWS sich gezielt die Gunst der Startups „erkauft“. Abgesehen von dem attraktiven Service Portfolio haben Gründer, die von Accelerator unterstützt werden, AWS Credits im zweistelligen Bereich erhalten, um ihre Ideen auf der Cloud Infrastruktur zu starten.

Mit AWS Activate hat Amazon nun ein offizielles Startup-Programm gestartet, um als Business-Enabler für Entwickler und Startups zu dienen. Dieses besteht aus dem „Self-Starter Package“ und dem „Portfolio Package“.

Das Self-Starter Package richtet sich an Startups, die ihr Glück auf eigene Faust versuchen und beinhaltet das bekannte kostenlose AWS-Angebot, welches jeder Neukunde in Anspruch nehmen kann. Hinzu kommen ein AWS Developer Support für einen Monat, „AWS Technical Professional“ Training und ein vergünstigter Zugriff auf Lösungen von SOASTA oder Opscode. Das Portfolio Package ist für Startups die sich in einem Accelerator Programm befinden. Diese erhalten AWS Credits im Wert zwischen 1.000 Dollar und 15.000 Dollar sowie ein Monat bis ein Jahr kostenlosen AWS Business Support. Hinzu kommen „AWS Technical Professional“ und „AWS Essentials“ Trainings.

Noch Fragen wegen der hohen Marktanteile?

Angesichts dieser Initiative werden die Amazon Web Services auch in Zukunft alleine weiter vorne weglaufen. Mit Ausnahme von Microsoft, Google und Rackspace, positioniert sich nur AWS als Plattform für Nutzer, die dort ihre eigenen Ideen umsetzen können. Alle anderen Anbieter umarmen lieber Unternehmenskunden, die eher zögerlich auf den Cloud Zug aufspringen und bieten bei weitem nicht die Möglichkeiten einer AWS Cloud Infrastruktur. Anstatt das Portfolio auf Cloud-Services auszulegen, wird stattdessen mit Rechenleistung und Speicherplatz versucht auf Kundenfang zu gehen. Dabei hat Infrastruktur aus der Cloud mehr zu bedeuten als nur Infrastruktur.

Kategorien
Analysen

Nirvanix. Die Hölle auf Erden. Warum ein Multi-Cloud Ansatz zwangsläufig notwendig ist.

Der eine oder andere wird bestimmt davon gehört haben. Nirvanix hat sich selbst ins Jenseits befördert. Der Enterprise Cloud Storage Service, der unter anderem eine große Kooperation mit IBM eingegangen war, hatte am 16. September 2013 plötzlich die Schließung angekündigt und seinen bestehenden Kunden zunächst eine Frist von zwei Wochen eingeräumt, ihre Daten zu migrieren. Der Zeitraum wurde mittlerweile auf den 15. Oktober 2013 verlängert, da die Kunden mehr Zeit für die Migration benötigen. Wie ein Nirvanix Kunde berichtet, hat dieser dort 20 Petabyte an Daten gespeichert.

Das Ende von Nirvanix

Wie aus dem nichts hat der Enterprise Cloud Storage Anbieter Nirvanix am 16. September 2013 sein Ende erklärt. Bis heute ist nicht bekanntgegeben worden, wie es dazu gekommen ist. Gerüchte sagen, dass eine weitere Finanzierungsrunde fehlgeschlagen sei. Weitere Gründe liegen scheinbar am fehlerhaften Management. So hatte das Unternehmen seit 2008 bis heute fünf CEOs. Vergessen sollte man allerdings auch nicht den starken Konkurrenzkampf im Cloud Storage Umfeld. Zum einen haben in den vergangenen Jahren viele Anbieter ihr Glück versucht. Zum anderen senken die beiden Platzhirsche Amazon Web Services mit Amazon S3 und Microsoft mit Azure Storage in regelmäßigen Zyklen die Preise für ihre Services, die ebenfalls Enterprise-fähig sind. Auch hat es für Nirvanix nichts genützt von Gartner als einer der Top Cloud Storage Service Anbieter genannt zu werden.

Besonders brisant ist die Tatsache, dass Nirvanix in 2011 einen fünf Jahres Vertrag mit IBM abgeschlossen hat, um IBMs SmartCloud Enterprise Storage Services um Cloud-basierte Speicherkapazitäten zu erweitern. Wie IBM angekündigt hat, sollen auf Nirvanix gespeicherte Daten auf den IBM SoftLayer Object Storage umgezogen werden. Als IBM Kunde würde ich trotzdem vorsichtig anfragen, wie es um meine gespeicherten Daten steht.

Multi-Cloud: Die Eier müssen über mehrere Nester verteilt werden

Zunächst ein Gruß an die Venture Capital Gemeinde. Wenn es stimmt, dass Nirvanix auf Grund einer fehlgeschlagenen Finanzierungsrunde den Dienst einstellen musste, dann sehen wir, was für eine Verantwortung mittlerweile in deren Händen liegt. Mehr braucht man dazu nicht schreiben.

Wie soll man als Cloud-Nutzer mit so einem Horror-Szenario wie dem von Nirvanix umgehen? Nun, wie man sieht scheint eine gute Kundenbasis und Kooperationen mit globalen Playern kein Garant dafür zu sein, dass ein Service langfristig überlebt. Auch Google spielt derzeit seine Cloud-Strategie auf dem Rücken seiner Kunden aus und trifft keine verbindliche Zusage über das langfristige bestehen seiner Services auf der Google Cloud Platform, wie etwa der Google Compute Engine (GCE). Im Gegenteil, es ist davon auszugehen, dass die GCE nicht lange überleben wird wie andere bekannte Google Services auch.

Backup und Multi-Cloud

Auch wenn der Cloud Storage Anbieter für die Verfügbarkeit der Daten zu sorgen hat, trägt man als Kunde eine Sorgfaltspflicht und die muss darin bestehen, dass man über den Zustand seiner Daten informiert ist und – auch in der Cloud – für Redundanzen und Backups sorgt. Mittlerweile sind Funktionen in den gängigsten Cloud Storage Services integriert, um nahtlose Backups der Daten vorzunehmen und mehrfache Kopien zu erstellen.

Zwar befinden wir uns im Zeitalter der Cloud, dennoch gilt weiterhin: Datensicherung! Man sollte daher sicherstellen, dass ständig ein getestetes(!) und zuverlässiges Backup sowie ein Wiederherstellungsplan existieren. Weiterhin muss ausreichend Bandbreite zur Verfügung stehen, um schnellstmöglich die Daten verschieben zu können. Auch das sollte in regelmäßigen Abständen anhand eines Migration-Audit überprüft werden, um im Fall aller Fälle schnell handeln zu können.

20 Petabyte an Daten mal eben so zu verschieben ist keine leichte Aufgabe. Daher muss man sich über andere Ansätze Gedanken machen. Multi-Cloud ist ein Konzept was in Zukunft immer stärker an Bedeutung gewinnen wird. Dabei werden Daten und Applikationen über mehrere Cloud-Plattformen und Anbieter hinweg (parallel) verteilt. Darüber hatten bereits meine Analysten Kollegen und Freunde Paul Miller und Ben Kepes während ihrer Mapping Session auf der GigaOM Structure in San Francisco diskutiert. Paul hatte im Anschluss daran einen interessanten Sector RoadMap Report zum Thema Multicloud Management geschrieben.

Auch wenn neben Scalr, CliQr, Rightscale und Enstratius bereits einige Management Plattformen für Multi-Cloud existieren, befinden wir uns immer noch in einem sehr frühen Stadium was die Nutzung angeht. schnee von morgen webTV von Nikolai Longolius bspw. setzt primär auf die Amazon Web Services und hat als Fallback Szenario eine native Web-Applikation 1:1 für die Google App Engine entwickelt. Das ist kein Multi-Cloud Ansatz, zeigt aber dessen Bedeutung, um weniger Aufwand für eine Anbieterübergreifende Hochverfügbarkeit und Skalierbarkeit zu erreichen. Wie Pauls Sector Roadmap gut zeigt, ist es insbesondere die Kompatibilität der APIs, der eine große Bedeutung zugesprochen werden muss. Unternehmen werden sich in Zukunft nicht mehr nur auf einen Anbieter verlassen können, sondern ihre Daten und Applikationen über mehrere Anbieter verteilen, um eine Best-of-Breed-Strategie zu fahren und das Risiko gezielt zu streuen.

Das sollte auch in Erwägung gezogen werden, wenn man einfach „nur“ Daten in der Cloud speichert. Das goldene Nest ist die Summe aus mehreren verteilten.

Kategorien
Events

Veranstaltungstipp: CSC Cloud Strategie Forum

Am 22.10.13 lädt CSC zu einem kostenlosen Cloud Strategie Forum nach München ein. Nach einem Impulsvortrag von CSCs Mark Masterson werde ich eine dynamisch gehaltene Diskussionsrunde führen und zeigen, was die Cloud für Unternehmen bereithält, welche Herausforderungen auf dem Weg zu einer eigenen Cloud Strategie gemeistert werden müssen und was keinesfalls missachtet werden sollte.

Agenda

  • Impulsvortrag von Mark Masterson, „Resident Troublemaker“.
  • Dynamische Diskussionsrunde geführt von René Büst, Cloud Analyst, Top 50 Cloud Computing Blogger weltweit.
  • Gemeinsames Abendessen mit vielen Gelegenheiten zum Networking.

Inhalte des Vortrags zur Diskussionsrunde

  • Use Case Identifikation und Potentiale von Cloud Computing.
  • Anforderungen die zu beachten sind.
  • Cloud Enterprise Architecture – Überblick
  • Cloud Governance – Überblick
  • Cloud Skills – Überblick
  • Marktüberblick IaaS

Weitere Informationen und die Anmeldung

  • Wann: 22. Oktober 2013, 16:00 Uhr
  • Wo: Mandarin Oriental Hotel, Neuturmstrasse 1, 80331 München

Die kostenlose Anmeldung ist unter CSC Cloud Strategie Forum zu finden.

Kategorien
Kommentar

Verizon Cloud: Rechenleistung und Speicherplatz. Langweilig. Der Nächste Bitte!

Es sind diese Momente in denen man eine Pressemitteilung ließt und denkt: „Wow das könnte spannend werden.“ Es sind meistens aber auch genau diese Pressemitteilungen die man nach dem zweiten Absatz gar nicht weiterlesen möchte. Ach übrigens, Verizon hat die Enterprise Cloud neu erfunden und möchte damit gegen die Amazon Web Services antreten. Ach ja, und Verizon bietet Rechenleistung und Speicherplatz an. Das sind sehr vielversprechende Services, um im IaaS Markt erfolgreich bestehen zu können und den Markt damit auf den Kopf zu stellen. Wo doch 100% aller IaaS Anbieter exakt diese Services im Portfolio haben und sich nicht weiter voneinander differenzieren.

Die Verizon Cloud

Ein Auszug aus der Pressemitteilung:

„Verizon hat die Enterprise Cloud erfunden – jetzt erfinden wir sie neu“, sagt John Stratton, President of Verizon Enterprise Solutions. „Dies ist die Revolution für Cloud Services, auf die Unternehmen schon lange gewartet haben. Wir haben das Feedback unserer Enterprise-Kunden weltweit eingeholt und darauf basierend haben wir eine komplett neue Cloud-Plattform gebaut, um unseren Kunden genau die Funktionen zu bieten, die sie benötigen.“

Und dann dies:

„Die Verizon Cloud besteht aus zwei Hauptkomponenten: Verizon Cloud Compute und Verizon Cloud Storage. Verizon Cloud Compute ist die IaaS-Plattform, Verizon Cloud Storage ist ein objektbasierter Storage-Service.“

Verzion bietet ernsthaft Rechenleistung und Speicherplatz an. Etwas das 100% aller IaaS Anbieter auf dem Markt im Portfolio haben und verkauft dies als REVOLUTION? Nicht wirklich, oder?

ProfitBricks und CloudSigma lassen grüßen

Verizon preist weiterhin die Granularität ihrer Infrastruktur Ressourcen an:

„Bisher verfügten Services über voreingestellte Konfigurationen für Größe (z.B. klein, mittel, groß) und Leistung und nur wenig Flexibilität bei virtuellen Maschinen sowie der Netzwerkleistung und der Storage-Konfiguration. Kein anderes Cloud-Angebot bietet dieses Maß an Kontrolle.

Falsch! ProfitBricks und CloudSigma bieten von Beginn an dieses Maß an Granularität und Flexibilität. Selbst diese Eigenschaft der Verizon Cloud ist keine Revolution.

Was zwar ebenfalls keine Revolution darstellt, aber aktuelle VMware Nutzer ansprechen könnte ist die Kompatibilität zum VMware Hypervisor. Ein vielversprechender Markt, da weiterhin viele Unternehmen noch VMware Hypervisor einsetzen. Wobei auch VMware mit seinem eigenen vCloud Hybrid Service dort ein Wort mitreden wird.

Mit den falschen Waffen in den Kampf ziehen

Es ist erstaunlich, wie viele Anbieter versuchen mit neuen Angeboten gegen die Amazon Web Services zu kämpfen und anstatt einer Atombombe lediglich ein stumpfes Messer mitbringen. Zumal Verizon die Lösung von Grund auf neu entwickelt hat.

Mir stellt sich langsam die Frage, wann wir das erste Nirvanix innerhalb der IaaS-Anbieter sehen die lediglich Rechenleistung und Speicherplatz anbieten. Schließlich positionieren sich immer mehr Kandidaten.

Der nächste Bitte! (Viva la Revolution.)

Kategorien
Kommentar

Reaktion der Google PR Agentur auf die langfristige Verfügbarkeit der Google Compute Engine

Nach meinem Artikel, in dem ich das langfristige Bestehen der Google Compute Engine (GCE) in Frage gestellt habe, hat sich Googles PR Agentur bei mir gemeldet, um die Beweggründe zu verstehen. Ich habe in dem Artikel auf ein GigaOM Interview von Googles Cloud Platform Manager Greg DeMichillie reagiert, der keine Garantie für die langfristige Verfügbarkeit der GCE geben würde.

Hintergrund

Google Cloud Platform Manager Greg DeMichillie ging in einem Interview mit GigaOM auf die Frage der langfristigen Verfügbarkeit von Google Cloud Services ein und antwortete dabei für mich unerwartet und nicht im Sinne des Kunden.

„DeMichillie wouldn’t guarantee services like Compute Engine will be around for the long haul, but he did try to reassure developers by explaining that Google’s cloud services are really just externalized versions of what it uses internally. ”There’s no scenario in which Google suddenly decides, ‘Gee, I don’t think we need to think about storage anymore or computing anymore.“

Zwar relativiert DeMichillie am Ende, dass Google seine Cloud Services wohl nicht in einer Kamikaze-Aktion schließt. Dennoch handelt es sich um eine verwirrende Aussage, über einen Service, welcher erst seit relativ kurzer am Markt ist.

Die Antwort von Googles PR Agentur

Ich möchte vorab klarstellen, dass es kein Anruf war, um mich zu beeinflussen, sondern sich zu informieren und zu verstehen, wie es zu dem Artikel kam. Googles PR Agentur sagte, dass DeMichillie anscheinend falsch verstanden wurde und mein Artikel nur diese negative Aussage herausstellt und die positiven Themen vernachlässigt hat. Google würde derzeit massiv in Infrastruktur Ressourcen investieren und es keine Anzeichen und Gründe dafür gibt, dass gerade die Google Compute Engine eingestellt wird.

Meine Stellungnahme

Es ging und geht niemals darum Google (oder irgendeinen anderen Anbieter) in ein schlechtes Licht zu stellen. Das habe ich auch der PR Agentur gesagt. Aber am Ende des Tages muss der Nutzer beraten und gleichermaßen geschützt werden. Außerdem berate ich als Analyst und Advisor Unternehmen, die sich auf mein Urteil verlassen. Daher muss ich auf solche Aussagen, gerade wenn Sie direkt von einem Mitarbeiter eines Anbieters stammen, reagieren und diese in meine Entscheidungsmatrix mit aufnehmen. Was soll ich machen, wenn ich einem Kunden die Nutzung der GCE empfehle, da dies technisch und von den Anforderungen her passt, Google anschließend aber ankündigt den Service zu schließen? Aus diesem Grund reagiere ich auf solche Themen äußerst sensibel. Außerdem hat sich Google in den letzten Monaten und Jahren nicht mit Ruhm bekleckert wenn es darum geht, sein Service-Portfolio aufrechtzuerhalten. Das Ende des Google Reader hat bei den Nutzern mehr negative Reaktionen hervorgerufen als der aktuelle NSA-Skandal. Dabei handelt es sich wohlgemerkt um einen kostenlosen Service für Endkunden. Bei der Google Compute Engine sprechen wir allerdings von einem Angebot das überwiegend Unternehmen anspricht. Es geht für die Unternehmen also um viel Kapital das sie in die Hand nehmen, um ihre Workloads auf die GCE zu bringen. Wird der Service nun plötzlich geschlossen, ensteht je nach Unternehmen ein nicht zu beziffernder wirtschaftlicher Schaden, um die Daten und Applikation zu migrieren. Das sollte Google bei seinen Entscheidungen bedenken. Auch wenn es sich in diesem Fall nur um eine Aussage in einem Interview gehandelt hat. Vertrauen in das Cloud-Portfolio schafft sie nicht und passt zudem sehr gut zu den Erfahrungen der jüngsten Vergangenheit, wenn Google den Besen auspackt.

Kategorien
Kommentar

"Amazon ist nur ein Webshop!" – "Europa braucht größere Eier!"

Ich hatte in diesem Jahr die Ehre die CEO Couch des Open-Xchange Summit 2013 zu moderieren. Dabei handelt es sich um ein Format, bei der Top CEOs mit provokanten Fragen konfrontiert werden und zu einem bestimmten Thema auf den Punkt antworten. Zum meinen Gästen gehörten Hermann-Josef Lamberti (EADS), Dr. Marten Schönherr (Deutsche Telekom Laboratories), Herbert Bockers (Dimension Data) und Rafael Laguna (Open-Xchange). Das Hauptthema in diesem Jahr war Cloud Computing und wie sich deutsche und europäische Anbieter gegen die vermeintlich übermächtige Konkurrenz aus den USA behaupten sollten. Ich habe zwei Aussagen herausgegriffen die während der CEO Couch genannt wurden, die ich kritisch diskutieren möchte.

Amazon ist nur ein Webshop!

Eine Aussage hat mir Sorgenfalten bereitet. Denn zum einen hatte bereits VMware damit unterstrichen, dass sie ihren vermeintlich größten Mitbewerber scheinbar unterschätzen, zum anderen ist sie absolut falsch. Um Amazon heute immer noch als einen Webshop zu bezeichnen muss man seine Augen sehr weit schließen und in etwa 90% des Unternehmens ausblenden. Amazon ist heute mehr als ein Webshop. Amazon ist ein Technologie Unternehmen bzw. Anbieter. Rafael hat dies während seiner Keynote sehr gut dargestellt. Es gibt derzeit drei Anbieter die es geschafft haben jeweils ein eigenes geschlossenes Ökosystem von den Web-Angeboten über die Inhalte bis zu den Endgeräten aufzubauen. Dazu gehören Google, Apple und Amazon.

Neben dem Webshop Amazon.com gehören weitere Technologie-Angebote und -Services zu dem Unternehmen. Darunter die Amazon Web Services, Content Distribution für digitale Bücher, Musik und Filme (LoveFilm, Amazon Instant Video), die E-Book Reader Kindle sowie der Kindle Fire (mit einer eigenen Android Version), die Suchmaschinen A9.com, Alexa Internet und die Filmdatenbank IMDb.

Wenn man sich darüber hinaus einmal anschaut wie Jeff Bezos Amazon führt (z.B. Kindle Strategie; Verkauf zum Selbstkostenpreis; Umsatz über Inhalte), stehen bei ihm langfristiges Wachstum und Marktanteile im Vordergrund, anstatt schnelle Gewinne zu erzielen.

Wer einen guten Eindruck von Jeff Bezos‘ Denkweise bekommen möchte, dem empfehle ich den Fireside Chat mit Werner Vogels auf dem 2012er AWS re: Invent. Die 40 Minuten lohnen sich.

Europa braucht größere Eier!

Die Couch war sich geschlossen einig. Obwohl Europa das Potential und die Unternehmen hat, um in der Cloud abgesehen von Datenschutzthemen auch technisch und innovativ ein Wort mitzureden, werden im Vergleich zu den USA zu kleine Brötchen gebacken oder besser ausgedrückt: „Europa braucht größere Eier.“. Das hängt zum einen mit dem Kapital zusammen, dass Investoren in den USA bereit sind zu investieren, zum anderen aber auch an der Mentalität etwas zu riskieren, zu scheitern und groß und langfristig zu denken. An dieser Stelle können europäische Unternehmer und vor allem Investoren von Jeff Bezos lernen. Es geht um den langfristigen Erfolg und nicht darum schnell Geld zu verdienen.

Das ist meiner Ansicht nach auch ein Grund, warum wir niemals ein europäisches Unternehmen sehen werden, dass z.B. den Amazon Web Services (AWS) das Wasser reichen wird. Die potentiellen Kandidaten wie T-Systems, Orange und andere große ICT-Anbieter, die über die Rechenzentren, Infrastrukturen, das Personal und notwendige Wissen verfügen, konzentrieren sich lieber auf die Zielkunden die sie seit jeher bedienen – die Unternehmenskunden. Hingegen wird die Public Cloud sowie AWS-ähnliche Services für Startups und Entwickler völlig vernachlässigt. Das ist auf der einen Seite in Ordnung, da Cloud Angebote auf Enterprise Level und Virtual Private bzw. Hosted Private Cloud Lösungen benötigt werden, um die Bedürfnisse der Unternehmenskunden zu befriedigen. Auf der anderen Seite darf man sich dann aber auch nicht wundern, dass AWS derzeit die meisten Marktanteile besitzt und als Innovationsmaschine gilt. Die bestehenden ICT-Anbieter sind nicht bereit ihre bestehenden Geschäfte zu verändern oder durch neue Modelle zu erweitern, um damit weitere für sie attraktive Zielgruppen anzusprechen.

Allerdings, wie es auch mein Freund Ben Kepes gut beschrieben hat, ist Amazon derzeit zu recht mit Abstand der Liebling und Marktführer in der Cloud. Aber es gibt noch ausreichend Platz für andere Anbieter im Markt, die Use Cases und Workloads anbieten können, die Amazon nicht bedienen kann. Oder weil sich die Kunden einfach gegen die Nutzung von AWS entscheiden, da es für sie zu kompliziert, aufwendig, zu teuer oder mit rechtlichen Themen nicht vereinbar ist.

Also Europa, legt euch größere Eier zu! Ausreichend Potential ist vorhanden. Schließlich haben Anbieter wie T-Systems, Greenqloud, UpCloud, Dimension Data, CloudSigma oder ProfitBricks konkurrenzfähige Angebote. Von Marten Schönherr habe ich erfahren, dass er mit seinem Startup dabei ist ein Chromebook ohne Chrome zu entwickeln. Mir will allerdings nicht der Gedanke aus dem Kopf gehen, dass Rafael und Open-Xchange (OX App Suite) ihre Finger da mit im Spiel haben.

Kategorien
Events

Auf geht's zum CloudCamp Frankfurt 2013!

Am 29. Oktober 2013 findet im Rahmen der SNW Europe das CloudCamp Frankfurt 2013 statt. Dieses Jahr haben wir uns für das Leitthema „Cloud First! – Is cloud the new normal?“ entschieden und erwarten wie in 2012 wieder zahlreiche Teilnehmer. Neben ProfitBricks CMO Andreas Gauger wird ebenfalls CloudCamp Gründer und Citrix neuer Chief Cloud Advocate Reuven Cohen einen Vortrag halten.

Cloud First! – Is cloud the new normal?

Spricht man mit den Anbietern und verlässt sich auf die Zahlen der Marktforscher ist die Frage einfach zu beantworten – JA! Jedoch gilt es dies anhand von aussagekräftigen Use Cases und Fakten nachzuweisen. Weiterhin wird nicht nur der Status Quo diskutiert sondern ebenfalls kontroverse Themen angesprochen, die genau diesen derzeitigen Stand in Frage stellen und zeigen sollen, wohin wir uns in Zukunft bewegen müssen, um Cloud Computing und seine Einflüsse auf die Unternehmens-IT optimal abzubilden.

Hierzu können wir bereits einige attraktive Sprecher ankündigen.

Bestätigte Sprecher

  • Reuven Cohen, Chief Cloud Advocate Citrix, Co-Founder CloudCamp (@ruv)
  • Chris Boos, CEO arago AG (@boosc)
  • René Buest, Analyst New Age Disruption, Analyst GigaOM Research (@renebuest)
  • Mark Masterson, Troublemaker CSC Financial Services EMEA (@mastermark)
  • Hendrik Andreas Reese, TÜV Rheinland i-sec GmbH
  • Steffen Krause, Cloud & Database Evangelist Amazon Web Services (@sk_bln)
  • Andreas Gauger, ProfitBricks (@gaugi)
  • Thomas King, audriga (@thking)
  • Moderation: Roland Judas, Technical Evangelist arago AG (@rolandjudas)

Anmeldung und weitere Informationen

Die Anmeldung am CloudCamp Frankfurt 2013 ist wie immer kostenlos. Weiterhin erhält jeder Teilnehmer die Chance ebenfalls kostenlos an der „SNW Europe – Powering the Cloud“ teilzunehmen.

Die Registrierung für das CloudCamp Frankfurt erfolgt unter http://cloudcamp-frankfurt-2013.eventbrite.com. Die Anmeldung für die SNW Europe wird von uns anschließend ebenfalls in die Wege geleitet.

Fakten

  • CloudCamp Frankfurt 2013
    Im Rahmen der „SNW Europe – Powering the Cloud“
  • Wann: 29. Oktober 2013, Frankfurt
  • Uhrzeit: 16:00 Uhr bis 20:00 Uhr
  • Wo: Congress Frankfurt, Ludwig-Erhard-Anlage 1, 60327 Frankfurt am Main
Kategorien
Analysen

Enterprise Cloud Computing: T-Systems startet "Enterprise Marketplace"

Mit dem Business Marketplace konnte die Deutsche Telekom nach eigenen Angaben bereits 10.000 mittelständische Unternehmen erreichen. Nun soll ein ähnlicher Erfolg auch im Großkundenumfeld erzielt werden. Dazu steht jetzt der Enterprise Marketplace bereit, über den sich Software, Hardware oder Paket-Lösungen nach Bedarf buchen und ebenfalls unternehmensspezifische Eigenentwicklungen den eigenen Mitarbeitern bereitstellen lassen.

SaaS, IaaS und fertige Pakete

Der Enterprise Marketplace richtet sich speziell an die Bedürfnisse von Großunternehmen und bietet neben Software-as-a-Service-Lösungen (SaaS) ebenfalls vorkonfigurierte Images (Appliances) und konfigurierbare Gesamtpakete an, die sich in die bestehenden Systemlandschaften integrieren lassen sollen. Alle Services inklusive der integrierten Eigenentwicklungen befinden sich in einer Hosted Private Cloud und werden über das Netz der Telekom bereitgestellt.

Standardlösungen und Eigenentwicklung

Der Enterprise Marketplace bietet weitestgehend standardisierte Services. Die Nutzung dieser Services beinhaltet neue Releases, Updates und Patches. Die Abrechnung erfolgt monatlich und je nach Nutzung des jeweiligen Angebots. T-Systems stellt ebenfalls fertige Appliances wie bspw. einen vorkonfigurierten Apache Application Server bereit der nach Bedarf mit eigener Software erweitert und verwaltet werden kann. Weiterhin sollen Kunden in Zukunft selbst wählen können, welches T-Systems Rechenzentrum sie nutzen möchten.

Innerhalb des Enterprise Marketplace können ebenfalls unterschiedliche Angebote aus dem Marktplatz miteinander kombiniert werden, z.B. ein Webserver mit Datenbank und Content-Management-System. Weiterhin lassen sich eigene Lösungen wie Monitoring-Tools integrieren. Diese eigenen Lösungen lassen sich ebenfalls den restlichen Marktplatzteilnehmern zur Verfügung stellen. Wer und wie viele Teilnehmer Zugriff auf diese Lösung im Enterprise Marketplace erhalten entscheidet das Unternehmen alleine.

Zudem kann die Performance der jeweiligen Appliance des Enterprise Marketplace individuell angepasst werden. Der Nutzer erhält hierzu Einfluss auf die Anzahl der CPUs sowie die Größe des RAM und Speicherplatz und die Anbindungsbandbreite. In einer weiteren Ausbaustufe erfolgen ebenfalls Managed Services die Patches, Updates und Release-Wechsel beinhalten.

Marktplatz mit Lösungen von externen Anbietern

Ein individuelles Dashboard sorgt für die Übersicht aller eingesetzten bzw. freigegeben Applikationen innerhalb des Enterprise Marketplace. Zu den aktuellen Lösungen auf dem Marktplatz zählen unter anderem Web Server (z.B. Apache und Microsoft IIS), Application Server (z.B. Tomcat und JBoss), SQL-Datenbanken, Microsoft Enterprise Search sowie OpenSource-Pakete (z.B. LAMP Stack oder Joomla). Weiterhin kooperiert T-Systems mit einer Reihe von SaaS-Lösungen von Software-Partnern, die speziell für den Betrieb auf der T-Systems Infrastruktur geprüft wurden. Dazu gehören u.a. die Steuersoftware TAXOR, die Enterprise Social Media Lösung tibbr, die Business Process Management Suite T-Systems Process Cloud sowie das Nachhaltigkeitsmanagement WeSustain.

Cloud Computing auf Enterprise Level

T-Systems ist mit dem Enterprise Marketplace bereits dort angekommen, wohin sich andere Anbieter wie Amazon, Microsoft, Google, HP und Rackspace erst auf den Weg gemacht haben – bei den lukrativen Unternehmenskunden. Wo sich der Business Marketplace in erster Linie lediglich als Marktplatz für SaaS-Lösungen präsentiert, geht T-Systems mit dem Enterprise Marketplace deutlich weiter und bietet neben SaaS-Anwendungen ebenfalls Infrastruktur-Ressourcen und vollständige Lösungsansätze für Unternehmen inkl. die Integration von Eigenentwicklungen sowie Managed-Services.

Im Vergleich zu den aktuellen Cloud Playern am Markt verfügt T-Systems über keine Public Cloud und konzentriert sich stattdessen auf das Bereitstellen seiner Angebote über eine (Hosted/ Virtual) Private Cloud. Das kann sich mittelfristig rentieren. Aktuelle Marktzahlen von IDC versprechen ein Wachstum für die Public Cloud von 2013 mit 47,3 Billionen Dollar auf 107 Billionen Dollar im Jahr 2017. Die Beliebtheit der Private Cloud wird laut IDC zu Gunsten der Virtual Private Cloud (Hosted Private Cloud) abschwächen, sobald Public Cloud Anbieter damit beginnen, entsprechende Lösungen anzubieten, um den Bedenken der Kunden entgegenzukommen.

Ähnliche Beobachtungen haben wir während unserer GigaOM Studie „The state of Europe’s homegrown cloud market“ gemacht. Cloud-Kunden fordern vermehrt Managed-Services. Zwar wollen sie von den Eigenschaften der Public Cloud – flexible Nutzung der Ressourcen, Pay per use – profitieren, dieses aber gleichzeitig in einem sehr sicheren Umfeld inkl. der Unterstützung bei der Integration von Anwendungen und Systemen durch den Anbieter. All dies können die Public Cloud Player in dieser Form derzeit noch nicht bieten, da sie sich vornehmlich auf ihre Self-Service Angebote konzentrieren. Das ist in Ordnung, da sie damit bestimmte Use Cases effektiv bedienen und bisher beachtliche Marktanteile in einem bestimmten Zielkundensegment erreicht haben. Wollen Sie allerdings an die großen Fische im Enterprise Segment gelangen, werden sie ihre Strategie an das T-Systems Portfolio ausrichten müssen, um die individuellen Bedürfnisse der Kunden bedienen zu können.

Eine Anmerkung zu dem Auswahlprozess von Partnern für den Enterprise Marketplace: Gespräche mit Partnern, die auf dem Business Marketplace ihre Lösungen anbieten, bestätigen einen knallharten Auswahlprozess, der für den Partner zu einer echten „Qual“ werden kann. Spezifische Anpassungen speziell an die Sicherheitsinfrastruktur von T-Systems sind keine Einzelfälle und zeugen von einer hohen Qualitätssicherung durch T-Systems.

Kategorien
Kommentar

Die Google Compute Engine scheint keine langfristige Lösung zu sein

In einem Interview mit GigaOM hat Googles Cloud Platform Manager Greg DeMichillie eine seltsame Aussage über die Zukunft von der Google Compute Engine gemacht, welche erneut zu einer Diskussion führen muss, wie zukunftssicher dass Google Cloud Service Portfolio tatsächlich ist und wie sehr man sich auf den Suchmaschinenanbieter in seinen nicht Kernbereichen verlassen sollte.

Google ist zu agil für seine Kunden

Nachdem Google angekündigt hatte, den Google Reader einzustellen, hatte ich bereits die Zukunftssicherheit des Google Cloud Portfolio in Frage gestellt. Insbesondere wegen dem Hintergrund, dass Google immer mehr Services monetarisiert, diese mit dem Umsatz dadurch eine weitere KPI erhalten und damit noch schneller von einer Schließung bedroht sein können. Google Cloud Platform Manager Greg DeMichillie ging in einem Interview mit GigaOM genau auf diese Frage ein und antwortete unerwartet und nicht im Sinne des Kunden.

„DeMichillie wouldn’t guarantee services like Compute Engine will be around for the long haul, but he did try to reassure developers by explaining that Google’s cloud services are really just externalized versions of what it uses internally. ”There’s no scenario in which Google suddenly decides, ‘Gee, I don’t think we need to think about storage anymore or computing anymore.“

Zwar relativiert DeMichillie am Ende, dass Google seine Cloud Services wohl nicht in einer Kamikaze-Aktion schließt. Dennoch handelt es sich um eine verwirrende Aussage, über einen Service, welcher erst seit relativ kurzer am Markt ist.

Das sind Dinge die ein Kunde nicht hören sollte

Die entscheidende Frage ist, warum sich ein potentieller Kunde überhaupt noch langfristig für die Google Compute Engine entscheiden sollte? Auf Grund dieser Aussage muss man von einer langfristigen Planung mit der Nutzung der Google Compute Engine abraten und sich stattdessen lieber auf Cloud Computing Anbieter konzentrieren, die ihr Kerngeschäft tatsächlich im Infrastructure-as-a-Service Bereich haben und nicht so gutmütig sind ihre Überkapazitäten zu verkaufen, sondern ein ernsthaftes Cloud Computing Geschäft betreiben.

Ich möchte nicht den Teufel an die Wand malen. Aber Neuigkeiten wie die plötzliche Schließung von Nirvanix – einem Enterprise Cloud Storage Anbieter – schlagen große Wellen und verunsichern die Nutzer. Das sollte auch Google langsam verstehen, wenn sie ein ernsthafter Anbieter von Cloud Computing Ressourcen werden wollen!

Kategorien
Analysen

Ein Blick auf Europas eigenen Cloud Computing Markt

Europas Cloud-Markt wird weitestgehend von den Amazon Web Services, Microsoft Windows Azure und Rackspace beherrscht. Also dieselben Anbieter, die auch den Rest der Welt dominieren. Jeder dieser Anbieter hat Niederlassungen in Europa und alle versuchen die speziellen Bedenken der Europäer zu genügen. Nichtsdestotrotz entwickeln eine steigende Anzahl lokaler Anbieter ihre eigenen Cloud Computing Lösungen für den europäischen Markt. Für GigaOM Research haben Paul Miller und ich die Gründe und Bedeutungen für diese lokalen Anbieter genauer betrachtet und gefragt, ob Europas stetig wachsende Sorge mit der Dominanz US-amerikanischer Anbieter in der Cloud ein tatsächlicher Treiber für einen Wandel sein kann. Das Ziel ist es, herauszufinden, ob es einen einheitlichen europäischen Cloud-Markt gibt den diese Unternehmen bedienen müssen oder ob verschiedene Märkte zu adressieren sind.

Wesentliche Inhalte aus dem Report

  • Europäische Bedenken mit der Dominanz US-amerikanischer Cloud Anbieter
  • Gründe für die Entwicklung von Cloud Lösungen innerhalb Europas
  • Der Nutzen einer transnationalen Cloud Infrastruktur
  • Der Nutzen von lokalen oder regionalen Cloud Infrastrukturen
  • Eine Auswahl von nativen Cloud Anbietern aus Europa

Europäische Cloud Anbieter in diesem Report

  • ProfitBricks
  • T-Systems
  • DomainFactory
  • City Cloud
  • Colt
  • CloudSigma
  • GreenQloud

Der Report

Der vollständige Report kann unter „The state of Europe’s homegrown cloud market“ gelesen werden.