Kategorien
Kommentar

Infrastruktur ist Commodity! Vertikale Services sind die Zukunft der Cloud.

Im Jahr 2014 erwartet der Infrastructure-as-a-Service Markt weltweit ein Gesamtumsatz von geschätzten 6 Milliarden Dollar. Ein guter Grund in diesem Cloud Segment sein Glück zu versuchen. Zahlreiche Anbieter sind in den letzten Jahren auf diesen Zug aufgesprungen und versuchen dem Platzhirsch Amazon Web Services (AWS) Marktanteile abzunehmen. Keine leichte Aufgabe, da sich die Innovationskurve der meisten Verfolger im Vergleich zu AWS eher flach verhält. Ein Grund besteht in dem versteiften Festhalten an dem Wort Infrastruktur in Infrastructure-as-a-Services. Argumente, wegen einer deutlich höheren Performance von AWS zu einem Mitbewerber zu wechseln hören sich im ersten Moment verlockend an. Aber unterm Strich zählt der Reifegrad des Portfolios und der Blick über das gesamte Angebot und nicht nur ein kleiner Bereich, in dem man sich einen technologischen Vorsprung verschafft hat.

Infrastructure-as-a-Services meinen tatsächlich Services

Auch wenn die Amazon Web Services der erste IaaS Anbieter am Markt war, nimmt das Wort „Web-Services“ eine zentrale Rolle in der Philosophie des Unternehmens ein. Gestartet mit den grundlegenden und zentralen Services Amazon EC2 (Rechenleistung, virtuelle Maschine) und Amazon S3 (Speicherplatz) wurden in sehr kurzen Zeiträumen immer weitere neue Services ausgerollt, die mit Infrastruktur nur im weitesten Sinne etwas zu tun haben. Services wie Amazon SQS, Amazon SNS, Amazon SWF oder Amazon SES helfen AWS-Kunden dabei, die Infrastruktur zu nutzen. Das Starten einer einzigen Amazon EC2 Instanz ist nämlich genauso viel Wert, wie ein virtueller Server bei einem klassischen Webhoster. Nicht mehr und nicht weniger – und ist im Endeffekt monatlich sogar noch teurer. Wer also hofft, in Zukunft weiterhin mit Infrastrukturkomponenten – virtueller Rechenleistung, Speicherplatz, Gateway usw. – auf die Party eingeladen zu werden, wird wohl draußen bleiben müssen.

Sich aus dem Preiskampf, den sich Amazon, Microsoft und Google derzeit liefern, weitestgehend herauszuhalten ist ebenfalls ratsam. Dieser erfreut zwar die Kunden, wird früher oder später aber zu einer Marktbereinigung führen. Außerdem, wenn man sich anschaut wie Jeff Bezos Amazon führt (bspw. Kindle Strategie), lässt er sich auf jede Preisschlacht ein, nur um Marktanteile zu gewinnen. Daher sollten IaaS Anbieter das Kapital lieber nutzen, um die Attraktivität des Portfolios zu erhöhen. Kunden sind bereit für Innovationen und Qualität zu bezahlen. Darüber hinaus sind Entscheider bereit für Lösungen aus der Cloud teilweise dasselbe und sogar mehr auszugeben wie für on-Premise Angebote. Die Bedeutung liegt verstärkt auf der Flexibilisierung der Unternehmens-IT, um dem Unternehmen damit mehr Agilität zu verschaffen.

Hierzu ein Tweet von meinem Freund und Analysten-Kollegen Ben Kepes aus Neuseeland, der den Nagel ironisch auf den Kopf trifft.

Vertikale Services sind die Zukunft der Cloud

Der Infrastructure-as-a-Services Markt hat bei weitem noch nicht seinen Zenit erreicht. Dennoch ist Infrastruktur zur Commodity geworden und ist nichts Innovatives mehr. Wir sind an einem Punkt in der Cloud angekommen, wo es darum geht, die Cloud Infrastrukturen zu nutzen, um darauf Services vertikal aufzubauen. Dafür sind Unternehmen und Entwickler neben virtueller Rechenleistung und Speicherplatz auf Services von dem Anbieter angewiesen, um das eigene Angebot performant, skalierbar und ausfallsicher zu betreiben. Trotz des mittlerweile umfangreichen Service-Portfolios von Anbietern wie Amazon, Microsoft und Google ist weiterhin viel Zeit, Wissen, Aufwand und somit auch Kapital notwendig, um diesen Zustand zu erreichen. Weiterhin werden von den Anbietern nur proprietäre infrastrukturnahe Services angeboten, um mit der Infrastruktur zu arbeiten. Alles Weitere muss selbst unter Zuhilfenahme dieser Services entwickelt werden.

Aus diesem Grund fehlen dem Markt Anbieter von externen Service-Portfolios, die von Unternehmen und Entwicklern genutzt werden können, um fertige Services, die auf den Infrastrukturen und Plattformen selbst entwickelt werden müssten, on-Demand einzusetzen. Solche Mehrwertdienste lassen sich für ein bestimmtes Geschäftsszenario horizontal in die vertikalen Services integrieren und bei Bedarf nutzen. Diese BBaaS (Business-Bricks-as-a-Services) fügen sich anbieterunabhängig in bestehende Infrastructure-as-a-Services und Platform-as-a-Services ein und schaffen für den Nutzer einen Mehrwert. Die einzelnen Geschäftsbausteine sind standardisiert und bereits hochskalierbar und hochverfügbar als Web-Services implementiert und lassen sich einfach und ohne großen Aufwand integrieren.

Mehr zu dem BBaaS Konzept gibt es unter: Business-Bricks-as-a-Service (BBaaS) – Geschäftsbausteine in der Cloud.

Kategorien
Kommentar

Cloud Rockstar 2013: Netflix ist der unangefochtene König des Cloud Computing

Ich denke es ist an der Zeit ein Unternehmen für seine Arbeit in der Cloud zu adeln. Anders als man nun vielleicht vermutet, handelt es sich nicht um einen der Anbieter. Nein! Auch wenn es die Anbieter sind, die erst die Möglichkeiten schaffen, sind es die Kunden, die letztendlich etwas daraus machen und der Öffentlichkeit die Macht der Cloud zeigen. Dabei muss man selbstverständlich die gewöhnlichen Kunden von denjenigen unterschieden, die sehr viel Engagement zeigen und sich von der Denkweise und damit auch architektonisch der Cloud angepasst haben. Um es vorweg zu nehmen, bei dem König der Cloud handelt es sich um Netflix und hier insbesondere um Adrian Cockroft, den Vater der Netflix Cloud-Architektur.

Geboren für die Cloud

Bevor sich Netflix für den Einsatz seines Systems in der Cloud entschieden hat (Migration von einer eigenen Infrastruktur), verbrachte das Unternehmen viel Zeit damit, um die Cloud zu verstehen und ein Test-System innerhalb der Cloud-Infrastruktur aufzubauen. Dabei wurde insbesondere darauf geachtet, soviel realistischen Traffic bzw. Traffic Szenarien wie möglich zu erzeugen, um damit das Test-System auf seine Stabilität hin zu prüfen.

Anfangs entwickelte Netflix dazu einen einfachen Repeater, der die echten und vollständigen Kundenanfragen auf das System innerhalb der Cloud Infrastruktur kopierte. Damit identifizierte Netflix die möglichen Engpässe seiner Systemarchitektur und optimierte im Zuge dessen die Skalierbarkeit.

Netflix selbst bezeichnet seine Software Architektur gerne auch als Rambo Architektur. Das hat den Hintergrund, dass jedes System unabhängig von den anderen Systemen einwandfrei funktionieren muss. Dazu wurde jedes System innerhalb der verteilten Architektur so entwickelt, dass es darauf vorbereitet ist, dass andere Systeme zu denen eine Abhängigkeit besteht, ausfallen können und das dieses toleriert wird.

Sollte das Bewertungssystem ausfallen, verschlechtert sich zwar die Qualität der Antworten, aber es wird dennoch eine Antwort geben. Statt personalisierten Angeboten werden dann nur bekannte Titel angezeigt. Sollte das System, dass für die Suchfunktion zuständig ist, unerträglich langsam sein, muss das Streaming der Filme trotzdem einwandfrei funktionieren.

Chaos Monkey: Der heimliche Star

Eines der ersten Systeme das Netflix auf bzw. für die Cloud entwickelt hat, nennt sich „Chaos Monkey“. Sein Job ist es, zufällig Instanzen und Services innerhalb der Architektur zu zerstören. Damit stellt Netflix sicher, dass alle Komponenten unabhängig voneinander funktionieren, selbst dann wenn Teil-Komponenten ein Problem haben.

Neben dem Chaos Monkey hat Netflix viele weitere Monitoring und Test-Tools für den Betrieb seines Systems in der Cloud entwickelt, die das Unternehmen als „The Netflix Simian Army“ bezeichnet.

Netflix Simian Army: Das Vorbild

Die Simian Army von Netflix ist ein Extrembeispiel, wie eine Cloud Architektur auszusehen hat. Das Unternehmen hat viel Zeit, Anstrengungen und Kapital in die Entwicklung seiner Systemarchitektur investiert, die auf der Cloud Infrastruktur der Amazon Web Services läuft. Aber es lohnt sich und jedes Unternehmen, das die Cloud ernsthaft nutzen möchte und ein hochverfügbares Angebot präsentieren will, sollte sich Netflix unbedingt zum Vorbild nehmen.

Der Aufwand zeigt die Komplexität der Cloud

Unterm Strich ist zu sagen, dass Netflix für den Fehlerfall vorausschauend plant und sich nicht auf die Cloud verlässt. Denn irgendwas läuft auch mal in der Cloud schief, wie in jedem gewöhnlichen Rechenzentrum. Mann muss nur darauf vorbereitet sein.

Netflix zeigt sehr eindrucksvoll das es funktioniert. Wenn man jedoch bedenkt, was für einen Aufwand Netflix betreibt, um in der Cloud erfolgreich zu sein, muss man einfach sagen, dass Cloud Computing nicht einfach ist und eine Cloud Infrastruktur, egal bei welchem Anbieter, mit der entsprechenden Architektur aufgebaut werden muss. Das bedeutet im Umkehrschluss, dass die Nutzung der Cloud simpler werden muss, um auch die versprochenen Kostenvorteile zu erzielen. Denn wenn man Cloud Computing richtig nutzt, ist es zwangsläufig nicht günstiger. Neben den Einsparungen der Infrastrukturkosten die immer vorgerechnet werden, dürfen niemals die weiteren Kosten z.B. für das Personal mit den notwendigen Kenntnissen und die Kosten für die Entwicklung der skalierbaren und ausfallsicheren Applikation in der Cloud vernachlässigt werden.

Erfolgreich und sozial zugleich

Die meisten Unternehmen behalten ihren Erfolg für sich. Der Wettbewerbsvorteil wird ungerne aus der Hand gegeben. So nicht Netflix. In regelmäßigen Abstand werden Teile aus der Simian Army unter der Open-Source Lizenz veröffentlicht, mit denen jeder Cloud Nutzer die Möglichkeit erhält eine Cloud-Applikationen mit der Architektur DNA von Netflix zu entwickeln.

Cloud Rockstar 2013

Auf Grund seines Erfolgs und insbesondere seines Engagement in und für die Cloud, ist es an der Zeit, Netflix öffentlich zu adeln. Netflix hat es verstanden, die Cloud quasi in Perfektion zu nutzen und den Erfolg nicht für sich zu behalten. Stattdessen gibt das Unternehmen anderen Cloud-Nutzern die Möglichkeit, mit denselben Tools und Services eine ähnlich hochskalierbare und hochverfügbare Cloud-Applikationen aufzubauen.

Netflix wird damit von den Analysten von New Age Disruption und CloudUser.de zum „Cloud Rockstar 2013“ in der Kategorie „Bester Cloud Nutzer“ ernannt. Dieser unabhängige Award von New Age Disruption wird in diesem Jahr zum ersten Mal vergeben und zeichnet Anbieter als auch Anwender für ihre Innovationen und das außergewöhnliche Engagement im Cloud Computing aus.

Herzlichen Glückwunsch Netflix und Adrian Cockroft!

René Büst

Cloud Rockstar 2013 - Netflix

Weitere Informationen: Cloud Rockstar Award

Kategorien
Kommentar

Salesforce Customer Company Tour 13: Salesforce nutzt die Cloud als Werkzeug zur maximalen Vernetzung

Gleichzeitig mit dem neuen selbst ausgedachten Claim, eine „Customer Company“ zu sein, hat Salesforce auch den Namen seiner Kundenveranstaltung „Cloudforce“ in „Customer Company Tour 13“ (CCT13) umgetauft. Und die CCT13 hat gezeigt, der Name ist Programm, sowohl der neue Claim als auch der Name der Veranstaltung. Anstatt vorwiegend Salesforce Mitarbeiter die Arbeit machen zu lassen, durften zufriedene Kunden zu Wort kommen und die frohen Botschaften verkünden.

Salesforce braucht und will in Deutschland mehr Marktanteil

Salesforce gehört neben Amazon AWS und Google zu den Cloud Anbietern der ersten Stunde. Im Vergleich zum internationalen und europäischen Markt ist das Ansehen in Deutschland allerdings als eher gering einzustufen. Das liegt in erster Linie nicht am Salesforce Portfolio selbst, sondern zum einen am Cloud skeptischen deutschen Markt. Zum anderen daran, dass Salesforce in der Aussendarstellung immer noch als reines SaaS-CRM verstanden wird, was das Unternehmen bei weitem nicht mehr ist. Der Fokus muss auf der Vermarktung der gesamten Plattform liegen, um damit zu zeigen, dass und welche Unternehmensprozesse sich darauf abbilden lassen.

Damit hat das Unternehmen auf seiner CCT13 begonnen. Die Idee für den Claim der „Customer Company“ hat sich Salesforce übrigens von einer IBM Studie aus dem Jahr 2012 abgeschaut. Daran sieht man mal, dass auch junge disruptive Unternehmen von den alten Hasen in der Branche etwas lernen können. Um den Anspruch einer Customer Company gerecht zu werden setzt Salesforce auf insgesamt sieben Säulen: Social, Mobile, Big Data, Community, Apps, Cloud und Trust. Die ersten sechs sind bereits im Portfolio erkennbar. Vertrauen sollte allerdings selbstverständlich sein und über allem stehen.

Salesforce wird im Frühjahr 2014 übrigens ein neues Rechenzentrum in Europa, London bauen. Darüber hinaus ist ein globales Forschungs- und Entwicklungszentrum in Grenoble geplant.

Internet of Things steht weit oben auf der Prioritätenliste

Mich hat besonders der GE Use Case begeistert, der am Rande der Veranstaltung leider nur wenig Aufmerksamkeit bekam. Allerdings zeigt genau dieser das große Potential der Salesforce Plattform und in welche Richtung Salesforce steuern wird. GE nutzt Salesforce Chatter, um seine Support-Teams über aktuelle Status der Flugzeugtriebwerke zu informieren (M2M Kommunikation). Mehr Hintergrundinformationen stehen dazu noch nicht zur Verfügung. Aber dieses Video stellt den Use Case ganz gut dar.

http://www.youtube.com/watch?v=GvC1reb9Ik0

Salesforce zeigt genau dass, was ich der Zukunft der Cloud bereits bescheinigt habe. Die Cloud dient als technologische Basis für die maximale Vernetzung von allem, u.a. für das Internet of Things. Und hier ist Salesforce mit seiner Plattform und der strategischen Ausrichtung auf dem richtigen Weg, einer der großen Player in diesem Markt zu werden.

Es zeigt aber noch etwas anderes. Salesforce ist mittlerweile viel mehr als nur Sales. Vielleicht erleben wir somit bald das nächste Mammutprojekt. Der Namenswechsel von Salesforce in „ – wir dürfen gespannt sein -“.

Kategorien
Kommentar

SpotCloud übersehen: Der Deutsche Börse Cloud Exchange ist nicht der erste industrieweite anbieterneutrale Cloud-Marketplace

Ich hatte bereits in meinem Kommentar zum Cloud-Marketplace der Deutsche Börse darauf hingewiesen, dass es sich dabei nicht um den ersten Cloud Marktplatz seiner Art handelt und Reuven Cohen mit SpotCloud im Jahr 2010 bereits deutlich früher dran war. Nachdem ich in der Presse einmal quer gelesen habe, muss ich sagen, dass der „Deutsche Börse Cloud Exchange“ etwas sein möchte was er gar nicht ist – der „erste“ industrieweite und anbieterneutrale Marktplatz für Cloud-Infrastruktur Ressourcen.

Drei Jahre zu spät!

Das Marketing der Deutsche Börse scheint sich mit Lorbeeren schmücken zu wollen, die ihnen überhaupt nicht zustehen. So interessant die Idee des Deutsche Börse Cloud Exchange (DBCE) auch ist, sollte man ruhig bei der Wahrheit bleiben. Denn bei dem Marktplatz handelt es sich bei Weitem nicht um den ersten industrieweiten und zudem noch anbieterneutralen Marktplatz für Cloud-Infrastruktur Ressourcen. Diese Krone darf sich Reuven Cohen aufsetzen, der SpotCloud bereits 2010 veröffentlicht hat. In der Spitze hat SpotCloud bisher 3.200 Anbieter und 100.000 Server weltweit verwaltet.

Zudem unterstützt SpotCloud seit April 2011 ebenfalls OpenStack. Ein Punkt den auch Stefan Ried berechtigterweise am DBCE kritisiert hat.

Also liebes Marketing von der Deutsche Börse, gute Idee/ Lösung, aber bitte bei der Wahrheit bleiben. Selbst die NSA schafft es nicht mehr, etwas vor der Öffentlichkeit zu verstecken.

Kategorien
Kommentar

Die Deutsche Börse bringt mit einem eigenen Cloud-Marketplace mehr Standardisierung und Vertrauen in die Cloud

Zu Beginn des Jahres 2014 wird die Deutsche Börse in den Bereich für Cloud-Marketplaces einsteigen und unter dem Namen „Deutsche Börse Cloud Exchange AG“ einen eigenen Broker für Infrastructure-as-a-Services anbieten. Als Basis-Technologie setzt das Unternehmen auf den deutschen Cloud-Management Anbieter Zimory, mit dem ebenfalls ein Joint Venture gegründet wird.

Unabhängiger Cloud-Marketplace für Infrastruktur-Services

Der Cloud-Marketplace soll Anfang 2014 starten und als Marktplatz für Cloud-Storage und Infrastruktur-Ressourcen dienen. Um die technische Seite zu realisieren hat die Deutsche Börse mit dem deutschen Cloud-Management Anbieter Zimory ein Joint Venture gegründet. Zimory wird somit die Verantwortung haben, dass alle Kunden reibungslos auf die von ihnen eingekauften Cloud-Ressourcen zugreifen können.

Mit dem Cloud-Marketplace konzentrieren sich beide Unternehmen sowohl auf den öffentlichen Sektor als auch auf Forschungseinrichtungen, die bei Bedarf mehr Infrastruktur-Ressourcen wie Speicherplatz und Rechenleistung benötigen oder selbst Überkapazitäten haben und diese auf dem Marktplatz anbieten möchten.

Die Deutsche Börse Cloud Exchange wird als internationaler und anbieterneutraler Cloud-Marketplace ausgerichtet und ist für die Standards wie das Produktangebot, das Zulassungsverfahren, den Anbieterwechsel und für die Garantien und Gewährleistungen der eingekauften Ressourcen verantwortlich. Kunden sollen den Anbieter frei wählen können und dabei selbst entscheiden können, in welchem Rechtsraum die Daten gespeichert werden. Dazu werden die Spezifikation und Standards sowie deren technische Bereitstellung in enger Zusammenarbeit mit den Teilnehmern des Marketplace abgestimmt.
Als potentielle Partner nennt die Deutsche Börse Cloud Exchange Anbieter aus dem klassischen IT-Bereich sowie national und internationale mittelständische Unternehmen und Großkonzerne. Dazu gehören u.a. CloudSigma, Devoteam, Equinix, Host Europe, Leibniz-Rechenzentrum, Profi AG, T-Systems und der TÜV-Rheinland.

Kommentar: Ein unabhängiger und standardisierter Marketplace sorgt für mehr Vertrauen in die Cloud

Ein Cloud-Marketplace wie ihn die Deutsche Börse anbieten wird, ist grundsätzlich nichts Neues. Der erste Marketplace seiner Art wurde als Spotcloud von Reuven Cohen auf den Markt gebracht. Auch die Amazon Web Services bieten mit ihren Spot-Instances die Möglichkeit, mit virtuellen Instanzen zu handeln. Dabei handelt es sich jedoch um einen proprietären Marktplatz. Und das ist der entscheidende Vorteil für den Deutsche Börse Cloud Exchange, er ist anbieterunabhängig. Das bescheinigt ihm zum einen ein größeres Angebot an Ressourcen, zum anderen auch mehr Vertrauen, indem die Abhängigkeit zu einem einzigen Anbieter aufgelöst wird. Einen weiteren Vertrauensvorschuss liefert zudem die Deutsche Börse selbst. Diese handelt in ihrem Kontext seit jeher mit Wertpapieren, Energie und weiteren Rohstoffen ebenfalls mit virtuellen Gütern. Warum soll sie das nicht auch mit virtuellen IT-Ressourcen machen. Die Deutsche Börse wird also als Gesicht nach Außen für die organisatorische Sicherheit und die Awareness sorgen, wohingegen Zimory für die technische Abwicklung im Hintergrund zuständig ist.

Ein weiterer wichtiger Punkt, der ein Schlüssel zum Erfolg werden kann ist das Thema Standardisierung. Seit Beginn der Cloud wurde über „Standards in der Cloud“ diskutiert und wer für DEN Standard sorgen wird. Möglicherweise haben wir mit dem Deutsche Börse Cloud Exchange eine ernsthafte Initiative aus der Industrie gefunden, die dafür sorgen wird, dass es demnächst einen einheitlichen Cloud Standard geben wird. Das hängt natürlich von der entsprechenden Beteiligung der Cloud Anbieter ab. Dennoch zeigen die ersten Partner allen voran CloudSigma, Equinix und T-Systems (setzt u.a. auch auf OpenStack) ihr Interesse in die Richtung. Es bleibt in diesem Zusammenhang zudem abzuwarten, wie sich die Open Cloud Community hierzu aufstellen wird.

Bei der ersten Version des Deutsche Börse Cloud Exchange wird es sich um einen reinen Marketplace für Cloud-Infrastruktur handeln. Ein nächster Evolutionsschritt sollte darin bestehen, ebenfalls externe Mehrwert-Services mit in den Marketplace aufzunehmen, mit denen die Infrastruktur-Ressourcen effektiv genutzt werden können, um Entwickler damit zu animieren die Ressourcen zu nutzen, um neue Web-Applikationen und Backendsoftware für mobile Apps zu entwickeln. Weiterhin sollte der Marketplace als echter Cloud-Broker aufgestellt werden.

Kategorien
Kommentar

ITDZ Berlin geht mit HP in die Private Cloud – Public Cloud bleibt eine Option

Das IT-Dienstleistungszentrum Berlin (ITDZ Berlin) hat mit HP eine Kooperation zum Aufbau einer Private Cloud geschlossen. Das System soll dazu alle an das Berliner Landesnetz angeschlossenen Dienststellen mit automatisierten Infrastructure- und Platform-as-a-Services versorgen (IaaS bzw. PaaS).

Private Cloud soll Automatisierung und Standardisierung vorantreiben

Mit der neuen Private Cloud will das ITDZ Berlin die Bereitstellung bestehender Dienste automatisieren, um sie Kunden noch effizienter, schneller und günstiger zur Verfügung zu stellen als bisher. Und dabei die sehr hohe Prozess-Stabilität und das Sicherheits-Niveau, das den strengen Datenschutzrichtlinien des öffentlichen Dienstes entspricht, erfüllen. Zudem sollen über die Private Cloud neue Infrastructure-as-a-Services für Server und Speicher sowie weitere Plattform-Services bereitgestellt werden. Diese sollen wiederum als Grundlage für neue Software-Services dienen, die Kunden und Bürgern das Arbeiten und Leben in Berlin erleichtern sollen.

Das ITDZ Berlin möchte darüber hinaus seine IT stärker zentralisieren, virtualisieren und automatisieren, um die Serviceleistungen weiter zu verbessern. Das bedeutet, dass mit neuen Diensten und verkürzten Beschaffungs- und Bereitstellungsvorgängen für die Kunden eine erhebliche Produktivitätssteigerungen erzielt werden soll. Weiterhin soll die Cloud dazu beitragen, die IT von Stadt und Land Zug um Zug zu verschlanken. Das ITDZ Berlin geht davon aus, dass sich eine Vielzahl der von Berliner Behörden betriebenen Server, entsprechend den Vorgaben des Berliner Rechnungshofs, in die neue Private Cloud verlagern lassen.

Grafische Oberflächen und Self-Service Portal für einfache Nutzung

HP wird im Rechenzentrum des ITDZ Berlin dazu ein flexibel skalierbares HP CloudSystem Enterprise einrichten. Zu den vereinbarten Leistungen HPs gehören dabei neben der Lieferung des Systems auch Beratungs-, Implementierungs- und Support-Dienstleistungen. Das HP CloudSystem Enterprise besteht aus vorkonfigurierten HP-Servern und HP-3PAR-Storage-Systemen sowie aus Netzwerk-Technik von HP Networking. Die Verwaltung erfolgt über die Cloud-Management-Software HP Cloud Service Automation. Für die Virtualisierung von Servern und Speichern sorgt Software von VMWare.

Zu HPs CloudSystem Enterprise gehört die Verwaltungs-Software HP Cloud Service Automation in der Version 3.0. Damit lässt sich die Private Cloud des ITDZ Berlin automatisiert betreiben. Die Software bietet Werkzeuge für die Verwaltung des gesamten Bereitstellungszyklus der Cloud, von der virtuellen Infrastruktur bis zur Cloud-Service-Anwendung. Dazu gehört beispielsweise ein Service-Designer mit grafischer Oberfläche, mit dem Mitarbeiter des ITDZ Berlin Teildienste per Drag-and-Drop zu Cloud-Diensten zusammenstellen können. Oder das Self-Service-Portal, über das Kunden die verfügbaren Infrastruktur- oder Plattformdienste bestellen können. Das Portal ist so vorkonfiguriert, dass Benutzer unter standardisierten Infrastrukturen und Plattform-Services auswählen können. Benutzerrechte und Regeln verhindern, dass Dienststellen oder Mitarbeiter Services bestellen, die für sie ungeeignet sind oder für die sie keine Genehmigung haben.

Über das Self-Service-Portal bestellte Infrastruktur-Ressourcen werden je nach Bedarf zugeteilt und sobald sie nicht mehr benötigt werden, wieder in den Pool der Cloud zurückgegeben. Das verbessert die Auslastung von Server-, Speicher- und Netzwerkhardware und schafft gleichzeitig mehr Flexibilität. Letztere ist für das IT-Dienstleistungszentrum von besonderer Bedeutung: Die zwei Data Center des ITDZ Berlin sind immer wieder kurzzeitigen Lastspitzen ausgesetzt, am Montag oder vor der Ferienzeit, wenn besonders viele Bürger Behördengänge erledigen und die IT-Services der angeschlossenen Dienststellen mehr Ressourcen brauchen als üblich. Der so entstehende Zusatzbedarf lässt sich mit den Services des Cloud System Enterprise decken – einfach, schnell und ohne zusätzliche Kosten.

Kommentar: Werden Daten klassifiziert ist die Public Cloud kein Tabuthema

Während einer Telefonkonferenz zu der Ankündigung, bestätigte mir Konrad Kandziora, Vorstand des ITDZ Berlin meine Frage, dass die Public Cloud weiterhin eine Option sei. Es gehe darum, die Daten vorab zu klassifizieren, was das ITDZ tue. So sieht Kandziora weiterhin Potential in der Public Cloud, um bspw. darüber ein online Bibliothekssystem zu realisieren. Für behördliche und polizeiliche Informationen sehe er hingegen die Private Cloud als die einzige Lösung.

Was sich während der Telefonkonferenz weiterhin bestätigt hat, ist mein „Top-Trend: Webbasierte GUIs für Cloud IaaS„. HP ermöglicht es dem ITDZ Berlin und seinen Kunden über eine grafische Oberfläche, Services per Drag-and-Drop zu Cloud-Diensten zusammenstellen. (Screenshots dazu gibt es auf der HP Flickr-Seite.) Das ist insofern sehr wichtig, dass viele Administratoren keine Entwickler sind und dadurch zwangsläufig nicht wissen, wie sie Infrastructure-as-a-Service (IaaS) APIs nutzen sollen, um sich programmatisch eine komplexe Cloud-Infrastruktur aufzubauen. Graphische Oberflächen helfen auch nicht Cloud-affinen Nutzern sich eine Cloud-Infrastruktur “zusammenklicken”, ohne Kenntnisse von der darunter liegenden API besitzen zu müssen.

Kategorien
Kommentar

PRISM spielt deutschen und europäischen Cloud Computing Anbietern in die Karten

Die US-Regierung und allen voran PRISM hat den US-amerikanischen Cloud Computing Anbietern einen Bärendienst erwiesen. Erste Diskussionen entfachen nun, ob damit der Public Cloud Markt dem Tode geweiht sei. Bei weitem nicht. Im Gegenteil, europäischen und deutschen Cloud Computing Anbietern spielt dieser Skandal in die Karten und wird dafür sorgen, dass der europäische Cloud Computing Markt in Zukunft stärker wachsen wird als vorhergesagt. Denn das Vertrauen in die USA und seine Anbieter hat die US-Regierung selbst massiv zerstört und damit auf dem Gewissen, wodurch sich Unternehmen, stand Heute, nach Alternativen umschauen müssen.

Wir haben es doch alle gewusst

Es gab immer Vermutungen und Bedenken von Unternehmen, ihre Daten in eine Public Cloud eines US-amerikanischen Anbieters zu speichern. Dabei stand der der Patriot Act im Mittelpunkt der Diskussionen in Q&A-Sessions oder Panels nach Vorträgen oder Moderationen die ich gehalten habe. Mit PRISM erreichen die Diskussion nun ihren Höhepunkt und bestätigen, leider, diejenigen die schon immer Abhöraktionen durch die USA und anderer Länder als Argument geliefert haben.

David Lithicum hat sich bereits bei der NSA für den Mord an der Cloud bedankt. Ich argumentiere mit einem Schritt zurück und sage, dass die NSA für den Tod der US-amerikanischen Cloud-Anbieter verantwortlich „wäre“, ob es soweit kommt, bleibt noch abzuwarten. Menschliche Entscheidungen sind nicht immer rationaler Natur.

Unabhängig davon ist die Public Cloud nicht vollständig Tod. Unternehmen hatten schon vor dem Bekanntwerden des PRISM-Skandals die Aufgabe, ihre Daten nach unternehmenskritischen und öffentlichen zu klassifizieren. Dieses muss sich nun noch weiter verstärken, denn die Public Cloud vollständig aufzugeben wäre falsch.

Bye Bye USA! Welcome Europa und Deutschland

Wie ich bereits oben geschrieben habe, sehe ich weniger den Tod der Cloud selbst, sondern viel mehr den Tod der US-Anbieter kommen. Damit schließe ich auch diejenigen ein, die hier in Europa oder Deutschland ihre Standorte und Rechenzentren haben. Denn das Vertrauen ist dermaßen zerstört, dass sämtliche Erklärungs- und Beschwichtigungsversuche sich in Nullkomma nix in Luft auflösen.

Fakt ist, dass US-Anbieter und deren Töchterfirmen dem Patriot Act und demnach auch dem „Foreign Intelligence Surveillance Act (FISA)“ unterstellt sind, was sie dazu verpflichtet Auskünfte über angefragte Informationen zu erteilen. Die Anbieter versuchen sich hier derzeit aktiv zu stärken, indem mehr Verantwortung von der US-Regierung gefordert wird, um das restliche Vertrauen was noch vorhanden ist, zumindest zu behalten. Das ist lobenswert aber ebenso notwendig. Dennoch haben die Diskussionen um vermeintliche Schnittstellen, „Kopier-Räume“ oder Backdoors bei den Anbietern, mit denen Dritte ungehindert die Daten abgreifen können, einen äußerst faden Beigeschmack hinterlassen.

Das sollte nun verstärkt europäische und deutsche Cloud-Anbieter ermutigen. Denn nicht dem US-amerikanischen Einfluss zu unterliegen sollte als ein noch größerer Wettbewerbsvorteil denn je ausgespielt werden. Dazu gehören u.a. der Standort des Rechenzentrums, der Rechtsrahmen, der Vertrag, aber auch die technische Sicherheit (z.B. End-to-End Verschlüsselung).

Je nachdem wie die US-Regierung in der nächsten Zeit reagieren wird, bleibt es spannend zu sehen, wie sich US-amerikanische Anbieter auf dem europäischen Markt verhalten. Bisher handelt es sich immer um 100% Tochterunternehmen der großen US-Konzerne, die hier vor Ort nur als Ableger gelten und der Mutter in den USA vollständig unterstellt sind.

Auch wenn ich kein Befürworter weder einer reinen „Euro-Cloud“ noch einer „Deutschen Cloud“ bin. Es kann unter diesen aktuellen Umständen nur eine europäische Lösung geben. Viviane Reding, EU-Kommissarin für Justiz, ist jetzt gefragt, um eine bedingungslose Datenschutzverordnung für Europa durchzusetzen, welche die europäischen Unternehmen gegenüber den US-Unternehmen unter diesen Gesichtspunkten im Wettbewerb stärkt.

Der Mut der Anbieter ist gefragt

Allen Anschein nach wird es kein zweites Amazon, Google, Microsoft oder Salesforce aus Europa oder gar Deutschland geben. Die großen, allen voran T-Systems und SAP stärken aktuell ihr Cloud-Geschäft und bieten Unternehmen damit eine echte Alternative zu US-Anbietern. Auch sind vereinzelnd Lichtblicke von Startups am Horizont zu erkennen. Was jedoch fehlt sind u.a. echte und gute Infrastructure-as-a-Service (IaaS) Angebote von jungen Unternehmen die nicht nur Infrastruktur-Ressourcen im Portfolio haben, sondern ähnlich wie Amazon auf Services setzen. Die Problematik beim IaaS besteht in den hohen Kapitalanforderungen, die dafür notwendig sind, um auch u.a. eine massive Skalierbarkeit zu gewährleisten.

Andere Startups die z.B. Platform-as-a-Service (PaaS) anbieten, setzen in vielen Fällen im Hintergrund wieder auf die Infrastruktur von Amazon – US-Anbieter. Hier sind dann allerdings Anbieter wie T-Systems in der Pflicht, sich nicht ausschließlich auf Unternehmen zu konzentrieren, sondern ebenfalls über den „Amazon-Weg“ es Entwicklern ermöglichen, ihre Ideen und Lösungen auf einer Cloud-Infrastruktur in Deutschland und Europa zu entfalten. Es fehlt einfach eine echte(!) deutsch-europäische Alternative zu den Amazon Web Services, Google, Microsoft oder Salesforce!

Wie sollten sich Unternehmen jetzt verhalten?

Unter all diesen Gesichtspunkten muss man Unternehmen raten, sich nach einem Anbieter umzuschauen, der sich in einem Land befindet, das die für das Unternehmen selbst geforderten rechtlichen Bedingungen hinsichtlich Datenschutz und Informationssicherheit gewährleistet. Und das kann derzeit nur ein Anbieter aus Europa bzw. Deutschland sein. Nebenbei bemerkt war das auch schon vor PRISM so. Weiterhin stehen Unternehmen selbst in der Pflicht, ihre Daten zu klassifizieren und unternehmenskritische Informationen mit einem deutlich höheren Schutzniveau zu bewerten als weniger wichtige und öffentlich zugängliche Informationen.

Wie es bei US-amerikanischen Unternehmen konkret ausschaut ist schwer zu sagen. Immerhin halten 56 Prozent der US-Bürger das Überwachen von Telefonaten für akzeptabel. Europäer, aber vor allem die Deutschen werden das allerdings anders sehen. Insbesondere wir Deutschen werden keine Stasi 2.0, die anstatt auf Spione aus den eigenen Reihen (Nachbarn, Freunde, Eltern, Kinder usw.), auf Maschinen und Services setzt, akzeptieren!

Kategorien
Kommentar

PRISM: Auch die Hochschule Furtwangen plant Schnittstellen zur Cloud-Überwachung in Deutschland

PRISM ist derzeit in aller Munde. Das sich Ähnliches aber auch bald in Deutschland abspielen soll, dürfte uns sorgen bereiten. Trotz dass dieses Interview im Manager Magazin erschienen ist, scheint es in der restlichen deutschen Medienlandschaft ein wenig untergegangen zu sein, leider. Denn in Deutschland sind wir ebenfalls auf dem Weg Schnittstellen zur Überwachung in Cloud-Lösung zu integrieren. Und das Entwickelt und gefördert von der Hochschule Furtwangen!

Drittorganisationen sollen Datenströme überprüfen können

In einem Interview mit dem Manager Magazin unter dem anscheinend harmlosen Titel „SICHERHEIT BEIM CLOUD COMPUTING – „Der Kunde sitzt am kürzeren Hebel“ sagt Professor Christoph Reich von der Fakultät Informatik an der Hochschule Furtwangen und Leiter des dortigen Cloud Research Center: „Wir wollen Schnittstellen definieren, die Drittorganisationen die Möglichkeit geben, die Datenströme zu überprüfen.„.

Diese Aussage war die Antwort auf die Frage, wie es technisch realisiert werden kann, dass eine Art Rechenschaftskette aufgebaut werden soll, die über Anbietergrenzen funktioniert. Das hat den Hintergrund, dass somit die Eigenschaft weitergegeben werden soll, „… dass personenbezogene Daten besonders gut geschützt werden…“. Aus diesem Grund darf diese Rechenschaftskette nicht abreißen, wenn ein weiterer Anbieter mit ins Spiel kommt.

Soweit so gut. Allerdings wird es dann spannend. Auf die anschließende Frage vom Manager Magazin:

Wäre damit auch der Bund ein potentieller Kunde? Deutsche Strafverfolgungsbehörden verlangen ja nach einer einheitlichen Schnittstelle, um Cloud-Kommunikationsdaten in Echtzeit überwachen zu können.

antwortet Professor Reich:

Im Prinzip geht das schon in diese Richtung. Aber eine gerichtlich verwertbare Nachprüfbarkeit sieht noch mal ganz anders aus. Wenn man beweissichere Daten aufnehmen will, braucht man spezielle Speicher dafür, die sehr teuer sind. Wir wollen nur dem Kunden die Möglichkeit geben, visualisiert zu bekommen, wo seine Daten liegen.

Mal unabhängig davon, dass die Hochschule Furtwangen nicht über diese „speziellen Speicher“ verfügt, aber eine staatliche Organisation bestimmt. Und solange die Schnittstellen dafür zur Verfügung stehen, können die Daten auch abgefangen und an einem dritten Ort gespeichert werden.

Cloud Computing lebt vom Vertrauen

Ich habe es schon vor drei Jahren geschrieben „Cloud Computing ist eine Frage des Vertrauens, der Verfügbarkeit und Sicherheit!„. Die Hochschule Furtwangen möchte mit ihrem „Überwachungsprojekt“ ebenfalls Vertrauen in der Cloud schaffen.

Ich frage mich nur, wie man weiter Vertrauen aufbaut, wenn man Schnittstellen für die potentielle (staatliche) Überwachung von Datenströmen in Cloud-Lösungen integrieren möchte?!

Kategorien
Kommentar

Wer sein ASP als SaaS verkauft macht etwas grundlegend falsch!

Trotz der anhaltenden Verbreitung der Cloud und des Software-as-a-Service (SaaS) Modells trifft man immer wieder auf den einen oder anderen, der im festen Glauben verankert ist, Cloud Computing schon seit gefühlten 20 Jahren anzubieten. Denn ASP (Application Service Providing) sei schließlich nichts anderes. Ähnlich verhält es sich mit klassischen Outsourcern, deren Pre-Sales Team nach einem Anruf gerne einen Termin vereinbart, um mit dem Kunden vor Ort eine „maßgeschneiderte“ Cloud Computing Serverinfrastruktur zu modellieren, die von dem Kunden vorab bezahlt werden darf. Hier soll es aber darum gehen, warum ASP mit SaaS und der Cloud nicht den Hauch einer Spur zu tun hat.

ASP: 50 Kunden und 50 Applikationen

Sind wir ehrlich. Ein Unternehmen, das eine Anwendung vertreiben möchte wird früher oder später auf den Gedanken kommen, dass es seine Gewinne doch irgendwie maximieren möchte. In diesem Zusammenhang haben die Economies of scale eine wichtige Bedeutung, um eine effiziente Lösung am Markt zu platzieren, die so konstruiert ist, dass diese trotz des eigenen Wachstums weiterhin profitabel bleibt. Leider kann ein ASP Modell genau das nicht nachweisen. Denn ASP hat ein Problem, es skaliert nicht dynamisch, sondern ist nur so schnell, wie der Administrator der dafür sorgen muss, dass ein weiterer Server eingekauft, im Serverraum installiert, mit dem Betriebssystem und weiterer Basissoftware und der eigentlichen Kundensoftware ausgestattet ist.

Weiterhin wird bei dem typischen ASP-Modell für jeden Kunden eine Instanz der jeweiligen Software benötigt. Im schlimmsten Fall (je nach Performance) wird sogar für jeden Kunden mindestens ein eigener (physikalischer) Server benötigt. Das bedeutet in Zahlen, dass für 50 Kunden, welche exakt dieselbe Anwendung aber getrennt voneinander nutzen möchten, 50 Installationen der Applikation und 50 Server benötigt werden. Vergessen sollten man dabei nicht Themen wie Datenbanken, in denen in vielen Fällen bis zu drei Mal so viele Datenbanken eingesetzt werden müssen wie Applikationen für die Kunden bereitgestellt sind.

Man überlege sich darüber hinaus den Aufwand (die Kosten), den ein ASP-Anbieter betreibt, um neue Kunden zu integrieren und die gehosteten Systeme zu verwalten, zu warten sowie mit Patches und Upgrades zu versorgen. Das ist unprofitabel!

SaaS: 50 Kunden und 1 Applikation

SaaS setzt im Vergleich zu ASP auf ein viel effizienteres und profitableres Modell. Anstatt für jeden Kunden jeweils eine Applikation zu betreiben, kommt nur eine einzige Instanz einer Applikation für alle Kunden zum Einsatz. Das bedeutet, dass für 50 Kunden nur 1 Instanz der Applikation benötigt wird, die alle gemeinsam aber isoliert voneinander nutzen. Damit wird insbesondere der Aufwand für den Betrieb und das Management der Applikation reduziert. Wo ein Administrator beim ASP-Modell jede Software der 50 Installation updaten musste, reicht es beim SaaS, wenn eine einzige Instanz aktualisiert wird. Wollen neue Kunden die Applikation nutzen wird ihnen der Zugang zu der Anwendung automatisch eingerichtet, ohne dass ein Administrator erst einen neuen Server installieren und die Applikation einrichten muss. Das spart sowohl Zeit als auch Kapital. Das bedeutet, dass die Anwendung mit den Anforderungen durch neue Kunden profitabel mitwächst.

Multitenancy ist der Schlüssel zum Erfolg

Das Konzept hinter SaaS, das einen entscheidenden Unterschied zwischen ASP und SaaS ausmacht, nennt sich Multitenancy (Mandantenfähigkeit). Hier werden auf ein und demselben Server bzw. Softwaresystem mehrere Mandaten, also Kunden gehostet, ohne das sich diese gegenseitig in die Daten, Einstellungen usw. schauen können. Das bedeutet, dass auch nur jeder Kunde seine Daten sehen und bearbeiten kann. Ein einziger Mandat innerhalb des Systems bildet dabei eine auf die Daten bezogene und organisatorisch geschlossene Einheit.

Wie bereits oben angemerkt, sind die Vorteile eines Multitenancy Systems, die Applikation zentral zu installieren und zu warten sowie der optimierte Speicherbedarf für die Datenhaltung. Das hängt damit zusammen, dass Daten und Objekte die mandantenübergreifend gehalten werden, nur für ein installiertes System gespeichert werden müssen und nicht pro Mandat. In diesem Zusammenhang muss noch einmal betont werden, dass ein Softwaresystem nicht mandantenfähig wird, indem jeder Mandanten eine eigene Instanz einer Software erhält. Alle Mandaten nutzen im Multitenancy-Verfahren eine Instanz einer Applikation die zentral verwaltet wird.

Wer sich weiterhin die Frage stellt, warum man ASP nicht als SaaS verkaufen darf, der sollte „Software-as-a-Service: Warum auch Ihre Anwendung in die Cloud gehört“ lesen!

Kategorien
Kommentar

SAP Cloud: Lars Dalgaard wird ein riesiges Loch hinterlassen

Nun ist er wieder weg, Lars Dalgaard. Er war mein persönlicher Hoffnungsträger für SAP und meiner Einschätzung nach die treibende Kraft hinter der Cloud-Strategie der Walldorfer, welche in den letzten Monat immer mehr an Fahrt aufgenommen hat. Aber nicht nur für die Cloud hat Dalgaard bei SAP einiges umgekrempelt, auch kulturell hätte es dem Unternehmen gut getan, ihn länger in den eigenen Reihen zu haben. Oder war es vielleicht genau das Problem, warum er nach so kurzer Zeit wieder gehen musste.

Glaubwürdige positive Energie

Den Cloud Gedanken hat sich SAP extern durch die damalige Akquisiton von SuccessFactors mit dessen Gründer und CEO Lars Dalgaard einverleibt. Der Däne wurde nach der Übernahme als Verantwortlicher für den SAP Cloud Bereich zur treibenden Kraft hinter den SAP Cloud Services. Und diesen Job hat er gut gemacht. In seiner Key Note, während der Sapphire Now 2012, in welcher er die neue Cloud Strategie von SAP vorstellte, präsentierte Dalgaard sich als explosiver Unternehmer, der seine Startup Gene bei weitem nicht abgelegt hat. Im Gegenteil, mit seiner Motivation brachte er frischen Wind in den etablierten Konzern aus Walldorf.

Ich hatte schon während meines Rückblicks auf die Sapphire Now 2012 geschrieben: „Es bleibt für Dalgaard und vor allem für SAP zu hoffen, dass er seine Cloud Vision verwirklichen und das er mit seinem Startup Charakter auf offene Türen hoffen darf. Denn SAP ist weit weg von dem, was man logischerweise als ein Startup bezeichnen kann.

Unterschiedliche Unternehmenskulturen

Ist genau dieser Umstand Dalgaard oder besser gesagt SAP nun zum Verhängnis geworden? Lars Dalgaard ist zum 1. Juni 2013 von seinem Vorstandsposten zurückgetreten, hat SAP verlassen und ist als General Partner bei Andreessen Horowitz eingestiegen. Er wird SAP weiterhin für das Cloudgeschäft im Cloud Governance Board beratend zur Seite stehen.

Ich kann an dieser Stelle nur spekulieren. Zwar kenne ich Dalgaard nicht persönlich. Aber seine positive Energie, die er während seiner Vorträge ausstrahlt, zeugen von jemanden, der weiß was er will und eine klare Linie verfolgt. Zugegebenermaßen bin ich auch kein SAP-Experte hinsichtlich der Unternehmenskultur. Allerdings sind schon viele gute Leute fragwürdiger Weise an SAP zerbrochen. Als ein Beispiel sei nur Shai Agassi genannt.

Quo vadis, SAP?

Ein ganzes Unternehmen an einer einzigen und dann auch noch extern eingekauften Person festzumachen ist übertrieben. Dennoch vertrete ich den Standpunkt, dass der Verlust von Lars Dalgaard einen erheblichen Einfluss auf das Cloud-Geschäft von SAP haben könnte. Man erinnere sich an den sehr steinigen Beginn von SAP im Cloud-Bereich mit seiner Produktlinie „SAP Business By Design“, die in ihrer ersten Version den Begriff Cloud-Lösung nicht verdient hatte und ein echter Reinfall war. Mit Business By Design 4.0 hat SAP – unter der Leitung von Lars Dalgaard – noch einmal von Vorne begonnen und der Zug kam ins Rollen.

Es sei SAP zu wünschen, dass sie diese „Dalgaard-Mentalität“ nicht verlieren, um damit im Cloud-Markt weiterhin konkurrenzfähig zu bleiben. Denn eines sollte man nicht vergessen. Ein Cloud-Unternehmen muss anders geführt werden, als ein traditionelles Softwareunternehmen. Man vergleiche nur Amazon und Google. Das Gleiche musste auch Microsoft erst verstehen und lernen sich neu zu erfinden. SAP war – mit Lars Dalgaard – bisher zumindest auf dem richtigen Weg.