Kategorien
Analysen

Cloud-Connectivity: Ruckelfrei in die Cloud

Die kontinuierliche Verlagerung von geschäftskritischen Daten, Applikationen und Prozessen auf externe Cloud Infrastrukturen sorgt dafür, dass sich für CIOs nicht nur die IT-Betriebskonzepte (Public, Private, Hybrid) sondern ebenfalls maßgeblich die Netzwerkarchitekturen und Anbindungsstrategien verändern. Hierbei ist die Auswahl des richtigen Standorts ein entscheidender Wettbewerbsvorteil, bei dem Frankfurt bereits heute, aber vor allem in der Zukunft eine tragende Rolle spielen wird.

Die digitale Transformation schlägt um sich

Der digitale Wandel macht heute in keinem Bereich unseres Lebens mehr halt. So sind schätzungsweise 95 Prozent aller Smartphone Apps mit Services verbunden,
 die sich auf Servern in globalen und weltweit verteilten Rechenzentren befinden. Gleichermaßen sind die Apps ohne eine direkte und zumeist konstante Verbindung zu diesen Services nicht funktionsfähig. Der Zugriff auf Metadaten oder anderweitige Informationen ist für den reibungslosen Betrieb unabdingbar. Zudem wird der Großteil der Produktivdaten, welche von den Apps benötigt werden, auf Systemen in den Rechenzentren gespeichert und nur eine kleine Auswahl lokal auf dem Smartphone bei Bedarf zwischengespeichert.

Bereits heute werden viele moderne Business-Applikationen über Cloud-Infrastrukturen bereitgestellt. Aus der heutigen Sichtweise eines CIOs ist eine stabile und performante Verbindung zu Systemen und Services damit unerlässlich. Dieser Trend wird sich noch weiter verstärken. Crisp Research geht davon aus, dass in den nächsten fünf Jahren rund ein Viertel aller Business-Anwendungen als Cloud-Services eingesetzt werden. Gleichzeitig werden auch hybride Szenarien, bedienen lokale unternehmenseigene IT- Infrastrukturen mit Infrastrukturen in Cloud Rechenzentren verbunden werden, immer wichtiger.

Datenaufkommen: Das neue Öl erfordert größere Pipelines

Insbesondere das stetig steigende Datenaufkommen erfordert eine zuverlässige und vor allem stabile Konnektivität, um auf die Daten und Informationen zu jeder Zeit Zugriff zu erhalten und verlässlich zu speichern. Noch wichtiger wird es, wenn geschäftskritische Prozesse und Applikationen auf eine Cloud-Infrastruktur ausgelagert werden. Der Zugriff muss jederzeit und performant – mit einer geringen Latenz – sichergestellt werden und kann für Unternehmen im Fehlerfall zu maßgeblichen finanziellen als auch Schäden am Image führen. Das stellt ein hohes Unternehmensrisiko dar. Die Qualität eines Cloud Service hängt somit maßgeblich von seiner Konnektivität und der Performance im Backend ab. Ein Cloud Service ist nur so gut, wie die Verbindung, über die er bereitgestellt wird.

Cloud-Connectivity ist die neue Währung

Damit sich Applikationen und Services performant, stabil und sicher bereitstellen lassen, sind einerseits moderne Technologien erforderlich, andererseits ist der Standort für eine optimale „Cloud-Connectivity“ maßgeblich entscheidend. „Cloud Connectivity“ lässt sich technisch mittels der Latenz, dem Durchsatz und der Verfügbarkeit definieren.

Cloud-Connectivity_Tuecken

Hierbei ist ein entscheidendes und wichtiges Merkmal die Konnektivität des Rechenzentrums, um den Kunden und deren Kunden einen stabilen und zuverlässigen Zugriff auf Cloud-Services zu jeder Zeit zu gewährleisten. Hierzu gehören eine hohe Ausfallsicherheit anhand unterschiedlicher Carrier (Netzwerkprovider) und eine redundante Infrastruktur hinsichtlich Router, Switches, Verkabelung sowie der Netzwerktopologie. In diesem Zusammenhang bilden Carrier-neutrale Anbindungen ein wichtiges Merkmal für den Kunden, damit dieser sich aus mehreren Anbietern den für sich passenden auswählen kann.

Frankfurt ist das Vorbild für die Cloud-Connectivity

In den vergangenen 20 Jahren hat sich in Frankfurt
 ein Cluster von Infrastrukturanbietern für die digitale Ökonomie gebildet, die Unternehmen dabei helfen, ihre Produkte und Dienstleistungen am Markt zu positionieren. Diese Anbieter haben Frankfurt und dessen Wirtschaft geprägt und liefern Integrationsservices für IT und Netzwerke sowie Rechenzentrumsdienste. Immer mehr Service-Anbieter haben verstanden, dass sie trotz der Globalität einer Cloud-Infrastruktur lokal vor Ort in den Ländern bei ihren Kunden sein müssen. Das ist eine wichtige Erkenntnis. Kein Anbieter, der ernsthafte Geschäfte in Deutschland machen will, wird auf einen lokalen Rechenzentrumsstandort verzichten können. Crisp Research sieht einen wichtigen Trend darin, dass viele internationale Anbieter in den kommenden zwei bis drei Jahren ihre Cloud Plattformen in Frankfurt aufbauen beziehungsweise weiter ausbauen werden.

Vor diesem Hintergrund hat Crisp Research in einem White Paper die Rolle von Frankfurt als Rechenzentrumsstandort und Connectivity Hub untersucht. Das White Paper „Die Bedeutung des Standorts Frankfurt für die Cloud Connectivity“  steht unter http://www.interxion.com/de/branchen/cloud/die-bedeutung-des-standorts-frankfurt-fur-die-cloud-connectivity/download/ zum Download bereit.

Kategorien
Analysen

Deutsche ISVs wollen kein Public PaaS

Wir schreiben mittlerweile das Jahr acht in Sachen Cloud Computing. Aus kleinen, anfangs belächelten Start Ups wie zum Beispiel Salesforce sind mittlerweile Milliardenkonzerne geworden, mit Marktkapitalisierungen, die zum Teil höher liegen als die von globalen Industriekonzernen. Große, etablierte Softwarehersteller wie SAP kämpfen seit Jahren mit der eigenen Transformation und haben es nur mit enormem Aufwand geschafft Teile ihres Geschäftes zukunftsfähig zu machen.

Das Gros der deutschen Softwarehäuser hat es bisher versäumt die eigene Strategie auf das kommende Cloud-Zeitalter anzupassen. Die Gründe hierfür sind vielfältig und zum Teil auch nachvollziehbar. So ist es für ein mittelständisches Softwarehaus ein enorm hoher Investitionsaufwand und damit verbundenes Risiko, bestehende Software neu zu entwickeln und den Marktgegebenheiten anzupassen. Dennoch erscheint es unter den gegebenen Marktumständen unerlässlich sich den Realitäten anzupassen.

Aus diesem Grund ist es erforderlich, sich mit den eigenen Anforderungen an einen Platform-as-a-Service (PaaS) auseinanderzusetzen und diese zu definieren.

Platform-as-a-Service im Praxiseinsatz

Deutsche Softwarehäuser haben ganz bestimmte Anforderungen, wenn es um den Einsatz von PaaS im Rahmen ihrer Entwicklungs-, Test- und Betriebsprozesse geht. Besonders relevant sind für die Independent Service Provider (ISVs) die Konditionen des Betriebs bzw. das Betriebskonzept, sprich ob die PaaS-Dienste nach dem Public-, Private- oder im Rahmen eines Hosting-Modells betrieben werden. Und hier hat sich in den vergangenen 12 Monaten viel getan.

So waren bis Mitte 2013 keine der führenden PaaS Angebote als Technologie-Stack für den Eigen- oder Hosting-Betrieb verfügbar. Bis dato war Public Cloud das einzig verfügbare Betriebsmodell. Mit dem Release der CloudFoundry-Technologie unter Open Source- Lizenz machte VMware (heute bei Pivotal) den Anfang. Mittlerweile können auch die PaaS-Technologien von Microsoft (Microsoft Azure Pack), Red Hat (OpenShift), VMware (vFabric) als Software-Paket bezogen und individuell betrieben werden. Dies bietet Unternehmen, Softwareentwicklern und Hosting-Partner vollkommen neue Möglichkeiten PaaS-Dienste kundenindividuell anzubieten und hinsichtlich bestimmter Anwendungsszenarien zu optimieren.

Welche der Technologien sich mittel- und langfristig durchsetzen wird, ist derzeit noch schwer prognostizierbar, da die meisten ISVs, Hosting Provider und Unternehmensanwender sich noch nicht final festgelegt haben. Während IBM im Rahmen seiner BlueMix-PaaS- Plattform auf CloudFoundry setzt, bieten eine Reihe an Hosting Providern ihren Kunden die Auswahl zwischen mehreren Plattformen.

Derzeit existiert im deutschsprachigen Markt allerdings erst eine Handvoll Hosting Provider, die PaaS in einem Hosting Modell anbieten. Dies hat verschiedene Gründe. So schätzen einige Akteure wohl die Marktchancen nicht als aussichtsreich ein. Anderen fehlen schlicht die Ressourcen und Skills, um die technologisch anspruchsvollen und komplexen Plattformen aufzusetzen und zu betreiben. Auch müssen Hosting Provider mehr Verständnis und Know-How in Bezug auf die Prozesse und speziellen Anforderungen der ISVs, Startups, Freelance und Unternehmensentwickler aufbauen. Denn deren Bedürfnisse unterscheiden sich deutlich von den Anforderungen an ein klassisches Hosting oder Infrastruktur- Outsourcing. Die Anzahl erfahrener Architekten, Entwickler und Projektmanager zum Thema PaaS ist in Deutschland noch sehr übersichtlich.

Bevorzugte Betriebskonzepte und Modelle

Die Aussagen der im Rahmen einer Studie von Crisp Research befragten Softwarehäuser zeichnen ein recht eindeutiges Bild. Gefragt nach dem favorisierten Betriebskonzept zur Nutzung von PaaS-Diensten im Rahmen der Entwicklungsprozesse, sprachen sich „nur“ 21 Prozent für das bisherige Public Cloud- Modell aus, während 12 Prozent sich für den internen Betrieb im Rahmen einer „Private PaaS-Plattform“ entscheiden würden. Die Mehrheit von deutlich über 60 Prozent würden PaaS-Dienste für Development & Test am ehesten im Rahmen eines Hosting-Modells beziehen.

Hinsichtlich des Applikations-Betriebs sind die befragten Softwarehäuser sogar noch etwas anspruchsvoller. Hier sind es sogar nur noch 11 Prozent der befragten Unternehmen, die den Betrieb auf einer Public Cloud Umgebung befürworten würden. Die Mehrheit (38 Prozent) sieht in einem Hosted PaaS das für sie bevorzugte Betriebsmodell, um Applikationen in der Cloud zu betreiben. Weitere 30 Prozent sehen in der dedizierten Variante („Hosted Private PaaS“) ihr favorisiertes Modell. Über ein Fünftel der befragten Softwareunternehmen würde ihre Applikationen nur auf einer Private PaaS-Umgebung betreiben.

Anforderungen an die PaaS-Provider

Betrachtet man die Aussagen zu den zentralen Anforderungen an die Anbieter von PaaS-Diensten, so wird evident, warum die bisherigen Public Cloud-Modelle für viele professionelle Softwareentwickler nicht in Frage kamen. So stehen für rund 80 Prozent der befragten deutschen Softwarehäuser die Themen hohe Sicherheitsstandards, ISO-Zertifizierung und ein deutscher Rechenzentrumsstandort ganz oben auf der Agenda. Nach einem flexiblen Bezahlmodell (60 Prozent). Interessanterweise ist die individuelle Anpassung der PaaS-Plattform für die deutschen ISVs genauso wichtig, wie die Skalierungsfähigkeit der Plattform – ein Argument, dass in vielen Debatten der letzten Jahre immer an erster Stelle angeführt wurde. Anscheinend ist hier die Erkenntnis eingetreten, dass die Skalierungsfähigkeit der Technologie- Plattform nur so weit von Nöten ist, wie sich das Wachstum auf Kunden- beziehungsweise Anwenderseite entwickelt.

Auch erscheint verwunderlich, dass sich „nur“ 20 Prozent der ISVs einen lokalen Support und technische Unterstützung „vor Ort“ wünschen. Nur jeder zehnte ISV gab im Rahmen der Befragung an, keine Unterstützung bei der Ausgestaltung der Lizenzmodelle und SLA zu benötigen. Was vielleicht auch daran liegt, dass bislang erst wenige ISVs intensive Erfahrung mit dem Thema gesammelt haben – und daher noch etwas zu optimistisch in die Zukunft schauen.

Betrieb von Software auf PaaS-Plattformen – Make or Buy

Sofern deutsche Softwarehäuser auch den Betrieb ihrer neuen Software-Lösungen auf einer Cloud- beziehungsweise PaaS- Plattform planen, sind nicht nur die reinen Infrastruktur- Leistungen vom Provider gefragt (Server, Storage und Virtualisierung). Vielmehr wünschen sich mittlerweile rund die Hälfte der ISVs und Startups auch Managed Services im Bereich des Datenbank-, OS- und Netzwerkmanagements.

Immerhin kann sich ein Drittel der befragten Softwarehäuser vorstellen, auch externe Unterstützung des Providers im Hinblick auf den Applikationsbetrieb und das Applikationsmanagement in Anspruch zu nehmen – zwei Kerndisziplinen für Softwarehäuser.
Keine Angst vor Google und Co.

Ist es das berühmte Pfeifen im Walde, oder nur eine nüchterne, pragmatische Betrachtung der Lage? Die deutsche Software- Industrie geht jedenfalls optimistisch in die Zukunft und fürchtet sich nur in geringem Maße vor den globalen Großmächten wie Google. Lediglich knapp sechs Prozent der im Rahmen dieser Studie befragten Softwareanbieter glauben, dass Software in Zukunft standardisiert und von der Stange kommt. Wenn dem so wäre, würden in der Zukunft nur noch wenige große Konzerne den Markt unter sich aufteilen.

Studienergebnisse zum kostenlosen Download

Im Rahmen seiner empirischen Studie „Platform-as-a-Service:
Zukunft der deutschen Software-Industrie?“ hat Crisp Research im Auftrag von Pironet NDH deutsche Softwarehersteller nach der Einschätzung und Bedeutung von Platform-as-a-Services für ihr zukünftiges Geschäft befragt.
Die Studie kann kostenlos unter „PaaS-Trendstudie: Cloud verursacht Erdbeben im Softwaremarkt“  heruntergeladen werden.

Kategorien
Analysen

Public PaaS in Deutschland: Warum cloudControl in die USA zieht

Docker Inc. trennt sich von seinem Platform-as-a-Service (PaaS) Sorgenkind dotCloud und verkauft dieses an cloudControl Inc. dem US-amerikanischen Ableger der cloudControl GmbH aus Berlin. 

Kategorien
Insights

Umfrage: Platform-as-a-Service – Zukunft der deutschen Software-Industrie

Seit über fünf Jahren existieren Platform-as-a-Services (PaaS) am Markt, die sich im Laufe der letzten Jahre zu vollständigen Ökosystemen entwickelt haben. In den USA und Skandinavien gehören PaaS bereits zu den Standardwerkzeugen von professionellen Softwareentwicklern. In Deutschland verhalten sich Geschäftsführer und Entwicklungsleiter noch deutlich zurückhaltender. Dabei erhalten nicht nur deutsche Unternehmen, sondern ebenfalls klassische ISVs (Independent Service Provider) mit einem PaaS eine echte Alternative, um damit die unternehmensinternen Entwicklungssysteme und -Prozesse abzulösen und damit auf das Cloud-Zeitalter umzusteigen.

Neue PaaS-Betriebsmodelle verändern den Markt

Neue PaaS-Betriebsmodelle wie ein Hosted PaaS helfen nicht nur dabei Software-Entwicklungsprozesse deutlich effizienter zu gestalten, sondern auch Big Data Analytics intelligent umsetzen.

Ob und wie sich diese Situation bei deutschen ISVs und Softwarehäusern derzeit verändert und entwickelt, untersucht Crisp Research derzeit im Rahmen einer empirischen Studie „Platform-as-a-Service – Zukunft der deutschen Software-Industrie“.

Für weitere Informationen steht unser Projektleiter Max Hille zur Verfügung.

Umfrage: „Platform-as-a-Service – Zukunft der deutschen Software-Industrie“

Kategorien
Analysen

Diversifizierung? Microsofts Cloud OS Partner Netzwerk mutiert zu einer "OpenStack Community"

Im ersten Moment ließt sich die Ankündigung zum neuen Microsoft Cloud OS Partner Network in der Tat interessant. Wer nicht direkt die Microsoft Public Cloud nutzen möchte, kann ab sofort einen von zahlreichen Partnern wählen und dort indirekt auf dieselben Microsoft Technologien zurückgreifen. Ebenfalls lässt sich eine Hybrid Cloud zwischen der Microsoft Cloud und den Partner Clouds oder dem eigenen Rechenzentrum aufspannen. Für Microsoft und dessen technologischer Verbreitung innerhalb der Cloud ist es tatsächlich ein kluger Schachzug. Für das sogenannte „Cloud OS Partner Network“ kann die Aktion aber schön nach hinten losgehen.

Das Microsoft Cloud OS Partner Network

Das Cloud OS Netzwerk besteht aus mehr als 25 Cloud Service Provider weltweit, die sich nach Microsoft Angaben, auf hybride Cloud-Szenarien speziell mit der Microsoft Cloud Plattform konzentrieren. Hierzu setzen diese auf eine Kombination des Windows Server mit Hyper-V, System Center und dem Windows Azure Pack. Microsoft möchte damit seine Vision unterstreichen, sein Cloud OS als Basis für Kunden-Rechenzentren, Service-Provider Clouds und der Microsoft Public Cloud zu etablieren.

Hierzu bedient das Cloud OS Partner Netzwerk mehr als 90 verschiedene Märkte mit einer Kundenbasis von insgesamt drei Millionen Unternehmen weltweit. Insgesamt 2,4 Millionen Server und mehr als 425 Rechenzentren bilden die technologische Basis.

Zu dem Partner Netzwerk gehören unter anderem T-Systems, Fujitsu, Dimension Data, CSC und Capgemini.

Vorteile für Microsoft und die Kunden: Lokalität und Verbreitung

Für Microsoft ist das Cloud OS Partner Netzwerk ein kluger Schachzug, um gemessen an der Verbreitung von Microsoft Cloud Technologien, weltweit mehr Marktanteile zu bekommen. Hinzu kommt, dass es sehr gut in Microsofts bewährte Strategie passt, die Kunden überwiegend nicht direkt, sondern über ein Netzwerk von Partnern zu versorgen.

Auch den Kunden kommt das Partner Netzwerk prinzipiell entgegen. Unternehmen, die bisher aus Gründen der Datenlokalität, oder lokaler Richtlinien wie dem Datenschutz, die Microsoft Public Cloud (Windows Azure) gemieden haben, können sich nun einen Anbieter in ihrem eigenen Land suchen, ohne auf die gewünschte Technologie zu verzichten. Für Microsoft eröffnet sich damit ein weiterer Vorteil, nicht zwingend ein Rechenzentrum in jedem Land zu bauen und sich lediglich auf die Bisherigen oder strategisch Wichtigeren zu konzentrieren.

Microsoft kann sich damit ein wenig zurücklehnen und den unbequemen Vertrieb erneut das Partnernetzwerk übernehmen lassen. Einnahmen werden wie vor dem Cloud Zeitalter mit dem Lizenzverkauf an den Partnern generiert.

Nachteile für die Partner: Diversifizierung

Man kann an dem Partner Netzwerk vieles schönreden. Fakt ist, dass Microsoft mit dem Cloud OS Netzwerk eine vergleichbare Konkurrenzsituation schafft, wies sie sich in der OpenStack Community gebildet hat. Speziell in der Public Cloud existieren dort mit Rackspace und HP nur zwei „Top Anbieter“, die im weltweiten Cloud Zirkus jedoch nur eine untergeordnete Rolle spielen. Insbesondere HP hat derzeit zu viel mit sich selbst zu kämpfen und konzentriert sich dadurch viel zu wenig auf Innovationen. Das Hauptproblem beider und all den anderen OpenStack Anbietern besteht jedoch darin, dass sie sich nicht voneinander unterscheiden. Stattdessen stehen die meisten Anbieter in direkter Konkurrenz zueinander und heben sich derzeit nicht nennenswert voneinander ab. Das ist dem Umstand geschuldet, dass alle auf exakt dieselbe technologische Basis setzen. Eine Analyse zur Situation der OpenStack Community befindet sich unter „Gefangen im goldenen Käfig. OpenStack Provider sitzen in der Falle.

Die Situation für das Cloud OS Partner Netzwerk ist sogar noch ein wenig unbequemer. Anders als bei OpenStack ist Microsoft alleiniger Technologielieferant und bestimmt wo es lang geht. Das Partner Netzwerk muss schlucken was es vorgesetzt bekommt oder kann sich nur durch die Adaption weiterer fremder Technologiestacks behelfen, was zu einem Mehraufwand führt und für weitere Kosten hinsichtlich der Entwicklung und den Betrieb sorgt.

Abgesehen von den lokalen Märkten, stehen alle Cloud OS Service Provider in einem direkten Wettbewerb zueinander und haben ausschließlich auf Basis der Microsoft Technologien keine Möglichkeit sich anderweitig zu differenzieren. Ein Guter Support und Professional Services sind zwar enorm wichtig und ein Vorteil, aber kein USP in der Cloud.

Falls das Cloud OS Partner Netzwerk floppt wird Microsoft mit einem blauen Auge davon kommen. Den großen Schaden werden die Partner davontragen.

Technologie als Wettbewerbsvorteil

Betrachtet man die wirklich erfolgreichen Cloud Anbieter am Markt, wird deutlich, dass es sich dabei um diejenigen handelt, die ihre Cloud auf einem eigenen Technologiestack aufgebaut haben und sich damit technologisch von den restlichen Anbietern am Markt differenzieren. Dabei handelt es sich um Amazon, Google oder Microsoft und eben nicht Rackspace oder HP die beide auf OpenStack setzen.

Das sollten sich Cloud OS Partner wie Dimension Data, CSC oder Capgemini vor Augen halten. Insbesondere CSC und Dimension Data haben selbst große Ansprüche in der Cloud ein Wort mitreden zu wollen.

Kategorien
Analysen

Hosted Private Platform-as-a-Service: Chancen und Möglichkeiten für ISVs und Unternehmen

Auch wenn Platform-as-a-Service (PaaS) immer wieder eine rosige Zukunft vorhergesagt wurde, so richtig kommt das Servicemodell nicht in Fahrt. In Gesprächen erfährt man dann, dass PaaS zwar gerne für die Entwicklung von Prototypen genutzt wird. Wenn es um den Produktivbetrieb geht, wird aber auf ein Infrastructure-as-a-Service (IaaS) Angebot gewechselt. Der Hauptgrund ist das Kontroll-Level. Dabei handelt es sich ebenfalls um das Hauptentscheidungskriterium für bzw. gegen einen PaaS. IaaS bietet einfach mehr Möglichkeiten, Einfluss auf die virtuelle Infrastruktur, Software und Services zu nehmen. Bei einem PaaS hingegen wird gegen eine standardisierte API programmiert, die nicht viele Freiheiten ermöglicht. Dabei bietet ein PaaS vor allem für ISVs (Independent Software Vendor) und Unternehmen einige Möglichkeiten, um ihre Entwickler bequem mit Ressourcen zu versorgen. Wer kein Vertrauen in einen Public PaaS hat, der kann mittlerweile auch auf gehostete sogenannte Hosted Private PaaS zurückgreifen.

Platform-as-a-Service

Platform-as-a-Service (PaaS) ist die mittlere Schicht des Cloud Computing Service-Models und geht einen Schritt weiter als Infrastructure-as-a-Service (IaaS). Ein PaaS ist dafür zuständig eine transparente Entwicklungsumgebung bereitzustellen. Dabei stellt der Anbieter eine Plattform zur Verfügung auf der (Web)-Anwendungen entwickelt, getestet und gehostet werden können. Die Anwendungen werden anschließend auf der Infrastruktur des Anbieters ausgeführt und nutzen dessen Ressourcen. Der vollständige Lebenszyklus einer Anwendung kann darüber verwaltet werden. Über APIs werden die Dienste auf der Plattform des jeweiligen Anbieters angesprochen. Der Vorteil besteht darin, dass vor allem kleine Unternehmen ihre Entwicklungsinfrastruktur auf ein Minimum beschränken können. Sie benötigen lediglich einen Computer, einen Web-Browser, evtl. eine lokale IDE, eine Datenverbindung und ihr Wissen, um Anwendungen zu entwickeln. Der Rest obliegt dem Anbieter, der für die Infrastruktur (Betriebssystem, Webserver, Laufzeitumgebungen etc.) verantwortlich ist.

Platform as a Service
Quelle: Cloud Computing mit der Microsoft Plattform, Microsoft Press PreView 1-2009

Hosted Private Platform-as-a-Service

Hosted Private Platform-as-a-Services (Hosted PaaS) überführen die Idee des Public PaaS in eine dedizierte und von einem Anbieter verwaltete Variante. Sie ist insbesondere für Unternehmen attraktiv, die einen Public Ansatz (Shared Infrastructure, Multi-Tenancy) meiden wollen, aber nicht die Ressourcen und das Wissen besitzen, um ihren Entwicklern einen echten PaaS in der eigenen IT-Infrastruktur bereitzustellen. In diesem Fall können sie auf Anbieter zurückgreifen, die ihnen einen exklusiven PaaS in einer für sie reservierten Umgebung zur Verfügung stellen. Der Vorteil besteht darin, dass der Kunde den Hosted Private PaaS genau so nutzen kann wie einen Public PaaS, aber das auf einer nicht geteilten Infrastruktur, die sich beim Anbieter im Rechenzentrum befindet.

Ein weiterer Vorteil eines Hosted PaaS besteht in den Professional Services, die der Anbieter direkt mitliefert, und die dem Kunden dabei helfen, seine Applikationen entweder auf den PaaS zu überführen oder dort neu zu entwickeln. Das Konzept ist exakt vergleichbar mit den Managed Clouds bzw. Business Clouds im IaaS Umfeld. Das ist sowohl für Unternehmen, aber auch für ISVs interessant, die bisher wenig bis keine Erfahrung bei der Entwicklung von Cloud Applikationen haben und Public Angeboten wie Amazon Elastic Beanstalk, Microsoft Windows Azure, Heroku oder Force.com nicht vertrauen.

Ein mögliches Zeichen dafür, dass Public PaaS in Deutschland nicht so richtig in Fahrt kommt ist, das der erste deutsche PaaS Anbieter cloudControl mit der Application Lifecycle Engine seinen Public PaaS in einen Private PaaS gekapselt hat, mit dem Unternehmen und Webhoster (White-Label) einen eigenen PaaS in einer selbstverwalteten Infrastruktur betreiben können. Zusätzlich lässt sich eine Brücke zu einem Hybrid PaaS aufspannen.

Der Managed IaaS Anbieter Pironet NDH ist der erste deutsche Anbieter, der auf den Hosted Private PaaS Zug aufgesprungen ist. Das Unternehmen aus Köln will damit ISVs und SaaS Anbieter eine Plattform inklusive Professional Services bieten, um deren Web-Applikationen aus einem deutschen Rechenzentrum heraus bereitzustellen. Neben .NET, PHP, Java, Perl, Python, Ruby, node.js oder Go bietet Pironet NDH ebenfalls die vollständige Windows Azure PaaS Unterstützung, wie sie von der Microsoft Windows Azure Public Cloud bekannt ist. Damit lassen sich auf für Azure entwickelte Applikationen ebenfalls innerhalb des deutschen Pironet NDH Rechenzentrums betreiben. Beide PaaS Angebote sind separat aufgebaut. Bei dem Polyglot PaaS (multi-language) kommt eine RedHat OpenShift Implementierung zum Einsatz. Der Azure PaaS basiert auf dem Microsoft Windows Azure Pack. Auch wenn sich Pironet NDH vorwiegend auf 1:1 Geschäftsbeziehungen konzentriert, werden im Q1/Q2 2014 ebenfalls Public PaaS Varianten folgen, die allerdings nur sekundär vermarket werden sollen.

Insbesondere bei traditionellen ISVs rennt Pironet NDH mit seinem Angebot offene Türen ein. Deren Kunden werden in Zukunft verstärkt nach Web-Applikationen fragen, was für den einen oder anderen ISV große Herausforderungen birgt. Diese werden unter anderem von den Professional Services profitieren, um bestehende und neue Applikationen schneller auf den Markt zu bringen.

Public Cloud Anbieter werden reagieren müssen

Der „Hosted Private“ Trend kommt aus dem IaaS Bereich, in dem derzeit auch verstärkt Hosted Private Clouds in Form von Managed bzw. Business Clouds nachgefragt werden. Das aus gutem Grund. Insbesondere das Thema Datenschutz treibt ISVs und Unternehmen in die Arme von Anbietern dedizierter Lösungen. Zudem sind Kunden bereit, für eine höhere Sicherheit, Datenhoheit und Consulting mehr Kapital in Cloud-Angebote zu investieren.

Public Cloud Anbieter werden darauf reagieren müssen, um sich den Bedürfnissen der Kunden zu stellen. Mit Salesforce hat der erste große Public Cloud Player die Hosen heruntergelassen. Zunächst ein O-Ton von Joachim Schreiner, Salesforce Deutschland Geschäftsführer: „Private Clouds sind keine Clouds. Das ist nichts anderes als ein Application-Server-Provider-Vertrag, der auch schon im Jahr 2000 hätte abgeschlossen werden können, wenn die nötige Bandbreite verfügbar gewesen wäre.“ Das sieht Salesforce CEO Marc Benioff scheinbar ein wenig anders. Schließlich rollt der Rubel nur dann, wenn die Kunden zufrieden sind. Dafür hat Salesforce auf der Dreamforce 2013 seinen „Salesforce Superpod“ vorgestellt. Dabei handelt es sich um eine Dedicated Cloud auf Basis von HPs Converged Infrastructure. Also im Grunde genommen nichts anderes als eine Hosted Private Cloud.

Kategorien
Services

Application Lifecycle Engine: cloudControl veröffentlicht Private Platform-as-a-Service

Der Platform-as-a-Service (PaaS) Anbieter cloudControl hat mit der Application Lifecycle Engine einen Private PaaS auf Basis der Technologien seines Public PaaS veröffentlicht. Das Unternehmen aus Berlin möchte damit Unternehmen die Möglichkeit geben, auch im eigenen Rechenzentrum einen selbstverwalteten PaaS zu betreiben, um damit mehr Kontrolle über den Speicherort der Daten zu bekommen und den Zugriff auf die jeweiligen Daten zu regeln.

cloudControl Application Lifecycle Engine

Die cloudControl Application Lifecycle Engine leitet sich technologisch aus dem eigenen Public-PaaS Angebot ab und dient seit 2009 als Grundlage für den Cloud-Service.

Die Application Lifecycle Engine ist als Middleware zwischen der grundlegenden Infrastruktur und der eigentlichen Applikationen zu verstehen (PaaS Konzept) und bietet eine vollständige Laufzeitumgebung für Anwendungen. Damit erhalten Entwickler die Möglichkeit, sich auf die Entwicklung ihrer Applikation zu konzentrieren und können unbequeme Prozesse und die Bereitstellung übernehmen lassen.

Die nun veröffentlichte Application Lifecycle Engine soll es großen Unternehmen ermöglichen, einen eigenen Private PaaS in einer selbstverwalteten Infrastruktur zu betreiben, um sich damit die Vorteile der Cloud auch in die eigenen vier Wände zu holen. Die Plattform setzt dazu auf offene Standards und verspricht damit einen Vendor-Lock-in zu vermeiden. cloudControl spannt zudem eine hybride Brücke, indem bereits auf cloudControls Public PaaS entwickelte Anwendungen im Private PaaS und umgekehrt betrieben werden können.

Weiterhin adressiert cloudControl mit der Application Lifecycle Engine Service Provider, die selber ein PaaS Angebot aufbauen möchten und damit ihre bestehenden Services und Infrastrukturleistungen bündeln können.

Trend zu Private und Hybrid Lösungen verstärkt sich

cloudControl ist nicht das erste Unternehmen, dass den Trend hin zum Private PaaS erkannt hat. Dennoch zeigt die aktuelle Sicherheitslage, dass Unternehmen viel bewusster im Umgang mit der Cloud werden und abwägen, wo sie ihre Daten speichern bzw. verarbeiten lassen. Aus diesem Grund kommt cloudControl genau zur richtigen Zeit, um Unternehmen die Möglichkeit zu bieten, mehr Kontrolle über ihre Daten zurückzugewinnen und das Bewusstsein zu stärken, wo sich ihre Daten tatsächlich befinden. Gleichzeitig ermöglicht cloudControl Unternehmen damit aber auch, die eigene selbstverwaltete IT-Infrastruktur mit einer echten Cloud-DNA aufzuwerten, indem IT-Abteilungen den Entwicklern einen unkomplizierten Zugriff auf Ressourcen gewähren können und damit schneller und produktiver Ergebnisse liefern können. Weiterhin können IT-Abteilungen die Application Lifecycle Engine als eine Chance nutzen, sich innerhalb des Unternehmens als partnerschaftlicher Service-Broker für die Fachabteilungen zu positionieren.

Nicht zu vernachlässigen ist die Möglichkeit, cloudControls Angebot im Hybrid-Betrieb zu nutzen. Es kann durchaus, relativ schnell, zu dem Umstand kommen, dass nicht mehr ausreichend lokale Ressourcen (Rechenleistung, Speicherplatz) zur Verfügung stehen, die für den Private PaaS benötigt werden. In diesem Fall kann über die homogene Architektur der Application Lifecycle Engine auf den Public PaaS von cloudControl ausgewichen werden, um Projekte und den Fortschritt der Entwicklungsaktivitäten nicht zu beeinträchtigen.

Kategorien
Analysis

Enterprise Cloud Portal: T-Systems consolidates its cloud portfolio

With its Enterprise Cloud Portal German Telekom subsidiary T-Systems presents its first cloud service-wide offering for corporate customers. On the portal, companies can inform about the cloud solutions from T-Systems, test them and order directly. The currently offered services include solutions for mobile device management, Dynamic Services for Infrastructure and the Enterprise Marketplace. A look at the site shows that great emphasis was placed on the compatibility with tablets.

Past the IT department

With its cloud portal T-Systems want to enable also non-technical users in large companies to access specific cloud solutions. The cloud provider refers to a study by Gartner, which says that up to 2015, about 35 percent of IT spending are selected and managed outside the IT department. Be mentioned here, for example, marketing, purchasing and accounting.

Mobile Device Management

The mobile device management from the cloud should help businesses in the administration of mobile devices with different operating systems, such as iOS and Android via a standardized web platform. In addition to security settings, control access rights to functions and applications can be made. In case of loss of the device, the data can be deleted remotely. A test of the mobile device management is free for the first four weeks for up to three mobile devices.

Dynamic Services for Infrastructure

For infrastructure-as-a-service (IaaS) two offerings are ready: On the one hand, the „Dynamic Services for Infrastructure“ (DSI) from a hosted private cloud. Secondly, the „DSI with vCloud Datacenter Services“ as a hybrid variant. The management of the resources does the client itself via a web-based portal or using its own VMware management software. Clear pricing models to make the cost of the infrastructure transparent. Thus, for example, a server from the hosted private cloud costs from 9 cents per hour in the package „Small“. For the hybrid solution the package price for a virtual data center in the smallest version is exactly at 999,84€ per month.

Enterprise Marketplace

The Enterprise Market Place includes, among other things, further IaaS solutions including operating systems for Linux and Windows Server, platform-as-a-service (PaaS) solutions, including Tomcat and Microsoft SQL Server as well as a growing number of software-as-a-service (SaaS) offerings like Doculife, CA Nimsoft TAXOR, TIS, WeSustain, Metasonic, ARAS, Tibco Tibbr, Sugar CRM, Microsoft Enterprise Search and Microsoft Lync. In addition, companies should therefore be given the opportunity to apply a variety of applications highly safe in need-based formats, but also can migrate to host their own applications. The full availability of the Enterprise Market Place is planned for this summer. Currently, there is already a preview on the cloud portal.

Comment

With the Enterprise Cloud Portal T-Systems summarizes his entire cloud portfolio together under one umbrella. I had analyzed „The cloud portfolio of T-Systems“ in an article for the German Computerwoche in 2011. At that time the offering was made of single and independent services. However, already at that time I came to the conclusion that T-Systems has a very well sophisticated and well-rounded cloud portfolio. This can be seen now in the consolidated Enterprise Cloud Portal. From SaaS over PaaS to IaaS and other solutions for mobile devices can be found. With it T-Systems is one of the few providers that have a full cloud stack and which is now even bundled into a single portal.

Especially in the Enterprise Marketplace is a lot potential. At this year’s CeBIT, I could take a first look at it which was in my opinion at this time still in an alpha state. Some basic and necessary essential functions for an IaaS offering, automatic scalability and high-availability may be mentioned only, were still missing. But that was in March and I’m assuming that T-Systems has already made ​​more progress here. In addition, I have already heard from a reputable source, that T-Systems/ Telekom will gradually change their cloud infrastructure to OpenStack, which will also give the Enterprise Market Place another boost in compatibility.

Where T-Systems sees an advantage for non-technical users in enterprises, should cause worry lines for IT managers. Indeed, I am also of the opinion that the IT department will become and even need to be a service broker. However, I think it is quite questionable if each department can simply run off and buy IT services externally as desired. Certainly, the blame lies with the IT departments themselves because they have built up a bad reputation over the years and are considered as slow and not innovative. I have philosophized about it here two years ago in detail (cloud computing and the shadow IT).

A certain supervisory authority in the form of a service broker is still necessary, because otherwise it is an uncontrolled proliferation of external services about which one will lose track. This can be controlled, of course, if one obtains the services from a single provider. And that is exactly the goal of T-Systems and its extensive Enterprise Cloud Portal. A customer should explicitly and across departments, refer the services from the T-Systems Cloud in order to avoid sprawl and to keep track. The question is whether this can be set internally by the customers that way. Because there are plenty of other services in the sea.

In the end I would like to address a topic that is currently causing a stir in the end customer market, but offers corporate customers a great advantage. The end-to-end offering of services. T-Systems is due to its situation, to be a subsidiary of Deutsche Telekom, one of the few cloud providers who can offer a service level from the services at application level or even virtual machine level in the data center, including the data line. This enables customers to maintain a continuous Quality-of-Service (QoS) and a comprehensive Service Level Agreement (SLA), which many other cloud providers can not afford.

Kategorien
Comment

Cloud Computing ist not simple!

Cloud computing promises to be simple. Starting here and there a virtual server and the own virtual cloud infrastructure is ready. Those who think that I’m right with the statement are totally wrong. Virtual servers are only a small component of a virtual infrastructure at a cloud provider. A few virtual machines aren’t a cloud. The complexity sticks in the architecture of the application. And thus in the intelligence that the architect and the software developer included. That this is sometimes not implemented, the one or the other cloud user have showed us more than once impressively. Regularly the same suspects fail when their cloud provider is struggling with himself. Cloud computing ist not simple! I do not mean simple software-as-a-service (SaaS). I am talking about infrastructure-as-a-service (IaaS) and platform-as-a-service (PaaS), and here even granularity about the premier class named scalability and high-availability. And that’s what you should understand and fully take into account if you want to use cloud computing successfully, away from the marketing of the cloud providers.

Software-defined Scalability and Software-defined High-Availability

Currently new terms circulating through the IT stratosphere. Software-Defined Networking (SDN) and Software-Defined Data Center (SDD). A SDN introduces another level of abstraction above the network components. Typically, each router and switch has its own local software through which it is supplied with intelligence by programming. The network administrator tells the router, for example, under what conditions which packet should be routed or not. Within a SDN the task of incorporating a local intelligence for each component is eliminated. The intelligence moves one level up into a management layer in which the entire network is designed and each rule is defined centrally for each component. If the design is completed, it will be rolled out across the network components and the network is configured. With a SDN it should be possible to change a complete network design by „push the button“ directly without having to touch each individual component.

The idea of ​​the SDN concept must also be taken into account mandatory when using a cloud infrastructure. Because the use of a PaaS, but much more of an IaaS means a lot of self-responsibility. More than you might think at first glance. To start one or two virtual machines does not mean that one uses a virtual cloud infrastructure. There are and will remain two virtual servers. An IaaS provider only provides the components, such as the aforementioned virtual machines, storage, and other services plus APIs with which the infrastructure can be used. Bottom line, to put it simply, an IaaS provider only supplies its customers with the appropriate resources and tools in order to build their own virtual infrastructure respectively own virtual data center on the providers cloud infrastructure.

One must therefore ensure with software (the own application) that the cloud infrastructure scaled if necessary (Software-Defined Scalability, SDS) and in the event of a failure of a cloud infrastructure component a replacement component (eg, virtual machine) is started and is thus replaced (Software-Defined High-Availability, SDHA). The software therefore provides the scalability and high-availability of the virtual cloud infrastructure so that the web application itself is scaled and fail-safe, and uses the character of each cloud provider.

How a cloud computing infrastructure is used almost to perfection shows Netflix impressively.

Cloud Computing ist not simple!

Source: Adrian Cockcroft

Netflix the supreme example

Netflix is the world’s largest cloud service ​​by far. The video streaming service has become responsible for a third of all Internet traffic during peak periods. This user requests must be answered, of course, performant and at any time. Since its launch in 2009 Netflix sets on cloud technologies and has shifted its complete technology stack including the resulting infrastructure to the cloud of the Amazon Web Services in November 2012. Here about 1,000 virtual Linux-based Tomcat Java server and NGINX web server are running. There are also other services such as Amazon Simple Storage Service (S3) and the NoSQL database Cassandra in conjunction with memcached and a distributed memory object caching.

However, this is only one side of the coin. More important is the use of multiple Availability Zones in the Amazon Cloud. Netflix uses a total of three Availability Zones to increase the availability and speed of the own service. Occurs a problem in an Availability Zone, the architecture of the Netflix application is designed that the service can continue to run through the other two. Here Netflix has not relied on the pure marketing promises from Amazon, but developed with the Chaos Gorilla its own software that is testing the stability of the virtual servers Amazon Elastic Compute Cloud (EC2). In short, the failure of a complete EC2 Region or Availability Zone is simulated to ensure that the Netflix service continues to function in an emergency. One of the biggest challenges is in the fact that in the event of an error in an Amazon region, the Domain Name System (DNS) is automatically reconfigured so that Netflix customers do not notice the failure. The different DNS providers APIs make this task not easier. In addition, most have been developed that the settings have to be done manually, which does not make it easier to automate this.

Bottom line, it is to say that Netflix plans ahead for the error case and does not rely on the cloud. Because sometimes something goes wrong in the cloud, as in any ordinary data center. You only need to be prepared for it. Who is more interested in what Netflix makes to reach this state should read „Netflix: The Chaos Monkey and the Simian Army – The model for a good cloud system architecture“ (only in German).

Simplicity counts

Maybe I’m asking too much. Finally, cloud computing is a relatively new concept. Nevertheless, Netflix shows impressively that it works. However, when you consider what huge efforts Netflix makes to be successful in the cloud, you just have to say that cloud computing is not simple, and a cloud infrastructure, no matter at which provider, needs to be built with the corresponding architecture. This means, conversely, that the use of the cloud must be more simply in order to achieve the promised cost advantages. Because if one uses cloud computing the right way, it is necessarily not cheaper. In addition to savings in infrastructure costs which are always reckoned up, the other costs as may for the staff with the appropriate skills and the costs for the development of scalable and fault-tolerant applications in the cloud should never be neglected.

The positive sign is that I see first startups on the horizon, who take care of this problem and have set the simple demand of finished cloud resources to their task, without worrying about scalability and high-availability as a user.

Kategorien
Analysen

Enterprise Cloud Portal: T-Systems konsolidiert sein Cloud-Portfolio

Mit seinem Enterprise Cloud Portal präsentiert die Deutsche Telekom Tochter T-Systems sein erstes Cloud-Service übergreifendes Angebot für Großkunden. Auf dem Portal können sich Unternehmen über die Cloud-Lösungen von T-Systems informieren, diese testen und direkt bestellen. Zu den derzeit angebotenen Services gehören Lösungen für das Mobile Device Management, Dynamic Services for Infrastructure und der Enterprise Marketplace. Ein Blick auf das Portal zeigt, dass auf die Kompatibilität mit Tablets großer Wert gelegt wurde.

An der IT-Abteilung vorbei

T-Systems möchte mit seinem Cloud-Portal auch nicht-technischen Nutzern in Großunternehmen den Zugang zu speziellen Cloud-Lösungen ermöglichen. Der Cloud-Anbieter bezieht sich dabei auf eine Studie von Gartner, die besagt, dass bis zum Jahr 2015 in etwa 35 Prozent der IT-Ausgaben, außerhalb der IT-Abteilungen ausgewählt und verwaltet werden. Genannt seien hier zum Beispiel die Bereiche Marketing, Einkauf und das Rechnungswesen.

Mobile Device Management

Das Mobile Device Management aus der Cloud soll Unternehmen bei der Administration mobiler Endgeräte mit unterschiedlichen Betriebssystemen, z.B. iOS und Android, über eine standardisierte Web-Plattform helfen. Darüber lassen sich etwa Sicherheitseinstellungen vornehmen, Zugriffsrechte auf Funktionen sowie Applikationen regeln oder bei Verlust des Endgeräts die Daten per Fernzugriff löschen. Ein Test des Mobile Device Management ist in den ersten vier Wochen für bis zu drei mobile Endgeräte kostenlos.

Dynamic Services for Infrastructure

Für Infrastructure-as-a-Service (IaaS) stehen zwei Angebote bereit: Zum einen die „Dynamic Services for Infrastructure“ (DSI) aus einer Hosted Private Cloud. Zum anderen die „DSI with vCloud Datacenter Services“ als eine hybride Variante. Das Management der Ressourcen übernimmt der Kunde selbst über ein web-basiertes Portal beziehungsweise über seine eigene VMware Management Software. Übersichtliche Preismodelle sollen die Kosten für die Infrastruktur transparent machen. So kostet z.B. im Paket „Small“ ein Server aus der Hosted Private Cloud ab 9 Cent pro Stunde. Bei der hybriden Lösung liegt der Paketpreis für ein Virtual Datacenter in der kleinsten Ausführung bei genau 999,84 Euro pro Monat.

Enterprise Marketplace

Der Enterprise Marketplace umfasst unter anderem weitere IaaS-Lösungen inkl. Betriebssysteme für Linux und Windows Server, Platform-as-a-Service (PaaS) Lösungen, u.a. Tomcat und Microsoft SQL Server sowie eine stetig steigende Zahl von Software-as-a-Service (SaaS) Angeboten wie Doculife, CA Nimsoft, TAXOR, TIS, WeSustain, Metasonic, ARAS, Tibco Tibbr, Sugar CRM, Microsoft Enterprise Search und Microsoft Lync. Darüber hinaus sollen Unternehmen damit die Möglichkeit erhalten, nicht nur eine Vielfalt an Anwendungen hochsicher in bedarfsgerechten Formaten zu beziehen, sondern auch eigene Anwendungen migrieren und hosten zu lassen. Die volle Verfügbarkeit des Enterprise Marketplace ist für diesen Sommer geplant. Derzeit steht auf dem Cloud Portal bereits eine Vorschau zur Verfügung.

Kommentar

Mit dem Enterprise Cloud Portal fasst T-Systems sein gesamtes Cloud-Portfolio unter einem einzigen Dach zusammen. Ich hatte in einem Artikel für die Computerwoche: „Das Cloud-Portfolio von T-Systems“ im Jahr 2011 analysiert. Zu dem Zeitpunkt bestand das Angebot jedoch noch aus einzelnen unabhängigen Services. Allerdings bin ich bereits damals schon zu dem Ergebnis gekommen, dass T-Systems über ein sehr gut durchdachtes und abgerundetes Cloud-Portfolio verfügt.

Das zeigt sich nun auch im konsolidierten Enterprise Cloud Portal. Von SaaS über PaaS bis IaaS und weiteren Lösungen für mobile Endgeräte ist alles dabei. T-Systems verfügt damit als einer der wenigen Anbieter über einen vollständigen Cloud-Stack und das nun sogar noch gebündelt in einem einzigen Portal.

Insbesondere in dem Enterprise Marketplace steckt viel Potential. Auf der diesjährigen CeBIT konnte ich einen ersten Blick darauf werfen, der sich meiner Einschätzung nach zu diesem Zeitpunkt noch in einem Alpha-Status befand. Einige grundlegende und zwingend notwendige Funktionen für ein IaaS Angebot, genannt seien nur automatische Skalierbarkeit und Hochverfügbarkeit, fehlten noch. Aber das war im März und ich gehe davon aus, dass T-Systems hier schon weitere Fortschritte gemacht hat. Zudem habe ich bereits aus einer sicheren Quelle erfahren, dass T-Systems/ Telekom ihre Cloud-Infrastruktur sukzessive auf OpenStack umstellen wird, was auch dem Enterprise Marketplace einen weiteren Schub hinsichtlich Kompatibilität geben wird.

Was T-Systems als Vorteil für nicht-technische Nutzer in Unternehmen sieht, sollte bei IT-Verantwortlichen Sorgenfalten verursachen. Zwar bin ich auch auf dem Standpunkt, dass sich die IT-Abteilungen zu einem Service-Broker entwickeln werden und sogar müssen. Allerdings halte ich es für recht bedenklich, wenn jede Abteilung einfach loslaufen darf und sich nach belieben IT-Services extern einkauft. Die Schuld liegt natürlich bei den IT-Abteilungen selbst, da diese sich über die Jahre hinweg einen schlechten Ruf aufgebaut haben und als langsam und nicht innovativ gelten. Darüber habe ich hier bereits vor zwei Jahren ausführlich philosophiert (Cloud Computing und die Schatten-IT).

Eine gewisse Kontrollinstanz in der Form eines Service-Broker ist weiterhin notwendig, denn sonst kommt es zu einem unkontrollierten Wildwuchs von externen Services, über die man den Überblick verlieren wird. Das lässt sich selbstverständlich kontrollieren, wenn man die Services über einen einzigen Anbieter bezieht. Und das ist genau das Ziel von T-Systems und seinem umfangreichen Enterprise Cloud Portal. Ein Kunde soll explizit und abteilungsübergreifend die Services aus der T-Systems Cloud beziehen, um damit den Wildwuchs zu vermeiden und den Überblick behalten. Die Frage ist, ob sich das bei den Kunden intern auch so durchsetzen lässt. Denn auch andere Anbieter haben hübsche Services.

Am Ende möchte ich noch auf ein Thema eingehen, was im Endkunden-Umfeld derzeit für Aufregung sorgt, Unternehmenskunden aber einen großen Vorteil bietet. Das End-to-End Angebot von Services. T-Systems ist auf Grund seiner Situation, Tochter von der Deutschen Telekom zu sein, einer der wenigen Cloud-Anbieter, der ein Service-Level von den Services auf Applikations- oder sogar virtueller Maschinen Ebene im Rechenzentrum, inkl. der Datenleitung anbieten kann. Das ermöglicht es den Kunden einen ununterbrochenen Quality-of-Service (QoS) sowie ein umfangreiches Service Level Agreement (SLA) zu erhalten, was viele andere Cloud-Anbieter nicht leisten können.