Kategorien
Analysen

Cloud-Connectivity: Ruckelfrei in die Cloud

Die kontinuierliche Verlagerung von geschäftskritischen Daten, Applikationen und Prozessen auf externe Cloud Infrastrukturen sorgt dafür, dass sich für CIOs nicht nur die IT-Betriebskonzepte (Public, Private, Hybrid) sondern ebenfalls maßgeblich die Netzwerkarchitekturen und Anbindungsstrategien verändern. Hierbei ist die Auswahl des richtigen Standorts ein entscheidender Wettbewerbsvorteil, bei dem Frankfurt bereits heute, aber vor allem in der Zukunft eine tragende Rolle spielen wird.

Die digitale Transformation schlägt um sich

Der digitale Wandel macht heute in keinem Bereich unseres Lebens mehr halt. So sind schätzungsweise 95 Prozent aller Smartphone Apps mit Services verbunden,
 die sich auf Servern in globalen und weltweit verteilten Rechenzentren befinden. Gleichermaßen sind die Apps ohne eine direkte und zumeist konstante Verbindung zu diesen Services nicht funktionsfähig. Der Zugriff auf Metadaten oder anderweitige Informationen ist für den reibungslosen Betrieb unabdingbar. Zudem wird der Großteil der Produktivdaten, welche von den Apps benötigt werden, auf Systemen in den Rechenzentren gespeichert und nur eine kleine Auswahl lokal auf dem Smartphone bei Bedarf zwischengespeichert.

Bereits heute werden viele moderne Business-Applikationen über Cloud-Infrastrukturen bereitgestellt. Aus der heutigen Sichtweise eines CIOs ist eine stabile und performante Verbindung zu Systemen und Services damit unerlässlich. Dieser Trend wird sich noch weiter verstärken. Crisp Research geht davon aus, dass in den nächsten fünf Jahren rund ein Viertel aller Business-Anwendungen als Cloud-Services eingesetzt werden. Gleichzeitig werden auch hybride Szenarien, bedienen lokale unternehmenseigene IT- Infrastrukturen mit Infrastrukturen in Cloud Rechenzentren verbunden werden, immer wichtiger.

Datenaufkommen: Das neue Öl erfordert größere Pipelines

Insbesondere das stetig steigende Datenaufkommen erfordert eine zuverlässige und vor allem stabile Konnektivität, um auf die Daten und Informationen zu jeder Zeit Zugriff zu erhalten und verlässlich zu speichern. Noch wichtiger wird es, wenn geschäftskritische Prozesse und Applikationen auf eine Cloud-Infrastruktur ausgelagert werden. Der Zugriff muss jederzeit und performant – mit einer geringen Latenz – sichergestellt werden und kann für Unternehmen im Fehlerfall zu maßgeblichen finanziellen als auch Schäden am Image führen. Das stellt ein hohes Unternehmensrisiko dar. Die Qualität eines Cloud Service hängt somit maßgeblich von seiner Konnektivität und der Performance im Backend ab. Ein Cloud Service ist nur so gut, wie die Verbindung, über die er bereitgestellt wird.

Cloud-Connectivity ist die neue Währung

Damit sich Applikationen und Services performant, stabil und sicher bereitstellen lassen, sind einerseits moderne Technologien erforderlich, andererseits ist der Standort für eine optimale „Cloud-Connectivity“ maßgeblich entscheidend. „Cloud Connectivity“ lässt sich technisch mittels der Latenz, dem Durchsatz und der Verfügbarkeit definieren.

Cloud-Connectivity_Tuecken

Hierbei ist ein entscheidendes und wichtiges Merkmal die Konnektivität des Rechenzentrums, um den Kunden und deren Kunden einen stabilen und zuverlässigen Zugriff auf Cloud-Services zu jeder Zeit zu gewährleisten. Hierzu gehören eine hohe Ausfallsicherheit anhand unterschiedlicher Carrier (Netzwerkprovider) und eine redundante Infrastruktur hinsichtlich Router, Switches, Verkabelung sowie der Netzwerktopologie. In diesem Zusammenhang bilden Carrier-neutrale Anbindungen ein wichtiges Merkmal für den Kunden, damit dieser sich aus mehreren Anbietern den für sich passenden auswählen kann.

Frankfurt ist das Vorbild für die Cloud-Connectivity

In den vergangenen 20 Jahren hat sich in Frankfurt
 ein Cluster von Infrastrukturanbietern für die digitale Ökonomie gebildet, die Unternehmen dabei helfen, ihre Produkte und Dienstleistungen am Markt zu positionieren. Diese Anbieter haben Frankfurt und dessen Wirtschaft geprägt und liefern Integrationsservices für IT und Netzwerke sowie Rechenzentrumsdienste. Immer mehr Service-Anbieter haben verstanden, dass sie trotz der Globalität einer Cloud-Infrastruktur lokal vor Ort in den Ländern bei ihren Kunden sein müssen. Das ist eine wichtige Erkenntnis. Kein Anbieter, der ernsthafte Geschäfte in Deutschland machen will, wird auf einen lokalen Rechenzentrumsstandort verzichten können. Crisp Research sieht einen wichtigen Trend darin, dass viele internationale Anbieter in den kommenden zwei bis drei Jahren ihre Cloud Plattformen in Frankfurt aufbauen beziehungsweise weiter ausbauen werden.

Vor diesem Hintergrund hat Crisp Research in einem White Paper die Rolle von Frankfurt als Rechenzentrumsstandort und Connectivity Hub untersucht. Das White Paper „Die Bedeutung des Standorts Frankfurt für die Cloud Connectivity“  steht unter http://www.interxion.com/de/branchen/cloud/die-bedeutung-des-standorts-frankfurt-fur-die-cloud-connectivity/download/ zum Download bereit.

Kategorien
Analysen

Die Top 15 Open Source Cloud Computing Technologien 2014

Open Source Technologien blicken auf eine lange Geschichte zurück. Dabei gehören Linux, MySQL und der Apache Webserver zu den populärsten und erfolgreichsten Technologien, die von der Community hervorgebracht wurden. Im Laufe der Jahre hat sich um das Thema Open Source ein wahrer Hype entwickelt, der von Entwicklern getrieben in die Unternehmens-IT eingezogen ist. Heute sind IT-Umgebungen ohne Open Source Technologien nicht mehr vorstellbar. Vorangetrieben durch das Cloud Computing rückt Open Source wieder stärker in das Rampenlicht.

Insbesondere für die Entwicklung, den Aufbau und Betrieb von Cloud-Infrastrukturen, -Plattformen und –Applikationen sind in der jüngsten Vergangenheit viele Projekte entstanden, die einen maßgeblichen Einfluss auf den Cloud Computing Markt haben und ihren Beitrag leisten. Was sind die derzeit angesagtesten und wichtigsten Open Source Technologien im Cloud Computing Markt? Dieser Frage ist Crisp Research nachgegangen und hat die „Top 15 Open Source Cloud Computing Technologien 2014“ ihrer Bedeutung nach klassifiziert.

René Top 15 Open Source

OpenStack macht das Rennen

Offenheit und Flexibilität gehören zu den Top fünf Gründen von CIOs während ihrer Auswahl von Open Source Cloud Computing Technologien. Gleichzeitig nimmt das Thema Standardisierung einen immer größeren Stellenwert ein und dient als einer der größten Treiber von IT-Entscheidern, um sich mit Open Source Cloud Technologien zu beschäftigen. Nicht umsonst gilt beispielweise OpenStack als der kommende de-facto Standard für Cloud-Infrastruktursoftware. Crisp Research rät, moderne und nachhaltige Cloud-Umgebungen auf den Grundsätzen der Offenheit, Zuverlässigkeit und Effizienz aufzubauen. Speziell in den Bereichen Offenheit und Effizienz leistet Open Source einen signifikanten Beitrag. Damit stellen CIOs die Weichen für die Umsetzung von Multi-Cloud und hybriden Cloud-/ Infrastrukturszenarien und unterstützen die IT-Abteilung bei der Einführung und Durchsetzung einer ganzheitlichen DevOps-Strategie. DevOps spielt insbesondere bei der Adaption von Platform-as-a-Service und der Entwicklung von Applikationen für die Cloud eine entscheidende Rolle und führt zu signifikanten Geschwindigkeitsvorteilen, welche sich ebenfalls auf die Wettbewerbsstärke auswirken.

Zu den Kriterien bei der Bestimmung der Top 15 Open Source Cloud Computing Technologien gehören:

–       Innovations- und  Release-Geschwindigkeit

–       Entwicklung der Community inkl. Unterstützung der großen Anbieter

–       Adaptionsrate bei innovativen Entwicklern und Anwendern

In Beratungsprojekten sieht Crisp Research vor allem bei den führenden Anwendern den Einsatz moderner Open Source Technologien, um die eigenen IT-Umgebungen in unterschiedlichen Szenarien effizient und zukunftsorientiert zu betreiben.

Die Top 5 der Open Source Cloud Computing Technologien 2014:

  1. OpenStack

OpenStack gehört in diesem Jahr zu der wichtigsten Open Source Technologie sowohl für Unternehmen als auch Entwickler. Die Infrastruktursoftware wird bereits von mehr als 18.500 Individuen in über 140 Ländern weltweit unterstützt und erfreut sich bei immer mehr IT-Herstellern und Anbietern großer Beliebtheit. OpenStack dient für eine stetig steigende Anzahl von IT-Umgebungen als Basis für Public, Private und Managed Infrastrukturen. Insbesondere Unternehmen haben OpenStack für sich entdeckt, um eigene Private Clouds aufzubauen. IT-Anbieter wie die Deutsche Telekom (Business Marketplace) nutzen OpenStack, um ihre Cloud-Plattformen aufzubauen.  Zwar kommen nur sehr wenige Entwickler mit OpenStack noch direkt in Berührung. Dennoch ist die Lösung auch für sie von wichtiger Bedeutung, da ihnen hierüber Plattformen wie Cloud Foundry oder der Zugriff auf Container-Technologien wie Docker ermöglicht wird. In anderen Fällen greifen sie direkt auf die OpenStack APIs zu, um ihre Anwendungen infrastrukturnah zu entwickeln.

  1. Cloud Foundry

Cloud Foundry nimmt im wachsenden Platform-as-a-Service (PaaS) Markt eine führende Rolle ein. Das Projekt wurde von Pivotal, einem Spin-Off von EMC/ VMware, initiiert. Cloud Foundry wird vorwiegend von Unternehmen eingesetzt, um ihren internen Entwicklern Private PaaS-Umgebungen bereitzustellen. Von Managed Service Providern wird Cloud Foundry genutzt, um einen PaaS in einer gehosteten Umgebungen anzubieten. Das PaaS-Projekt spielt gut mit OpenStack zusammen, um darüber hochverfügbare und skalierbare PaaS-Plattformen aufzubauen.

  1. KVM

KVM (Kernel-based Virtual Machine) ist der bevorzugte Hypervisor von Open Source Infrastrukturlösungen wie OpenStack oder openQRM und genießt in der Open Source Gemeinde eine hohe Priorität. KVM steht für eine kostengünstige aber vor allem mächtige Alternative zu kommerziellen Angeboten wie VMware ESX oder Microsoft Hyper-V. KVM hat etwa einen Marktanteil von etwa 12 Prozent was daran liegt, dass Red Hat den Hypervisor als Basis für seine Virtualisierungslösungen einsetzt. Insbesondere durch die enge Verzahnung mit OpenStack als Standard-Hypervisor wird das Gewicht von KVM weiter zunehmen. Weiterhin suchen CIOs nach kostengünstigeren Möglichkeiten zur Virtualisierung ihrer Infrastruktur.

  1. Docker

Der Shooting-Star in diesem Jahr ist Docker. Die Container-Technologie, die als Nebenprodukt während der Entwicklung des Platform-as-a-Service „dotCloud“ entstanden ist, sorgt derzeit für viel Wirbel und wird von vielen Branchengrößen darunter Google, Amazon Web Services und sogar Microsoft unterstützt. Das aus gutem Grund. Docker ermöglicht es, Applikationen gebündelt in Containern zwischen Plattformen zu verschieben. Genauer, Applikationen und Workloads zwischen mehreren Linux-Servern zu bewegen. Damit wird die Portabilität verbessert. Im ersten Moment erscheint Docker als ein reines Tool für Entwickler. Aus dem Blickwinkel eines IT-Entscheiders handelt es sich allerdings klar um ein strategisches Werkzeug für die Optimierung von modernen Applikations-Deployments. Docker hilft dabei, die Portabilität einer Anwendung sicherzustellen, die Verfügbarkeit zu erhöhen und das Gesamtrisiko zu minimieren.

  1. Apache Mesos

Mesos, das im vergangenen Jahr zu einem Top-Level-Projekt in der Apache Software Foundation aufgestiegen ist, wurde an der University of California entwickelt und hilft dabei, Anwendungen isoliert voneinander zu betreiben und dabei dynamisch auf verschiedene Nodes eines Clusters zu verteilen. Mesos lässt sich zusammen mit OpenStack und Docker nutzen. Prominente Nutzer von Mesos sind Twitter und Airbnb. Einer der treibenden Faktoren hinter Mesos ist der deutsche Entwickler Florian Leibert, der auch für die Einführung der Cluster-Technologie bei Twitter mit verantwortlich war.

Open Source is eating the license-based world

Auch die ansonsten proprietären Branchenriesen allen voran IBM, HP und VMware umgarnen Open Source Technologien. HPs erste Public Cloud Variante „HP Cloud“ basierte bereits auf OpenStack. Mit der HP Helion Cloud wurde das gesamte Cloud Portfolio (Public, Privat) auf Basis von OpenStack vereinheitlicht. Weiterhin ist HP mittlerweile der größte Code Contributor für das kommende OpenStack „Juno“-Release, welches im kommenden Oktober erscheint. IBM beteiligt sich an OpenStack und nutzt Cloud Foundry als Basis für seinen PaaS „Bluemix“. Auf der VMworld in San Francisco kündigte VMware eine engere Kooperation mit OpenStack sowie Docker an. In diesem Zusammenhang wird VMware im ersten Quartal 2015 eine eigene OpenStack Distribution (VMware Integrated OpenStack (VIO)) präsentieren, mit der sich eine OpenStack-Implementierung auf Basis von VMwares vSphere aufsetzen lässt. Die Partnerschaft mit Docker wird dazu führen, dass die Docker Engine in Zukunft auf den VMware-Produkten VMware Fusion und auf Servern mit VMware vSphere und vCloud Air laufen soll.

Nicht nur aus technischen Gründen sind Open Source Lösungen wie OpenStack attraktiv. Ebenfalls aus der finanziellen Perspektive leistet OpenStack einen entscheidenden Beitrag, indem sich mit dem Open Source Framework die Kosten für den Aufbau und Betrieb einer Cloud Infrastruktur signifikant reduzieren lassen. Die Lizenzkosten für aktuelle Cloud-Management- und Virtualisierungslösungen des gesamten Cloud-TCO liegt etwa bei 30 Prozent.  Das bedeutet, dass zahlreiche Startups und große renommierte Softwarehersteller wie Microsoft und VMware mit dem Lizenzverkauf entsprechender Lösungen gute Umsätze erzielen. Mit OpenStack erhalten CIOs jetzt die Gelegenheit die Provisionierung und Verwaltung ihrer virtuellen Maschinen und Cloud Infrastrukturen mittels einer Open Source Technologie vorzunehmen. Hierzu stehen kostenlose Community Editions als auch professionelle Distributionen für den Unternehmenseinsatz inklusive Support zur Verfügung. In beiden Fällen Alternativen, um die Lizenzkosten für den Betrieb der Cloud Infrastrukturen deutlich zu senken. Mit OpenStack halten CIOs damit ein nicht zu unterschätzendes Druckmittel gegen Microsoft und VMware in der Hand.

Kategorien
Analysen

Ein Gorilla im Nebel: SAP sucht Zuflucht bei OpenStack und Cloud Foundry

Was hat es zu bedeuten, wenn ein 800 Pfund schwerer Gorilla in für ihn eher fremden Gefilden herumwildert? 1. Er will sein Hoheitsgebiet erweitern. 2. Er ist auf der Suche nach neuen attraktiven Partnerinnen. Ein ähnliches Verhalten legt aktuell SAP an den Tag. Wie der ERP-Primus im Rahmen der OSCON 2014 angekündigt hat, werden die Walldorfer ihr Engagement in den zwei derzeit angesagtesten Open-Source Communities (OpenStack, Cloud Foundry) intensivieren. Was dieser strategische Schritt zu bedeuten hat, welcher Einfluss damit entsteht und welche Vorteile davon für die SAP-Anwender ausgehen, erläutert dieser Analyst View.

SAP nimmt (wieder) gezielten Kurs auf Open-Source

Mit Cloud Foundry und OpenStack wird sich SAP in den derzeit zwei führenden Open-Source Cloud Computing Communities beteiligen, um damit weitere Innovationen und die allgemeine Weiterentwicklung der Cloud zu fördern, wie Björn Goerke, Executive Vice President “Products and Innovation Technology” bei SAP in einer Pressemeldung verlauten ließ. Bisher haben sich die Walldorfer bereits als normales Mitglied an dem Platform-as-a-Service (PaaS) Projekt Cloud Foundry beteiligt und in diesem Zuge im Dezember 2013 in Zusammenarbeit mit Pivotal – einem Spin-off von VMware – einen Cloud Foundry Service-Broker für SAP HANA veröffentlicht. Hiermit lassen sich die In-Memory Funktionen von SAP HANA in Cloud Foundry basierten Applikationen nutzen. Die Beteiligung wird SAP in Zukunft intensivieren und das Projekt als Foundation-Mitglied mit Platinum-Status unterstützen. Mit HP, IBM, Intel, VMware und Ericsson befindet sich SAP dort in elitärer Gesellschaft.

Im Umfeld von OpenStack will SAP auf die Community zugreifen, um von den bisherigen Entwicklungen zu profitieren, aber um ebenfalls selbst zur Erweiterung der Code-Basis beizutragen. Die Beteiligung hat insbesondere das Ziel, OpenStack-Entwicklungen für geschäftliche Szenarien vorantreiben und die eigenen Erfahrungen bei der Verwaltung von Cloud-Infrastrukturen für Unternehmen mit einfließen zu lassen. In Sachen Cloud-Infrastrukturen wird SAP von der OpenStack Community allerdings noch bedeutend mehr lernen als das Unternehmen in der Lage ist dazu beizutragen.

OpenStack wächst und gedeiht

SAPs OpenStack Engagement kommt nicht ganz unerwartet. Das Momentum der Open-Source Cloud-Infrastruktursoftware bleibt konstant auf einem hohen Niveau. Neben der stetigen Verbesserung der Technologie (aktuelles Release: Icehouse), steigt ebenfalls die Adaptionsrate bei den Unternehmenskunden kontinuierlich an. Dies zeigt sich im weltweiten Wachstum der OpenStack-Projekte. Zwar stieg die Anzahl der neuen Projekte von Q2 auf Q3/2014 nur noch um 30 Prozent an (Steigerung von Q1 auf Q2/2014: 60 Prozent), trotzdem ist die Attraktivität weiterhin ungebrochen.

Dabei sind On-Premise Private Clouds mit Abstand das bevorzugte Deployment-Modell. Im Q2/2014 zählte die OpenStack Foundation weltweit 85 Private Cloud-Installationen. Im Q3 wuchs die Anzahl bereits auf 114 an.  Die Anzahl der weltweiten OpenStack Public Clouds stieg nur noch um 7 Prozent an. Im Vergleich dazu lag das Wachstum von Q1 auf Q2/2014 bei 70 Prozent. Mit 57 Prozent zeigten Hybrid Cloud Projekte das größte Wachstum. Für die kommenden 12 Monate erwartet Crisp Research ein 25 prozentiges Wachstum OpenStack-basierter Enterprise Private Clouds.

OpenStack-Deployments_Q1-Q2-Q3

Was hat das SAP Engagement bei OpenStack und Cloud Foundry zu bedeuten?

Wenn ein großer Tanker wie eine SAP sich an jungen und dynamischen Communities aus der Open-Source Szene beteiligt, dann darf diesen Projekten durchaus eine hohe Bedeutung zugesprochen werden. Insbesondere OpenStack hat sich damit endgültig zum Schwergewicht unter den Open Source Cloud-Infrastrukturlösungen gemausert. Aber nicht nur für die Communities hat das Engagement einen hohen Stellenwert. Auch für SAP handelt es sich dabei um einen strategisch wichtigen Schritt, um sich in Zukunft unabhängiger gegenüber Infrastrukturanbietern wie VMware oder Microsoft aufzustellen.

SAP gehört zu den größten Workloads in der Unternehmens-IT und wird von dem Großteil der Anwender auch weiterhin selbst in on-Premise Infrastrukturen betrieben. Mit der steigenden Bedeutung von Cloud-Umgebungen und dem wachsenden Einfluss von Open-Source, muss vor diesem Hintergrund die Rolle von VMware und Microsoft Umgebungen hinterfragt werden, die früher bevorzugt als Infrastrukturbasis zum Einsatz gekommen sind.

Insbesondere aus finanzieller Perspektive leistet OpenStack einen entscheidenden Beitrag, indem sich mit dem Open-Source Framework die Kosten für den Aufbau und Betrieb einer Cloud Infrastruktur signifikant reduzieren lassen. Die Lizenzkosten für aktuelle Cloud-Management- und Virtualisierungslösungen des gesamten Cloud-TCO liegt etwa bei 30 Prozent.  Das bedeutet, dass zahlreiche renommierte Softwarehersteller wie Microsoft und VMware mit dem Lizenzverkauf entsprechender Lösungen einen guten Umsatz erzielt haben. Mit OpenStack erhalten IT-Entscheider jetzt die Gelegenheit, die Provisionierung und Verwaltung ihrer virtuellen Maschinen und Cloud Infrastrukturen ökonomischer vorzunehmen. Hierzu stehen kostenlose Community Editions als auch professionelle Distributionen für den Unternehmenseinsatz inklusive Support zur Verfügung. In beiden Fällen Alternativen, um die Lizenzkosten für den Betrieb der Cloud Infrastrukturen deutlich zu senken. Mit OpenStack halten IT-Entscheider damit ein nicht zu unterschätzendes Druckmittel gegen Microsoft und VMware in der Hand.

Es handelt sich somit um einen klugen Schachzug von SAP, indem den Kunden in Zukunft weitere Optionen für den Einsatz offener Cloud-Architekturen erhalten und die eigene Rolle und das Ansehen in der Open-Source Gemeinde damit gestärkt wird.

Implikationen für den SAP-Anwender

Neben den Vorteilen die sich dadurch für SAP ergeben, wirkt sich die strategische Entscheidung ebenfalls auf die Anwender aus. Abseits der Minimierung von Lizenzkosten auf Infrastrukturebene, lässt sich mit dem Einsatz von OpenStack die Plattformunabhängigkeit erhöhen und damit die Herstellerabhängigkeit (Vendor Lock-in) verringern. Die offene Architektur und Schnittstellen ermöglichen die Integration mit bestehenden Systemen und sorgen für eine bessere Interoperabilität. Gleichzeitig dürfte SAP für einen starken Einflussfaktor stehen, um die Interessen seiner Kunden in der Open-Source Community zu vertreten.

Allerdings, der zentrale Aspekt den SAP-Anwender kritisch hinterfragen müssen ist, ob SAP in der Lage ist, OpenStack so zu unterstützen, dass sie ihre Private Clouds auch für den SAP-Betrieb einsetzen können. Hierfür darf es keine proprietäre SAP-OpenStack-Version geben. Stattdessen muss SAP auf den aktuell durch die Community unterstützten Releases oder auf professionellen Distributionen betrieben werden können. Kurzum muss sich SAP ohne großen Aufwand auf bereits vorhandenen OpenStack-Infrastrukturen ausrollen lassen.

Zwar hat SAP bisher viel Erfahrung im Linux-Umfeld sammeln können. Beim Thema OpenStack sind die Walldorfer allerdings sehr spät dran. Schlussendlich ist es für die Anwender von entscheidender Bedeutung, ob SAP ein großer Contributor von OpenStack werden kann und somit einen direkten Einfluss auf die Community erhält. In diesem Zusammenhang wäre es ein wichtiger Schritt, Mitglied der OpenStack Foundation zu werden und das Engagement damit offiziell zu unterstreichen.

Abschließend stellt sich die Frage, ob ein ergrauter Silberrücken, der mit ständigen Selbstzweifeln im Cloud-Bereich zu kämpfen hat (das Business by Design Desaster, ständige Wechsel in der Cloud-Führungsriege; der Weggang von Lars Dalgaard), mit attraktiven, dynamischen und aufstrebenden Jungtieren mithalten wird.

Mit dem Engagement in der Cloud Foundry Community und einer Vielzahl von Initiativen, um die HANA Cloud Plattform für Entwickler von neuen Workloads interessant zu machen, befinden sich SAP und Goerken (als ehemaliger Entwickler und Software-Architekt) auf einem guten Weg. Ob die SAP allerdings wieder zum Magneten der jungen innovativen Softwareentwickler werden wird, das bleibt abzuwarten.

Kategorien
Analysen

Deutsche ISVs wollen kein Public PaaS

Wir schreiben mittlerweile das Jahr acht in Sachen Cloud Computing. Aus kleinen, anfangs belächelten Start Ups wie zum Beispiel Salesforce sind mittlerweile Milliardenkonzerne geworden, mit Marktkapitalisierungen, die zum Teil höher liegen als die von globalen Industriekonzernen. Große, etablierte Softwarehersteller wie SAP kämpfen seit Jahren mit der eigenen Transformation und haben es nur mit enormem Aufwand geschafft Teile ihres Geschäftes zukunftsfähig zu machen.

Das Gros der deutschen Softwarehäuser hat es bisher versäumt die eigene Strategie auf das kommende Cloud-Zeitalter anzupassen. Die Gründe hierfür sind vielfältig und zum Teil auch nachvollziehbar. So ist es für ein mittelständisches Softwarehaus ein enorm hoher Investitionsaufwand und damit verbundenes Risiko, bestehende Software neu zu entwickeln und den Marktgegebenheiten anzupassen. Dennoch erscheint es unter den gegebenen Marktumständen unerlässlich sich den Realitäten anzupassen.

Aus diesem Grund ist es erforderlich, sich mit den eigenen Anforderungen an einen Platform-as-a-Service (PaaS) auseinanderzusetzen und diese zu definieren.

Platform-as-a-Service im Praxiseinsatz

Deutsche Softwarehäuser haben ganz bestimmte Anforderungen, wenn es um den Einsatz von PaaS im Rahmen ihrer Entwicklungs-, Test- und Betriebsprozesse geht. Besonders relevant sind für die Independent Service Provider (ISVs) die Konditionen des Betriebs bzw. das Betriebskonzept, sprich ob die PaaS-Dienste nach dem Public-, Private- oder im Rahmen eines Hosting-Modells betrieben werden. Und hier hat sich in den vergangenen 12 Monaten viel getan.

So waren bis Mitte 2013 keine der führenden PaaS Angebote als Technologie-Stack für den Eigen- oder Hosting-Betrieb verfügbar. Bis dato war Public Cloud das einzig verfügbare Betriebsmodell. Mit dem Release der CloudFoundry-Technologie unter Open Source- Lizenz machte VMware (heute bei Pivotal) den Anfang. Mittlerweile können auch die PaaS-Technologien von Microsoft (Microsoft Azure Pack), Red Hat (OpenShift), VMware (vFabric) als Software-Paket bezogen und individuell betrieben werden. Dies bietet Unternehmen, Softwareentwicklern und Hosting-Partner vollkommen neue Möglichkeiten PaaS-Dienste kundenindividuell anzubieten und hinsichtlich bestimmter Anwendungsszenarien zu optimieren.

Welche der Technologien sich mittel- und langfristig durchsetzen wird, ist derzeit noch schwer prognostizierbar, da die meisten ISVs, Hosting Provider und Unternehmensanwender sich noch nicht final festgelegt haben. Während IBM im Rahmen seiner BlueMix-PaaS- Plattform auf CloudFoundry setzt, bieten eine Reihe an Hosting Providern ihren Kunden die Auswahl zwischen mehreren Plattformen.

Derzeit existiert im deutschsprachigen Markt allerdings erst eine Handvoll Hosting Provider, die PaaS in einem Hosting Modell anbieten. Dies hat verschiedene Gründe. So schätzen einige Akteure wohl die Marktchancen nicht als aussichtsreich ein. Anderen fehlen schlicht die Ressourcen und Skills, um die technologisch anspruchsvollen und komplexen Plattformen aufzusetzen und zu betreiben. Auch müssen Hosting Provider mehr Verständnis und Know-How in Bezug auf die Prozesse und speziellen Anforderungen der ISVs, Startups, Freelance und Unternehmensentwickler aufbauen. Denn deren Bedürfnisse unterscheiden sich deutlich von den Anforderungen an ein klassisches Hosting oder Infrastruktur- Outsourcing. Die Anzahl erfahrener Architekten, Entwickler und Projektmanager zum Thema PaaS ist in Deutschland noch sehr übersichtlich.

Bevorzugte Betriebskonzepte und Modelle

Die Aussagen der im Rahmen einer Studie von Crisp Research befragten Softwarehäuser zeichnen ein recht eindeutiges Bild. Gefragt nach dem favorisierten Betriebskonzept zur Nutzung von PaaS-Diensten im Rahmen der Entwicklungsprozesse, sprachen sich „nur“ 21 Prozent für das bisherige Public Cloud- Modell aus, während 12 Prozent sich für den internen Betrieb im Rahmen einer „Private PaaS-Plattform“ entscheiden würden. Die Mehrheit von deutlich über 60 Prozent würden PaaS-Dienste für Development & Test am ehesten im Rahmen eines Hosting-Modells beziehen.

Hinsichtlich des Applikations-Betriebs sind die befragten Softwarehäuser sogar noch etwas anspruchsvoller. Hier sind es sogar nur noch 11 Prozent der befragten Unternehmen, die den Betrieb auf einer Public Cloud Umgebung befürworten würden. Die Mehrheit (38 Prozent) sieht in einem Hosted PaaS das für sie bevorzugte Betriebsmodell, um Applikationen in der Cloud zu betreiben. Weitere 30 Prozent sehen in der dedizierten Variante („Hosted Private PaaS“) ihr favorisiertes Modell. Über ein Fünftel der befragten Softwareunternehmen würde ihre Applikationen nur auf einer Private PaaS-Umgebung betreiben.

Anforderungen an die PaaS-Provider

Betrachtet man die Aussagen zu den zentralen Anforderungen an die Anbieter von PaaS-Diensten, so wird evident, warum die bisherigen Public Cloud-Modelle für viele professionelle Softwareentwickler nicht in Frage kamen. So stehen für rund 80 Prozent der befragten deutschen Softwarehäuser die Themen hohe Sicherheitsstandards, ISO-Zertifizierung und ein deutscher Rechenzentrumsstandort ganz oben auf der Agenda. Nach einem flexiblen Bezahlmodell (60 Prozent). Interessanterweise ist die individuelle Anpassung der PaaS-Plattform für die deutschen ISVs genauso wichtig, wie die Skalierungsfähigkeit der Plattform – ein Argument, dass in vielen Debatten der letzten Jahre immer an erster Stelle angeführt wurde. Anscheinend ist hier die Erkenntnis eingetreten, dass die Skalierungsfähigkeit der Technologie- Plattform nur so weit von Nöten ist, wie sich das Wachstum auf Kunden- beziehungsweise Anwenderseite entwickelt.

Auch erscheint verwunderlich, dass sich „nur“ 20 Prozent der ISVs einen lokalen Support und technische Unterstützung „vor Ort“ wünschen. Nur jeder zehnte ISV gab im Rahmen der Befragung an, keine Unterstützung bei der Ausgestaltung der Lizenzmodelle und SLA zu benötigen. Was vielleicht auch daran liegt, dass bislang erst wenige ISVs intensive Erfahrung mit dem Thema gesammelt haben – und daher noch etwas zu optimistisch in die Zukunft schauen.

Betrieb von Software auf PaaS-Plattformen – Make or Buy

Sofern deutsche Softwarehäuser auch den Betrieb ihrer neuen Software-Lösungen auf einer Cloud- beziehungsweise PaaS- Plattform planen, sind nicht nur die reinen Infrastruktur- Leistungen vom Provider gefragt (Server, Storage und Virtualisierung). Vielmehr wünschen sich mittlerweile rund die Hälfte der ISVs und Startups auch Managed Services im Bereich des Datenbank-, OS- und Netzwerkmanagements.

Immerhin kann sich ein Drittel der befragten Softwarehäuser vorstellen, auch externe Unterstützung des Providers im Hinblick auf den Applikationsbetrieb und das Applikationsmanagement in Anspruch zu nehmen – zwei Kerndisziplinen für Softwarehäuser.
Keine Angst vor Google und Co.

Ist es das berühmte Pfeifen im Walde, oder nur eine nüchterne, pragmatische Betrachtung der Lage? Die deutsche Software- Industrie geht jedenfalls optimistisch in die Zukunft und fürchtet sich nur in geringem Maße vor den globalen Großmächten wie Google. Lediglich knapp sechs Prozent der im Rahmen dieser Studie befragten Softwareanbieter glauben, dass Software in Zukunft standardisiert und von der Stange kommt. Wenn dem so wäre, würden in der Zukunft nur noch wenige große Konzerne den Markt unter sich aufteilen.

Studienergebnisse zum kostenlosen Download

Im Rahmen seiner empirischen Studie „Platform-as-a-Service:
Zukunft der deutschen Software-Industrie?“ hat Crisp Research im Auftrag von Pironet NDH deutsche Softwarehersteller nach der Einschätzung und Bedeutung von Platform-as-a-Services für ihr zukünftiges Geschäft befragt.
Die Studie kann kostenlos unter „PaaS-Trendstudie: Cloud verursacht Erdbeben im Softwaremarkt“  heruntergeladen werden.

Kategorien
Analysen

Der CIO in der OpenStack Falle!

OpenStack hat sich zum wichtigsten Open-Source Projekt für Cloud-Infrastrukturlösungen entwickelt. Seit dem Jahr 2010 haben sich hunderte von Unternehmen beteiligt, um ein offenes, standardisiertes und vielseitiges Technologie-Framework zu entwickeln, welches für die Verwaltung von Rechen-, Speicher- und Netzwerkressourcen in Public, Private und Hybrid Cloud Umgebungen eingesetzt werden kann. Obgleich es sich bei OpenStack um eine Open-Source Lösung handelt, impliziert es nicht, dass die Einrichtung, der Betrieb und die Wartung einfach zu handhaben sind. OpenStack kann sich wie eine wahre Bestie verhalten. Eine Reihe von CIOs, die selbst entwickelte OpenStack-Infrastrukturen betreiben, berichten vom signifikanten Ansteigen von Kosten und der Komplexität. Um OpenStack an ihre individuellen Anforderungen anzupassen haben sie zahlreiche Feinabstimmungen vorgenommen. Dadurch haben sie OpenStack-Implementierungen entwickelt, die nicht mehr kompatibel zu aktuellen Releases sind. Das führt zu der Frage, ob eine “Build”- oder “Buy”-Strategie der richtige Ansatz ist, um OpenStack in der unternehmenseigenen IT-Umgebung einzusetzen.

OpenStack nimmt Fahrt auf

OpenStack hat sich schnell zu einer maßgeblichen Größe im Cloud-Infrastruktur-Business entwickelt. Im Jahr 2010 als kleines Open Source-Projekt gestartet, wird die Lösung mittlerweile von mehreren hundert Unternehmen und Organisationen eingesetzt. Darunter zahlreiche große Unternehmen (PayPal, Wells Fargo, Deutsche Telekom) sowie innovative Cloud Startups und Entwickler. In den Anfangszeiten wurde OpenStack von seinen Initiatoren maßgeblich dazu benutzt, um eigene, teils proprietäre Cloud-Umgebungen aufzubauen. Mehr als 850 Unternehmen unterstützen das Projekt, darunter IBM, Oracle, Red Hat, Cisco, Dell, Canonical, HP und Ericsson.

Neben der stetigen Verbesserung der Technologie steigt ebenfalls die Adaptionsrate bei den Unternehmenskunden kontinuierlich an. Dies zeigt sich im weltweiten Wachstum der OpenStack-Projekte (Steigerung von Q1 auf Q2/2014 um 60 Prozent). Hierbei sind On-Premise Private Clouds das bevorzugte Deployment-Modell. Im Q1/2014 zählte die OpenStack Foundation weltweit 55 Private Cloud-Installationen weltweit. Im Q2 sind es bereits 85. Ebenfalls wuchs die Anzahl der weltweiten OpenStack Public Clouds von 17 auf 29 an. Für die kommenden 12 Monate erwartet Crisp Research ein 25 prozentiges Wachstum OpenStack-basierter Enterprise Private Clouds.

Anmerkung: Im Rahmen einer Studie erhebt Crisp Research derzeit Daten und Fakten zum OpenStack-Einsatz in deutschsprachigen Unternehmen. Die Studienergebnisse werden im Q4/2014 veröffentlicht.

OpenStack: Make oder Buy?

OpenStack bietet Möglichkeiten, Umgebungen in Verbindung mit einer großen Vielfalt von anderen Open-Source Technologien zu betreiben und gleichzeitig kosteneffizient zu sein (keine oder nur geringe Lizenzkosten). Allerdings steigt dass Komplexitätslevel damit dramatisch an. Auch wenn CIOs dazu tendieren, OpenStack nur als Cloud-Management Schicht einzusetzen, entsteht dennoch ein hoher Komplexitätsgrad den es zu verwalten gilt. Den meisten OpenStack-Einsteigern ist nicht bewusst, dass man an „über 500 Knöpfen drehen kann“ um OpenStack-Clouds richtig zu konfigurieren.

Die Kernfrage für die meisten Unternehmen, die von OpenStack profitieren wollen ist daher: Build oder Buy!

Crisp Research_OpenStack_Diy or Buy

Während der Vorbereitung und Evaluierung der „Build oder Buy“-Entscheidung, sollten Unternehmen unbedingt berücksichtigen, über welche Erfahrungen und technische Kenntnisse sie im Hinblick auf OpenStack verfügen. IT-Entscheider sollten ihre internen Fähigkeiten kritisch hinterfragen sowie ihre Anforderungen klar definieren, um sie dann den Angeboten der sogenannten „OpenStack-Distributoren“ gegenüberzustellen. Analog zum Linux-Business bieten OpenStack-Distributoren fertig paketierte OpenStack-Varianten inklusive Support und meist auch Integrationsdienstleistungen an. Dies reduziert das Implementierungsrisiko und beschleunigt meist die Umsetzung des Projektes.

Der CIO ist gefragt

Seit geraumer Zeit sind CIOs und Cloud-Architekten dabei, die Frage zu beantworten, wie sie ihre Cloud-Umgebungen für den Unternehmenseinsatz idealerweise aufbauen sollten. Nachdem die letzten Jahren unter dem Motto „Trial and Error“ standen und der Großteil der Cloud-Infrastrukturen einen explorativen Charakter besaß, geht es nun mehr darum, großvolumige Projekte für den produktiven Betrieb umzusetzen.

Dies wirft die Frage auf, welches Cloud-Design das Richtige ist, mit dem IT-Architekten ihre Cloud-Umgebungen planen. Crisp Research rät, moderne und nachhaltige Cloud-Umgebungen auf den Grundsätzen der Offenheit, Zuverlässigkeit und Effizienz aufzubauen. Speziell in den Bereichen Offenheit und Effizienz leistet OpenStack einen signifikanten Beitrag.

Der vollständige Analyst Report „Der CIO im OpenStack Dilemma: BUY oder DIY?“ kann unter http://www.crisp-research.com/report-der-cio-im-openstack-dilemma-buy-oder-diy/  kostenlos heruntergeladen werden.

Kategorien
Analysen

Public PaaS in Deutschland: Warum cloudControl in die USA zieht

Docker Inc. trennt sich von seinem Platform-as-a-Service (PaaS) Sorgenkind dotCloud und verkauft dieses an cloudControl Inc. dem US-amerikanischen Ableger der cloudControl GmbH aus Berlin. 

Kategorien
Analysen

Docker: Multi-Cloud Deployments werden Realität

Die Zeiten in denen Software auf lokalen Maschinen programmiert und isoliert in abgeschirmten Firmennetzwerken betrieben wurde sind längst vorbei. Im Cloud-Zeitalter steigt der Wert eines Software-Dienstes mit dessen Vernetzungs- und Verbreitungsgrad. Dies hat fundamentale Auswirkungen auf die Art und Weise wie Anwendungen heute entwickelt, getestet und betrieben werden. Ausfallsicherheit und Business Continuity sind in diesem Kontext nur zwei Schlagworte, die es dabei zu berücksichtigen gilt.

Kategorien
Analysen

Report: Amazon AWS vs. Microsoft Azure – Die Public Cloud Giganten im Vergleich

Nachdem Microsoft in den letzten Jahrzehnten mit Anbietern wie Novell, Oracle, IBM oder HP um on-Premise Marktanteile kämpfen musste, hat sich mit den Amazon Web Services ein neuer Gigant in der Public Cloud etabliert, der nun verstärkt seine Fühler in Richtung der Unternehmenskunden ausstreckt. Ein Markt, der vorwiegend von Microsoft beherrscht wird und einenormes Potential für die Anbieter offenbart. Marktprognosen von Crisp Research zeigen in den nächsten Jahren ein deutliches Wachstum von 40 Prozent pro Jahr, wodurch sich die Umsätze alleine in Deutschland im Jahr 2018 auf 28 Milliarden Euro belaufen werden. Dieser Analyst Report vergleicht das Service-Portfolio sowie die Strategie der Amazon Web Services mit denen von Microsoft Azure.

Der Report steht kostenlos unter AWS vs. Azure: Duell um die Vormachtstellung  in der Public Cloud zum kostenlosen Download zur Verfügung.

 

 

Kategorien
Insights

Umfrage: Platform-as-a-Service – Zukunft der deutschen Software-Industrie

Seit über fünf Jahren existieren Platform-as-a-Services (PaaS) am Markt, die sich im Laufe der letzten Jahre zu vollständigen Ökosystemen entwickelt haben. In den USA und Skandinavien gehören PaaS bereits zu den Standardwerkzeugen von professionellen Softwareentwicklern. In Deutschland verhalten sich Geschäftsführer und Entwicklungsleiter noch deutlich zurückhaltender. Dabei erhalten nicht nur deutsche Unternehmen, sondern ebenfalls klassische ISVs (Independent Service Provider) mit einem PaaS eine echte Alternative, um damit die unternehmensinternen Entwicklungssysteme und -Prozesse abzulösen und damit auf das Cloud-Zeitalter umzusteigen.

Neue PaaS-Betriebsmodelle verändern den Markt

Neue PaaS-Betriebsmodelle wie ein Hosted PaaS helfen nicht nur dabei Software-Entwicklungsprozesse deutlich effizienter zu gestalten, sondern auch Big Data Analytics intelligent umsetzen.

Ob und wie sich diese Situation bei deutschen ISVs und Softwarehäusern derzeit verändert und entwickelt, untersucht Crisp Research derzeit im Rahmen einer empirischen Studie „Platform-as-a-Service – Zukunft der deutschen Software-Industrie“.

Für weitere Informationen steht unser Projektleiter Max Hille zur Verfügung.

Umfrage: „Platform-as-a-Service – Zukunft der deutschen Software-Industrie“

Kategorien
Analysen

Salesforce baut Rechenzentrum in Deutschland. Wann folgen Amazon, Microsoft Google und Co.?

Salesforce wird im Jahr 2015 einen Rechenzentrumsstandort in Deutschland eröffnen. Crisp Research hält den Schritt als den einzig logisch Richtigen um deutsche Unternehmenskunden anzuziehen. Es bleibt allerdings die Frage offen, warum die anderen großen Cloud Player wie Amazon AWS, Microsoft und Google nicht schon lange in Deutschland gelandet sind!

Salesforce expandiert nach Europa

Nach einem Umsatzwachstum von 41 Prozent für das Finanzjahr 2014 wird der CRM Anbieter Salesforce seine Aktivitäten für das Finanzjahr 2015 in Europa weiter verstärken. Hierzu sollen europaweit mehr als 500 neue Arbeitsplätze und weitere Rechenzentren entstehen. Das erste der drei Rechenzentren wird nach Unternehmensangaben im August in Großbritannien eröffnet. Zwei weitere sollen im Jahr 2015 in Deutschland und Frankreich folgen. Bereits auf der letzten Salesforce Customer Company Tour im vergangenen Juli wurde ein Rechenzentrum für dieses Frühjahr in London angekündigt.

Auch Salesforce hat zu kämpfen

Fakt ist, trotz des Umsatzwachstums von 41 Prozent in Europa und stolz verkündeter Kunden wie BMW Group, Deutsche Post DHL, Sixt, Vaillant und Carl Zeiss Vision hat Salesforce es nicht leicht. Auch das zeigen die Investitionen und Expansionen mit weiteren Rechenzentren in Europa. Salesforce muss näher an den Kunden herankommen, wenn der Kunde nicht von alleine kommt. Es ist nicht das erste Bekenntnis, dass die Public Cloud in dieser Form nicht für alle funktioniert. Bereits im November letzten Jahres kündigte Salesforce CEO Mark Benioff mit dem “Salesforce Superpod” nichts anderes als eine Dedicated Private Cloud auf der Salesforce Infrastruktur an, um Kunden die Möglichkeit zu bieten das CRM-System nicht auf der Public Cloud, sondern einem extra für sie abgetrennten Bereich zu nutzen. Man sieht also, es wird ständig und in langsamen Schritten zurückgerudert. Natürlich nur im Sinne der Kunden.

Deutschland sollte nicht unterschätzt werden

Salesforce Expansion nach Deutschland zeigt außerdem, dass der Druck enorm sein muss und Deutschland attraktiver ist als vermutet. Schließlich behandeln die meisten amerikanischen Unternehmen den deutschen Markt eher stiefmütterlich.

Der Großteil der amerikanischen Cloud Anbieter versorgt den europäischen Markt derzeit über Rechenzentren in Irland (Dublin) und den Niederlanden (Amsterdam). Das stößt bei vielen Deutschen, vornehmlich Datenschützern und mittelständischen Unternehmen, auf Unbehagen. Das Speichern von Daten außerhalb von Deutschland und ein Vertrag maximal nach europäischem Recht wird nicht gerne gesehen. Jedoch sollte und darf der Wirtschaftsstandort Deutschland nicht vernachlässigt werden. Für die US-amerikanischen Unternehmen mag Deutschland zwar ein kleines Land sein, aber die Wirtschaftskraft zu unterschätzen wäre fatal.

Die Erwartungshaltung ist riesig

Salesforce positioniert sich mit Salesforce1 mittlerweile als eine allumfassende Plattform für die Entwicklung von Social, Mobile und weiteren Cloud-basierten Applikationen und richtet sich damit gezielt an Entwickler, ISVs, Endanwender und Administratoren. Salesforce versucht damit sein Image als reiner CRM-Anbieter abzuschütteln.

Salesforce sieht sich somit nicht mehr nur im Wettbewerb mit anderen CRM-Anbietern sondern ebenfalls mit den großen Playern wie Microsoft, Amazon AWS und Google, deren Cloud-Stack auch stetig weiter ausgebaut wird und bei fast allen nahezu vollständig ist. Die Expansion mit einem eigenen Rechenzentrum in Deutschland ist für Salesforce damit ein enormer Wettbewerbsvorteil gegenüber anderen Anbietern wie Amazon AWS, Microsoft oder Google. Insbesondere im stark umkämpften Markt für Unternehmenskunden, in denen Amazon AWS und Google sich schwer tun und wo Microsoft auf Grund seiner bestehenden breiten Kundenbasis bereits eine gute Ausgangslage hat.

Crisp Research ist der Meinung, dass spätestens nach dieser Ankündigung kein Anbieter, der den deutschen Markt als ernsthaft attraktiv betrachtet, mehr daran vorbeikommt, ebenfalls ein eigenes Rechenzentrum in Deutschland zu eröffnen. Zahlen von Crisp Research zeigen eine deutliche Anforderung von mittelständischen Unternehmen an Cloud Anbieter, dass die Daten in einem deutschen Rechenzentrum gespeichert werden müssen. Etwa 75 Prozent sehen darin die Notwendigkeit, um durch physische Lokalität der Daten das deutsche Recht einfacher anwendbar zu machen.

Microsoft sorgt für ein großes Fragezeichen

Warum hat zum Beispiel Microsoft nicht schon längst ein Rechenzentrum in Deutschland gebaut? Das Unternehmen ist seit Jahrzehnten in Deutschland tätig und sollte die Kundenbasis und deren Bedenken besser kennen als jeder andere Cloud Anbieter! Crisp Research hat erste Gerüchte über Rechenzentrumsstandorte von Amazon AWS und Microsoft in Deutschland gehört. Eine offizielle Bestätigung, als auch ein Dementi blieben bis heute allerdings aus.

Der Standortvorteil eines Rechenzentrums in Deutschland ist nicht zu vernachlässigen, um aktiv damit zu beginnen, den deutschen Unternehmen ihre Bedenken zu nehmen. Die Cloud Computing Anbieter haben in der Vergangenheit viel geredet und versprochen. Aussagekräftige Taten blieben jedoch aus. Nach IBM, mit einem Cloud-Rechenzentrum in Ehningen bei Stuttgart, hat nun auch Salesforce den richtigen Schritt gemacht. Wir sind gespannt wer folgen wird.