Kategorien
Events

Webinar: Cloud Computing Strategie in sechs Schritten

In einem kostenlosen einstündigen Webinar am 2. September um 16:00 zeigen Dietmar Wiedemann und ich die wichtigsten Schritte für eine nachhaltige Cloud Computing Strategie. Die Anmeldung erfolgt unter diesem LINK.

Inhalte des Webinar

In dem einstündigen Webinar zeigen wir am 2. September ab 16:00 auf, wie CIOs eine nachhaltige Cloud Computing Strategie entwickeln. Dabei werden wir folgende Fragen beantworten:

  • Warum ist Cloud Computing für den Unternehmenserfolg aus IT-Sicht essenziell?
  • Welche Potenziale birgt Cloud Computing für Unternehmen?
  • Wie treffen Unternehmen die Entscheidung für die Cloud?
  • Welche Use Cases eignen sich besonders für Cloud Computing?
  • Welche Schritte sind für die Strategieentwicklung notwendig?
  • Welche Anbieter bieten welche Services?
  • Wie sichert eine durchdachte Cloud-Governance die Vorteile und minimiert die Risiken des Cloud Computing?

Mit dem Webinar erhalten alle Teilnehmer kompakt, fokussiert und praxisbezogen die notwendigen Bausteine, um selbst eine eigene Cloud Computing Strategie zu entwickeln und nachhaltig umzusetzen.

In vielen Unternehmen fehlt eine klare Cloud Computing Strategie

Laut dem Marktforschungsunternehmen IDC weisen nur rund dreißig Prozent der deutschen Unternehmen eine formale Cloud-Strategie auf. Mit einer solchen Strategie legen Unternehmen fest, welche Anforderungen an eine Cloud-Umgebung bestehen, welche Teile der IT in einer Private oder Public Cloud genutzt werden und welche Schritte zur Umsetzung notwendig sind. „Die Bereitschaft, in die Cloud zu gehen, ist bei vielen Unternehmen trotz PRISM und Co. gegeben. Was den meisten CIOs allerdings noch fehlt, ist eine klar definierte Cloud-Strategie. Vielerorts setzen viele Firmen Cloud Services bisher noch punktuell und ohne strategische Weitsicht ein.“ so Dietmar Wiedemann, Cloud-Experte der Proventa AG und Leiter des Fachbereichs Cloud Computing im Bundesverband der Dienstleister für Online Anbieter e.V. (BODA). Demnach bleiben die wichtigen Fragen offen, etwa wie man die Cloud-Strategien entwickelt und umsetzt, um einen echten Mehrwert für die Organisation zu schaffen.

Mit einer Cloud Computing Strategie lässt sich Schatten-IT vermeiden

Fachabteilungen investieren vermehrt selbstständig in Informations- und Kommunikationstechnologien, lassen IT-Innovationen entwickeln oder besorgen sie kurzer Hand aus der Cloud. Diese Entwicklungen, die unter dem Stichwort Schatten-IT diskutiert werden, beunruhigen CIOs. „Mit der richtigen IT-Strategie lässt sich die Schatten-IT aber auch präventiv verhindern, eindämmen und beseitigen.“ sagt René Büst,  Principal Analyst und Senior Advisor von New Age Disruption. Ein vielversprechender Ansatz sei beispielsweise der Aufbau eines eigenen Cloud-Service-Portals für die Mitarbeiter, über welches diese kontrolliert auf interne und externe Cloud Services zugreifen können, so Büst. Die IT-Abteilung wird dadurch immer mehr zum Service Broker und kann durch die Nutzung externer Ressourcen (hybrid Modell) sicherstellen, dass die Mitarbeiter mit einer hohen Servicegüte rechnen können.

Anmeldung zum Webinar

Die Anmeldung für das Webinar „In sechs Schritten zu Ihrer erfolgreichen Cloud-Strategie.“, am 2. September 2013, um 16:00 Uhr, ist unter https://attendee.gotowebinar.com/register/906375066186336000 zu finden.

Nach der Anmeldung erhält der Teilnehmer eine Bestätigungs-E-Mail mit den Informationen zur Teilnahme an dem Webinar.

Kategorien
Kommentar

Gefährlich: VMware unterschätzt OpenStack

Langsam sollte man sich ernsthaft Sorgen machen, wer den Verantwortlichen von VMware diktiert, was sie zu sagen haben. Anfang März diesen Jahres sagt COO Carl Eschenbach, dass es für ihn schwer vorstellbar ist, dass VMware mit seinen Partnern nicht gegen ein Unternehmen das Bücher verkauft (Anmerkung: Amazon) bestehen kann. Naja, die Realität sieht derzeit anders aus. Dann kommt Ende März ein VMware Mitarbeiter aus Deutschland zum dem Schluss, dass VMware der Technologie-Enabler der Cloud sei und er derzeit keinen anderen sehe. Das dies bei weitem gefehlt ist, wissen wir auch. Nun setzt CEO Pat Gelsinger noch einen obendrauf und behauptet, dass OpenStack nicht für Unternehmen gedacht sei. Zeit für eine Aufklärung.

Augen zu und durch!

In einem Interview mit Network World äußerte sich VMware CEO Pat Gelsinger zu OpenStack und erwartet nicht, dass das Open-Source Projekt eine erhebliche Reichweite im Unternehmensumfeld haben wird. Stattdessen halte er es für ein Framework das Services Provider nutzen können, um Public Clouds aufzubauen. Im Gegenteil dazu habe VMware eine sehr große Verbreitung mit extrem großen VMware Umgebung. Die Kosten für einen Wechsel und weitere Themen seien daher nicht besonders effektiv. Allerdings sieht Gelsinger bei Cloud- und Service-Anbietern, also in Bereichen in denen VMware in der Vergangenheit nicht erfolgreich Geschäfte gemacht hat, viel Potential für OpenStack.

Weiterhin betrachtet Gelsinger OpenStack für VMware aber als eine strategisch wichtige Initiative, welche VMware gerne unterstützt. VMware wird sicherstellen, dass seine Produkte und Services innerhalb von Cloud-Umgebungen auf Basis der Open-Source Lösung funktionieren. In diesem Zusammenhang eröffnet OpenStack für VMware ebenfalls neue Möglichkeiten, um in den Markt für Service Provider einzusteigen, ein Bereich, den VMware in der Vergangenheit vernachlässigt hat. VMware und Gelsinger sehen OpenStack daher als eine Möglichkeit, um sich breiter aufzustellen.

Hochmut kommt vor dem Fall

Pat Gelsinger hat Recht wenn er sagt, dass OpenStack für Service Provider gedacht ist. Auch gehört VMware weiterhin zu den führenden Virtualisierungsanbietern im Unternehmensumfeld. Jedoch ist diese Art von Schubladendenken gefährlich für VMware. Denn das Blatt kann sich sehr schnell wenden. Gelsinger mag zwar die hohen Wechselkosten als Grund sehen, warum Unternehmen weiterhin auf VMware setzen sollten. Allerdings sollte man eins nicht vergessen. VMware ist nur(!) beim Thema Virtualisierung stark – beim Hypervisor. In Bezug auf das Thema Cloud Computing, wo OpenStack seinen Schwerpunkt hat, sieht es nicht so rosig aus, wie es aussehen könnte. Man muss ehrlich sagen, dass VMware hier den Trend verschlafen hat, frühzeitig Lösungen zu bringen, die es ermöglichen, die virtualisierte Infrastruktur auch Cloud-fähig zu machen. Und über höherwertige Services und Self-Service es der IT-Abteilung zu erlauben zu einem Service-Broker zu werden. Mittlerweile stehen Lösungen bereit, allerdings wächst der Mitbewerb, nicht nur aus dem Open-Source Umfeld, stetig weiter.

Das sehen auch IT-Einkäufer und Entscheider. Ich habe schon mit mehr als einem IT-Manager gesprochen der plant, seine VMware Infrastruktur gegen etwas Offenes, in den meisten Fällen wurde KVM genannt, und Kostengünstigeres auszutauschen. Das ist erst einmal nur die Virtualisierungsebene die wegbrechen kann. Weiterhin gibt es mittlerweile einige Anwendungsfälle auch großer Unternehmen (siehe On-Premise Private Cloud), die OpenStack für den Aufbau einer eigenen Cloud-Infrastruktur nutzen. Was ebenfalls nicht vergessen werden darf ist, dass immer mehr Unternehmen in Richtung Hosted Private Cloud oder Public Cloud Anbieter wechseln und das eigene Rechenzentrum im Laufe der Zeit an Bedeutung verlieren wird. In diesem Zusammenhang spielt auch die Hybrid Cloud eine immer größere Rolle, um den Transfer und Migration von Daten und Systemen bequemer zu gestalten. Bereits hier hat sich OpenStack auf Grund seiner Verbreitung im Hosted Private Cloud und Public Cloud Umfeld einen großen Vorteil gegenüber VMware verschafft.

Mit solchen Aussagen versucht VMware natürlich OpenStack aus dem eigenen Hoheitsgebiet – on-Premise Unternehmenskunden – wegzureden, um dort seine eigenen Lösungen zu platzieren. Dennoch sollte VMware nicht den Fehler machen und OpenStack unterschätzen.

Kategorien
Analysen

Die eigene Community Cloud! – PRISM Break für Profis oder die es werden wollen

Wie kommen wir aus der Cloud heraus ohne ihre Komfortzone zu verlieren. Diese Fragen ließt man in den letzten Tagen regelmäßig. Ich bin der Meinung, dass man sich nicht zwangsläufig aus der Cloud zurückziehen muss, sondern einfach versuchen sollte, mehr Kontrolle zurückzugewinnen. Dieser Beitrag liefert Ansätze für eine professionelle PRISM Break Cloud Strategie und empfiehlt Lösungen und Anbieter die dafür in Betracht gezogen werden sollten. Darüber hinaus habe ich in diesem Zusammenhang meine Gedanken zur Community Cloud eingebracht, die ich schon seit Anfang diesen Jahres mit mir herumtrage, aber noch nicht dazu gekommen bin nieder zu schreiben. Denn die Community Cloud wird in meinen Augen immer mehr an Bedeutung gewinnen. Der Bedarf und vor allem das Verständnis hierfür muss nur geweckt werden. Tenor: „Aufbau einer eigenen echten(!) Hosted Private Cloud, betrieben von einer Gemeinschaft die sich vertraut.“ Das ist sowohl für Unternehmen, Organisationen, Bürogemeinschaften und regelmäßige Projektpartner interessant.

Gründe für eine Community Cloud

Was ist eine Community Cloud?

Innerhalb einer Community Cloud schließen sich Unternehmen einer gleichen Branche zusammen und fassen ihren eigenen Private Clouds zu einer Community Cloud zusammen, die nur exklusiv diesen Mitgliedern zugänglich ist. Community Clouds bieten sich an, wenn Unternehmen dieselben Anforderungen und Aufgaben haben und die Infrastruktur auf ähnliche Weise nutzen wollen. Der Vorteil einer Community Cloud besteht in der Reduzierung des Kapazitätsbedarfs und somit einer verbesserten Ressourcenallokation auf Grund der gemeinsamen Nutzung von Ressourcen. Dies führt zu einer Kostenreduzierung und verringert den allgemeinen Overhead. Abgesehen von der darunterliegenden Infrastruktur können alle Mitglieder der Community Cloud ebenfalls dieselben Services und Applikationen gemeinsam nutzen.

Ein sehr gutes Beispiel für eine Community Cloud ist das ENX Netzwerk, ein Zusammenschluss der „europäischen Automobilindustrie für den sicheren Austausch kritischer Entwicklungs-, Einkaufs-, und Produktionssteuerungsdaten.“ Das ENX bietet den angeschlossenen Automobilherstellern- und Lieferanten unternehmensübergreifende Managed Security Services und einen einheitlichen Service Level des darunter liegenden Netzwerkes. Gleichzeitig ist das ENX Netzwerk für die angeschlossenen Nutzer so offen und flexibel gestaltet wie das öffentliche Internet.

Die Bedeutung der Community Cloud wird zunehmen

Bereits das Ergebnis einer BITKOM Studie im Februar 2013 hat gezeigt, dass im Jahr 2012 immerhin 34 Prozent der deutschen Unternehmen auf eine Private Cloud setzen und 29 Prozent planen, diese Cloud-Form in Zukunft einzusetzen. Der Grund dafür liegt in der Angst vor einem Datenverlust in der Public Cloud begründet. Das sagten zumindest 79 Prozent.

Während eines Vortrags bei einem Unternehmen dessen Namen ich nicht nennen darf und mit Folien die nicht öffentlich zugänglich sind, habe ich in meinen zukünftigen Cloud-Trends die Treiber für die steigende Bedeutung von Community Clouds aufgezeigt.

Ich habe dabei die drei Treiber als „höhere Zukunftssicherheit“, „größeres Vertrauen“ und „weniger Abhängigkeit/ mehr Kontrolle“ charakterisiert. Es sind exakt die Themen, die auch in aktuellen Diskussionen immer wieder aufkommen. Damals, im März 2013, habe ich die „höhere Zukunftssicherheit“ am Beispiel der Schließung vom Google Reader festgemacht. Da die Nutzer sich nicht sicher sein können, wie lange ein Cloud Service überhaupt überlebt. Als Beispiel für „größeres Vertrauen“ mussten die mittlerweile bestätigten Berichte, dass Amazon AWS eine Cloud für die CIA bauen soll, herhalten. Schließlich sollte man schon stutzig werden, wenn ein Marktführer mit einem Geheimdienst zusammenarbeitet – wie wir mittlerweile alle feststellen durften… Den Grund für „(weniger) Abhängigkeit“ habe ich aus dem Zeit-Artikel „Das autarke Dorf„, der im selben Zeitraum erschienen ist und bei dem es darum geht, dass ein kleines Dorf in Brandenburg sich unabhängig von den Energiekonzernen gemacht hat und dort sogar ein eigenes Stromnetz besitzt. Cloud Computing = Utility Computing = Stromnetz…

Maximale Zentralität >> Semi-Dezentralität

Allein auf Grund dieser drei Treiber, plus den aktuellen Diskussionen, sehe ich ein wachsendes Potential für die Community Cloud, die derzeit noch keine große Verbreitung hat. In diesem Zusammenhang sehe ich zudem einen Wechsel von einer zurzeit stark ausgeprägten Zentralität zu einer Semi-Dezentralität.

Die meisten Unternehmen und Organisationen sehen in der Public Cloud einen großen Vorteil und wollen in ihren Genuss kommen, um Kosten zu reduzieren, ihre IT zu konsolidieren und gleichermaßen mehr Skalierbarkeit und Flexibilität erhalten. Auf der anderen Seite sind Zukunftssicherheit, Vertrauen, Abhängigkeit und Kontrolle wichtige Artefakte, die niemand gerne aufgeben möchte.

Die Community Cloud ist der Mittelweg, um beides zu erreichen. Zukunftssicherheit, Vertrauen, Abhängigkeit und Kontrolle durch den Einfluss, was in der Community Cloud passiert und die Vorteile einer Public Cloud, durch das Partizipieren von einer echten Cloud Infrastruktur.

Wie wäre es mit einer Hosted Community Cloud? Mehr unten.

Der Cloud Computing Stack

Cloud Computing setzt sich grundlegend aus Infrastructure-as-a-Service (IaaS), Platform-as-a-Service (PaaS) und Software-as-a-Service (SaaS) zusammen. Je nach Bedarf und Anwendungsfall ist es nicht ganz einfach eine äquivalente Ersatzlösung für die eigene Cloud zu finden. Für den Aufbau einer eigenen professionellen Cloud-Basis stehen aber mittlerweile ausreichend Lösungen zur Verfügung.

Viel Wert sollte hier in jedem Fall auf die grundlegende Infrastruktur – Infrastructure-as-a-Service – gelegt werden, da diese für die Skalierbarkeit und Verfügbarkeit der gesamten Cloud-Umgebung zuständig ist. Wer hier meint, dass ein einfacher virtueller Server oder ein physikalischer Host ausreicht, handelt fahrlässig und wird früher oder später Probleme bekommen.

Mein ausdrücklicher Rat: Unten drunter unbedingt eine IaaS-Lösung bauen und mit ausreichend Hardware (siehe die empfohlenen Setups hier auf CloudUser oder in den jeweiligen Communities der Projekte) ausstatten, um für Skalierbarkeit und Fehlertoleranz zu sorgen. Weiterhin bedenken, dass jeder virtuelle Server der gestartet wird, physikalische Hardware benötigt um betrieben zu werden. Aus diesem Grund ausreichend physikalische Ressourcen berücksichtigen.

Professionelle Infrastrukturlösungen und Services

Diese Liste führt nur Lösungen auf, die Basisfunktionen für eine eigene professionelle Cloud liefern.

Infrastructure-as-a-Service

OpenStack
OpenStack ist ein weltweites Gemeinschaftsprojekt von Entwicklern und Cloud Computing Spezialisten, die das Ziel verfolgen eine Open Source Plattform für den Aufbau von Public und Private Clouds zu entwickeln. Das Projekt wurde initial von der Nasa und Rackspace gegründet und will Anbietern von Cloud Infrastrukturen ein Werkzeug in die Hand geben, mit dem sie unterschiedliche Arten von Clouds ohne großen Aufwand auf Standard Hardwarekomponenten aufbauen und bereitstellen können.

Mehr unter OpenStack – Ein Überblick.

Eucalyptus
Bei Eucalyptus handelt es sich um eine Open Source Software Infrastruktur zum Aufbau von skalierbaren Cloud Computing Umgebungen für spezielle Clustersysteme oder einfachen miteinander verbundenen Arbeitsplatzrechnern. Eucalyptus wurde als ein Forschungsprojekt am Computer Science department an der University of California Santa Barbara entwickelt und wird mittlerweile von der Eucalyptus Systems Inc. vermarktet. Die Software wird aber weiterhin als Open Source Projekt gepflegt und weiterentwickelt. Die Eucalyptus Systems Inc. bietet darüber hinaus lediglich weitere Dienstleitungen und Produkte sowie einen professionellen Support rund um Eucalyptus an. Eucalyptus ist ein Klon der grundlegenden Funktionen der Amazon Web Services Infrastruktur für die Private Cloud. Auf Basis einer exklusiven Partnerschaft wird das Service-Portfolio stetig angeglichen.

Mehr unter Eucalyptus – Eine Open Source Infrastruktur für die eigene Cloud.

openQRM
openQRM ist eine Open Source Cloud Computing Plattform für die Verwaltung von Rechenzentren und skalierbaren IT-Infrastrukturen. Mittels einer zentralen Managementkonsole kann die Administration von physikalischen Servern ebenso vorgenommen werden wie von virtuellen Maschinen, wodurch Rechenzentren voll automatisiert und höchst skalierbar betrieben werden können. Neben einer offenen API und einem SOAP Web Service für die nahtlose Integration der eigenen Geschäftsprozesse, unterstützt openQRM alle bekannten Virtualisierungstechnologien und bietet die Möglichkeit für transparente Migrationen von “P-to-V”, “V-to-P” und “V-to-V”.

Mehr unter openQRM – Die Cloud Computing Plattform für Rechenzentren.

Hier gibt es eine konkrete Anleitung zum Aufbau einer Hosted Private Cloud mit openQRM.

Platform-as-a-Service

Red Hat OpenShift
Das Origin Projekt dient der Verbesserung der OpenShift Plattform, indem ständig Code Optimierungen in den PaaS einfließen. Dieser läuft aktuell auf der Infrastruktur der Amazon Web Services und steht im direkten Wettbewerb zu VMwares Cloud Foundry. Der Origin Quellcode steht auf GitHub bereits zum Download bereit und ermöglicht Entwicklern eine OpenShift Installation auf dem eigenen Laptop oder einem Server im Intranet oder Rechenzentrum zu nutzen.

Mehr unter OpenShift Origin.

WSO2 Stratos
WSO2 Stratos ist ein Open-Source Polyglot PaaS mit einer Unterstützung verschiedener Programmiersprachen, mit dem ein application Platform-as-a-Service (aPaaS) realisiert werden kann. Der Kern bildet die WSO2 Stratos PaaS Foundation, die speziell auf die Cloud ausgelegt ist und unter anderem Funktionen für Multi-Tenancy, Skalierung, Self-Service Bereitstellung, Metering, Abrechnung und Ressource-Pooling bietet.

Mehr unter WSO2 Stratos.

cloudControl Application Life Cycle Engine
Die Application Lifecycle Engine ist als Middleware zwischen der grundlegenden Infrastruktur und der eigentlichen Applikationen zu verstehen (PaaS Konzept) und bietet eine vollständige Laufzeitumgebung für Anwendungen. Damit erhalten Entwickler die Möglichkeit, sich auf die Entwicklung ihrer Applikation zu konzentrieren und können unbequeme Prozesse und die Bereitstellung übernehmen lassen. Die Application Lifecycle Engine ermöglicht es großen Unternehmen einen eigenen Private PaaS in einer selbstverwalteten Infrastruktur zu betreiben, um sich damit die Vorteile der Cloud auch in die eigenen vier Wände zu holen. Die Plattform setzt dazu auf offene Standards und verspricht damit einen Vendor-Lock-in zu vermeiden. cloudControl spannt zudem eine hybride Brücke, indem bereits auf cloudControls Public PaaS entwickelte Anwendungen im Private PaaS und umgekehrt betrieben werden können. Für den Betrieb der Application Lifecycle Engine wird OpenStack als IaaS-Lösung vorausgesetzt.

Mehr unter Application Lifecycle Engine: cloudControl veröffentlicht Private Platform-as-a-Service.

Software-as-a-Service

Open-Xchange
Open-Xchange ist für alle interessant, die Google Apps oder Microsoft Office 365 nicht trauen, lieber einen Anbieter mit einem Rechenzentrum in Deutschland haben möchten oder doch lieber alles selbst machen. Eine hohe Verbreitung hat bzw. bekommt Open-Xchange durch eine kommerzielle White-Label Lizenz an Hosting- und Telekommunikationsanbieter, die ihren Kunden OX App Suite damit als Software-as-a-Service (SaaS) anbieten können. Weiterhin richtet sich die Lösung an Systemintegratoren und VARs, die OX App Suite als Managed Service oder für Inhouse-Installationen nutzen wollen.

Mehr unter Open-Xchange: Die gehostete Alternative zu Google Apps und Microsoft Office 365.

TeamDrive
TeamDrive ist eine Filesharing und Synchronisations-Lösung für Unternehmen, die ihre sensiblen Daten nicht bei externen Cloud-Services speichern wollen und es ihren Teams zudem ermöglichen möchten, Daten oder Dokumente zu synchronisieren. Dazu überwacht TeamDrive beliebige Ordner auf einem PC oder Notebook, die man mit eingeladenen Anwendern gemeinsam nutzen und bearbeiten kann. Damit stehen Daten jederzeit, auch offline zur Verfügung. Eine automatische Synchronisation, Backups und Versionierung von Dokumenten schützen die Anwender vor Datenverlust. Mit der Möglichkeit die TeamDrive Registration- und Hosting-Server im eigenen Rechenzentrum zu betreiben, lässt sich TeamDrive in vorhandene IT-Infrastrukturen integrieren. Dafür stehen alle notwendigen APIs zur Verfügung.

Mehr unter TeamDrive: Dropbox für Unternehmen.

ownCloud
ownCloud ist eine Open-Source Filesync- und –sharing-Lösung für Unternehmen und Organisationen, die ihre Daten weiterhin selbst unter Kontrolle behalten möchten und nicht auf externe Cloud-Storages zurückgreifen wollen. Der Kern der Anwendung besteht aus dem ownCloud Server über welchen sich die Software zusammen mit den ownCloud-Clients nahtlos in die existierende IT-Infrastruktur integriert und die Weiternutzung bereits vorhandener IT-Management-Tools ermöglicht. ownCloud dient als lokales Verzeichnis, bei dem unterschiedliche lokale Speicher gemountet werden. Dadurch stehen die entsprechenden Dateien allen Mitarbeitern auf allen Geräten zur Verfügung. Neben einem lokalen Storage können ebenfalls Verzeichnisse über NFS und CIFS angebunden werden.

Mehr unter Sicherheitsvergleich: TeamDrive vs. ownCloud.

SugarCRM
SugarCRM ist eine Open-Source Customer-Relationship-Management Lösung und basiert auf der Skriptsprache PHP. Als Datenbanksystem können neben MySQL und der dazu binärkompatiblen MariaDB auch Microsoft SQL Server verwendet werden.

Mehr unter SugarCRM Community Edition.

Alles selber machen

Nachdem man sich für entsprechende Alternativen entschieden hat, geht es erst richtig los. Entweder man betreibt alles in einer eigenen Private Cloud oder lagert bestimmte Teile aus.

Der Betrieb im eigenen Rechenzentrum ist eine Variante. Dabei gilt bei dem Betrieb jedoch mindestens(!) eines zu beachten. Ein Server reicht für die Ansprüche an ein Hochverfügbarkeits- oder gar Cloud-Szenario nicht aus. Hier sollte man sich zunächst darauf konzentrieren, eine Cloud Infrastruktur auf Basis von openQRM, OpenStack oder Eucalyptus aufzubauen, auf der dann der restliche PaaS- bzw. SaaS-Stack betrieben wird. Vernachlässigen sollte man ebenfalls nicht, das Kollaborationsumgebungen und anderweitige Cloud-Lösungen von ihrem Zugriff abhängen. Sei es nun über den Webbrowser oder das mobile Endgerät. Warum macht z.B. ein Cloud-Storage Sinn? Weil ich u.a. von überall aus darauf zugreifen kann. Das bedeutet der Überall-Zugriff auf die Cloud Infrastruktur ist zwingend erforderlich, was auch Auswirkungen auf die Bandbreite der jeweiligen Internetanbindung, bevorzugt den Upload, hat.

Weiterhin darf der Betrieb, die Wartung und alles was mit IT-Infrastrukturen zusammenhängt nicht vernachlässigt werden. Das ist nicht einfach!

Public IaaS aus Deutschland als Basis

Weiterhin besteht die Möglichkeit, die Infrastruktur bei einem Webhoster z.B. aus Deutschland oder Island zu betreiben. Aber Vorsicht, um die Verfügbarkeit von Public Cloud-Services zu erhalten, reicht es bei weitem nicht aus, sich einfach nur einen virtuellen Server aufzusetzen. Da sollte man sich eher Gedanken über die Hochverfügbarkeit machen, welche die Software selbst nicht mitbringen. Wir reden an dieser Stelle einfach nur von Software. Für Hochverfügbarkeit sorgen dann wiederum IaaS Lösungen wie openQRM, Eucalyptus oder auch OpenStack. Aber bitte nicht vergessen: IaaS bedeutet Infrastruktur = u.a. Hardware für die entsprechende Virtualisierung. Zudem reicht ein Server bei weitem nicht, um die Verfügbarkeit und Eigenschaften einer Cloud zu erreichen. Eucalyptus bspw. empfiehlt für den professionellen Einsatz mindestens fünf physikalische Systeme.

ProfitBricks als deutsche IaaS-Basis

Wer auf den komplexen Aufbau der Infrastruktur für die Skalierbarkeit und Hochverfügbarkeit der Cloud verzichten möchte, kann auch zu einem deutschen IaaS Anbieter gehen. Hier ist z.B. ProfitBricks zu empfehlen. Bei ProfitBricks ist sichergestellt, dass man Zugriff auf eine echte Cloud-Infrastruktur in einem deutschen Rechenzentrum erhält.

ProfitBricks liefert nach Bedarf skalierbare virtuelle Server, die granular mit Cores, Arbeitsspeicher und Block Storage (für den eigenen Cloud Storage) ausgestattet werden können. In diesem Fall muss man sich selbst nur um das Design der virtuellen Infrastruktur – wird über eine graphische Weboberfläche, dem Data Center Designer, vorgenommen – kümmern. Der Vorteil zu einem gewöhnlichen Webhoster – die maximale Skalierbarkeit und Hochverfügbarkeit. Das ist insbesondere für eine Community Cloud besonders wichtig.

Anschließend muss auf der fertigen virtuellen Infrastruktur nur noch die entsprechende Software installiert und den Bedürfnissen nach angepasst werden. Die eigene Community Cloud kann man sich in diesem Fall sogar für ein „Taschengeld“ leisten – und das trotz eines Höchstmaß an Skalierbarkeit, Hochverfügbarkeit und einem Überall-Zugriff. Die Sicherung/ Verschlüsselung der Datenverbindungen darf natürlich nicht vergessen werden.

Es sei angemerkt, dass es natürlich auch noch ein paar andere Cloud IaaS Anbieter aus Deutschland gibt. Jedoch ist ProfitBricks der einzige Public Cloud Anbieter, der seine Infrastruktur mit einer maximalen Granularität abrechnet und zudem noch ein echter Performer (Geschwindigkeit) mit einem 24h Support ist. Weiterhin sind noch domainFactory mit der JiffyBox und Internet4You mit internet4YOU NOW! genannt.

Hosted Community Cloud in Betracht ziehen

Wie man sieht, stehen mittlerweile einige Lösungen bereit, die als Basis für die eigene professionelle Cloud genutzt werden können. Dabei sollte man jedoch immer ein Auge auf die grundlegende Infrastruktur richten, die das Rückgrat der gesamten Cloud bildet. In diesem Zusammenhang darf man allerdings auch nicht den Aufwand unterschätzen, den es bedeutet, eine professionelle Cloud-Umgebung aufzubauen, ordnungsgemäß zu betreiben und zu warten. Weiterhin sind die Kosten für die notwendigen physikalischen Ressourcen zu kalkulieren.

Aus diesem Grund macht es für viele kleinere und mittlere Unternehmen, aber auch Bürogemeinschaften, Co-Working Spaces oder regelmäßige Projektpartnerschaften Sinn, den Community Cloud Gedanken in Betracht zu ziehen, um in den Genuss der Public Cloud (Shared Umgebung) zu kommen aber weiterhin Einfluss auf die Zukunftssicherheit, das Vertrauen, die Abhängigkeit und Kontrolle der Umgebung zu haben und Kostenvorteile u.a. durch Ressourcenallokation zu erzielen. Hierzu sollte man sich zudem überlegen, ein Team aufzubauen, dass sich exklusiv um den Aufbau, Betrieb, die Administration und Wartung der Community Cloud kümmert. Vergleiche dazu das ENX-Netzwerk. Dafür ist kein eigenes Rechenzentrum oder eine Co-Location erforderlich. Ein IaaS-Anbieter kann dazu als ideale Basis für eine Hosted Community Cloud dienen.

Kategorien
Analysen

Google erweitert die Compute Engine um Load Balancer Funktionalität. Aber wo bleibt die Innovationsmaschine?

In einem Blogpost hat Google weitere Erneuerungen an seiner Cloud Platform bekanntgeben. Neben der Erweiterung und Verbesserung des Google Cloud Datastore und der Ankündigung der Google App Engine 1.8.3, hat das Infrastructure-as-a-Service (IaaS) Angebot Google Compute Engine nun einen Load Balancing Service erhalten.

Neues vom Google Cloud Datastore

Um die Produktivität von Entwicklern weiter zu erhöhen, hat Google seinen Cloud Datastore um mehrere Funktionalitäten erweitert. Dazu gehören die Google Query Language (GQL). Die GQL ist eine SQL-ähnliche Sprache und richtet sich speziell an datenintensive Applikationen, um Entities und Keys aus dem Cloud Datastore abzufragen. Weiterhin lassen sich über die Abfrage von Metadaten weitere Statistiken von den darunterliegenden Daten erhalten. Google sieht darin einen Vorteil, um bspw. eigene interne Administrationskonsolen zu entwickeln, eigene Analysen vorzunehmen oder eine Anwendung zu debuggen. Zudem wurden Verbesserungen an dem lokalen SDK vorgenommen. Dazu gehören Erweiterungen am Kommandozeilen Tool sowie eine Unterstützung für Entwickler, die Windows einsetzen. Nachdem der Cloud Datastore in seiner ersten Version die Sprachen Java, Python und Node.js unterstützt hat, wurde nun auch Ruby hinzugefügt.

Google App Engine 1.8.3

Die Erneuerungen der Google App Engine Version 1.8.3 richten sich überwiegend an die PHP Laufzeitumgebung. Weiterhin wurde die Integration mit dem Google Cloud Storage, der nach Aussagen von Google an Beliebtheit gewinnt, verstärkt. Ab sofort können über Funktionen wie opendir() oder writedir() direkt auf die Buckets des Cloud Storage zugegriffen werden. Weiterhin können über is_readable() und is_file() weitere stat()-ing Informationen abgefragt werden. Ebenfalls lassen sich nun Metadaten an die Dateien im Cloud Storage anhängen. Zudem wurden anhand eines durch memcache realisierten „Optimistic Reading Cache“ Verbesserungen im Hinblick auf die Performance vorgenommen. Insbesondere die Geschwindigkeit von Anwendungen, welche regelmäßig von derselben Datei im Cloud Storage lesen, soll sich damit erhöhen.

Load Balancing mit der Compute Engine

Die Google Compute Engine wurde um eine Layer 3 Load Balancing Funktionalität erweitert, mit der sich nun auch auf Googles IaaS Angebot skalierbare und fehlertolerante Web-Applikationen entwickeln lassen. Mit der Load Balancing Funktion lässt sich der eingehende TCP/UDP Traffic über unterschiedliche Compute Engine Maschinen (virtuelle Maschinen) innerhalb derselben Region verteilen. Zudem kann damit sichergestellt werden, dass keine fehlerhaften virtuellen Maschinen eingesetzt werden, um HTTP-Anfragen zu beantworten und Lastspitzen ausgeglichen werden. Die Konfiguration des Load Balancer erfolgt entweder per Kommandozeile oder über die REST-API. Die Load Balancer Funktion kann noch bis Ende 2013 kostenlos genutzt werden, anschließend wird der Service kostenpflichtig.

Google holt viel zu langsam auf

Zwei wichtige Erneuerungen stechen bei den Neuigkeiten zur Google Cloud Platform hervor. Zum einen die neue Load Balancing Funktion der Compute Engine, zum anderen die bessere Integration der App Engine mit dem Google Cloud Storage.

Die Load Balancing Erweiterung kommt zugegebenermaßen viel zu spät. Schließlich handelt es sich dabei um eine der essentiellen Funktionen eines Cloud Infrastruktur Angebots, um dafür zu sorgen, skalierbare und hochverfügbare Systeme zu entwickeln und welche alle anderen bestehenden Anbieter am Markt bereits im Portfolio haben.

Die erweiterte Integration des Cloud Storage mit der Google App Engine ist insofern wichtig, um Entwicklern mehr S3-ähnliche Funktionen aus dem PaaS heraus zu bieten und damit mehr Möglichkeiten im Hinblick auf den Zugriff und die Verarbeitung von Daten in einem zentralen und skalierbaren Speicherort zu bieten.

Unterm Strich kann man sagen, dass Google sein IaaS Portfolio weiter stetig ausbaut. Was dabei allerdings auffällt, ist die sehr langsame Geschwindigkeit. Von der Innovationsmaschine Google, die man aus vielen anderen Bereichen des Unternehmens kennt, ist gar nichts zu erkennen. Google erweckt den Eindruck, dass es IaaS anbieten muss, um nicht allzu viele Entwickler an die Amazon Web Services und andere Anbieter zu verlieren, die Compute Engine aber nicht hoch priorisiert hat. Dadurch wirkt das Angebot sehr stiefmütterlich behandelt. Das zeigt z.B. die sehr späte Erweiterung um das Load Balancing. Ansonsten dürfte man von einem Unternehmen wie Google erwarten, mehr Ehrgeiz und Geschwindigkeit in den Ausbau des Angebots zu investieren. Schließlich sind bei keinem anderen Unternehmen, mit Ausnahme von Amazon, mehr Erfahrungen im Bereich hochskalierbarer Infrastrukturen vorhanden. Dies sollte sich relativ schnell in ein öffentliches Angebot umwandeln lassen, zumal Google gerne damit wirbt, das Kunden dieselbe Infrastruktur nutzen können, auf der ebenfalls sämtliche Google Services betrieben werden. Abgesehen von der App Engine, die jedoch im PaaS-Markt einzuordnen ist, muss sich die Google Compute Engine weiterhin hinten anstellen, was auch noch eine längere Zeit der Fall sein wird, wenn nicht die Geschwindigkeit forciert wird und weitere essentielle Services ausgerollt werden.

Kategorien
Analysen

Cloud Computing benötigt professionelle, unabhängige und vertrauenswürdige Zertifizierungen

Ich hatte vor über einem Jahr bereits über denn Sinn und Unsinn von Cloud Siegeln, Zertifikaten, Verbänden und Initiativen geschrieben. Ich bin damals schon zu dem Ergebnis gekommen, dass wir vertrauenswürdige Zertifizierungen benötigen. Allerdings sah der deutsche Markt eher schwach aus und wurde neben EuroCloud von weiteren Interessenvertretung wie der „Initiative Cloud Services Made in Germany“ oder „Deutsche Wolke“ vertreten. Aber es gibt mittlerweile einen vielversprechenden unabhängigen Neuling.

Ergebnisse aus dem letzten Jahr

„Cloud Services Made in Germany“ und „Deutsche Wolke“

Was Initiativen im Allgemeinen gemeinsam haben ist, dass Sie mit diversen Versprechen versuchen, so viele Anbieter von Cloud Computing Services wie möglich in die eigenen Reihen zu lotsen. Vor allem „Cloud Services Made in Germany“ springt auf das vermeintliche Qualitätsmerkmal Made in Germany auf und verspricht dabei „Mehr Rechtssicherheit bei der Auswahl von Cloud-basierten Diensten…“.

Und exakt so positionieren sich „Cloud Services Made in Germany“ und „Deutsche Wolke“. Mit schwachen Bewertungskriterien machen sich beide sehr attraktiv für Anbieter aus Deutschland, die mit dem „Aufkleber“ wiederum auf ihren Webseiten Werbung machen können. Jedoch wird in den Kriterien in keinster Weise auf die wirkliche Qualität eines Service eingegangen. Darf sich der Service wirklich Cloud Service nennen? Wie ist das Abrechnungsmodell? Sorgt der Anbieter für eine Cloud Computing konforme Skalierbarkeit und Hochverfügbarkeit? Und viele weitere Fragen, die essentiell wichtig sind, um die Qualität eines Cloud Service zu bewerten!

Beide Initiativen haben in Ihrer Form auf jeden Fall eine Berechtigung. Sollten allerdings nicht als ein Qualitätskriterium für einen guten Cloud-Service genutzt werden. Stattdessen gehören Sie in die Kategorie „Patriotismus: Hallo Welt, schaut mal wir Deutschen können auch Cloud.“

EuroCloud und Cloud-EcoSystem

Neben beiden Initiativen gibt es noch die Vereine EuroCloud und Cloud-EcoSystem, welche beide mit Gütesiegel und Zertifikat werben. EuroCloud hat dafür seinen SaaS Star Audit im Angebot. Der SaaS Star Audit richtet sich, wie der Name schon sagt, ausschließlich an Software-as-a-Service Anbieter. Je nach Wunsch und Geldbeutel kann sich dieser vom EuroCloud Verband mit einem bis fünf Sternen auszeichnen lassen, wobei der Anbieter ebenfalls Mitglied des EuroCloud sein muss. Die Anzahl der Sterne sagt wiederum auch etwas über den Umfang der Prüfung aus. Werden bei einem Stern lediglich „Vertrag & Compliance“ und ein bisschen „Betrieb Infrastruktur“ überprüft, werden bei fünf Sternen ebenfalls, Prozesse und Sicherheit intensiver überprüft.

Das Cloud-EcoSystem hingegen hat mit „Cloud-Experte“ sein Qualitäts-Zertifikat für Saas & Cloud Computing Berater sowie sein „Trust in Cloud“ für Cloud Computing Anbieter. Ein „Cloud-Experte“ nach dem Cloud-EcoSystem e.V. soll Anbietern wie auch Anwendern eine Entscheidungshilfe bieten können. Dabei kann ein Experte neben dem Schreiben und Erstellen von Fachartikeln und Checklisten ebenfalls Qualitätskontrollen vornehmen. Außerdem soll sich ein Kunde darauf verlassen können, dass der Berater über bestimmte Eigenschaften eines Kriterienkatalogs für “Cloud-Experten” verfügt. So soll jeder “Cloud-Experte” über tiefes Fachwissen und Basis Qualifikationen sowie vorhandene Referenzen verfügen und auf Wunsch seine selbst erstellten Unterlagen bereitstellen. Im Grunde geht es laut dem Cloud-EcoSystem e.V. also darum, das Cloud-EcoSystem zu gestalten und zu präsentieren.
Das „Trust in Cloud“-Zertifikat soll als Entscheidungshilfe für Unternehmen und Anwender dienen und sich als ein Qualitäts-Zertifikat für SaaS und Cloud-Lösungen etablieren. Auf Basis des Zertifikats sollen Nutzer die Möglichkeit erhalten Cloud-Lösungen objektiv zu vergleichen und an Hand aufbereiteter Informationen zu einer sicheren Entscheidung kommen. Die Zertifizierung basiert auf einem Katalog mit 30 Fragen, der in 6 Kategorien á 5 Fragen unterteilt ist. Die Fragen müssen durch den Prüfling mit Ja oder Nein beantwortet werden und zudem nachgewiesen werden. Beantwortet der Cloud Anbieter eine Frage mit Ja, erhält er dafür eine “Cloud”. Die Checkliste umfasst die Kategorien Referenzen, Datensicherheit, Qualität der Bereitstellung, Entscheidungssicherheit, Vertragsbedingungen, Serviceorientierung und Cloud-Architektur.

Sowohl EuroCloud als auch das Cloud-EcoSystem gehen den richtigen Weg und versuchen Anbieter anhand selbst aufgestellter Kriterien zu bewerten. Zwei Punkte gilt es dabei jedoch zu hinterfragen. Zunächst handelt es sich um Vereine, das bedeutet, man muss als Anbieter Mitglied werden. Es sei berechtigterweise gefragt, welcher Verein sein Mitglied durch eine Prüfung durchfallen lässt – Unabhängigkeit? Weiterhin stellen beide ihre eigenen Anforderungskataloge auf, die nicht miteinander vergleichbar sind. Nur weil ein Anbieter von zwei verschiedenen Vereinen ein „Gütesiegel“ hat, das nach unterschiedlichen Kriterien bewertet, bedeutet das noch lange nicht, dass der Cloud-Service auch echte Qualität liefert – Vertraulichkeit.

Die Profis steigen in den Ring: TÜV Rheinland

Unbeachtet von allen Organisationen, die sich extra für die Cloud zusammengefunden haben, hat der TÜV Rheinland eine Cloud-Zertifizierung gestartet. Der TÜV selbst ist den meisten eher von der Prüfung und Abnahme von Krananlagen, Fahrgeschäften oder der Hauptuntersuchung beim Auto bekannt. Hat aber auch in der IT seit über 15 Jahren Erfahrungen in den Bereichen der Beratung und Zertifizierung im Hinblick auf Compliance, Risikomanagement und Informationssicherheit.

Der Cloud-Zertifizierungsprozess ist sehr umfangreich und hat seinen Preis. Ein erster Blick auf den Prüfungsprozess und den Anforderungskatalog zeigt jedoch, dass der TÜV Rheinland damit ein sehr mächtiges Werkzeug für die Prüfung von Cloud-Services und -Infrastrukturen entwickelt hat.

Beginnend mit einem „Cloud-Readiness Check“ werden zunächst Sicherheit, Interoperabilität, Compliance und Datenschutz auf ihre Cloud-Tauglichkeit überprüft und darauf basierend ein Aktionsplan erstellt. Im Anschluss folgt die Überprüfung des „Cloud-Designs“, bei dem das Konzept und die Lösung selbst unter die Lupe genommen werden. Hier werden unter anderem Themen wie die Architektur aber auch die Netzwerksicherheit, Zugriffskontrollen usw. überprüft. Anschließend wird die eigentliche Umsetzung der Cloud-Lösung betrachtet und Qualitätschecks vorgenommen. Danach erfolgt die Vorbereitung zur Zertifizierung und später die eigentliche Zertifizierung.

Der Cloud-Anforderungskatalog des TÜV-Rheinland umfasst fünf Hauptbereiche, die wiederum in zahlreiche Teilbausteine untergliedert sind. Dazu gehören Prozessorganisation, Aufbauorganisation, Datensicherheit, Compliance / Datenschutz und Prozesse. Alles in allem ein sehr tiefgehender Anforderungskatalog.

In einem genannten Referenzprojekt hat der TÜV Rheinland acht Wochen für die Zertifizierung eines international tätigen Infrastructure-as-a-Service Anbieter benötigt.

Unabhängige und vertrauenswürdige Cloud Zertifizierungen sind zwingend erforderlich

Die Qualität und der Nutzen von Zertifikaten und Gütesiegeln stehen und fallen mit den Unternehmen, die mit der Prüfung beauftragt sind sowie deren definierten Prüfkriterien. Schwache Anforderungskataloge treffen weder eine ehrliche Aussage, noch helfen Sie, die Qualitätsunterschiede von Cloud-Lösungen für den Nutzer klar darzustellen. Im Gegenteil, IT-Entscheider verlassen sich im Zweifelsfall auf diese vermeintlich geprüften Services, deren Qualität auf einem anderen Blatt steht. Hinzu kommt, dass es im Cloud Computing nicht mehr darum geht, eine Software oder einen Service einzusetzen, geschweige denn zu installieren. Es wird am Ende nur noch konsumiert und der Anbieter ist für alle anderen Prozesse verantwortlich, die der Kunde sonst selbst übernommen hätte.

Aus diesem Grund sind unabhängige, vertrauenswürdige, aber vor allem professionelle Zertifizierungen notwendig, um eine ehrliche Aussage über die Qualität und Eigenschaft eines Cloud-Service, seines Anbieters und aller nachgelagerten Prozesse wie Sicherheit, Infrastruktur, Verfügbarkeit usw. zu gewährleisten. Als Anbieter sollte man daher ehrlich zu sich selbst sein und sich am Ende für eine Zertifizierung entscheiden, die auf professionelle Kriterienkataloge setzt, welche nicht nur an der Oberfläche kratzen sondern tief in die Lösung eintauchen und damit eine glaubwürdige Aussage über die eigene Lösung treffen.

Kategorien
Analysen

GigaOM Analyst Webinar – The Future of Cloud in Europe [Aufzeichnung]

Am 9. Juli 2013 haben Jo Maitland, Jon Collins, George Anadiotis und ich über die Chancen und Herausforderungen der Cloud in Europa und einzelnen Ländern wie Deutschland oder Großbritannien gesprochen und einen kleinen Einblick in den Cloud Computing Markt in Europa gegeben. Die Aufzeichnung dieses internationalen GigaOM Analyst Webinar „The Future of Cloud in Europe“ ist nun online.

Hintergrund des Webinar

Vor circa einem Jahr hat die europäische Kommission ihre „Pro Cloud“ Strategie bekanntgegeben, um damit die stagnierende Wirtschaft durch Innovationen anzukurbeln. Die Kommissare vertreten die Meinung, dass die Cloud nicht in Europa aber mit Europa stattfinden muss. Aus diesem Grund haben die drei GigaOM Research Analysten Jo Collins (Inter Orbis), George Anadiotis (Linked Data Orchestration) und René Büst (New Age Disruption) unter der Moderation von Jo Maitland (GigaOM Research) einen Blick auf die aufstrebenden Cloud Anbieter in Europa und ihr Abschneiden zu US-amerikanischen Anbietern geworfen. Dabei sind sie auf die Probleme eingegangen, denen sich Einkäufer von Cloud Services in Europa ausgesetzt sehen und die noch nicht betrachteten Möglichkeiten von europäischen Cloud Anbietern diskutiert. Ist Europa beispielsweise in der Lage ein lebendiges Cloud Computing Ökosystem aufzubauen? Das ist derzeit eine schwierige Frage, da US-amerikanische Cloud Anbieter in diesem Markt dominieren.

Fragen die beantwortet wurden

  • Was sind die größten Treiber hinter den Möglichkeiten der Cloud in Europa und dem Einsatz?
  • Was sind die Hemmnisse für die Nutzung von Cloud Computing in Europa?
  • Existieren bestimmte Trends und Möglichkeiten innerhalb bestimmter Länder (Großbritannien, Deutschland, andere EU Staaten?)
  • Welche europäischen Cloud Computing Anbieter sind die Hoffnungsträger und warum?
  • Was sind die noch nicht erschlossenen Möglichkeiten für Cloud Computing in Europa?
  • Vorhersagen für die Zukunft des Cloud Computing in Europa.

Die Aufzeichnung des Analyst Webinar

Kategorien
Kommentar

ProfitBricks eröffnet Preiskampf mit den Amazon Web Services für Infrastructure-as-a-Service

ProfitBricks macht ernst. Das Berliner Infrastructure-as-a-Service (IaaS) Startup geht mit einer harten Kante gegen die Amazon Web Services vor und reduziert seine Preise sowohl in den USA als auch in Europa um 50 Prozent. Weiterhin hat der IaaS-Anbieter einen Vergleich vorgelegt, der zeigt, dass die eigenen virtuellen Server eine mindestens doppelt so hohe Performance haben sollen als die der Amazon Web Services und Rackspace. Damit versucht sich ProfitBricks über den Preis als auch über die Leistung von den US-amerikanischen Top Anbietern zu diversifizieren.

Die Preise für Infrastructure-as-a-Services sind noch viel zu hoch

Einhergehend mit der Ankündigung zeigt sich CMO Andreas Gauger entsprechend angriffslustig. „Wir haben den Eindruck, dass die regelrecht als Marktbeherrscher auftretenden Cloud Unternehmen aus den USA ihre Marktmacht für zu hohe Preise missbrauchen. Sie muten den Unternehmen bewusst undurchsichtige Tarifmodelle zu und verkünden regelmäßig punktuelle Preissenkungen, um den Eindruck einer Preisdegression zu wecken“, so Gauger.

ProfitBricks hat sich daher das Ziel gesetzt, den IaaS-Markt über den Preis von hinten aufzurollen und technische Innovationen und damit für einen Anbieter enstehende Kosteneinsparungen auch direkt und merkbar an den Kunden durchzureichen.

Bis zu 45 Prozent günstiger als Amazon AWS

ProfitBricks positioniert sich sehr deutlich gegen Amazon AWS und zeigt zwei Preisvergleiche. Kostet eine M1 Medium Instanz mit 1 Core, 3,75 GB RAM und 250 GB Block Storage bei Amazon AWS 0,1291 Euro pro Stunde bzw. 93,15 Euro pro Monat, enstehen bei ProfitBricks hierfür Kosten von 0,0694 EUR pro Stunde bzw. 49,95 Euro pro Monat. Eine Einsparung von 45 Prozent.

Werden 1 Core, 8 GB RAM und 1.000 GB redundanter Storage benötigt, ist der Unterschied noch größer. Die Kosten für eine M1 XLarge Instanz mit 4 Cores, 15 GB RAM und 1.680 GB temporärem Storage inkl. 1.000 GB Block Storage belaufen sich bei Amazon pro Monat auf 372,62 Euro. Bei ProfitBricks würden für die exakt geforderten Anforderungen 130,22 Euro pro Monat entstehen. Dabei handelt es sich um eine Einsparung von 65 Prozent pro Server.

Diversifikation allein über den Preis ist schwierig

Sich als IaaS-Anbieter alleine über den Preis zu diversifizieren ist schwierig. Wir erinnern uns, Infrastruktur ist Commodity und vertikale Services sind die Zukunft der Cloud, mit denen der Kunde einen Mehrwert erhält.

Auf diesem Weg dem IaaS Platzhirsch die Stirn zu bieten ist mutig und wirkt sehr tollkühn. Allerdings sollte man eines nicht vergessen. Als Hosting-Experten der ersten Stunde werden Andreas Gauger und Achim Weiß die Zahlen rund um ihre Infrastruktur validiert haben und suchen mit dieser Aktion sicherlich nicht den kurzen Ruhm. Es bleibt daher abzuwarten wie Amazon AWS und die anderen IaaS-Anbieter auf diesen Schlag reagieren werden. Denn ProfitBricks zeigt mit dieser Preisreduzierung, dass Kunden Infrastruktur tatsächlich deutlich günstiger bekommen können, als es derzeit der Fall ist.

Etwas sollte man als IaaS-Nutzer bei dieser Preisdiskussion allerdings nicht aus den Augen verlieren. Neben den Preisen für Rechenleistung und Speicherplatz – die immer wieder hochgehalten werden – gibt es weitere Faktoren zu berücksichtigen, die den Preis bestimmen und welche immer erst am Ende des Monats wirklich in Erinnerung gerufen werden. Dazu gehören die Kosten für den Datentransfer in die Cloud hinein und aus der Cloud heraus sowie Kosten für anderweitige Services die um die Infrastruktur herum angeboten und pro API Aufruf berechnet werden. Da fehlt in mancher Hinsicht die Transparenz. Weiterhin ist ein Vergleich der unterschiedlichen IaaS-Anbieter nur schwierig darzustellen, da viele mit unterschiedlichen Einheiten, Konfigurationen und/oder Paketen arbeiten.

Kategorien
Kommentar

Gefangen im goldenen Käfig. OpenStack Provider sitzen in der Falle.

OpenStack ist als Cloud-Software auf dem Vormarsch. Reihenweise mehren sich die Ankündigungen, dass immer mehr Unternehmen und Anbieter auf das nun mehr drei Jahre alte Open-Source Projekt zurückgreifen, um skalierbare Lösungen und eigene Infrastructure-as-a-Service (IaaS) Angebote zu präsentieren. Allerdings steckt die OpenStack-Gemeinde meiner Ansicht nach in einem großen Dilemma – Diversifizierung. Hinzu kommt, dass von Außen immer wieder unnötige Unruhen hinein getragen werden, die genau diese Problematik nicht betrachten. So sind zum Beispiel die Diskussionen über die Amazon API Kompatibilität durch Randy Bias genau so wenig förderlich wie Simon Wardleys Forderung, OpenStack müsse so sein wie die Amazon Web Services (quasi ein Klon). OpenStack muss seinen eigenen Weg finden. Allerdings ist OpenStack selbst nicht das Problem, es sind die Provider die OpenStack einsetzen. Diese stehen zu 100% in der Verantwortung sinnvolle Angebote zu präsentieren und OpenStack für sich gewinnbringend einzusetzen.

Amazon API Kompatibilität ist ein Mittel zum Zweck

Ich halte es für wichtig, dass OpenStack die Amazon API implementiert, um die Möglichkeit zu bieten, ggf. eine Hybrid Cloud zu den Amazon Web Services aufspannen zu können. OpenStack Service Provider sollten ihren Kunden zumindest die Option anbieten, um nicht nur theoretisch keinen Vendor lock-in zu versprechen, sondern diesen tatsächlich zu ermöglichen.

Das war es aber auch schon. Mehr Einfluss sollte Amazon auf die OpenStack-Gemeinde nicht haben dürfen. Um mal die Kurve zur „Linux der Cloud“ zu bekommen. Hat Linux sich an Microsoft Windows orientiert? Nein. Und es ist trotzdem erfolgreich geworden. Meiner Ansicht liegt das Problem auch darin begründet, dass Linux aus einer Ideologie heraus von einer einzelnen Person entwickelt und dann von einer großen Community voran getrieben wurde. OpenStack hingegen wurde ins Leben gerufen um zu 100% einen kommerziellen Zweck für die OpenStack-Gemeinde zu erfüllen. Aus diesem Grund ist OpenStack nichts anderes als eine große Marketingmaschine aller beteiligten Provider. Die OpenStack-Gemeinschaft muss ihren eigenen Weg finden, selbst für Innovationen sorgen und sich von dem was Amazon macht nicht beeinflussen lassen.

Amazon Web Services sind NICHT der größte Konkurrent

Was ich in der ganzen Amazon Web Services vs. OpenStack Diskussion weiterhin nicht verstehe ist, dass hier ständig Äpfel mit Birnen verglichen werden. Wie kann man einen Public Cloud Anbieter mit einer Software für den Aufbau von Public/ Private Clouds vergleichen? Es muss viel mehr darum gehen, dass man die OpenStack Provider – und zwar jeden einzelnen – mit den Amazon Web Services vergleicht. Erst dann kann man eine echte Aussage treffen!

Allerdings wird man dann sehr schnell merken, dass der durch die OpenStack-Gemeinde selbst ernannte Konkurrent Amazon Web Services überhaupt nicht der Konkurrent ist! Das hört sich jetzt hart an, ist aber die Wahrheit. Es gibt derzeit keinen einzigen OpenStack Service Provider der den Amazon Web Services ansatzweise das Wasser reichen kann. Die Amazon Web Services sind der imaginäre Konkurrent, der Wunsch-Konkurrent in den Köpfen der Anbieter. Ich stelle dazu mal das Service-Angebot der beiden Top Public Cloud OpenStack Provider Rackspace und HP den Amazon Web Services gegenüber.

Amazon Web Services

Rackspace

HP

Amazon EC2 Cloud Servers Compute
Auto Scaling
Elastic Load Balancing Cloud Load Balancers Load Balancer
Amazon EMR
Amazon VPC
Amazon Route 53 Cloud DNS DNS
AWS Direct Connect
Amazon S3 Cloud Files Object Storage
Amazon Glacier Cloud Backup
Amazon EBS Cloud Block Storage Block Storage
AWS Import/Export
AWS Storage Gateway
Amazon CloudFront CDN
Amazon RDS Cloud Databases Relational Database
Amazon DynamoDB
Amazon ElastiCache
Amazon Redshift
Amazon CloudSearch
Amazon SWF
Amazon SQS Messaging
Amazon SES
Amazon SNS
Amazon FPS
Amazon Elastic Transcoder
AWS Management Console Management Console
AWS Identity and Access Management (IAM)
Amazon CloudWatch Cloud Monitoring Monitoring
AWS Elastic Beanstalk Application Platform as a Service
AWS CloudFormation
AWS Data Pipeline
AWS OpsWorks
AWS CloudHSM
AWS Marketplace
Cloud Sites
Managed Cloud
Mobile Stacks

Diese Gegenüberstellung zeigt, dass nicht die Amazon Web Services der größte Konkurrenz sind, sondern die Gefahr aus dem eigenen Lager kommt. Wo ist die Diversifizierung, wenn schon die beiden großen OpenStack Public Cloud Provider zu 90% exakt dieselben Services anbieten? Das Service-Portfolio sowohl von Rackspace als auch von HP ist bei weitem nicht in der Lage, eine Konkurrenz zu den Amazon Web Services darzustellen. Im Gegenteil, beide nehmen sich gegenseitig Marktanteile weg, indem das Angebot nahezu identisch ist.

Gefangen im goldenen Käfig

Die OpenStack Provider stecken in einem Dilemma, das ich als den goldenen Käfig betrachte. Hinzu kommt, dass sich alle Anbieter im Grunde genommen gegenseitig kannibalisieren, das zeigt die Gegenüberstellung der Services von Rackspace und HP, indem die Portfolios sich kaum unterscheiden.

Aber warum sitzen alle OpenStack Provider nun im goldenen Käfig. Nun, sie profitieren voneinander, indem jeder neue Ideen und Lösungen dem Projekt zur Verfügung stellt und alle gleichermaßen von einer gemeinsamen Code-Basis profitieren, um daraus ihr eigenes Angebot schnüren zu können. Das bedeutet im Umkehrschluss aber auch, dass niemand einen echten Wettbewerbsvorteil daraus ziehen kann, indem alle mit den selben Mitteln in diesem Käfig sitzen. Der Käfig selbst beinhaltet grundsätzlich etwas Wertvolles und bietet über die vorhanden Services seine Möglichkeiten. Allerdings hat jeder Anbieter nur eingeschränkte Freiheiten, indem alle über dieselbe Grundversorgung verfügen.

Rackspace versucht sich über einen erweiterten Support zu differenzieren. Piston Cloud hält sich ganz aus dem Public Cloud Wettbewerb heraus und bietet nur Private bzw. Hosted Private Clouds an.

Ich habe auf Twitter schon Diskussionen verfolgt, in denen es darum ging, sich mit Amazon mit einer OpenStack Hybrid Cloud zu duellieren. Da vergessen so manche allerdings Eucalyptus auf ihrer Rechnung, die eine exklusive Partnerschaft mit Amazon haben und in letzter Zeit immer mehr Services entwickelt haben, um die Service-Lücke zu Amazon zu schließen.

Weiterhin darf eines nicht außer Acht gelassen werden. Der Vergleich mit Linux scheint vom Ansatz her richtig zu sein. Allerdings können die meisten Linux Distributionen kostenlos genutzt werden. OpenStack Provider hingegen müssen ihre Services verkaufen, um rentabel zu sein. Das bedeutet ebenfalls, dass OpenStack Provider dazu verdammt sind, so viel Profit wie möglich aus ihrem Service-Angebot zu machen, um die laufenden Kosten für die Infrastruktur usw. zu decken.

Differenzierung geht nur über ein attraktives Service-Portfolio

Mit dem goldenen Käfig muss man sich als OpenStack Provider abfinden. Aber das bedeutet nicht, dass man deswegen nur einer von vielen Anbietern bleiben muss. Zum einen sollte man davon Abstand nehmen, Infrastructure-as-a-Services als tragendes Geschäftsmodell zu sehen, zumindest als kleiner Anbieter. Infrastruktur ist Commodity. Weiterhin sollte man nicht damit weitermachen oder gar damit anfangen, die Amazon Web Services nachzuahmen, der Zug ist abgefahren. Stattdessen sollte versucht werden, das Rad weiter zu entwickeln und über Innovationen die nächsten Amazon Web Services zu werden.

Vielmehr geht es allerdings darum, dass jeder OpenStack Provider das Beste für sich aus dem OpenStack Projekt machen muss und dabei die Innovationen nicht vergessen darf. In Zukunft wird nur derjenige Cloud-Anbieter erfolgreich sein, der Services anbietet, die den Kunden einen echten Mehrwert bieten. Dabei kann und wird OpenStack eine sehr große Rolle spielen, allerdings nicht im Mittelpunkt stehen sondern nur als Mittel zum Zweck dienen.

Die OpenStack Provider müssen damit anfangen, aus der Marketingmaschine OpenStack die Innovationsmaschine OpenStack zu machen. Dann kommt die Bewunderung von ganz alleine.

Kategorien
Services

Exklusiv: openQRM 5.1 wird um Hybrid Cloud Funktionalität erweitert und bindet Amazon AWS und Eucalyptus als Plugin ein

Bald ist es soweit. Noch in diesem Sommer wird openQRM 5.1 erscheinen. Projektmanager und openQRM-Enterprise CEO Matt Rechenburg hat mir vorab bereits ein paar sehr interessante neue Features verraten. Neben einem vollständig überarbeiteten Backend-Design wird die Open-Source Cloud Infrastruktursoftware aus Köln um Hybrid-Cloud Funktionalität erweitert, indem Amazon EC2, Amazon S3 und deren Klon Eucalyptus als Plugin eingebunden werden.

Neue Hybrid-Cloud Funktionen in openQRM 5.1

Ein kleiner Überblick über die neuen Hybrid-Cloud Funktionen in der kommenden openQRM 5.1 Version:

  • openQRM Cloud spricht transparent mit Amazon EC2 und Eucalyptus.
  • End-User innerhalb einer privaten openQRM Cloud können sich per Self-Service vom Administrator ausgewählte Instanz-Typen bzw. AMI’s bestellen, die dann von openQRM Cloud in Amazon EC2 (oder Amazon kompatiblen Clouds) automatisch provisioniert werden.
  • Benutzerfreundliches Password-Login für den End-User der Cloud per WebSSHTerm direkt im openQRM Cloud Portal.
  • Automatisches Applications Deployment mittels Puppet.
  • Automatische Kostenabrechnung über das openQRM Cloud-Billingsystem.
  • Automatisches Service Monitoring via Nagios für die Amazon EC2 Instanzen.
  • openQRM High-Availability auf Infrastrukturebene für Amazon EC2 (oder kompatible Private Clouds). Das bedeutet: Fällt die EC2 Instanz aus oder tritt in einer Amazon Availability Zone (AZ) ein Fehler auf, wird eine exakte Kopie dieser Instanz neu gestartet. Im Falle eines Ausfalls einer AZ wird die Instanz sogar automatisch in einer anderen AZ derselben Amazon Region wieder hochgefahren.
  • Integration von Amazon S3. Daten lassen sich direkt über openQRM auf Amazon S3 speichern. Beim Erstellen einer EC2 Instanz kann ein Skript, welches auf S3 abgelegt ist mit angegeben werden, was z.B. weitere Befehle beim Start der Instanz ausführt.

Kommentar: openQRM erkennt den Trend genau zur richtigen Zeit

Auch openQRM-Enterprise zeigt mit dieser Erweiterung, dass die Hybrid Cloud ein immer ernst zunehmender Faktor beim Aufbau von Cloud-Infrastrukturen wird und kommt mit den neuen Features genau zur richtigen Zeit. Das Unternehmen aus Köln orientiert sich dabei nicht überraschend am aktuellen Public Cloud Marktführer Amazon Web Services. Damit lässt sich openQRM ebenfalls in Kombination mit Eucalyptus und anderen Amazon kompatiblen Cloud-Infrastrukturen nutzen, um eine massiv skalierbare Hybrid-Cloud Infrastruktur aufzubauen. Dabei setzt openQRM auf sein bewährtes Plugin-Konzept und bildet Amazon EC2, S3 und Eucalyptus genau so ab. Amazon und Eucalyptus werden, neben eigenen Ressourcen aus einer privaten openQRM Cloud, damit zu einem weiteren Ressourcen Provider, um schnell und unkompliziert mehr Rechenleistung zu erhalten.

Zu den absoluten Killerfeatures gehören meiner Ansicht nach das automatische Applications Deployment mittels Puppet, mit dem End-Nutzer sich bequem und automatisiert EC2 Instanzen mit einem vollständigen Softwarestack selbst bereitstellen können, sowie die Berücksichtigung der Amazon AZ-übergreifenden High-Availability Funktionalität, die von vielen Cloud-Nutzern aus Unwissenheit immer wieder vernachlässigt wird.

Viel Beachtung hat das Team ebenfalls der Optik und dem Interface des openQRM-Backends geschenkt. Die vollständig überarbeitete Oberfläche wirkt aufgeräumter und dadurch übersichtlicher in der Handhabung und wird die Bestandskunden positiv überraschen.

Kategorien
Services

Application Lifecycle Engine: cloudControl veröffentlicht Private Platform-as-a-Service

Der Platform-as-a-Service (PaaS) Anbieter cloudControl hat mit der Application Lifecycle Engine einen Private PaaS auf Basis der Technologien seines Public PaaS veröffentlicht. Das Unternehmen aus Berlin möchte damit Unternehmen die Möglichkeit geben, auch im eigenen Rechenzentrum einen selbstverwalteten PaaS zu betreiben, um damit mehr Kontrolle über den Speicherort der Daten zu bekommen und den Zugriff auf die jeweiligen Daten zu regeln.

cloudControl Application Lifecycle Engine

Die cloudControl Application Lifecycle Engine leitet sich technologisch aus dem eigenen Public-PaaS Angebot ab und dient seit 2009 als Grundlage für den Cloud-Service.

Die Application Lifecycle Engine ist als Middleware zwischen der grundlegenden Infrastruktur und der eigentlichen Applikationen zu verstehen (PaaS Konzept) und bietet eine vollständige Laufzeitumgebung für Anwendungen. Damit erhalten Entwickler die Möglichkeit, sich auf die Entwicklung ihrer Applikation zu konzentrieren und können unbequeme Prozesse und die Bereitstellung übernehmen lassen.

Die nun veröffentlichte Application Lifecycle Engine soll es großen Unternehmen ermöglichen, einen eigenen Private PaaS in einer selbstverwalteten Infrastruktur zu betreiben, um sich damit die Vorteile der Cloud auch in die eigenen vier Wände zu holen. Die Plattform setzt dazu auf offene Standards und verspricht damit einen Vendor-Lock-in zu vermeiden. cloudControl spannt zudem eine hybride Brücke, indem bereits auf cloudControls Public PaaS entwickelte Anwendungen im Private PaaS und umgekehrt betrieben werden können.

Weiterhin adressiert cloudControl mit der Application Lifecycle Engine Service Provider, die selber ein PaaS Angebot aufbauen möchten und damit ihre bestehenden Services und Infrastrukturleistungen bündeln können.

Trend zu Private und Hybrid Lösungen verstärkt sich

cloudControl ist nicht das erste Unternehmen, dass den Trend hin zum Private PaaS erkannt hat. Dennoch zeigt die aktuelle Sicherheitslage, dass Unternehmen viel bewusster im Umgang mit der Cloud werden und abwägen, wo sie ihre Daten speichern bzw. verarbeiten lassen. Aus diesem Grund kommt cloudControl genau zur richtigen Zeit, um Unternehmen die Möglichkeit zu bieten, mehr Kontrolle über ihre Daten zurückzugewinnen und das Bewusstsein zu stärken, wo sich ihre Daten tatsächlich befinden. Gleichzeitig ermöglicht cloudControl Unternehmen damit aber auch, die eigene selbstverwaltete IT-Infrastruktur mit einer echten Cloud-DNA aufzuwerten, indem IT-Abteilungen den Entwicklern einen unkomplizierten Zugriff auf Ressourcen gewähren können und damit schneller und produktiver Ergebnisse liefern können. Weiterhin können IT-Abteilungen die Application Lifecycle Engine als eine Chance nutzen, sich innerhalb des Unternehmens als partnerschaftlicher Service-Broker für die Fachabteilungen zu positionieren.

Nicht zu vernachlässigen ist die Möglichkeit, cloudControls Angebot im Hybrid-Betrieb zu nutzen. Es kann durchaus, relativ schnell, zu dem Umstand kommen, dass nicht mehr ausreichend lokale Ressourcen (Rechenleistung, Speicherplatz) zur Verfügung stehen, die für den Private PaaS benötigt werden. In diesem Fall kann über die homogene Architektur der Application Lifecycle Engine auf den Public PaaS von cloudControl ausgewichen werden, um Projekte und den Fortschritt der Entwicklungsaktivitäten nicht zu beeinträchtigen.