Kategorien
Analysen

Rackspace differenziert sein IaaS Cloud Angebot mit einem höherwertigen Support

Rackspace setzt derzeit alles daran, um im Kampf um Marktanteile im Infrastructure-as-a-Services (IaaS) Bereich gegen die Amazon Web Services zu Punkten. Nach den schlechten Ergebnissen im Q1/2013 kein leichtes Unterfangen. Als der Antreiber hinter der OpenStack Bewegung, versucht der ehemalige Managed-Hosting Anbieter das Thema Open-Source in der Cloud zu verankern und vermarktet OpenStack als das Linux der Cloud. Rackspace Herausforderung besteht jedoch nicht nur darin, sich gut gegen Amazon aufzustellen. Auch aus den eigenen OpenStack Reihen wachsen nach und nach mehr Mitbewerber, die alle dieselbe Technologie, API und Services auf Basis von OpenStack anbieten. Genannt seien hier nur große Namen wie HP, IBM oder Red Hat. Auf Grund dieses doch zum Teil sehr ähnlichen Angebots von Services – wobei es sich um ein hausgemachtes Problem handelt – ist es für Rackspace schwierig sich von dem Mitbewerb, auf der einen Seite die scheinbar übermächtigen Amazon Web Services aber auch Windows Azure und Google, auf der anderen Seite das eigene OpenStack Lager, zu differenzieren. Rackspace scheint sich nun auf seine altbewährten Stärken, dem „Fanatical Support“, zu konzentrieren und möchte Unternehmen und Entwicklern intensiver bei der Nutzung der Rackspace Cloud Services helfen.

Hilfe auf dem Weg in die Cloud

Bereits als einfacher Managed-Hosting Anbieter hat Rackspace seine Kunden beim Infrastrukturmanagement unterstützt. Für seine OpenStack basierte Cloud Plattform wurde der Standard Support nun erweitert. Kunden sollen ab sofort auch Unterstützung auf Applikationsebene inkl. Debugging der Anwendung erhalten, die auf der Rackspace Cloud betrieben wird. Das bedeutet, dass die Interaktion mit den Kunden deutlich verstärkt werden soll, indem nicht nur die Grundlagen, sondern spezifisches Entwickler Know How vermittelt wird. Das geht sogar soweit, dass Rackspace Ingenieure bei Wunsch den Quellcode der Applikation analysieren und Verbesserungsvorschläge für eine effektivere Nutzung auf der Rackspace Cloud und insbesondere mit den Rackspace APIs und SDKs machen oder sogar bei der vollständigen Entwicklung helfen. Entwicklern soll es damit einfacher gemacht werden, zu verstehen, wie ihre eigene native Applikation auf der Rackspace Cloud bzw. OpenStack funktioniert.

Support zur Differenzierung

Nun mag man denken: Support zur Differenzierung? In Zeiten des Self-Service und der Automatisierung in der Cloud? Ja genau, das ist gar nicht so abwegig und ein gar nicht so unkluger Schachzug. Die Not macht erfinderisch. Rackspace hat schon immer viel Wert auf seinen Support gelegt und genießt hier einen guten Ruf.

Weiterhin sollte man bedenken, dass, trotz des Self-Service und dem damit einhergehenden einfachen Bezug von Ressourcen für den Aufbau einer virtuellen Infrastruktur respektive dem darauf entwickeln einer eigenen Cloud-fähigen Applikation, Cloud Computing nicht einfach ist! Ich habe das erst kürzlich in dem Artikel „Cloud Computing ist nicht einfach!“ beschrieben und Netflix als sehr positives Beispiel genannt. Es gibt nur wenige Nutzer-Unternehmen, die Cloud Computing so durchdrungen haben wie Netflix, die sich mit ihrer Simian Army wie dem Chaos Monkey oder dem Chaos Gorilla Test-Software für einen skalierbaren und hochverfügbaren Betrieb in der Cloud geschrieben haben. Wenn man jedoch schaut, was für einen Aufwand Netflix dafür betreibt, mit dem auch Kosten verbunden sind, ist Cloud Computing nicht auf die leichte Schulter zu nehmen, wenn man es ernsthaft einsetzen möchte.

Aus diesem Grund ist es nur ein logischer und für mich richtiger Schritt von Rackspace, seinen Support weiter auszubauen und dort zu unterstützen, wo es bei der Cloud ankommt, der skalierbaren und verfügbaren Entwicklung von Applikationen, die auch die Eigenschaften der Cloud berücksichtigen. Ob das nun reicht, um gegenüber Amazon mit großen Schritten aufzuholen wage ich zu bezweifeln. Aber innerhalb der Anbieter, die ebenfalls auf OpenStack setzen, ist es eine gute Möglichkeit sich von diesem Wettbewerb zu differenzieren.

Kategorien
Analysen

Enterprise Cloud Portal: T-Systems konsolidiert sein Cloud-Portfolio

Mit seinem Enterprise Cloud Portal präsentiert die Deutsche Telekom Tochter T-Systems sein erstes Cloud-Service übergreifendes Angebot für Großkunden. Auf dem Portal können sich Unternehmen über die Cloud-Lösungen von T-Systems informieren, diese testen und direkt bestellen. Zu den derzeit angebotenen Services gehören Lösungen für das Mobile Device Management, Dynamic Services for Infrastructure und der Enterprise Marketplace. Ein Blick auf das Portal zeigt, dass auf die Kompatibilität mit Tablets großer Wert gelegt wurde.

An der IT-Abteilung vorbei

T-Systems möchte mit seinem Cloud-Portal auch nicht-technischen Nutzern in Großunternehmen den Zugang zu speziellen Cloud-Lösungen ermöglichen. Der Cloud-Anbieter bezieht sich dabei auf eine Studie von Gartner, die besagt, dass bis zum Jahr 2015 in etwa 35 Prozent der IT-Ausgaben, außerhalb der IT-Abteilungen ausgewählt und verwaltet werden. Genannt seien hier zum Beispiel die Bereiche Marketing, Einkauf und das Rechnungswesen.

Mobile Device Management

Das Mobile Device Management aus der Cloud soll Unternehmen bei der Administration mobiler Endgeräte mit unterschiedlichen Betriebssystemen, z.B. iOS und Android, über eine standardisierte Web-Plattform helfen. Darüber lassen sich etwa Sicherheitseinstellungen vornehmen, Zugriffsrechte auf Funktionen sowie Applikationen regeln oder bei Verlust des Endgeräts die Daten per Fernzugriff löschen. Ein Test des Mobile Device Management ist in den ersten vier Wochen für bis zu drei mobile Endgeräte kostenlos.

Dynamic Services for Infrastructure

Für Infrastructure-as-a-Service (IaaS) stehen zwei Angebote bereit: Zum einen die „Dynamic Services for Infrastructure“ (DSI) aus einer Hosted Private Cloud. Zum anderen die „DSI with vCloud Datacenter Services“ als eine hybride Variante. Das Management der Ressourcen übernimmt der Kunde selbst über ein web-basiertes Portal beziehungsweise über seine eigene VMware Management Software. Übersichtliche Preismodelle sollen die Kosten für die Infrastruktur transparent machen. So kostet z.B. im Paket „Small“ ein Server aus der Hosted Private Cloud ab 9 Cent pro Stunde. Bei der hybriden Lösung liegt der Paketpreis für ein Virtual Datacenter in der kleinsten Ausführung bei genau 999,84 Euro pro Monat.

Enterprise Marketplace

Der Enterprise Marketplace umfasst unter anderem weitere IaaS-Lösungen inkl. Betriebssysteme für Linux und Windows Server, Platform-as-a-Service (PaaS) Lösungen, u.a. Tomcat und Microsoft SQL Server sowie eine stetig steigende Zahl von Software-as-a-Service (SaaS) Angeboten wie Doculife, CA Nimsoft, TAXOR, TIS, WeSustain, Metasonic, ARAS, Tibco Tibbr, Sugar CRM, Microsoft Enterprise Search und Microsoft Lync. Darüber hinaus sollen Unternehmen damit die Möglichkeit erhalten, nicht nur eine Vielfalt an Anwendungen hochsicher in bedarfsgerechten Formaten zu beziehen, sondern auch eigene Anwendungen migrieren und hosten zu lassen. Die volle Verfügbarkeit des Enterprise Marketplace ist für diesen Sommer geplant. Derzeit steht auf dem Cloud Portal bereits eine Vorschau zur Verfügung.

Kommentar

Mit dem Enterprise Cloud Portal fasst T-Systems sein gesamtes Cloud-Portfolio unter einem einzigen Dach zusammen. Ich hatte in einem Artikel für die Computerwoche: „Das Cloud-Portfolio von T-Systems“ im Jahr 2011 analysiert. Zu dem Zeitpunkt bestand das Angebot jedoch noch aus einzelnen unabhängigen Services. Allerdings bin ich bereits damals schon zu dem Ergebnis gekommen, dass T-Systems über ein sehr gut durchdachtes und abgerundetes Cloud-Portfolio verfügt.

Das zeigt sich nun auch im konsolidierten Enterprise Cloud Portal. Von SaaS über PaaS bis IaaS und weiteren Lösungen für mobile Endgeräte ist alles dabei. T-Systems verfügt damit als einer der wenigen Anbieter über einen vollständigen Cloud-Stack und das nun sogar noch gebündelt in einem einzigen Portal.

Insbesondere in dem Enterprise Marketplace steckt viel Potential. Auf der diesjährigen CeBIT konnte ich einen ersten Blick darauf werfen, der sich meiner Einschätzung nach zu diesem Zeitpunkt noch in einem Alpha-Status befand. Einige grundlegende und zwingend notwendige Funktionen für ein IaaS Angebot, genannt seien nur automatische Skalierbarkeit und Hochverfügbarkeit, fehlten noch. Aber das war im März und ich gehe davon aus, dass T-Systems hier schon weitere Fortschritte gemacht hat. Zudem habe ich bereits aus einer sicheren Quelle erfahren, dass T-Systems/ Telekom ihre Cloud-Infrastruktur sukzessive auf OpenStack umstellen wird, was auch dem Enterprise Marketplace einen weiteren Schub hinsichtlich Kompatibilität geben wird.

Was T-Systems als Vorteil für nicht-technische Nutzer in Unternehmen sieht, sollte bei IT-Verantwortlichen Sorgenfalten verursachen. Zwar bin ich auch auf dem Standpunkt, dass sich die IT-Abteilungen zu einem Service-Broker entwickeln werden und sogar müssen. Allerdings halte ich es für recht bedenklich, wenn jede Abteilung einfach loslaufen darf und sich nach belieben IT-Services extern einkauft. Die Schuld liegt natürlich bei den IT-Abteilungen selbst, da diese sich über die Jahre hinweg einen schlechten Ruf aufgebaut haben und als langsam und nicht innovativ gelten. Darüber habe ich hier bereits vor zwei Jahren ausführlich philosophiert (Cloud Computing und die Schatten-IT).

Eine gewisse Kontrollinstanz in der Form eines Service-Broker ist weiterhin notwendig, denn sonst kommt es zu einem unkontrollierten Wildwuchs von externen Services, über die man den Überblick verlieren wird. Das lässt sich selbstverständlich kontrollieren, wenn man die Services über einen einzigen Anbieter bezieht. Und das ist genau das Ziel von T-Systems und seinem umfangreichen Enterprise Cloud Portal. Ein Kunde soll explizit und abteilungsübergreifend die Services aus der T-Systems Cloud beziehen, um damit den Wildwuchs zu vermeiden und den Überblick behalten. Die Frage ist, ob sich das bei den Kunden intern auch so durchsetzen lässt. Denn auch andere Anbieter haben hübsche Services.

Am Ende möchte ich noch auf ein Thema eingehen, was im Endkunden-Umfeld derzeit für Aufregung sorgt, Unternehmenskunden aber einen großen Vorteil bietet. Das End-to-End Angebot von Services. T-Systems ist auf Grund seiner Situation, Tochter von der Deutschen Telekom zu sein, einer der wenigen Cloud-Anbieter, der ein Service-Level von den Services auf Applikations- oder sogar virtueller Maschinen Ebene im Rechenzentrum, inkl. der Datenleitung anbieten kann. Das ermöglicht es den Kunden einen ununterbrochenen Quality-of-Service (QoS) sowie ein umfangreiches Service Level Agreement (SLA) zu erhalten, was viele andere Cloud-Anbieter nicht leisten können.

Kategorien
Analysen

Eucalyptus Cloud 3.3 nähert sich immer weiter an Amazon AWS an und integriert Open-Source Tools von Netflix

Ich hatte es bereits nach der Bekanntmachung von Netflix, einige seiner Tools als Open-Source zur Verfügung zu stellen, geschrieben. Nun ist es passiert. Eucalyptus hat in seinem neuen 3.3 Release genau diese Netflix Tools integriert und bietet damit nun erstmalig mehr Funktionalität hinsichtlich Verfügbarkeit und Management für Applikationen innerhalb einer Private Cloud-Infrastruktur an. Weiterhin stehen neue Amazon Web Services (AWS) nahe Funktionen bereit.

Neue Funktionen in Eucalyptus 3.3

Eucalyptus 3.3 wurde neben den Netflix Tools um AWS-kompatible Funktionen wie Auto Scaling, Load Balancing und CloudWatch erweitert. Mit Auto Scaling lassen sich Regeln erstellen, um Workloads automatisch mit weiteren virtuellen Maschinen zu unterstützen, wenn eine bestimmte Lastgrenze erreicht ist. Dabei soll der Mechanismus exakt derselbe sein wie auf der Public Cloud Infrastruktur der Amazon Web Services. Weiterhin ist es nun möglich, Workloads automatisch zu AWS zu sklarieren

Chaos Monkey, Asgard und Edda

Der Chaos Monkey ist ein Service der auf den Amazon Web Services läuft, nach Auto Scaling Groups (ASGs) sucht Instanzen (virtuelle Maschinen) pro Guppe wahllos beendet. Dabei ist die Software flexibel genug entwickelt worden, dass sie ebenfalls auf den Plattformen anderer Cloud Anbieter funktioniert. Der Service ist voll konfigurierbar, läuft standardmäßig aber an gewöhnlichen Werktagen von 09.00 Uhr bis 15.00 Uhr. In den meisten Fällen hat Netflix seine Anwendungen so geschrieben, dass diese weiterhin funktionieren, wenn eine Instanz plötzlich Probleme hat. In speziellen Fällen passiert das bewusst nicht, damit die eigenen Leute das Problem beheben müssen, um daraus zu lernen. Der Chaos Monkey läuft also nur ein paar Stunden am Tag, damit sich die Entwickler nicht zu 100% auf ihn verlassen.

Bei Asgard handelt es sich um eine Web-Oberfläche, mit der das Deployment von Applikationen gesteuert und eine Cloud verwaltet werden kann. Netflix selbst nutzt Asgard, um seine virtuelle Infrastruktur auf den Amazon Web Services zu steuern.

Edda ist ein Service, den Netflix nutzt, um kontinuierlich seine benötigten AWS Ressourcen über die AWS APIs abzufragen. Mit Edda lässt sich über die aktiven Ressourcen suchen und der Status herausfinden. Der Hintergrund für Edda ist, dass virtuelle Instanzen in der Cloud ständig in Bewegung sind. Das bedeutet, dass sie ausfallen können und dafür neue gestartet werden müssen. Ebenso verhält es sich mit IP-Adressen, die von unterschiedlichen Anwendungen wiederwendet werden können. Hier gilt es den Überblick zu behalten, wobei Edda unterstützt.

Ursprünglich hat Netflix diese Tools für die AWS Cloud-Infrastruktur geschrieben. Durch das Open-Source Release und die Eucalyptus Adaption, können sie nun ebenfalls in einer Private Cloud genutzt werden.

Kooperation: Eucalyptus und Amazon Web Services

Im März 2012 hatten die Amazon Web Services und Eucalyptus eine Kooperation angekündigt, um die Migration von Daten zwischen der Amazon Cloud und Private Clouds besser zu unterstützen. Dabei ist die Kooperation unterschiedlich aufgebaut. Zunächst sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.

Die ersten Früchte hat diese Kooperation mit dem Eucalyptus Release 3.3 nun getragen. Eucalyptus nähert sich stetig immer näher an die Funktionen der Amazon Web Services an. Meine Theorie, dass Amazon für den Bau der CIA Private Cloud möglicherweise Eucalyptus nutzt, ist daher nicht ganz unberechtigt.

Übernahme nicht unwahrscheinlich

CEO Marten Mickos scheint seinem Ziel ein Stück näher zu kommen. Während eines Gespräches im Juni 2012 erzählte er mir, dass seine erste Amtshandlung als neuer Eucalyptus CEO darin bestand, zum Telefonhörer zu greifen, Amazon anzurufen und das Interesse an einer Zusammenarbeit zu bekunden.

Wie ich es bereits in dem Artikel „Netflix veröffentlicht weitere Monkeys als Open-Source – Eucalyptus Cloud wird es freuen“ geschrieben habe, hat Netflix mit der Veröffentlichung seiner Monkeys Eucalyptus damit kräftig in die Arme gespielt. Dies wird nicht zuletzt die Kooperation der Amazon Web Services und Eucalyptus weiter stärken, sondern Eucalyptus für Amazon als Übernahmeobjekt immer attraktiver machen.

Warum ich dieser Meinung bin, habe ich ausführlich unter „Amazon kauft Eucalyptus Cloud – Es ist nur eine Frage der Zeit“ beschrieben.

Kategorien
Analysen

Microsoft baut wahrscheinlich ein Cloud Computing Rechenzentrum in Deutschland

Zunächst, ich habe diese Information von keinem Microsoft Mitarbeiter, wodurch es sich nicht um eine bestätigte Meldung handelt. Allerdings haben mir drei Personen unabhängig voneinander davon berichtet, dass Microsoft plant, mindestens ein Rechenzentrum für seine Cloud Services u.a. Windows Azure und Microsoft Office 365 in Deutschland zu bauen. Daher sollte man davon ausgehen, dass ein wenig Wahrheit hinter dieser Information steckt. Wenn Microsoft dies bestätigen würde, dürfte man nur sagen Chapeau Microsoft! Das ist genau der richtige Weg.

Es passt in die Strategie

Microsofts aktuelle Strategie lautet „CLOUD First“, das ist kein Geheimnis und wurde mir von Microsofts Seite mehrfach bestätigt. Unter anderem aus dem Bereich Dynamics CRM, das durch die Cloud stetig wächst. Bei Microsoft gilt seit der Einführung von Dynamics CRM Online im Jahr 2011 „Cloud first!“ und das scheint sich zu bewähren. Die Cloud Lösung hat bei den Kunden mittlerweile eine hohe Akzeptanz erreicht, wodurch Microsoft 30% mehr Kunden für Dynamics CRM gewinnen konnte. Dabei setzen 60% aller Neukunden auf die Cloud Lösung.

Ähnlich sieht es in vielen anderen Unternehmensbereichen aus. Genannt seien nur Windows Azure, das stetig ausgebaut wird, oder Office 365. Aus diesem Grund ist und wäre der Bau mindestens eines Rechenzentrums in Deutschland der nächste logische Schritt, um auch uns Deutschen hinsichtlich Vertrauen weiter entgegen zu kommen.

Rechenzentrum in Deutschland: Ein enormer Wettbewerbsvorteil

Microsoft versorgt den europäischen Markt derzeit über Rechenzentren in Irland (Dublin) und den Niederlanden (Amsterdam). Das stößt bei vielen Deutschen, vornehmlich Datenschützern und mittelständischen Unternehmen, auf Unbehagen. Das Speichern von Daten außerhalb von Deutschland und ein Vertrag nach maximal europäischen Recht wird nicht gerne gesehen. Jedoch sollte und darf der Wirtschaftsstandort Deutschland nicht vernachlässigt werden. Für die US-amerikanischen Unternehmen mag Deutschland zwar ein kleines Land sein, aber die Wirtschaftskraft zu unterschätzen wäre fatal.

Trifft die Information also tatsächlich zu, dass Microsoft ein Cloud Rechenzentrum in Deutschland baut, wäre das ein enormer Wettbewerbsvorteil gegenüber anderen Anbietern wie den Amazon Web Services oder Google. Insbesondere im stark umkämpften Markt für Unternehmenskunden, in denen Amazon AWS und Google sich schwer tun und wo Microsoft bereits die beste Ausgangslage, auf Grund einer bestehenden breiten Kundenbasis, hat, würde Microsoft damit einen großen Schritt nach Vorne machen.

Darüber hinaus – sollte das Rechenzentrum gebaut werden, wovon ich strategisch gesehen sehr stark ausgehe, werden Amazon und Google nicht mehr drum herum kommen, jeweils ein eigenes Rechenzentrum in Deutschland zu bauen. Wenn auch beide und insbesondere Amazon technologisch weiterhin die Vorreiter im Cloud Computing Markt sind, ist der Standortvorteil mit einem Rechenzentrum in Deutschland nicht zu vernachlässigen, um aktiv damit zu beginnen, die Bedenken den deutschen Unternehmen zu nehmen.

Denn, Cloud Computing ist die Zukunft! Es müssen nur die rechtlichen und datenschutztechnischen Themen dem jeweiligen Länderniveau angepasst und die Bedürfnisse der Kunden berücksichtigt werden. Technologien und Services dürfen und müssen sogar standardisiert werden! Aber Verträge und organisatorische Themen gehören auf Augenhöhe geführt.

Kategorien
Analysen

Windows Azure Infrastruktur Services – Microsoft ist noch nicht auf Augenhöhe mit Amazon AWS

Das Microsoft, als eines der weltweit führenden IT-Unternehmen, irgendwann einmal mit einem „Online-Shop“ und einem „Suchmaschinenanbieter“ um Marktanteile kämpfen muss, hätte in Redmond wahrscheinlich auch niemand jemals zu träumen gewagt. Jedoch ist das die Realität. Amazon ist mit seinen Amazon Web Services (AWS) mit Abstand der Innovationsmotor im Cloud Computing Markt. Und auch Google holt stetig auf. Google hat speziell im Platform-as-a-Service (PaaS) Markt mit der App Engine und dem Software-as-a-Service (SaaS) Markt mit Google Apps bereits gut positionierte Produkte. Amazon ist hingegen im Bereich Infrastructure-as-a-Service (IaaS) der absolute Marktführer. Und hier greift nun auch Microsoft an. Nachdem Windows Azure zu Beginn als reiner PaaS am Markt positioniert wurde, sind sukzessive IaaS Komponenten hinzugefügt worden. Mit seinem neuen Release hat Microsoft nun offiziell die Windows Azure Infrastruktur Services ausgerollt. Für viele kommt dieser Schritt zu spät, da bereits große Marktanteile in diesem Bereich an AWS abgeflossen sind. Allerdings, wo es zunächst nachteilig ausschaut, verbergen sich auch einige Vorteile, die von den meisten übersehen werden.

Windows Azure Infrastruktur Services im Überblick

Grundsätzlich sind die Azure Infrastruktur Services nichts Neues. In einer öffentlichen Release Preview wurden diese bereits im Juni 2012 vorgestellt. Nach Aussage von Microsoft wurden seitdem „… mehr als 1,4 Millionen virtuelle Maschinen erstellt und mit mehreren hundert Millionen Prozessorstunden genutzt.“ Zudem sollen heute schon mehr als 50 Prozent der Fortune 500 Unternehmen Windows Azure nutzen und dabei insgesamt mehr als vier Billionen Daten und Informationen auf Windows Azure verwalten. Die Kapazitäten für Compute- und Storage-Lösungen verdoppeln sich in etwa alle sechs bis neun Monate. Laut Microsoft melden sich inzwischen täglich fast 1.000 neue Kunden für Windows Azure an.

Mit dem Release der Windows Azure Infrastruktur Services hat Microsoft seinen Cloud Computing Stack nun auch offiziell vervollständigt. Neben dem Betrieb von virtuellen Maschinen umfasst das Update die dazugehörigen Netzwerkkomponenten. Weiterhin bietet Microsoft nun auch Support für virtuelle Maschinen und auch die gängigsten Microsoft Server Workloads wie zum Beispiel Microsoft BizTalk oder SQL Server 2012. Neben Windows wird auf den virtuellen Maschinen auch das Linux Betriebssystem vollwertig unterstützt. Die Windows Azure Virtual Networks sollen zudem einen echten Hybridbetrieb ermöglichen.

Neue Instanzen und aktualisierte SLAs

Neben neuen virtuellen Instanzen mit zum Beispiel mehr Speicherkapazität von 28GB und 56GB, stehen auch vorbereitete virtuelle Images, z.B. vom BizTalk Server und SQL Server zur Verfügung. Vorbereitete Linux-Images, u.a. CentOS, Ubuntu und Suse Linux Enterprise Server (SLES), werden von kommerziellen Händlern bereitgestellt. Weiterhin stehen zahlreiche Open-Source-Anwendungen als vorbereitete Images im VM Depot auf Self-Service-Basis zur Verfügung. Microsoft Server-Produkte einschließlich Microsoft Dynamics NAV 2013, SharePoint Server 2013, BizTalk Server 2013 wurden für die Ausführung auf den virtuellen Maschinen von Microsoft bereits getestet.

Weiterhin wurden die Service Level Agreements (SLAs) überarbeitet. Microsoft garantiert eine 99,95 prozentige Verfügbarkeit inkl. finanzieller Absicherung, wenn es zu einem Ausfall auf Microsofts Seite kommt. Neben einem SLA für die Cloud Services bietet Microsoft sieben weitere SLAs speziell für Speicher, SQL-Datenbank, SQL Reporting, Service Bus, Caching, CDN und die Medienservices.

7/24/365 Support

Ein Microsoft Support-Team steht jeden Tag rund um die Uhr zur Verfügung. Die Support-Pläne unterteilen sich in vier Stufen vom Entwicklersupport bis hin zum Premier Support.

Preissenkungen für virtuelle Maschinen und Cloud-Services

Wie Amazon AWS gibt auch Microsoft seine Ersparnisse durch den Economies of Scale an seine Kunden weiter. Dazu stehen ab sofort folgende neue Preise und Erweiterungen bereit:

  • Virtuelle Maschinen (Windows, Standardinstanzen) gibt es bis zum 31. Mai zu reduzierten Preisen. Die neuen allgemeinen Verfügbarkeitspreise gelten ab dem 1. Juni 2013. Für eine kleine Instanz gilt der neue Preis 0,0671 € pro Stunde.
  • Die Preise für virtuelle Maschinen (Linux) für Standardinstanzen wurden um 25 Prozent gesenkt. Ab dem 16. April 2013 werden die Preise für kleine, mittlere, große und sehr große Instanzen um 25 Prozent gesenkt. Der Preis für eine kleine Linux-Instanz beispielsweise wird von 0,0596 €pro Stunde auf 0,0447 € pro Stunde in allen Regionen gesenkt.
  • Die Preise für virtuelle Netzwerke starten bei 0,0373 € pro Stunde, gültig ab dem 1. Juni 2013. Bis zum 1. Juni können Kunden das virtuelle Netzwerk kostenlos nutzen.
  • Die Preise für Cloud-Services für Web- und Workerrollen wurden um 33 Prozent für Standardinstanzen gesenkt. Ab dem 16. April 2013 sinkt der Preis für kleine, mittlere, große und sehr große Instanzen um 33 Prozent. Der Preis für eine kleine Workerrolle beispielsweise wird von 0,0894 € pro Stunde auf 0,0596 € pro Stunde in allen Regionen gesenkt.

Nicht zu spät für den großen Teil vom Kuchen

Auch wenn Microsoft in dem mittlerweile sehr stark umkämpften Markt für Infrastructure-as-a-Service spät dran ist, bedeutet es nicht, dass der Zug abgefahren ist. In vielen Ländern beginnt gerade erst die Adaption des Cloud Computing. Darüber hinaus wird das große Geld bei den etablierten Unternehmenskunden verdient und erst dann bei den Startups dieser Welt. Das hat auch Amazon verstanden und entsprechende Maßnahmen eingeleitet.

Weiterhin nimmt die Bedeutung der Private Cloud und somit auch der Hybrid Cloud weltweit zu. Und hier sieht das Blatt dann bereits ganz anders aus. Microsoft hat mit seinem Windows Server 2012 ein gut platziertes Produkt für die Private Cloud, was sich nahtlos mit Windows Azure integrieren lässt. Hier kann Amazon AWS nur über eine mögliche Eucalyptus Acquisition schnell aktiv werden. Eine erste intensive Kooperation beider Unternehmen besteht bereits.

Allerdings, die Windows Azure Infrastruktur Services sind in erster Linie Public Cloud Services. Und hier muss man sagen, dass die Vielfalt des Service-Portfolios der Amazon Web Services noch deutlich größer ist als das von Windows Azure. Zum Beispiel fehlen Services wie Elastic IP oder CloudFormation. Dennoch, Microsoft ist mit seinem Portfolio derzeit der einzige Public Cloud Anbieter am Markt, der Amazon AWS ernsthaft gefährlich werden kann. Denn „Infrastruktur bedeutet mehr als nur Infrastruktur“ und daher heißt es „die Infrastruktur nutzbar machen„.

Siehe: Amazon Web Services vs. Microsoft Windows Azure – Ein direkter Vergleich (wird aktualisiert)

Und was ist mit Google?

Google darf auf keinen Fall unterschätzt werden. Im Gegenteil, aus einem ersten Performance-Vergleich zwischen der Google Cloud Platform und Amazon AWS ging Google als Sieger hervor. Allerdings beschränkt sich das aktuelle Serviceportfolio der Google Cloud Platform im Kern auf Rechenleistung, Speicherplatz und Datenbanken. Weitere Mehrwertservices, die auf der Plattform aufsetzen, fehlen noch. Darüber hinaus ist Google derzeit als reiner Public Cloud Anbieter zu sehen. Im Private/ Hybrid Cloud Umfeld sind bisher keine Produkte zu finden. Hier müsste mit Kooperationen bzw. Akquisitionen nachgebessert werden, um auch in Zukunft die Bedürfnisse von konservativen Unternehmenskunden zu befriedigen. Zumal Google weiterhin ein nicht zu unterschätzendes Reputationsproblem hinsichtlich Datenschutz und Datensammelwut hat. Hier muss noch mehr Transparenz gezeigt werden.

Microsoft ist noch nicht auf Augenhöhe mit Amazon AWS

Mit der offiziellen Veröffentlichung der Windows Azure Infrastruktur Services hat Microsoft damit begonnen zu den Amazon Web Services im Infrastructure-as-a-Service Markt aufzuschließen. Von einem Spiel auf Augenhöhe kann hier aber noch nicht die Rede sein. Denn etwas Neuartiges oder gar Innovationen lassen sich im neuen Azure Release nicht finden. Stattdessen wird lediglich versucht den Technologievorsprung von Amazon AWS mit der Erweiterung von Infrastruktur-Ressourcen aufzuholen, mehr aber nicht. Dabei darf man nicht den Innovationsgrad von Amazon unterschätzen, die in regelmäßigen Abständen ihre Cloud Plattform mit weiteren disruptiven Services und Funktionen ausbauen.

Dennoch, für das attraktive Umfeld für Unternehmenskunden ist Microsoft in einer guten Ausgangsposition und hat sein Portfolio mit den Azure Infrastruktur Services um eine weitere wichtige Komponente gegenüber Amazon erweitert. Darüber hinaus verfügt Microsoft bereits über eine sehr große on-Premise Kundenbasis, die nun in die Cloud überführt werden muss. Darunter renommierte und finanziell gut aufgestellte Unternehmen. Und das ist genau der Bereich in dem Amazon erst noch Vertrauen aufbauen muss. Zudem sollte man den stetig wachsenden Private Cloud Markt nicht vernachlässigen. Hier sehen die Karten auf beiden Seiten gleich ganz anders aus.

Das Microsoft im IaaS Bereich noch nicht auf Augenhöhe mit Amazon ist, bedeutet nicht, dass sie nicht erfolgreich sein werden. Es ist zwangsläufig nicht entscheidend, als erster am Markt zu sein und das beste Produkt zu haben, sondern seine bestehenden und potentiellen Kunden davon zu überzeugen, einen Mehrwert zu bieten. Und es wäre nicht das erste Mal, dass Microsoft dies schaffen würde.

Kategorien
Analysen

Social Enterprise Technologien hebeln die Unternehmenshierarchien aus

Wie oft hat man in der Vergangenheit nicht schon davon gehört, dass ein Vorgesetzter einen Mitarbeiter in der Hierarchie nicht hat hochkommen lassen, um sich selbst zu schützen. Social Enterprise Technologien wie moderne Intranets heben dies auf, weil jeder Mitarbeiter darüber seine Kenntnisse an die höheren Ebenen öffentlich kommunizieren kann. Zudem wird die Kommunikation zwischen den oberen Führungsetagen mit den Mitarbeitern auf den restlichen Ebenen verbessert.

Mit dem Vorstand auf Augenhöhe

Vor längerer Zeit saß ich mit Paul Avenant (BMC President of Enterprise Service Management) zum Thema „How mobility, SaaS and Social Media are changing IT“ in einem Diskussionspanel. Währenddessen erzählte er, dass er sehr intensiv Social Enterprise Technologien nutzt, um zu sehen, was seine Mitarbeiter zu sagen haben. Er hat dadurch Dinge erfahren, von denen er sonst niemals etwas mitbekommen hätte, weil er viel zu weit von ihnen entfernt war. Auf einer virtuellen Ebene konnte er somit einen viel intensiveren Kontakt zu Mitarbeitern und Kollegen führen, zu denen er sonst überhaupt keine direkte Beziehung hatte.

Der Vorstand erhält mit Social Enterprise Technologien die Möglichkeit, auf Augenhöhe – wenn auch nur virtuell – mit seinen Mitarbeitern zu sein und damit ein Auge auf Innovationen und weiteren Neuigkeiten zu haben, wodurch er direkt reagieren bzw. agieren kann und Entscheidungen schneller getroffen werden können.

Leistung und Ideen werden transparent

Ich habe dieses glücklicherweise noch nie erlebt, aber traurigerwiese von einigen Freunden und Bekannten gehört: Der Vorgesetzte als Karriereblocker. Da wurden Ideen vom direkten Vorgesetzten plötzlich als eigene verkauft oder Fortbildungen im letzten Moment abgesagt, weil manche Vorgesetzte eben sich selbst einer Gefahr ausgesetzt sahen, wenn man einen Mitarbeiter die Karriereleiter neben sich hochklettern sieht.

Ein mit entsprechenden Technologien ausgestattetes Social Enterprise reißt diese Barrieren ein und macht Leistungen und Ideen transparenter, womit Karriereblocker das Leben auf der einen Seite erschwert wird, auf der anderen Seite die echten Talente erkannt werden können.

Technologien sind nur Mittel zum Zweck

Wohlgemerkt, Technologien sind hier nur ein Mittel zum Zweck. Ein Social Enterprise muss aufgebaut und von allen Mitarbeitern gelebt werden, was die größte Herausforderung wie bei jeder Veränderung überhaupt darstellt. Stichwort: Change Management. Erst dann machen auch die jeweiligen Tools und Services Sinn, die sich in den letzten Jahren am Markt positioniert haben.

Kategorien
Analysen

Die Cloud steht für die maximale flexible Vernetzung der Welt und unserer Gesellschaft

Redet man von der Cloud, fallen einem direkt die Schlagworte Skalierbarkeit, Verfügbarkeit und Flexibilität ein. Mit einem Blick auf die jüngsten und zukünftigen Entwicklungen, lässt sich damit aber ebenfalls ein anderer Zusammenhang feststellen, den ich bereits während meines Vortrags auf dem Webmontag Frankfurt vorgestellt habe. Von einem anderen Blickwinkel betrachtet steht die Cloud für die maximale flexible Vernetzung vieler unterschiedlicher Bereiche, die heutzutage so sonst gar nicht vorstellbar wären.

Die Cloud steht für die maximale flexible Vernetzung der Welt und unserer Gesellschaft

Die Cloud umhüllt das Internet

Eigentlich steht die Cloud sinnbildlich für das Internet. Das Wort Cloud ist aus der Illustration der Netzwerktechnik abgeleitet, in der das Internet immer als Wolke (Cloud) dargestellt wird. Das hängt damit zusammen, dass es sich beim Internet um ein globales, dezentralisiertes Netz handelt, welches aus vielen lokalen und nationalen Netzen besteht, die miteinander verbunden sind. Wie Daten innerhalb des Internets ausgetauscht werden, ist von außen nicht direkt sichtbar. Da auf sämtliche Daten und Anwendungen im Sinne des Cloud Computing über das Internet zugegriffen wird, steckt nun alles in der Wolke.

Betrachtet man nun aber die Entwicklung vieler IT-Trends aus der jüngeren Vergangenheit und das, was uns noch bevorsteht, ist die Cloud viel mehr als nur das Internet. Die Cloud ist im Grunde genommen der Mehrwert, von dem das Internet, wie wir es heute kennen und nutzen, lebt. Nehmen wir hier das Beispiel Smartphones. Ohne die Cloud hätten wir lange nicht so viel Spaß damit wie wir es heute haben. Wir wären nicht in der Lage miteinander ortsunabhängig zu chatten, uns mitzuteilen oder Dinge zu teilen. Ebenso speichern die meisten Apps, die wir auf unseren Smartphones nutzen, ihre Daten in der Cloud. Nehmen wir als ein weiteres Sub-Beispiel für das Smartphone den Bereich Augmented Reality. Also die Echtzeit-Darstellung von Mehrwert Informationen eines Objektes, das wir durch die Kamera des Smartphones sehen. Augmented Reality Apps speichern die Mehrwert-Information nämlich nicht auf dem lokalen Endgerät – dafür haben die Geräte viel zu wenig Speicherplatz – sondern laden die Daten bei Bedarf zur Laufzeit aus der Cloud. Diese Beispiele zeigen, dass erst die Cloud diese Entwicklung ermöglicht.

Die Cloud ist nicht das Internet

Die Cloud ist nicht das Internet. Die Cloud ist eine Schicht, die das Internet umhüllt und auf Basis ihrer Services für eine maximale flexible Vernetzung sorgt. Es sind die Services der Cloud- und weiterer Anbieter aus diesem riesigen Ökosystem, die zu immer mehr Services führen und für eine immer stärkere Vernetzung sorgen.

Und es geht immer weiter

Schauen wir ein kurzes Stück in die Zukunft, sehen wir den nächsten Mega-Trend schon auf uns zurollen, der sich auch bereits seit mehreren Jahren entwickelt und ohne die Cloud nicht möglich wäre. Das Internet of Things, bei dem alles mit jedem vernetzt ist und kommuniziert. In erster Instanz bedeutet das Internet of Things die Kommunikation von Maschine zu Maschine. Das Auto merkt z.B., dass man in 5 Minuten zu Hause ist und direkt den Kaffeevollautomaten einschaltet. Aber natürlich sprechen wir in diesem Zusammenhang auch von Service to Service Kommunikation, da schließlich auf den Maschinen auch Services laufen, welche die Informationen austauschen.
Ein weiterer sehr wichtiger Trend bzw. Markt sind die Smart-Grids (Das intelligente Stromnetz). Der Begriff Smart Grid bezeichnet die kommunikative Vernetzung und Steuerung von Stromerzeugern, Speicher, elektrischen Verbrauchern und Netzbetriebsmitteln in Energieübertragungs- und -verteilungsnetzen der Elektrizitätsversorgung. Damit soll eine Optimierung und Überwachung aller miteinander verbundenen Bestandteile ermöglicht werden. Das Ziel besteht in der Sicherstellung der Energieversorgung auf Basis eines effizienten und zuverlässigen Systembetriebs.

Am Ende sind es aber auch wir Menschen, die mit den Maschinen und Services kommunizieren, um eine bestimmte Aktion durchzuführen, denn das Smarthome ist schon lange keine Zukunftsidee mehr. Es hat auf Grund der Kosten jedoch noch keine große Verbreitung. Aber hier entwickelt sich auch auf Grund der Cloud ein neuer Markt, der günstigere und vor allem intelligentere Angebote hervorbringt. (Mehr dazu im Video.)

Unterm Strich muss man daher sagen, dass die Cloud als umfassendes IT-Konzept wahrscheinlich den größten Einfluss auf unsere Gesellschaft hat, wie kein anderer Trend zuvor.

Video: Webmontag Frankfurt

Cloud – Big Data – … oder wie finde ich einen Use Case from wmfra on Vimeo.

Kategorien
Analysen

Cloud-Desktop: Der Browser wird das Betriebssystem

Die Vielzahl unterschiedlicher Software-as-a-Service Applikationen und weiterer Cloud-Services nimmt stetig zu. Das führt neben einem schwierigen Überblick ebenfalls zu einer höheren Komplexität. Ein Trend sind Cloud Marketplaces, die einen Katalog verschiedener Services kategorisieren und damit ein Gesamtportfolio ergeben. Was diesen Marketplaces derzeit jedoch noch fehlt, ist die Integration der vorhanden Services und Applikationen. Das führt dazu, dass nicht auf einer gemeinsamen Datenbasis gearbeitet wird und wie aus vielen on-Premise Infrastrukturen bekannt, Daten- und Applikationssilos entstehen.

Stand der Dinge

Die Problematik der Cloud Datensilos besteht nicht nur in den Cloud Marketplaces. So werden auch Integrationsmöglichkeiten von z.B. einer CRM SaaS Lösung mit einer Office Suite beworben. In der Praxis ist die Umsetzung jedoch eher bescheiden gelöst. Irgendwie sind die Systeme zwar verbunden. Im Endeffekt arbeitet man aber auf unterschiedlichen Systemen, auf getrennten Daten und muss sich auch bei beiden separat anmelden.

Es fehlt der Cloud derzeit also die Integration unterschiedlicher und voneinander unabhängiger Services für die Arbeit auf einer gemeinsamen Datenbasis.

Integration ist zwingend erforderlich

Spricht man von Integration meint man Schnittstellen und Daten. Ich hatte vor längerer Zeit mal angedeutet, dass Cloud Computing für Unternehmen die Chance bedeuten kann, mit ihren historisch gewachsenen Insellösungen aufzuräumen. Unternehmen mit Insellösungen haben es durch die Cloud nun einfacher ein Einzelsystem dieser Insellösung gegen einen Cloud Service auszutauschen, um darüber sukzessive ein vollständig integriertes (Gesamt)-System von mehreren Cloud Services zu erhalten. Die Praxis ist an dieser Stelle zwar noch nicht so weit, es gibt aber erste Bestrebungen dieses zu ändern. Und das ist unumgänglich, um die Vielfalt unterschiedlicher Cloud Services zu nutzen. Ein entscheidender Punkt hierbei ist der Zugriff der jeweiligen Cloud Services auf einen gemeinsamen Datenbestand. Das bedeutet, dass jede Anwendung in einen quasi zentralen Speicher ihre Daten ständig ablegt und von dort auch wieder aufrufen muss.

Für den Integrationslayer ist zwangsläufig aber keine zentrale und persistente Datenbasis erforderlich. Eine Möglichkeit besteht auch darin, die Daten in Echtzeit aus den integrierten Systemen zu laden. Diese werden anschließend aufbereitet und auf einer einheitlichen Oberfläche dargestellt. So kann zum Beispiel auch ein beliebiger Cloud-Storage eingebunden werden, auf dem Daten (Bilder, Videos, usw.) abgelegt sind. Das bedeutet jedoch, dass alle Cloud Services, die Teil dieses Ökosystems werden wollen ihre APIs nach Außen öffnen müssen, um die Daten laden und zurückspeichern zu können.

Der Browser wird das Betriebssystem

Unabhängig davon wie die Integration im Einzelnen gelöst wird. Der Browser wird das „one face to the customer„, also zum zentralen Interface, wenn der Benutzer auf das Internet zugreift. Die von mir vor kurzem beschriebenen Desktop-as-a-Services (DaaS) sind dabei nur ein Zwischenschritt zum eigentlichen Endzustand. Zwar stellen DaaS vollwertige Arbeitsumgebungen inkl. klassischen Applikationen über die Cloud bereit. Jedoch läuft der DaaS normalerweise im Browser. Das bedeutet, man startet zunächst seinen Rechner, dann den Browser um erneut ein Betriebssystem zu starten. Würde ein Unternehmen somit auf Software-as-a-Service Lösungen als auch DaaS setzen, enstehen wieder die Daten- und Applikationssilos.

Das Ziel besteht daher in der Entwicklung einer Art „Über Cloud“, über die per Single Sign-On auf sämtliche Services in der Cloud – die Teil des Ganzen sein möchten – unter einer einheitlichen Oberfläche zugegriffen wird. Das ist wohlgemerkt kein neues Konzept und wird bereits erfolgreich umgesetzt. Jedoch nur auf einer sehr proprietären Basis mit Services von einem einzelnen Unternehmen. Sollen hier externe Services eingebunden werden, scheitert dieser Ansatz bisher.

Diese „Über Cloud“ kann entweder als Public Cloud Service oder als private Lösung bereitstehen. Die private Lösung hätte den Vorteil, dass die IT-Abteilungen sie wie einen Service-Broker bzw. wie ein Serviceportal inkl. Applikationsfirewall für die Mitarbeiter nutzen können und darüber ein wenig Kontrolle über Business-Applikationen erhalten.

Das Szenario würde bedeuten, dass ein Mitarbeiter sich an der „Über Cloud“ anmeldet und alle für ihn relevanten Business-Anwendungen sieht. Anhand der Anmeldung an der „Über Cloud“ ist er direkt an alle anderen Anwendungen angemeldet.

Die „Über Cloud“ sollte dabei wie ein Plugin-System aufgebaut werden, mit der sich jedes Unternehmen für seine Zwecke eine ganz persönliche Productivity Cloud zusammenstellen kann. Durch das Plugin-System lassen sich unterschiedliche Apps/ Services einbinden, wenn deren API dies zulässt. Entweder werden die Daten innerhalb einer gemeinsamen Oberfläche dargestellt. Die Daten also zur Laufzeit geladen und nach Veränderungen zurückgespeichert oder die jeweiligen Services in „Tabs“ organisiert. Wichtig ist nur, dass die Daten in einer Art zentralen Zugriff stehen. So würde sich bspw. auch jeder beliebige Cloud Storage nutzen, da dieser nur angedockt wird. Wo die Daten liegen bestimmt damit das Unternehmen selbst.

Der Browser wird das Betriebssystem werden, jedoch müssen dafür noch die richtigen und unabhängigen Plattformen geschaffen werden.

Kategorien
Analysen

Top-Trend: Webbasierte GUIs für Cloud IaaS

Viele Administratoren sind keine Entwickler und wissen dadurch zwangsläufig nicht, wie sie die APIs aktueller Infrastructure-as-a-Service (IaaS) Anbieter nutzen sollen, um sich programmatisch eine komplexe Cloud-Infrastruktur aufzubauen. Die nächste Generation von Cloud Angeboten, speziell im Bereich IaaS, muss und wird einfacher zu bedienen sein. Wir werden in Zukunft immer mehr Cloud Angebote sehen, die neben einer API zusätzlich eine graphischen Weboberflächen bieten, mit der sich Cloud-Infrastrukturen „zusammenklicken“ lassen, ohne Kenntnisse von der darunter liegenden API besitzen zu müssen.

Webbasierte GUIs für Cloud Infrastrukturen

Vorreiter ist das deutsche Unternehmen openQRM-Enterprise, das seit 2009 zusätzlich zu seiner Open-Source Cloud Infrastruktur Lösung openQRM, für den Aufbau eigener Public und Private Clouds, ebenfalls den sogenannten „Visual Infrastructure Designer“ mitliefert.

openQRM Visual Infrastructure Designer

openQRM Visual Infrastructure Designer


openQRM Visual Infrastructure Designer

Seit Mai 2012 bietet ProfitBricks, ebenfalls aus Deutschland, seine Infrastructure-as-a-Service Lösung an. Auch ProfitBricks hat als erster Public Cloud Anbieter am Markt eine webbasierte GUI für den Aufbau einer eigenen Cloud-Infrastruktur, den „Data Center Designer“.

ProfitBricks Data Center Designer

ProfitBricks Data Center Designer

Beide Web-GUIs, sowohl der „Visual Infrastructure Designer“ als auch der „Data Center Designer“ helfen Cloud Administratoren bei dem Aufbau und der Verwaltung gewöhnlicher bis komplexer Cloud Infrastrukturen.

Open-Source Cloud Lösungen wie Eucalyptus, OpenStack oder CloudStack als auch Public IaaS Anbieter wie Amazon Web Services, Windows Azure oder Rackspace bieten solche Oberflächen nicht, wodurch Administratoren hier vollständig auf die APIs angewiesen sind.

Top-Trend mit Potential nach oben

Der „Visual Infrastructure Designer“ von openQRM als auch der „Data Center Designer“ von ProfitBricks schöpfen zwar noch nicht ihr volles Potential aus, zeigen aber sehr gut, in welche Richtung sich der Aufbau und das Management von Cloud-Infrastrukturen entwickeln wird. Neben einer umfangreichen und gut dokumentierten API gehören webbasierte graphische Managementoberflächen und Infrastruktur Designer-Tools zu den Top-Trends im Bereich Infrastructure-as-a-Service und gehören in Zukunft in jedes Portfolio eines IaaS Cloud Anbieters.

Kategorien
Analysen

ProfitBricks unter der Haube: IaaS aus Deutschland – man darf gespannt sein

In der vergangenen Woche hatte ich ein Briefing mit ProfitBricks, um das Infrastructure-as-a-Service (IaaS) Angebot aus Deutschland besser kennenzulernen und konkrete Fragen zu stellen. Ich habe ProfitBricks in zwei Artikeln Nummer eins hier und Nummer zwei hier in der Vergangenheit bereits kritisch begutachtet. Zum einen, weil ich einfach nicht auf Marketingphrasen stehe, die viel mehr versprechen als eigentlich dahinter steckt und zum anderen, weil auch technische Versprechen eingehalten werden müssen.

Details zu ProfitBricks

ProfitBricks stellt sich als typischer Infrastructure-as-a-Service Anbieter auf. Über eine graphische Weboberfläche lassen sich maßgeschneiderte Server zu einem Rechenzentrum formen. Anhand von komplexen Vernetzungsstrukturen soll eine echte Isolation des Kundennetzwerks im virtuellen Rechenzentrum sichergestellt werden. Für Performance sorgt eine vermaschte redundante Vernetzung mit Infiniband sowie ein hochredundanter Storage (inkl. automatischem Backup) für die Verfügbarkeit der Daten.

Zudem verfügt ProfitBricks über ein eigenes Security-Team sowie langjährig erfahrene Systemadministratoren, die einen rund um die Uhr Support liefern.

Standorte

Rechenzentren bzw. Co-Location besitzt ProfitBricks in Deutschland (Karlsruhe) und in den USA (Las Vegas). Allerdings sind beide Rechenzentren in keinster Weise physikalisch oder virtuell miteinander verbunden, wodurch kein Datenaustausch zwischen Deutschland und den USA auf diesem Weg stattfinden kann.

Die Infrastruktur-Komponenten

Server lassen sich bei ProfitBricks mit Cores zwischen 1 und 48 Cores sowie 1 GB und 196 GB RAM ausstatten. Das Maximum liegt hier derzeit allerdings bei 60 Cores und 250 GB RAM pro Server, was man sich über den Support freischalten lassen kann. Storage gibt es zwischen 1 und 5000 GB. Allerdings kann dieser immer nur direkt einem Server zugewiesen werden. Es gibt somit keinen zentralen Speicher. Um dieses zu realisieren, muss man sich eine eigene zentrale Storage-Appliance bauen und den Speicher darüber verteilen.

Innerhalb eines selbst gestalteten Rechenzentrum (siehe unten) stehen zwei Zonen (ähnlich der Availability Zones von Amazon) zur Verfügung. Damit lassen sich z.B. zwei Server so konfigurieren, dass der eine von den Problemen in der Zone des zweiten Servers nichts mitbekommt.

Es gibt keine zentrale Firewall. Stattdessen können jeweils alle Netzwerkkarten eines Servers mit eigenen Regeln konfiguriert werden. Eine zentrale Firewall lässt sich hier z.B. durch den Aufbau einer eigenen Firewall-Appliance (Linux + IPTables oder eine fertige kommerzielle Firewall als ISO-Image) realisieren.

Ein Load Balancer steht zwar zur Verfügung, allerdings empfiehlt ProfitBricks an dieser Stelle lieber einen eigenen anhand einer Appliance zu bauen, da der ProfitBricks eigene u.a. über kein Monitoring verfügt.

Weitere eigene Mehrwertservices bietet ProfitBricks nicht an. Dies soll nach eigener Aussage auch nicht passieren. Stattdessen setzt der Anbieter auf ein Partnernetzwerk, das für die Infrastrukturplattform entsprechende Services anbieten soll.

Derzeit einmalig: Der Data Center Designer

Was mich bei ProfitBricks wirklich überzeugt hat ist der „Data Center Designer (DCD)“. So einen hat in dieser Form derzeit noch kein IaaS Anbieter weltweit.

Anhand dieser graphischen Weboberfläche ist man in der Lage ein komplettes virtuelles Rechenzentrum individuell zusammenzustellen und per Mausklick die Konfiguration zu aktivieren oder beliebig zu ändern – egal ob es sich um Server, Storage, Loadbalancer, Firewalls oder die entsprechende Vernetzung handelt.

Ist ein Rechenzentrum fertig designed, lässt es sich speichern und deployen. Zuvor erhält man noch Informationen über einen Check durch das System. Hier wird geschaut, ob alles korrekt konfiguriert wurde – z.B. ob alle Server auch ein Bootlaufwerk mit entsprechenden Image haben. Anschließend werden die Gesamtkosten pro Monat für dieses virtuelle Rechenzentrum aufgeschlüsselt.

Allerdings hat der DCD derzeit noch eine Schwachstelle. Ist ein Rechenzentrum deployed, lässt sich über die Weboberfläche kein einzelner Server mehr aus dem Design entfernen bzw. diesen darüber stoppen. Dazu muss zunächst das vollständige Rechenzentrum wieder un-deployed werden. Dann wird der Server entfernt und das Rechenzentrum anschließend wieder deployed. Mittels der proprietären SOAP API, die unter anderem Java und C# unterstützt, soll ein einzelner Server jedoch entfernt werden können. Diese Web-Funktion soll, ebenso wie eine REST API, in Zukunft folgen.

Der Kunde ist größtenteils auf sich alleine gestellt

Zunächst bietet ProfitBricks einen deutschsprachigen Support, der entweder selbst jahrelang als Administrator gearbeitet hat oder an der Entwicklung des Systems beteiligt war. Der Support ist darüber hinaus kostenlos enthalten. Auch dann, wenn man die Plattform nur mit einem Testaccount evaluiert.

Ansonsten ist ProfitBricks ein gewöhnlicher Self-Service wie ihn andere IaaS Anbieter auch bieten. Das bedeutet, dass man sich über das Design seiner virtuellen Infrastruktur und wie eine Applikation auf der Infrastruktur skaliert und hochverfügbar bereitgestellt wird, selbst kümmern.

Bei weitere Fragen und Lösungsansätze, z.B. bei der Konfiguration einer separaten Firewall-Appliance oder eines eigenen Loadbalancer, helfen Partner.

Preise

Die Abrechnung erfolgt minutengenau pro Stunde. Die Kosten schlüsseln sich dabei wie folgt auf:

  • 1 Core = 0,04 EUR pro Stunde
  • (Windows Server plus 0,01 EUR pro Stunde)
  • 1 GB RAM = 0,09 EUR pro Stunde
  • 1 GB Speicher = 0,09 EUR pro 30 Tage
  • 1 GB Traffic = 0,06 EUR pro GB Traffic

Das Live Vertical Scaling

ProfitBricks unterstützt das sogenannte Live Vertical Scaling. Das bedeutet, dass sich weitere Ressourcen wie CPU und RAM im laufenden Betrieb zu einem virtuellen Server hinzufügen lassen. Diese Funktion muss für jeden Server separat aktiviert und der Server anschließend einmal neu gestartet werden.

Allerdings, und das habe ich hier angemerkt und hat mir ProfitBricks während des Briefings bestätigt, muss das Betriebssystem, die Datenbank, Software und die eigene Applikation das auch unterstützen. Die Systeme müssen erkennen, dass plötzlich mehr Kerne und RAM zur Verfügung stehen und diese nutzen. Und im umgekehrten Fall ebenfalls damit umgehen können, wenn die Ressourcen wieder herunterskalieren.

ProfitBricks ist interessant

ProfitBricks ist ein interessantes Infrastructure-as-a-Service Angebot. Insbesondere im sehr Cloud-kargen (IaaS) Deutschland mit einem Rechenzentrum in Deutschland. Besonders hervorzuheben ist der Data Center Designer (einziger USP), der derzeit weltweit einmalig ist und die entsprechende Convenience bietet, die andere IaaS-Anbieter vernachlässigen. Zwar harkt der Designer an der einen oder anderen Stelle noch (Bsp.: Server entfernen), aber das wird sich in einer zeitnahen neuen Version sicherlich ändern.

Unterm Strich ist ProfitBricks ein reiner Infrastructure-as-a-Service Anbieter, der seine Stärken im Infrastrukturbetrieb hat. Das ergab auch das Briefing. Daher irritiert mich ein Interview mit CEO Achim Weiß, welches ich vor ein paar Wochen gelesen hatte. Darin gab er als Zielkunden neben Unternehmen, ebenfalls Internet-Startups an. Das erachte ich derzeit jedoch als eine Utopie. Ohne ein Service-Portfolio wie es die Amazon Web Services bieten ist diese Zielgruppe nicht zu erreichen. Die Service Lücke kann und soll durch Service Partner geschlossen werden. Ein anderer aber durchaus legitimer Ansatz, wenn die Stärken in einem anderen Bereich liegen.