Kategorien
Analysen

Wer als IaaS-Anbieter zu Amazon konkurrenzfähig sein will muss mehr als nur Infrastruktur im Portfolio haben

Immer mehr Anbieter versuchen ihr Glück im Bereich Infrastructure-as-a-Service (IaaS) und wollen dem Platzhirsch Amazon Web Services (AWS) ein Stück vom Kuchen abnehmen. GigaOm hat bereits die Frage gestellt, ob es eine AWS Kopie aus Europa geben wird, die ähnlich wie Amazon in den USA den europäischen Markt dominieren wird. Sie kamen zu einem klaren Nein. Ich bin ebenfalls der Meinung, dass es in naher Zukunft keine nennenswerte Konkurrenz aus Europa geben wird. Ich gehe sogar einen Schritt weiter und gehe davon aus, dass es weltweit derzeit keinen Anbieter gibt und erst einmal geben wird, der – Stand heute – Amazon das Wasser reichen kann. Denn anders als es GigaOm macht, muss man den Cloud Markt global betrachten. Es gibt auf Grund der Strukturen grundsätzlich keine regional begrenzte Cloud. Jeder Nutzer kann sich weltweit bedienen. Es sei denn ein Anbieter entscheidet sich strikt dagegen. Das gibt es sogar – in Deutschland. Ich möchte Amazon an dieser Stelle keinen Freifahrtsschein ausstellen, aber für den Mitbewerb wird es sehr schwierig im IaaS Bereich diesen Marktanteil zu erreichen.

Der Markt ist groß genug aber…

Der IaaS Markt ist groß genug und bietet genug Platz für mehrere Infrastruktur-Anbieter. Jedoch sollte man sich vor Augen halten, wer sich derzeit für die Public Cloud und wer für die Private Cloud entscheidet. Danach lohnt sich ein Blick auf die Angebote der jeweiligen IaaS Anbieter, um die Spreu vom Weizen zu trennen. Dann wird auch klar, warum Amazon die Nase vorn hat und es für Neulinge schwer werden wird, wenn sie sich einfach nur auf reine Infrastruktur konzentrieren. So mancher Anbieter versucht gegen Amazon zum Beispiel mit einer höheren (Netzwerk)-Performance anzutreten. Das ist sicherlich ein netter Versuch, aber kein ausschlaggebendes Argument.

Public Cloud: Entwickler & Startups

Die Public Cloud wird bevorzugt von Entwicklern und Startups genutzt, die auf Basis des unkomplizierten Ressourcenbezugs und dem pay per use Modell ihre Geschäftsmodelle aufbauen. Mein Lieblingsbeispiel ist Pinterest, die nach eigener Aussage ohne Cloud Computing nicht so erfolgreich sein könnten. Das lag zum einem an der Möglichkeit stetig zu wachsen und die Ressourcen den Bedürfnissen nach zu erweitern ohne das Kapital für eine eigene riesige Serverfarm zu besitzen. Auf der anderen Seite hat die Cloud es Pinterest ermöglicht, effizient zu arbeiten und kostengünstig zu experimentieren. Zudem konnte die Webseite sehr schnell wachsen, während sich nur ein sehr kleines Team um die Wartung kümmern musste. Im Dezember beschäftigte Pinterest insgesamt nur 12 Mitarbeiter.

Private Cloud: Unternehmen

Viele etablierte Unternehmen stellen das Thema Datenschutz respektive Sicherheit über die hohen Investitionskosten und Wartungskosten einer Private Cloud. Hinzu kommt, dass ich in Gesprächen immer wieder höre, dass „eh bereits Investitionen in Hard-/ Software getätigt wurden“ und das nun noch ausgenutzt werden muss. Laut einer Gartner Umfrage planen 75% der Befragten bis 2014 eine Strategie in diesem Bereich. Bereits viele unterschiedliche Unternehmen haben Private Cloud Lösungen in Pilot-Projekten und im produktiven Betrieb im Einsatz. Dabei ist das Hauptziel, für sich den größten Nutzen aus der Virtualisierung zu ziehen.

Infrastruktur bedeutet mehr als nur Infrastruktur

Den Fehler den – vor allem – neue IaaS Anbieter machen ist, sich nur auf reine Infrastruktur zu konzentrieren. Das bedeutet, sie bieten nur die typischen Ressourcen wie Rechenleistung, Speicherplatz, Betriebssystem-Images, weitere Software und Lösungen wie Datenbanken an. Das mag vom IaaS Grundgedanken her auch alles richtig sein, reicht aber mittlerweile nicht mehr aus, um gegen Amazon zu bestehen.

Services, Services, Services

Schaut man sich das Angebot der Amazon Web Services genauer an, besteht es mittlerweile aus viel mehr als nur virtuellen Ressourcen, Rechenleistung und Speicherplatz. Es handelt sich dabei um ein umfangreiches Service-Portfolio, welches stetig und mit einem riesen Tempo ausgebaut wird. Alle Services sind ineinander vollständig integriert und bilden ein eigenes Ökosystem, mit dem ein eigenes Rechenzentrum aufgebaut und komplexe Anwendungen entwickelt und gehostet werden können.

Entwickler sind Amazons Jünger

Auf Grund dieses in sich stimmigen Angebots ist Amazon eine beliebte Anlaufstelle für Entwickler und Startups, die hier viele Möglichkeiten finden, ihre eigenen Ideen umzusetzen. Ich habe über diese Situation schon kritisch geschrieben und bleibe dabei, dass Amazon sich ebenfalls verstärkt auf die Bedürfnisse von Unternehmen konzentrierten sollte. Dennoch sind Entwickler derzeit Amazons Trumpf, welche den Cloud Anbieter zum führenden IaaS weltweit machen.

Komfort

Was AWS derzeit fehlt ist der Komfort. Hier setzen neue Anbieter an und bündeln mit „Infrastructure-as-a-Platform“ Lösungen verschiedene IaaS Ressourcen wie Rechenleistung, Speicherplatz, Netzwerkkomponenten usw. und ermöglichen Unternehmen damit den Aufbau eines eigenen Rechenzentrum on-Demand, also ein “Data-Centre-as-a-Service” (DCaaS). In diesem Bereich muss Amazon damit beginnen aufzuholen und ihren bestehenden und neuen Kunden mehr Convenience bieten, mit der diese die Infrastrukturen bequemer nutzen können und während der Konfiguration zudem weniger Zeit und Expertenwissen benötigen. Denn insbesondere IT-Abteilungen von kleinen- und mittelständischen Unternehmen werden in Zukunft auf diesen Komfort achten.

Schwer aber nicht unmöglich

Amazon gehört zu den Cloud Anbietern der ersten Generation und es gibt Bereiche in denen sie aufholen müssen. Aber das Konzept ist sehr ausgefeilt. Unter der Haube sind sie möglicherweise technologisch nicht mehr auf dem neuesten Stand. Aber die Frage ist, wie sehr es einen Kunden interessiert, ob nun Technologie A oder Technologie B in der „Blackbox“ eingesetzt wird, solange die Services zur Verfügung stehen, mit denen das verfolgte Ziel realisiert werden kann. Zudem lassen sich bestimmte Technologien auf Grund der losen Kopplung der Infrastruktur und der Services (Building Blocks) austauschen.

Wie ich oben geschrieben habe, ist der Markt groß genug und nicht alle Unternehmen werden zu Amazon gehen. Ich möchte nur darauf aufmerksam machen, dass es mittlerweile nicht mehr reicht, sich nur auf die grundlegenden IaaS-Eigenschaften zu konzentrieren, wenn man ein IaaS-Angebot gegen Amazon in den Ring schickt. Ich hatte vor längerer Zeit die Amazon Web Services der Google Cloud Platform (AWS vs. Google Cloud) bzw. Microsoft Windows Azure (AWS vs. Azure) gegenübergestellt. Beide sind für mich diejenigen Public IaaS Anbieter, die derzeit in der Lage sind, aufzuholen. Allerdings sieht man besonders an Googles Tabelle, dass an einigen Stellen noch so manche Service-Lücken bestehen.


Bildquelle: ©Stephanie Hofschlaeger / PIXELIO

Kategorien
Analysen

Klassische Webhoster und ihr Kampf mit Infrastructure-as-a-Service

Vor ein paar Tagen hatte ich ein Briefing mit einem europäischen Webhoster, der mir seine Produktlinie, strategische Ausrichtung usw. vorgestellt hat. Ich möchte das Wort Cloudwashing dabei ungerne wieder in den Mund nehmen. Allerdings hat mir das Gespräch erneut gezeigt, dass typische Webhostinganbieter massive Probleme haben, ein echtes Infrastructure-as-a-Service (IaaS) Angebot aufzubauen.

Schwierigkeiten mit der Moderne

Es ist genau das, was ich bei so manchen Anbietern von „Cloud“ Lösungen feststellen muss. Dabei handelt es sich überwiegend um klassische Webhoster, die den Cloud Zug nicht verpassen wollten und schnell ihr Portfolio AUF DEM PAPIER Cloud-fähig gemacht haben. Es gibt wohlgemerkt Ausnahmen, diese sind aber äußerst selten. An dieser Stelle wird schlicht und einfach auf den Hype aufgesprungen und das Internet als Cloud verstanden.

Genau so zeigte sich auch das Portfolio des Anbieters, mit dem ich gesprochen habe. Es gibt Dedicated Server und Cloud Server, die vor ein paar Monaten/ Jahren noch Virtual Server hießen. Diese „Cloud Server“ gibt es als fünf unterschiedliche fixe Konfigurationsstufen mit entsprechendem 1 bis 4 Cores, Speicherplatz und RAM zu einem monatlichen Preis von x EUR. Nicht zu vergessen, dass die Bereitstellungszeit mit 1 bis 5 Werktagen angegeben wird. Weitere Nachfragen ergaben dann, dass kein on-Demand Bezug möglich ist und keine API zum Verwalten bzw. Starten und Stoppen weiterer Server zur Verfügung steht. Ebenfalls existieren keine weiteren Services oder Software Images die um das Angebot herum bestehen und die Ressourcen nicht pro Verbrauch abgerechnet werden können.

Wie die Eigenschaften eines Cloud Angebots ausschauen sollte steht hier.

Interne Struktur und Strategie vorhanden

Man muss dem Anbieter zugestehen, dass er auf Nachfrage eingestehen musste, dass bis auf das Wort selbst in den Serverangeboten, nicht sehr viel Cloud steckt. Allerdings befindet er sich auf dem richtigen Weg. Vor ca. einem Jahr wurde die interne Infrastruktur auf CloudStack umgestellt, um für sich selbst die Provisionierung der Kunden-Server zu optimieren. Davon können die Kunden bisher jedoch nicht profitieren. Zudem wurde mit KVM auf einen modernen, offenen und weit verbreiteten Hypervisor gesetzt und ebenfalls das Thema Netzwerkvirtualisierung wurde vor ein paar Wochen umgesetzt. Nach eigener Aussage sei ebenfalls eine Strategie vorhanden, in Kürze den Kunden einen on-Demand Bezug einzelner Ressourcen sowie Pay per use als Bezahlmodell anzubieten, da man sich mittlerweile selbst im Klaren darüber sei, dass dies zwingend erforderlich ist.

Dennoch, angesichts dieser Erfahrungen sollte sich jeder Nutzer, der ernsthaft in die Cloud gehen möchte, vorab intensiv informieren.


Bildquelle: ©Harald Fischer / PIXELIO

Kategorien
Analysen

Cloud Computing ist das Rückgrat der mobilen Welt

Der Markt für mobile Endgeräte und Lösungen wächst unaufhörlich. Erst vor kurzem hat der BITKOM einen ungebremsten Tablet-Boom vorausgesagt. Demnach werden im Jahr 2012 mehr als 3,2 Millionen Geräte verkauft. Das ist ein Plus von 52 Prozent. Der Umsatz soll auf 1,6 Milliarden Euro steigen. Und ebenfalls der Trend hin zu mobilen Office und Collaborationslösungen hat sich mehr als deutlich gefestigt.

Die Cloud ist das Rückgrat mobiler Lösungen

Bei genauerer Betrachtung wird deutlich, dass Cloud Computing ein Erfolgsgarant für den Markt mobiler Technologien und Angebote ist. Die Cloud ermöglicht es Anbietern wie Google (Google Play) und Amazon (Kindle, Android AppStore) ihren Kunden den für sie tatsächlich einen Mehrwert bringenden Content wie Bücher, Musik ,Apps etc. an jedem Ort und geräteübergreifend bereitzustellen. Anders als Apple verfolgen beide die Strategie überwiegend mit Content ihre Einnahmen zu erzielen und die dafür benötigten Endgeräte zum Selbstkostenpreis zu verkaufen.
Das haben auch Anbieter wie zum Beispiel Samsung und LG erkannt und planen bzw. verfügen ebenfalls über eigene Cloud Angebote, über die sie ihre Kunden mit Inhalten versorgen oder zum ablegen von Daten animieren möchten und somit an sich binden wollen.
Aber nicht nur Anbieter von mobilen Marktplätzen nutzen die Cloud für ihre Zwecke. Auch Entwickler mobiler Applikationen speichern ihre Daten vermehrt nicht mehr nur lokal. Zudem greifen viele Apps auf die Cloud zu, um weitere Informationen und Daten zu erhalten.

Hybrid ist der strategisch richtige Weg

Zwar entwicklen sich mobile Datenverbindungen rasant fort, aber selbst in so einem hochentwickelten Land wie Deutschland existieren sichtlich noch viele Löcher in der mobilen (Breitband)-Versorgung. Dabei geht es weniger um die Innenstädte, sondern um die sogenannten Speckgürtel und ländlichen Regionen. Hier stehen weiterhin nur instabile oder minderwertige Verbindungen (EDGE) zur Verfügung. Und auch der lang ersehnte Hochgeschwindigkeitsstandard LTE (Long Term Evolution) kann die Erwartungen noch nicht erfüllen oder ist für die Masse zudem überteuert.

Ein weiterer Punkt ist die Zuverlässigkeit und das Vertrauen während der mobilen Arbeit. Wurden die Daten beziehungsweise Änderungen tatsächlich erfolgreich gespeichert oder erlebe ich im Büro eine Überraschung? Vor allem während der Arbeit im fahrenden Zug, ist dringend von der Arbeit mit reinen Cloud-basierten Lösungen abzuraten.

Entwickler mobiler Produktivitätslösungen sollten sich daher auf einen hybriden Ansatz konzentrieren. Die Arbeit sollte hauptsächlich auf dem mobilen Endgerät stattfinden. Sämtliche Änderungen/ ausgewählte Daten werden dann im Falle einer Datenverbindung im Hintergrund automatisch synchronisiert (Statusmeldungen nicht vergessen). Die Möglichkeit auf eine Online bzw. einen Cloud Mode umzuschalten wäre aber eine Option, um bspw. auch die Echtzeit Kollaboration mit den Kollegen zu ermöglichen.

Ohne Cloud nichts los

Neben der Entwicklung mobiler Endgeräte und Betriebssysteme wie Android oder iOS, würde sich der mobile Markt ohne Cloud Computing nicht so entwickeln wie es derzeit passiert. Man möge in erster Linie den immer leistungsstärkeren Geräten und komfortabler werdenden Betriebssystemen und Apps dafür verantwortlich machen. Jedoch sollte man nicht vergessen, dass erst durch die Cloud die Möglichkeiten für einen nathlosen und geräteunabhängigen Zugriff und die Synchronisation von Inhalten geschaffen wurde.


Bildquelle: ©Rödi / PIXELIO

Kategorien
Analysen

Die Enterprise IT ist zum Scheitern verurteilt… wenn sie sich nicht verändert.

Cloud Computing gehört zu den disruptivsten Technologien und Konzepten der letzten 10 Jahre. Mit dem flexiblen Bezug von quasi unendlich verfügbaren Ressourcen lassen sich zwar nicht einfacher virtuelle Infrastrukturen aufbauen, aber agiler und kurzfristig. Auch der Zugriff auf – neue – Anwendungen und Daten, die durch die Cloud ortsunabhängig zur Verfügung stehen, hat einen erheblichen Einfluss auf uns, unsere Arbeitswelt und damit auch zwangsläufig auf die Enterprise IT. Durch das Cloud Computing getriebene Themen wie Bring your own device (BYOD) und Mobile Computing, aber auch die Consumerization of IT (CoIT) hinterlassen immer mehr Spuren in den IT-Umgebungen vieler Unternehmen. Es stellt sich somit die Frage, ob das Cloud Computing und seine oben genannten Gefährten dazu beitragen werden, dass die Enterprise IT, wie wir sie kennen nicht mehr lange existieren wird.

Mitarbeiter zeigen wo es lang geht

Die CoIT sorgt dafür, dass IT-Wissen kein rares Gut mehr ist. Vorbei sind die Zeiten, in denen IT-Abteilungen dem Großteil der restlichen Mitarbeiter gleich mehrere Schritte voraus sind. Das liegt unter anderem daran, das die Informationstechnologie in unserem alltäglichen Leben einen omnipräsenten Zustand eingenommen hat. Zudem hat sich die Bedienbarkeit in den letzten Jahren deutlich vereinfacht und die Angst vor dem unbekannten Computern, Smartphones usw. schwindet stetig. Vergessen sollte man auch nicht den demographischen Wandel. Der Nachwuchs wächst mit und in die neuen Technologien herein und hat es mit der IT daher viel einfacher als die vorherigen Generationen. Das Verhältnis von Mitarbeitern die sich mit IT auskennen und denjenigen die Schwierigkeiten damit haben, wird sich immer stärker verändern, bis wir an einem Punkt angelangt sind, wo es keine nicht IT-affinen Mitarbeiter mehr geben wird.

Ständig neue Technologien, die primär für den privaten Gebrauch gedacht sind, beeinflussen die Mitarbeiter darüber hinaus im großen Stil. In Kombination mit der CoIT und dem demographischen Wandel sehen somit immer mehr Nutzer neue Möglichkeiten, diese eher privaten Technologien in ihren Arbeitsalltag einzusetzen und sich damit das Leben zu vereinfachen und die eigene Produktivität zu steigern.

Ein weiteres Problem, das sich die Enterprise IT ausgesetzt sieht: Die IT-Abteilungen sind zu langsam und sitzen weiterhin auf ihrem Thron. Es gibt viele Mitarbeiter und Projekte die innerhalb des Unternehmens und für die Außenwirkung Ideen haben. Dafür benötigen sie allerdings Ressourcen und diese in Form von IT. Dabei kann es sich von einer trivialen Angelegenheit wie Zugriffsrechte, über neue Applikationen bis hin zu Servern oder vollständigen Infrastrukturen handeln. Für jedes genannte Thema ist mindestens ein Ticket bis hin zu zahlreichen Meetings erforderlich. Oder die Antwort lautet schlicht und einfach – Nein! Im Falle von Ja! kann die Bereitstellungszeit mehrere Wochen oder gar Monate benötigen. Für ein einfaches Testsystem steht das in keinem Verhältnis, fördert die Missgunst bei den Mitarbeitern und kann im schlimmsten Fall das ganze Projekt gefährden.

Die Cloud vereinfacht den Zugang

Mitarbeiter und Projekte suchen daher Auswege, um zum einen Diskussionen aus dem Weg zu gehen und zum anderen ihre Ziele im vorgegebenen Zeitfenster zu erreichen. Dem Kunden sind die internen Machtkämpfe relativ egal und er sollte davon besser auch nichts mitbekommen.

Möglich machen es ihnen Lösungen aus der Cloud. Seien es nun vollständige Applikationen (Software-as-a-Service, SaaS), Plattformen für die Entwicklung und den Betrieb eigener Anwendungen (Platform-as-a-Service, PaaS) oder ganze Infrastrukturen für umfangreiche IT-Landschaften (Infrastructure-as-a-Service, iaaS). In der Cloud ist für jeden etwas dabei, wenn auch nicht für jede Situation.

Und auch mobile Applikationen, die ihre Daten bevorzugt in der Cloud ablegen, oder Cloud Storage Services und moderne HTML 5 Applikationen ermöglichen den ortsunabhängigen Zugriff.

Cloud Computing unterstützt die Enterprise IT

Die Enterprise IT darf nicht die Augen vor dem Cloud Computing verschließen und muss diese disruptive Technologie als Unterstützer ihrer täglichen Arbeit sehen. Ähnlich verhält es sich mit BYOD. In beiden Fällen gilt: Augen zu und durch funktioniert nicht! Proaktiv handeln und den Mitarbeiten wieder einen Schritt voraus sein ist gefragt.

Wer sich nun fragt, wie Cloud Computing ein Unterstützer sein kann, hier vier Beispiele:

  • Irgendwann wird der CEO/ CIO in der Tür stehen und erwarten, dass die Datenmengen die täglich im Web, in den lokalen Systemen usw. gesammelt werden, im großen Stil analysiert und unmenschliche Verknüpfungen angestellt werden sollen, da ein Informationsvorsprung einen Wettbewerbsvorteil bedeutet. Stichwort: Big Data. Wie sollen also in kurzer Zeit die Unmengen an benötigten Systemen für die Verarbeitung (Rechenleistung) und Ablage (Speicherplatz) beschafft und konfiguriert werden? Und wie sollen diese aus dem IT-Budget des laufenden Jahres finanziert werden? Selbst die Entwicklung einer eigenen Big Data Applikation kostet bereits viel Zeit und Geld. Genau, Cloud Computing. Denn Cloud Infrastrukturen sind eine ideale Lösung für die Anforderungen von Big Data. Aber ebenfalls speziell darauf ausgerichtete PaaS Lösungen können bereits helfen, „nur“ die Abfragen zu schreiben.
  • Das Big Data Beispiel lässt sich auf so ziemlich jeden Fall anwenden, wenn es darum geht, kurzfristig Anforderungen zu erfüllen, bei denen mehr als „nur ein paar“ virtuelle Server benötigt werden. Denn eines sollte man nicht vergessen, für jede virtuelle Ressource werden auch physikalische Ressourcen benötigt.
  • Auch neue Anwendungen lassen sich via SaaS kurzfristig, kostengünstig bzw. kostenlos testen, ohne dafür eigene Hardware zu nutzen oder gar die dafür notwendige darunterliegende Software zu besitzen, installieren und konfigurieren.
  • IT-Abteilungen können Cloud Computing zudem nutzen, um die eigene Innovationsfähigkeit und damit den Innovationsgrad des Unternehmen selbst zu erhöhen, indem sie kurzfristig auf Cloud Technologien zurückgreifen, um neue Ideen zu testen oder zu entwickeln.

Eines sollte weiterhin angemerkt werden. Cloud Computing ist kein Job Killer. Änderungen im Job und Weiterbildungen sind ein normales Phänomen, die natürlich auch die Cloud mit sich bringt. Allerdings erledigen die Cloud Infrastrukturen nicht alles von alleine. Um bspw. ein IaaS Angebot zu nutzen, müssen weiterhin die virtuellen Server Stückweit konfiguriert werden und die virtuelle Infrastruktur und Applikationen so gestaltet werden, dass sie tatsächlich skalierbar und hochverfügbar arbeiten. IT-Abteilungen müssen in der Cloud „verteilt“ denken und agieren.

Enterprise IT scheitert nicht wenn…

Die Enterprise IT wird nicht scheitern. Es sei denn, sie passt sich nicht den aktuellen und zukünftigen Begebenheiten und Trends an. Nicht die IT-Abteilungen werden die technologische Marschroute mehr vorgeben. Die Mitarbeiter werden zeigen und darauf aufmerksam machen, welche Technologien sie für ihre Produktivität benötigen. IT-Abteilungen sollten also verstehen, dass sie in einigen Fällen noch einen gewissen Vorsprung vor den Kollegen haben, dieser aber stetig schwindet. Umgehen können und sollten sie mit dieser Situation, indem sie

  • Auf Mitarbeiter eingehen.
  • Offen sein.
  • Innovationen von Mitarbeitern in das Unternehmen hineintragen lassen.
  • Verstehen dass es mittlerweile viele kleine CIOs/ CTOs gibt.
  • Crowdsourcing innerhalb des Unternehmens einsetzen, um Wünsche und Bedürfnisse zu erkennen.
  • Sich ebenfalls mit dem Markt für Consumer Produkte auseinandersetzen und Ideen für den Einsatz im Unternehmen ableiten.
  • Den Mitarbeitern wieder einen Schritt voraus sein.
  • Die Innovationsfähigkeit und den Innovationsgrad steigern.
Kategorien
Analysen

"Infrastructure-as-a-Platform" mit mehr Komfort in die Cloud

Die Zukunft der Unternehmens-IT liegt im X-as-a-Service. Vor allem Infrastructure-as-a-Services ermöglichen den schnellen Zugriff auf Rechen- und Speicher-Ressourcen und erfreuen sich immer größerer Beliebtheit. Was jedoch vielen Angeboten fehlt ist die sogenannte „Convenience“, also die bequeme Konfiguration der Infrastruktur. Der Hamburger Managed Hosting Anbieter internet4YOU geht neue Wege und erfindet den Bereich „Infrastructure-as-a-Platform (IaaP)„. Vor allem für kleine- und mittelständische Unternehmen, die nicht über das notwendige IT-Know-How verfügen, um sich Standard IaaS Ressourcen zusammenzubauen, ist IaaP ein sehr interessanter Ansatz.

Infrastructure-as-a-Platform – Die Einfachheit zählt

Was den meisten IaaS-Lösungen fehlt, ist der komfortable Zugriff auf Ressourcen, mit denen sich virtuelle Infrastrukturen aufbauen lassen. Dabei handelt es sich in der Regel um Services von Cloud Anbietern der ersten Generation, wie bspw. den Amazon Web Services. Hier erfolgt der Zugriff über eine API, um damit die virtuellen Maschinen zu steuern und sämtliche Infrastrukturkomponenten und Services miteinander interagieren zu lassen. Graphische Verwaltungs-/ Konfigurationsoberflächen sind nur mit einem sehr kleinen Funktionsumfang vorhanden. Instanzen lassen sich zwar starten, stoppen und herunterfahren, für die Konfiguration einer komplexen Infrastruktur ist aber Expertenwissen sowie umfangreiches Know-How mit paralleler Programmierung usw. erforderlich.

Und das ist der entscheidende Faktor. Der gewöhnliche Cloud Nutzer ist kein Cloud Computing Experte und muss bzw. sollte es auch nicht sein. Er kennt sich nicht mit den Themen aus, die eine Cloud überhaupt zu einer Cloud machen. Das ist für ihn auch nicht notwendig, er will die „Blackbox“ schließlich nur für seine Zwecke nutzen. Darüber hinaus hat er nicht das Interesse oder gar die Zeit, sich mit den oft komplexen Systemen und Prozessen auseinanderzusetzen und diese zu erlernen. In der Regel erwartet der durchschnittliche Cloud Nutzer eine in sich stimmige und integrierte Plattform, auf der er sich seine notwendigen IT-Ressourcen zusammenbauen kann, die er über einen bestimmen Zeitraum für seine Zwecke benötigt.

Es gibt keine offizielle Definition von Infrastructure-as-a-Platform. Ursprünglich stammt der Begriff von ScaleUp Technologies. Dabei handelt es sich um eine eigenständige Tochter von internet4YOU, die Lösungen für den Aufbau und die Verwaltung von Cloud Infrastrukturen anbietet. Neben internet4YOU respektive ScaleUp Technologies bieten auch Anbieter wie Profitbricks und Zimory aber auch Open-Source Lösungen wie openQRM die Möglichkeiten einer IaaP.

Infrastructure-as-a-Platform gehört die Zukunft

Neben dem einfacheren Zugriff auf die Ressourcen, bündeln Infrastructure-as-a-Platform Lösungen insbesondere verschiedene IaaS Ressourcen wie Rechenleistung, Speicherplatz, Netzwerkkomponenten usw. und ermöglichen Unternehmen damit den Aufbau eines eigenen Rechenzentrum on-Demand, also ein „Data-Centre-as-a-Service“ (DCaaS).

Bereits etablierte Cloud Computing Anbieter – der ersten Generation – müssen damit beginnen in diesem Bereich aufzuholen und ihren bestehenden und neuen Kunden mehr Convenience bieten, mit der diese die Infrastrukturen bequemer nutzen können und während der Konfiguration zudem weniger Zeit und Expertenwissen benötigen. Denn insbesondere IT-Abteilungen von kleinen- und mittelständischen Unternehmen werden in Zukunft auf diesen Komfort achten.


Bildquelle: ©Gerd Altmann / PIXELIO

Kategorien
Analysen

Profitbricks: "Live Vertical Scaling" und die Krux mit der Parallelität

Ich hatte über Profitbricks, direkt nach deren Go-Live im Mai, geschrieben. Dabei ist das Unternehmen nicht unbedingt gut bei weggekommen. Denn ein „Infrastructure-as-a-Service (IaaS) der nächsten Generation“ konnte ich da noch nicht erkennen. Eine grafische Bedienoberfläche, freie Vernetzungsstrukturen durch echte Isolation des Kundennetzwerks im virtuellen Rechenzentrum, vermaschte redundante Vernetzung mit Infiniband, maßgeschneiderte Server und ein hochredundanter Storage, zeugen unter dem besagten Titel von mehr Marketingexpertise als großer Innovation. Ich habe mir das Angebot einmal genauer angeschaut und bin positiv überrascht. Insbesondere die Funktion „Live Vertical Scaling“ überzeugt. Allerdings steckt der Teufel im Detail.

Scale Up vs. Scale Out

Skalierbarkeit bedeutet, dass die Leistung eines Systems durch das Hinzufügen weiterer Ressourcen wie ganzer Rechnersysteme oder granularer Einheiten wie CPU und Arbeitsspeicher erhöht wird. Das System kann dann mit zunehmender beanspruchter Leistung linear mitwachsen. So lassen sich z.B. plötzliche Lastspitzen begegnen unter denen das System nicht zusammenbricht. Unterschieden wird dabei zwischen dem Scale Up und dem Scale Out.

Scale Up

Während eines Scale Up, auch vertikale Skalierung genannt, wird die Leistung des Systems gesteigert, indem weitere granulare Ressource zu einem Rechnersystem hinzugefügt werden. Dabei kann es sich um Speicherplatz, CPUs oder Arbeitsspeicher handeln. Man kann auch sagen, ein einzelner Rechner wird mit weiteren bzw. Leistungsstärkeren Komponenten aufgerüstet.

Scale Out

Ein Scale Out, horizontale Skalierung, steigert die Leistung eines Systems, indem weitere vollständige Rechner zu dem Gesamtsystem hinzugefügt werden. Man kann sich das Szenario auch so vorstellen, dass man sich einen Cluster von Rechnern aufbaut, über den skaliert wird, indem der Cluster immer um die benötigte Anzahl an Rechnern erweitert wird.

Live Vertical Scaling

Ich weise immer darauf hin, dass Anwendungen für die Eigenschaften einer Cloud entwickelt werden müssen. Also mit der Infrastruktur parallel mitwachsen müssen, wenn sich die Last verändert und weitere virtuelle Ressourcen automatisch hinzugefügt werden müssen.

Profitbricks hat nun das „Live Vertical Scaling“ vorgestellt und geht anders als bspw. die Amazon Web Services (AWS), Rackspace oder Windows Azure den Weg der vertikalen Skalierung. Die anderen drei genannten Anbieter setzen hingegen auf die horizontale Skalierung. Profitbricks beschreibt seine Lösung wie folgt:

Das Besondere dabei: Das System, beispielsweise ein Server, kann auf diese Art quasi unabhängig von der verwendeten Software und ohne deren Modifikation beschleunigt werden. Ideal ist dies beispielsweise für LAMP (Linux, Apache, MySQL, PHP)-Systeme, da MySQL ohne Anpassung die neuen Ressourcen erkennt und ohne Neustart vom Mehr profitiert.

Grundsätzlich hat Profitbricks recht. Nicht jede Software ist so implementiert, insbesondere die Legacy Anwendungen, dass sie skalierbar sind. Das hängt damit zusammen, dass diese Anwendungen nicht für den parallelen Betrieb auf mehreren Systemen entwickelt wurden. Für eine vertikale Skalierung ist, bis zu einem gewissen Grad, keine parallele Entwicklung notwendig, d.h. im Prinzip muss der Programmcode in diesem Fall nicht mehr angefasst werden, um die Leistung zu erhöhen.

Die Probleme stecken im Detail

Aber, der Teufel steckt im Detail.

Parallelität der Softwarearchitektur

Eine Anwendung muss mehrere Cores unterstützen, um die Leistungsfähigkeit des Rechners auszunutzen. Diese Problematik viel auf, als Intel seine Core 2 Duo Prozessoren auf den Markt brachte. Die Rechner verfügten zwar über zwei CPU-Kerne, die alten Anwendungen unterstützen aber nur einen. Der Vorteil eines zweiten CPU-Kerns war somit dahin. Das bedeutet, dass eine Anwendung auch auf die vertikale Skalierung vorbereitet werden muss. Was nützt es, wenn der Server bis zu 48 CPU-Kerne unterstützt, die Anwendung aber lediglich einen einzigen nutzen kann.

Die Software muss also, trotz vertikaler Skalierung, parallelisiert werden. Denn die Leistungssteigerung hängt effektiv mit dem Parallelisierungsgrad der Anwendung und dem Betriebssystem zusammen. Das Betriebssystem sorgt für das Verteilen der Prozesse und Anwendungen auf die jeweiligen Kerne. Die Anwendung muss für den Betrieb auf mehreren Prozessen zudem so parallelisiert werden, dass einzelne Threads dabei gleichzeitig auf mehreren Prozessoren laufen.

Profitbricks schreibt: „Bei anderen IaaS-Anbietern muss der Nutzer seine Server erst herunter fahren, dann die neuen Ressourcen buchen und die Systeme anschließend neustarten. Selbst im besten Fall kommt es hierbei zu einem Ausfall der Server von einigen Minuten, so dass derartige Modifikationen ohne Live Vertical Scaling nur in den Nachtstunden machbar sind.

Das ist falsch. Bei AWS, Rackspace als auch Windows Azure lassen sich die Systeme per API/ Skripte steuern. Es können also weitere Ressourcen per Scale Out ohne Unterbrechungen hinzugefügt werden. Soll eine virtuelle Ressource ausgetauscht werden, lassen sich zunächst automatisch neue Ressourcen hinzufügen und anschließend die nicht mehr gewollten herunterfahren. Und das alles ohne Ausfallzeit.

Profitbricks nennt hier als Beispiel definitiv keine IaaS Cloud-Anbieter. Denn das geschilderte Szenario darf im Cloud Computing so überhaupt nicht auftreten!

Was ist mit Design for Failure?

Profibricks schreibt zwar, „Stehen auf dem physischen Server, auf dem eine bestimmte Kunden-VM läuft, nicht genügend Ressourcen bereit, um den per DCD gewünschten Wert zu erfüllen, verschiebt der von ProfitBricks verwendete Hypervisor die virtuelle Maschine automatisch auf einen anderen Server. Dies passiert, ohne die jeweils in der VM laufenden Anwendungen negativ zu beeinflussen.

Aber wie verhält es sich, wenn der darunterliegende physikalische Host oder die virtuelle Maschine, auf der sich die Anwendung befindet ausfällt? Da sich die Anwendung lediglich auf einem einzigen System befindet und nicht über mehrere Systeme verteilt läuft, wäre ein Ausfall die Folge.

Interessante Lösung, aber…

„Live Vertical Scaling“ ist auf jedenfall eine interessante Lösung. Profitbricks versucht Infrastructure-as-a-Service (IaaS) für Anwender benutzerfreundlicher zu machen, womit sie auf dem richtigen Weg sind. Denn für die meisten IaaS-Angebote sind noch zu viele Expertenkenntnisse notwendig und manuelle Arbeit erforderlich. Einfache Automatisierung und Convenience sind die Schlagworte. Aber wie ich beschrieben habe, steckt der Teufel im Detail. Man sollte sich also zunächst über seine eigenen Bedürfnisse und die der Anwendung im Klaren sein, bevor man sich für die vertikale Skalierung entscheidet.


Bildquelle: http://krishnasblog.com

Kategorien
Analysen

Den Return on Investment (ROI) des Cloud Computing bestimmen

Unternehmen sind angehalten den Wert jeder Investition über den Return on Investment (ROI) zu bestimmen. Das ist bei neuen Technologien/ Konzepten wie dem Cloud Computing nicht trivial, da hier derzeit noch wenig bis keine Erfahrungswerte vorliegen. Startups sind davon eher unbefangen, da sie keine Vergleichswerte mit klassischen Systemen haben, etablierte Unternehmen sind jedoch darauf angewiesen.

Der Return on Investment

Der Begriff Return on Investment (deutsch Kapitalverzinsung, Kapitalrendite oder Anlagenrendite) bezeichnet ein Modell zur Messung der Rendite einer unternehmerischen Tätigkeit, gemessen am Gewinn im Verhältnis zum eingesetzten Kapital. Der ROI beschreibt als Oberbegriff für Renditekennzahlen sowohl die Eigenkapitalrendite als auch die Gesamtkapitalrendite.

Quelle: Wikipedia.de

Wie den ROI der Cloud bestimmen?

Es stellt sich als nicht ganz leicht heraus, einen ROI für etwas zu bestimmen, das man nicht gut einschätzen kann oder gar kennt und vor allem kein reales Zahlenmaterial vorliegen hat. Daher muss man sich Bereiche suchen, die zwar keine harten Zahlen wiederspiegeln, aber dennoch den Wert und Nutzen des Cloud Computing zeigen. Dabei handelt es sich um Kosteneinsparungen, Prozessoptimierung, die Verbesserung der Agilität und den praktischen Gewinn durch die Nutzung des Cloud Computing.

Kosteneinsparungen

Nachdem man sich einen Überblick über seine bisher eingesetzten Anwendungen gemacht und diese in Klassen geordnet hat, ist es an der Zeit, potentielle Kandidaten herauszufiltern, bei denen ein Wechsel in die Cloud die Kosten senken können. Ein möglicher Kandidat ist das ERP System, was in eine Cloud Umgebung migriert werden könnte. Anhand der Konsolidierung und Virtualisierung können somit die Anzahl der tatsächlich benötigten Server und gleichzeitig die dafür notwendigen Racks reduziert werden.

Ebenso verhält es sich für Unternehmen, die über eine F&E Abteilung verfügen und die Hardwareinfrastruktur ihrer Labor verkleinern wollen. Einsparungen finden sich hier primär in den Bereichen Entwicklung und Instandhaltung der eingesetzten Applikationen und Hardwarelandschaften. Aber auch der geringere Aufwand für die Installation von Software reduziert die Kosten durch die Nutzung von Cloud-basierten Applikationen und verringert das notwendige Budget. Ein weiterer Vorteil: Die Cloud- basierten Lösungen können auf jedem Arbeitsplatzrechner über einen Webbrowser bereitgestellt werden.

Unternehmen die weiterhin on-Premise ihre Infrastruktur hosten werden zudem relativ schnell bemerken, dass eine eigene Infrastruktur in-House zu betreiben, große Investitionen in eigene Hard- und Software bedeutet. Hosting in der Cloud bedeutet, die fixen Kosten zu variablen Kosten zu transformieren, da auf Grund des Pay as you go Modells nur die Ressourcen berechnet werden, die tatsächlich genutzt werden.

Auf Grund kleiner Hürden und geringem technischen Wissen können selbst nicht IT-Mitarbeiter Cloud Computing einsetzen, um Infrastrukturen und Applikationen für das Unternehmen einzukaufen. Das führt zu Einsparungen bei Arbeits-und Know-How Kosten sowie Installations- und Instandhaltungskosten, vgl. Total Cost of Ownership.

Prozessoptimierung und Agilität

Mit Cloud Applikationen lassen sich zudem Unternehmensprozesse optimieren, indem sich, auf Grund des on-Demand Modells, verstärkt auf die Weiterentwicklung der Kenntnisse und Lösungen konzentrieren lässt. Unternehmen sind somit agiler und können schneller auf Marktveränderungen reagieren und neue Möglichkeiten identifzieren um zu wachsen.

Wenn ein Unternehmen wächst oder sich verändert, werden dafür schnell mehr Ressourcen und entsprechend Betriebsmittel benötigt. Das kann von ein paar Wochen bis zu Monaten dauern. Das beinhaltet ebenfalls das Schulen des Personals. All das bedeutet für ein Unternehmen Stillstand. Cloud Computing ermöglicht die schnelle Provisionierung der benötigten Ressourcen und stellt damit die Skalierung sicher.

Kosten sagen nicht immer viel aus

Der erfolgreiche Einsatz von Cloud Computing lässt sich nicht immer in Zahlen ausdrücken. Daher lässt sich der ROI des Cloud Computing am besten aus dem Nutzen bestimmen. Administratoren und CIOs sollten dazu auf die offensichtlich Werte achten, die beim Einsatz entstehen. Sie sollten sich z.B. fragen, was sie von der Nutzung eines bestimmten Service erwarten können. Auf dieser Basis lassen sich weitere, auf den Nutzen bezogene, Fragen entwickeln, die sich nicht auf das Finanzielle konzentrieren. So können bspw. Metriken entwickelt werden, die sich auf den sichtbaren Nutzen eines Cloud Service beziehen, den dieser in der Lage ist zu liefern. Metriken könnten sein:

  • Wie schaut es mit dem Support und weiteren Services aus, die durch den Anbieter bereitgestellt werden?
  • Können Einsparungen erzielt werden?
  • Wie kompliziert ist der Abrechnungsvorgang?
  • Wie ist die Benutzerfreundlichkeit des Service?
  • Ist die dynamische Nutzung durch den neuen Service gewährleistet?
  • Wie flexibel ist der neue Service in Bezug auf Veränderungen und wechselnder Anforderungen?
  • Wie schnell kann der neue Cloud Service adaptiert und bereitgestellt werden?
  • Wie sehen die Wartungs- und Upgradekosten sowie die Ausfallzeiten im Vergleich zum Cloud Service aus?
  • Wie ist der Einfluss auf das Unternehmen, wenn Services in Zukunft aus der Cloud bezogen werden?
  • Wie sehen die Risiken in Bezug auf die Unternehmensprozesse und gespeicherten Daten in der Cloud aus?
  • Konnte die Zufriedenheit meiner Mitarbeiter erhöht werden?
  • Hat sich die Agilität und Flexibilität verbessert?

Der ROI ist wichtig, aber…

Der Return on Investment ist eine wichtige Kennzahl in einem Unternemen, allerdings sollte und darf die finanzielle Seite nicht die einzige Grundlage des ROI sein. Insbesondere beim Cloud Computing spiegelt sich der Wert und Nutzen der Services nicht immer im monetären Bereich wieder. Und auch wenn die Metrik manchmal nicht ganz greifbar ist, sollte der Wert, den ein Cloud Service für ein Unternehmen liefert, dennoch nicht vernachlässigt und stattdessen sorgfältig betrachtet werden.


Bildquelle: http://us.intacct.com

Kategorien
Analysen

Cloud Marketplaces sind die Zukunft des Cloud Computing

In den letzten Monaten sind vermehrt Cloud Marketplaces erschienen. Dazu zählen u.a. der AWS Marketplace, der Chrome Web Store, der internet4YOU Cloud Marketplace oder der Business Marketplace der Deutschen Telekom. Hier können sich Unternehmen aber auch Endnutzer aus einem Katalog von Services ihr eigenes Produktivätsportfolio zusammenstellen und haben dadurch einen ausgewählten Überblick von möglichen potentiellen Kandidaten.

Marktplätze sorgen für Übersicht

Ein Cloud Marktplatz ist vor allem dadurch charakterisiert, dass er, wie bspw. ein klassischer Webshop, Produkte in Form von Anwendungen aber auch Infrastruktur kategorisiert. Gerade dann wenn sich ein neuer Trend etabliert, schiessen tagtäglich neue Lösungen aus dem Boden. Das macht es für Einkäufer, aber auch Endkunden zunehmend schwieriger, den Überblick über den Markt zu behalten.
Cloud Marktplätze räumen auf und fassen die unterschiedlichen Cloud Angebote thematisch zusammen. Sie bilden quasi ein unabhängiges Ökosystem von Cloud Services.

Die Spreu vom Weizen trennen

Wohlgemerkt gibt es auch viele „schlechte“ Cloud Applikationen auf dem Markt, die keinen echten Mehrwert bieten oder schlicht weg einfach nicht gut durchdacht sind. Cloud Marktplätze helfen, potentielle Top-Applikationen von eher unbedeutenden Services zu trennen. Eine Entscheidungshilfe bieten hier bereits die Betreiber solcher Marktplätze selbst. So sagt die Deutsche Telekom, dass sie über ihren Marktplatz zwar eine Vielzahl von Drittanbieter Lösungen bereitstellen wollen, aber bewusst auf Klasse statt Masse setzen werden. Das birgt natürlich die Gefahr, das potenzielle gute Anwendungen es nicht in den Marktplatz schaffen werden, da diese durch das Raster der Telekom fallen werden. Auf der anderen Seite ist eine Vorauswahl natürlich notwendig, um die Qualität und damit das Ansehen des Marktplatz zu gewährleisten.
Hat es ein Angebot in den Marktplatz geschafft, steht dem Nutzer mit der „Crowd“ ein weiteres Entscheidungskriterien zur Verfügung. Anhand eines Bewertungssystem wird die Qualität und Funktion der Anwendung von anderen Nutzern bewertet und kommentiert und gibt damit ein Stückweit mehr Adaptionshilfe.

Die Reichweite erhöhen

Cloud Marktplätze können vor allem jungen Unternehmen helfen, die über ein geringes Kapital für Werbung und PR verfügen, ihren Bekanntsheitsgrad und die Reichweite zu erhöhen. Aber auch für etablierte Unternehmen, die mit Cloud Angeboten starten, ergeben sich dadurch Chancen, sich einer breiten Masse zu präsentieren und sich vor dem bestehenden Mittbewerb transparent zu bewähren.

Cloud Marketplaces sind keine Cloud Broker

Eines sollten man jedoch beachten. Cloud Markplätze bieten in ihrer reinen Form nur Services und Applikationen an, ohne einen weiteren Mehrwert zu bieten. Anstatt sich bspw. über die Suchmaschine seiner Wahl nach möglichen Angeboten zu informieren und direkt auf die Webseiten der Anbieter zugehen, erfolgt der Zugriff über den Marktplatz. Nach einer ersten Anmeldung über den Marktplatz, kann anschließend auch der direkte Weg zum Anbieter genommen werden. Der Marktplatz dient dann nur noch als Verwaltungsinstrument für die Nutzer und das Hinzufügen oder Kündigen anderer Services.

Cloud Broker Services hingegen integrieren und erweitern mehrere Cloud Angebote und schaffen damit einen Mehrwert um die Cloud Servies herum.
Das Cloud Services Brokerage Modell bietet ein architektonisches-, business-, und IT-Betriebs-Modell, mit dem verschiedene Cloud Services bereitgestellt, verwaltet und adaptiert werden können. Und das sich innerhalb eines föderierten und konsistenten Bereitstellung-, Abrechnung-, Sicherheit-, Administration- und Support-Framework befindet. Unternehmen werden damit in die Lage versetzt, ihr Cloud-Services Management zu vereinheitlichen, um damit den Innovationsgrad zu erhöhen, die globale Zusammenarbeit zu verbessern, die Betriebskosten zu senken und insgesamt besser zu wachsen. Cloud Computing Anbieter erhalten damit die Möglichkeit die Bereitstellung ihrer Cloud Services zu vereinheitlichen und ihr eigenes Services Netzwerk zu differenzieren und damit eine umfangreiche Cloud Computing Plattform bereitzustellen. Technologie-Anbieter können damit ein Ökosystem von Mehrwertdiensten aufbauen, um ihre wichtigsten Angebote zu differenzieren, die Kundenbindung erhöhen und neue Vertriebswege erschließen.

Cloud Marketplaces sind ein logischer Trend

Cloud Marketplaces gehören zu der logischen Entwicklung des Cloud Computing, um Unternehmen und Entwickler den einfachen Zugriff auf IT-Ressourcen zu ermöglichen. Neben einer gut dokumentierten API gehören ebenfalls übersichtliche und umfangreiche Web-Oberflächen zu einem guten Cloud Angebot, die es dem Nutzer ermöglichen sich „auch mal eben“ eine Cloud Infrastruktur „zusammenzuklicken“, um z.B. ein paar Tests durchzuführen. Bereits viele Anbieter sind auf diesen Zug aufgesprungen und ermöglichen über einen eigenen Cloud Marktplatz den Zugriff auf ihre IaaS-Ressourcen. Zudem reichern sie ihre Infrastruktur-Angebote über den Marktplatz mit Betriebssystem-Images oder weiteren Software-Lösungen an, um den virtuellen Ressourcen damit einen echten Nutzen zu geben.

Unternehmen können sich einen Cloud Marketplace vorstellen wie mehrere Regal in einen quasi unendlich großen Supermarkt. Und genau so sollten sie ihn auch nutzen, um sich ihre Infrastruktur beliebig zusammenzubauen. Spannend wird es, wenn wir einen Schritt weitergehen und die Ressourcen und Lösungen nicht mehr nur von einem einzigen Anbieter beziehen, sondern über mehrere Anbieter oder deren Marktplätze, wo wir uns dann beim Thema Cloud Brokerage Services – siehe oben – befinden.


Bildquelle: Wikipedia

Kategorien
Analysen

Windows Server 2012 – Microsoft vervollständigt sein Cloud Computing Portfolio

Microsoft hat mit dem Windows Server 2012 die neue Ära seines Serverbetriebssystems eingeläutet, mit dem sich das Unternehmen auf den Aufbau und den Betrieb von Cloud Infrastrukturen konzentrieren und sein Engagement im Bereich Cloud Computing unterstreichen will. Dabei fokussien sich die Redmonder insbesondere auf die Private Cloud, wollen im Bereich Public bzw. Hosted Cloud aber ebenfalls ein Wort mitreden.

Windows Server 2012 - Microsoft vervollständigt sein Cloud Computing Portfolio

Hintergrund: Windows Server 2012

Der Windows Server 2012 kommt mit vielen Neuigkeiten. Aus der Cloud Brille betrachtet, befinden sich die größten Innovationen im Bereich der Virtualisierung. Und hier im Speziellen mit dem neuen Hyper-V 3.0, der mit seiner neuen Funktion Hyper-V-Replica virtuelle Festplatte und vollständige Server asynchron zwischen mehreren Hyper-V-Hosts im Netzwerk manuell oder automatisiert repliziert und synchronisiert. Dabei wird die Replikation über das Dateisystem vorgenommen. Virtuelle Server lassen sich zudem im laufenden Betrieb zwischen unterschiedlichen Hyper-V-Hosts replizieren. Damit verspricht Microsoft den Betrieb von hochverfügbaren virtuellen Servern (Hochverfügbarkeitslösung) ohne den Einsatz eines Cluster.

Microsoft spricht Hybrid Cloud

Mit dem Windows Server 2012 rundet Microsoft sein Cloud Portfolio auf der on-Premise Seite (Private Cloud) ab. Nach Windows Azure (PaaS, IaaS), Office 365/ Office 2013, Dynamics CRM Online und weitere Angebote (SaaS), bildet der neue Windows Server die Basis der IT-Infrastruktur im unternehmenseigenen Rechenzentrum bzw. in dem des Service Provider.

Neben dem Private Cloud Szenario zielt Microsoft ebenfalls auf die Hybrid Cloud. Dazu beinhaltet der Windows Server 2012 neben neuen Storage- und Netzwerktechnologien, Virtualisierungs- und Automatisierungskomponenten ebenfalls Funktionen für die Integration mit Microsoft Windows Azure und dem System Center. Damit lässt sich die on-Premise Umgebung um Ressourcen aus der Microsoft Public Cloud erweitern und u.a. .NET Anwendungen sowohl innerhalb der Private als auch der Public Cloud skalierbar einsetzen.

Vorteil: Microsoft ist bereits an der Basis

Auch wenn Microsoft im Bereich Cloud im Vergleich zu den Playern Amazon Web Services oder Google ziemlich spät aus den Startlöchern gekommen ist, holen sie mit ihrem Cloud Portfolio kräftig auf. Speziell der neue Windows Server 2012 ermöglicht Microsoft direkt die Kunden zu erreichen, die Amazon und Google aus eigener Kraft nicht bekommen können und werden. Nämlich diejenigen die der Public Cloud eher kritisch gegenüber eingestellt sind bzw. die Kunden, die bereits auf Microsoft Produkte setzen.

Wo Amazon und Google sehr leicht die (Web)-Startups dieser Welt einfangen und Microsoft sich mit Azure schwer tut, hat Microsoft bereits den Fuß bei etablierten Unternehmen in der Tür, wo bekanntlich die höheren Umsätze generiert werden.

Daher kam auch Amazons strategische Kooperation mit Eucalyptus nicht überraschend, um auch auf der Private Cloud Seite zumindest eine AWS ähnliche Plattform für das Hybrid Cloud Szenario zu unterstützen. Wo Microsoft sich als Serviceanbieter als auch Softwareanbieter positioniert, sind Amazon als auch Google reine Serviceanbieter, die im Umfeld von on-Premise Software und die dafür notwendigen nachgelagerten Prozesse wenig Erfahrung haben.

Kategorien
Analysen

Cloud Computing: Es geht um Agilität und Flexibilität und sekundär um die Kosten

Mit dem Artikel „Wieviel kostet die Cloud“ hat sich die Computerwoche das Thema Cloud Computing und Kosten angenommen. Dabei konzentriert sich der Beitrag auf das Thema Software-as-a-Service (SaaS) und betrachtet den Cloud Bereich nicht in der Bandbreite. Das allgemeine Ergebnis des Artikels ist, dass man mit einer on-Premise Lösungen nach fünf Jahren günstiger fährt als mit Cloud Services. Diese Schlussfolgerung kommt natürlich nicht überraschend. Wenn ich einmal kräftig investiere und meine eingekauften Ressourcen über einen sehr langen Zeitraum nutze, ohne diese zu erneuern, fahre ich definitiv günstiger als mit einem SaaS-Modell, wo ich monatliche bzw. jährliche Beiträge zahle. Was allerdings nicht beachtet wird ist, dass ich damit ständig den aktuellen Trends hinterher hänge und vor allem niemals die neueste Softwareversion einsetze. Denn beim Cloud Computing geht es sekundär um die Kosten und in erster Linie um die Agilität und Flexibilität, die ein Unternehmen damit gewinnt.

Cloud Computing ist zwangsläufig nicht günstiger

In dem Artikel kommen auch einige Analysten zu Wort u.a. Gartner, die zu dem Ergebnis kommen, dass SaaS „… in den ersten fünf Jahren günstiger als der On-Premise-Betrieb sein kann“. Daher sei eine langfristige Betrachtung und Gegenüberstellung von on-Premise und Cloud Computing empfehlenswert. Diese zeigt, dass nach ein paar Jahren der Breakeven erreicht ist und danach die on-Premise Lösungen deutliche Kostenvorteile aufweisen. So sagt Nikolaus Krasser, Vorstandsmitglied der Pentos AG: „Die Lizenzkosten im SaaS-Betrieb sind ab dem sechsten oder siebten Jahr definitiv höher als die abgeschriebenen Kosten für die On-Premise-Lizenzen und Server sowie den laufenden Betrieb“

Damit hat Herr Krasser natürlich recht. Wie ich bereits oben erwähnt habe ist es eine ganz einfache Rechnung. Investiere ich Anfangs eine hohe Summe in Softwarelizenzen und lasse meine Mitarbeiter sechs bis sieben Jahre mit veralteten Softwareversionen arbeiten, spare ich natürlich langfristig. Ähnlich verhält es sich mit Hardware. Aber mache ich meine Mitarbeiter damit auch glücklich und vor allem produktiv?

Mit einer SaaS Lösung investiere ich monatlich bzw. jährlich in die benötigte Software und zahle damit natürlich gleichzeitig für Innovation, Updates, Sicherheits-Bugfixes, neue Versionen usw. Das sollte man dabei nicht vergessen. Zudem erhalte ich mir mit SaaS die Flexibilität zeitnah eine neue Lösung einzuführen, ohne langfristig in Lizenzen zu investieren.

Cloud Computing gestaltet die IT-Infrastruktur flexibler

Die Grundlage des Cloud Computing ist die Konsolidierung der Hardware-Ressourcen auf Basis von Virtualisierung. Damit können Unternehmen bis zu 40 Prozent ihrer Gesamtkosten im eigenen Rechenzentrum reduzieren. Alleine 25 bis 30 Prozent dieser Einsparungen fallen auf einen geringeren Stromverbrauch und Investitionen für Kühlsysteme. Dadurch lässt sich auch das Ziel einer „Green-IT“ besser verfolgen. Klassische Rechenzentren mussten stark überdimensioniert ausgelegt werden, um auch in Spitzenzeiten ausreichend IT-Ressourcen liefern zu können. Im Jahresmittel werden jedoch nur maximal 20 Prozent dieser Kapazitäten benötigt. Die restlichen 80 Prozent sind unproduktiv.

Auf Grund der Virtualisierung muss sich das Design eines Rechenzentrum nicht mehr an dem maximal erwarteten Bedarf richten. Mit der Skalierbarkeit des Cloud Computing werden die benötigten Ressourcen automatisiert und flexibel den entsprechenden Geschäftsbereichen bereitgestellt. Im Anschluss werden die Ressourcen wieder heruntergefahren. Diese operative Effizienz führt zu 30 Prozent Kosteneinsparungen.

Kurzum lassen sich mit Cloud Computing die Skaleneffekte optimieren und Ressourcenauslastung der gesamten IT-Infrastruktur verbessern.

Cloud Computing verbessert die Agilität des gesamten Unternehmens

Cloud Computing optimiert sämtliche technologische Prozesse und führt zu mehr Effizienz. Zudem verkürzt es den Zugriff auf Ressourcen und erhöht damit die Innovationsfähigkeit des Unternehmens. Mitarbeiter können dadurch schneller auf Informationen und Applikationen zugreifen, wodurch sie Informationen kurzerhand analysieren und sofort Entscheidungen treffen können. Mit einem ortsunabhängigen Zugriff auf die Daten lässt sich darüber hinaus die Produktivität jedes einzelnen Mitarbeiters erhöhen.

Cloud Computing sorgt zudem für einen optimierten Betrieb der IT-Infrastruktur, wodurch sich Spitzenzeiten bequem und zeitnah ausgleichen lassen. Unerwartete erfolgreiche Werbemaßnahmen, Monats- und Jahresabschlüsse oder saisonale bedingte Einflüsse können damit begegnet werden, ohne langfristig in kostspielige Hardware-Ressourcen zu investieren. Die Skalierbarkeit der Cloud sorgt für das automatische Anpassen der benötigten Ressourcen, sei es Rechenleistung, Speicherplatz oder Applikationen.

Genauso verhält es sich mit der Innovationsfähigkeit des Unternehmens. Jede neue Initiative benötigt Ressourcen. Personal ebenso wie die unterstützende IT im Hintergrund. Die Cloud verkürzt hier die Evaluierung von neuen Ideen bzw. dem Time-to-Market, indem die notwendigen IT-Ressourcen on-Demand zur Verfügung stehen.

Weiterhin fördert Cloud Computing die bessere Zusammenarbeit der Mitarbeiter und optimiert die Koordination mit Kunden und Partnern. Innerhalb des Unternehmens sorgt die Cloud für eine enge Verzahnung der Mitarbeiter sowie den Prozessen und Systemen. Das sorgt für eine effizientere Kollaboration. In der Außenkommunikation mit Kunden und Partner bildet die Cloud eine Plattform, mit der eine nahtlose Zusammenarbeit erfolgt.

Innovationen müssen in den Fokus rücken

Die IT wird seit jeher als der Stein am Bein eines jeden Unternehmens betrachtet und das scheint sich im Zeitalter des Cloud Computing nicht zu ändern. Eine Kostenbetrachtung ist wichtig und jeder der es nicht macht, begeht einen Fehler. Allerdings verschafft man sich durch eine Kostenreduktion keinen Wettbewerbsvorteil. Um innovativ zu sein, muss man investieren. Das haben uns Unternehmen wie Amazon (Amazon Web Services, Amazon Kindle) oder auch Google sehr eindrucksvoll gezeigt. Mit dem Cloud Computing stehen nun jedem Unternehmen alle Türen offen, ebenfalls den Innovationsgrad zu erhöhen und die Agilität zu verbessern. Und auch die Kommunikation zwischen Mitarbeitern, Partnern und Kunden lässt sich damit optimieren. Wie das geht, zeigen uns bevorzugt Startups und junge Unternehmen, die ihre Geschäftsmodelle auf Basis der Cloud aufgebaut haben und die ohne diese skalierbaren Infrastrukturen nicht existieren würden.


Bildquelle: http://ictk.ch