Kategorien
Management

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing

Mit dem IT-Cloud-Index präsentieren techconsult und HP Deutschland eine Langzeituntersuchung zum Stellenwert von Cloud Computing in mittelständischen Anwenderunternehmen. Der Cloud-Einsatzgrad hat sich innerhalb eines Jahres nahezu verdoppelt. Software-as-a-Service (SaaS) dominiert zwar noch innerhalb der Cloud-Dienste, die Nachfrage nach Infrastructure-as-a-Service-Angeboten (IaaS) hat jedoch insbesondere im dritten Quartal gegenüber dem zweiten deutlich zugelegt und befindet sich auf der Überholspur. Die Cloud-Thematik manifestiert sich zunehmend im Mittelstand. Fast jedes zweite Unternehmen hat sich bereits intensiv mit diesem Thema auseinandergesetzt.

Cloud Computing Nutzung hat sich innerhalb eines Jahres verdoppelt

Im deutschen Mittelstand setzt jedes fünfte Unternehmen bereits auf Cloud-Lösungen. Mit einem Anteil von 22 Prozent der Unternehmen im dritten Quartal 2012 hat sich der Einsatzgrad gegenüber dem Vorjahresquartal nahezu verdoppelt. Allerdings zeigt sich eine etwas abgemilderte Wachstumsdynamik in den letzten Monaten. Im Vergleich zum Vorquartal hat sich der Einsatzgrad um einen Prozentpunkt erhöht. Für das vierte Quartal dürfte dieser zunächst verhaltene Entwicklungstrend anhalten. So wird ein Zuwachs von einem Prozent prognostiziert.

Innerhalb der Cloud-Dienste wird dem Software-as-a-Service-Modell weiter die bedeutendste Rolle zugesprochen. So setzen 15 Prozent der mittelständischen Unternehmen entsprechende Produkte ein. Die Steigerungsraten über die letzten Quartale zeigen sich indes sehr konstant, wenn auch auf einem immer noch ausbaufähigem Niveau. Dagegen steigt der Bedarf an Infrastrukturleistungen im Rahmen des as-a-Service-Modells seit dem zweiten Quartal deutlich an.

Was die SaaS-Angebote betrifft, stehen die klassischen, horizontal einsetzbaren Software-Lösungen im Fokus des Interesses. So baut der Mittelstand neben den Office- und CRM-Lösungen vor allem auf E-Mail- und Collaboration-Dienste.

Die Nachfragesteigerung für Cloud-Infrastrukturleistungen liegt gegenüber dem Vorquartal bei drei Prozentpunkten. Inwieweit hier saisonale Aspekte eine Rolle spielen, wird das vierte Quartal dieses Jahres zeigen. Den Prognosen der Befragten zufolge dürfte jedoch der positive Trend anhalten. Damit gilt es für den Mittelstand nicht nur die kurzfristige Auslastung von Kapazitätsspitzen sicherzustellen, sondern auch langfristig in das IaaS-Modell einzusteigen. Die Treiber waren in erster Linie der Bedarf an Server- und Speicherkapazitäten. Der anhaltende Trend ist auch Indiz dafür, dass die mittelständischen Unternehmen zunehmend Vertrauen in die IaaS-Cloud entwickeln und sie als adäquate Option sehen, ihren Bedarf an Infrastruktur-Ressourcen kostenoptimal zu decken.

Plattform-as-a-Service Angebote konnten sich im Jahresverlauf ebenfalls als ein konstant nachgefragter Service entwickeln, wenn auch mit noch verhaltenen Wachstumsraten. Vornehmlich tragen die Datenbanken als Service auf der Anwendungs-Infrastrukturebene zu dem aktuellen Einsatzgrad von sechs Prozent bei, der sich um einen Prozentpunkt im Vergleich zum Vorquartal erhöht hat.

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing

Jedes zweite Unternehmen hat Interesse am Cloud Computing

Das Thema Cloud Computing manifestiert sich im Mittelstand. Mittlerweile hat sich fast jedes zweite Unternehmen (47 Prozent) mit Cloud Computing sehr intensiv bzw. intensiv auseinandergesetzt. Weitere 30 Prozent haben sich zumindest grundsätzlich schon einmal mit der Thematik beschäftigt. Im Vergleich zum Vorjahr hat sich allein der Anteil derjenigen verdoppelt, die sich sehr intensiv mit Cloud-Lösungen beschäftigt haben.

Nur jedes fünfte Unternehmen hat sich bislang gar nicht mit der Thematik auseinandergesetzt. Hier ist davon auszugehen, dass sich diese Unternehmen zum einen skeptisch gegenüber einem grundlegenden Eingriff in die Strukturen der bestehenden und laufenden IT-Infrastruktur zeigen. Zum anderen spielt das Thema Virtualisierung in diesen, zum Teil auch kleineren Unternehmen, nach wie vor eine weniger stark ausgeprägte Rolle. Zu berücksichtigen ist auch, dass auf Grund des operativen Alltagsgeschäftes häufig Ressourcen fehlen, sich Zeit zu nehmen und sich über neue Technologien zu informieren und sich damit auseinanderzusetzen. Insbesondere in kleineren mittelständischen Unternehmen wird in erster Linie die Nutzung von Cloud Computing aus der Geschäftsleitung (50 Prozent) heraus angeregt.

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing

Geschäftsführung forciert Cloud Computing Themen

Treiber für Cloud Computing ist meist die unternehmenseigene IT, oftmals auch in Abstimmung mit der Fachabteilung. In erster Linie kommt der Impuls für den Einsatz von Cloud Computing daher vom IT-Verantwortlichen des Unternehmens (72 Prozent). Diese drängen darauf, ihre IT-Kapazitäten zu flexibilisieren und von den Vorteilen des Cloud Computing zu profitieren. Das wird möglich durch den kostengünstigen Bezug von Speicherkapazitäten, Software oder Rechenleistungen aus der „Wolke“.

14 Prozent der Befragten gaben an, dass Cloud Computing von der Geschäftsleitung angestoßen werde. Dies sind vor allem überdurchschnittlich viele kleinere mittelständische Unternehmen. Noch im Herbst 2011 waren es gerade neun Prozent. Hier wird deutlich, dass das Thema mehr als noch vor einem Jahr auch in die Chefetagen gelangt ist. Aktuell spielen Fachabteilungen eine weniger relevante Rolle, nur acht Prozent der Befragten gaben an, dass der Cloud-Einsatz ausschließlich aus der Fachabteilung heraus angeregt wurde.

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing

Public Cloud ist im Mittelstand angekommen

Anwender geben auch im dritten Quartal der Private Cloud grundsätzlich den Vorzug. Hier verbleibt die IT im Haus bzw. wird beim Dienstleister in einer dedizierten Umgebung betrieben. Immerhin zieht mit 46 Prozent der aktuellen Cloud-Nutzer fast jeder Zweite dieses Modell der Public und der Hybrid Cloud vor. Dennoch wurde der Public Cloud über die letzten Quartale die zunehmend höhere Akzeptanz erneut bestätigt. Jedes dritte Unternehmen kann sich mit diesem Modell anfreunden. Eine ähnliche Kontinuität ist in der Bewertung der hybriden Form festzustellen, die jeder Fünfte als adäquate Lösung bestätigt.

Im Durchschnitt hatte von den Cloud Usern im dritten Quartal jedes zweite Unternehmen Dienste aus der Private Cloud bezogen. Hierbei wurden vor allem PaaS- und IaaS-Angebote in Anspruch genommen. Was SaaS-Dienste betrifft, so werden diese zwar noch immer mehrheitlich aus der Private Cloud bezogen. Allerdings ist hier im Verlauf des letzten Jahres eine deutliche Tendenz zu Lösungen aus der Public Cloud zu verzeichnen, deren Nutzung im Vergleich zum dritten Quartal 2011 um zehn Prozent zulegte. Im Jahresvergleich konnte die Hybrid-Cloud um zwei Prozent zulegen. Durch die Parallel-Nutzung von Private und Public Cloud werden die eigenen Ressourcen mit den Vorteilen der Public Cloud kombiniert und stellen so eine ideale Ergänzung zu eigenen Private-Cloud-Ressourcen dar. Bei Engpässen können skalierbare Public-Cloud-Dienste ergänzt werden, ohne im Regelbetrieb ungenutzte Infrastruktur bereithalten zu müssen. Virtualisierung als Grundstein für hybride Cloud-Lösungen ist in vielen Unternehmen zwar gegeben, die Herausforderung ist jedoch, einen geeigneten Dienstleister bzw. Cloud-Anbieter zu finden, mit dessen Lösungen die unternehmenseigene Infrastruktur kompatibel ist.

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing


Quelle: techconsult

Kategorien
Analysis

Traditional webhoster and their fight with real infrastructure-as-a-services

Some days ago I had a briefing with an european webhoster who presented his product line-up and the strategic alignment. I reluctantly would like to use the term cloud-washing. But this call showed me again that traditional webhoster have massive problems to define and build a real infrastructure-as-a-service offering.

Difficulties with modernity

It is what I often see in the portfolio of a „cloud“ services provider. These are mostly classical webhoster, who did not want to miss the cloud hype and jump on the bandwagon by cloud-enabling their offering on the paper. There are exceptions, but these are very rare. At this point, the providers purely and simply jumped on the hype and understand the Internet as the cloud.

The portfolio of the provider I talked to had the same shape. It includes dedicated server und cloud server, which a few months/ years ago had been named virtual server. These „cloud servers“ are offered as five fixed different variety of configurations incl. 1 to 4 cores, storage and ram for a monthly fee of x EUR/ USD. Not to forget: the deployment period is indicated from 1 to 5 workdays. Further questions revealed that there is no on demand offering and for example no API to manage or start and stop additional server. Additional services or software images around the offering also lack just as a pay as you go model.

Internal structure and strategy: check

Upon request the provider acknowledged that, except for the word itself, the server offerings have nothing to do with cloud computing. But he seems to be on the right way. About a year ago he converted the internal infrastructure to CloudStack to benefit from a better provisioning for the customer servers. But, customers can’t take advantage of it so far. Moreover they switched with KVM to a modern, open and widespread hypervisor. Also the issue of network virtualization was implemented a few weeks ago. On his own admission, the provider already do have a cloud strategy which will give the customers the opportunity to get resources on demand plus a pay as you go model. Since he his now self-aware that it is absolutely necessary.

Nevertheless, considering these experiences each user who seriously wants to go to the cloud should be informed in advance intensively.

Kategorien
Management

DevOps: Führt Cloud Computing zu NoOps?

Neben den Themen Cloud Computing und Big Data zählt das Thema DevOps zu den wichtigsten Themen der nahen Zukunft. Der Begriff DevOps leitet sich von dem Präfix „Dev“ von Softwareentwickler (Developer) sowie dem Suffix „Ops“ von IT-Betrieb (Operations) ab. Zusammengesetzt entsteht damit das Wort DevOps und symbolisiert die enge Zusammenarbeit beider Unternehmensbereiche, also der Softwareentwicklung und dem IT-Betrieb.

Dev vs. Ops

Jede Unternehmens-IT lebt von den eingesetzten Applikationen. Aufgabe der Entwickler (Dev) ist es diese bestehenden Applikationen zu verbessern oder neue zu entwerfen. Der IT-Betrieb (Ops) hat die Aufgabe die für die Entwicklung notwendinge IT-Infrastruktur und Umgebungen bereitzustellen. Beide ziehen also generell am selben Strang, laufen aber dennoch in zwei unterschiedliche Richtungen. Die Entwickler wollen schneller neue Applikationen entwerfen und ausrollen. Der IT-Betrieb lässt gerne alles beim Alten und ist froh, wenn die aktuellen Systeme so stabil laufen (Änderungen könnten zu Problemen führen und das bedeutet Arbeit.)

Neben dem zeitlichen Druck, den beide Bereiche unterlegen sind, verstärkt zudem die Komplexität der modernen IT-Infrastrukturen die beidige Zusammenarbeit. Werden neue Versionen ausgerollt, muss anschließend sichergestellt werden, dass alles weiterhin so funktioniert wie vorher, nur besser. Außerdem hat der Umfang an Applikationen in Unternehmen im Laufe der letzten Jahre stetig zugenommen, die es gilt bestmöglich zu unterstützen sowie die Interoperabilität sicherzustellen.

Automatisierung

Eigentlich brauchen Unternehmen mittlerweile einen Hybriden, der in beiden Welten zu Hause ist, sich also mit der Arbeit der Entwickler auskennt und zugleich den IT-Betrieb versteht. Dieser Hybride sorgt dafür Probleme zu vermeiden und zugleich für Automatisierung und damit eine optimale Planung und Kontrolle. Dieser Hybrid ist der bereits genannte DevOps und muss nicht zwangsläufig eine Person oder ein Team sein. Nein, dabei kann es sich auch um ein Stück Software handeln, die für die Abstimmung des Entwicklungsbereiches und des IT-Betriebs zuständig ist und eine DevOps Strategie völlig autonom implementiert.

Heißt die Cloud Lösung „NoOps“?

Möglicherweise! Erleichtert die Cloud vielleicht das Thema DevOps oder macht es gar obsolet? Klar ist, Entwickler sind in der Cloud nicht mehr maßgeblich auf den IT-Betrieb angewiesen, denn dieser wird durch den Anbieter dargestellt. Im Falle von IaaS (Infrastructure-as-a-Service) behalten wir die aktuelle Situation bei, nur in der Cloud, eben genauso nur anders. Hier muss das entsprechende System, dass auf der Cloud Infrastruktur läuft von einem Team (Operations) betrieben und gewartet werden, wohingegen das andere Team (Developer) das System entwickelt bzw. darauf entwickelt? Oder ist IaaS für die Entwickler mittlerweile sogar so einfach, dass das Operations-Team wegfallen kann? Ganz anders sieht es beim PaaS (Platform-as-a-Service) aus. Hier ist der Bereich Operations zu 100% unwichtig. Die vollständige Plattform und der Stack den die Anwendung benötigt, wird durch den Anbieter bereitgestellt und gewartet, wodurch dieser für den Bereich Operations verantwortlich ist.

So oder so hilft eine (IaaS, PaaS) Cloud Infrastruktur Entwicklern dabei ihre Software automatisiert auszurollen, diese zu überwachen und ebenfalls zu verwalten. Entwickler (Dev) können mit der Cloud also völlig autonom vom IT-Betrieb (Ops) die für die Entwicklung notwendigen IT-Ressourcen selbst bereitstellen und warten. Wo wir beim Thema NoOps sind!


Bildquelle: http://blog.zenoss.com

Kategorien
Management

IaaS: Sie selbst sind für die Hochverfügbarkeit und Skalierbarkeit verantwortlich

Cloud Computing Architekturen unterscheiden sich grundsätzlich von traditionellen Systemmodellen. Aber um die Hochverfügbarkeit, Skalierbarkeit usw. der Cloud tatsächlich zu nutzen, gilt es die Prinzipien des Cloud Computing, aber vor allem die Infrastruktur des jeweiligen Anbieter, speziell im Falle von IaaS (Infrastructure-as-as-Service), bis ins Detail zu durchdringen und bestmöglich für sich und das eigene System zu nutzen.

Die Freude kommt während des Falls

Die jüngsten Ausfälle haben gezeigt, dass viele Nutzer sich nicht mit der Cloud selbst und der des jeweiligen Anbieters auseinandergesetzt haben. Andere hingegen haben direkt von Beginn an viele Anstrengungen unternommen, um ihre Systeme Cloud gerecht zu entwickeln und wurden nicht von plötzlichen bzw. unvorhersagbaren Ereignissen in die Knie gezwungen. Man sollte daher meinen, dass gute Cloud Architekten einen Freudentanz aufführen, wenn der Anbieter dann doch einmal unerwartet Probleme hat und sie sich mit ihren eigenen robusten System brüsten können.

Da gibt es doch bestimmt Lessons Learned

Wenn man selbst keine Ahnung, dann fragt man jemanden der sich damit auskennt oder schaut im besten Fall, wie die anderen mit solchen Szenarien umgehen.

Bevor sich ein Unternehmen also in die Cloud begibt, sollten die Verantwortlichen also viel Zeit damit verbringen, das System des Anbieters zu verstehen und zunächst Test-Systeme innerhalb der Infrastruktur aufzubauen, bevor es in den Produktivbetrieb geht.

Everything fails everytime

Als Verantwortlicher sollte man sich immer bewusst machen, dass irgendetwas zu jedem Zeitpunkt immer einen defekt erleiden kann. Und genau so sollte auch die Architektur des Systems auf der Cloud entwickelt werden. Jedes System muss unabhängig von den anderen Systemen einwandfrei funktionieren. Das bedeutet, dass jedes System innerhalb der verteilten Architektur so entwickelt werden muss, dass es darauf vorbereitet ist, den Ausfall anderer Teilsysteme, zu denen Abhängigkeiten bestehen, zu tolerieren.

Eigene Tools für den Betrieb des Systems

On-Demand Video Anbieter Netflix hat für den Betrieb seines Systems in der Amazon Cloud eine Reihe von eigenen Tools entwickelt, die sicherstellen, dass das Angebot zu jederzeit verfügbar ist und Instanzen, die nicht mehr einwandfrei funktionieren ausgetauscht werden. So zerstört bspw. der Chaos Monkey zufällig Instanzen und Services innerhalb der Architektur, um damit den unabhängigen Betrieb der einzelnen Komponenten fortlaufend zu testen. Der Chaos Gorilla geht sogar noch einen Schritt weiter und simuliert den kompletten Ausfall einer Amazon Availability Zone, um damit zu prüfen, dass die Systeme in einer anderen Zone die Aufgaben übernehmen.

Anforderungen und Bedürfnisse klären

Der Betrieb in einer Cloud unterscheidet sich vollständig von dem in einem traditionellen Rechenzentrum. Hochverfügbarkeit und Skalierbarkeit werden per se von einer Cloud Infrastruktur erwartet, ein Hirngespinst, dass sich noch in vielen Köpfen von Verantwortlichen befindet. Richtig ist, dass der Anbieter für die Hochverfügbarkeit seiner Infrastruktur sorgen muss. Allerdings hat er mit den Systemen, die von den Kunden auf der Cloud betrieben werden nichts zu tun.

IT-Verantwortliche müssen sich daher die Fragen stellen, wie moderne Architekturen in der Cloud sicher aufgebaut und betrieben werden können und welche Auswirkungen dies auf die Planungs- und Betriebs-Prozesse hat. Schlussendlich wird sich aber ebenfalls die Komplexität der Architektur erhöhen, wenn die Applikationen und Systeme in die Cloud verlagert werden.


Bildquelle: ©Gerd Altmann / PIXELIO

Kategorien
Analysen

Wer als IaaS-Anbieter zu Amazon konkurrenzfähig sein will muss mehr als nur Infrastruktur im Portfolio haben

Immer mehr Anbieter versuchen ihr Glück im Bereich Infrastructure-as-a-Service (IaaS) und wollen dem Platzhirsch Amazon Web Services (AWS) ein Stück vom Kuchen abnehmen. GigaOm hat bereits die Frage gestellt, ob es eine AWS Kopie aus Europa geben wird, die ähnlich wie Amazon in den USA den europäischen Markt dominieren wird. Sie kamen zu einem klaren Nein. Ich bin ebenfalls der Meinung, dass es in naher Zukunft keine nennenswerte Konkurrenz aus Europa geben wird. Ich gehe sogar einen Schritt weiter und gehe davon aus, dass es weltweit derzeit keinen Anbieter gibt und erst einmal geben wird, der – Stand heute – Amazon das Wasser reichen kann. Denn anders als es GigaOm macht, muss man den Cloud Markt global betrachten. Es gibt auf Grund der Strukturen grundsätzlich keine regional begrenzte Cloud. Jeder Nutzer kann sich weltweit bedienen. Es sei denn ein Anbieter entscheidet sich strikt dagegen. Das gibt es sogar – in Deutschland. Ich möchte Amazon an dieser Stelle keinen Freifahrtsschein ausstellen, aber für den Mitbewerb wird es sehr schwierig im IaaS Bereich diesen Marktanteil zu erreichen.

Der Markt ist groß genug aber…

Der IaaS Markt ist groß genug und bietet genug Platz für mehrere Infrastruktur-Anbieter. Jedoch sollte man sich vor Augen halten, wer sich derzeit für die Public Cloud und wer für die Private Cloud entscheidet. Danach lohnt sich ein Blick auf die Angebote der jeweiligen IaaS Anbieter, um die Spreu vom Weizen zu trennen. Dann wird auch klar, warum Amazon die Nase vorn hat und es für Neulinge schwer werden wird, wenn sie sich einfach nur auf reine Infrastruktur konzentrieren. So mancher Anbieter versucht gegen Amazon zum Beispiel mit einer höheren (Netzwerk)-Performance anzutreten. Das ist sicherlich ein netter Versuch, aber kein ausschlaggebendes Argument.

Public Cloud: Entwickler & Startups

Die Public Cloud wird bevorzugt von Entwicklern und Startups genutzt, die auf Basis des unkomplizierten Ressourcenbezugs und dem pay per use Modell ihre Geschäftsmodelle aufbauen. Mein Lieblingsbeispiel ist Pinterest, die nach eigener Aussage ohne Cloud Computing nicht so erfolgreich sein könnten. Das lag zum einem an der Möglichkeit stetig zu wachsen und die Ressourcen den Bedürfnissen nach zu erweitern ohne das Kapital für eine eigene riesige Serverfarm zu besitzen. Auf der anderen Seite hat die Cloud es Pinterest ermöglicht, effizient zu arbeiten und kostengünstig zu experimentieren. Zudem konnte die Webseite sehr schnell wachsen, während sich nur ein sehr kleines Team um die Wartung kümmern musste. Im Dezember beschäftigte Pinterest insgesamt nur 12 Mitarbeiter.

Private Cloud: Unternehmen

Viele etablierte Unternehmen stellen das Thema Datenschutz respektive Sicherheit über die hohen Investitionskosten und Wartungskosten einer Private Cloud. Hinzu kommt, dass ich in Gesprächen immer wieder höre, dass „eh bereits Investitionen in Hard-/ Software getätigt wurden“ und das nun noch ausgenutzt werden muss. Laut einer Gartner Umfrage planen 75% der Befragten bis 2014 eine Strategie in diesem Bereich. Bereits viele unterschiedliche Unternehmen haben Private Cloud Lösungen in Pilot-Projekten und im produktiven Betrieb im Einsatz. Dabei ist das Hauptziel, für sich den größten Nutzen aus der Virtualisierung zu ziehen.

Infrastruktur bedeutet mehr als nur Infrastruktur

Den Fehler den – vor allem – neue IaaS Anbieter machen ist, sich nur auf reine Infrastruktur zu konzentrieren. Das bedeutet, sie bieten nur die typischen Ressourcen wie Rechenleistung, Speicherplatz, Betriebssystem-Images, weitere Software und Lösungen wie Datenbanken an. Das mag vom IaaS Grundgedanken her auch alles richtig sein, reicht aber mittlerweile nicht mehr aus, um gegen Amazon zu bestehen.

Services, Services, Services

Schaut man sich das Angebot der Amazon Web Services genauer an, besteht es mittlerweile aus viel mehr als nur virtuellen Ressourcen, Rechenleistung und Speicherplatz. Es handelt sich dabei um ein umfangreiches Service-Portfolio, welches stetig und mit einem riesen Tempo ausgebaut wird. Alle Services sind ineinander vollständig integriert und bilden ein eigenes Ökosystem, mit dem ein eigenes Rechenzentrum aufgebaut und komplexe Anwendungen entwickelt und gehostet werden können.

Entwickler sind Amazons Jünger

Auf Grund dieses in sich stimmigen Angebots ist Amazon eine beliebte Anlaufstelle für Entwickler und Startups, die hier viele Möglichkeiten finden, ihre eigenen Ideen umzusetzen. Ich habe über diese Situation schon kritisch geschrieben und bleibe dabei, dass Amazon sich ebenfalls verstärkt auf die Bedürfnisse von Unternehmen konzentrierten sollte. Dennoch sind Entwickler derzeit Amazons Trumpf, welche den Cloud Anbieter zum führenden IaaS weltweit machen.

Komfort

Was AWS derzeit fehlt ist der Komfort. Hier setzen neue Anbieter an und bündeln mit „Infrastructure-as-a-Platform“ Lösungen verschiedene IaaS Ressourcen wie Rechenleistung, Speicherplatz, Netzwerkkomponenten usw. und ermöglichen Unternehmen damit den Aufbau eines eigenen Rechenzentrum on-Demand, also ein “Data-Centre-as-a-Service” (DCaaS). In diesem Bereich muss Amazon damit beginnen aufzuholen und ihren bestehenden und neuen Kunden mehr Convenience bieten, mit der diese die Infrastrukturen bequemer nutzen können und während der Konfiguration zudem weniger Zeit und Expertenwissen benötigen. Denn insbesondere IT-Abteilungen von kleinen- und mittelständischen Unternehmen werden in Zukunft auf diesen Komfort achten.

Schwer aber nicht unmöglich

Amazon gehört zu den Cloud Anbietern der ersten Generation und es gibt Bereiche in denen sie aufholen müssen. Aber das Konzept ist sehr ausgefeilt. Unter der Haube sind sie möglicherweise technologisch nicht mehr auf dem neuesten Stand. Aber die Frage ist, wie sehr es einen Kunden interessiert, ob nun Technologie A oder Technologie B in der „Blackbox“ eingesetzt wird, solange die Services zur Verfügung stehen, mit denen das verfolgte Ziel realisiert werden kann. Zudem lassen sich bestimmte Technologien auf Grund der losen Kopplung der Infrastruktur und der Services (Building Blocks) austauschen.

Wie ich oben geschrieben habe, ist der Markt groß genug und nicht alle Unternehmen werden zu Amazon gehen. Ich möchte nur darauf aufmerksam machen, dass es mittlerweile nicht mehr reicht, sich nur auf die grundlegenden IaaS-Eigenschaften zu konzentrieren, wenn man ein IaaS-Angebot gegen Amazon in den Ring schickt. Ich hatte vor längerer Zeit die Amazon Web Services der Google Cloud Platform (AWS vs. Google Cloud) bzw. Microsoft Windows Azure (AWS vs. Azure) gegenübergestellt. Beide sind für mich diejenigen Public IaaS Anbieter, die derzeit in der Lage sind, aufzuholen. Allerdings sieht man besonders an Googles Tabelle, dass an einigen Stellen noch so manche Service-Lücken bestehen.


Bildquelle: ©Stephanie Hofschlaeger / PIXELIO

Kategorien
Management

Der Weg in die Cloud startet mit dem richtigen Use Case

Der Übergang von on-Premise hinzu Cloud basierten Lösungen stellt Unternehmen vor Herausforderungen. Sollen die bestehenden Systeme 1:1 migriert oder die Chance genutzt werden, um einen Neuanfang zu starten und nur die Daten übernommen werden. Es stellt sich hier also die Frage, wie existierende Anwendungen in die Cloud migriert werden. So oder so muss sich allerdings das Architekturmodell der bestehenden Systeme und Anwendungen vollständig vom statischen zu dynamischen/ skalierbaren Modellen zzgl. Multi-Tenancy Fähigkeiten verändern, um die wahren Möglichkeiten der Cloud zu nutzen.

Eine Infrastruktur bietet die meisten Freiheiten

Die größten Herausforderungen erleben Unternehmen bei der Nutzung des Infrastructure-as-a-Service (IaaS), da ihnen hier von einem Public Cloud Anbieter „nur“ virtuelle Ressourcen bereitgestellt werden, um auf dieser Basis eine eigene virtuelle Infrastruktur aufzubauen, auf der sie ihre eigenen Systeme hinsichtlich Hochverfügbarkeit aber vor allem mit einer enormen Skalierbarkeit aufzubauen. Ein Nutzer darf sich hier zudem maximal darauf verlassen, dass der Anbieter dafür sorgt, dass die durch im bereitgestellte Infrastruktur zu einem bestimmten Service Level zur Verfügung steht. Um alle weiteren Themen, wie die Wartung der virtuellen Ressourcen und den darauf betriebenen Software, Services und Systemen muss sich der Nutzer selbst kümmern. Ebenso das Sicherstellen der Hochverfügbarkeit der eigenen Systeme und Applikationen fällt in den Aufgabenbereich des Kunden.

Eine Plattform erleichtert die Administration

Ein Stückweit mehr Verantwortung gibt der Nutzer an einen Anbieter ab, wenn er sich für einen Platform-as-a-Service (PaaS) entscheidet. Wie der Name bereits sagt, stellt ein Anbieter eine vollständige Plattform inkl. einem umfangreichen Systemstack zur Verfügung. Ein Nutzer kann sich hier gezielt auf die Entwicklung seiner Anwendung konzentrieren und muss sich nicht, anders als beim IaaS, um die darunter liegende Infrastruktur kümmern. PaaS gilt als die Serviceart mit dem größten Wachstumspotential und den vielfältigsten Möglichkeiten für die kommenden Jahre. Ein Blick auf die PaaS der ersten Stunde unterstreicht diese These. Haben die meisten Anbieter zu Beginn nur eine Programmiersprache unterstützt, kamen im Laufe der Zeit immer weitere Sprachen hinzu, wodurch ein Nutzer mittlerweile aus einer Vielfalt an Sprachen wählen kann, um seine Applikationen in die Cloud zu migrieren bzw. dort neue Ideen zu verwirklichen.

Standardisierte Applikationen

Bei der Nutzung von Applikationen auf Basis von Software-as-a-Service (SaaS) hat der Nutzer am wenigsten bis keinen Einfluss auf das Angebot. Anhand von standardisierten Applikationen wird er von dem Anbieter mit fertigen und in der Regel nicht anpassbaren Lösungen versorgt. Anders als bei IaaS und PaaS, ist ein SaaS Anbieter für den gesamten, einwandfreien Betrieb der Anwendungen verantwortlich. Der Nutzer muss sich hier also um die nicht zu unterschätzende Aufgabe kümmern, wie er seine Daten in die SaaS Applikation migriert, bzw. exportiert, wenn er das Angebot nicht mehr nutzen möchte. An dieser Stelle sollte der Anbieter entsprechende Schnittstellen zu on-Premise Systemen bzw. gängigen Formaten bereitstellen.

Der Use Case ist entscheidend

Für wen welche Art der Cloud Nutzung in Frage kommt, muss jedes Unternehmen individuell evaluieren. Es geht also grundsätzlich um die Frage, für welche Systeme und Plattformen eine Migration in die Cloud besonders sinnvoll ist und welche Serviceart geeignet ist. Über gut dokumentierte APIs sollte ein Anbieter seine Kunden dabei unterstützen, die Cloud bestmöglich für ihre Anforderungen zu nutzen.


Bildquelle: ©Erika Hartmann / PIXELIO

Kategorien
News

Build 2012: Microsoft baut Windows Azure weiter aus

Während seiner Entwicklerkonferenz Build 2012 auf seinem Campus in Redmond hat Microsoft weitere Erneuerung für seine Cloud Computing Plattform Windows Azure vorgestellt. Mit Windows Azure steht Entwicklern u.a. ein Backend für Windows 8 und Windows Phone 8 Apps zur Verfügung, mit dem sie auch geschäftskritische Anwendungen entwickeln, bereitstellen, verwalten und je nach Bedarf und Aufkommen skalieren können.

build 2012: Microsoft baut Windows Azure weiter aus

Windows Azure Neuigkeiten auf einem Blick

Windows Azure als Back-End für das PC-Game Halo 4

Der Mehrspieler Modus des PC-Games Halo 4 basiert künftig auf Windows Azure, so dass die Spieler weltweit eine robuste und kosteneffiziente Plattform zur Skalierung ihres online-games erhalten. Sie können ihre Spiel dann beliebig erweitern oder begrenzen.

Erweiterter Support für Windows Azure Mobile Service

Windows Azure Mobile Services wird künftig auch Windows Phone 8 unterstützen, ergänzend zu den bereits vorhandenen Optionen für Windows 8 Clients und iOS. Entwickler können so künftig leicht Windows 8 Mobile Apps über Windows Azure verbinden.

Erweiterung der Programmiersprachen für Windows Azure

Windows Azure Web Sites unterstützt nun auch Python und bietet Anwendern damit die Wahlfreiheit, Apps in der von ihnen favorisierten Programmiersprache zu entwickeln.

Vorschau auf den Windows Azure Store

Die Vorschau auf den Windows Azure Store bietet einen ersten Einblick in die verschiedenen App Services, dazu zählt das Monitoring ebenso wie Skalierbarkeit oder eMailing und Datenbanken. Unter folgendem Link gibt es weitere Informationen: www.windowsazure.com/store.

Team Foundation Service Availability

Team Foundation Service, eine Lifecycle Management Lösung ist nun offiziell verfügbar. Team Foundation Service umfasst moderne Tools für die flexible und agile Projektplanung und das Projektmanagement, wie die Versionsverwaltung, automatisierte Entwicklungsumgebung und Tools für die automatisieret Bereitstellung der Lösung.

Kategorien
Analysen

Klassische Webhoster und ihr Kampf mit Infrastructure-as-a-Service

Vor ein paar Tagen hatte ich ein Briefing mit einem europäischen Webhoster, der mir seine Produktlinie, strategische Ausrichtung usw. vorgestellt hat. Ich möchte das Wort Cloudwashing dabei ungerne wieder in den Mund nehmen. Allerdings hat mir das Gespräch erneut gezeigt, dass typische Webhostinganbieter massive Probleme haben, ein echtes Infrastructure-as-a-Service (IaaS) Angebot aufzubauen.

Schwierigkeiten mit der Moderne

Es ist genau das, was ich bei so manchen Anbietern von „Cloud“ Lösungen feststellen muss. Dabei handelt es sich überwiegend um klassische Webhoster, die den Cloud Zug nicht verpassen wollten und schnell ihr Portfolio AUF DEM PAPIER Cloud-fähig gemacht haben. Es gibt wohlgemerkt Ausnahmen, diese sind aber äußerst selten. An dieser Stelle wird schlicht und einfach auf den Hype aufgesprungen und das Internet als Cloud verstanden.

Genau so zeigte sich auch das Portfolio des Anbieters, mit dem ich gesprochen habe. Es gibt Dedicated Server und Cloud Server, die vor ein paar Monaten/ Jahren noch Virtual Server hießen. Diese „Cloud Server“ gibt es als fünf unterschiedliche fixe Konfigurationsstufen mit entsprechendem 1 bis 4 Cores, Speicherplatz und RAM zu einem monatlichen Preis von x EUR. Nicht zu vergessen, dass die Bereitstellungszeit mit 1 bis 5 Werktagen angegeben wird. Weitere Nachfragen ergaben dann, dass kein on-Demand Bezug möglich ist und keine API zum Verwalten bzw. Starten und Stoppen weiterer Server zur Verfügung steht. Ebenfalls existieren keine weiteren Services oder Software Images die um das Angebot herum bestehen und die Ressourcen nicht pro Verbrauch abgerechnet werden können.

Wie die Eigenschaften eines Cloud Angebots ausschauen sollte steht hier.

Interne Struktur und Strategie vorhanden

Man muss dem Anbieter zugestehen, dass er auf Nachfrage eingestehen musste, dass bis auf das Wort selbst in den Serverangeboten, nicht sehr viel Cloud steckt. Allerdings befindet er sich auf dem richtigen Weg. Vor ca. einem Jahr wurde die interne Infrastruktur auf CloudStack umgestellt, um für sich selbst die Provisionierung der Kunden-Server zu optimieren. Davon können die Kunden bisher jedoch nicht profitieren. Zudem wurde mit KVM auf einen modernen, offenen und weit verbreiteten Hypervisor gesetzt und ebenfalls das Thema Netzwerkvirtualisierung wurde vor ein paar Wochen umgesetzt. Nach eigener Aussage sei ebenfalls eine Strategie vorhanden, in Kürze den Kunden einen on-Demand Bezug einzelner Ressourcen sowie Pay per use als Bezahlmodell anzubieten, da man sich mittlerweile selbst im Klaren darüber sei, dass dies zwingend erforderlich ist.

Dennoch, angesichts dieser Erfahrungen sollte sich jeder Nutzer, der ernsthaft in die Cloud gehen möchte, vorab intensiv informieren.


Bildquelle: ©Harald Fischer / PIXELIO

Kategorien
Kommentar

Schuldzuweisungen in Zeiten des Cloud Computing

Gestern ist mir wieder ein Tweet über den Weg gelaufen, der nicht nachvollziehbar ist. Der Bilderservice Mobypicture twittert „Mobypicture is currently unavailable because of system maintenance by Amazon….“. Währenddessen waren auf dem Statusboard der Amazon Web Services unter http://status.aws.amazon.com keine Auffälligkeiten erkennbar. Der Mobypicture Service hingegen war nicht erreichbar. Ich werde hier Amazon nicht verteidigen. Aber die Schuld per Tweet einfach auf den Anbieter zu schieben, scheint mir dann doch zu einfach. Es scheint eher so, dass Mobypicture die Möglichkeiten der AWS Cloud nicht kennt bzw. diese nicht nutzt – wie schon Instagram.

Wer ist denn „schuld“ in der Cloud?

Das kommt darauf an. Nämlich unter anderem davon, was von der Cloud Infrastruktur bzw. dem Cloud Service ausfällt. Bei SaaS als auch PaaS sind mir als Nutzer weitestgehend die Hände gebunden. Beim IaaS halte jedoch ich größtenteils die Fäden selbst in der Hand und muss dafür sorgen, dass meine Applikation auf der Infrastruktur einwandfrei arbeitet. Selbst dann, wenn die darunterliegende Infrastruktur Stückweit ausfällt. Dafür gibt es Mittel und Wege. Wenn ich alles daheim im eigenen Rechenzentrum mache, sorge ich schließlich auch für Redundanz und kann maximal mit dem Finger auf bspw. die kaputte Festplatte zeigen. In der Cloud stehen mir aber deutlich mehr Möglichkeiten zur Verfügung. Extrem(!) gesagt dürfte eine eigene Applikation erst dann ausfallen, wenn die gesamte IaaS-Cloud eines Anbieters ausfällt.

Mehr Eigenverantwortung bitte!

Es ist nicht das erste Mal, dass ich das schreibe. „Beim Cloud Computing geht es um Selbstverantwortung.

Mehr Eigenverantwortung und IaaS bedeutet, darauf zu achten die Möglichkeiten der verteilten Cloud Infrastruktur zu nutzen und die Architektur der Applikation genau diesen Begebenheiten anzupassen und diese dafür zu entwickeln. Stichworte: Parallelität, Skalierbarkeit usw.

Im Falle der Amazon Web Services bedeutet dies:

  • Nicht nur eine virtuelle Maschine einsetzen.
  • Sich nicht nur auf eine Availability Zone verlassen.
  • Nicht nur eine Region nutzen.
  • Eine Multivendor Strategie in Betracht ziehen.

Dann sieht es schon anders aus.


Bildquelle: http://www.akademische.de

Kategorien
Analysen

Profitbricks: "Live Vertical Scaling" und die Krux mit der Parallelität

Ich hatte über Profitbricks, direkt nach deren Go-Live im Mai, geschrieben. Dabei ist das Unternehmen nicht unbedingt gut bei weggekommen. Denn ein „Infrastructure-as-a-Service (IaaS) der nächsten Generation“ konnte ich da noch nicht erkennen. Eine grafische Bedienoberfläche, freie Vernetzungsstrukturen durch echte Isolation des Kundennetzwerks im virtuellen Rechenzentrum, vermaschte redundante Vernetzung mit Infiniband, maßgeschneiderte Server und ein hochredundanter Storage, zeugen unter dem besagten Titel von mehr Marketingexpertise als großer Innovation. Ich habe mir das Angebot einmal genauer angeschaut und bin positiv überrascht. Insbesondere die Funktion „Live Vertical Scaling“ überzeugt. Allerdings steckt der Teufel im Detail.

Scale Up vs. Scale Out

Skalierbarkeit bedeutet, dass die Leistung eines Systems durch das Hinzufügen weiterer Ressourcen wie ganzer Rechnersysteme oder granularer Einheiten wie CPU und Arbeitsspeicher erhöht wird. Das System kann dann mit zunehmender beanspruchter Leistung linear mitwachsen. So lassen sich z.B. plötzliche Lastspitzen begegnen unter denen das System nicht zusammenbricht. Unterschieden wird dabei zwischen dem Scale Up und dem Scale Out.

Scale Up

Während eines Scale Up, auch vertikale Skalierung genannt, wird die Leistung des Systems gesteigert, indem weitere granulare Ressource zu einem Rechnersystem hinzugefügt werden. Dabei kann es sich um Speicherplatz, CPUs oder Arbeitsspeicher handeln. Man kann auch sagen, ein einzelner Rechner wird mit weiteren bzw. Leistungsstärkeren Komponenten aufgerüstet.

Scale Out

Ein Scale Out, horizontale Skalierung, steigert die Leistung eines Systems, indem weitere vollständige Rechner zu dem Gesamtsystem hinzugefügt werden. Man kann sich das Szenario auch so vorstellen, dass man sich einen Cluster von Rechnern aufbaut, über den skaliert wird, indem der Cluster immer um die benötigte Anzahl an Rechnern erweitert wird.

Live Vertical Scaling

Ich weise immer darauf hin, dass Anwendungen für die Eigenschaften einer Cloud entwickelt werden müssen. Also mit der Infrastruktur parallel mitwachsen müssen, wenn sich die Last verändert und weitere virtuelle Ressourcen automatisch hinzugefügt werden müssen.

Profitbricks hat nun das „Live Vertical Scaling“ vorgestellt und geht anders als bspw. die Amazon Web Services (AWS), Rackspace oder Windows Azure den Weg der vertikalen Skalierung. Die anderen drei genannten Anbieter setzen hingegen auf die horizontale Skalierung. Profitbricks beschreibt seine Lösung wie folgt:

Das Besondere dabei: Das System, beispielsweise ein Server, kann auf diese Art quasi unabhängig von der verwendeten Software und ohne deren Modifikation beschleunigt werden. Ideal ist dies beispielsweise für LAMP (Linux, Apache, MySQL, PHP)-Systeme, da MySQL ohne Anpassung die neuen Ressourcen erkennt und ohne Neustart vom Mehr profitiert.

Grundsätzlich hat Profitbricks recht. Nicht jede Software ist so implementiert, insbesondere die Legacy Anwendungen, dass sie skalierbar sind. Das hängt damit zusammen, dass diese Anwendungen nicht für den parallelen Betrieb auf mehreren Systemen entwickelt wurden. Für eine vertikale Skalierung ist, bis zu einem gewissen Grad, keine parallele Entwicklung notwendig, d.h. im Prinzip muss der Programmcode in diesem Fall nicht mehr angefasst werden, um die Leistung zu erhöhen.

Die Probleme stecken im Detail

Aber, der Teufel steckt im Detail.

Parallelität der Softwarearchitektur

Eine Anwendung muss mehrere Cores unterstützen, um die Leistungsfähigkeit des Rechners auszunutzen. Diese Problematik viel auf, als Intel seine Core 2 Duo Prozessoren auf den Markt brachte. Die Rechner verfügten zwar über zwei CPU-Kerne, die alten Anwendungen unterstützen aber nur einen. Der Vorteil eines zweiten CPU-Kerns war somit dahin. Das bedeutet, dass eine Anwendung auch auf die vertikale Skalierung vorbereitet werden muss. Was nützt es, wenn der Server bis zu 48 CPU-Kerne unterstützt, die Anwendung aber lediglich einen einzigen nutzen kann.

Die Software muss also, trotz vertikaler Skalierung, parallelisiert werden. Denn die Leistungssteigerung hängt effektiv mit dem Parallelisierungsgrad der Anwendung und dem Betriebssystem zusammen. Das Betriebssystem sorgt für das Verteilen der Prozesse und Anwendungen auf die jeweiligen Kerne. Die Anwendung muss für den Betrieb auf mehreren Prozessen zudem so parallelisiert werden, dass einzelne Threads dabei gleichzeitig auf mehreren Prozessoren laufen.

Profitbricks schreibt: „Bei anderen IaaS-Anbietern muss der Nutzer seine Server erst herunter fahren, dann die neuen Ressourcen buchen und die Systeme anschließend neustarten. Selbst im besten Fall kommt es hierbei zu einem Ausfall der Server von einigen Minuten, so dass derartige Modifikationen ohne Live Vertical Scaling nur in den Nachtstunden machbar sind.

Das ist falsch. Bei AWS, Rackspace als auch Windows Azure lassen sich die Systeme per API/ Skripte steuern. Es können also weitere Ressourcen per Scale Out ohne Unterbrechungen hinzugefügt werden. Soll eine virtuelle Ressource ausgetauscht werden, lassen sich zunächst automatisch neue Ressourcen hinzufügen und anschließend die nicht mehr gewollten herunterfahren. Und das alles ohne Ausfallzeit.

Profitbricks nennt hier als Beispiel definitiv keine IaaS Cloud-Anbieter. Denn das geschilderte Szenario darf im Cloud Computing so überhaupt nicht auftreten!

Was ist mit Design for Failure?

Profibricks schreibt zwar, „Stehen auf dem physischen Server, auf dem eine bestimmte Kunden-VM läuft, nicht genügend Ressourcen bereit, um den per DCD gewünschten Wert zu erfüllen, verschiebt der von ProfitBricks verwendete Hypervisor die virtuelle Maschine automatisch auf einen anderen Server. Dies passiert, ohne die jeweils in der VM laufenden Anwendungen negativ zu beeinflussen.

Aber wie verhält es sich, wenn der darunterliegende physikalische Host oder die virtuelle Maschine, auf der sich die Anwendung befindet ausfällt? Da sich die Anwendung lediglich auf einem einzigen System befindet und nicht über mehrere Systeme verteilt läuft, wäre ein Ausfall die Folge.

Interessante Lösung, aber…

„Live Vertical Scaling“ ist auf jedenfall eine interessante Lösung. Profitbricks versucht Infrastructure-as-a-Service (IaaS) für Anwender benutzerfreundlicher zu machen, womit sie auf dem richtigen Weg sind. Denn für die meisten IaaS-Angebote sind noch zu viele Expertenkenntnisse notwendig und manuelle Arbeit erforderlich. Einfache Automatisierung und Convenience sind die Schlagworte. Aber wie ich beschrieben habe, steckt der Teufel im Detail. Man sollte sich also zunächst über seine eigenen Bedürfnisse und die der Anwendung im Klaren sein, bevor man sich für die vertikale Skalierung entscheidet.


Bildquelle: http://krishnasblog.com