Kategorien
Events

Cloud Computing ist angekommen. Ein Review des CloudOps Summit 2012

Der CloudOps Summit 2012 in Frankfurt hat gezeigt, dass Cloud Computing endgültig auch in Deutschland angekommen ist. Wer die Cloud weiterhin als einen bald vergessenen Hype abstempelt oder sich ihr verwehrt, wird es in der Zukunft schwer haben, mit dem nationalen und internationalen Wettbewerb mitzuhalten. Das hat der CloudOps Summit eindrucksvoll bewiesen.

Cloud Computing ist angekommen. Ein Review des CloudOps Summit 2012

Transition – Build & Run – Skills

Die Veranstaltung begann mit einem Vortragsmarathon von zwei Keynotes (Tim O’Brien (Microsoft) und Harrick Vin (TCS Consultancy)) sowie zehn Lightning Talks (6 minütige Kurzvorträge) aus den Bereichen „Transition“, „Build & Run“ und „Skills“. Also wie man sich in die Cloud bewegt, darin erfolgreich bleibt und welches Wissen dafür benötigt wird. Nach einer Pause starteten zu diesen Bereiche spezifische Workshops (Vorträge je 30 Minuten).

Transition

Der Übergang von on-Premise hinzu Cloud basierten Lösungen stellt Unternehmen vor Herausforderungen. Sollen die bestehenden Systeme 1:1 migriert oder die Chance genutzt werden, um einen Neuanfang zu starten und nur die Daten übernommen werden. Es stellt sich hier also die Frage, wie existierende Anwendungen in die Cloud migriert werden. So oder so muss sich allerdings das Architekturmodell der bestehenden Systeme und Anwendungen vollständig vom statischen zu dynamischen/ skalierbaren Modellen zzgl. Multi-Tenancy Fähigkeiten verändern, um die wahren Möglichkeiten der Cloud zu nutzen.

Build & Run

Cloud Computing Architekturen unterscheiden sich grundsätzlich von traditionellen Systemmodellen. Aber um die Hochverfügbarkeit, Skalierbarkeit usw. der Cloud tatsächlich zu nutzen, gilt es die Prinzipien des Cloud Computing, aber vor allem die Infrastruktur des jeweiligen Anbieter, speziell im Falle von IaaS, bis ins Detail zu durchdringen und bestmöglich für sich und das eigene System zu nutzen.

Cloud Skills

Cloud Computing erfordert den Aufbau neuer Kenntnisse, um mit den neuen Herausforderungen zurecht zu kommen und die Eigenschaften, welche die Cloud bietet, bestmöglich zu nutzen. Insbesondere die IT-Abteilungen werden sich verändern. Zwar wird es künftig weiterhin Systemadministratoren geben, jedoch wird die Anzahl schwinden und diejenigen, die übrig bleiben, werden durch die Cloud bei der Ausführung ihrer Tätigkeit unterstützt und werden diese dadurch besser ausführen.

Cloud Computing Round Table mit Top-Experten

Im Rahmen der Veranstaltung saß ich mit weiteren Cloud Computing Experten wie CSC Innovation Head Mark Masterson, arago CEO Chris Boos, TCS Researcher Harrick Vin sowie Microsoft Cloud Platform Stratege Tim O’Brien zusammen. Als Journalist war exklusiv „Wirtschaftsinformatik“ Chefredakteur Peter Pagel vertreten, der dazu einen Artikel geschrieben hat.

Bilder, Videos und Präsentationen

Neben einigen Photos, wurde jeder Vortrag zudem per Video aufgezeichnet. Auch die Slides stellen die Veranstalter jedem im Nachhinein zur Verfügung. Sämtliche Inhalte können unter den folgenden Links abgerufen werden.

Cloud Computing ist gekommen um zu bleiben

Der CloudOps Summit 2012 hat bestätigt, dass das Thema Cloud Computing auch in deutschen Unternehmen für Interesse sorgt. Der Wandel ist bereits eingeleitet und es spricht derzeit nichts mehr dafür, dass Cloud Computing aufgehalten werden kann und sollte. Jedes Unternehmen ist daher angehalten, sich mit den Chancen und Potenzialen des Cloud Computing auseinanderzusetzen und die individuellen Risiken abzuwägen. Denn der Mitbewerb ist bestimmt bereits dabei dies zu tun.

Kategorien
Kommentar

Schuldzuweisungen in Zeiten des Cloud Computing

Gestern ist mir wieder ein Tweet über den Weg gelaufen, der nicht nachvollziehbar ist. Der Bilderservice Mobypicture twittert „Mobypicture is currently unavailable because of system maintenance by Amazon….“. Währenddessen waren auf dem Statusboard der Amazon Web Services unter http://status.aws.amazon.com keine Auffälligkeiten erkennbar. Der Mobypicture Service hingegen war nicht erreichbar. Ich werde hier Amazon nicht verteidigen. Aber die Schuld per Tweet einfach auf den Anbieter zu schieben, scheint mir dann doch zu einfach. Es scheint eher so, dass Mobypicture die Möglichkeiten der AWS Cloud nicht kennt bzw. diese nicht nutzt – wie schon Instagram.

Wer ist denn „schuld“ in der Cloud?

Das kommt darauf an. Nämlich unter anderem davon, was von der Cloud Infrastruktur bzw. dem Cloud Service ausfällt. Bei SaaS als auch PaaS sind mir als Nutzer weitestgehend die Hände gebunden. Beim IaaS halte jedoch ich größtenteils die Fäden selbst in der Hand und muss dafür sorgen, dass meine Applikation auf der Infrastruktur einwandfrei arbeitet. Selbst dann, wenn die darunterliegende Infrastruktur Stückweit ausfällt. Dafür gibt es Mittel und Wege. Wenn ich alles daheim im eigenen Rechenzentrum mache, sorge ich schließlich auch für Redundanz und kann maximal mit dem Finger auf bspw. die kaputte Festplatte zeigen. In der Cloud stehen mir aber deutlich mehr Möglichkeiten zur Verfügung. Extrem(!) gesagt dürfte eine eigene Applikation erst dann ausfallen, wenn die gesamte IaaS-Cloud eines Anbieters ausfällt.

Mehr Eigenverantwortung bitte!

Es ist nicht das erste Mal, dass ich das schreibe. „Beim Cloud Computing geht es um Selbstverantwortung.

Mehr Eigenverantwortung und IaaS bedeutet, darauf zu achten die Möglichkeiten der verteilten Cloud Infrastruktur zu nutzen und die Architektur der Applikation genau diesen Begebenheiten anzupassen und diese dafür zu entwickeln. Stichworte: Parallelität, Skalierbarkeit usw.

Im Falle der Amazon Web Services bedeutet dies:

  • Nicht nur eine virtuelle Maschine einsetzen.
  • Sich nicht nur auf eine Availability Zone verlassen.
  • Nicht nur eine Region nutzen.
  • Eine Multivendor Strategie in Betracht ziehen.

Dann sieht es schon anders aus.


Bildquelle: http://www.akademische.de

Kategorien
Analysen

"Infrastructure-as-a-Platform" mit mehr Komfort in die Cloud

Die Zukunft der Unternehmens-IT liegt im X-as-a-Service. Vor allem Infrastructure-as-a-Services ermöglichen den schnellen Zugriff auf Rechen- und Speicher-Ressourcen und erfreuen sich immer größerer Beliebtheit. Was jedoch vielen Angeboten fehlt ist die sogenannte „Convenience“, also die bequeme Konfiguration der Infrastruktur. Der Hamburger Managed Hosting Anbieter internet4YOU geht neue Wege und erfindet den Bereich „Infrastructure-as-a-Platform (IaaP)„. Vor allem für kleine- und mittelständische Unternehmen, die nicht über das notwendige IT-Know-How verfügen, um sich Standard IaaS Ressourcen zusammenzubauen, ist IaaP ein sehr interessanter Ansatz.

Infrastructure-as-a-Platform – Die Einfachheit zählt

Was den meisten IaaS-Lösungen fehlt, ist der komfortable Zugriff auf Ressourcen, mit denen sich virtuelle Infrastrukturen aufbauen lassen. Dabei handelt es sich in der Regel um Services von Cloud Anbietern der ersten Generation, wie bspw. den Amazon Web Services. Hier erfolgt der Zugriff über eine API, um damit die virtuellen Maschinen zu steuern und sämtliche Infrastrukturkomponenten und Services miteinander interagieren zu lassen. Graphische Verwaltungs-/ Konfigurationsoberflächen sind nur mit einem sehr kleinen Funktionsumfang vorhanden. Instanzen lassen sich zwar starten, stoppen und herunterfahren, für die Konfiguration einer komplexen Infrastruktur ist aber Expertenwissen sowie umfangreiches Know-How mit paralleler Programmierung usw. erforderlich.

Und das ist der entscheidende Faktor. Der gewöhnliche Cloud Nutzer ist kein Cloud Computing Experte und muss bzw. sollte es auch nicht sein. Er kennt sich nicht mit den Themen aus, die eine Cloud überhaupt zu einer Cloud machen. Das ist für ihn auch nicht notwendig, er will die „Blackbox“ schließlich nur für seine Zwecke nutzen. Darüber hinaus hat er nicht das Interesse oder gar die Zeit, sich mit den oft komplexen Systemen und Prozessen auseinanderzusetzen und diese zu erlernen. In der Regel erwartet der durchschnittliche Cloud Nutzer eine in sich stimmige und integrierte Plattform, auf der er sich seine notwendigen IT-Ressourcen zusammenbauen kann, die er über einen bestimmen Zeitraum für seine Zwecke benötigt.

Es gibt keine offizielle Definition von Infrastructure-as-a-Platform. Ursprünglich stammt der Begriff von ScaleUp Technologies. Dabei handelt es sich um eine eigenständige Tochter von internet4YOU, die Lösungen für den Aufbau und die Verwaltung von Cloud Infrastrukturen anbietet. Neben internet4YOU respektive ScaleUp Technologies bieten auch Anbieter wie Profitbricks und Zimory aber auch Open-Source Lösungen wie openQRM die Möglichkeiten einer IaaP.

Infrastructure-as-a-Platform gehört die Zukunft

Neben dem einfacheren Zugriff auf die Ressourcen, bündeln Infrastructure-as-a-Platform Lösungen insbesondere verschiedene IaaS Ressourcen wie Rechenleistung, Speicherplatz, Netzwerkkomponenten usw. und ermöglichen Unternehmen damit den Aufbau eines eigenen Rechenzentrum on-Demand, also ein „Data-Centre-as-a-Service“ (DCaaS).

Bereits etablierte Cloud Computing Anbieter – der ersten Generation – müssen damit beginnen in diesem Bereich aufzuholen und ihren bestehenden und neuen Kunden mehr Convenience bieten, mit der diese die Infrastrukturen bequemer nutzen können und während der Konfiguration zudem weniger Zeit und Expertenwissen benötigen. Denn insbesondere IT-Abteilungen von kleinen- und mittelständischen Unternehmen werden in Zukunft auf diesen Komfort achten.


Bildquelle: ©Gerd Altmann / PIXELIO

Kategorien
Kommentar

Die Cloud überlebt sämtliche Speichermedien

Ich habe eine interessante Infographik gefunden, die zeigt, dass die Cloud sämtliche Speichermedien überleben wird. Die Graphik veranschaulicht sehr gut, wie lange die Daten auf einer bestimmten Speichertechnologie sicher abgelegt werden können, bis auf diese nicht mehr zugegriffen werden kann oder wann ein Wechsel auf eine andere Technologie erforderlich ist.

Die Cloud überlebt sämtliche Speichermedien

Die Cloud Anbieter sorgen für das Überleben der Daten

Die Graphik konzentriert sich auf die Lebensdauer eines bestimmten Speichermediums, abhängig von der Nutzung. Eine oft benutzte CD wird natürlich nicht so lange eingesetzt werden können als eine, auf die einmalig Daten kopiert wurden und die anschließend vorsichtig behandelt wird. Hierbei sollte man aber auch nicht den Lebenszyklus einer Technologie vergessen. Nach einem bestimmten Zeitraum, auch abhängig davon wie erfolgreich die Technologie ist, kann diese eingestellt und nicht weiter unterstützt werden. Was passiert dann?

Ein weiteres nicht zu unterschätzendes Risiko sind die Dateiformate und deren Abwärtskompatibilität. So ändern z.B. Anbieter wie Microsoft regelmäßig ihre Office-Datenformate (z.B. .doc > .docx), die dann nur von der aktuellen Office Version bestmöglich unterstützt werden. Mir sind zudem Erfahrungen bekannt, wo sich Excel 97 Tabellen zwar mit Office 2000 öffnen ließen, sämtliche Formatierungen und Formeln aber nicht mehr korrekt dargestellt wurden. Fatal waren die Probleme mit den Formeln, da diese auf den ersten Blick richtig waren. Erst auf dem zweiten Blick wurde deutlich, dass sämtliche Ergebnisse falsch berechnet wurden.

An dieser Stelle helfen Software-as-a-Service (SaaS) Lösungen, indem die Daten in dem Service gespeichert werden und der Anbieter Anspassungen an der Software regelmäßig vornimmt und die „internen“ Datenformate ebenfalls selbst anpasst, ohne dass der Nutzer davon betroffen ist. Das trifft natürlich nur dann zu, wenn der Cloud Speicher auch über eigene Office Lösungen verfügt, die in den Storage integriert sind, wie z.B. Google Apps, Zoho oder Office 365.

Werden Daten in der Cloud gespeichert, muss man sich als Unternehmen nicht um die darunterliegende Speichertechnologie kümmern. Der Anbieter stellt den Speicherplatz als Service bereit und sorgt dafür, dass die Technologie den aktuellen Standards entspricht. Die Sorge um die Technologieunterstützung wandert demnach vom Unternehmen hin zum Anbieter.

Alte vs. Neue Welt

Ein gutes Beispiel für eine disruptive Technologie innerhalb des schon sehr disruptiven Cloud Computing ist der erst kürzlich von Amazon veröffentlichte Service Amazon Glacier. Dabei handelt es sich um einen Cloud Service für die Datenarchivierung bzw. für das Langzeit-Backup. Glacier soll Unternehmen dazu bewegen, ihre Tape Libraries aufzugeben und die Daten stattdessen kostengünstig in die Cloud zu verlagern.

AWS beschreibt Amazon Glacier als einen kostengünstigen Storage Service, der dafür entwickelt wurde, um Daten dauerhaft zu speichern. Zum Beispiel für die Datenarchivierung bzw, die Datensicherung. Der Speicher ist, entsprechend der aktuellen Marktsituation, sehr günstig. Kleine Datenmengen können ab 0,01 US-Dollar pro GB pro Monat gesichert werden. Um den Speicher so kostengünstig anzubieten, ist der Service, im Vergleich zu Amazon S3, für solche Daten gedacht, auf die selten zugegriffen wird und deren Zugriffszeit mehrere Stunden betragen darf.

Daten in Amazon Glacier werden als ein Archive gespeichert. Dabei kann ein Archiv aus einer einzigen oder mehreren einzelnen zusammengefassten Dateien bestehen, die in einem sogenannten Tresor organisiert werden können. Der Zugriff auf einen Tresor kann über den AWS Identity and Access Management-Service (IAM) gesteuert werden. Um ein Archiv von Glacier zu laden, ist ein Auftrag erforderlich. Die Bearbeitung so eines Auftrags benötigt, laut Amazon, in der Regel zwischen 3,5 bis 4,5 Stunden.

Anstatt auf gewohnte Speichersysteme, verlässt sich Amazon Glacier auf kostengünstige Commodity Hardware. (Der ursprüngliche Ansatz, Cloud Computing kostengünstig anzubieten.) Für eine hohe Datenredundanz besteht das System aus einer sehr großen Menge von Speicher-Arrays, die sich aus einer Vielzahl von kostengünstigen Festplatten zusammensetzen.

Dann bekomme ich aber auch Meldungen wie Folgende zugeschickt, die zeigen, dass die „Alte Welt“ den Kampf noch nicht aufgegeben hat.

„Anbieter“ hat die Speicherdichte und Energieeffizienz seiner xyz-Appliances deutlich erhöht und verfügt nun über die effizienteste Enterprise-Disk-Backup- und Deduplizierungslösung am Markt. Die xyz bietet nun 3 TB-Festplatten und damit eine 50 Prozent höhere Speicherdichte, 42 Prozent niedrigeren Energieverbrauch und 25 Prozent höhere Performance. Verglichen mit Wettbewerbsprodukten beansprucht die xyz die kleinste Stellfläche bei gleichzeitig höchstem Mehrwert.

Neben der Verschlüsselung von ruhenden Daten (Data-at-rest) in der xyz, hat „Anbieter“ sowohl die Produktfamilie der xyz-Serie als auch die „Produkt“ Tape Libraries mit zusätzlichen Security-Erweiterungen ausgestattet. Diese zahlreichen Updates helfen die Datensicherungseffizienz in Unternehmen zu erhöhen und gleichzeitig den immer anspruchsvolleren Service Level Agreements (SLAs) und Sicherheitsbedürfnissen gerecht zu werden.

Die Cloud macht Speichermedien überflüssig

Es gab Zeiten, in denen Unternehmen sich darüber Gedanken machen mussten, welche Speichertechnologie sie einsetzen sollten, um Daten über einen langen Zeitraum sicher zu archivieren. Es ist sehr leicht zu argumentieren, „Schieb einfach alles in die Cloud, da läuft’s schon.“. So ist das natürlich nicht. Aber Cloud Anbieter können hier definitiv helfen, indem sie die darunter liegenden Speichertechnologien bei Bedarf austauschen, ohne dass der Kunde etwas davon mitbekommt. Vor allem die Anbieter der „Alten Welt“ sollten sich darüber Gedanken machen, wie sie ihren Kunden diese on-Premise Sorgen nehmen können und sich den Ideen aus der „Neuen Welt“ annehmen.

Ich kenne bspw. ein Unternehmen, dass einen Mitarbeiter, der eigentlich schon in Rente sein sollte, beschäftigt, da er der Einzige ist, der das Wissen über eine spezielle Magnetband Technologie besitzt. Dies ist dem Umstand der Aufbewahrungsfristen geschuldet. Erst wenn die Frist abgelaufen ist, darf dieser Mitarbeiter in seinen Wohl verdienten Ruhestand gehen.


Quelle: http://www.thecloudinfographic.com

Kategorien
Analysen

Profitbricks: "Live Vertical Scaling" und die Krux mit der Parallelität

Ich hatte über Profitbricks, direkt nach deren Go-Live im Mai, geschrieben. Dabei ist das Unternehmen nicht unbedingt gut bei weggekommen. Denn ein „Infrastructure-as-a-Service (IaaS) der nächsten Generation“ konnte ich da noch nicht erkennen. Eine grafische Bedienoberfläche, freie Vernetzungsstrukturen durch echte Isolation des Kundennetzwerks im virtuellen Rechenzentrum, vermaschte redundante Vernetzung mit Infiniband, maßgeschneiderte Server und ein hochredundanter Storage, zeugen unter dem besagten Titel von mehr Marketingexpertise als großer Innovation. Ich habe mir das Angebot einmal genauer angeschaut und bin positiv überrascht. Insbesondere die Funktion „Live Vertical Scaling“ überzeugt. Allerdings steckt der Teufel im Detail.

Scale Up vs. Scale Out

Skalierbarkeit bedeutet, dass die Leistung eines Systems durch das Hinzufügen weiterer Ressourcen wie ganzer Rechnersysteme oder granularer Einheiten wie CPU und Arbeitsspeicher erhöht wird. Das System kann dann mit zunehmender beanspruchter Leistung linear mitwachsen. So lassen sich z.B. plötzliche Lastspitzen begegnen unter denen das System nicht zusammenbricht. Unterschieden wird dabei zwischen dem Scale Up und dem Scale Out.

Scale Up

Während eines Scale Up, auch vertikale Skalierung genannt, wird die Leistung des Systems gesteigert, indem weitere granulare Ressource zu einem Rechnersystem hinzugefügt werden. Dabei kann es sich um Speicherplatz, CPUs oder Arbeitsspeicher handeln. Man kann auch sagen, ein einzelner Rechner wird mit weiteren bzw. Leistungsstärkeren Komponenten aufgerüstet.

Scale Out

Ein Scale Out, horizontale Skalierung, steigert die Leistung eines Systems, indem weitere vollständige Rechner zu dem Gesamtsystem hinzugefügt werden. Man kann sich das Szenario auch so vorstellen, dass man sich einen Cluster von Rechnern aufbaut, über den skaliert wird, indem der Cluster immer um die benötigte Anzahl an Rechnern erweitert wird.

Live Vertical Scaling

Ich weise immer darauf hin, dass Anwendungen für die Eigenschaften einer Cloud entwickelt werden müssen. Also mit der Infrastruktur parallel mitwachsen müssen, wenn sich die Last verändert und weitere virtuelle Ressourcen automatisch hinzugefügt werden müssen.

Profitbricks hat nun das „Live Vertical Scaling“ vorgestellt und geht anders als bspw. die Amazon Web Services (AWS), Rackspace oder Windows Azure den Weg der vertikalen Skalierung. Die anderen drei genannten Anbieter setzen hingegen auf die horizontale Skalierung. Profitbricks beschreibt seine Lösung wie folgt:

Das Besondere dabei: Das System, beispielsweise ein Server, kann auf diese Art quasi unabhängig von der verwendeten Software und ohne deren Modifikation beschleunigt werden. Ideal ist dies beispielsweise für LAMP (Linux, Apache, MySQL, PHP)-Systeme, da MySQL ohne Anpassung die neuen Ressourcen erkennt und ohne Neustart vom Mehr profitiert.

Grundsätzlich hat Profitbricks recht. Nicht jede Software ist so implementiert, insbesondere die Legacy Anwendungen, dass sie skalierbar sind. Das hängt damit zusammen, dass diese Anwendungen nicht für den parallelen Betrieb auf mehreren Systemen entwickelt wurden. Für eine vertikale Skalierung ist, bis zu einem gewissen Grad, keine parallele Entwicklung notwendig, d.h. im Prinzip muss der Programmcode in diesem Fall nicht mehr angefasst werden, um die Leistung zu erhöhen.

Die Probleme stecken im Detail

Aber, der Teufel steckt im Detail.

Parallelität der Softwarearchitektur

Eine Anwendung muss mehrere Cores unterstützen, um die Leistungsfähigkeit des Rechners auszunutzen. Diese Problematik viel auf, als Intel seine Core 2 Duo Prozessoren auf den Markt brachte. Die Rechner verfügten zwar über zwei CPU-Kerne, die alten Anwendungen unterstützen aber nur einen. Der Vorteil eines zweiten CPU-Kerns war somit dahin. Das bedeutet, dass eine Anwendung auch auf die vertikale Skalierung vorbereitet werden muss. Was nützt es, wenn der Server bis zu 48 CPU-Kerne unterstützt, die Anwendung aber lediglich einen einzigen nutzen kann.

Die Software muss also, trotz vertikaler Skalierung, parallelisiert werden. Denn die Leistungssteigerung hängt effektiv mit dem Parallelisierungsgrad der Anwendung und dem Betriebssystem zusammen. Das Betriebssystem sorgt für das Verteilen der Prozesse und Anwendungen auf die jeweiligen Kerne. Die Anwendung muss für den Betrieb auf mehreren Prozessen zudem so parallelisiert werden, dass einzelne Threads dabei gleichzeitig auf mehreren Prozessoren laufen.

Profitbricks schreibt: „Bei anderen IaaS-Anbietern muss der Nutzer seine Server erst herunter fahren, dann die neuen Ressourcen buchen und die Systeme anschließend neustarten. Selbst im besten Fall kommt es hierbei zu einem Ausfall der Server von einigen Minuten, so dass derartige Modifikationen ohne Live Vertical Scaling nur in den Nachtstunden machbar sind.

Das ist falsch. Bei AWS, Rackspace als auch Windows Azure lassen sich die Systeme per API/ Skripte steuern. Es können also weitere Ressourcen per Scale Out ohne Unterbrechungen hinzugefügt werden. Soll eine virtuelle Ressource ausgetauscht werden, lassen sich zunächst automatisch neue Ressourcen hinzufügen und anschließend die nicht mehr gewollten herunterfahren. Und das alles ohne Ausfallzeit.

Profitbricks nennt hier als Beispiel definitiv keine IaaS Cloud-Anbieter. Denn das geschilderte Szenario darf im Cloud Computing so überhaupt nicht auftreten!

Was ist mit Design for Failure?

Profibricks schreibt zwar, „Stehen auf dem physischen Server, auf dem eine bestimmte Kunden-VM läuft, nicht genügend Ressourcen bereit, um den per DCD gewünschten Wert zu erfüllen, verschiebt der von ProfitBricks verwendete Hypervisor die virtuelle Maschine automatisch auf einen anderen Server. Dies passiert, ohne die jeweils in der VM laufenden Anwendungen negativ zu beeinflussen.

Aber wie verhält es sich, wenn der darunterliegende physikalische Host oder die virtuelle Maschine, auf der sich die Anwendung befindet ausfällt? Da sich die Anwendung lediglich auf einem einzigen System befindet und nicht über mehrere Systeme verteilt läuft, wäre ein Ausfall die Folge.

Interessante Lösung, aber…

„Live Vertical Scaling“ ist auf jedenfall eine interessante Lösung. Profitbricks versucht Infrastructure-as-a-Service (IaaS) für Anwender benutzerfreundlicher zu machen, womit sie auf dem richtigen Weg sind. Denn für die meisten IaaS-Angebote sind noch zu viele Expertenkenntnisse notwendig und manuelle Arbeit erforderlich. Einfache Automatisierung und Convenience sind die Schlagworte. Aber wie ich beschrieben habe, steckt der Teufel im Detail. Man sollte sich also zunächst über seine eigenen Bedürfnisse und die der Anwendung im Klaren sein, bevor man sich für die vertikale Skalierung entscheidet.


Bildquelle: http://krishnasblog.com

Kategorien
News

Big Data Nutzer in Unternehmen sind vorwiegend Anwendungsentwickler

Big Data Lösungsanbieter Jaspersoft hat die Ergebnisse einer kürzlich durchgeführten Umfrage zum frühen Einsatz von Hadoop in Unternehmen veröffentlicht. Über 600 Mitglieder der Jaspersoft-Community hatten an der Big Data-Umfrage teilgenommen. Unter den Teilnehmern, die Hadoop für Big Data im Unternehmen verwenden, haben 59 Prozent bereits eine Hadoop-basierte Big Data-Lösung im Einsatz bzw. implementieren sie gerade, während 77 Prozent der Hadoop-Anwender die Big Data-Lösungen innerhalb der nächsten sechs Monate bereitstellen werden.

Ergebnisse der Umfrage

  • 63 Prozent der Hadoop-Benutzer in Unternehmen sind Anwendungsentwickler, 15 Prozent BI-Berichtsentwickler und 10 Prozent BI-Administratoren oder Gelegenheitsnutzer.
  • Nur 37 Prozent der Hadoop-Benutzer arbeiten in der Software- oder Internet-Branche. Hadoop wird in den unterschiedlichsten Branchen eingesetzt, von der Finanzbranche bis zum Bildungssektor.
  • 57 Prozent setzen Big Data mit Hadoop lokal ein, während 43 Prozent die Lösung in der Cloud bereitstellen.
  • Der beliebteste Big Data-Speicher war Hadoop HDFS (82 %), gefolgt von HBase (34 %), relationalen Datenbanken (31 %), MongoDB (30 %), Hive (25 %) und Cassandra (14 %).
  • 38 Prozent benötigen Analysen in Echtzeit bzw. nahezu Echtzeit für ihre Big Data-Anwendung mit Hadoop.
Kategorien
Analysen

Den Return on Investment (ROI) des Cloud Computing bestimmen

Unternehmen sind angehalten den Wert jeder Investition über den Return on Investment (ROI) zu bestimmen. Das ist bei neuen Technologien/ Konzepten wie dem Cloud Computing nicht trivial, da hier derzeit noch wenig bis keine Erfahrungswerte vorliegen. Startups sind davon eher unbefangen, da sie keine Vergleichswerte mit klassischen Systemen haben, etablierte Unternehmen sind jedoch darauf angewiesen.

Der Return on Investment

Der Begriff Return on Investment (deutsch Kapitalverzinsung, Kapitalrendite oder Anlagenrendite) bezeichnet ein Modell zur Messung der Rendite einer unternehmerischen Tätigkeit, gemessen am Gewinn im Verhältnis zum eingesetzten Kapital. Der ROI beschreibt als Oberbegriff für Renditekennzahlen sowohl die Eigenkapitalrendite als auch die Gesamtkapitalrendite.

Quelle: Wikipedia.de

Wie den ROI der Cloud bestimmen?

Es stellt sich als nicht ganz leicht heraus, einen ROI für etwas zu bestimmen, das man nicht gut einschätzen kann oder gar kennt und vor allem kein reales Zahlenmaterial vorliegen hat. Daher muss man sich Bereiche suchen, die zwar keine harten Zahlen wiederspiegeln, aber dennoch den Wert und Nutzen des Cloud Computing zeigen. Dabei handelt es sich um Kosteneinsparungen, Prozessoptimierung, die Verbesserung der Agilität und den praktischen Gewinn durch die Nutzung des Cloud Computing.

Kosteneinsparungen

Nachdem man sich einen Überblick über seine bisher eingesetzten Anwendungen gemacht und diese in Klassen geordnet hat, ist es an der Zeit, potentielle Kandidaten herauszufiltern, bei denen ein Wechsel in die Cloud die Kosten senken können. Ein möglicher Kandidat ist das ERP System, was in eine Cloud Umgebung migriert werden könnte. Anhand der Konsolidierung und Virtualisierung können somit die Anzahl der tatsächlich benötigten Server und gleichzeitig die dafür notwendigen Racks reduziert werden.

Ebenso verhält es sich für Unternehmen, die über eine F&E Abteilung verfügen und die Hardwareinfrastruktur ihrer Labor verkleinern wollen. Einsparungen finden sich hier primär in den Bereichen Entwicklung und Instandhaltung der eingesetzten Applikationen und Hardwarelandschaften. Aber auch der geringere Aufwand für die Installation von Software reduziert die Kosten durch die Nutzung von Cloud-basierten Applikationen und verringert das notwendige Budget. Ein weiterer Vorteil: Die Cloud- basierten Lösungen können auf jedem Arbeitsplatzrechner über einen Webbrowser bereitgestellt werden.

Unternehmen die weiterhin on-Premise ihre Infrastruktur hosten werden zudem relativ schnell bemerken, dass eine eigene Infrastruktur in-House zu betreiben, große Investitionen in eigene Hard- und Software bedeutet. Hosting in der Cloud bedeutet, die fixen Kosten zu variablen Kosten zu transformieren, da auf Grund des Pay as you go Modells nur die Ressourcen berechnet werden, die tatsächlich genutzt werden.

Auf Grund kleiner Hürden und geringem technischen Wissen können selbst nicht IT-Mitarbeiter Cloud Computing einsetzen, um Infrastrukturen und Applikationen für das Unternehmen einzukaufen. Das führt zu Einsparungen bei Arbeits-und Know-How Kosten sowie Installations- und Instandhaltungskosten, vgl. Total Cost of Ownership.

Prozessoptimierung und Agilität

Mit Cloud Applikationen lassen sich zudem Unternehmensprozesse optimieren, indem sich, auf Grund des on-Demand Modells, verstärkt auf die Weiterentwicklung der Kenntnisse und Lösungen konzentrieren lässt. Unternehmen sind somit agiler und können schneller auf Marktveränderungen reagieren und neue Möglichkeiten identifzieren um zu wachsen.

Wenn ein Unternehmen wächst oder sich verändert, werden dafür schnell mehr Ressourcen und entsprechend Betriebsmittel benötigt. Das kann von ein paar Wochen bis zu Monaten dauern. Das beinhaltet ebenfalls das Schulen des Personals. All das bedeutet für ein Unternehmen Stillstand. Cloud Computing ermöglicht die schnelle Provisionierung der benötigten Ressourcen und stellt damit die Skalierung sicher.

Kosten sagen nicht immer viel aus

Der erfolgreiche Einsatz von Cloud Computing lässt sich nicht immer in Zahlen ausdrücken. Daher lässt sich der ROI des Cloud Computing am besten aus dem Nutzen bestimmen. Administratoren und CIOs sollten dazu auf die offensichtlich Werte achten, die beim Einsatz entstehen. Sie sollten sich z.B. fragen, was sie von der Nutzung eines bestimmten Service erwarten können. Auf dieser Basis lassen sich weitere, auf den Nutzen bezogene, Fragen entwickeln, die sich nicht auf das Finanzielle konzentrieren. So können bspw. Metriken entwickelt werden, die sich auf den sichtbaren Nutzen eines Cloud Service beziehen, den dieser in der Lage ist zu liefern. Metriken könnten sein:

  • Wie schaut es mit dem Support und weiteren Services aus, die durch den Anbieter bereitgestellt werden?
  • Können Einsparungen erzielt werden?
  • Wie kompliziert ist der Abrechnungsvorgang?
  • Wie ist die Benutzerfreundlichkeit des Service?
  • Ist die dynamische Nutzung durch den neuen Service gewährleistet?
  • Wie flexibel ist der neue Service in Bezug auf Veränderungen und wechselnder Anforderungen?
  • Wie schnell kann der neue Cloud Service adaptiert und bereitgestellt werden?
  • Wie sehen die Wartungs- und Upgradekosten sowie die Ausfallzeiten im Vergleich zum Cloud Service aus?
  • Wie ist der Einfluss auf das Unternehmen, wenn Services in Zukunft aus der Cloud bezogen werden?
  • Wie sehen die Risiken in Bezug auf die Unternehmensprozesse und gespeicherten Daten in der Cloud aus?
  • Konnte die Zufriedenheit meiner Mitarbeiter erhöht werden?
  • Hat sich die Agilität und Flexibilität verbessert?

Der ROI ist wichtig, aber…

Der Return on Investment ist eine wichtige Kennzahl in einem Unternemen, allerdings sollte und darf die finanzielle Seite nicht die einzige Grundlage des ROI sein. Insbesondere beim Cloud Computing spiegelt sich der Wert und Nutzen der Services nicht immer im monetären Bereich wieder. Und auch wenn die Metrik manchmal nicht ganz greifbar ist, sollte der Wert, den ein Cloud Service für ein Unternehmen liefert, dennoch nicht vernachlässigt und stattdessen sorgfältig betrachtet werden.


Bildquelle: http://us.intacct.com

Kategorien
Analysen

Cloud Marketplaces sind die Zukunft des Cloud Computing

In den letzten Monaten sind vermehrt Cloud Marketplaces erschienen. Dazu zählen u.a. der AWS Marketplace, der Chrome Web Store, der internet4YOU Cloud Marketplace oder der Business Marketplace der Deutschen Telekom. Hier können sich Unternehmen aber auch Endnutzer aus einem Katalog von Services ihr eigenes Produktivätsportfolio zusammenstellen und haben dadurch einen ausgewählten Überblick von möglichen potentiellen Kandidaten.

Marktplätze sorgen für Übersicht

Ein Cloud Marktplatz ist vor allem dadurch charakterisiert, dass er, wie bspw. ein klassischer Webshop, Produkte in Form von Anwendungen aber auch Infrastruktur kategorisiert. Gerade dann wenn sich ein neuer Trend etabliert, schiessen tagtäglich neue Lösungen aus dem Boden. Das macht es für Einkäufer, aber auch Endkunden zunehmend schwieriger, den Überblick über den Markt zu behalten.
Cloud Marktplätze räumen auf und fassen die unterschiedlichen Cloud Angebote thematisch zusammen. Sie bilden quasi ein unabhängiges Ökosystem von Cloud Services.

Die Spreu vom Weizen trennen

Wohlgemerkt gibt es auch viele „schlechte“ Cloud Applikationen auf dem Markt, die keinen echten Mehrwert bieten oder schlicht weg einfach nicht gut durchdacht sind. Cloud Marktplätze helfen, potentielle Top-Applikationen von eher unbedeutenden Services zu trennen. Eine Entscheidungshilfe bieten hier bereits die Betreiber solcher Marktplätze selbst. So sagt die Deutsche Telekom, dass sie über ihren Marktplatz zwar eine Vielzahl von Drittanbieter Lösungen bereitstellen wollen, aber bewusst auf Klasse statt Masse setzen werden. Das birgt natürlich die Gefahr, das potenzielle gute Anwendungen es nicht in den Marktplatz schaffen werden, da diese durch das Raster der Telekom fallen werden. Auf der anderen Seite ist eine Vorauswahl natürlich notwendig, um die Qualität und damit das Ansehen des Marktplatz zu gewährleisten.
Hat es ein Angebot in den Marktplatz geschafft, steht dem Nutzer mit der „Crowd“ ein weiteres Entscheidungskriterien zur Verfügung. Anhand eines Bewertungssystem wird die Qualität und Funktion der Anwendung von anderen Nutzern bewertet und kommentiert und gibt damit ein Stückweit mehr Adaptionshilfe.

Die Reichweite erhöhen

Cloud Marktplätze können vor allem jungen Unternehmen helfen, die über ein geringes Kapital für Werbung und PR verfügen, ihren Bekanntsheitsgrad und die Reichweite zu erhöhen. Aber auch für etablierte Unternehmen, die mit Cloud Angeboten starten, ergeben sich dadurch Chancen, sich einer breiten Masse zu präsentieren und sich vor dem bestehenden Mittbewerb transparent zu bewähren.

Cloud Marketplaces sind keine Cloud Broker

Eines sollten man jedoch beachten. Cloud Markplätze bieten in ihrer reinen Form nur Services und Applikationen an, ohne einen weiteren Mehrwert zu bieten. Anstatt sich bspw. über die Suchmaschine seiner Wahl nach möglichen Angeboten zu informieren und direkt auf die Webseiten der Anbieter zugehen, erfolgt der Zugriff über den Marktplatz. Nach einer ersten Anmeldung über den Marktplatz, kann anschließend auch der direkte Weg zum Anbieter genommen werden. Der Marktplatz dient dann nur noch als Verwaltungsinstrument für die Nutzer und das Hinzufügen oder Kündigen anderer Services.

Cloud Broker Services hingegen integrieren und erweitern mehrere Cloud Angebote und schaffen damit einen Mehrwert um die Cloud Servies herum.
Das Cloud Services Brokerage Modell bietet ein architektonisches-, business-, und IT-Betriebs-Modell, mit dem verschiedene Cloud Services bereitgestellt, verwaltet und adaptiert werden können. Und das sich innerhalb eines föderierten und konsistenten Bereitstellung-, Abrechnung-, Sicherheit-, Administration- und Support-Framework befindet. Unternehmen werden damit in die Lage versetzt, ihr Cloud-Services Management zu vereinheitlichen, um damit den Innovationsgrad zu erhöhen, die globale Zusammenarbeit zu verbessern, die Betriebskosten zu senken und insgesamt besser zu wachsen. Cloud Computing Anbieter erhalten damit die Möglichkeit die Bereitstellung ihrer Cloud Services zu vereinheitlichen und ihr eigenes Services Netzwerk zu differenzieren und damit eine umfangreiche Cloud Computing Plattform bereitzustellen. Technologie-Anbieter können damit ein Ökosystem von Mehrwertdiensten aufbauen, um ihre wichtigsten Angebote zu differenzieren, die Kundenbindung erhöhen und neue Vertriebswege erschließen.

Cloud Marketplaces sind ein logischer Trend

Cloud Marketplaces gehören zu der logischen Entwicklung des Cloud Computing, um Unternehmen und Entwickler den einfachen Zugriff auf IT-Ressourcen zu ermöglichen. Neben einer gut dokumentierten API gehören ebenfalls übersichtliche und umfangreiche Web-Oberflächen zu einem guten Cloud Angebot, die es dem Nutzer ermöglichen sich „auch mal eben“ eine Cloud Infrastruktur „zusammenzuklicken“, um z.B. ein paar Tests durchzuführen. Bereits viele Anbieter sind auf diesen Zug aufgesprungen und ermöglichen über einen eigenen Cloud Marktplatz den Zugriff auf ihre IaaS-Ressourcen. Zudem reichern sie ihre Infrastruktur-Angebote über den Marktplatz mit Betriebssystem-Images oder weiteren Software-Lösungen an, um den virtuellen Ressourcen damit einen echten Nutzen zu geben.

Unternehmen können sich einen Cloud Marketplace vorstellen wie mehrere Regal in einen quasi unendlich großen Supermarkt. Und genau so sollten sie ihn auch nutzen, um sich ihre Infrastruktur beliebig zusammenzubauen. Spannend wird es, wenn wir einen Schritt weitergehen und die Ressourcen und Lösungen nicht mehr nur von einem einzigen Anbieter beziehen, sondern über mehrere Anbieter oder deren Marktplätze, wo wir uns dann beim Thema Cloud Brokerage Services – siehe oben – befinden.


Bildquelle: Wikipedia

Kategorien
News

Amazon baut Marktplatz für seine EC2 Reserved Instances

Amazon hat vorgestern seinen Reserved Instance Marketplace vorgestellt. Dabei handelt es sich um einen Marktplatz, auf dem AWS Kunden ihre EC2 Reserved Instances an andere Unternehmen verkaufen oder Instances anderer Kunden kaufen können.

Amazon baut Marktplatz für seine EC2 Reserved Instances

Flexibilisierung von Reserved Instances

Reserved Instances erlauben es AWS Kunden, sich für einen geringen einmaligen Betrag reservierte Rechenleistungen zu kaufen, die ihnen garantiert zur Verfügung stehen, wenn sie diese benötigen.

Mit dem Reserved Instances Marketplace ermöglicht es AWS seinen Kunden nun diese reservierten Instanzen wieder zu verkaufen, wenn z.B. die AWS Region gewechselt werden soll, sich der Instanztyp ändern muss oder Kapazitäten verkauft werden sollen bei denen noch Laufzeit besteht.

Darüber hinaus lassen sich über den Marktplatz nun auch Reserved Instances einkaufen, die nicht an die bekannten Laufzeiten von einem oder gar drei Jahren gebunden sind. Damit lassen sich auch Projekte mit einer garantierten Rechenleistung von bspw. sechs Monaten absichern.

Der Marktplatz und weitere Informationen befinden sich unter http://aws.amazon.com/de/ec2/reserved-instances/marketplace

Kategorien
News

Vortrag auf dem BVMW Innovationsforum 2012

Am 12.09.2012 hat René Büst auf dem BVMW Innovationsforum 2012 in Berlin einen Vortrag zum Thema „Der Einfluss des Cloud Computing auf den Mittelstand“ gehalten.

Vortrag auf dem BVMW Innovationsforum 2012

Hier sind die Folien zu seinem Vortrag zu sehen:

Der Einfluss des Cloud Computing auf den Mittelstand. from Rene Buest