Kategorien
Analysen

Kriterien zur Auswahl eines Cloud Computing Anbieters

Cloud Computing Anbieter haben mit ihren Angeboten und Eigenschaften den größten Einfluss auf Unternehmen und deren Informationstechnologie. Dabei müssen sich Unternehmen der Herausforderung stellen, den für Ihre Bedürfnisse idealen Anbieter zu identifizieren. Das stellte Unternehmen bereits in der Vorzeit des Cloud Computing vor Probleme, jedoch hat sich die Situation durch die hohe Standardisierung auf Seiten der Anbieter verschärft.

In der Regel müssen sich Unternehmen für das entscheiden, was der Anbieter im Portfolio hat ohne Einfluss darauf zu haben und Anpassungen vornehmen zu können. Hinzu kommt, dass neben dem Angebot und dem Preis ebenfalls die SLAs, Governance, Compliance usw. bei der Auswahl berücksichtigt werden müssen. Schließlich hat sich der Einflussbereich des Unternehmens minimiert und das Vertrauen in den Cloud Computing Anbieter steht auf dem Spiel.

Die eigenen Bedürfnisse sind ausschlaggebend

Unternehmen stehen damit vor der Herausforderung den oder die Anbieter zu selektieren, der bzw. die ihre Ansprüche bzgl. der Integration der vorhandenen Systeme, der Abbildung der Geschäftsprozesse usw. bestmöglich unterstützen und des Weiteren über eine hohe Vertrauensbasis verfügen.

Eine Bewertung und Auswahl vorzunehmen ist nicht trivial. Zudem existieren dafür keine geeigneten Frameworks und es ist ebenso schwierig so ein allgemeingültiges Framework zu erstellen. Das ist der Individualität und den Anforderungen eines jeden einzelnen Unternehmens geschuldet. Jedoch kann ein Unternehmen bei der richtungsweisenden Bewertung und Auswahl unterstützt werden.

Grundsätzlicher Auswahlprozess

Auf Grund einer Vielzahl von Angeboten, die unterschiedliche Services, Kosten, Support etc. mit sich bringen, benötigen Unternehmen eine klare Strategie und starke Auswahlkriterien um Cloud Computing bestmöglich für sich zu nutzen.

Während Kosten, Skalierbarkeit, Fachwissen und die operative Stabilität offensichtliche Kriterien sind, gibt es weitere wichtige Faktoren, die bei der Auswahl eines Cloud Computing Anbieters notwendig sind.

Eigene Anforderungen definieren

Ein Unternehmen muss sich zunächst über sich selbst im Klaren sein. Das heißt, es muss seine Unternehmensstrategie, seine Unternehmensziele sowie seine Kernprozesse und Funktionen kennen. Zudem muss es klar definieren, was es sich von der Nutzung der Cloud verspricht. Geht es eher darum, die Möglichkeiten der internen IT zu erweitern oder sollen die nicht strategisch wichtigen Unternehmensanwendungen in die Cloud migriert und dort betrieben werden?

Sobald das Unternehmen eine klare Vorstellung von seinen Anforderungen hat, gilt es einen geeigneten Partner zu finden, der bei der Ausführung hilft. Dabei sollte beachtet werden, dass ein Anbieter, der den aktuellen Bedürfnissen gerecht wird, möglicherweise bei einer Änderungen der Strategie nicht mehr die gewünschten Anforderungen erfüllen kann. Die eigene Strategie sollte daher nicht als ein statischer Plan behandelt werden und eine gewisse Flexibilität beinhalten. Denn die Geschäftsanforderungen ändern sich in der heutigen Zeit deutlich schneller und auch neue unvorhergesehene Cloud-Technologien werden auf dem Markt erscheinen, die dabei helfen werden das Unternehmen strategisch neu auszurichten. Daher ist es notwendig, die Cloud Strategie als auch den Cloud Computing Anbieter regelmäßig zu überprüfen.

Auswahl des Cloud Computing Anbieters

Jedes Angebot im Cloud Computing ist einzigartig. Sei es ein Infrastructure-as-a-Service, Platform-as-a-Service, Software-as-a-Service, Security Service oder ein Service zur Abbildung eines Geschäftsprozesses. Hinzu kommt, dass sich auch die Anforderungen eines Unternehmens an einen Services mit den Angeboten in der Cloud unterscheiden. Das betrifft in erster Linie den eigentlichen Nutzen für das Unternehmen bis hin zur technologischen Anbindung. Die erste Frage, die einem Cloud Computing Anbieter also grundsätzlich gestellt werden muss, ist, ob er genau den Cloud Service anbieten kann, der von dem Unternehmen benötigt wird. Sollte diese Frage mit ja beantwortet werden, gilt es anschließend den Anbieter genauer zu untersuchen. Verfügt er über langjährige Erfahrungen, hat er ein aussagekräftiges Kundenportfolio, passt der Anbieter ethisch zu dem Unternehmen. Bspw. wäre es für ein Unternehmen, das sich in vielen Bereichen für den Umweltschutz einsetzt, unvorstellbar einen Cloud Computing Anbieter zu wählen, der nicht über eine Green IT Policy verfügt.

Im Verlauf der Prüfung werden dann die detaillierten Anforderungen des Unternehmens untersucht und mit den Angeboten des Cloud Computing Anbieters verglichen. Dazu sollten während der Anforderungsanalyse Attribute definiert werden, die der Cloud Service bzw. die Anwendungen erfüllen müssen und je nach Gewichtung für oder gegen die Wahl des Cloud Computing Anbieters sprechen.

Beurteilung der allgemeinen Sicherheit

Eine der größten Sorgen ist die Datensicherheit in der Cloud und die Funktionsfähigkeit der Infrastruktur für den geschäftskritischen Betrieb. Die Systeme und Daten müssen sich daher in sicheren Händen befinden und das gilt es sicherzustellen. Bei der Auswahl des Cloud Anbieters muss daher zunächst eine Bestandsaufnahme der eigenen Sicherheitsanforderungen gemacht und die Probleme erörtert werden, die es zu bewältigen gilt. Dazu gehören z.B. der Datentransfer, die Speicherung, die Zutrittskontrolle, und Netzwerksicherheit. Im Anschluss muss bestimmt werden, ob der Anbieter über die Sicherheit und Compliance Technologien und Mechanismen verfügt, um diese Bedürfnisse zu erfüllen.

Hier sollte der Anbieter u.a. gefragt werden, wie die Sicherheitsmechnismen funktionieren, um den Schutz der Daten während des Transports und beim Speichern zu gewährleisten oder ob die virtualisierte Infrastruktur wirklich sicher ist. Weiterhin ist es notwendig zu wissen, ob der Anbieter über die entsprechenden Technologien und Prozesse wie Verschlüsselung und Entschlüsselung, Disaster Recovery, Zugangsbeschränkungen, Intrusion Protection/ Prevention und Firewall-Dienste verfügt.

Fragen stellen alleine reicht allerdings nicht. Um den Anbieter wirklich kennenzulernen müssen die Sicherheitdokumentationen und Zertifizierungen eingehend überprüft werden. Auch ein Besuch vor Ort sollte in Betracht gezogen werden, um zu sehen und zu verstehen, was sich hinter der Cloud des Anbieters verbirgt.

Zuletzt sollte immer das Worst-Case-Szenario in die Bewertung des Sicherheitsniveaus des Anbieters einfließen. Denn auch wenn das undenkbare niemals eintreten wird, sollte der Anbieter seine Kunden davor bestmöglich schützen können.

Bewertung des Service und Supports

Da es sich beim Cloud Computing um ein serviceorientiertes Model handelt, sollte sich ein Unternehmen für einen Anbieter entscheiden, der Vertrauen ausstrahlt, über eine ausgezeichnete Infrastruktur verfügt und messbare Ergebnisse nachweisen kann. Zudem sollte der Anbieter über eine hohe Reaktionsfähigkeit (schnelle Reaktion auf betriebliche Probleme) und einen guten proaktiven Support (z.B. Kundenbetreuung, vorbeugende Instandhaltung, Erhöhung der Ressoucen in einem Shared Umfeld etc.) verfügen.
Zwar sind maßgeschneiderte Verträge im Bereich des Cloud Computing nicht üblich, dennoch sollte der Anbieter bereit sein, unternehmensgerechte Service Level Agreements (SLAs) zu definieren. Darin enthalten sein sollten bspw. Performance, Verfügbarkeit, Bereitstellungszeit und ein Problemlösungszeitraum. Dazu gehören wiederum formale Eskalationsrichtlinien und definierte Sanktionen. Weiterhin könnte es interessant und notwendig sein, zu überprüfen, wie die bisherige Erfolgsbilanz bzgl. der Einhaltung der SLAs durch den Anbieter aussieht.

Die Suche nach einem flexiblen Anbieter

Das Interesse am Cloud Computing nimmt immer stärker zu. Jedoch ist kein Unternehmen bereit, seine Systeme vollständig in die Cloud zu verlagern. Daher planen die meisten Unternehmen mit dem Aufbau eines hybriden IT-Ökosystems. Also einer Hybrid Cloud, bei der die Ressourcen im eigene Rechenzentrum (ggf. Private Cloud) mit Ressourcen aus einer externen Cloud Infrastruktur (Public Cloud) kombiniert werden.

Unternehmen sollten hierbei darauf achten, dass der Anbieter in der Lage ist, hybride Umgebungen nahtlos zu integrieren und diese ebenfalls sorgfältig zu verwalten. So kann ein Unternehmen bei Bedarf die benötigten Cloud Services von dem Anbieter beziehen und damit seine internen IT Ressourcen und Möglichkeiten erweitern.

Verstehen des Abrechnungsmodells

Die nutzungsabhängige Abrechnung ist eine der attraktivsten Eigenschaften des Cloud Computing. Unternehmen erhalten dadurch die Möglichkeit, auf hohe Investitionen zu verzichten, indem die Kosten für die Beschaffung von Hard- und Software minimiert werden und wodurch sie ein vorhersehbares Betriebskostenmodell aufbauen können.

Dennoch sollten sich Unternehmen bewusst machen, dass jeder Anbieter seine eigene Art und Weise der Preisgestaltung für seine Services hat. Während einige bspw. eine Instanz pro Stunde oder pro Monat abrechnen, berechnen andere auf Basis der genutzten Ressourcen. Einige Anbieter erwarten z.B. eine Vorauszahlung für einen bestimmten Basis Service und in einigen Fällen muss für die Kundenbetreuung möglicherweise eine zusätzliche Gebühr bezahlt werden. Unternehmen müssen daher das Abrechnungsmodell des Anbieters verstehen, um spätere Überraschungen zu vermeiden und ggf. einen kundenspezifischen Preis auszuhandeln.

Auf in die Cloud

Um sicherzustellen, dass exakt die Cloud Services erworben werden, die ein Unternehmen auch wirklich benötigt, muss der Auswahlprozess klar definiert und sorgfältig vorgenommen werden. Dazu gilt es genau zu wissen, wie die Kriterien für die Nutzung von Cloud Computing heute aussehen und wie sie in Zukunft aussehen könnten bzw. sollen.


Bildquelle: http://www.wirtschaftsforum.de

Kategorien
News

Internap veröffentlicht erste OpenStack Public Cloud

Achtung Amazon! OpenStack entwickelt sich zu einem Game Changer in der Cloud Computing Welt. Vergangenen Donnerstag hat der in Atlanta niedersässige Anbieter Internap die erste auf OpenStack basierende Public Cloud vorgestellt.

OpenStack bietet Unternehmen eine erhöhte Portabilität zwischen unterschiedlichen Cloud-Anbietern und ist eine echte Alternative zu den Amazon Web Services. Internaps neuer Services wurde als Open Public Cloud getauft. Das Unternehmen hat bereits einen Cloud Storage Services auf Basis von OpenStack ausgerollt und hat das Angebot aus dem Stack nun erweitert. Die Open Public Cloud nutzt die Open Source Xen Cloud Plattform, mit ihrem gleichnamigen Hypervisor und unterstützt sowohl virtuelle Maschinen von Windows als auch Linux.

OpenStack hat die besten Chancen der Game Changer im Cloud Computing Markt für Public Cloud Angebote zu werden. Durch eine Menge von standardisierten APIs begegnet OpenStack dem Vendor Lock-in und erlaubt es Unternehmen auf einfachem Weg ihre Workloads zwischen der eigenen OpenStack Private Cloud und der OpenStack Public Cloud eines Anbieters zu verschieben.

Bei OpenStack handelt es sich um eine Open Source Cloud Plattform, die neben dem Betriebssystem ebenfalls Storage- und Netzwerkkomponenten mitbringt und von einer Vielzahl von Unternehmen unterstützt wird.

Kategorien
Management

Anwendungsbereiche des Cloud Computing (Redux)

Auf Grund seiner Charakteristiken lässt sich Cloud Computing insbesondere für Szenarien einsetzen, in denen Systeme periodischen oder nicht vorhersagbaren Einflüssen ausgesetzt sind oder einem stetigen Wachstum unterliegen. Cloud Computing lässt sich jedoch vielfältig einsetzen, wie die folgenden Anwendungsfälle zeigen.

Optimierung der eigenen IT-Infrastruktur

Der Großteil aller Unternehmen verfügt über eine eigene, in der Regel komplexe IT-Infrastruktur, die es zu verwalten gilt, um den immer neuen und steigenden Anforderungen gerecht zu werden. Dadurch verlieren die meisten den Fokus auf die eigenen Kernkompetenzen, um sich mit genau diesen von ihren Mittbewerbern zu differenzieren und hieraus einen Vorteil zu erzielen.

Weiterhin werden enorme finanzielle und zeitliche Investitionen getätigt, um den Anforderungen an das laufende Geschäft durch das Verwalten, Vergrößern und Skalieren von Ressourcen und Kapazitäten zu erhöhen (Stichwort: Lastspitzen), wodurch sich die Produktivität z.B. für neue geschäftskritische Projekte verringert. An dieser Stelle dürfen ebenfalls nicht die Vorabinvestitionen vernachlässigt werden, die für den Aufbau der IT-Infrastruktur sowie den laufenden Betrieb/ Wartung vorgenommen werden müssen.

Mit dem Einsatz von Cloud Computing Lösungen z.B. durch das Outsourcing interner IT-Anwendungen oder die Nutzung von Cloud Storage können externe Ressourcen effektiv und bedarfsgerecht genutzt werden und die oben genannten Kosten lassen sich damit minimieren.

Content bereitstellen

Unternehmen stehen vor der Herausforderung, Inhalte wie Bilder, Videos oder sonstige Downloads auf Ihren Webseiten den Kunden hochperformant und zuverlässig bereitzustellen. Eine Möglichkeit dies zu realisieren, ist das Erhöhen des Durchsatzes sowie die Verringerung der Latenz innerhalb des Netzwerks.

Mittels eines Content Delivery Network (CDN) innerhalb einer Cloud Computing Infrastruktur, in welchem die Inhalte auf sogenannten Edge-Servern gespeichert werden und die sich in einem Rechenzentrum, das sich möglichst nah am Benutzer befindet, können Teile der oben genannten Anforderungen erfüllt werden. Zusätzlich können Algorithmen verwendet werden, welche die Inhalte zum Zeitpunkt der Anfrage auf die Server in der Nähe des Benutzers kopieren, wodurch die Leistung weiter erhöht wird.

Hosting von Anwendungen

Vor der Einführung des Software-as-a-Service Modells (SaaS) (abgesehen von den Application Service Providern – ASP) waren Unternehmen gezwungen eigene Infrastrukturen für die Nutzung und Bereitstellung lokaler Anwendungen aufzubauen und zu warten. Mit SaaS können diese Anwendungen nun online gehostet und verwendet werden. Die Vorteile ergeben sich auf der einen Seite durch Kosteneinsparungen auf Grund eines nutzungsabhängigen Abrechnungsmodells durch automatisierte Updates und Upgrades durch den Anbieter. Auf der anderen Seite ist eine gute Integration in die eigenen bestehenden Systeme ein Vorteil.

Anbieter von Software-as-a-Service basierten Anwendungen stehen vor der Herausforderung die kostspieligen und komplexen Infrastrukturen, die für das Hosting dieser Anwendungen benötigt werden, aufzubauen sowie skalierbar und hochperformat bereitszustellen. Zumal die Nachfrage durch die Kunden mittels eines Forecast schwierig anzuschätzen ist.

Bereitstellung von Medieninhalten

Wollen Unternehmen ihren Kunden Medieninhalte über das Internet bereitstellen, stehen sie vor der Herausforderung, Lastspitzen durch nicht kalkulierbare Anfragemengen zu unterschiedlichen Zeitpunkten zu bewältigen, die nicht überschaubar sind und teuer werden können. Anforderungen an die gesamte Infrastruktur betreffen hierbei die verfügbare Bandbreite, die Performance, den Speicherplatz und nicht zu vernachlässigen: Die Sicherheit. All das kann dazu führen, dass die ursprünglich geplanten Kosten deutlich höher ausfallen.

High Performance Computing

Die Verarbeitung großer Datenmengen für die eine hohe Rechenleistung benötigt wird, ist in den vergangenen Jahren stark angestiegen. Davon betroffen sind vor allem Unternehmen aus den Bereichen der Medizintechnik, Finanzdienstleitungen und Medien.

Für einzelne rechenintensive Projekte werden die Kapazitäten der Infrastrukturen oftmals stark erweitert, da die bestehende Infrastruktur nicht leistungsfähig genug ist. Im schlimmsten Fall stehen zusätzlich nicht ausreichend finanzielle Mittel und Zeit zur Verfügung, um die Infrastruktur gemäß den Anforderungen anzupassen. Hinzu kommt der Aufwand zur Errichtung und dem Erweitern der Serverumgebungen und der damit verbundenen Beschaffung und Bereitstellung der Hard- und Software. Das Gewährleisten einer hohen Verfügbarkeit darf ebenso wenig vernachlässigt werden wie die Sicherheit der gesamten Umgebung. Weiterhin muss die Infrastruktur verwaltet werden (u.a. Zuweisung des Speichers, Konfiguration der Batchprozesse, etc.), um den Geschäftszweck zu erfüllen, was implizit dazu führt, dass die Mitarbeiter dementsprechend fortgebildet und verwaltet werden müssen.

Eine weitere Herausforderung ist die Verwaltung und Neuzuordung der Ressourcen nach dem erfolgreichen Beenden eines Projekts. Werden die verfügbaren Ressourcen nicht umgehend neuen Projekten oder Aufgaben zugewiesen, sind diese ungenutzt und verursachen Kosten ohne einen Wertbeitrag zu leisten.

Mittels Cloud Computing können die Problematiken der oben genannten Punkte minimiert werden und Ressourcen für Projekte aus dem Bereich des High Performance Computing (HPC) bzw. Parallel Computing bedarfsgerecht und kosteneffizient bezogen werden.

Externe E-Commerce Lösungen

Im Bereich des E-Commerce verfügen die meisten Unternehmen nicht über die Kernkompetenzen, um in ihren Anwendungen die notwendigen Eigenschaften für einen ganzheitlichen Handelsprozess zu etablieren. Dazu gehören der gesamte Zahlungsverkehr, die Auftragsverwaltung, das Kommissionieren und Verpacken der Artikel sowie den Versand zum Kunden. Weiterhin muss die gesamte IT-Infrastruktur auf die E-Commerce Lösung abgestimmt sein, um die Bearbeitung der Kundenanfragen zuverlässig und sicher abzuwickeln und ebenfalls auf saisonale bzw. unerwartete Lastspitzen durch schwankende Anfragen flexibel zu reagieren.

Zahlreiche Cloud Computing Anbieter stellen E-Commerce Lösungen bereit, wodurch Unternehmen auf den Aufbau und die Verwaltung einer eigenen Plattform verzichten können und sich damit auf ihre Kernkompentenzen und ihre Kunden konzentrieren können.

Webcrawler

Informationen sind im Internet weit verteilt und unorganisiert, wodurch für das Suchen, Abfragen, Verteilen und Organisieren dieser Daten hohe Anforderungen hinsichtlich der Verarbeitung und dem Speichern gestellt werden. Weiterhin werden moderne Algorithmen benötigt, mit denen diese Daten manipuliert, indiziert und die Anfragen der Benutzer beantwortet werden können. Der ständige Wandel innerhalb des Internets verstärkt zudem die Situation, exakt die Informationen zu finden, die gesucht wurden.

Mit Cloud Computing steht im Prinzip jedem die Möglichkeit bzgl. Speicherplatz und Rechenleistung zur Verfügung, um einen eigenen Webcrawler zu entwickeln. Dazu müssen Dinge beachtet werden, die auch von der Infrastruktur eines Cloud Computing Anbieters erfüllt werden müssen, auf welcher der Webcrawler dann ggf. ausgeführt wird.

Datenspeicherung und Datenbackup

Eine der größten Herausforderungen für Unternehmen ist die stetige Zunahme der zu speichernden Daten, welche die Verwaltungsaufgaben immer komplexer und kostspieliger werden lässt. Nicht nur auf Grund dieser Situation wird die Gewährleistung des Datenschutzes und der Datenverfügbarkeit immer wichtiger. Cloud Storage für das Speichern und Backup der Daten ist hierfür ein idealer Ansatz, wenn gewisse Punkte beachtet werden.
Ein Cloud Storage hat bspw. in erster Linie den Vorteil, dass der genutzte Speicherplatz automatisch mit den Bedürfnissen mitwächst. Werden heute 10GB, morgen aber 100GB benötigt, stellt das kein Problem dar und es müssen dafür keine eigenen Investitionen in neue Speichersysteme getätigt werden.
Zudem stehen alle Daten an einer zentralen Stelle bereit, wodurch alle Mitarbeiter von jedem beliebigen Ort aus einen gemeinsamen Zugriff auf exakt denselben Datenbestand erhalten und damit die Zusammenarbeit deutlich verbessert wird.

Web-Hosting

Unternehmen haben unterschiedliche Lösungsansätze, um das Web-Hosting ihrer Webseite zu betreiben. Zunächst besteht die Möglichkeit ein eigens Rechenzentrum aufzubauen und zu betreiben. Weiterhin kann ein Drittanbieter damit beauftragt werden, die Webseite auf seine dafür dedizierten Servern zu hosten und zu verwalten. Der letzte Ansatz ist die Nutzung Cloud Computing basierter Lösungen.

Egal welcher Ansatz nun verfolgt wird, ist es für Unternehmen unabdingbar eine Infrastruktur auszuwählen, die ihnen eine größtmögliche Sicherheit, Zuverlässigkeit und Performance bietet. Unabhängig davon rücken die Kosten, also fixe Kosten und variable Kosten, immer weiter in den Fokus und betreffen jedes Unternehmen jeder Größe. Zudem ist in den letzten Jahren der Wunsch nach Flexibilität immer weiter gestiegen um die Kosten transparenter im Blick zu behalten.

Cloud Computing Lösungen geben Unternehmen hierbei die Chance ihre Vorabinvestitionen zu verringern und damit Kapital zu sparen. Ein weiterer Vorteil einer Cloud Lösung besteht in der Skalierbarkeit in beide Richtungen. Steigt die Auslastung an, können die Ressourcen nach oben skaliert werden. Nimmt die Auslastung wieder ab, werden die überschüssigen Ressourcen wieder freigegeben. In beiden Fällen entstehen nur Kosten für die Ressourcen, die auch tatsächlich genutzt werden.

Kategorien
Grundlagen

Arten von Cloud Computing (Redux)

Cloud Computing unterscheidet grundsätzlich drei Arten von Deployment Models

Private Cloud

In einer Private Cloud betreiben Unternehmen ihre eigenen Rechenzentren und nutzen ihre Dienste nur für Ihre eigenen (geschäftlichen) Zwecke innerhalb ihrer eigenen privaten Netze. Die Nutzung durch die Öffentlichkeit kommt hier nicht in Frage. Die Datensicherheit, ‘Corporate Governance’ und Zuverlässigkeit liegen damit in ihrem eigenen Einflussbereich. Aus diesem Grund werden Private Clouds nur indirekt zum Cloud Computing gezählt. Hier werden lediglich die Ideen und Konzepte adaptiert.

Public Cloud

In einer Public Cloud werden Rechenkapazität, Speicherplatz etc. gegen eine Nutzungsgebühr oder kostenlos der Öffentlichkeit zur Verfügung gestellt. Die Aufgaben, die ein Unternehmen in der Private Cloud übernimmt, werden in der Public Cloud dann von einem Drittanbieter übernommen. Dazu gehören z.B. der Kauf und die Wartung der Server. Die Aufgaben und Services von unterschiedlichen Kunden werden dabei auf derselben Infrastruktur gemeinsam gehostet und verarbeitet. Ein einzelner Kunde hat keine Kenntnis darüber, wessen Dienste ebenfalls auf derselben Infrastruktur gespeichert und verarbeitet werden.

Hybrid Cloud

Eine Hybrid Cloud stellt eine Kombination aus einer Private und einer Public Cloud dar. Dabei verfügen Unternehmen zwar über ihre eigene Private Cloud, verwenden aber zusätzlich Dienste aus der Public Cloud von externen Anbietern. Die Attraktivität besteht vor allem darin, dass der externe Anbieter bei Bedarf schneller und kostengünstiger die benötigte Infrastruktur erhöhen bzw. verkleinern kann. Die Dienste werden so in die Private Cloud integriert, dass der Endanwender nicht merkt, dass er eigentlich woanders arbeitet.

Virtual Private Cloud

In der jüngsten Vergangenheit hat sich eine neue Art des Cloud Computing herauskristallisiert, die Virtual Private Cloud. Dabei handelt es sich wie schon bei der Hybrid Cloud um eine Kombination aus einer Public Cloud und einer Private Cloud. Der Unterschied besteht jedoch darin, dass ein Public Cloud Anbieter für den Kunden einen dedizierten (virtuellen) Bereich im Rechenzentrum des Anbieters bereitstellt. Hier kann der Kunde anschließend sein eigenes virtuelles Rechenzentrum nach Private Cloud Gesichtspunkten (Datenschutz, Datensicherheit und Compliance) aber unter den Bedingungen einer Public Cloud (Skalierbarkeit, Verfügbarkeit, Flexibilität und Pay per use) aufbauen. Eine Verbindung der Virtual Private Cloud mit dem eigenen Rechenzentrum ist ebenfalls möglich.

Kategorien
Management

Cloud Computing ist kein Allheilmittel!

Zunächst handelt es sich bei Cloud Computing nicht mehr um einen Hype! Wir befinden uns mittlerweile in der Evaluations- und Adaptionsphase und gerade deswegen ist weiterhin viel Aufklärungsarbeit notwendig, um die Potentiale aufzuzeigen.

Bei den Potentialen handelt es sich bspw. um Kosten – Wandel von fixen zu variablen Kosten, eine bessere Ressourcenallokation, Flexibilität, Agilität, Ortsunabhängigkeit – dadurch flexibleres Recruiting von Leuten auf der ganzen Welt, Bsp. 37Signals). Wichtig ist, dass sich Unternehmen darüber jedoch im klaren sind, dass Cloud Computing Anbieter einem nicht die Arbeit vollständig abnehmen und das der Weg in die Cloud gut durchdacht und geplant werden muss. Das Unternehmen muss sich zunächst selber kennen und analysieren und schauen wo es Potentiale für Cloud Computing sieht.

Der Glaubenskrieg

Wir haben in der Cloud im Prinzip dieselbe Situation wie wir sie schon in der Vergangenheit gesehen haben. In jedem Bereich gibt es einen Glaubenskrieg, welche Technologie oder welcher Ansatz der Bessere ist. So kennen wir den Krieg zwischen Microsoft und Linux oder aktuell zwischen dem iPhone und Android. In der Cloud haben wir den Krieg der unterschiedlichen Deploymentmodels wie der Private/ Public/ Virtual Private und Hybrid Cloud. Aber anders wie bspw. beim Kampf zwischen Apple und Android, wo hier zwischen der coolen Marke Apple mit seinem verschlossenen iOS System und dem offenen Ansatz von Android argumentiert wird, geht es beim Cloud Computing argumentativ in erster linie um die Themen Datenschutz, Datensicherheit und Compliance.

Es geht um den Use Case

Fakt ist allerdings, dass alles vom gegenwärtigen Use Case abhängt. Denn es gibt nicht die gute oder schlechte Cloud. Betrachten wir einmal die unterschiedlichen Cloud Deployment Ansätze:

Private Cloud
Ich bin kein Gegner der Private Cloud. Ich finde die Adopation der Konzepte und Methoden des Cloud Computing für das eigene Rechenzentrum durchaus interessant. Es besteht dadurch die Möglichkeit, die interne IT deutlich flexibler zu gestalten und seinen internen Kunden und Projekten die Ressourcen on Demand bereitzustellen, wodurch sich die Resourcenallokation verbessert und die Abrechnung ebenfalls genauer wird.

Dennoch sollte ein Unternehmen sich überlegen, ob es tatsächlich Sinn macht eine Private Cloud im eigenen Rechenzentrum aufzubauen. Warum? Mit der Private Cloud hat man die Probleme des klassischen Rechenzentrum Betriebs plus die Komplexität der Private Cloud. Hinzu kommen die Kosten für die Hardware/ Software/ Lizenzen sowie die Fortbildung des Personals. Cloud Computing dient nun einmal dazu, sich auf die eigenen Kernkompetenzen zu konzentrieren. Das schafft man mit einer Private Cloud jedoch nicht!

Public Cloud
Die Public Cloud hilft z.B. Entwicklern mit einer coolen Idee, kostengünstig an dafür benötigte Ressourcen zu gelangen. Die für das Projekt benötigte Infrastruktur wächst mit den Anforderungen der Entwickler und der eigentlichen Software. Dann sind natürlich Webapplikationen dafür bestens geeignet. In den vergangenen Monaten und Jahren sind auf Basis der Public Clouds viele tolle und neue Anwendungen und Geschäftsmodelle entstanden. Aber auch Graphikdesigner sollten sich überlegen, ob sie sich für das Rendern ihrer Videos lieber einen Apple Xserver holen oder doch lieber eine performante Instanz in der Cloud starten. Und auch für andere Bereiche in denen der Datenschutz eine nicht so hohe Bedeutung hat (je nach land in dem der Provider sitzt) sind ausreichend Potentiale vorhanden.

Virtual Private Cloud
Die Virtual Private Cloud verbindet das Beste aus den Welten der Public Cloud und der Private Cloud. Hier sehe ich in Zukunft mehr Produktivsysteme als z.B. in der Public Cloud. Sie ist besonders für Unternehmen interessant, denen verhandelbare SLAs und ein höherer Service wichtig sind. Die Anbieter von Virtual Private Clouds bieten darüber hinaus eine bessere Unterstützung bei der Verwaltung der virtuellen Infrastruktur, was unter anderem auch daran liegt, dass innerhalb einer Public Cloud ein sehr hohes Maß an Standardisierung herrscht. In einer Virtual Private Cloud erhält man dagegen die Möglichkeit für mehr Customization.

Hybrid Cloud
Wird mittelfristig das gängigste Cloud Deploymentmodel werden. Unternehmen stocken darüber bei Bedarf ihre Ressourcen auf, wenn diese benötigt werden und geben Sie im Anschluss wieder zurück. Damit werden Services (nicht nur IaaS sondern auch SaaS und PaaS) in die eigene Unternehmens IT adoptiert. Für die Adaption ist natürlich keine eigene Private Cloud erforderlich, aber ein Cloud Managementsystem, das für die Verwaltung und das Monitoring der einzelnen Services wichtig ist.

Beim Cloud Computing geht es um Selbstverantwortung

Unabhängig davon welches Cloud Deploymentmodel am Ende genutzt wird, ist die Eigenverantwortung ein wichtiges Thema! Ein Nutzer darf nicht die gesamte Verantwortung auf die Seite des Anbieters schieben, wenn es darum geht, die Cloud zu nutzen. Natürlich ist der Anbieter für die Infrastruktur verantwortlich, aber das Unternehmen was die Cloud nutzen möchte muss zunächst seine Hausaufgaben machen. Man sollte als Kunden mit dem Anbieter zusammenarbeiten und ggf. den ersten Schritt machen. Sollte er keine Reaktion zeigen, ist er definitiv der falsche Anbieter für mich. Im Falle der Virtual Private Cloud sollte ich als Kunde Einfluss auf das Design meiner virtuellen Infrastruktur nehmen können und mit dem Anbieter zusammen eine Strategie erarbeiten. Denn das ist genau die Kernkompentenz des Anbieters!

Darüber hinaus sollte jedes Unternehmen über ein Risikomanagementsystem verfügen, dass auf Gefahrenpotentiale aufmerksam macht. Wenn ich bspw. als ein produzierendes Unternehmen tätig bin, habe ich auch mehr als nur einen Lieferanten, für den Fall das mein primärer Lieferant ausfällt.

Der Weg in die Cloud

Es gibt nicht exakt DEN weg in die Cloud, aber es gibt logische Dinge die man berücksichtigen sollte.

Haben Sie eine Strategie und denken Sie über Ihre Governance nach. Ein Problem der Cloud besteht darin, dass sie zum ausprobieren verlockt. Und plötzlich ist man drin und nutzt möglicherweise ungewollt mehrere Services, die nicht in die IT-Strategie passen. Darüber hinaus sollten man sich überlegen, was man mit und in der Cloud machen möchte und was man davon erwartet. Als nächstes gilt es eigene Kriterien aufzustellen die aufzeigen, was man vom Cloud Computing Anbieter erwartet. Im Anschluss müssen die Bereich im Unternehmen identifiziert werden, die in die Cloud gehen können, gefolgt von der Suche nach den für das Unternehmen benötigten Services. Das bedeutet, dass das Unternehmen gründlich analysiert werden muss. Weiterhin ist eine offene Kommunikation zur und innerhalb der IT-Abteilung sehr wichtig!

Design for Failure!

Wenn Sie die Cloud nutzen wollen, sollten Sie eines beachten: Design for Failure!. Die Nutzung von IaaS meint in erster Linie, dass der Provider „nur“ Ressourcen zur Verfügung stellt, mit denen ich mir ein eigenes virtuelles, skalierbares Rechenzentrum aufbauen kann. Ich merke immer wieder, dass dieses Verständnis fehlt. Bei einer Virtual Private Cloud sieht das etwas anders aus, da hier der Service mehr im Vordergrund steht. Bei einer Virtual Private Cloud sollte man daher mit dem Anbieter zusammen ein Design entwickeln. Unabhängig von Public Cloud oder Virtual Private Cloud ist es allerdings wichtig sich mit der Cloud die man nutzt detailliert auszukennen hat.

Bzgl. des Design for Failure sollte man daher grundsätzlich darauf achten, keinen Single Point of Failure zu schaffen. Und vor allem immer davon ausgehen, dass zu jedem Zeitpunkt etwas schiefgehen kann. Das Ziel muss daher darin bestehen, das die Anwendung zu jederzeit funktioniert, auch dann wenn die darunter liegende Hardware bzw. Infrastruktur ein Problem hat.

Multivendor Cloud Strategie

In Bezug auf das Design for Failure Prinzip sollte man sich ebenfalls Gedanken über eine Multivendor Cloud Strategie machen. Dies gilt nicht nur für IaaS sondern ebenfalls für SaaS und PaaS und bedeutet, dass man sich nicht nur auf einen Anbieter konzentriert, sondern seine Services/ Instanzen über mehrere Anbieter hinweg verteilt. Man kann sich dafür zunächst einen primären Anbieter suchen und parallel dazu bei weiteren Anbietern Vorbereitungen treffen. Falls es bei dem primären Anbieter zu einem Problem kommt, kann dann automatisiert umgeswitched werden. Neben der dadurch noch höheren Ausfallsicherheit beugt man damit ebenfalls einem Vendor Lock-in vor und macht sich Gedanken über das grundsätzliche und portable Design der virtuellen Infrastruktur.

Fazit

Cloud Computing hat für jedes Unternehmen Potentiale. Unabhängig von einer Private/ Public/ Virtual Private oder Hybrid Cloud oder IaaS, SaaS, PaaS. Es gilt letztendlich die passende Lösung für sein Unternehmen zu finden und zu schauen wo Cloud Computing helfen kann. Das heißt zunächst das Unternehmen zu analysieren, zu kennen und zu verstehen und die Bedürfnisse und Anforderungen zu definieren. Im Anschluß muss eine Cloud Strategie entwickelt und danach selbstverantwortlich gehandelt werden. Denn Cloud Computing ist nun einmal kein Allheilmittel!

Kategorien
Grundlagen Services

Was bei der Nutzung von EC2 Instanzen zu beachten ist

Nachdem eine AMI gestartet wurde steht eine sogenannte Instanz bereit, die sich im Status „running“ befindet. Eine Instanz die zentrale Komponente, wenn es darum geht, in der Amazon Cloud Daten zu verarbeiten. Dazu stellt Amazon mehrere unterschiedliche Instanz Typen für unterschiedliche Einsatzszenarien zur Verfügung.

Für die bestmögliche Nutzung von Amazon EC2 Instanzen sollten folgende Hinweise beachtet werden:

  • Wichtige und langfristig benötigte Daten sollten nicht auf dem lokalen Instanzspeicher abgelegt werden.
    Wenn eine Instanz ausfallen sollte, sind die Daten auf dem lokalen Speicher nicht mehr vorhanden. Das kann umgangen werden, indem eine Replikationsstrategie angewendet wird, bei der die Daten über mehrere Instanzen repliziert werden. Weiterhin kann Amazon S3 oder Amazon EBS für das dauerhafte Speichern von Daten verwendet werden.
  • Erstellen von Images die regelmäßig für eine bestimmte Aufgabe benötigt werden.
    Für den Einsatz von Web Anwendungen wird z.B. ein Image für Datenbank Instanzen und ein weiteres für Web Server Instanzen erstellt.
  • Überwachen des Zustands der Instanzen
    Das kann z.B. mit Amazon CloudWatch vorgenommen werden.
  • Die Firewall Regeln von Amazon EC2 sollten so restriktiv wie möglich sein.
    Es sollten zunächst nur die Berechtigungen vergeben werden, die auch tatsächlich benötigt werden. Weiterhin sollten für alle Instanzen mit unterschiedlichen Sicherheitsanforderungen separate Security Groups erstellt werden. Es sollten ggf. zusätzliche Sicherheitsmaßnahmen innerhalb einer Instanz getroffen werden, z.B. der Einsatz der eigenen Firewall. Für den SSH Zugriff auf eine bestimmte Instanz sollte eine Bastion Group erstellt werden, die ausschließlich einen externen Login erlaubt. Alle weiteren Instanzen sollten einer Security Group zugewiesen werden die einen externen Login verbietet.

Quelle

Kategorien
Grundlagen Services

Das Konzept des Amazon Elastic Block Store

Der Amazon Elastic Block Store (Amazon EBS) ist eine spezielle Speicherart, die speziell für Amazon EC2 Instanzen konstruiert wurde. Mit Amazon EBS können Volumes erstellt werden, die von Amazon EC2 Instanzen wie externe Geräte eingebunden (gemounted) werden können. Amazon EBS Volumes verhalten sich wie unformatierte externe Block-Devices. Sie können durch den Benutzer benamt werden und stellen eine Block-Device-Schnittstelle bereit. EBS Volumes können mit einem Dateisystem ausgestattet oder wie ein gewöhnliches Block-Device genutzt werden.

Ein AWS Account ist auf 100 EBS Volumes oder in der Summe auf eine Volume Gesamtspeichergröße von 20 Terrabyte begrenzt. Dabei beträgt die maximale Größe eines Volumes 1 Terrabyte. Jedes EBS Volume kann jeder EC2 Instanz innerhalb derselben Verfügbarkeitszone hinzugefügt werden.

Mit Amazon EBS können Snapshots (Backups) der EBS Volumes erstellt und auf Amazon S3 gespeichert werden. Diese Snapshots können als Ausgangspunkt für neue EBS Volumes genutzt werden und schützen die Daten langfristig. Weiterhin können Snapshots mit bestimmten Benutzern geteilt oder öffentlich verfügbar gemacht werden.

Amazon EBS Volumes verfügen über folgende Eigenschaften:

  • Speichern ausserhalb der Instanz
  • Persistenz jenseits der Lebensdauer von Instanzen
  • Hohe Verfügbarkeit und Zuverlässigkeit
  • Hinzufügen und Entfernen der Volumes für bereits ausgeführte Instanzen
  • Darstellung als ein eigenes Gerät innerhalb der Instanz

Amazon EBS Snapshots verfügen über folgende Eigenschaften:

  • Erfassung des aktuellen Zustands eines Volumes
  • Datensicherung
  • Instanziierung neuer Volumes, die den exakten Inhalt eines Snapshots beinhalten

Amazon EBS Anwendungsfälle


Fehlertoleranz

Amazon EBS ist so konstruiert, dass jede Instanz zu einem Speichervolumen hinzugefügt werden kann. Fällt eine Instanz auf Grund eines Fehlers aus, löst sich das EBS Volume automatisch mit den intakten Daten von der Instanz. Anschließend kann das Volume zu einer neuen Instanz hinzugefügt werden und der Wiederherstellungprozess beginnen.

Erklärung

  • 1. Eine Amazon EC2 Instanz ist mit einem EBS Volume verbunden. Die Instanz fällt aus, bzw. Probleme treten auf.
  • 2. Zur Wiederherstellung muss das EBS Volume nun von der Instanz gelöst werden. Das kann auch automatisch durch das EBS Volume erfolgen. Anschließend wird eine neue Instanz gestartet und das Volume dieser neuen Instanz hinzugefügt.
  • 3. Für denn Fall das ein Amazon EBS Volume ausfällt, kann eines neues EBS Volume auf Basis des jüngsten Snapshots des Volumes erstellen, dass ausgefallen ist.

Neue Volumes auf Basis von Snapshots erstellen

Amazon EBS Snapshots ermöglichen den schnellen Einsatz neuer Volumes, indem ein bereits vorhandener Snapshot als Ausgangspunkt für diese neuen Volumes dient.

Erklärung

  • 1. Es wird ein Web-Service mit einer großen Datenmenge verwendet.
  • 2. Wenn die Daten fertig sind, kann ein Snapshot des Volumes in Amazon S3 zur langfristigen Datensicherung gespeichert werden.
  • 3. Wenn der Datenverkehr und Ressourcenverbrauch ansteigt, kann aus dem Snapshot ein neues Volume erstellt, eine neue Instanz gestartet und anschließend dieser neuen Instanz das neue Volume hinzugefügt werden.
  • 4. Wenn sich der Datenverkehr wieder verringert, können eine oder mehrere Amazon EC2 Instanzen heruntergefahren und ihre EBS Volumes gelöscht werden.

Datenpersistenz

EBS Volumes existieren unabhängig von den aktuell vorhandenen Instanzen und bleiben solange vorhanden, bis sie explizit gelöscht werden. Das ermöglicht das Speichern von Daten, ohne dass eine Instanz gestartet sein muss.

Erklärung

  • 1. In regelmäßigen Abständen wird eine Instanz zur Batchverarbeitung von großen und wachsenden Datenmengen ausgeführt.
  • 2. Am Ende der Verarbeitung wird die EC2 Instanz beendet. Das EBS Volume wird aber weiterhin ausgeführt.
  • 3. Werden die Daten das nächste Mal verarbeitet, wird eine neue EC2 Instanz gestartet und dem bereits vorhandenen EBS Volume hinzugefügt.

Auf Basis dieses Vorgehens können die Daten nur mit den Ressourcen auf unbestimmte Zeit verarbeitet und gespeichert werden, die auch tatsächlich benötigt werden.

Root Partition

EBS Volumes können als Root Device (Partition) für Linux und Windows Instanzen verwendet werden. Dadurch besteht die Möglichkeit Root Partitionen mit der Größe von bis zu 1 Terrabyte zu nutzen.

Weiterhin kann das EBS Volume (als Root Partition) von einer anderen Instanz gemounted werden, falls eine Instanz ausfällt.

Die Größe der Partition kann während des Startvorgangs mittels Block Device Mapping geändert werden.

Erklärung

  • 1. Ein vorhandenes AMI ist in Amazon EBS gespeichert. Es Änderungen daran vorgenommen und ein neues AMI erstellt.
  • 2. Falls die Größe der Root Partition nicht mehr ausreicht, wird die Instanz gestoppt und mit einem größeren EBS Volume neu gestartet.
  • 3. Falls eine Instanz ausfallen sollte, wird eine neue Instanz gestartet und die Root Partition (EBS Volume) der ausgefallenen Instanz gemounted.

Große Datenmengen

Amazon EBS bietet größere Volumes als Amazon EC2 Instanzen. Jedes EBS Volume kann bis zu einem Terrabyte groß sein.

Quelle

Kategorien
Tutorials

Virtuelle Maschinen für Amazon EC2 mit dem VMBuilder erstellen

Dieses Tutorial beschreibt wie ein offizielles Amazon EC2 Image mit dem VMBuilder deployed wird.

Installation


Installation auf Karmic Koala (9.10) und späteren Versionen

Für alle Ubuntu Versionen ab Karmic Koala (9.10) sind fertige Pakete vorhanden.

Kategorien
Grundlagen Services

Amazon Machine Images (AMI)

Eine Amazon EC2 Instanz kann auf Basis eines Amazon Machine Image (AMI) welches sich in Amazon EBS befindet oder eines AMI welches in Amazon S3 gespeichert ist gestartet werden. Dabei verwenden Instanzen, bei denen die AMIs in Amazon EBS gespeichert sind, EBS Volumes als Root Device (von wo gebooted wird). Dagegen nutzen Instanzen, deren AMIs in Amazon S3 abgelegt sind einen Instanzspeicher als das Root Device.

Die folgende Tabelle beschreibt die Unterschiede zwischen AMIs die in Amazon EBS abgelegt sind und AMIs die sich in Amazon S3 (Instanzspeicher) befinden.

Eigenschaften
Amazon EBS
Amazon S3 (Instanzspeicher)
Bootzeit Gewöhnlich weniger als 1 Minute. In der Regel weniger als 5 Minuten.
Größenbeschränkung 1 Terrabyte (TB) 10 Gigabyte (GB)
Speicherort Amazon EBS volume Instanzspeicher
Datenpersistenz Die Daten bleiben vorhanden, wenn die Instanz ausfällt und können gespeichert werden, wenn die Instanz beendet wird. Die Daten bleiben nur für die Lebensdauer der Instanz erhalten.
Erweiterung Der Instanz-Typ, Kernel, die RAM Disk und die Benuterdaten können geändert werden, während die Instanz gestoppt (angehalten) ist. Die Attribute einer Instanz sind für ihre Lebensdauer festgesetzt und können währenddessen nicht geändert werden.
Kosten Instanz Nutzung, Amazon EBS Volume Nutzung und Amazon EBS Snapshot Kosten zum Speichern der AMI. Instanz Nutzung und Amazon S3 Kosten zum Speichern der AMI.
AMI Erstellung / Bundling Verwendet einen einzigen Befehl / Anweisung Erfordert die Installation und die Nutzung der AMI Tools
Stoppen / Anhalten Kann in den Zustand „angehalten“ überführt werden, wenn eine Instanz nicht ausgeführt wird, aber in Amazon EBS gespeichert ist. Kann nicht gestoppt werden, Instanzen werden ausgeführt oder nicht.

Öffentliche AMIs können direkt über Amazon oder die Amazon EC2 Community bezogen werden. Öffentliche AMIs dienen als Basis und können dazu benutzt werden, um eigene maßgeschneidert AMIs zu erstellen.

Private AMIs sind AMIs die einem selbst gehören. Auf diese kann daher nur selbst bzw. von Leuten zugegriffen werden, denen man den Zugriff erlaubt hat.

Shared AMIs werden von Entwicklern erstellt und anderen Entwicklern für die Nutzung zur Verfügung gestellt.

Paid AMIs können von Entwicklern oder Unternehmen wie z.B. RedHat gekauft werden. Es existieren ebenfalls AMIs die an spezielle Serviceverträge gekoppelt sind.

Quelle

Kategorien
Grundlagen Services

Der Amazon EC2 Workflow

Die folgende Graphik verdeutlicht den grundsätzlichen Ablauf zum Verwenden von Amazon EC2.

  • 1. Zunächst wird ein AMI (Amazon Machine Image) von Grund auf neu, oder auf Basis eines bereits vorhandenen AMIs erstellt. Dieser Vorgang ist optional, da Instanzen aus bereits vorhandenen AMIs gestartet werden können, ohne diese vorab zu verändern.
  • 2. Für ein AMI das einen lokalen Instanzspeicher für sein Root Device verwendet, muss der Prozess zum bundlen und registrieren des AMIs erfolgen. Für ein AMI hingegen, dass ein Amazon EBS Volume verwendet, reicht es aus, den create Image Befehl auf einer bereits gestarteten Instanz auszuführen. Amazon EC2 gibt anschließend eine AMI ID zurück, wodurch auf Basis des AMI so viele Instanzen wie gewünscht gestartet werden können.
  • 3. Starten einer oder mehrerer Instanzen eines AMI.
  • 4. Verwalten und verwenden der Instanzen als wären es gewöhnliche Server.

Quelle