Kategorien
Services

Die Welt wartet auf den Apple Wolkenkratzer iCloud

Am 06.06.2011 kündigte Steve Jobs an, dass Apple plant, im Herbst dieses Jahres seine Cloud Computing – Lösung, iCloud, auf den Markt zu bringen. iCloud wird den Nutzern der Apple-Produkte viel Arbeit abnehmen. Cloud Computing mit iCloud bedeutet, dass sämtliche Dateisysteme eines Nutzers, einschließlich Bilder, Musik, Apps, Einstellungen und sonstige Dokumente, auf dem zentralen Apple-Server gespeichert und dort automatisch gesichert werden. Da die Geräte der Nutzer, wie iPhone und iPad, miteinander synchronisiert werden, kann auch Datenaustausch zwischen den Anwendungen problemlos stattfinden. Der Nutzer soll von dieser Art von ‚Hintergrund-Arbeit’ weitestgehend verschont bleiben.

iCloud ersetzt MobileMe, womit bisher die Apple-Benutzer ihre E-Mails, Kalender, Kontakte usw. über das Web synchronisieren können. Diese Applikation ist allerdings laut Jobs nicht ihre beste App. Außerdem ist diese App kostenpflichtig, während iCloud nichts kostet.

Inzwischen gibt es eine Beta-Version von iCloud, die den registrierten Entwicklern unter der Adresse icloud.com zugänglich ist. Es wurde auch bekannt, dass jeder Anwender, der sich bei iCloud meldet, zuerst 5 Gigabyte Speicherplatz zum Nulltarif erhält. Außerdem bekommt jeder Nutzer ein E-Mail-Angebot, eine Kontaktverwaltung und einiges mehr zur Verfügung gestellt. Um seinen zusätzlichen Speicherbedarf zu decken, muss er einen nach Volumen gestaffelten Preis bezahlen, beginnend mit $20 für 10 Gigabyte jährlich.

Auch wenn der gemeine Apple Anwender über dieses Angebot, das ihm bei der Nutzung der Apple-Produkte erheblich entlastet, sich freuen darf, sollte er über einige Nachteile, die für Cloud Computing insgesamt gelten, Gedanken machen.

Er wird fast keine Kontrolle mehr haben über seine Daten. Er wird wahrscheinlich nie erfahren können, was sein Service-Anbieter, in diesem Fall Apple, mit den Daten tut. Datenschützer warnen schon.

Es gibt ein weiteres Problem, das neulich Wikileaks bei seinem Cloud Computing Anbieter, Amazon.com, erfahren durfte. Nach Enthüllungen der US-Geheimdokumente durch Wikileaks, sperrte Amazon übernacht den Spiegelserver von Wikileaks mit der Begründung, Wikileaks verfüge nicht über die notwendigen Rechte an den Dokumenten. Mit anderen Worten, der Serviceanbieter kann über die Verfügbarkeit der Daten für den rechtmäßigen Besitzer derselben entscheiden. Wikileaks konnte damit leben, weil Amazon nur einen Spiegelserver blockieren konnte. Was würde passieren, wenn nicht Wikileaks, sondern eine Start-Up-Firma davon betroffen wäre?

Kategorien
Services

Cloud9 IDE: Development-as-a-Service

Wenn Software für die Nutzung in der Cloud entwickelt wird, findet dieses in der Regel auf dem lokalen System statt. Anschließend wird der Programmcode bspw. auf PaaS Systeme wie der Google App Engine oder cloudControl hochgeladen, wo dieser ausgeführt wird. Cloud9 IDE geht einen völlig neuen Weg der als Development-as-a-Service bezeichnet wird.

Bei Cloud9 handelt es sich um eine kommerzielle Entwicklungsumgebung für Javascript, die ebenfalls HTML5-Funktionen und Skriptsprachen wie Python, Ruby und PHP unterstützt. Anders als bei herkömmlichen Platform-as-a-Services wird die Anwendung vollständig in einer Browser-basierten Entwicklungsumgebung geschrieben. Diese nutzt das Open Source Projekt Ace, welches einen in Javascript geschriebenen Editor implementiert. Im Hintergrund sorgt ein NodeJS-Server für das Hosten und die Verarbeitung der online entwickelten Anwendungen.

Neben dem Syntax Highlighting verfügt der Editor über Funktionen wie dem automatischen Ein- und Ausrücken sowie eine optionale Kommandozeile. Des Weiteren stehen ein vi- und Emacs-Modus bereit sowie das Handeln von Programmcodes mit bis zu 100.000 Zeilen. Neben einer integrierten Chatfunktion können mehrere Entwickler parallel am selben Programmcode arbeiten und Javascript Anwendungen ausführen und debuggen. Eine weitere Funktion ist die direkte Anbindung an den webbasierten Hosting-Dienst Github.

Eine Demo des Editors kann unter http://ajaxorg.github.com/ace/build/editor.html ausprobiert werden.

Cloud9 IDE gibt es in zwei Preismodellen. Einer „Free“ Variante und einer „Premium“ Variante für 15 Dollar pro Monat.

Wird die „Free“ Version genutzt, sollte man sich bewusst sein, dass hiermit automatisch ein (öffentliches) Open Source Projekt erstellt wird. Das bedeutet, dass erwartet wird, dass die allgemeine Open-Source-Lizenz erfüllt wird. Hinzu kommen weitere „Einschränkungen“, die der offiziellen Webseite unter Pricing zu entnehmen sind. Dazu gehören:

Ein „Free“ Projekt…

    … kann, ebenfalls während der Bearbeitung, von jeder Person öffentlich eingesehen werden.
    … kann von jeder Person „geforked“ werden.
    … wird im kommenden Projekt Browser zur Verfügung gestellt.
    … wird möglicherweise auf der Webseite von Cloud9 IDE aufgelistet.
    … kann von den Google Bots gefunden werden.

Ergo: Wer also ein privates, von Dritten nicht einsehbares Projekt starten möchte, sollte die „Premium“ Variante nutzen.

Kategorien
Services

Vorstellung: Witsbits – Private Cloud Management as a Service

Denken Unternehmen an Cloud Computing, werden Sie immer wieder mit den Themen Sicherheit & Datenschutz konfrontiert. Die Angst und das Risiko sind vielen zu hoch, einen Datenverlust zu erleiden oder das Unbefugte Zugriff erhalten. Der Weg in die Public Cloud wird daher immer stärker abgewogen. Das schwedische Unternehmen Witsbits geht mit einem ganz anderen Konzept an den Markt, was ich als „Private Cloud Management as a Service“ bezeichnen würde, quasi die schwedische Lösung dem Cloud Computing zu begegnen.

Die Idee ist relativ einfach. Mit Hilfe eines bootbaren USB-Sticks oder einer CD-ROM, auf dem sich ein Witsbits Cloud-Key befindet, bereitet der Administrator die physikalischen Server vor, auf denen später die virtuellen Maschinen (auf Basis von KVM) betrieben werden sollen. Anhand des Cloud Keys verbinden sich die Server automatisch mit der Witsbits Management Platform, von wo aus die Private Cloud im eigenen Rechenzentrum/ Serverraum über eine zentrale und Web-basierte Oberfläche verwaltet werden kann.

Zielgruppe dieser Lösung sind kleine und mittelständische Unternehmen. Wobei ich den Ansatz ebenfalls ideal für Systemhäuser halte, die ihren Kunden entweder eine Private Cloud (Flexibilisierung der vorhandenen lokalen Ressourcen) anbieten möchten bzw. für die Fernadministration der Server zuständig sind.

Für die Einrichtung ist keine Installation notwendig, wodurch die Inbetriebnahme relativ schnell vorgenommen werden kann. Derzeit werden zwei Abrechnungsvarianten unterschieden: Free und Premium. Die Variante „Free“, verursacht, wie der Name bereits verrät, keine Kosten. Allerdings ist die Nutzung hier auf 8 GB vRAM (The maximum total amount of Virtual Machine primary memory (RAM) under management at any given time.) beschränkt. Die Variante „Premium“ kostet 3 Dollar pro 1 GB vRAM pro Monat, wobei hier keine Obergrenze für den vRAM besteht.

Kategorien
Events

Cloud Entwickler sind die Unternehmer von morgen!

Nicht zuletzt durch die Möglichkeiten des Cloud Computing sind in den vergangenen Jahren viele innovative Anwendungen und darauf basierende Geschäftsmodelle entstanden. Die Cloud :: Developer Convention ’11 am 13./ 14. Oktober 2011 in Hamburg geht diesen Weg einen Schritt weiter.

Während dieses riesigen und erstmalig in Deutschland und Europa stattfindenden Cloud Hackathon im 5 Sterne Design Hotel EAST Hamburg, erhalten bis zu 200 Teilnehmer die Möglichkeit in zwei Tagen alleine oder besser in Teams, eine Applikation auf einer von ihnen bevorzugten Cloud Computing Infrastruktur zu entwickeln.

Zu den bisherigen Partnern der Cloud :: Developer Convention ’11 zählen:

StartUp Partner

  • HackFwd

Infrastruktur Partner

  • Google
  • Microsoft
  • Amazon Web Services
  • OpenShift
  • Fabasoft
  • cloudControl
  • Scalarium
  • 46Elks
  • Transloadit

Eine Jury aus weltweit anerkannten Experten, Entwicklern, IT-Architekten und Unternehmern wird die Ergebnisse am Ende der zweitägigen Veranstaltung bewerten und prämieren.

Zu den Jury Mitgliedern gehören bisher:

  • Stefan Richter, Board Member HackFwd und CEO (Freiheit.com)
  • Jurg van Vliet, CEO (9Apps)
  • Matt Wood, Technology Evangelist (Amazon Web Services)
  • Andreas Dangl, CEO (Fabasoft)
  • Jonathan Weiss, Technology Consultant (Scalarium)
  • Philipp Strube, CEO (cloudControl)

Die Jury wird dazu die folgenden drei Kategorien bewerten:

  • The most creative application!
  • The most cloudable application!
  • The most portable application!

Die Preise

Natürlich gibt es auch etwas zu gewinnen. Und das hat es in sich!!! Zunächst hat sich jedes Partnernunternehmen dazu bereit erklärt anstatt einer direkten finanziellen Beteiligung, in Form einer Sponsoringgebühr, Preise für die Gewinner des Hackathons zur Verfügung zu stellen.

So erhalten bspw. alle Gewinner aus den oben genannten Kategorien die Gelegenheit Ihre Applikation/ Geschäftsmodell ein weiteres Mal dem gesamten HackFwd Board zu präsentieren und damit ihre Idee möglicherweise mit Hilfe von HackFwd Wirklichkeit werden zu lassen!

Weitere Preise durch die Partner:

  • Microsoft: 5x “Xbox 360 (250 GB) + Kinect”
  • cloudControl: 1.500 EUR in cloudControl Credits plus 3 Monate kostenlosen Professional Support.
  • Scalarium: Dienstleistungspaket bestehend aus 6 Monate kostenloser Nutzung von Scalarium plus kostenlosem Support.
  • 46Elks: Dienstleistungspaket bestehend aus 2 Monate kostenloser Nutzung plus kostenlosem Support.
  • O’Reilly: 8 Bücher aus dem O’Reilly Sortiment.

Die Preise von Amazon und Fabasoft folgen.

Teilnahmegebühren

Da die Partnerunternehmen sich nicht direkt monetär beteiligen, also keine Sponsorengebühren bezahlen, muss die Veranstaltung mit Hilfe von Teilnehmerbeiträgen finanziert werden, um die Location sowie die Verpflegung etc. zu bezahlen.

Die Teilnahmegebühren liegen zwischen 499 EUR + VAT und 799 EUR + Vat und sind in sogenannte Price Waves aufgeteilt. Wer also zuerst kommt zahlt weniger.

Weitere Informationen zur Cloud Developer Convention ’11 gibt es unter http://cloud-devcon.com

Kategorien
Management

Anwendungsbereiche des Cloud Computing (Redux)

Auf Grund seiner Charakteristiken lässt sich Cloud Computing insbesondere für Szenarien einsetzen, in denen Systeme periodischen oder nicht vorhersagbaren Einflüssen ausgesetzt sind oder einem stetigen Wachstum unterliegen. Cloud Computing lässt sich jedoch vielfältig einsetzen, wie die folgenden Anwendungsfälle zeigen.

Optimierung der eigenen IT-Infrastruktur

Der Großteil aller Unternehmen verfügt über eine eigene, in der Regel komplexe IT-Infrastruktur, die es zu verwalten gilt, um den immer neuen und steigenden Anforderungen gerecht zu werden. Dadurch verlieren die meisten den Fokus auf die eigenen Kernkompetenzen, um sich mit genau diesen von ihren Mittbewerbern zu differenzieren und hieraus einen Vorteil zu erzielen.

Weiterhin werden enorme finanzielle und zeitliche Investitionen getätigt, um den Anforderungen an das laufende Geschäft durch das Verwalten, Vergrößern und Skalieren von Ressourcen und Kapazitäten zu erhöhen (Stichwort: Lastspitzen), wodurch sich die Produktivität z.B. für neue geschäftskritische Projekte verringert. An dieser Stelle dürfen ebenfalls nicht die Vorabinvestitionen vernachlässigt werden, die für den Aufbau der IT-Infrastruktur sowie den laufenden Betrieb/ Wartung vorgenommen werden müssen.

Mit dem Einsatz von Cloud Computing Lösungen z.B. durch das Outsourcing interner IT-Anwendungen oder die Nutzung von Cloud Storage können externe Ressourcen effektiv und bedarfsgerecht genutzt werden und die oben genannten Kosten lassen sich damit minimieren.

Content bereitstellen

Unternehmen stehen vor der Herausforderung, Inhalte wie Bilder, Videos oder sonstige Downloads auf Ihren Webseiten den Kunden hochperformant und zuverlässig bereitzustellen. Eine Möglichkeit dies zu realisieren, ist das Erhöhen des Durchsatzes sowie die Verringerung der Latenz innerhalb des Netzwerks.

Mittels eines Content Delivery Network (CDN) innerhalb einer Cloud Computing Infrastruktur, in welchem die Inhalte auf sogenannten Edge-Servern gespeichert werden und die sich in einem Rechenzentrum, das sich möglichst nah am Benutzer befindet, können Teile der oben genannten Anforderungen erfüllt werden. Zusätzlich können Algorithmen verwendet werden, welche die Inhalte zum Zeitpunkt der Anfrage auf die Server in der Nähe des Benutzers kopieren, wodurch die Leistung weiter erhöht wird.

Hosting von Anwendungen

Vor der Einführung des Software-as-a-Service Modells (SaaS) (abgesehen von den Application Service Providern – ASP) waren Unternehmen gezwungen eigene Infrastrukturen für die Nutzung und Bereitstellung lokaler Anwendungen aufzubauen und zu warten. Mit SaaS können diese Anwendungen nun online gehostet und verwendet werden. Die Vorteile ergeben sich auf der einen Seite durch Kosteneinsparungen auf Grund eines nutzungsabhängigen Abrechnungsmodells durch automatisierte Updates und Upgrades durch den Anbieter. Auf der anderen Seite ist eine gute Integration in die eigenen bestehenden Systeme ein Vorteil.

Anbieter von Software-as-a-Service basierten Anwendungen stehen vor der Herausforderung die kostspieligen und komplexen Infrastrukturen, die für das Hosting dieser Anwendungen benötigt werden, aufzubauen sowie skalierbar und hochperformat bereitszustellen. Zumal die Nachfrage durch die Kunden mittels eines Forecast schwierig anzuschätzen ist.

Bereitstellung von Medieninhalten

Wollen Unternehmen ihren Kunden Medieninhalte über das Internet bereitstellen, stehen sie vor der Herausforderung, Lastspitzen durch nicht kalkulierbare Anfragemengen zu unterschiedlichen Zeitpunkten zu bewältigen, die nicht überschaubar sind und teuer werden können. Anforderungen an die gesamte Infrastruktur betreffen hierbei die verfügbare Bandbreite, die Performance, den Speicherplatz und nicht zu vernachlässigen: Die Sicherheit. All das kann dazu führen, dass die ursprünglich geplanten Kosten deutlich höher ausfallen.

High Performance Computing

Die Verarbeitung großer Datenmengen für die eine hohe Rechenleistung benötigt wird, ist in den vergangenen Jahren stark angestiegen. Davon betroffen sind vor allem Unternehmen aus den Bereichen der Medizintechnik, Finanzdienstleitungen und Medien.

Für einzelne rechenintensive Projekte werden die Kapazitäten der Infrastrukturen oftmals stark erweitert, da die bestehende Infrastruktur nicht leistungsfähig genug ist. Im schlimmsten Fall stehen zusätzlich nicht ausreichend finanzielle Mittel und Zeit zur Verfügung, um die Infrastruktur gemäß den Anforderungen anzupassen. Hinzu kommt der Aufwand zur Errichtung und dem Erweitern der Serverumgebungen und der damit verbundenen Beschaffung und Bereitstellung der Hard- und Software. Das Gewährleisten einer hohen Verfügbarkeit darf ebenso wenig vernachlässigt werden wie die Sicherheit der gesamten Umgebung. Weiterhin muss die Infrastruktur verwaltet werden (u.a. Zuweisung des Speichers, Konfiguration der Batchprozesse, etc.), um den Geschäftszweck zu erfüllen, was implizit dazu führt, dass die Mitarbeiter dementsprechend fortgebildet und verwaltet werden müssen.

Eine weitere Herausforderung ist die Verwaltung und Neuzuordung der Ressourcen nach dem erfolgreichen Beenden eines Projekts. Werden die verfügbaren Ressourcen nicht umgehend neuen Projekten oder Aufgaben zugewiesen, sind diese ungenutzt und verursachen Kosten ohne einen Wertbeitrag zu leisten.

Mittels Cloud Computing können die Problematiken der oben genannten Punkte minimiert werden und Ressourcen für Projekte aus dem Bereich des High Performance Computing (HPC) bzw. Parallel Computing bedarfsgerecht und kosteneffizient bezogen werden.

Externe E-Commerce Lösungen

Im Bereich des E-Commerce verfügen die meisten Unternehmen nicht über die Kernkompetenzen, um in ihren Anwendungen die notwendigen Eigenschaften für einen ganzheitlichen Handelsprozess zu etablieren. Dazu gehören der gesamte Zahlungsverkehr, die Auftragsverwaltung, das Kommissionieren und Verpacken der Artikel sowie den Versand zum Kunden. Weiterhin muss die gesamte IT-Infrastruktur auf die E-Commerce Lösung abgestimmt sein, um die Bearbeitung der Kundenanfragen zuverlässig und sicher abzuwickeln und ebenfalls auf saisonale bzw. unerwartete Lastspitzen durch schwankende Anfragen flexibel zu reagieren.

Zahlreiche Cloud Computing Anbieter stellen E-Commerce Lösungen bereit, wodurch Unternehmen auf den Aufbau und die Verwaltung einer eigenen Plattform verzichten können und sich damit auf ihre Kernkompentenzen und ihre Kunden konzentrieren können.

Webcrawler

Informationen sind im Internet weit verteilt und unorganisiert, wodurch für das Suchen, Abfragen, Verteilen und Organisieren dieser Daten hohe Anforderungen hinsichtlich der Verarbeitung und dem Speichern gestellt werden. Weiterhin werden moderne Algorithmen benötigt, mit denen diese Daten manipuliert, indiziert und die Anfragen der Benutzer beantwortet werden können. Der ständige Wandel innerhalb des Internets verstärkt zudem die Situation, exakt die Informationen zu finden, die gesucht wurden.

Mit Cloud Computing steht im Prinzip jedem die Möglichkeit bzgl. Speicherplatz und Rechenleistung zur Verfügung, um einen eigenen Webcrawler zu entwickeln. Dazu müssen Dinge beachtet werden, die auch von der Infrastruktur eines Cloud Computing Anbieters erfüllt werden müssen, auf welcher der Webcrawler dann ggf. ausgeführt wird.

Datenspeicherung und Datenbackup

Eine der größten Herausforderungen für Unternehmen ist die stetige Zunahme der zu speichernden Daten, welche die Verwaltungsaufgaben immer komplexer und kostspieliger werden lässt. Nicht nur auf Grund dieser Situation wird die Gewährleistung des Datenschutzes und der Datenverfügbarkeit immer wichtiger. Cloud Storage für das Speichern und Backup der Daten ist hierfür ein idealer Ansatz, wenn gewisse Punkte beachtet werden.
Ein Cloud Storage hat bspw. in erster Linie den Vorteil, dass der genutzte Speicherplatz automatisch mit den Bedürfnissen mitwächst. Werden heute 10GB, morgen aber 100GB benötigt, stellt das kein Problem dar und es müssen dafür keine eigenen Investitionen in neue Speichersysteme getätigt werden.
Zudem stehen alle Daten an einer zentralen Stelle bereit, wodurch alle Mitarbeiter von jedem beliebigen Ort aus einen gemeinsamen Zugriff auf exakt denselben Datenbestand erhalten und damit die Zusammenarbeit deutlich verbessert wird.

Web-Hosting

Unternehmen haben unterschiedliche Lösungsansätze, um das Web-Hosting ihrer Webseite zu betreiben. Zunächst besteht die Möglichkeit ein eigens Rechenzentrum aufzubauen und zu betreiben. Weiterhin kann ein Drittanbieter damit beauftragt werden, die Webseite auf seine dafür dedizierten Servern zu hosten und zu verwalten. Der letzte Ansatz ist die Nutzung Cloud Computing basierter Lösungen.

Egal welcher Ansatz nun verfolgt wird, ist es für Unternehmen unabdingbar eine Infrastruktur auszuwählen, die ihnen eine größtmögliche Sicherheit, Zuverlässigkeit und Performance bietet. Unabhängig davon rücken die Kosten, also fixe Kosten und variable Kosten, immer weiter in den Fokus und betreffen jedes Unternehmen jeder Größe. Zudem ist in den letzten Jahren der Wunsch nach Flexibilität immer weiter gestiegen um die Kosten transparenter im Blick zu behalten.

Cloud Computing Lösungen geben Unternehmen hierbei die Chance ihre Vorabinvestitionen zu verringern und damit Kapital zu sparen. Ein weiterer Vorteil einer Cloud Lösung besteht in der Skalierbarkeit in beide Richtungen. Steigt die Auslastung an, können die Ressourcen nach oben skaliert werden. Nimmt die Auslastung wieder ab, werden die überschüssigen Ressourcen wieder freigegeben. In beiden Fällen entstehen nur Kosten für die Ressourcen, die auch tatsächlich genutzt werden.

Kategorien
Analysen

Cloud Computing ist auch eine Frage des Risikomanagements

Ausfälle wie Sie bei Amazon der Fall waren zeigen, dass für die Nutzung von Cloud Computing ebenfalls das Risiko betrachtet und bewertet werden muss, um darüber zu bestimmen, welche Auswirkungen bspw. ein Ausfall des Anbieters oder dessen nicht Erreichbarkeit auf das Unternehmen und seinen Geschäftsbetrieb hat.

Das gilt für die Nutzung von IaaS genauso wie für SaaS oder PaaS. Im Vergleich zu SaaS bestehen bei IaaS und PaaS jedoch weniger Möglichkeiten, eine Cloud Multivendor Strategie aufzubauen. Das ist dem Umstand geschuldet, dass der SaaS Anbieter den kompletten Stack von der Infrastruktur, über die Datenhaltung bis hin zur Oberfläche abbildet. Der automatische Transfer der Daten während eines Fehlerfalls bzw. die Echtzeit Synchronisation der Daten zwischen zwei oder mehreren SaaS Anbietern ist quasi unmöglich, was letzten Endes nicht nur an den proprietären Schnittstellen liegt, sondern ebenfalls der Art wie die einzelnen Prozesse intern abgebildet sind. Cloud Computing bedeutet nun einmal auch Standardisierung auf höchstem Niveau. Un dessen muss man sich als Unternehmen bewusst sein, wenn man Software-as-a-Service nutzen möchte.

Im Gegensatz dazu können bei der Nutzung von IaaS und auch PaaS die Daten bzw. das System oder die Anwendungen bedeutend einfacher automatisiert über mehrere Anbieter hinweg verteilt werden. IaaS Anbieter zeigen sich für den Bereich der Infrastruktur verantwortlich. Hier erhält man lediglich den Zugriff auf virtuelle Ressourcen (Server) um auf dieser Basis seine eigene virtuelle Infrastruktur aufzubauen. Durch den Anbieter bereitgestellte APIs kann über Skripte eine automatische Verteilung der Daten als auch der Anwendungen zu mehreren Anbietern erfolgen. Dieses Szenario gilt für Public Cloud, als auch Virtual Private Cloud Anbieter. Im Bereich PaaS sieht es ähnlich aus. Hier ist der Anbieter für die Infrastruktur, also den für die Applikationen benötigten virtuellen Ressourcen sowie dem Betriebsystem inkl. dem Anwendungstack (z.B. Apache, Tomcat, usw.) zuständig. Einige kleinere PaaS Anbieter sind jedoch dazu übergegangen, die Infrastruktur nicht selber bereitzustellen und stattdessen auf auf IaaS Public Cloud Anbieter zurückzugreifen. Die Portabilität der Daten und der Anwendung selbst ist abhängig vom Anbieter und welche Programmiersprache bzw. Programmiermodelle genutzt werden können. Bspw. ist die Google AppEngie sehr proprietär, wodurch ein 1:1 Transfer der Anwendung nicht ohne weiteres stattfinden kann.

Unabhängig vom Cloud Computing sind diverse Unternehmen dazu verpflichtet, ein Risikomanagementsystem einzusetzen. Das Thema Risiko ist jedoch nicht immer sehr greifbar, dennoch hat jeder von uns unterbewusst sein eigenes Risikomanagementsystem. Gehen wir bspw. bei Rot über die Ampel, prüfen wir vorher wie es um das Risiko steht, von einem Auto erfasst zu werden. Es ist also ein sehr logischer Vorgang, der im Unternehmensumfeld zu einer sehr komplexen Aufgabe werden kann, wenn alle Parameter berücksichtigt werden müssen, die Einfluss auf eine bestimmte Situation oder ein Szenario haben.

Und genau deswegen muss auch ein Risikomanagement bei der Nutzung von Cloud Computing erfolgen. Zu Beginn habe ich beschrieben, dass auf Basis einer Cloud Multivendor Strategie dem Ausfall meines bevorzugten Cloud Computing Anbieters vorgebeugt werden sollte. Dieses Beispiel ist für ein produzierendes Unternehmen z.B. aus der Automobilindustrie selbstverständlich. So verfügt jeder Hersteller über mehr als einen Zulieferer, für den Fall, dass der primäre Lieferant ausfallen sollte. Wie wir sehen, ist dieses analoge Beispiel sehr gut auf das Thema Cloud Computing abzubilden.

Risikomanagement ist durchaus kompliziert. Sind die wichtigsten Faktoren und Variablen jedoch bekannt und sind dafür ebenfalls Lösungen vorhanden, steht der sicheren und risikominimierten Nutzung von Cloud Computing nichts mehr im Weg.

Dennoch besteht noch viel Aufklärungsarbeit bzgl. der risikokonformen Nutzung von Cloud Computing. Und auch die technische Sicherheit darf in diesem Zusammenhang nicht vernachlässigt werden. Denn nicht nur die Cloud Computing Anbieter selbst sind für die Einführung und Einhaltung technischer (Ausfall-)Sicherheitsmaßnahmen zuständig. Auch der Cloud Computing Nutzer steht in der Pflicht, seine Hausaufgaben zu erledigen und muss sich über die aktuelle Situation informieren und entsprechende Maßnahmen einleiten.

Kategorien
Grundlagen

Servicearten des Cloud Computing (Redux)

Im Cloud Computing existieren grundsätzlich drei verschiedene Arten Dienstleistungen bereitzustellen. Da diese aufeinander aufbauen, wird in diesem Zusammenhang auch von Schichten gesprochen. Anhand dieses Drei-Schichten Modells ergeben sich Möglichkeiten neue Geschäftsmodelle zu entwickeln.

Infrastructure-as-a-Service

Infrastructure-as-a-Service (IaaS) bildet die unterste Schicht des Cloud Computing Service-Modells. Sie ist die Grundlage und stellt die grundlegenden Dienste wie Speicherplatz und Rechenkapazität bereit. Hier wird die Basis-Infrastuktur wie Hardware für Server, Speicherplatz aber auch Router und Switches – mittels Virtualisierung – bereitgestellt. Die gesamte Infrastruktur ist so skaliert, dass sie in Zeiten von Spitzenlast dynamisch erweitert wird und somit unterschiedlichen Auslastungen angepasst werden kann. Bei IaaS ist der Drittanbieter lediglich für die Bereitstellung und Wartung der Hardware zuständig. Alle anderen benötigten Ressourcen wie z.B. das Betriebssystem, Anwendungen etc. obliegen dem Kunden.

Platform-as-a-Service

Platform-as-a-Service (PaaS) bildet die mittlere Schicht des Cloud Computing Service-Models und ist dafür zuständig, eine transparente Entwicklungsumgebung bereitzustellen. Dabei stellt der Drittanbieter eine Plattform zur Verfügung, auf der (Web)-Anwendungen entwickelt, getestet und gehostet werden können. Die Applikationen werden anschließend auf der Infrastruktur des Anbieters ausgeführt und nutzen dessen Ressourcen. Der vollständige Lebenszyklus einer Anwendung kann darüber vollständig verwaltet werden. Über APIs können die Dienste auf der Plattform des jeweiligen Anbieters angesprochen werden. Der Vorteil besteht darin, dass vor allem kleine Unternehmen ihre Entwicklungsinfrastruktur auf ein Minimum beschränken können. Sie benötigen lediglich einen Desktop-PC, einen Web-Browser, evtl. eine lokale IDE, eine Internetverbindung und ihr Wissen, um Anwendungen zu entwickeln. Der Rest obliegt dem Drittanbieter, der für die Infrastruktur (Betriebssystem, Webserver, Entwicklungsumgebung etc.) verantwortlich ist.

Software-as-a-Service

Software-as-a-Service (SaaS) ist die oberste Schicht des Cloud Computing Service-Modells. Sie stellt dem Anwender vollständige Anwendungen bereit. Dadurch kann sie als eine Art Distributionsmodell verstanden werden, bei dem die Nutzung von Software über das Internet von einem Drittanbieter angeboten wird. Der Drittanbieter übernimmt dabei u.a. Hosting und die Wartung der Software. Für den Anbieter besteht der Vorteil darin, dass nur eine Instanz einer Software auf den Servern bereitgestellt werden muss, welche unzählige Anwender gleichzeitig nutzen können. Wird die Software auf einen aktuellen Stand gebracht, genügt ein Update Vorgang an zentraler Stelle und die Software ist für alle Anwender gleichzeitig aktuallisiert. Der Vorteil für den Anwender besteht darin, dass lediglich – wie schon bei PaaS – nur ein Desktop-PC, ein Web-Browser und eine Internetverbindung ausreichen um z.B. Dienste wie E-Mail, Office Anwendungen oder sogar ERP-Systeme nutzen zu können. Die Anschaffung und Wartung großer Serverlandschaften bzw. Softwarepakete entfällt ebenso wie das Updaten der lokalen Anwendungen. Der Drittanbieter sorgt immer für einen aktuellen Stand der Software und stellt die gesamte Infrastruktur für das Hosting der Software bereit. Dazu gehören auch das Speichern von Dateien (Dokumenten) auf den Servern des Anbieters. Der Anbieter ist demnach für alle notwendigen Bereiche des Betriebs wie Verfügbarkeit, Backup, Redundanzen und auch die Stromversorgung verantwortlich.

Kategorien
Grundlagen

Arten von Cloud Computing (Redux)

Cloud Computing unterscheidet grundsätzlich drei Arten von Deployment Models

Private Cloud

In einer Private Cloud betreiben Unternehmen ihre eigenen Rechenzentren und nutzen ihre Dienste nur für Ihre eigenen (geschäftlichen) Zwecke innerhalb ihrer eigenen privaten Netze. Die Nutzung durch die Öffentlichkeit kommt hier nicht in Frage. Die Datensicherheit, ‘Corporate Governance’ und Zuverlässigkeit liegen damit in ihrem eigenen Einflussbereich. Aus diesem Grund werden Private Clouds nur indirekt zum Cloud Computing gezählt. Hier werden lediglich die Ideen und Konzepte adaptiert.

Public Cloud

In einer Public Cloud werden Rechenkapazität, Speicherplatz etc. gegen eine Nutzungsgebühr oder kostenlos der Öffentlichkeit zur Verfügung gestellt. Die Aufgaben, die ein Unternehmen in der Private Cloud übernimmt, werden in der Public Cloud dann von einem Drittanbieter übernommen. Dazu gehören z.B. der Kauf und die Wartung der Server. Die Aufgaben und Services von unterschiedlichen Kunden werden dabei auf derselben Infrastruktur gemeinsam gehostet und verarbeitet. Ein einzelner Kunde hat keine Kenntnis darüber, wessen Dienste ebenfalls auf derselben Infrastruktur gespeichert und verarbeitet werden.

Hybrid Cloud

Eine Hybrid Cloud stellt eine Kombination aus einer Private und einer Public Cloud dar. Dabei verfügen Unternehmen zwar über ihre eigene Private Cloud, verwenden aber zusätzlich Dienste aus der Public Cloud von externen Anbietern. Die Attraktivität besteht vor allem darin, dass der externe Anbieter bei Bedarf schneller und kostengünstiger die benötigte Infrastruktur erhöhen bzw. verkleinern kann. Die Dienste werden so in die Private Cloud integriert, dass der Endanwender nicht merkt, dass er eigentlich woanders arbeitet.

Virtual Private Cloud

In der jüngsten Vergangenheit hat sich eine neue Art des Cloud Computing herauskristallisiert, die Virtual Private Cloud. Dabei handelt es sich wie schon bei der Hybrid Cloud um eine Kombination aus einer Public Cloud und einer Private Cloud. Der Unterschied besteht jedoch darin, dass ein Public Cloud Anbieter für den Kunden einen dedizierten (virtuellen) Bereich im Rechenzentrum des Anbieters bereitstellt. Hier kann der Kunde anschließend sein eigenes virtuelles Rechenzentrum nach Private Cloud Gesichtspunkten (Datenschutz, Datensicherheit und Compliance) aber unter den Bedingungen einer Public Cloud (Skalierbarkeit, Verfügbarkeit, Flexibilität und Pay per use) aufbauen. Eine Verbindung der Virtual Private Cloud mit dem eigenen Rechenzentrum ist ebenfalls möglich.

Kategorien
Kommentar

Amiando kennt offensichtlich keine Selbstverantwortung in der Cloud!

Dem einen oder anderen ist Amiando, der Event und Ticketingservice, sicherlich ein Begriff. Bisher hat das System soweit auch gut funktioniert. Die letzten beiden Tage haben jedoch deutlich gemacht, dass Amiando aus dem Outage bei Amazon über Ostern scheinbar keine Lehren gezogen hat und sich der Selbstverantwortung in der Cloud nicht bewusst ist. Stattdessen weißt das Unternehmen die Schuld von sich und gibt die gesamte Verantwortung an seinen Infrastrukturanbieter ab.

Was war passiert

Vor zwei Tagen erhielt ich mehrere E-Mails und Telefonanrufe von potentiellen Teilnehmern einer Veranstaltung die ich derzeit organisiere. Sie baten mich darum, die E-Mail bzw. den Anruf als Gegenstand der Anmeldung zu betrachten und Ihnen eine Rechnung zu schicken. Ich verwies auf die Registrierungsseite, da die Anmeldung etc. an einen externen Dienstleister abgegeben wurde und ich keine Möglichkeit habe eine Eintrittskarte auszustellen. Die Reaktion der potentiellen Teilnehmer war einfach: „Die Registrierung funktioniert nicht. Da ist kein Eingabefeld.“ Mir stellt sich die Frage, wie viele potentielle Teilnehmer sich nicht gemeldet haben und zu einer Veranstaltung, bei der die Registrierung schon nicht funktioniert, gehen wollen.

Das ich davon nicht alleine betroffen war beweißt der folgende Tweet:

Amiando gibt O2 die Schuld

Ein Anruf beim Amiando Support ergab folgendes Ergebnis. Im Kontext:

Unser Infrastrukturdienstleister O2 hat gerade Probleme, von denen wir auch betroffen sind. Der Host auf dem wir uns befinden funktioniert nicht einwandfrei. Dafür können wir leider nichts, es tut uns aber sehr leid.

Kennen wir diese Aussagen nicht irgendwoher? Richtig, als Amazon seinen Ausfall hatte, argumentierte Mobypicture mit einem ähnlichen Wortlaut.

Amiando: Ihr tragt die Verantwortung!

Natürlich ist es sehr einfach die Schuld nach unten durchzureichen. Aber liebes Amiando Team, so einfach ist dann doch nicht! Ihr bietet eine Lösung á la Software-as-a-Service an. Somit tragt auch ihr die Verantwortung dafür, dass der Service einwandfrei funktioniert. Das die Infrastruktur nicht funktioniert, kann schon mal passieren. Wir erinnern uns: „Everything fails, all the time“ (Werner Vogels, CTO Amazon.com). Aber gerade deswegen muss das Design der Software den Regeln des Cloud Computing entsprechen, unter anderem der Hochverfügbarkeit!

Mehr als ein Anbieter

Um eine Cloud Infrastruktur, auf welcher die Software betrieben wird, scheint es sich bei O2 nicht zu handeln, sonst wäre nicht die Rede von einem einzigen Host gewesen. Also Fehlerquelle Nummer Eins: Nur ein Host. Fehlerquelle Nummer Zwei: Nur ein Anbieter, der dann auch noch die Schuld für alles bekommt! Ich stelle mich hier nicht auf die Seite von O2 oder sonstiger Infrastrukturanbieter. Aber für den zuverlässigen Betrieb der Software seid ihr, Amiando zuständig.

Aus diesem Grund müssen sich die Überlegungen in Zukunft in die Richtung einer Multivendor Strategie bewegen. Nicht alles auf eine Anbieterkarte setzen und die Software intelligent verteilen. Denn selbst wenn die SLAs mit O2 noch so hart verhandelt wurden und O2 sich damit eine hohe Strafe einhandelt. Na und? Der Imageverlust bei den Kunden ist deutlich höher als die paar Euro die ihr, Amiando bekommen werdet.

Zu guter letzt

Man muss sich daher die Frage stellen, ob es sich bei Amiando tatsächlich um einen Cloud Service handelt. Abgesehen von dem Abrechnungsmodell (Berechnung pro Teilnehmer), sieht das im Hintergrund nicht nach Cloud Computing aus. Der eine oder andere möge jetzt argumentieren, dass der Service über das Internet bereitgestellt wird und es daher Cloud Computing ist. Falsch! Cloud Computing bedeutet auch Hochverfügbarkeit und ein Höchstmaß an Zuverlässigkeit. Das scheint bei Amiando aber nicht gegeben.

Liebes Amiando Team, ihr seid nicht günstig. Abhängig von der Teilnehmergebühr entstehen dabei nicht unwesentliche Kosten. Also nutzt die Einnahmen bitte auch, um einen einwandfreien Service zu garantieren!

Kategorien
Grundlagen

Was ist Cloud Computing? (Redux)

Die Frage ist im Prinzip geklärt. Dennoch stelle ich in Gesprächen des Öfteren immer noch fest, das weiterhin Aufklärungsbedarf besteht. Daher habe ich die Frage wiederbelebt und gebe erneut einen Einblick zu diesem Thema.

Was ist Cloud Computing?

Cloud Computing bezeichnet in erster Linie ein Servicemodell, bei dem auf (theoretisch unbegrenzte) IT-Ressourcen wie Rechenleistung, Speicherplatz, Applikationen und andere Arten von Services on-Demand zugegriffen werden kann. Dabei werden auf Basis des Pay as you Go Konzeptes nur die Ressourcen berechnet, die zu diesem Zeitpunkt auch tatsächlich genutzt werden.

Die eigentliche Verarbeitung findet in den Rechenzentren auf den Servern der Cloud Computing Anbieter statt. Dadurch hat die Relevanz heutiger leistungsfähiger Endgeräte stark abgenommen, wodurch auch mittels Smartphones und Netbooks, die nur über beschränkte Ressourcen verfügen, komplexe Anwendungen genutzt werden können.

Die Umsetzung des On-Demand Modells, die dynamische Zuweisung von Ressourcen nach Bedarf, erfolgt über die Abstrahierung mittels einer weiteren Ebene, der Virtualisierung. Anstatt der Miete eines physikalischen Servers werden virtuelle Maschinen eingesetzt, deren Ressourcen wie Speicherkapazitäten und Rechenleistung je nach den aktuellen Anforderungen dynamisch mitwachsen oder sich verkleinern. Ressourcen wie bspw. der Langzeitspeicher werden dabei bewusst getrennt von den verarbeitenden Ressourcen gehalten und separat angebunden, um die Flexibilität und Verfügbarkeit der Daten zu erhöhen.

Die Ressourcen aus der Cloud eines Anbieters sind somit weitaus skalierbarer als es die klassischen IT-Infrastrukturen sein können. Müssen unerwartete Spitzenlasten über einen unbekannten Zeitraum überbrückt werden, stehen die dafür benötigten Ressourcen umgehend zur Verfügung und können anschließend wieder heruntergefahren werden. Abgerechnet werden hierbei nur die Ressourcen, die auch tatsächlich für diesen Zeitraum genutzt wurden.

Unternehmen sind die Probleme zur Bewältigung von Spitzenlasten bekannt. Um dem gerecht zu werden sind sie klassisch vorgegangen und haben ihre IT-Infrastrukturen überdimensionert, um immer ausreichend Ressourcen vorzuhalten, die nur für wenige Zeiträume im Jahr, wie z.B. Weihnachten oder dem Jahresabschluss, benötigt werden. Dies führt jedoch dazu, dass die Server im Jahresmittel zu 20% genutzt werden und die restlichen 80% dem Unternehmen nicht helfen das eigentliche Geschäftziel zu verfolgen. Im Gegenteil: Durch die hohen Investitionskosten für Hard- und Software sowie Wartung, Personal etc. wurden immense Summen in einen Bereich des Unternehmens investiert, der in den Führungsebenen seit jeher als klassischer Kostenfaktor betrachtet wird.

Im Cloud Computing werden die Ressourcen alle als “… as-a-Service” aus der Cloud angeboten. Dazu gehören Rechnerleistung und Speicher, Programmierungebungen und Software. Diese Bereiche werden weiter unten im Kapitel noch detaillierter beschrieben. Diese Dienste werden bei Bedarf aus der Cloud bezogen.

Das Wort der Cloud abstrahiert sich aus der Illustration der klassischen Netzwerktechnik. Um die Details eines unbekannten Netzwerkes, in der Regel das Internet, nicht genauer beschreiben zu müssen, wird sich hier an der Abbildung einer Wolke (Cloud) bedient. Abgebildet auf das Cloud Computing bedeutet dies für einen Cloud Computing Nutzer, dass er sich um die Details der IT-Infrastruktur bei dem Cloud Computing Anbieter nicht mehr kümmern muss. Er bezieht lediglich die Ressourcen, die er zu einem bestimmten Zeitpunkt benötigt und nur diese werden anschließend abgerechnet.

Historische Entwicklung

Historisch betrachtet reichen die Ideen und Konzepte des Cloud Computing bis in die 1960er Jahre zurück. Bereits damals enstanden die Ideen, IT-Ressourcen wie Rechenleistung und Anwendungen als ein Utility einer breiten Masse gegen eine Nutzungsgebühr zur Verfügung zu stellen. Auf Grund der damals dafür notwendigen, aber noch nicht vorhandenen technischen Voraussetzungen wie schnelle und stabile Internetverbindungen sowie der Mehrbenutzerfähigkeit von IT-Systemen, war der Durchbruch nicht möglich.

Vor ca. 10 Jahren begannen IT-Dienstleister erneut damit, ihren Kunden IT-Ressourcen in Form von Anwendungen anzubieten, welche sie flexibel nach der tatsächlichen Verwendung abrechnen konnten, so wie es von der Nutzung des Strom- und Wassernetzes bekannt ist. Die zu verarbeitenden Daten befinden sich dabei im Rechenzentrum eines Drittanbieters. Der Kunde greift mittels seines Webbrowser über eine Webseite auf diese Daten zu. Ursprünglich hieß diese Art des Geschäftsmodells Application Service Providing (ASP). Heute hat es die Bezeichnung Software-as-a-Service (SaaS), ein Teilbereich des Cloud Computing.

Die bekanntesten Vertreter und Vorreiter der Technologien, Ideen und Konzepte des Cloud Computing sind Google, Salesforce und Amazon.

Google konzentriert sich neben seiner Cloud Office Suite (Google Apps) inkl. E-Mail, Kalender, Textverarbeitung und Tabellenkalkulation auf das Bereitstellen einer Entwicklungsinfrastruktur (Google AppEngine). Salesforce hat sich dagegen auf Unternehmenssoftware wie z.B. dem Customer Relationship Management (CRM) spezialisiert und steht damit in direkter Konkurrenz zu den klassischen Anbietern wie z.B. SAP. Weiterhin steht mit Force.com jedoch auch eine Entwicklungsinfrastruktur in deren Cloud bereit. Google und Salesforce gehören damit zu den Anbietern von SaaS und Platform-as-a-Service (PaaS) Diensten.

Amazon hingegen ist mit seinen Amazon Web Services (AWS) ein Anbieter aus dem Bereich der Infrastructure-as-a-Services (IaaS) sowie PaaS und stellt mit der Amazon Elastic Compute Cloud (EC2) Rechenleistung und den Amazon Simple Storage Services (S3) Speicherplatz in seiner Cloud zur Verfügung.