Kategorien
Management

Mitarbeiter ignorieren Unternehmensrichtlinien zur Cloud-Nutzung (weil sie diese nicht kennen)

Die Bring your own Device (BYOD) Bewegung sorgt bei IT-Verantwortlichen, IT-Administratoren und IT-Security-Verantwortlichen ebenso für Sorgenfalten auf der Stirn wie die Nutzung unautorisierter Cloud Services. Dropbox, Amazon Web Services und Google Drive beziehungsweise Google Docs, um nur ein paar zu nennen. Zu hoch sind die Sicherheitsbedenken und das Risiko, dass Daten aus dem Unternehmen verschwinden. Das dies jedoch auch ohne die Cloud ohne weiteres möglich ist steht hier.

81 Prozent der Unternehmen haben klare Regelungen für die Cloud-Nutzung

Eine Symantec-Umfrage mit dem Namen „The Myth of Keeping Critical Business Information Out of Clouds“ zeigt nun die große Kluft zwischen den Anwender und IT-Administratoren, wenn es darum geht Cloud Anwendungen zu nutzen. Die Umfrage unter 165 IT-Managern und Mitarbeitern ergab, dass 76 Prozent der Unternehmen die Regelungen hinsichtlich der Cloud-Nutzung überwachen. Dabei verfügen sogar 81 Prozent über klare Regelungen und Konsequenzen, wenn diese Regeln missachtet werden.

Dahingegen sind sich 55 Prozent der End-Anwender gar nicht darüber im Klaren, das solche Arten von Regelungen existieren und 49 Prozent der Anwender sagen, dass sie nicht über Konsequenzen wegen Missachtung der Regelungen informiert sind.

Technischer Overkill vs. Mangelhaftes Verständnis

Ein Problem besteht darin, dass IT-Administratoren verstehen, wo sich die Schwachstellen befinden, wenn es Kollegen erlaubt wird, Cloud Services nach eigenem Bedarf zu nutzen. Dazu stehen ihnen mittlerweile eine Vielzahl von Lösungen für die Überwachung und dem Aussperren von Dropbox & Co. zur Verfügung. Hinzu kommt, dass Private Cloud Anbieter damit begonnen haben, ihre Lösungen um Management und Zugriffskontrollen für die Public Cloud zu erweitern.

Auf der anderen Seite stehen die Anwender, die nicht verstehen, welchen Sicherheitsrisiken sie ausgesetzt sind und der Rest ignoriert sie aus Bequemlichkeit. Die Folge sind schlecht gewählte Passwörter und/ oder der Besuch von bösen Webseiten, auf denen sich Malware usw. befinden. Hat der Mitarbeiter nun kundenrelevante Daten in seiner Dropbox gespeichert und wird diese, z.B. auf Grund eines schlechten Passworts, gehackt, hat sein Arbeitgeber definitiv ein Problem!

Nicht alle Anwender trifft dieselbe Schuld. Wo die einen die Sicherheitsregeln bewusst vernachlässigen, ist die Mehrzahl nicht über Sicherheitsrisiken informiert. Es ist also die Aufgabe der IT-Abteilung diese Sicherheitslöcher zu stopfen und vor allem für Aufklärungsarbeit bei den Mitarbeitern zu sorgen und das Verständnis dafür zu gewinnen. Nur Regeln aufstellen reicht nicht aus, wenn der Mitarbeiter nicht weiß, wofür diese nützlich sind beziehungsweise das es überhaupt welche gibt.

Weitere Ergebnisse der Umfrage

  • 69 Prozent der Mitarbeiter geben zu gegen Unternehmensrichtlinien zu verstoßen und nutzen Cloud-basierte E-Mail und Kommunikationslösungen. Hingegen sagen 88 Prozent IT-Administratoren, dass Mitarbeiter die Richtlinien verletzen.
  • 59 Prozent der Mitarbeiter nutzen Cloud-basierte Storage- und File-Sharing-Lösungen. IT-Administratoren beziffern diesen Anteil auf 87 Prozent.
  • 63 Prozent der Admins sagen, sie verfügen über Regeln in Bezug auf E-Mail und Kommunikationslösungen. Dagegen sagen nur 50 Prozent der Mitarbeiter, dass sie darüber Kenntnis haben.
  • 74 Prozent der Administratoren haben Regeln für den Umgang mit File-Sharing-Lösungen eingeführt. Von diesen Regelungen wissen gerade einmal 42 Prozent der Mitarbeiter.
  • 77 Prozent der Admins haben Regelungen für Cloud-basierte Storage-, Backup- und Produktivitätslösungen sowie Apps für das Kontaktmanagement implementiert. Gerade einmal 49 Prozent der Mitarbeiter kennen die Regeln für die Nutzung von Cloud Storage Lösungen, 59 Prozent sind über die Nutzung der Produktivitätslösungen informiert und 48 Prozent wissen, wie sie sich mit einer App für das Kontaktmanagement verhalten sollen.
  • 60 Prozent der IT-Mitarbeiter halten die Vorteile und Risiken von Cloud Storage- und Backuplösungen für gleichwertig. Dieselbe Prozentzahl ergibt sich für das Vorteil-/Risikoverhältnis für Cloud-basierte Storage-, Backup- und Produktivitätslösungen sowie Apps für das Kontaktmanagement.
  • Bei File-Sharing-Lösungen sieht es ein wenig anders aus. Hier bewerten 50 Prozent der IT-Mitarbeiter die Vorteile und Risiken als gleich. 53 Prozent ergeben sich für das Vorteil-/Risikoverhältnis von Cloud-basierte E-Mail und Kommunikationslösungen.
  • Hingegen sagen 49 Prozent der Mitarbeiter, dass die Vorteile von Cloud-basierte E-Mail und Kommunikationslösungen die Risiken überwiegen. 38 Prozent äußerten sich so ebenfalls bei File-Sharing-Lösungen.
  • Nur 30 Prozent der Mitarbeiter sehen in Cloud-basierten Storage-, Backup- und Produktivitätslösungen sowie Apps für das Kontaktmanagement mehr Vorteile als Risiken.

Ausgehend davon, dass IT-Administratoren sich tatsächlich um Regelungen bemühen, stellt sich die Frage, wozu es diese und Konsequenzen bei einem Vergehen gibt, wenn sie flächendeckend nicht bekannt sind.

Wie wäre es mit Kommunikation!


Bildquelle: ©Gerd Altmann / PIXELIO

Kategorien
News

Apache OpenOffice demnächst als Cloud Service

OpenOffice aus der Cloud. Es sieht danach aus, als ob wir demnächst mehr davon hören werden. Während der ApacheCon Europe wurde bereits eine erste Cloud-fähige Version des OpenOffice Writer vorgestellt. Insbesondere auf mobile Endgeräte haben es die OpenOffice Entwickler dabei abgesehen.

HTML-5 für plattformunabhängigen Zugriff

Die OpenOffice Entwickler fokussieren sich bei Ihrem Weg in die Cloud auf die Plattformunabhängigkeit der Office Suite und setzen dazu auf HTML-5. Damit soll ebenfalls das Potential erhöht werden, OpenOffice auf mobilen Endgeräten zu nutzen.

Ein erster Prototyp von Apache OpenOffice (AOO) aus der Cloud funktioniert in einem Standard-Webbrowser. Der Browser verbindet sich dazu mit einem Server, auf dem eine Instanz von AOO läuft. Diese reagiert auf die Anfragen des Nutzers, verarbeitet sie und liefert XML Snippets zurück, mit denen die OpenOffice GUI gerendert wird. Für die Zukunft ist eine zusätzliche adaptive Benutzeroberfläche geplant, die speziell auf die Bedürfnisse von mobilen Betriebssystemen zugeschnitten ist.

Microsoft Office 365 im Blickfeld

AOO Cloud befindet sich derzeit noch in einem frühen Entwicklungsstadium. Momentan bestehen noch Probleme beim reibungslosen Rendering der GUI auf verschiedenen Browsern und bei der Mehrbenutzerfähigkeit. Dennoch sieht sich das Projekt in Zukunft als Konkurrenz zu SaaS-basierten Office Lösungen wie Microsoft Office 365.

Kategorien
News

MARS-O-Matic: IT-Benchmarking mit dem iPad

Ich durfte bereits Ende letzten Jahres einen Blick auf eine erste Version der App werfen. Nun hat die arago AG seine iPad App MARS-O-Matic offiziell veröffentlicht. Bei MARS-O-Matic handelt es sich um eine iPad-App, die es Unternehmen ermöglicht, ihre IT-Landschaft transparent zu bepreisen und einen detaillierten Benchmark zu erstellen. Mit der mobilen Lösung können aktuell implementierte oder zukünftig geplante Komponenten einer IT-Landschaft in wenigen Schritten übersichtlich abgebildet und anschließend die Kosten der IT-Anwendungen und -Umgebungen in einem automatisierten IT-Betrieb ermittelt werden. Damit bekommen Unternehmen wichtige Benchmark-Kennzahlen über die laufenden Aufwendungen für ihre IT-Lösungen und gleichzeitig Optimierungsvorschläge der IT-Architektur. Dank der Anwendung erhalten CIOs, Projektleiter oder Administratoren gleichermaßen die für sie zur Bewertung von Infrastrukturmaßnahmen jeweils relevanten Informationen innerhalb kürzester Zeit. Ebenso unterstützen die Ergebnisse Unternehmen bei einem besseren Vergleich von Outsourcing-Angeboten.

Intuitive Bedienung für schnelle Resultate

Die iPad-App MARS-O-Matic verfügt über ein bedienerfreundliches Interface, mit dem verschiedene IT-Umgebungen visuell und intuitiv modelliert werden können. Die Lösung kalkuliert unmittelbar einen Benchmark-Preis für den aktuellen oder geplanten IT-Betrieb und zeigt dabei das Optimierungspotenzial auf. Zur Berechnung der Betriebspreise greift die App auf zentrale Server zu, die aus realen Betriebsdaten den tatsächlichen Aufwand für die Betreuung verschiedener Komponenten und Architekturen ermitteln. Die hierfür kalkulierten Kosten basieren auf einer umfassenden Datenbasis, die aus dem wissensbasierten automatisierten Betrieb unterschiedlichster IT-Umgebungen gewonnen wird. Dadurch kann MARS-O-Matic auch für individuelle, nicht-standardisierte Anwendungen eingesetzt werden.

Benchmarks unternehmensübergreifend durchführen

MARS-O-Matic richtet sich an alle in die IT-Prozesse eines Unternehmens eingebundenen Mitarbeiter – sowohl an CIOs, Projektleiter, Architekten und Administratoren als auch an die Fachabteilungen. Denn die App bildet eine sinnvolle Entscheidungsgrundlage für unterschiedliche Zielgruppen innerhalb des Unternehmens. Die mit MARS-O-Matic erstellten Modelle ermöglichen eine einheitliche, leicht verständliche Kommunikationsbasis zwischen technischen Entscheidern und Beratern oder Projektleitern, da Informationen problemlos gemeinsam bearbeitet und untereinander geteilt werden können. Unternehmen erhalten vorab Aussagen über die optimalen Betriebskosten einer neuen Lösung im IT-Betrieb inklusive den Folgekosten. Gleichzeitig bieten die Ergebnisse eine Grundlage für die Diskussion der Vor- und Nachteile von Architektur-Veränderungen und Informationen für Total Cost of Ownership-Analysen. In der kostengünstigen Ermittlung von Benchmark-Daten liegt ein weiterer Vorteil von MARS-O-Matic im Vergleich zu einer Analyse durch einen externen Berater.

Kosten und Download

MARS-O-Matic ist für 7,99 Euro im Apple App Store unter https://itunes.apple.com/app/mars-o-matic/id571644688 erhältlich. Videos zur Funktionsweise der App können unter http://mars-o-matic.com eingesehen werden.

Kategorien
Analysen

Diese Kenntnisse benötigen Ihre Mitarbeiter für das Cloud Computing

Cloud Computing ist gekommen, um zu bleiben. Das Paradigma hat sich in der jüngsten Vergangenheit von einem Hype zu einer ernsthaften Alternative für Unternehmen entwickelt, ihre IT-Infrastrukturen und Umgebungen flexibler zu gestalten und damit die eigene Agilität zu verbessern. Early Adopter sind bevorzugt Startups, die auf den Zug aufgesprungen sind, um den einfachen Ressourcenbezug der Public Cloud für sich zu nutzen. So zählen mittlerweile viele, zum Teil bekannte, aber vor allem junge Unternehmen zu Kunden von Public Cloud Services, die ohne diese skalierbaren Infrastrukturen nicht existieren würden. Aber welche Eigenschaften und Kenntnisse sind heutzutage notwendig, um in der Cloud zu überleben?

Unternehmerisch und wirtschaftlich denken

Eine erfolgreiche Cloud Computing Adaption und Nutzung steht und fällt mit dem Use bzw. Business Case. Diesen gilt es zu identifizieren und vor allem zu bewerten, um zu entscheiden, ob Cloud Computing helfen kann. Darüber hinaus sollte ein realistischer Return on Investment (ROI) vorhergesagt bzw. bestimmt werden, um die jeweiligen Metriken zu überwachen, die mit dem Geschäftsverlauf abgeglichen werden. Cloud Computing bietet Unternehmen viele Möglichkeiten, aus denen erfahrene Business Analysten potentielle Chancen ableiten können.

Technische Kenntnisse

Unabhängig davon in welcher Ausprägung – Public, Private oder Hybrid – eine Cloud genutzt werden soll, muss zunächst überhaupt verstanden werden, dass für die Cloud entwickelt werden muss. Das bedeutet auch, dass sich die Kenntnisse verstärkt auf Internet Technologien fokussieren müssen. Dazu gehören u.a. Themen wie die Java und .NET Frameworks, ebenso der Bereich der Virtualisierung sowie Open-Source Tools und weitere Programmiersprachen.

Unternehmensarchitektur und Anforderungen

Wichtig ist es, eine Roadmap für die künftigen Services festzulegen, welche notwendig sind und ob diese extern aus einer Public Cloud oder intern bereitgestellt werden. Dazu müssen die Mitarbeiter in der Lage sein die Sprache des Business zu sprechen und gleichermaßen mit der IT-Abteilungen kommunizieren können. Sich mit den Konzepten einer SOA (Service-Oriented-Architecture) auszukennen, schadet ebenfalls nicht.

Projektmanagement

Kenntnisse im Bereich Projektmanagement sollte man zwangsläufig besitzen, wenn man mit IT-Projekten zu tun hat. Daran ändert auch das Cloud Computing nichts. Dennoch sollte man berücksichtigen, dass die Nutzer des Cloud Service agiler geworden sind und schneller neue Wünsche und Anpassungen fordern können.

Verhandlungsgeschick

Die Zusammenarbeit mit Anbietern von Cloud Diensten wird immer mehr in den Vordergrund rücken. Dabei müssen u.a. Service Level Agreements, die Verfügbarkeit, Performance und grundsätzlich sämtliche Vertragsinhalte verhandelt werden.

Sicherheit und Compliance

Egal auf welche Cloud Implementierung die Entscheidung fällt, das Verständnis für das Thema Sicherheit wird immer wichtiger. Genauso verhält es sich mit Compliance-Fragen wie bspw. dem Sarbanes-Oxley-Act, HIPAA, dem Bundesdatenschutzgesetz (BDSG) usw.

Datenintegration und Analyse

Der Wert der Daten, die sekündlich generiert, gesammelt und verarbeitet werden, hat in den letzten Jahren enorm an Bedeutung gewonnen. Allerdings ergibt sich der wahre Wert erst dann, wenn aus den Daten echte Informationen gewonnen werden, auf deren Basis Entscheidungen getroffen werden können. Wie, in welcher Form und welchem System diese Daten bzw. Informationen aufbereitet werden, bleibt jedem selbst überlassen. Entscheidend ist, dass die richtigen Lösungen und Umgebungen gefunden werden, um Big Data zu analysieren.

Mobile Applikationen

Das stetige Wachstum mobiler Endgeräte und flexibler Arbeitsplätze hängt direkt mit dem Paradigma der Cloud zusammen. Das liegt unter anderem daran, dass auf Services aus der Cloud bequemer von überall und von jedem Endgerät – Notebook, Tablet oder Smartphone – zugegriffen werden kann. Der Bedarf an Entwicklern für mobile Applikationen wird daher in den kommenden Jahren weiter steigen.


Bildquelle: ©Gerd Altmann / PIXELIO

Kategorien
Analysen

Wer als IaaS-Anbieter zu Amazon konkurrenzfähig sein will muss mehr als nur Infrastruktur im Portfolio haben

Immer mehr Anbieter versuchen ihr Glück im Bereich Infrastructure-as-a-Service (IaaS) und wollen dem Platzhirsch Amazon Web Services (AWS) ein Stück vom Kuchen abnehmen. GigaOm hat bereits die Frage gestellt, ob es eine AWS Kopie aus Europa geben wird, die ähnlich wie Amazon in den USA den europäischen Markt dominieren wird. Sie kamen zu einem klaren Nein. Ich bin ebenfalls der Meinung, dass es in naher Zukunft keine nennenswerte Konkurrenz aus Europa geben wird. Ich gehe sogar einen Schritt weiter und gehe davon aus, dass es weltweit derzeit keinen Anbieter gibt und erst einmal geben wird, der – Stand heute – Amazon das Wasser reichen kann. Denn anders als es GigaOm macht, muss man den Cloud Markt global betrachten. Es gibt auf Grund der Strukturen grundsätzlich keine regional begrenzte Cloud. Jeder Nutzer kann sich weltweit bedienen. Es sei denn ein Anbieter entscheidet sich strikt dagegen. Das gibt es sogar – in Deutschland. Ich möchte Amazon an dieser Stelle keinen Freifahrtsschein ausstellen, aber für den Mitbewerb wird es sehr schwierig im IaaS Bereich diesen Marktanteil zu erreichen.

Der Markt ist groß genug aber…

Der IaaS Markt ist groß genug und bietet genug Platz für mehrere Infrastruktur-Anbieter. Jedoch sollte man sich vor Augen halten, wer sich derzeit für die Public Cloud und wer für die Private Cloud entscheidet. Danach lohnt sich ein Blick auf die Angebote der jeweiligen IaaS Anbieter, um die Spreu vom Weizen zu trennen. Dann wird auch klar, warum Amazon die Nase vorn hat und es für Neulinge schwer werden wird, wenn sie sich einfach nur auf reine Infrastruktur konzentrieren. So mancher Anbieter versucht gegen Amazon zum Beispiel mit einer höheren (Netzwerk)-Performance anzutreten. Das ist sicherlich ein netter Versuch, aber kein ausschlaggebendes Argument.

Public Cloud: Entwickler & Startups

Die Public Cloud wird bevorzugt von Entwicklern und Startups genutzt, die auf Basis des unkomplizierten Ressourcenbezugs und dem pay per use Modell ihre Geschäftsmodelle aufbauen. Mein Lieblingsbeispiel ist Pinterest, die nach eigener Aussage ohne Cloud Computing nicht so erfolgreich sein könnten. Das lag zum einem an der Möglichkeit stetig zu wachsen und die Ressourcen den Bedürfnissen nach zu erweitern ohne das Kapital für eine eigene riesige Serverfarm zu besitzen. Auf der anderen Seite hat die Cloud es Pinterest ermöglicht, effizient zu arbeiten und kostengünstig zu experimentieren. Zudem konnte die Webseite sehr schnell wachsen, während sich nur ein sehr kleines Team um die Wartung kümmern musste. Im Dezember beschäftigte Pinterest insgesamt nur 12 Mitarbeiter.

Private Cloud: Unternehmen

Viele etablierte Unternehmen stellen das Thema Datenschutz respektive Sicherheit über die hohen Investitionskosten und Wartungskosten einer Private Cloud. Hinzu kommt, dass ich in Gesprächen immer wieder höre, dass „eh bereits Investitionen in Hard-/ Software getätigt wurden“ und das nun noch ausgenutzt werden muss. Laut einer Gartner Umfrage planen 75% der Befragten bis 2014 eine Strategie in diesem Bereich. Bereits viele unterschiedliche Unternehmen haben Private Cloud Lösungen in Pilot-Projekten und im produktiven Betrieb im Einsatz. Dabei ist das Hauptziel, für sich den größten Nutzen aus der Virtualisierung zu ziehen.

Infrastruktur bedeutet mehr als nur Infrastruktur

Den Fehler den – vor allem – neue IaaS Anbieter machen ist, sich nur auf reine Infrastruktur zu konzentrieren. Das bedeutet, sie bieten nur die typischen Ressourcen wie Rechenleistung, Speicherplatz, Betriebssystem-Images, weitere Software und Lösungen wie Datenbanken an. Das mag vom IaaS Grundgedanken her auch alles richtig sein, reicht aber mittlerweile nicht mehr aus, um gegen Amazon zu bestehen.

Services, Services, Services

Schaut man sich das Angebot der Amazon Web Services genauer an, besteht es mittlerweile aus viel mehr als nur virtuellen Ressourcen, Rechenleistung und Speicherplatz. Es handelt sich dabei um ein umfangreiches Service-Portfolio, welches stetig und mit einem riesen Tempo ausgebaut wird. Alle Services sind ineinander vollständig integriert und bilden ein eigenes Ökosystem, mit dem ein eigenes Rechenzentrum aufgebaut und komplexe Anwendungen entwickelt und gehostet werden können.

Entwickler sind Amazons Jünger

Auf Grund dieses in sich stimmigen Angebots ist Amazon eine beliebte Anlaufstelle für Entwickler und Startups, die hier viele Möglichkeiten finden, ihre eigenen Ideen umzusetzen. Ich habe über diese Situation schon kritisch geschrieben und bleibe dabei, dass Amazon sich ebenfalls verstärkt auf die Bedürfnisse von Unternehmen konzentrierten sollte. Dennoch sind Entwickler derzeit Amazons Trumpf, welche den Cloud Anbieter zum führenden IaaS weltweit machen.

Komfort

Was AWS derzeit fehlt ist der Komfort. Hier setzen neue Anbieter an und bündeln mit „Infrastructure-as-a-Platform“ Lösungen verschiedene IaaS Ressourcen wie Rechenleistung, Speicherplatz, Netzwerkkomponenten usw. und ermöglichen Unternehmen damit den Aufbau eines eigenen Rechenzentrum on-Demand, also ein “Data-Centre-as-a-Service” (DCaaS). In diesem Bereich muss Amazon damit beginnen aufzuholen und ihren bestehenden und neuen Kunden mehr Convenience bieten, mit der diese die Infrastrukturen bequemer nutzen können und während der Konfiguration zudem weniger Zeit und Expertenwissen benötigen. Denn insbesondere IT-Abteilungen von kleinen- und mittelständischen Unternehmen werden in Zukunft auf diesen Komfort achten.

Schwer aber nicht unmöglich

Amazon gehört zu den Cloud Anbietern der ersten Generation und es gibt Bereiche in denen sie aufholen müssen. Aber das Konzept ist sehr ausgefeilt. Unter der Haube sind sie möglicherweise technologisch nicht mehr auf dem neuesten Stand. Aber die Frage ist, wie sehr es einen Kunden interessiert, ob nun Technologie A oder Technologie B in der „Blackbox“ eingesetzt wird, solange die Services zur Verfügung stehen, mit denen das verfolgte Ziel realisiert werden kann. Zudem lassen sich bestimmte Technologien auf Grund der losen Kopplung der Infrastruktur und der Services (Building Blocks) austauschen.

Wie ich oben geschrieben habe, ist der Markt groß genug und nicht alle Unternehmen werden zu Amazon gehen. Ich möchte nur darauf aufmerksam machen, dass es mittlerweile nicht mehr reicht, sich nur auf die grundlegenden IaaS-Eigenschaften zu konzentrieren, wenn man ein IaaS-Angebot gegen Amazon in den Ring schickt. Ich hatte vor längerer Zeit die Amazon Web Services der Google Cloud Platform (AWS vs. Google Cloud) bzw. Microsoft Windows Azure (AWS vs. Azure) gegenübergestellt. Beide sind für mich diejenigen Public IaaS Anbieter, die derzeit in der Lage sind, aufzuholen. Allerdings sieht man besonders an Googles Tabelle, dass an einigen Stellen noch so manche Service-Lücken bestehen.


Bildquelle: ©Stephanie Hofschlaeger / PIXELIO

Kategorien
Management

Der Weg in die Cloud startet mit dem richtigen Use Case

Der Übergang von on-Premise hinzu Cloud basierten Lösungen stellt Unternehmen vor Herausforderungen. Sollen die bestehenden Systeme 1:1 migriert oder die Chance genutzt werden, um einen Neuanfang zu starten und nur die Daten übernommen werden. Es stellt sich hier also die Frage, wie existierende Anwendungen in die Cloud migriert werden. So oder so muss sich allerdings das Architekturmodell der bestehenden Systeme und Anwendungen vollständig vom statischen zu dynamischen/ skalierbaren Modellen zzgl. Multi-Tenancy Fähigkeiten verändern, um die wahren Möglichkeiten der Cloud zu nutzen.

Eine Infrastruktur bietet die meisten Freiheiten

Die größten Herausforderungen erleben Unternehmen bei der Nutzung des Infrastructure-as-a-Service (IaaS), da ihnen hier von einem Public Cloud Anbieter „nur“ virtuelle Ressourcen bereitgestellt werden, um auf dieser Basis eine eigene virtuelle Infrastruktur aufzubauen, auf der sie ihre eigenen Systeme hinsichtlich Hochverfügbarkeit aber vor allem mit einer enormen Skalierbarkeit aufzubauen. Ein Nutzer darf sich hier zudem maximal darauf verlassen, dass der Anbieter dafür sorgt, dass die durch im bereitgestellte Infrastruktur zu einem bestimmten Service Level zur Verfügung steht. Um alle weiteren Themen, wie die Wartung der virtuellen Ressourcen und den darauf betriebenen Software, Services und Systemen muss sich der Nutzer selbst kümmern. Ebenso das Sicherstellen der Hochverfügbarkeit der eigenen Systeme und Applikationen fällt in den Aufgabenbereich des Kunden.

Eine Plattform erleichtert die Administration

Ein Stückweit mehr Verantwortung gibt der Nutzer an einen Anbieter ab, wenn er sich für einen Platform-as-a-Service (PaaS) entscheidet. Wie der Name bereits sagt, stellt ein Anbieter eine vollständige Plattform inkl. einem umfangreichen Systemstack zur Verfügung. Ein Nutzer kann sich hier gezielt auf die Entwicklung seiner Anwendung konzentrieren und muss sich nicht, anders als beim IaaS, um die darunter liegende Infrastruktur kümmern. PaaS gilt als die Serviceart mit dem größten Wachstumspotential und den vielfältigsten Möglichkeiten für die kommenden Jahre. Ein Blick auf die PaaS der ersten Stunde unterstreicht diese These. Haben die meisten Anbieter zu Beginn nur eine Programmiersprache unterstützt, kamen im Laufe der Zeit immer weitere Sprachen hinzu, wodurch ein Nutzer mittlerweile aus einer Vielfalt an Sprachen wählen kann, um seine Applikationen in die Cloud zu migrieren bzw. dort neue Ideen zu verwirklichen.

Standardisierte Applikationen

Bei der Nutzung von Applikationen auf Basis von Software-as-a-Service (SaaS) hat der Nutzer am wenigsten bis keinen Einfluss auf das Angebot. Anhand von standardisierten Applikationen wird er von dem Anbieter mit fertigen und in der Regel nicht anpassbaren Lösungen versorgt. Anders als bei IaaS und PaaS, ist ein SaaS Anbieter für den gesamten, einwandfreien Betrieb der Anwendungen verantwortlich. Der Nutzer muss sich hier also um die nicht zu unterschätzende Aufgabe kümmern, wie er seine Daten in die SaaS Applikation migriert, bzw. exportiert, wenn er das Angebot nicht mehr nutzen möchte. An dieser Stelle sollte der Anbieter entsprechende Schnittstellen zu on-Premise Systemen bzw. gängigen Formaten bereitstellen.

Der Use Case ist entscheidend

Für wen welche Art der Cloud Nutzung in Frage kommt, muss jedes Unternehmen individuell evaluieren. Es geht also grundsätzlich um die Frage, für welche Systeme und Plattformen eine Migration in die Cloud besonders sinnvoll ist und welche Serviceart geeignet ist. Über gut dokumentierte APIs sollte ein Anbieter seine Kunden dabei unterstützen, die Cloud bestmöglich für ihre Anforderungen zu nutzen.


Bildquelle: ©Erika Hartmann / PIXELIO

Kategorien
News

INSIGHTS Report: fortrabbit veröffentlicht Platform-as-a-Service für PHP-Profis

INSIGHTS Report berichtet über die Ankündigung von fortrabbit einen Platform-as-a-Service für PHP-Profis anzubieten.

fortrabbit veröffentlicht Platform-as-a-Service für PHP-Profis by René Büst

Kategorien
Insights

INSIGHTS: fortrabbit veröffentlicht PaaS für PHP-Profis

Mit fortrabbit startet der zweite Platform-as-a-Service (PaaS) aus Deutschland, genauer aus Berlin. Die drei Gründer kommen aus der PHP Szene und konzentrieren sich mit ihrem Angebot auf professionelle beziehungsweise fortgeschrittene PHP Entwickler. Auf Grund der eigenen Expertise ermöglichen sie Profi PHP-Entwicklern mehr Freiheiten im Umgang mit der Programmiersprache. Zu erwähnen ist, dass fortrabbit vollständig mit privaten Mitteln (bootstrapped) geründet wurde, ohne die Hilfe von Venture Capital.

INSIGHTS: cloudControl wird zum multi-language Platform-as-a-Service

Die fortrabbit Plattform

fortrabbit selbst gibt es schon seit ein paar Jahren. Eine erste Version des selbst entwickelten PaaS lief in einer ersten Version auf eigenen Servern in einem Berliner Rechenzentrum. Um das Angebot für die Masse zu skalieren, erfolgte der Wechsel auf die Infrastruktur der Amazon Web Services (AWS), genauer in die Region Irland. Wobei die benötigten Instanzen und der Storage auf zwei Availibilty Zones verteilt ist. Für den Wechsel auf AWS wurde die PaaS-Software vollständig neu geschrieben und den Bedingungen auf der Amazon Infrastruktur angepasst.

Zielkunden von fortrabbit sind in erster Linie fortgeschrittene PHP-Entwickler, die sich bereits gut auskennen und mehr Freiheiten beim Umgang mit der Programmiersprache benötigen. Als Zielmarkt wurde zunächst Europa festgelegt, wobei eine Expansion, genau wie ein eigenes Partnernetzwerk nicht ausgeschlossen sind.

PHP Renaissance

Die eigene PHP-Expertise, aber auch die eigenen Anforderungen an einen Profi-PHP PaaS, haben fortrabbit dazu bewegt, den Entwicklern mehr Freiheiten auf ihrer Plattform zu geben. Dazu bietet der auf PHP 5.4 und LAMP basierende PaaS eine tiefere Unterstützung, die andere PaaS-Angebote in dieser Form nicht ermöglichen. Dazu gehören Funktionen wie einen beschreibbaren Speicher (native writeable storage), SFTP, Domain-Routing, SSL, SSH-Zugriff (keine Root-Rechte aber u.a. wget und Zugriff auf Error Logs) und Monitoring-Funktionen (Status der Applikation, PHP-Requests, Cache Hits, Miss, inkl. graphischer Darstellung). Hinzu kommt mit dem Composer ein Package Management für PHP, das dafür sorgt, das sämtliche Abhängigkeiten (Dependency Manager) serverseitig erfüllt werden.

INSIGHTS


Im ersten Moment ist die Frage gerechtfertigt ob der Markt noch einen weiteren PaaS benötigt. Mit der Google App Engine, AppFog, Cloud Foundry, Heroku, Engine Yard, OpenShift, Stackato, Windows Azure oder auch cloudControl existieren bereits viele, mittlerweile etablierte PaaS. Dennoch müssen hier zwei Dinge beachtet werden. PaaS hat das schnellste Wachstum von allen Services in der Cloud. Alleine für den Bereich der reinen Anwendungsentwicklung, in dem sich fortrabbit bewegt, sind jährliche Wachstumsraten von 22% zu erwarten. Darüber hinaus hat fortrabbit ein sehr spezielles Angebot, was sich auf eine bestimmte Zielgruppe fokussiert. Wo andere PaaS-Anbieter sich zu einem Polyglot entwickeln, also mehrere Programmiersprachen parallel unterstützen, konzentriert sich fortrabbit auf seine eigenen Stärken und diese liegen im Bereich PHP.

Der Service adressiert fortgeschrittene beziehungsweise professionelle PHP-Entwickler, die mehr Freiheiten bei der Konfiguration ihrer Umgebung benötigen. Hier wird die eigene PHP-Erfahrung fortrabbit einen Vorteil gegenüber anderen PaaS bieten, um den Service mit weiteren Mehrwerten auszubauen.

Download

Der INSIGHTS Bericht kann ebenfalls unter „fortrabbit veröffentlicht PaaS für PHP-Profis“ betrachtet und als PDF heruntergeladen werden.


INSIGHTS analysiert und kommentiert aktuelle Meldungen und Ereignisse von Anbietern. Sie sind auch an der Publikation von INSIGHTS Berichten interessiert, dann finden Sie hier weitere Informationen.

Kategorien
Management

Professionelle Open-Source Lösungen für die eigene Cloud

Ich hatte vor längerer Zeit in dem Artikel „Die eigene Cloud bauen mit… – CloudWashing par excellence!“ die leichtfertige Aussage eines Journalisten kritisiert, dass man auf einfache Weise eine eigene Cloud Umgebung aufbauen kann. Das dem so nicht ist und worauf zu achten ist, habe ich in dem Artikel ebenfalls erläutert. Dennoch existieren natürlich Lösungen, die dabei helfen, eine eigene Cloud aufzubauen. Tatsächlich gibt es derzeit aber nur fünf Open-Source Lösungen, die für den professionellen Aufbau von Cloud Computing Umgebungen eingesetzt werden sollten. Dazu gehören openQRM, Eucalyptus, OpenStack, CloudStack und OpenNebula.

Grundlegendes! Bitte lesen!

Viele Unternehmen entscheiden sich vermehrt für den Aufbau einer eigenen (Private) Cloud, um die Kontrolle über Ressourcen, Daten, Sicherheit usw. zu behalten. Richtig ist, dass eine eigene Cloud die Agilität eines Unternehmens verbessert und die Systeme bis zu einem gewissen Grad skalieren können. Allerdings sollte sich ein Unternehmen immer bewusst machen, das die Skalierbarkeit einer eigenen Cloud einem manuellen Prozess gleicht. Bei diesem muss in Echtzeit auf Ressourcenengpässe durch das eigene Personal reagiert werden, indem weitere Hardwarekomponenten in Form von Speicherplatz, Arbeitsspeicher oder Rechenleistung nachgerüstet werden. Für jede virtuelle Instanz wird schließlich auch die physikalische Hardware benötigt. Neben Hardware- und Softwareressourcen sind Tools zum Echtzeit-Monitoring der Umgebung daher unerlässlich.

Hardware, Hardware, Hardware

Eine eigene Cloud bedarf also Unmengen an physikalischen Ressourcen um den Wunsch nach Flexibilität und quasi unendlichen virtuellen Ressourcen zu befriedigen. Heißt im Umkehrschluß daher für Unternehmen mit einer eigenen Cloud: Investieren, das eigene Rechenzentrum umbauen und Cloud-fähig zu machen.

Es ist ein Irrglaube, wenn man denkt, dass der Aufbau einer eigenen Cloud impliziert, sich anschließend nicht mehr um die Hochverfügbarkeit der eigenen Infrastruktur (physikalische Maschinen, virtuelle Maschinen, Master-Slave-Replikation, Hot-Standby, etc.) kümmern zu müssen. Das macht dann ja schließlich die Cloud alleine.

Konfigurieren, Skripte, Intelligenz

Eine Cloud funktioniert nicht von alleine. Sie muss entwickelt und mit Intelligenz ausgestattet werden. Das gilt für den Aufbau einer Private Cloud genau so wie für die Nutzung eines Public Cloud Angebots (im Falle von IaaS). Dazu müssen Skripte geschrieben, womöglich Software neu entwickelt werden, die auf der Cloud verteilt läuft. Weiterhin ist es wichtig, die Whitepaper des Anbieter zu lesen, KnowHow(!) aufzubauen und zu verstehen, wie die Cloud arbeitet, um sie für die eigenen Bedürfnisse nutzen zu können. Eine weitere Möglichkeit besteht natürlich darin, sich (zusätzlich) von Profis beraten zu lassen. Das ist bei der Nutzung einer eigenen Cloud nicht anders. Wenn eine virtuelle Maschine A ein Problem hat, dann kann sie plötzlich nicht mehr erreichbar sein, wie jeder normale physikalische Server nun einmal auch. Nun könnte man denken: “Dann nehme ich als Backup für virtuelle Maschine A halt noch eine virtuelle Maschine B dazu!” Und dann? Man könnte nun denken, dass die virtuelle Maschine B automatisch die Aufgaben der virtuelle Maschine A übernimmt. So einfach ist das aber nicht! Skripte müssen vorab dafür sorgen, dass die virtuelle Maschine B die Aufgaben von virtuelle Maschine A übernehmen soll, wenn diese plötzlich nicht mehr erreichbar ist. Auch die virtuelle Maschine B muss dafür zunächst vorbereitet werden. Dazu kann z.B. der eigentliche (wichtige) Inhalt der virtuelle Maschine A inkl. aller Konfigurationen etc. in einem zentralen Speicher und nicht auf dem lokalen Speicher abgelegt werden. Anschließend muss ein Skript dafür sorgen, dass die virtuelle Maschine B automatisch mit den Konfigurationen und allen Daten aus dem lokalen Speicher hochgefahren wird, wenn die virtuelle Maschine A nicht mehr verfügbar ist.

Virtuelles Rechenzentrum

Die Cloud gibt uns im Bereich Infrastructure as a Service letztendlich nur die Möglichkeit, aus einem quasi unendlich großen Pool von Ressourcen die (unendliche) Anzahl an Ressourcen zu dem Zeitpunkt zu bekommen, wenn wir sie benötigen. Wir erhalten von der Cloud somit ein eigenes hochskalierbares virtuelles Rechenzentrum. Das bedeutet aber im Umkehrschluss für den Betreiber einer Cloud (Private, Public), dass er ebenfalls die Menge an physikalischen Ressourcen vorhalten muss, damit die angefragten virtuellen Ressourcen jederzeit bereitgestellt werden können und damit immer ausreichend Ressourcen für die Nutzer zur Verfügung stehen.


Open-Source Lösungen für den Aufbau einer eigenen Cloud


openQRM

openQRM ist eine Open Source Cloud Computing Plattform für die Verwaltung von Rechenzentren und skalierbaren IT-Infrastrukturen und ist aktuell in der Version 5.0 verfügbar. Mittels einer zentralen Managementkonsole kann die Administration von physikalischen Servern ebenso vorgenommen werden wie von virtuellen Maschinen, wodurch Rechenzentren voll automatisiert und höchst skalierbar betrieben werden können. Neben einer offenen API und einem SOAP Web Service für die nahtlose Integration der eigenen Geschäftsprozesse, unterstützt openQRM alle bekannten Virtualisierungstechnologien und bietet die Möglichkeit für transparente Migrationen von „P-to-V“, „V-to-P“ und „V-to-V“.

openQRM verfügt des Weiteren über ein integriertes Storage-Management, mit dem anhand des Snapshot-Verfahrens Serversysteme dupliziert werden können. Die Snapshots ermöglichen eine dynamische Anpassung des Speicherplatzes, bieten einen persistenten Cloud-Speicher und erlauben ein Backup/Restore der Server sowie deren Versionierung.

Mit der „N-zu-1“ Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Dabei spielt es keine Rolle, ob physikalische oder virtuelle Maschinen eingesetzt werden!

Benefits auf einem Blick

Virtualisierung

openQRM unterstützt alle gängigen Virtualisierungstechnologien darunter VMWare, Citrix XenServer und KVM und bietet die Möglichkeit der Migration von P-to-V-, V-to-P- und V-to-V für physikalische Server als auch virtuelle Maschinen.

Storage

openQRM verfügt über ein zentralisiertes Speichersystem mit integriertem Storage Management, welches alle bekannten Storage-Technologien unterstützt. Dazu gehören u.a. Netapp, Equallogic, NFS, iSCSI ZFS und proprietäre auf LVM basierende Storage-Typen, für eine flexible und schnelle Duplizierung von Serversystemen.

Zentrales Management

openQRM verschmilzt die Welt von Open Source mit der von kommerziellen Produkten. Mit einer zentralen Managementkonsole sind alle Funktionen zur Administration von Rechenzentren, System- und Service-Überwachung, Hochverfügbarkeit und automatisierter Bereitstellung vorhanden.

Funktionen

Hardware/Software Isolation

openQRM isoliert die Hardware (physikalische Server, virtuelle Maschinen) vollständig von der Software (Server Images). Dabei ist die eigentliche Hardware eine „Computing Resource“ und kann dadurch jederzeit durch eine andere Hardware ersetzt werden, ohne dass die Software (Server Image) neu konfiguriert werden muss.

Unterstützung für verschiedene Virtualisierungs-Technologien

Mit VMWare, Xen, KVM und dem Citrix XenServer unterstützt openQRM eine viehlzahl an virtuellen Maschinen und kann dieses transparent verwalten und migrieren. Neben der System-Migration von physikalischen Servern zu virtuellen Maschinen (P-to-V) können Systeme ebenfalls von virtuellen Maschinen zu physikalischen Servern (V-to-P) migriert werden. Darüber hinaus besteht die Möglichkeit ein System von einer Virtualisierungstechnologie zu einer anderen Virtualisierungstechnologie (V-to-V) zu verschieben.

Vollautomatische Nagios-Konfiguration

openQRM unterstützt die vollautomatische Konfiguration von Nagios mittels „nmap2nagios-ng“. Damit wird das gesamte openQRM Netzwerk analysiert und auf Basis der Informationen eine Nagios-Konfiguration erstellt. Anschließend werden alle Services auf allen Systemen überwacht.

Integriertes Storage-Management

openQRM organisiert die Serversysteme wie Dateien und nutzt zur Verwaltung moderne Storagesysteme anstatt lokaler Festplatten. Mittels Logical Volume Managern (LVM) und deren Snapshot-Verfahren können Server-Templates auf schnellen Wege dupliziert werden.

„Sollen z.B. 10 neue Server ausgerollt werden, kann so einfach ein bestehendes Server-Image 10 mal dupliziert und die „Clone“ direkt zum Deployment bereitgestellt werden.“

Mit diesem Konzept steht ein zentrales Backup/Restore sowie die Möglichkeit von Hot-Backups ohne Downtime zur Verfügung.

openQRM unterstützt folgende Storage-Typen:

  • NFS (NAS)
  • iSCSI (iSCSI SAN)
  • Aoe/Coraid (AOE SAN)
  • NetApp (iSCSI SAN)
  • Local-disk (Übertragung von Server-Images auf lokale Festplatten)
  • LVM-Nfs (NFS auf LVM2, erlaubt schnelles Cloning)
  • LVM-iSCSI (iSCSI auf LVM2, erlaubt schnelles Cloning)
  • LVM-Aoe (Aoe auf LVM2, erlaubt schnelles Cloning)
  • Equallogic (iSCSI SAN)
  • ZFS (iSCSI SAN)

Hochverfügbarkeit und „N-to-1“-Fail-Over!

Mit der „N-zu-1“ Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Unabhängig davon, ob physikalische oder virtuelle Maschinen eingesetzt werden.

„Um zum Beispiel 10 hochverfügbare Spezialsysteme zu betreiben benötigt man normalerweise weitere 10 „Stand-By“-Systeme. Mit openQRM jedoch benötigt man nur einen einzigen „Stand-By“-Server, der im Fehlerfall eines der 10 Spezialsysteme benutzt wird. Das heißt, man kann 9 „stromfressende“, nicht ausgelastete Server einsparen. Perfekt für „Green IT“.

Des Weiteren können physikalische Server virtuelle Maschinen als „Hot Stand-By“ nutzen und lassen sich im Notfall in eine virtuelle Maschine migrieren.

Fertige Server-Templates

Mittels dem „Image-Shelf“-Plugin stellt openQRM bereits fertige Server Templates zur Verfügung. Dazu gehören Linux Distributionen wie Debian, Ubuntu, CentOS und openSuse. Des Weiteren können mit dem Plugin eigene Server Templates auf unterschiedliche Weise (lokal, http, https, ftp) bereitgestellt werden.

Unterstützung verschiedenster Deployment-Methoden

Mit openQRM können Server von jeder Art von Storage gestartet werden. Zusätzlich können die Server Templates von einem Storage-Typ zu einem anderen übertragen werden, dabei kann noch entschieden werden, ob die Server Templates auf einem physikalischen Server oder in einer virtuellen Maschine gestartet werden sollen.

Unterstützung verschiedener OS-Distributionen

Es stehen bereits vor-konfigurierte openQRM-Server Pakete für Debian, Ubuntu und CentOS zur Verfügung. Ein openQRM-Server kann aber alle gängigen Linux Distributionen verwalten.

Cloud-Selector

Mit dem Cloud-Selector kann der Cloud Administrator seine Cloud Produkte wie z.B. Prozessoren, Speicher, Festplattengröße oder den Typ der virtuellen Maschine auswählen und deren Preise festlegen.

Kostenrechner im Cloud-Portal

Die Cloud-Computing-Unit (CCU) kann einer regulären Währung (z.b. USD oder Euro) zugewiesen werden. Mit dem Kostenrechner werden die stündlichen, täglichen und monatlichen verbrauchten Kosten für eine Cloud Appliance berechnet.

Private Cloud Images

Mit der „Private Cloud Image“-Funktion können Cloud Benutzer eigene Server Templates anlegen und verwalten.

Volle SSL-Unterstützung

Der openQRM-Server arbeitet in einem vollständig SSL-verschlüsselten Bereich und unterstützt verschiedene Serverarchitekturen wie i386 und x86_64.

Ich möchte hier noch anmerken, dass es sich bei der openQRM Enterprise um einen deutschen Anbieter aus dem Bereich des Cloud Computing handelt!


Eucalyptus

Beim Elastic Utility Computing Architecture for Linking Your Programs To Useful Systems (Eucalyptus) handelt es sich um eine Open Source Software Infrastruktur zum Aufbau von skalierbaren Utility Computing bzw. Cloud Computing Umgebungen für spezielle Clustersysteme oder einfachen miteinander verbundenen Arbeitsplatzrechnern.

Eucalyptus wurde als ein Forschungsprojekt am Computer Science department an der University of California Santa Barbara entwickelt und wird mittlerweile von der Eucalyptus Systems Inc. vermarktet. Die Software wird aber weiterhin als Open Source Projekt gepflegt und weiterentwickelt. Die Eucalyptus Systems Inc. bietet darüber hinaus lediglich weitere Dienstleitungen und Produkte sowie einen professionellen Support rund um Eucalyptus an.

Folgende Funktionen stellt Eucalyptus bereit:

  • Kompatibilität mit den Schnittstellen zu Amazon EC2 und S3 (SOAP und REST).
  • Unterstützung aller Virtual Machines die auf einem Xen Hypervisor oder einer KVM ausgeführt werden.
  • Administrationstools für die System- und Benutzerverwaltung.
  • Die Möglichkeit mehrere Cluster für eine Cloud zu konfigurieren, wobei jeder einzelne Cluster über eine private interne IP-Adresse verfügt.

Architektur

Eucalyptus besteht aus fünf zusammenarbeitenden Hauptkomponenten um den angeforderten Cloud Service bereit zu stellen. Die Kommunikation zwischen den Komponenten erfolgt über gesicherte SOAP Nachrichten mittels WS-Security.

Cloud Controller (CLC)

Der Cloud Controller dient innerhalb einer Eucalyptus Cloud als Hauptkomponente für die Verwaltung des gesamten Systems und stellt den Administratoren und Benutzern einen zentralen Zugriffspunkt bereit. Die Kommunikation aller Clients mit dem Eucalyptus System erfolgt ausschließlich nur über den Cloud Controller anhand der auf SOAP oder REST basierenden API. Der Cloud Controller ist dafür zuständig, alle Anfragen zu der richtigen Komponente weiterzuleiten, diese zu sammeln und die Antwort der Komponente anschließend wieder zu dem Client zurück zu senden. Der Cloud Controller ist somit die öffentliche Schnittstelle einer Eucalyptus Cloud.

Cluster Controller (CC)

Der Cluster Controller ist innerhalb des Eucalyptus Systems für die Verwaltung des virtuellen Netzwerks zuständig. Der Cloud Controller erhält alle Anfragen auf Basis seiner SOAP oder REST Schnittstellen. Der Cloud Controller erhält alle Informationen über die vorhandenen Node Controllers des Eucalyptus Systems und ist für die Kontrolle des Lebenszyklus jedes einzelnen verantwortlich. Er leitet alle Anfragen an die Node Controller mit verfügbaren Ressourcen weiter um damit virtuelle Instanzen zu starten.

Node Controller (NC)

Ein Node Controller steuert das Betriebssystem und den zugehörigen Hypervisor eines Rechners (Node) im Eucalyptus System. Auf jeder physikalischen Maschine die eine durch den Cluster Controller instantiierte virtuelle Instanz auf Grund einer Anfrage beherbergt, muss eine Instanz eines Node Controller vorhanden sein.

Walrus (W)

Walrus ist für die Zugriffsverwaltung auf den Speicherdienst innerhalb eines Eucalyptus Systems zuständig. Walrus erhält die Anfragen über seine SOAP oder REST Schnittstelle.

Storage Controller (SC)

Der Storage Controller verwaltet den Speicherdienst innerhalb eines Eucalyptus Systems und verfügt über eine Schnittstelle zu Amazon’s S3 Dienst. Der Storage Controller arbeit in Verbindung mit Walrus und wird für die Speicherung und den Zugriff auf die Images der Virtual Machines, die Kernel Images, die RAM Disk Images und die Daten der Benutzer verwendet. Die Images der Virtual Machines können rein privat oder öffentlich zugänglich gemacht werden und können dabei komprimiert und verschlüsselt gespeichert werden. Die Images werden lediglich entschlüsselt, wenn ein Node eine neue virtuelle Instanz starten muss und dazu einen Zugriff auf das Image benötigt.

Das Clustersystem

Ein Eucalyptus System vereint und verwaltet Ressourcen von Single-Cluster als auch Multi-Cluster Systemen. Dabei besteht ein Cluster aus einer Gruppe von Rechnern, die alle mit dem selben LAN verbunden sind. Zu jedem Cluster kann wiederum einer aber auch mehrere Node Controller gehören, die für die Verwaltung der Instantiierung und Beendigung der virtuellen Instanzen verantwortlich sind.

Ein Single-Cluster besteht aus mindestens zwei Maschinen. Auf dem einen werden der Cluster Controller, der Storage Controller und der Cloud Controller ausgeführt, auf dem anderen der Node Controller. Diese Art der Konfiguration ist vor allem für Experimente und schnelle Konfigurationen geeignet. Die dargestellte Konfiguration könnte ebenfalls auf einer einzigen Maschine implementiert werden. Allerdings ist dafür eine äußerst leistungsstarke Hardware notwendig!

Bei einem Multi-Cluster wird jede Komponente (CC, SC, NC, und CLC) auf einer separaten Maschine ausgeführt. Dies sollte die bevorzugte Art und Weise sein das Eucalyptus System zu konfigurieren, wenn damit ernsthaft gearbeitet werden soll. Mit einem Multi-Cluster kann zudem die Performance erhöht werden, indem einem Controller die passende Maschine zugewiesen wird. Zum Beispiel sollte der Cloud Controller auf einer Maschine mit einer schnellen CPU ausgeführt werden. Im Allgemeinen bringt die Entscheidung für einen Multi-Cluster eine höhere Verfügbarkeit, sowie eine bessere Lastverteilung und eine optimierte Verteilung der Ressourcen über alle Cluster. Das Clusterkonzept ist vergleichbar mit dem Konzept der Verfügbarkeitszonen der Amazon EC2. Dabei werden die Ressourcen über mehrere Verfügbarkeitszonen hinweg verteilt, damit ein Fehler in einer Zone nicht die Anwendung beeinträchtigt.

Eucalyptus und die Ubuntu Enterprise Cloud

Bei der Ubuntu Enterprise Cloud (UEC) handelt es sich um eine Open Source Initiative von Ubuntu, um auf eine einfachere Art und Weise skalierbare Cloud Infrastrukturen auf Basis von Eucalyptus bereitzustellen und diese zu konfigurieren.

Mit der Ubuntu Enterprise Cloud können Public Clouds erstellt werden, welche Amazon’s EC2 infrastructure nutzen. Es können damit aber genau so gut Private Clouds entwickelt werden, die auf der eigenen Infrastruktur im eigenen Rechenzentrum hinter der eigenen Firewall gehostet werden.

Vorteile von Eucalyptus

Bei Eucalyptus handelt es sich um eine Umgebung für Cloud Services, mit der Public Clouds auf Amazon’s EC2 Infrastruktur bzw. Private Clouds im hauseigenen Rechenzentrum erstellt werden können. Die grundlegenden Vorteile sollen hier noch einmal kurz aufgeführt werden:

  • Open Source und Entwicklung
    Eucalyptus wurde geschaffen, um die Kommunikation und Forschung von Cloud Computing Plattformen zu fördern. Der Quellcode ist frei verfügbar, was es ermöglicht die Plattform so zu erweitern, damit sie den eigenen Anforderungen entspricht. Eucalyptus wird zunehmend weiterentwickelt. Darüber hinaus ist die Aufnahme und Integration von Funktionswünschen und Verbesserungsvorschlägen sehr schnell.
  • Community
    Eucalyptus verfügt über eine große Community die gerne bereit ist einander zu helfen. Über die Foren kann schnell Kontakt zu anderen Benutzern aufgenommen und Hilfe bezogen werden.
  • Public Cloud
    Eucalyptus funktioniert einwandfrei auf Amazon’s EC2 Framework und kann damit als Public Cloud eingesetzt werden.
  • Private Cloud
    Eucalyptus kann auf der eigenen Infrastruktur im eigenen Rechenzentrum hinter der eigenen Firewall als Private Cloud eingesetzt werden. Dadurch ist die Kontrolle bzgl. der Sicherheit und der gesamten Umgebung in der eigenen Hand.
  • Portabilität
    Auf Grund der Kompatibilität von Eucalyptus mit Amazon’s EC2 API sowie der Flexibilität von Eucalyptus, können Anwendungen ohne großen Aufwand von einer Cloud in die andere migriert werden. Darüber hinaus besteht die Möglichkeit des Aufbaus von Hybrid Clouds, indem eine Private Cloud mit einer Public Cloud erweitert bzw. kombiniert wird.
  • Qualitativ durch Tests
    Durch den Einsatz von Eucalyptus in Ubuntu’s Enterprise Cloud findet tagtäglich ein weltweiter realer Test auf Basis von mehr als tausend Server-Instanzen statt.
  • Kommerzieller Support
    Neben den Foren der Eucalyptus Community kann natürlich auch auf einen kommerziellen Support zurückgegriffen werden.

Open Nebula

OpenNebula ist ein Open Source Virtual Infrastructure Manager mit dem aus vorhandenen Rechenzentren jede Art von Cloud Computing Umgebung aufgebaut und bereitgestellt werden kann. In erster Linie dient OpenNebula als Tool zur Verwaltung der virtualisierten Infrastruktur des eigenen Rechenzentrums bzw. der eigenen Cluster, also der eigenen Private Cloud.

Darüber hinaus ist OpenNebula in der Lage Hybrid Clouds aufzubauen, also die eigene lokale Infrastruktur mit einer Public Cloud Infrastruktur zu verbinden/kombinieren, um die Skalierbarkeit der eigenen Umgebung noch weiter zu erhöhen. OpenNebula verfügt zusätzlich über spezielle Schnittstellen für die Verwaltung von virtuellen Maschinen, Speicherplatz und des Netzwerks von Public Clouds.

Funktionen

Private Cloud Computing

  • Internal Interfaces for Administrators and Users
    Mit einer Unix ähnlichen Kommandozeile und einer XML-RPC API kann der Lebenszyklus der virtuellen Maschinen und physikalischen Server verwaltet werden. Weitere Administrationsmöglichkeiten bietet die libvirt API.
  • Steuerung
    Die Verwaltung der Arbeitslast und Zuweisung der Ressourcen kann nach bestimmten Regeln wie z.B. der aktuellen Auslastung automatisch vorgenommen werden. Des Weiteren wird der Haizea VM-based lease manager unterstützt
  • Virtualisierungsmanagement
    Es existieren Konnektoren für Xen, KVM und VMware, sowie einem generischen libvirt Konnektor für weitere Virtual Machine Manager. Die Unterstützung von Virtual Box ist in Planung.
  • Image Management
    Es sind Funktionen für den Transfer und das Clonen von Virtual Machine Images vorhanden.
  • Netzwerk Management
    Es lassen sich isolierte virtuelle Netze festlegen um virtuelle Maschinen miteinander zu verbinden.
  • Service Management
    Unterstützung von Multi Tier Services bestehend aus Gruppen von miteinander verbundenen virtuellen Maschinen und deren Auto Konfiguration während des Boot Vorgangs.
  • Sicherheit
    Die Verwaltung der Benutzer wird durch den Administrator der Infrastruktur vorgenommen.
  • Fehlertoleranz
    Eine persistente Datenbank dient zum Speichern aller Informationen der Hosts und virtuellen Maschinen.
  • Skalierbarkeit
    Tests zeigten bisher, das OpenNebula mehrere hundert Server und virtuelle Maschinen verwalten kann.
  • Installation
    Die Installation erfolgt auf einem UNIX Cluster Front-End ohne das weitere Services benötigt werden. OpenNebula wird mit Ubuntu 9.04 (Jaunty Jackalope) ausgeliefert.
  • Flexibilität und Erweiterbarkeit
    Die Architektur, Schnittstellen und Komponenten sind offen, flexibel und erweiterbar. Dadurch kann OpenNebula mit jedem aktuellen Produkt aus dem Bereich Virtualisierung, Cloud Computing oder Management Tool für Rechenzentren integriert werden.

Hybrid Cloud Computing

  • Cloud Plugins
    Konnektoren für Amazon EC2 und ElasticHosts.
  • Zusammenschluss
    Unterstützung für den gleichzeitigen Zugriff auf mehrere Remote-Clouds.
  • Erweiterbarkeit
    Modulare Konzepte für die Entwicklung neuer Konnektoren.

Public Cloud Computing

  • Cloud Schnittstellen für Benutzer
    Implementierung einer Teilmenge der Amazon EC2 Query API und der OGF OCCI API
  • Erweiterbarkeit
    Die OpenNebula Cloud API ermöglicht die Implementierung neuer/weiterer Cloud Schnittstellen.

OpenStack

OpenStack ist ein weltweites Gemeinschaftsprojekt von Entwicklern und Cloud Computing Spezialisten, die das Ziel verfolgen eine Open Source Plattform für den Aufbau von Public und Private Clouds zu entwickeln. Das Projekt wurde initial von der Nasa und Rackspace gegründet und will Anbietern von Cloud Infrastrukturen ein Werkzeug in die Hand geben, mit dem sie unterschiedliche Arten von Clouds ohne großen Aufwand auf Standard Hardwarekomponenten aufbauen und bereitstellen können.

Der gesamte OpenStack Quellcode ist frei verfügbar und unterliegt der Apache 2.0 Lizenz. Dadurch ist jeder in der Lage auf dieser Basis seine eigene Cloud zu entwickeln und ebenfalls Verbesserungen in das Projekt zurückfließen zu lassen. Der Open Source Ansatz des Projekts soll zudem die Entwicklung von Standards im Bereich des Cloud Computing weiter fördern, Kunden die Angst vor einem Vendor Lock-in nehmen und ein Ecosystem für Cloud Anbieter schaffen.

OpenStack besteht derzeit aus insgesamt sechs Kernkompenten und wird stetig weiterentwickelt. OpenStack Compute, OpenStack Object Storage und OpenStack Image Service, OpenStack Identity, OpenStack Dashboard und OpenStack Networking.

Man muss sich allerdings darüber im Klaren sein, dass es sich bei OpenStack um kein fertiges Produkt handelt, das sofort einsatzfähig ist, sondern um einzelne Teilprojekte die selbst ineinander integriert und für die eigenen Bedürfnisse angepasst werden müssen. Es gibt aber mittlerweile fertige OpenStack Installationsroutinen von Mitgliedern des OpenStack Projekts.

OpenStack Compute

OpenStack Compute dient dem Aufbau, Bereitstellen und Verwalten von großen Virtual Machine Clustern, um auf dieser Basis eine redundante und skalierbare Cloud Computing Plattform zu errichten. Dazu stellt OpenStack Compute diverse Kontrollfunktionen und APIs zur Verfügung, mit denen Instanzen ausgeführt und Netzwerke verwaltet werden sowie die Zugriffe der Nutzer auf die Ressourcen gesteuert werden können. OpenStack Compute unterstützt zudem eine große Anzahl von Hardwarekonfigurationen und sieben Hypervisor.

OpenStack Compute kann bspw. Anbietern dabei helfen Infrastructure Cloud Services bereitzustellen oder IT-Abteilungen ermöglichen ihren internen Kunden und Projekten Ressourcen bei Bedarf zur Verfügung zu stellen. Zudem können große Datenmengen (Big Data) mit Tools wie Hadoop verarbeitet werden oder Web Anwendungen entsprechend ihrer Ressourcenbedürnisse bedient werden.

OpenStack Object Storage

Mit OpenStack Object Storage können auf Basis von standardisierten Servern redundante und skalierbare Object Storage Cluster mit einer Größe von bis zu 1 Petabyte aufgebaut werden. Dabei handelt es sich nicht um ein Dateisystem und ist nicht für das Speichern von Echtzeitdaten ausgelegt, sondern für das langfristige Speichern von statischen Daten gedacht, die bei Bedarf abgerufen oder aktualisiert werden können. Gute Anwendungsbeispiele für OpenStack Object Storage sind das Speichern von Virtual Machine Images, Photos, E-Mails, Backupdaten oder Archivierung. Da der Object Storage dezentral verwaltet wird, verfügt er über eine hohe Skalierbarkeit, Redundanz und Beständigkeit der Daten.

Die OpenStack Software sorgt dafür, dass die Daten auf mehrere Speicherbereiche im Rechenzentrum geschrieben werden, um damit die Datenreplikation und Integrität innerhalb des Clusters sicherzustellen. Die Storage Cluster skalieren dabei horizontal, indem weitere Knoten bei Bedarf hinzugefügt werden. Sollte ein Knoten ausfallen, sorgt OpenStack dafür, dass die Daten von einem aktive Knoten repliziert werden.

OpenStack Object Storage kann von Anbietern genutzt werden, um einen eigenen Cloud Storage bereizustellen oder die Server Images von OpenStack Compute zu speichern. Weitere Anwendungsfälle wären Dokumentenspeicher, eine Back-End Lösung für Microsoft SharePoint, eine Archivierungsplattform für Logdateien oder für Daten mit langen Aufbewahrungsfristen oder einfach nur zum Speichern von Bildern für Webseiten.

OpenStack Image Service

Der OpenStack Image Service hilft bei der Suche, Registrierung und dem Bereitstellen von virtuellen Maschinen Images. Dazu bietet der Image Service eine API mit einer Standard REST Schnittstelle, mit der Informationen über das VM Image abgefragt werden können, welches in unterschiedlichen Back-Ends abgelegt sein kann, darunter OpenStack Object Storage. Clients können über den Service neue VM Images registrieren, Informationen über öffentlich verfügbare Images abfragen und über eine Bibliothek ebenfalls darauf zugreifen.

Der OpenStack Image Service unterstützt eine Vielzahl an VM Formaten für private und öffentliche Images, darunter Raw, Machine (kernel/ramdisk, z.B. AMI), VHD (Hyper-V), VDI (VirtualBox), qcow2 (Qemu/KVM), VMDK (VMWare) und OVF (VMWare).

OpenStack Identity

Der OpenStack Identity Service stellt eine zentrale Authentifizierung über alle OpenStack Projekte bereit und integriert sich in vorhandene Authentifizierungs-Systeme.

OpenStack Dashboard

Das OpenStack Dashboard ermöglicht Administratoren und Anwendern den Zugang und die Bereitstellung von Cloud-basierten Ressourcen durch ein Self-Service Portal.

OpenStack Networking

OpenStack Networking ist ein skalierbares und API basierendes System für die Verwaltung von Netzwerken und IP-Adressen.


CloudStack

CloudStack wurde ursprünglich von Cloud.com entwickelt. Nach der Übernahme durch Citrix Systems im Jahr 2011 wurde Citrix zum Hauptsponsor von CloudStack. Die Open-Source Cloud Plattform basiert auf Java und hilft beim Aufbau und der Verwaltung von skalierbaren Infrastrukturen. Zu den aktuell unterstützten Hypervisorn gehören VMware, Oracle VM, KVM, XenServer und die Xen Cloud Platform. Neben einer eigenen RESTful API implementiert CloudStack ebenfalls die Amazon EC2 und S3 APIs sowie VMwares vCloud API. Die Cloud-Infrastruktur kann entweder über die Web-Oberfläche, einer Kommandozeile oder die API konfiguriert und verwaltet werden.

CloudStack besteht aus fünf Kernkomponenten. Der Compute Controller verwaltet die Rechenleistung, der Network Controller steuert das virtuelle Netzwerk und der Storage Controller ist für die Speicherverwaltung des BlockStorage zuständig. Alle drei Komponenten haben direkten Kontakt mit der physikalische Hardware. Auf diesen Komponenten setzt die CloudStack Orchestration Engine auf, die für den Aufbau, die Steuerung und Verwaltung der CloudStack Infrastruktur verantwortlich ist. Über der Orchestration Engine befindet sich als letzte Komponente die CloudStack API, die mit der Web-Oberfläche, Kommandozeile oder über REST interagiert und die Befehle an die Orchestration Engine weitergibt.

Citrix Systems ist nicht das einzige bekannte Unternehmen, was CloudStack unterstützt. Weitere Supporter des CloudStack Projekts sind RightScale, PuppetLabs, Juniper Networks, Enstratus, TrendMicro, Intel und Equinix.


Bildquelle: ©Gerd Altmann / PIXELIO

Kategorien
Management

Die Architektur skalierbarer Applikationen in der Cloud

Das Applikationen für die Cloud neu entwickelt werden müssen ist kein Geheimnis. Dennoch zeigen Ausfälle bei populären Anbietern, dass so manche Architekturen nicht das wirkliche Potential von Cloud Infrastrukturen ausnutzen. Cloud Management Plattform Anbieter Rightscale hat hierzu eine Blogserie veröffentlicht, die zeigt, worauf man achten sollte, wenn eine Anwendung in der Cloud betrieben wird.

Applikationen müssen für die Cloud entwickelt werden

Man muss verstehen, dass Cloud Computing viel mehr bedeutet, als nur ein paar Server zu nutzen und miteinander zu verbinden. Es geht um die gesamte Architektur des eigenen Systems bzw. der eigenen Anwendung, die auf der virtuellen Infrastruktur (IaaS) aufgebaut wird. Wie ich schon in einem Artikel für die Computerwoche geschrieben habe:

Viele Unternehmen entwickeln ihre Cloud-Applikation „daheim“ in den eigenen vier Wänden. Erst nach der Fertigstellung soll der Rollout auf eine Cloud-Infrastruktur oder Cloud-Plattform erfolgen. Das ist ein Fehler.

Inbesondere IaaS-Umgebungen (Infrastructur as a Service) wie die Amazon Web Services oder Microsoft Windows Azure vermitteln den Eindruck, nur eine Vielzahl von virtuellen Maschine bereitzustellen. Den Rest übernehme die „Cloud automatisch“. Das ist fatalerweise auch der Tenor, der von vielen Medien verbreitet wird und damit ein völlig falscher Eindruck von einer Cloud entsteht.

Eine Cloud-Anwendung ist nur so viel wert wie die Architektur, auf der sie basiert. Eine Anwendung muss direkt für die Cloudentwickelt werden – Skalierbarkeit und Hochverfügbarkeit sind von Beginn an mit zu bedenken. Eine Anwendung sollte eigenständig weitere virtuelle Maschinen hochfahren können, wenn mehr Leistung benötigt wird (Skalierbarkeit) bzw. die nicht mehr benötigten virtuellen Maschinen auch selbstständig wieder herunterfahren. Genauso verhält es sich, wenn eine virtuelle Maschine in einen fehlerhaften Zustand gerät. Auch hier muss die Anwendung selbst dafür sorgen, dass entsprechend eine virtuelle Maschine als Ersatz hochgefahren wird und die defekte Maschine aus dem System verschwindet (Hochverfügbarkeit).

Die Anwendung muss daher in der Lage sein, auf jeder beliebigen virtuellen Maschine (VM) einer Cloud-Infrastruktur zu funktionieren. Das liegt unter anderem daran, dass jederzeit eine VM ausfallen kann und eine andere neu hochgefahren werden muss. Und auch die Daten, auf die eine Anwendung operiert, befinden sich zwangsläufig nicht mehr an einem einzigen Ort, sondern sind über die Cloud verteilt gespeichert.

Mehr…

Rightscale: Architektur skalierbarer Applikationen in der Cloud

Rightscales Services Architect Brian Adler hat eine Blogserie (vier Beiträge) veröffentlicht, in der er recht detailliert beschreibt, wie die Architektur einer Applikation in der Cloud aussehen sollte.

  1. Architecting Scalable Applications in the Cloud
  2. Architecting Scalable Applications in the Cloud: The Application Tier
  3. Architecting Scalable Applications in the Cloud: The Caching Tier
  4. Architecting Scalable Applications in the Cloud: The Database Tier