Dieses Video zeigt die Installation von Eucalytpus auf Ubuntu Karmic 9.10.
via YouTube
Dieses Video zeigt die Installation von Eucalytpus auf Ubuntu Karmic 9.10.
via YouTube
Dieser Artikel beschreibt, wie die Funktionen des Eucalyptus Storage Controller (SC) innerhalb der Ubuntu Enterprise Cloud (UEC) verwendet werden kann. Der Storage Controller ist vergleichbar mit den Amazon Elastic Block Storage (EBS). Mit diesem können Block Devices wie z.B. virtuelle Festplatten von virtuellen Maschinen (Images) gemounted werden. Die Daten werden dabei außerhalb der virtuellen Maschine (VM) gespeichert und sind dabei unabhängig von dem aktuellen Status dieser VM. Das bedeutet, dass die Daten weiterhin persitent gespeichert beliben, auch wenn die virtuelle Maschine beendet wird.
Wurde die Ubuntu Enterprise Cloud mit einer CD installiert und existiert eine separate physikalische Netzwerkschnittstelle, mit der das Front-End mit den Eucalyptus Node Controllers (NCs) verbunden wird, muss sichergestellt sein, dass der Storage Controller das Private Network Interface verwendet.
Mit Hilfe der Weboberfläche kann diese Konfiguration unter Configuration -> Clusters -> Storage Controller vorgenommen werden. Dabei muss darauf geachtet werden, dass die IP-Adresse welche unter Host eingetragen ist zu dem private Interface gehört und das es sich bei diesem Interface auch um das physikalische Interface zu dem privaten Netzwerk handelt.
Für die Konfiguration mittels der Kommandozeile werden die folgenden Befehle verwendet.
sudo euca_conf --deregister-sc
sudo euca_conf --register-sc
Wichtig! Alle Volumes die vor der Ausführung des obigen Befehls erstellt wurden, werden anschließend nicht mehr funktionieren und sollten mit nachfolgendem Befehl entfernt werden.
Das Erstellen von Volumes
Zum Erstellen eines Eucalyptus Storage Controller Volumes nutzen wir den Befehl
euca-create-volume -s 1 -z myzone
Dabei entspricht -s die Größe in GB und -z den Namen der UEC Verfügbarkeitszone.
Mit dem Befehl
euca-describe-availability-zones
wird der Name des UEC Storage Controller Volumes ausgegeben.
VOLUME vol-xxxxxxxx
Das Benutzen von Volumes
Um ein Volume einer bereits gestarteten Instanz hinzuzufügen nutzen wir den Befehl
euca-attach-volume -i i-xxxxxxxx -d /dev/sdb vol-xxxxxxxx
Wobei -i den Identifier der Instanz und -d dem Namen des Endgerätes entspricht, dass dem Storage Controller Volume zugewiesen werden soll.
Mit dem Befehl
euca-describe-volumes
erhalten wir detaillierte Informationen zu den gemounteten Volumes.
VOLUME vol-xxxxxxxx 1 myzone in-use 2009-10-23T14:41:47.375Z
ATTACHMENT vol-xxxxxxxx i-xxxxxxxx /dev/sdb 2009-10-23T14:42:10.274Z
Anschließend sollte das hinzugefügte Endgerät im Verzeichnis /dev der Instanz vorhanden sein. Anschließend sollten wir in der Lage sein mittels
sudo fdisk /dev/sdb
mit dem Volume zu arbeiten. Dieses also zu partitionieren, formatieren, zu mounten und das Volume so zu nutzen, als wäre es wie ein physikalisches Endgerät vorhanden und an unserer Instanz angeschlossen.
Quelle
Das Kölner Unternehmen openQRM-Enterprise, Anbieter der gleichnamigen Cloud Computing Plattform openQRM, ist dem Canonical Software Partner Programm beigetreten und wird in diesem Zuge mit Professional Services und einem langfristigen Support die openQRM Cloud auf den Ubuntu Server Distributionen unterstützen.
Canonical ist Distributor von Ubuntu Linux und stellt mit der Ubuntu Enterprise Cloud eine auf Eucalyptus basierende Cloud Computing Infrastruktur Lösung bereit.
Weitere Informationen sind auf den Webseiten von Ubuntu zu finden:
Quelle
Die grundlegenden Ideen und Konzepte des Cloud Computing reichen bis in die 1960er zurück. Schon damals wurde die Idee entwickelt Rechenleistung und Anwendungen als Utility der Öffentlichkeit gegen eine Nutzungsgebühr bereitzustellen. Dass der Durchbruch erst heute bevorsteht, hängt mit den technischen Voraussetzungen zusammen, die zur damaligen Zeit einfach noch nicht gegeben waren.
Cloud Computing symbolisiert den service- und anwendungsorientierten Trend der heutigen Informationstechnologie, bei dem verteilte und hoch skalierbare Infrastrukturen über das Internet adaptiert werden können und Anwendungen und Dienste an jedem Ort und zu jeder Zeit verfügbar sind.
Unternehmen können durch den Einsatz von Cloud Computing ihre IT-Gesamtausgaben deutlich reduzieren und die Qualität, Sicherheit aber vor allem ihre Arbeitsabläufe messbar steigern. Cloud Computing Anbieter können Skaleneffekte nutzen, indem sie ihre Kosten über eine große Anzahl von Kunden verteilen und haben damit die Möglichkeit die Investitionen in den Betrieb und die Sicherheit (Daten- und Zugangssicherheit) ihrer Rechenzentren im Vergleich zu herkömmlichen Rechenzentrums Betreibern zu erhöhen.
Ob sich der Ansatz der Public Cloud durchsetzen wird, hängt von dem Bewusstsein jedes einzelnen zum Thema Datensicherheit(!) ab. Es werden sich mit hoher Sicherheit hauptsächlich hybride Varianten aus Private Cloud und Public Cloud durchsetzen. Unternehmen werden für unternehmenskritische Daten ihre eigenen ’kleinen’ Rechenzentren (Private Cloud) betreiben und weitergehende Dienste und Anwendungen aus einer Public Cloud beziehen. Für Startups kann zu Beginn der Nutzen einer Public Cloud von besonderem Interesse sein. Die Kosten sind leicht zu kalkulieren und die IT-Infrastruktur wächst dynamisch mit dem Unternehmen.
Vor dem Hintergrund, dass die meisten Anbieter von Cloud Computing Diensten ihre eigenen Standards innerhalb der Infrastrukturen einsetzen, sind für die Zukunft noch Fragen offen, die geklärt werden müssen. Wie komme ich aus der Cloud wieder zurück? und Wie wechsel ich von der Cloud eines Anbieters in die Cloud eines anderen Anbieters? Das zeigt, dass offene Standards signifikant für die Akzeptanz und Weiterentwicklung des Cloud Computing sind.
Zu guter Letzt müssen auch die Internetprovider und Telekommunikationsanbieter sich verpflichtet fühlen ihren Teil zum Erfolg des Cloud Computing beizutragen. Sind die aktuellen Angebote für Unternehmen sehr attraktiv, haben private Anwender fast keine Möglichkeit Dienste, wie z.B. Cloud Storage (Speicherplatz im Internet) in Anspruch zu nehmen. Die Uploadraten herkömmlicher Internetanschlüsse sind für diese Art von Dienst einfach zu langsam und können und werden dadurch auch nicht genutzt werden. Bessern die Anbieter in diesem Sektor ihre Angebote im Hinblick auf die Technik und den Preis nicht nach, besteht die Möglichkeit, dass wir im Privatbereich dieselbe Problematik erleben werden wie in den 1960er.
Zenoss ist eine Open Source IT-Management Suite, mit der die Konfiguration, der aktuelle Zustand, sowie die Performance des Netzwerks, der Server und Applikationen von einer zentralen Stelle aus verwaltet werden können.
Vor der Einführung des Software-as-a-Service Modells (SaaS) (abgesehen von den Application Service Providern – ASP) waren Unternehmen gezwungen eigene Infrastrukturen für die Nutzung und Bereitstellung lokaler Anwendungen aufzubauen und zu warten. Mit SaaS können diese Anwendungen nun online gehostet und verwendet werden. Die Vorteile zeichnen sich auf der einen Seite durch Kosteneinsparungen auf Grund eines nutzungsabhängigen Abbrechnungsmodells, durch automatisierte Updates und Upgrades durch den Anbieter auf der anderen, sowie einer guten Integration in die eigenen bestehenden Systeme ab.
Anbieter von Software as a Service basierten Anwendungen stehen vor der Herausforderung die kostspieligen und komplexen Infrastrukturen, die für das Hosting dieser Anwendungen benötigt werden, aufzubauen sowie skalierbar und hochperformat bereitszustellen. Zumal die Nachfrage durch die Kunden mittels eines Forecast schwierig anzuschätzen ist.
Unternehmen die ihre lokalen Anwendungen in eine Cloud Computing Umgebung migrieren wollen und Anbieter die Anwendungen als SaaS in der Cloud bereitstellen möchten sehen sich Fragen gegenübergestellt, die nicht immer leicht zu beantworten sind.
Wie ist die Plattform des Anbieters bzgl. des technischen Angebots und der Umgebung ausgestattet. Genauer, kann die zu verwendene Programmiersprachen und Webplattform selbst ausgewählt werden oder werden beide vorgegeben? Findet eine Migration statt, muss geklärt werden, ob u.a. die aktuell verwendeten Betriebssysteme und Umgebungen weiter verwendet werden können, oder ob eine vollständige/ teilweise Erneuerung stattfinden muss. Welchen Einfluss habe ich bzgl. der Ressourcenverwaltung – also wie kann ich auf unterschiedliche Auslastungen durch mehr oder weniger Nachfragen an die Anwendungen Einfluss nehmen?
Wie ist die Expertise des Anbieters in dessen Cloud Umgebung ich meine Anwendungen betreiben möchte hinsichtlich einer verteilten, redundanten, hochverfügbaren und skalierbaren Infrastruktur? Kann der Anbieter sicherheitstechnische Maßnahmen bzgl. Datenschutz, Datensicherheit, Risikomanagement etc. nachweisen – ist dieser evtl. sogar durch eine unabhängige Instanz zertifiziert? Wie transparent sind die Verträge des Anbieters? Stichwort: Versteckte Kosten! Werden gesonderte Verfplichtungen mit dem Anbieter eingegangen oder müssen initial Investitionen vorgenommen werden und mögliche Anschaffungen zu finanzieren?
Um die Möglichkeiten des Cloud Computing im Unternehmenseinsatz darzustellen, wird am Beispiel eines fiktiven Unternehmens, der Spielwaren GmbH, die IT-Infrastruktur analysiert und ein Handlungskonzept für die Migration in die Cloud vorgestellt.
Die Spielwaren GmbH ist ein weltweit agierendes Unternehmen mit vier Standorten in Deutschland, den USA, China und Indien. Das Unternehmen erzielt mit seinen knapp 3.500 Mitarbeitern weltweit einen Umsatz von ca. 1 Milliarde US Dollar pro Jahr. Die IT-Umgebung des Unternehmens wurde in den letzten Jahren weitestgehend nur dann aktualisiert, wenn die Notwendigkeit durch Ausfall eines Servers oder ähnliches bestand. Die Systemumgebung setzt sich wie folgt zusammen.
Die Kommunikation der Standorte findet über SDSL VPN-Verbindungen statt. Die beschriebene Systemumgebung gilt für jeden Standort. Eine Skizze der IT-Infrastruktur ist in der folgenden Graphik illustriert.
Eine Analyse der IT-Infrastruktur führte zu folgendem Ergebnis.
Generell gilt für die vorhandenen Rechenzentren: Die Hardware bei 80% der Server ist am Limit bzw. veraltet und muss dringend augetauscht werden.
Auf Basis der Analyse und der Sondierung des Cloud Computing Marktes erhält die Spielwaren GmbH folgende Handlungsempfehlung.
Die beschriebene Handlungsempfehlung gilt für die gesamte IT-Umgebung der Spielwaren GmbH, wodurch alle Standort betroffen sind. Eine Skizze der möglichen IT-Infrastruktur nach Umsetzung der Handlungsempfehlung ist in der folgenden Graphik illustiert.
Die Migration würde der Spielwaren GmbH folgende Nutzen bringen.
Neben den Nutzen birgt die Migration aber auch einige Gefahren, die aufgezeigt werden müssen.
Um den finaziellen Vorteil mit Zahlen zu verdeutlichen, wird die vorgeschlagende Google Apps Professional dem vergleichbaren Microsoft Exchange Server gegenüber gestellt. Die Aufstellung der Kosten ist in der folgenden Graphik nachzuvollziehen.
Der Vergleich zeigt den deutlichen finanziellen Vorteil durch den Einsatz der Google Apps Professional Lösung. Über einen Zeitraum von drei Jahren liegen die Ersparnisse pro Benutzer bei ca. 62,00 EUR im Vergleich zur Microsoft Exchange Lösung. Das liegt zum einen an den geringeren Lizenzkosten der Google Lösung (Ersparnis: 98.000 EUR), zum anderen an den geringeren Wartungs- (Ersparnis: 53.000 EUR) und Administrationskosten (Erspanis: 68.000 EUR) sowie an den fehlenden Investitionskosten in eine eigene Infrastruktur für die Server (Ersparnis: 20.400 EUR). Werden die gesamten Wartungs-, Administrations und Infrastrukturkosten herausgerechnet (letzte Zeile), liegt der Kostenvorteil der Google Lösung über einen Zeitraum von drei Jahren nur noch bei ca. 8,00 EUR pro Mitarbeiter.
Dieser Vergleich zeigt, wie die Infrastruktur- und Wartungskosten durch den Einsatz von Cloud Computing signifikant gesenkt werden können.
Die Handlungsempfehlungen, die für dieses Beispiel gewählt wurden, sind bewusst ein wenig extrem aber verdeutlichen gleichzeitig, was bereits heute mit dem Cloud Computing für Möglichkeiten bestehen. Ein Unternehmen muss sich gut überlegen, ob es seine Infrastruktur bzw. die unternehmenskritischen Daten in der Form so auslagern möchte. Zu groß ist z.B. das Risiko der Datensicherheit. Werden auf der anderen Seite aber Kunden von Google (Motorola und Procter & Gamble) und Salesforce.com (Dell, Dow Jones und Morgen Stanley) herangezogen, sollte die Attraktivität dieses Outsourcingmodells nicht vernachlässigt werden. Zu so einer Entscheidung gehört auch immer eine subjektive Betrachtung, bei der die Kosten eine immer größer werdene Variable in der Gleichung werden. Aus diesem Grund müssen auch Kompromisse geschlossen werden, wenn Kosten gesenkt werden sollen. Ob die Datensicherheit dabei zweitrangig behandelt werden darf bleibt fraglich.
Mit der ZOHO Office Suite bietet der gleichnamige Anbieter ein webbasiertes Angebot zu der u.a. Tools für die Textverarbeitung, Tabellenkalkulation, Präsentationen, Datenbanken, Wikis, CRMs Projektmangement, Rechnungsstellung etc. gehören. Damit stellt ZOHO derzeit mit Abstand das größte Portfolio bzgl. webbasierter Office & Collaboration Angebote.
Die jeweiligen Angebote werden als Software as a Service bereitgestellt und befinden sich auf den Servern in der Cloud von ZOHO. Für den Zugriff benötigen die Benutzer lediglich einen Standard Webbrowser. Weiterhin existieren Plugins für die lokale Integration z.B. in Microsoft Office und Microsoft SharePoint.
Unterschieden wird derzeit in die Bereiche Productivity & Collaboration Apps, Business Apps und Utilities.
Dieser Artikel zeigt die Angebote aus dem Bereich Productivity & Collaboration Apps.
Unternehmen haben unterschiedliche Lösungsansätze, um das Web-Hosting ihrer Webseite zu betreiben. Zunächst besteht die Möglichkeit ein eigens Rechenzentrum aufzubauen und zu betreiben. Weiterhin kann ein Drittanbieter damit beaufragt werden die Webseite auf seine dafür dedizierten Servern zu hosten und zu verwalten. Der letzte Ansatz ist die Nutzung Cloud Computing basierter Lösungen.
Egal welcher Ansatz nun verfolgt wird, ist es für Unternehmen unabdingbar eine Infrastruktur auszuwählen, die Ihnen eine größtmögliche Sicherheit, Zuverlässigkeit und Performance bietet. Unabhängig davon rücken die Kosten, also fixe Kosten und variable Kosten immer weiter in den Fokus und betreffen jedes Unternehmen jeder Größe. Zudem ist in den letzten Jahren der Wunsch nach Flexibilität immer weiter gestiegen um die Kosten transparenter im Blick zu behalten.
Cloud Computing Lösungen geben Unternehmen hierbei die Chance ihre vorab Investitionen zu verringern und damit Kapital zu sparen. Ein weiterer Vorteil eine Cloud Lösung besteht in der Skalierbarkeit in beide Richtungen. Steigt die Auslastung an, können die Ressourcen nach oben skaliert werden. Nimmt die Auslastung wieder ab, werden die überschüssigen Ressourcen wieder freigegeben. In beiden Fällen entstehen nur Kosten für die Ressourcen die auch tatsächlich genutzt werden.
Fällt die Entscheidungen auf eine Cloud Computing Lösung müssen sich Unternehmen vorab genau informieren, um nicht doch in eine Kostenfalle oder einen Vendor oder Technik lock-in zu geraten. Dabei sollte zunächst geprüft werden, was für Kosten zu Beginn und während des Webhosting Betriebs entstehen und ob nicht doch versteckte Gebühren in den Verträgen vorhanden sind. Stichwort: Transparenz! Weiterhin ist zu klären, wie verlässlich und hochverfügbar die Infrastruktur des Anbieters ist. Ist dieser ggf. von einer unabhängigen Instanz hinsichtlich dieser Anforderungen geprüft und zertifiziert worden? Wie verhält sich die Infrastruktur des Anbieters, wenn die Anfragen/Last plötzlich unerwartet zunimmt. Wie ist das Ressourcenhandling der Infrastruktur? Hier ist ein unabhängiges Audit eine Möglichkeit (z.B. durch Zusammenschluss mehrerer Kunden).
Wie ist der Anbieter bzgl. seines technischen Angebots und seiner Umgebung ausgestattet. Genauer, gibt der Anbieter die zu verwendenen Programmiersprachen und Webplattform vor, oder kann beides jeweils selbst ausgewählt werden? Findet eine Migration zu dem Anbieter statt, muss geklärt werden, ob u.a. die aktuell verwendeten Betriebssysteme und Umgebungen weiter verwendet werden können, oder ob eine vollständige/ teilweise Erneuerung stattfinden muss.
Scalarium, das Cloud Computing Produkt der Peritor GmbH dient zur Automatisierung der Kommunikation und Konfiguration von Amazon EC2 Cluster.
Eine Beispielkonfiguration für einen Cluster würde z.B. aus einem Load Balancer, drei Rails Applikations-Servern und einem Datenbankserver bestehen. Für den Start dieses Clusters ist anschließend Scalarium verantwortlich, indem es eine Verbindung zur Amazon Compute Cloud (EC2) herstellt und die entsprechenden Instanzen startet. Die Images werden geladen und der Scalarium Agent installiert.
Der Scalarium Agent wird auf jedem Server ausgeführt und ist über eine verschlüsselte Verbindung ständig mit Scalarium in kontakt. Webserver werden dabei automatisch mit Nginx konfiguriert, während Datenbankserver eine MySQL Installation erhalten. Nachdem der Scalarium Agent auf einer Instanz installiert wurde und das System konfiguriert hat, wird die Instanz als online markiert und kann durch den Cluster verwendet werden.
Scalarium bietet die folgenden vier Funktionen, die im Anschluß jeweils kurz vorgestellt werden.
Mittels der Auto Configuration werden die Server automatisiert konfiguriert, indem die benötigte Software installiert und eingerichtet wird. Werden weitere Instanzen hinzugefügt, konfiguriert Scalarium automatisch die Anwendungen und den gesamten Cluster. Die einzigen Informationen die von Scalarium dazu benötigt werden sind die gewünschten Ubuntu Packages und Rubygems. Anschließend werden alle Pakete und Libraries auf jedem Server installiert und das zu jederzeit.
Weitere Informationen zu Auto Config sind HIER zu finden.
Mit Auto Healing sorgt Scalarium dafür, dass die vorher festgelegten Services und Hosts des Cluster im Fehlerfall automatisch wiederhergestellt werden. Fällt z.B. ein Server aus, wird dieser durch Scalarium entfernt und in kurzer Zeit durch eine neue Instanz ersetzt, wodurch der gesamte Cluster automatisch neu konfiguriert wird.
Weitere Informationen zu Auto Healing sind HIER zu finden.
Durch das Auto-Scaling können Schwellwerte festgelegt werden die dafür sorgen, dass entweder weitere Instanzen gestartet oder nicht mehr benötigte Instanzen beendet werden. Dazu überwacht Scalarium die CPU- und Arbeitspeicher-Auslastung, sowie die durchschnittliche Belastung jeder Instanz.
Weitere Informationen zu Auto Scaling sind HIER zu finden.
Mittels One Click Deploy können Anwendungen über den gesamten Cluster hinweg zu einem Zeitpunkt vollständig automatisiert verteilt, installiert und konfiguriert werden.
Weitere Informationen zu One Click Deploy sind HIER zu finden.