Kategorien
Videos

Video: Installation von Eucalyptus (Cloud/Cluster/Storage Node) auf Ubuntu Karmic 9.10

Dieses Video zeigt die Installation von Eucalytpus auf Ubuntu Karmic 9.10.

via YouTube

Kategorien
Tutorials

UEC: Erstellen eines eigenen Image

Dieses Tutorial beschreibt das Erstellen von Images für die Ubuntu Enterprise Cloud mit Hilfe des vmbuilder utility. Dieses Image ist generisch und kann für jede Eucalyptus Cloud genutzt werden.

Zunächst erstellen wir eine Beschreibung zu einer Partition, hier mit dem Namen „part“. Diese beinhaltet die Größe, den Typ sowie den Mountpoint der Partition unserer VM.

$ cat > part <

Im nächsten Schritt wird ein einfaches Skript mit dem Namen "firstboot" (entspricht ebenfalls dem Dateinamen) erstellt. Dieses wird das erste Mal ausgeführt, wenn das Image innerhalb von Eucalyptus gestartet wird um einen SSH Daemon zu installieren.

$ cat >firstboot <

Nun kann mit dem vmbuilder das Image erstellt werden. Dazu wird als Parameter das vorher erstellte Skript "firstboot" mit übergeben.

sudo vmbuilder xen ubuntu --part ./part --firstboot ./firstboot

Als nächstes müssen wir einen Kernel, eine Ramdisk und natürlich das Image "bundlen", registieren und hochladen. Dazu verwenden wir die EC2 API Tools.

mkdir kernel
euca-bundle-image --image /boot/vmlinuz-$(uname -r)
--destination ./kernel --kernel true
euca-upload-bundle --bucket kernel
--manifest ./kernel/vmlinuz-$(uname -r).manifest.xml
EKI=`euca-register kernel/vmlinuz-$(uname -r).manifest.xml | awk '{print $2}'`
echo $EKI

mkdir ramdisk
sudo sh -c 'grep -q acpiphp /etc/initramfs-tools/modules ||
printf "#acpiphp needed for ebsnacpiphpn" > /etc/initramfs-tools/modules'
sudo mkinitramfs -o ./ramdisk/initrd.img-$(uname -r)
euca-bundle-image --image ./ramdisk/initrd.img-$(uname -r)
--destination ./ramdisk --ramdisk true
euca-upload-bundle --bucket ramdisk
--manifest ramdisk/initrd.img-$(uname -r).manifest.xml
ERI=`euca-register ramdisk/initrd.img-$(uname -r).manifest.xml | awk '{print $2}'`
echo $ERI

mkdir image
euca-bundle-image --image ubuntu-xen/root.img
--destination ./image --kernel $EKI --ramdisk $ERI
euca-upload-bundle --bucket image --manifest ./image/root.img.manifest.xml
EMI=`euca-register image/root.img.manifest.xml | awk '{print $2}'`
echo $EMI

Die Shell Variablen in dem obigen Code Beispiel werden dazu benötigt, um die anschließende Instalaltion zu testen. Nun sollte der Kernel, die Ramdisk und das Image in Eucalyptus hochgeladen worden und betriebsbereit sein. Um das zu überprüfen nutzen wir den folgenden Befehl.

euca-describe-images

Wir sollten einen registierten Kernel, eine Ramdisk und das Image sehen, wobei alle als "available" gekennzeichnet sind.

Quelle

Kategorien
Tutorials

UEC: Einsatz des Storage Controller

Dieser Artikel beschreibt, wie die Funktionen des Eucalyptus Storage Controller (SC) innerhalb der Ubuntu Enterprise Cloud (UEC) verwendet werden kann. Der Storage Controller ist vergleichbar mit den Amazon Elastic Block Storage (EBS). Mit diesem können Block Devices wie z.B. virtuelle Festplatten von virtuellen Maschinen (Images) gemounted werden. Die Daten werden dabei außerhalb der virtuellen Maschine (VM) gespeichert und sind dabei unabhängig von dem aktuellen Status dieser VM. Das bedeutet, dass die Daten weiterhin persitent gespeichert beliben, auch wenn die virtuelle Maschine beendet wird.

Wurde die Ubuntu Enterprise Cloud mit einer CD installiert und existiert eine separate physikalische Netzwerkschnittstelle, mit der das Front-End mit den Eucalyptus Node Controllers (NCs) verbunden wird, muss sichergestellt sein, dass der Storage Controller das Private Network Interface verwendet.

Mit Hilfe der Weboberfläche kann diese Konfiguration unter Configuration -> Clusters -> Storage Controller vorgenommen werden. Dabei muss darauf geachtet werden, dass die IP-Adresse welche unter Host eingetragen ist zu dem private Interface gehört und das es sich bei diesem Interface auch um das physikalische Interface zu dem privaten Netzwerk handelt.

Für die Konfiguration mittels der Kommandozeile werden die folgenden Befehle verwendet.

sudo euca_conf --deregister-sc

sudo euca_conf --register-sc

Wichtig! Alle Volumes die vor der Ausführung des obigen Befehls erstellt wurden, werden anschließend nicht mehr funktionieren und sollten mit nachfolgendem Befehl entfernt werden.

Arbeiten mit dem Storage Controller

Das Erstellen von Volumes

Zum Erstellen eines Eucalyptus Storage Controller Volumes nutzen wir den Befehl

euca-create-volume -s 1 -z myzone

Dabei entspricht -s die Größe in GB und -z den Namen der UEC Verfügbarkeitszone.

Mit dem Befehl

euca-describe-availability-zones

wird der Name des UEC Storage Controller Volumes ausgegeben.

VOLUME vol-xxxxxxxx

Das Benutzen von Volumes

Um ein Volume einer bereits gestarteten Instanz hinzuzufügen nutzen wir den Befehl

euca-attach-volume -i i-xxxxxxxx -d /dev/sdb vol-xxxxxxxx

Wobei -i den Identifier der Instanz und -d dem Namen des Endgerätes entspricht, dass dem Storage Controller Volume zugewiesen werden soll.

Mit dem Befehl

euca-describe-volumes

erhalten wir detaillierte Informationen zu den gemounteten Volumes.

VOLUME vol-xxxxxxxx 1 myzone in-use 2009-10-23T14:41:47.375Z
ATTACHMENT vol-xxxxxxxx i-xxxxxxxx /dev/sdb 2009-10-23T14:42:10.274Z

Anschließend sollte das hinzugefügte Endgerät im Verzeichnis /dev der Instanz vorhanden sein. Anschließend sollten wir in der Lage sein mittels

sudo fdisk /dev/sdb

mit dem Volume zu arbeiten. Dieses also zu partitionieren, formatieren, zu mounten und das Volume so zu nutzen, als wäre es wie ein physikalisches Endgerät vorhanden und an unserer Instanz angeschlossen.

Quelle

Kategorien
Services

openQRM Enterprise wird Partner des Canonical Software Partner Programms

Das Kölner Unternehmen openQRM-Enterprise, Anbieter der gleichnamigen Cloud Computing Plattform openQRM, ist dem Canonical Software Partner Programm beigetreten und wird in diesem Zuge mit Professional Services und einem langfristigen Support die openQRM Cloud auf den Ubuntu Server Distributionen unterstützen.

Canonical ist Distributor von Ubuntu Linux und stellt mit der Ubuntu Enterprise Cloud eine auf Eucalyptus basierende Cloud Computing Infrastruktur Lösung bereit.

Weitere Informationen sind auf den Webseiten von Ubuntu zu finden:

Quelle

  • openQRM-Enterprise
Kategorien
Services

Zenoss – Open Source IT Management

Zenoss ist eine Open Source IT-Management Suite, mit der die Konfiguration, der aktuelle Zustand, sowie die Performance des Netzwerks, der Server und Applikationen von einer zentralen Stelle aus verwaltet werden können.

Kategorien
Management

Cloud Computing Nutzen: High Performance Computing

Die Verarbeitung großer Datenmengen für die eine hohe Rechenleistung benötigt wird ist in den vergangenen Jahren stark angestiegen. Davon betroffen sind vor allem Unternehmen aus den Bereichen der Medizintechnik, Finanzdienstleitungen und Medien.

Für einzelne rechenintensive Projekte werden die Kapazitäten Infrastrukturen oftmals stark erweitert, da die bestehende Infrastruktur nicht leistungsfähig genug ist. Im schlimmsten Fall stehen zusätzlich nicht ausreichend finanzielle Mittel und Zeit zur Verfügung, um die Infrastruktur gemäß den Anforderungen anzupassen. Hinzu kommt der Aufwand zur Errichtung und dem Erweitern der Serverumgebungen und der damit verbundenen Beschaffung und Bereitstellung der Hard- und Software. Das Gewährleisten einer hohen Verfügbarkeit darf ebenso wenig vernachlässigt werden wie die Sicherheit der gesamten Umgebung. Weiterhin muss die Infrastruktur verwaltet (u.a. Zuweisung des Speichers, Konfiguration der Batchprozesse) werden um den Geschäftszweck zu erfüllen, was implizit dazu führt, dass die Mitarbeiter dementsprechend fortgebildet und verwaltet werden müssen.

Eine weitere Herausforderung ist die Verwaltung und Neuzuordung der Ressourcen nach dem erfolgreichen Beenden eines Projekts. Werden die verfügbaren Ressourcen nicht umgehend neuen Projekten oder Aufgaben zugewiesen, stehen diese nur rum und verursachen Kosten ohne einen Wertbeitrag zu liefern.

Mittels Cloud Computing können die Problematiken der oben genannten Punkte minimiert werden und Ressourcen für Projekte aus dem Bereich des High Performance Computing (HPC) bzw. Parallel Computing bedarfsgerecht und kosteneffizient bezogen werden.

Für die Verlagerung von HPC-Projekte in die Cloud eines Anbieters ist zu prüfen, wieviele Speicher- und Rechenkapazitäten zur Verfügung stehen und in welchem Zeitraum weitere benötigte Ressourcen für das Projekt hinzugefügt bzw. wieder freigegeben werden können. In diesem Zusammenhang steht weiterhin die Kostenfrage, also ob langfristige Verträge eingegangen werden müssen oder ob nur die Ressourcen abgerechnet werden, die auch tatsächlich genutzt wurden. Ein weiterer technischer Aspekt sind die verfügbaren Programmiersprachen und Modelle, die der Anbieter zur Verfügung stellt bzw. unterstützt.

Kategorien
Services

Scalarium

Scalarium, das Cloud Computing Produkt der Peritor GmbH dient zur Automatisierung der Kommunikation und Konfiguration von Amazon EC2 Cluster.

Eine Beispielkonfiguration für einen Cluster würde z.B. aus einem Load Balancer, drei Rails Applikations-Servern und einem Datenbankserver bestehen. Für den Start dieses Clusters ist anschließend Scalarium verantwortlich, indem es eine Verbindung zur Amazon Compute Cloud (EC2) herstellt und die entsprechenden Instanzen startet. Die Images werden geladen und der Scalarium Agent installiert.

Der Scalarium Agent wird auf jedem Server ausgeführt und ist über eine verschlüsselte Verbindung ständig mit Scalarium in kontakt. Webserver werden dabei automatisch mit Nginx konfiguriert, während Datenbankserver eine MySQL Installation erhalten. Nachdem der Scalarium Agent auf einer Instanz installiert wurde und das System konfiguriert hat, wird die Instanz als online markiert und kann durch den Cluster verwendet werden.

Scalarium bietet die folgenden vier Funktionen, die im Anschluß jeweils kurz vorgestellt werden.

  • Auto Config
  • Auto Healing
  • Auto Scaling
  • One Click Deploy

Auto Config

Mittels der Auto Configuration werden die Server automatisiert konfiguriert, indem die benötigte Software installiert und eingerichtet wird. Werden weitere Instanzen hinzugefügt, konfiguriert Scalarium automatisch die Anwendungen und den gesamten Cluster. Die einzigen Informationen die von Scalarium dazu benötigt werden sind die gewünschten Ubuntu Packages und Rubygems. Anschließend werden alle Pakete und Libraries auf jedem Server installiert und das zu jederzeit.

Weitere Informationen zu Auto Config sind HIER zu finden.

Auto Healing

Mit Auto Healing sorgt Scalarium dafür, dass die vorher festgelegten Services und Hosts des Cluster im Fehlerfall automatisch wiederhergestellt werden. Fällt z.B. ein Server aus, wird dieser durch Scalarium entfernt und in kurzer Zeit durch eine neue Instanz ersetzt, wodurch der gesamte Cluster automatisch neu konfiguriert wird.

Weitere Informationen zu Auto Healing sind HIER zu finden.

Auto-Scaling

Durch das Auto-Scaling können Schwellwerte festgelegt werden die dafür sorgen, dass entweder weitere Instanzen gestartet oder nicht mehr benötigte Instanzen beendet werden. Dazu überwacht Scalarium die CPU- und Arbeitspeicher-Auslastung, sowie die durchschnittliche Belastung jeder Instanz.

Weitere Informationen zu Auto Scaling sind HIER zu finden.

One Click Deploy

Mittels One Click Deploy können Anwendungen über den gesamten Cluster hinweg zu einem Zeitpunkt vollständig automatisiert verteilt, installiert und konfiguriert werden.

Weitere Informationen zu One Click Deploy sind HIER zu finden.

Demo Video

Preise

Quelle

Kategorien
Services

CloudCache

Mit CloudCache stellt das Unternehmen Quetzall eine flexible Caching Infrastuktur als Service bereit, in der über eine API beliebige Objekte zwischengespeichert werden können. Entwickler haben damit die Möglichkeit ihre Daten innerhalb eines in-memory Cache abzulegen um damit die Zugriffe auf die Datenbank zu verringern und die Performance zu erhöhen.

CloudCache kann u.a. für das Zwischenspeichern von Anfragen, Sessions oder Templates genutzt werden und funktioniert ebenfalls in Verbindung mit Amazon’s Netzwerk Topologie.

Funktionen

  • Latenz: 1.5 ms
  • Multi-Get
  • Statistiken: Hits/Misses/Usage
  • Nutzung von 1 bis 1000 Caches
  • AJAX oder XML Unterstützung
  • Inkrementierungs- und Dekrementierungsmöglichkeiten
  • Konfigurierbare Time-to-Live der Objekte für das automatische Löschen

Dokumentation

CloudCache unterstützt derzeit die Programmiersprachen Ruby, Java, PHP und Python sowie eine Raw REST API. Um den Einstieg zu erleichtern existiert eine separate Dokumentationsseite auf der die ersten Schritte für den Umgang mit CloudCache erklärt werden.

Preise

  • $0.05/MB
  • 10 MB Cache frei bis zum 1.November 2010
  • Keine Vertragslaufzeit
  • Keine Einrichtungsgebühr
  • Abrechnung nach dem tatsächlichen Verbrauch
  • Monatliche Abrechnung

Demo Video

http://vimeo.com/7105046

Quelle

  • CloudCache
Kategorien
Management

Cloud Computing – Ein einleitender Überblick

Der Begriff Cloud Computing prägt seit nun mehr zwei Jahren das Bild der Informationstechnologie um Dienste und Infrastrukturressourcen über das Internet zu vermieten. Gartner sieht in Cloud Computing den Hype – siehe Graphik und prophezeit, dass es sich in den kommenden zwei bis fünf Jahren etabliert und die Welt der Informationstechnologie grundlegend verändern wird.

Die Idee IT-Ressourcen zu mieten anstatt diese zu kaufen ist allerdings nicht neu und blickt auf eine
lange Geschichte zurück.

Cloud Computing verspricht kostengünstig und schnell IT-Ressourcen und Dienste zu beziehen, was zunehmend von den Großen der Internetbranche sowie Anbietern von Software as a Service Diensten, Hostingprodukten und Netz- und Infrastrukturen vorangetrieben wird. Letztendlich ist jedes dieser genannten Angebote aber nur ein Teil dieses großen Puzzles. Nur die (Teil-)Kombination aller genannten Angebote führt am Ende zum Cloud Computing.

Cloud Computing soll zu einer dauerhaften Verbesserung der Kostenstruktur durch Kostenreduktion führen, indem die benötigten Leistungen nur nach Bedarf genutzt und anschließend abhängig vom Verbrauch abgerechnet werden. Weitere Vorteile werden in der nachhaltigen Produktivitätssteigerung und Flexibilität einer Organisation gesehen. Aber auch die Anbieter von Cloud Computing Diensten können ihren Profit anhand einer besseren Auslastung ihrer Ressourcen und die Nutzung von Skaleneffekten steigern.

Neben hellen existieren aber auch immer dunkle Wolken. Sicherheit, Datenschutz(!) und Qualitätssicherung sind Themen denen sich Anbieter von Cloud Computing Diensten stellen und Lösungen finden müssen. Des Weiteren macht Cloud Computing für die Anbieter nur Sinn, wenn sie ihre Angebote, Abläufe und Prozesse standardisieren. Stellt sich die Frage, ob Unternehmen bereit sind, sich ihre Geschäftsprozesse und die IT-Infrastruktur bis ins kleinste Detail diktieren zu lassen und die Angebote der Anbieter überhaupt den Anforderungen der Unternehmen entsprechen.

Graphik:

Kategorien
Management

Vorteile durch Desktop-Virtualisierung!

Was ist Desktop-Virtualisierung?

Im Vergleich zu klassischen Desktop-PCs werden virtuelle Desktops als virtuelle Maschinen wie eine zentral verwaltete Ressource betrachtet und im Rechenzentrum bereitgestellt. Das führt dazu, dass die Konfiguration und Verwaltung nicht mehr auf dem physikalischen Endgerät eines Benutzers stattfindet, sondern innerhalb der virtuellen Maschine.

Auf einem zentralen Rechner werden dabei mehrere individuelle Betriebssysteminstanzen für mehrere Benutzer zur Verfügung gestellt, wodurch jeder Benutzer in (s)einer eigenen virtuellen Umgebung arbeitet. Der Benutzer merkt nicht, dass seine Systemumgebung virtualisiert ist, da sich sein Gesamtsystem wie ein gewöhnlicher Desktop-PC verhält.

Es lassen sich drei Typen von virtuellen Desktops klassifizieren:

  • Standard Desktop
    Dabei handelt es sich um einen gewöhnlichen Desktop, der für alle Benutzer gleich aufgebaut und so ausgestattet ist, das Büroaufgaben damit ohne weiteres erledigt werden können.
  • Personalisierter Desktop
    Auf Basis von virtuellen Maschinen werden auf den Servern für jeden Benutzer individuell eingerichtete virtuelle Desktops bereitstellen, die dort zentral gepflegt und verwaltet werden. Die Anwender haben zudem die Möglichkeit selbständig Änderungen vorzunehmen.
  • High-End Desktop
    Wird eine enorme Leistung benötigt, erhält jeder Benutzer auf Basis von Blade PCs seine eigene Instanz im Rechenzentrum. Der Desktop wird dabei auf dem Blade PC ausgeführt, wodurch der Benutzer die vollständigen Ressourcen wie z.B. die Prozessorleistung alleine für sich nutzen kann.

Vorteile und Nutzen der Desktop-Virtualisierung

Durch die Trennung des Desktops von dem physikalischen Endgerät kann die Administration zentral auf einem Server vorgenommen werden, womit der Wartungsaufwand reduziert wird, da die Installation, Konfiguration und Aktualisierung nicht mehr vor Ort vorgenommen werden muss. Speziell im Falle von Migrationen stehen hier enorme Zeitvorteile im Vordergrund. So kann z.B. in kurzer Zeit die Umstellung auf eine neue Betriebssystemversion vorgenommen werden.

Weiterhin können die Kosten für die Client-Hardware gesenkt werden. Aktuelle Windows Betriebssysteme benötigen performante und damit kostspielige Endgeräte. Durch die Virtualisierung des Desktops können entweder ältere Endgeräte oder Thin Clients eingesetzt werden, die zudem stromsparend und wartungsarm sind. Laut einer IDC Kundenbefragung können die Kosten, im Vergleich zu herkömmlichen Desktop PCs (Fat Clients), um ca. 600 Dollar pro Benutzer pro Jahr gesenkt werden.

Ein weiterer zu beachtender Punkt ist die Erhöhung der Sicherheit. Die Daten befinden durch die Desktop-Virtualisierung nicht mehr lokal auf den Endgeräten, sondern werden zentral auf den Unternehmensservern gespeichert. Somit werden die Daten zusätzlich in die zentralen Datensicherungsmechanismen eingegliedert und der Zugriff auf die Daten wird zentral gesteuert. Die Compliance kann ebenfalls unternehmensweit verbessert werden, da die Installation von unerwünschter Software zentral unterbunden werden kann und es kann sichergestellt werden, dass die Daten im Rechenzentrum verbleiben.

In Unternehmen die mit wechselnden Arbeitsplätzen arbeiten, erhalten die Benutzer den Vorteil, immer über ihre eigene tatsächliche Umgebung zu verfügen. Der Nachteil der „Roaming Profiles“ besteht darin, dass die Installation & Konfiguration des Betriebssystems und der darauf installierten Software für jeden Benutzer, der an dem Rechner arbeitet, gleich ist. Im Falle der Desktop-Virtualisierung ist ein Benutzer damit (wirklich) nicht mehr an einen bestimmten Arbeitsplatz (Ort) gebunden.

Anforderungen & Herausforderungen der Desktop-Virtualisierung

Desktop-Virtualisierung ist kein Thema, dass kurzfristig umgesetzt werden kann, sondern bedarf einem gut durchdachten und ganzheitlichen Ansatz. Dazu gehören neben der Administration der virtuellen Desktops, ebenso die benutzerspezifische Anpassung und die Gewährleistung der Geschwindigkeit und Performanz. Letzteres ist vor allem kritisch zu betrachten, wenn ein Unternehmen über mehrere Standorte verteilt ist und der Zugriff über eine WAN-Verbindung stattfindet. Die Berücksichtigung der gesamten IT-Infrastruktur ist bei der Einführung und Implementierung von Desktop-Virtualisierung von enormer Wichtigkeit. Wozu eine ganzheitliche Betrachtung und ebenfalls Technologien zur Optimierung und Überwachung der WAN-Verbindungen und Performanz sowie des sicheren Zugriffs gehören.