Kategorien
News

Amazon senkt die Preise für ausgehenden Traffic

Wie ich, haben heute wahrscheinlich alle Amazon Web Service Nutzer eine E-Mail erhalten, in der Amazon ankündigt seine Preise für den ausgehenden Datentransfer rückwirkend zum 01. Februar 2010 um 0,02$ für alle Services und Regionen zu senken.

Die neuen Preise staffeln sich nun wie folgt:

  • First 10 TB per Month: $0.15 per GB
  • Next 40 TB per Month: $0.11 per GB
  • Next 100 TB per Month: $0.09 per GB
  • Over 150 TB per Month: $0.08 per GB

Quelle
AWS

Kategorien
Services

20 Cloud Storage Anbieter

Storage as a Service ist neben Software as a Service für Anbieter als auch Benutzer einer der einfachsten Wege mit Cloud Computing in Kontakt zu kommen. In diesem Artikel stelle ich daher 20 Cloud Storage Anbieter und deren Produkte kurz vor.

1. 3X Systems

Die Remote-Backup-Appliance (RBA) von 3X Systems dient als verschlüsseltes Backup. Drittanbieter führen bei ihren Kunden zunächst ein Backup aller PCs durch und speichern es auf die 3X RBA. Die PCs bauen automatisch eine Verbindung zur 3X RBA auf um Backups durchzuführen, wenn Änderungen an den Daten vorgenommen werden. Das System kann auf der Kundenseite als Private Cloud oder bei der Seite des Drittanbieter als Public Cloud eingerichtet werden.

Webseite: http://www.3x.com

2. Asigra

Asigra stellt seinen Kunden eine speziell für das WAN optimierte Software zur Verfügung, um mittels einer einzigen Schnittstelle Daten in einer Private oder Public Cloud zu sichern und archivieren. Darüber hinaus kann mit der Software der gesamte Backup-Lebenszyklus der Daten verwaltet werden.

Webseite: http://www.asigra.com

3. Axcient

Axcient bietet ein Hybrid-Cloud Storage-Modell. Als Kunde erhält man eine Storage Appliance für das schnelle lokale Backup. Zusätzlich existiert ein Storage-Service um die Daten per Remote-Backup in der Cloud von Axcient zu sichern. Die Appliances verfügen über eine größe von 500 GB bis 10 TB und können über einen Drittanbieter aus dem Partnernetzwerk bezogen werden. Der Drittanbieter sorgt anschließend dafür, dass die Appliance über das Internet mit der Cloud-Storage Infrastruktur von Axcient verbunden wird.

Webseite: http://www.axcient.com

4. Carbonite

Carbonite ist ein Pionier im Bereich des Online-Backups und der erste Anbieter der ein unlimitiertes Backup zu einem Festpreis von 55 Dollar pro Jahr anbietet. Die Daten werden vor der Sicherung verschlüsselt. Auf Grund der Performance erfolgt das Backup der Daten, wenn der PC nicht unter Volllast arbeitet. Beim Restore können einzelne Dateien oder komplette Datensätze zurückgespielt werden.

Webseite: http://www.carbonite.com

5. Caringo
Mit Caringo’s CAStor können Anbieter von Storage Lösungen mittels eines USB-Sticks aus gewöhnlichen Standard-Servern eine Cloud-Storage Infrastruktur aufbauen. Aus den Servern wird ein Clusterverbund, wodurch die gespeicherten Daten auf die einzelnen Server repliziert werden. Das Unternehmen bietet darüber hinaus einen Content-Router an, um Inhalte direkt aus der Castor-Cloud bereitzustellen.

Webseite: http://www.caringo.com

6. Ctera
Mit der CloudPlug Appliance von Ctera kann in kurzer Zeit eine Verbindung zu einem Cloud Storage Anbieter hergestellt werden. CloudPlug basiert auf Linux und hat die Größe eines gewöhnlichen AC-Adapters. Um CloudPlug zu nutzen, wird nur ein Router und ein PC oder eine externe Festplatte benötigt. Anschließend können die Daten entweder Freunden über das Internet bereitgestellt oder für das Backup zu einem Cloud Storage Anbieter geschickt werden.

Webseite: http://www.ctera.com

7. Doyenz
Doyenz stellt Anbietern von Cloud Storage eine virtuelle IT Plattform zur Verfügung, mit denen virtuelle Appliances für die Datenmigration, zur Systemwiederherstellung und zur Ausfallsicherung erstellt werden können. Mit VMwares ESXi Server können die virtuellen Appliances aufgebaut, getestet und in kürzester Zeit auf Infrastrukturen von Savvis oder Rackspace bereitgestellt werden.

Webseite: http://www.doyenz.com

8. EFolder
Mit EFolder können Drittanbieter Cloud-Storage und Lösungen zur E-Mail Archivierung anbieten. EFolder bietet des Weiteren die Möglichkeit zum Aufbau eines Hybrid Cloud-Storage. Dabei wird bei dem Kunden eine lokale Backup Appliance installiert, auf der Backups schnelle vorgenommen werden können. Zusätzlich wird die Appliance mit einer Storage-Cloud für Remote-Backups verbunden.

Webseite: http://www.efolder.net

9. EMC
EMC`s Mozy Online Backup Lösung gehört zu den bekanntesten und klassischen Cloud-Backup Angeboten, bei denen die Daten von einem lokalen PC verschlüsselt in der Cloud von Mozy gespeichert werden.

Webseite: http://www.mozy.com

10. i365
i365 gehört zu Seagate und arbeitet mit Solution-Provider und Manager-Service Provider zusammen um Kunden dabei zu helfen, ihre Daten innerhalb einer Cloud-Storage Infrastruktur zu speichern. Zu den Angeboten gehören u.a. Datenschutz, E-Mail Archivierung, Datenmigration, Datenrettung und Datenlöschung.

Webseite: http://www.i365.com

11. IBM
IBM’s Smart Business Storage Cloud ist ein Private Cloud Service mit dem mehrere Petabytes an Daten und Billionen von Dateien verwaltet werden können. Die Technologie basiert auf IBM’s Blade Server und XIV Speichertechnologien. Der Service dient zum Aufbau einer Private Cloud im eigenen Rechenzentrum, die von IBM verwaltet wird, oder zum Backup der Daten in einem von IBMs Rechenzentren.

Webseite: http://www.ibm.com

12. Intronis
Mit dem Intronis Online Backup können Drittanbieter einen Cloud Storage Service unter der eigenen Marke anbieten. Zu den Funktionen gehören unter anderem Block-Level Backups, die dafür sorgen, dass nur die Änderungen an den Daten gesichert werden. Darüber hinaus kann damit ebenfalls das Backup, Speichern und Wiederherstellen von Microsoft Exchange-Dateien vorgenommen werden.

Webseite: http://www.intronis.com

13. Mezeo Software
Mezeo stellt IT-Hoster, SaaS Anbieter, Telekommunikationsanbieter und ISPs Softwarelösungen bereit, mit denen sie Cloud-Storage Angebote für Ihre Kunden erstellen können. Die Cloud Storage Plattform umfasst eine Webanwendung, sowie spezielle Clients für Windows, iPhone, Blackberry und Windows Mobile. Zu den Funktionen gehören u.a. der Austausch von Dateien, die Zusammenarbeit, sowie das Verwalten von verschachtelten Dateien und Ordner-Strukturen.

Webseite: http://www.mezeo.com

14. Reldata
Reldata entwickelt Technologien, die iSCSI, SAN, NAS und WAN konsolidieren und zu einer Unified Storage Lösungen machen. Damit können Drittanbieter ihren Kunden dabei helfen, einen eigenen Privat Cloud Storage aufzubauen. Mit der RELDATA 9240i/RELvos Appliance können Kunden unabhängig voneinander ihren Speicher skalieren, replizieren ohne ihre Anwendungen dabei zu beeinträchtigen.

Webseite: http://www.reldata.com

15. Robobak
Robobak bietet automatisierte Backuplösungen für Remote und Zweigstellen. Zu den Funktionen gehören u.a. Block Level Backups und Deduplizierung.

Webseite: http://www.robobak.com

16. Symantec
Symantec verfügt über zwei Cloud Backup Lösungen. Für Geschäftskunden dient das Symantec Protection Network, was Drittanbieter an ihre Kunden vertreiben können. Als Teil von Symantecs Hosted Services, dient die Cloud Plattform zur sicheren Verwaltung von Daten und Informationen auf allen Endgeräten. Für Endanwender steht das Norton Online Backup bereit. Damit können bos zu fünf Computer gleichzeitig ihre Daten automatisch in der Cloud von Symantec speichern.

Webseite: http://www.symantec.com

17. Symform
Symform bietet einen sogenannten Kooperativen Cloud Storage Service an. Jeder der daran teilnimmt, muss freie Speicherkapazitäten auf seinen Systemen bereitstellen um die Daten von anderen darauf abzulegen.

Webseite: http://www.symform.com

18. Vembu
Mit Vembus StoreGrid können Storageanbieter unter ihrer eigenen Marke Cloud basierte Storage-Lösungen anbieten. Funktionen sind neben dem Clustering und Load Balancing die Möglichkeit die Daten direkt zu Amazon S3 zu replizieren.

Webseite: http://www.vembu.com

19. Zenith InfoTech
Drittanbieter können mit den Technologien von Zenith Infotech ihren Kunden Lösungen in den Bereichen Managed Services, Virtual Helpdesk und Systemwiederherstellung anbieten. Das Konzept des Backups und der Systemwiederherstellung basiert auf dem Hybrid Cloud Storage Ansatz. Dazu gehört eine Appliance für das lokale Backup und ein Backup der Daten in die Cloud, was alle 15 Minuten durchgeführt wird.

Webseite: http://www.zenithinfotech.com

20. Zetta
Zetta unterstützt Storage-Anbieter beim Aufbau einer eigenen Cloud-Storage Infrastruktur. Zu den Funktionen der Infrastruktur gehören Snapshots der Daten, Replikationen und vollständige Redundanz.

Webseite: http://www.zetta.net

Quelle
ChannelWeb

Kategorien
Services

openQRM – Die Cloud Computing Plattform für Rechenzentren

openQRM ist eine Open Source Cloud Computing Plattform für die Verwaltung von Rechenzentren und skalierbaren IT-Infrastrukturen und ist aktuell in der Version 4.6 verfügbar.

Mittels einer zentralen Managementkonsole kann die Administration von physikalischen Servern ebenso vorgenommen werden wie von virtuellen Maschinen, wodurch Rechenzentren voll automatisiert und höchst skalierbar betrieben werden können.

Neben einer offenen API und einem SOAP Web Service für die nahtlose Integration der eigenen Geschäftsprozesse, unterstützt openQRM alle bekannten Virtualisierungstechnologien und bietet die Möglichkeit für transparente Migrationen von „P-to-V“, „V-to-P“ und „V-to-V“.

openQRM verfügt des Weiteren über ein integriertes Storage-Management, mit dem anhand des Snapshot-Verfahrens Serversysteme dupliziert werden können. Die Snapshots ermöglichen eine dynamische Anpassung des Speicherplatzes, bieten einen persistenten Cloud-Speicher und erlauben ein Backup/Restore der Server sowie deren Versionierung.

Mit der „N-zu-1“ Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Dabei spielt es keine Rolle, ob physikalische oder virtuelle Maschinen eingesetzt werden!

Benefits auf einem Blick

  • Virtualisierung
    openQRM unterstützt alle gängigen Virtualisierungstechnologien darunter VMWare, Citrix XenServer und KVM und bietet die Möglichkeit der Migration von P-to-V-, V-to-P- und V-to-V für physikalische Server als auch virtuelle Maschinen.
  • Storage
    openQRM verfügt über ein zentralisiertes Speichersystem mit integriertem Storage Management, welches alle bekannten Storage-Technologien unterstützt. Dazu gehören u.a. Netapp, Equallogic, NFS, iSCSI ZFS und proprietäre auf LVM basierende Storage-Typen, für eine flexible und schnelle Duplizierung von Serversystemen.
  • Zentrales Management
    openQRM verschmilzt die Welt von Open Source mit der von kommerziellen Produkten. Mit einer zentralen Managementkonsole sind alle Funktionen zur Administration von Rechenzentren, System- und Service-Überwachung, Hochverfügbarkeit und automatisierter Bereitstellung vorhanden.

Funktionen

  • Hardware/Software Isolation
    openQRM isoliert die Hardware (physikalische Server, virtuelle Maschinen) vollständig von der Software (Server Images). Dabei ist die eigentliche Hardware eine „Computing Resource“ und kann dadurch jederzeit durch eine andere Hardware ersetzt werden, ohne dass die Software (Server Image) neu konfiguriert werden muss.
  • Unterstützung für verschiedene Virtualisierungs-Technologien
    Mit VMWare, Xen, KVM und dem Citrix XenServer unterstützt openQRM eine viehlzahl an virtuellen Maschinen und kann dieses transparent verwalten und migrieren. Neben der System-Migration von physikalischen Servern zu virtuellen Maschinen (P-to-V) können Systeme ebenfalls von virtuellen Maschinen zu physikalischen Servern (V-to-P) migriert werden. Darüber hinaus besteht die Möglichkeit ein System von einer Virtualisierungstechnologie zu einer anderen Virtualisierungstechnologie (V-to-V) zu verschieben.
  • Vollautomatische Nagios-Konfiguration

    openQRM unterstützt die vollautomatische Konfiguration von Nagios mittels „nmap2nagios-ng“. Damit wird das gesamte openQRM Netzwerk analysiert und auf Basis der Informationen eine Nagios-Konfiguration erstellt. Anschließend werden alle Services auf allen Systemen überwacht.

  • Integriertes Storage-Management
    openQRM organisiert die Serversysteme wie Dateien und nutzt zur Verwaltung moderne Storagesysteme anstatt lokaler Festplatten. Mittels Logical Volume Managern (LVM) und deren Snapshot-Verfahren können Server-Templates auf schnellen Wege dupliziert werden.

    „Sollen z.B. 10 neue Server ausgerollt werden, kann so einfach ein bestehendes Server-Image 10 mal dupliziert und die „Clone“ direkt zum Deployment bereitgestellt werden.“

    Mit diesem Konzept steht ein zentrales Backup/Restore sowie die Möglichkeit von Hot-Backups ohne Downtime zur Verfügung.

    openQRM unterstützt folgende Storage-Typen:

    • NFS (NAS)
    • iSCSI (iSCSI SAN)
    • Aoe/Coraid (AOE SAN)
    • NetApp (iSCSI SAN)
    • Local-disk (Übertragung von Server-Images auf lokale Festplatten)
    • LVM-Nfs (NFS auf LVM2, erlaubt schnelles Cloning)
    • LVM-iSCSI (iSCSI auf LVM2, erlaubt schnelles Cloning)
    • LVM-Aoe (Aoe auf LVM2, erlaubt schnelles Cloning)
    • Equallogic (iSCSI SAN)
    • ZFS (iSCSI SAN)
  • Hochverfügbarkeit und „N-to-1“-Fail-Over!
    Mit der „N-zu-1“ Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Unabhängig davon, ob physikalische oder virtuelle Maschinen eingesetzt werden.

    „Um zum Beispiel 10 hochverfügbare Spezialsysteme zu betreiben benötigt man normalerweise weitere 10 „Stand-By“-Systeme. Mit openQRM jedoch benötigt man nur einen einzigen „Stand-By“-Server, der im Fehlerfall eines der 10 Spezialsysteme benutzt wird. Das heißt, man kann 9 „stromfressende“, nicht ausgelastete Server einsparen. Perfekt für „Green IT“.

    Des Weiteren können physikalische Server virtuelle Maschinen als „Hot Stand-By“ nutzen und lassen sich im Notfall in eine virtuelle Maschine migrieren.

  • Fertige Server-Templates
    Mittels dem „Image-Shelf“-Plugin stellt openQRM bereits fertige Server Templates zur Verfügung. Dazu gehören Linux Distributionen wie Debian, Ubuntu, CentOS und openSuse. Des Weiteren können mit dem Plugin eigene Server Templates auf unterschiedliche Weise (lokal, http, https, ftp) bereitgestellt werden.
  • Unterstützung verschiedenster Deployment-Methoden
    Mit openQRM können Server von jeder Art von Storage gestartet werden. Zusätzlich können die Server Templates von einem Storage-Typ zu einem anderen übertragen werden, dabei kann noch entschieden werden, ob die Server Templates auf einem physikalischen Server oder in einer virtuellen Maschine gestartet werden sollen.
  • Unterstützung verschiedener OS-Distributionen
    Es stehen bereits vor-konfigurierte openQRM-Server Pakete für Debian, Ubuntu und CentOS zur Verfügung. Ein openQRM-Server kann aber alle gängigen Linux Distributionen verwalten.
  • Cloud-Selector
    Mit dem Cloud-Selector kann der Cloud Administrator seine Cloud Produkte wie z.B. Prozessoren, Speicher, Festplattengröße oder den Typ der virtuellen Maschine auswählen und deren Preise festlegen.
  • Kostenrechner im Cloud-Portal
    Die Cloud-Computing-Unit (CCU) kann einer regulären Währung (z.b. USD oder Euro) zugewiesen werden. Mit dem Kostenrechner werden die stündlichen, täglichen und monatlichen verbrauchten Kosten für eine Cloud Appliance berechnet.
  • Private Cloud Images
    Mit der „Private Cloud Image“-Funktion können Cloud Benutzer eigene Server Templates anlegen und verwalten.
  • Volle SSL-Unterstützung
    Der openQRM-Server arbeitet in einem vollständig SSL-verschlüsselten Bereich und unterstützt verschiedene Serverarchitekturen wie i386 und x86_64.

Auszeichnungen

Preise

  • openQRM ist Open Source und unterliegt der GPL (GNU General Public License).

Support

  • Die openQRM Enterprise ist der Hauptsponsor von openQRM. Das Team um CEO Matthias Rechenburg, CTO Christoph Moeller und Vertriebs- und Marketing-Direktor Andre Westbunk weist langjährige Erfahrungen für das flexible, konsistente und transparente Betreiben von Rechenzentren und bietet professionelle Services zu openQRM um damit die Gesamtbetriebskosten (TCO) von IT-Abteilungen zu senken.
  • Ich möchte hier noch anmerken, dass es sich bei der openQRM Enterprise um einen deutschen Anbieter aus dem Bereich des Cloud Computing handelt!

Quelle

openQRM
openQRM Enterprise

Kategorien
Services

eyeOS – Der Open Source Cloud Web-Desktop

eyeOs ist ein sogenannter Web-Desktop, wobei man besser sogar von einem Web-OS oder Cloud-OS sprechen sollte. Der Funktionsumfang und das Äußere gleicht dem eines vollständigen Betriebssystems. Um es schonmal vorweg zu nehmen, die Attraktivität von eyeOS liegt unter anderem auch daran, dass man es auf dem eigenen Webspace installieren und nutzen kann. Ein eigener (virtueller) Server wird dafür nicht benötigt.


Startseite

Die Oberfläche des Desktops erinnert an einem Mix aus den bekannten Oberflächen gängiger Betriebsysteme. Dazu hat man die Möglichkeit über verschiedene Themes das Aussehen und den aufbau der Desktopoberfläche anzupassen. Neben Themes die das Äußere an Windows oder Ubuntu Linux erinnern lassen, ist auch für Mac OS Fans etwas dabei. Für den Zugriff auf eyeOS wird ein einfacher Standard Webbrowser wie Chrome, Firefox oder Internet Explorer benötigt.


Desktop Oberfläche

eyeOS ist wie jedes moderne Betriebssystem ein Multi-User System. Das bedeutet, das zur selben Zeit mehrere Benutzer gleichzeitig angemeldet sein können. Über die Systemsteuerung können neue Benutzer hinzugefügt und ihnen Rechte etc. vergeben werden. Die Systemsteuerung ist übrigens wie bei jedem graphischen Betriebssystem das zentrale Drehkreuz wo alle Einstellungen rund um eyeOS vorgenommen werden können.


Systemsteuerung

eyeOS bringt von Haus aus bereits eine große Anzahl integrierter Anwendungen mit. Mit eyeDocs (Textverarbeitung), eyeSheets (Tabellenkalkulation), eyePresentation (Präsentationssoftware), eyeContacts (Kontaktverwaltung) und eyeCalendar (Kalender) steht eine vollständige Office Suite zur Verfügung. Neben weiteren zahlreichen Anwendungen gibt es auch eyeMail (E-Mail Client), eyeCalc (Taschenrechner), eyeMedia (Mediaplayer), eyeFiles (Dateimanager) eyeNav (Webbrowser) oder Spiele wie eyeChess (Schach). Interessant ist auch eyeTerre ein Google Earth Clone der sehr rasant funktioniert.


Anwendungsübersicht


eyeDocs


eyeSheets


eyeContact


eyeFiles

Zusätzlich können weitere Anwendungen über den integrierten Paketmanager installiert, oder von der Apps Webseite http://eyeos-apps.org heruntergeladen und mit dem Upload-Manager in eyeOS hochgeladen und anschließend manuell installiert werden. Über diesen Vorgang werden z.B. auch die Desktop-Themes installiert, der einfach und über eine gute Dokumentation (wie das gesamte System) verfügt.


System Bar

Darüber hinaus bieten mittlerweile viele Drittanbieter die Möglichkeiten ihre Anwendungen an eyeOS anzubinden, darunter Zoho mit seiner Office Suite oder Feng Office aber auch die großen der Branche wie YouTube, Ebay, Amazon, Twitter oder Flickr.

Entwickler steht das eyeOS Toolkit zur Verfügung, mit denen ihnen eine Menge an Bibliotheken und Funktionen zur Verfügung stehen, um Anwendungen für eyeOS zu entwickeln. Die Anwendungen können dann in einem eigenen Repository abgelegt und über den integrierten eyeOS Paketmanager bereitgestellt und verteilt werden.

Demo

Ein öffentlicher (Demo)-eyeOS-Server kann unter http://eyeos.info getestet werden.

Resumee

eyeOS zeigt einen Mega-Trend der kommenden Jahre. In Zukunft werden wir keine vollwertigen Computer (Fat-Clients) mehr benötigen, sondern auf einen einfachen Monitor, Maus und Tastatur bzw. einen Thin-Client zurückgreifen. Die Benutzerumgebungen werden vollständig virtualisiert und können damit von überall aus und an jedem Ort zur Verfügung gestellt werden. Ob das Hosting bei einem selbst verbleibt oder an einen Anbieter abgegeben wird, ist subjektiv. Durch die einfache Installation und Bereitstellung auf einem gewöhnlichen Webspace, hat aber jeder die Möglichkeit damit seine eigene (Arbeits)-Umgebung einzurichten und diese von überall aus zu nutzen.

Quellen

eyeOS

Kategorien
Literatur

Buch – Hadoop: The Definitive Guide

Titel: Hadoop: The Definitive Guide

Autor: Tom White

Beschreibung:
„Hadoop: The Definitive Guide helps you harness the power of your data. Ideal for processing large datasets, the Apache Hadoop framework is an open source implementation of the MapReduce algorithm on which Google built its empire. This comprehensive resource demonstrates how to use Hadoop to build reliable, scalable, distributed systems: programmers will find details for analyzing large datasets, and administrators will learn how to set up and run Hadoop clusters.

Complete with case studies that illustrate how Hadoop solves specific problems, this book helps you:

  • Use the Hadoop Distributed File System (HDFS) for storing large datasets, and run distributed computations over those datasets using MapReduce
  • Become familiar with Hadoop’s data and I/O building blocks for compression, data integrity, serialization, and persistence
  • Discover common pitfalls and advanced features for writing real-world MapReduce programs
  • Design, build, and administer a dedicated Hadoop cluster, or run Hadoop in the cloud
  • Use Pig, a high-level query language for large-scale data processing
  • Take advantage of HBase, Hadoop’s database for structured and semi-structured data
  • Learn ZooKeeper, a toolkit of coordination primitives for building distributed systems

Bestellmöglichkeit: Amazon

Cover:

Kategorien
Services Videos

Video: Vorstellung openQRM

Das Video zeigt die Funktionen der Open Source Cloud Computing Plattform openQRM 4.5 zur zentralen Verwaltung von Rechenzentren und skalierbaren IT Infrastrukturen. Im Fokus des Videos steht vor allem der Nutzen von openQRM für Private Clouds.

via YouTube

Kategorien
Tutorials

Erste Schritte mit der Ubuntu Enterprise Cloud

Das Eucalyptus System kann auf viele unterschiedliche Umgebungen beliebig angepasst werden. Diese Installations-Anleitung zeigt die Einrichtung einer Privat Cloud auf Basis von Eucalyptus mit der Ubuntu Enterprise Cloud.

Ziel dieses Tutorials

Dieses Tutorial beschreibt die Installation, Konfiguration und Registierung, sowie weitere Schritte für die Arbeit mit einer grundlegenden Eucalyptus Einrichtung. Am Ende haben wir eine Cloud mit einem „Front-End“ Controller und einem Knoten, auf dem mehrere Instanzen von Virtual Machines ausgeführt werden können, vollständig eingerichtet. Siehe dazu die Schritte 1 – 3.

In den Schritten 4 – 6 lernen wir die ersten Schritte für die Einrichtung einer Private Cloud und wie diese z.B. mit der RightScale Cloud Management Platform verbunden werden kann.

  • Schritt 1: Die Voraussetzungen
  • Schritt 2: Installation & Konfiguration
  • Schritt 3: Registrierung der Eucalyptus Komponenten
  • Schritt 4: Erster Login
  • Schritt 5: Erstellen eines Virtual Machine Image
  • Schritt 6: Starten eines Images

1. Schritt: Die Voraussetzungen

Das Eucalyptus System hat drei grundlegende Bestandteile:

  • eucalyptus-cloud: Beinhaltet den Cloud Controller (Front-End Services) und das Walrus Speichersystem.

  • eucalyptus-cc : Beinhaltet den Cluster Controller der für das virtuelle Netzwerk zuständig ist.

  • eucalyptus-nc: Beinhaltet den Node Controller zur Verwaltung der einzelnen Knoten, der mit der KVM (Kernel basierende Virtual Machine) kommuniziert und die jeweiligen Virtual Machines verwaltet.

Eine einfache Eucalyptus Umgebung besteht aus zwei Systemen, einem Front-End und einem Node. Das Front-End ist für eucalyptus-cloud und eucalyptus-cc zuständig. In einer komplexeren Umgebung mit mehreren Systemen können/ sollten die oben genannten Teile des Front-Ends voneinander getrennt betrieben werden. Da die Kommunikation vollständig über das Netzwerk erfolgt, ist diese Separierung einfach vorzunehmen.

Das folgende Diagramm zeigt einen einfachen Aufbau einer Eucalyptus Umgebung:

Vor der Installation der Pakete gibt es ein paar Voraussetzungen die erfüllt sein müssen, damit am Ende ein voll funktionsfähiges Eucalyptus System vorhanden ist. Zunächst muss das Front-End in der Lage sein E-Mails zu verschicken. Die Administrations-Tools von Eucalyptus nutzen E-Mails um den Administrator zu benachrichtigen, das er die Anmeldeinformationen von Benutzern prüfen muss. Dazu sollte Postfix installiert werden und als ‚mailhost‘ der ‚localhost‘ eingetragen werden (z.B. als Eintrag in die /etc/hosts).

Auf dem Node auf welchem von Eucalyptus die Virtual Machines ausgeführt werden, muss die erste Netzwerkschnittstelle als Bridge (BR0) konfiguriert werden. Sie dazu (Ubuntu Server Guide Bridging – in Englisch). Dieser Bridge fügt Eucalyptus für jede vorhandene Virtual Machine eine virtuelle Netzwerkschnittstelle (Virtual Network Interfaces) hinzu, bevor die Netzwerkverbindung einer Virtual Machine aktiviert wird.

Des Weiteren benötigt Eucalyptus einen DHCP Server der automatisch IP-Adressen vergibt. Ab dem Zeitpunkt wo die Virtual Machines über die Bridge mit dem lokalen Netzwerk verbunden sind, führen sie ihren lokalen DHCP Client aus, um eine IP-Adresse zu erhalten.

Auf jedem Host der einen Eucalyptus Client nutzt, sollten die Amazon Elastic Compute Cloud (EC2) API und AMI Tools installiert werden. Dafür wird folgendes benötigt:

http://s3.amazonaws.com/ec2-downloads/ec2-api-tools-1.3-30349.zip
http://s3.amazonaws.com/ec2-downloads/ec2-ami-tools-1.3-26357.zip

Damit die ec2-ami-tools einwandfrei funktionieren müssen zusätzlich die Pakete ruby, libopenssl-ruby und curl installiert werden.

Für den Zugriff der EC2-ami-Tools auf die Meta-Daten (wie z.b. EC2-bundle-vol), muss folgender Eintrag vorgenommen werden. Bei der CC_IP handelt es sich um die IP-Adresse des Rechners auf dem Eucalyptus-cc ausgeführt wird.

vi ec2ami/lib/ec2/amitools/instance-data.rb
(set META_DATA_URL="http://:8773/latest/meta-data")

  • Ports: Um auf Eucalyptus auch hinter einer Firewall zugreifen zu können muss der Port 8773 geöffnet werden. Das ist z.B. dann der Fall, wenn sich die EC2- und AMI-Tools sowie die Eucalyptus Cloud auf unterschiedlichen Seiten der Firewall befinden. Wenn das Eucalyptus System mit einer Cloud Management Platform verbunden werden soll, müssen zusätzlich die Ports 8773 und 8443 geöffnet werden.

Schritt 2: Installation & Konfiguration

Zuerst werden die eucalyptus-cloud und eucalyptus-cc Pakete auf der Front-End Machine installiert.

sudo apt-get install eucalyptus-cloud eucalyptus-cc

Anschließend erfolgt die Installation des eucalyptus-nc Pakets auf jedem Node.

sudo apt-get install eucalyptus-nc

Am Ende wird der eucalyptus-nc Service auf dem Node gestoppt und die /etc/eucalyptus/eucalyptus.conf editiert. In der eucalyptus.conf erhält die Bridge den Namen der ersten Netzwerkschnittstelle. Danach wird der eucalyptus-nc Service wieder gestartet.

Die oben beschriebenen Schritte können wie folgt umgesetzt werden:

sudo /etc/init.d/eucalyptus-nc stop
sudo vi /etc/eucalyptus/eucalyptus.conf
(set VNET_BRIDGE="br0")
sudo /etc/init.d/eucalyptus-nc start

Das folgende Diagramm zeigt, wie die Umgebung danach aussehen sollte:

Das Netzwerk sollte außerdem so konfiguriert werden, dass der IPv4 Datenverkehr von den IPv6 Ports weitergeleitet wird, da das Eucalyptus Web-Frontend standardmäßig IPv6 verwendet.

sudo vi /etc/sysctl.conf
(uncomment net.ipv4.ip_forward=1)
sudo sysctl -p

Schritt 3: Registrierung der Eucalyptus Komponenten

Eucalyptus setzt voraus, das jeder Node innerhalb des Systems zu einem Cluster gehört. Ein Cluster wiederum gehört zu einer Cloud. Auf jedem Node wird eine Kopie von eucalyptus-nc ausgeführt. Genauso muss auf jedem Cluster eine Kopie von eucalytpus-cc ausgeführt werden. In unserem Beispiel wird der eucalytpus-cc auf der selben Maschine ausgeführt wie der Cloud Controller (eucalyptus-clc). Diese Komponenten müssen sich vor dem Start des Systems nun gegenseitig registrieren.

Für die Registrierung eines Cluster wird der folgende Befehl benötigt:

sudo euca_conf -addcluster localhost

Dabei entspricht dem Namen des Clusters, den die Benutzer sehen werden. Es handelt sich dabei um einen reinen logischen Namen, der nur lokal zu Eucalyptus gehört und mit einer Verfügbarkeitszone übereinstimmt, wie sie bei den Client-Tools angezeigt wird.

Um nun einen Node bei einem Cluster zu registrieren, ist der folgende Befehl notwendig.

sudo euca_conf -addnode

Später können weitere Nodes – auf denen eine Kopie von eucalyptus-nc ausgeführt wird – hinzugefügt werden, indem der obige Befehl erneut für jeden Node ausgeführt wird.

Schritt 4: Erster Login

Nach dem ersten Start von Eucalyptus muss die Administrationsumgebung der Cloud eingerichtet werden. Dazu öffnen wir im Webbrowser folgende UR:

https://[front-end-ip-address]:8443

Mit den Standardzugangsdaten Benutzername: admin und Passwort: admin erfolgt die erste Anmeldung, bei der das Passwort geändert werden muss. Nun folgen wir den Anweisungen auf dem Bildschirm. Ist die Konfiguration abgeschlossen klicken wir auf den Reiter credentials und anschließend auf Download Certificate.

Wichtig ist hierbei zu beachten, dass wir eine sichere Verbindung nutzen, also „https“ anstatt „http“. Wir erhalten eine Warnung auf Grund des Sicherheitszertifikats. Dafür müssen wir eine Ausnahme eintragen, um die Seite sehen zu können. Wird für diese Seite keine Ausnahme eingetragen, kann die Konfigurationsseite von Eucalyptus nicht angezeigt werden.

Jetzt müssen wir mittels X.509 Zertifikaten die EC2 API und AMI Tools auf unserem Server wie folgt einrichten.

mkdir ~/.euca
cd ~/.euca
mv ~/Desktop/euca2-admin-x509.zip ~/.euca
unzip euca2-admin-x509.zip

Die Installation kann mittels eines Skripts (ec2toolsinstall.sh) wie folgt durchgeführt werden.

cd ~/.euca
# Eucalyptus is not compatible with the newer ec2tools so we will
# install and remove them to insure all dependencies get installed
sudo apt-get install ec2-api-tools ec2-ami-tools
sudo apt-get remove ec2-api-tools ec2-ami-tools
wget http://s3.amazonaws.com/ec2-downloads/ec2-api-tools-1.3-30349.zip
unzip ec2-api-tools-1.3-30349.zip
mv ec2-api-tools-1.3-30349 ec2
wget http://s3.amazonaws.com/ec2-downloads/ec2-ami-tools-1.3-26357.zip
unzip ec2-ami-tools-1.3-26357.zip
mv ec2-ami-tools-1.3-26357 ec2ami
echo 'export JAVA_HOME=/usr' >> eucarc
echo 'export EC2_HOME=~/.euca/ec2' >> eucarc
echo 'export EC2_AMITOOL_HOME=~/.euca/ec2ami' >> eucarc
echo 'export PATH=$PATH:$EC2_HOME/bin:$EC2_AMITOOL_HOME/bin' >> eucarc

Vergabe der Zugriffsrechte:

chmod +x ec2toolsinstall.sh

Das Skript sollte die Datei eucarc erzeugt haben, die noch noch ge-sourced werden muss.

source ~/.euca/eucarc

Optional: Registrierung bei RightScale

RightScale bietet eine Cloud-Management-Plattform für den Einsatz mit Eucalyptus. Diese Cloud Management Software wird als Service innerhalb der Amazon Web Services ausgeführt und muss daher die Möglichkeit haben, mit dem Eucalyptus Cloud Controller (eucalyptus-clc) der hinter einer Firewall steht, zu kommunizieren.

Daher müssen die Ports 8443 und 8773 (Richtung > Internet) geöffnet werden, damit RightScale mit der Eucalyptus Cloud kommunizieren kann.

Um unsere Eucalyptus Cloud bei RightScale zu registrieren, folgen wir den Anweisungen in der unten verlinkten Anleitung:

  • Registrieren der Eucalyptus Cloud bei RightScale.

Schritt 5: Erstellen eines Virtual Machine Image

Mit dem vmbuilder können wird ein Virtual Machine Image erstellen, das mit Eucalyptus gestartet werden kann.

Zunächst erstellen wir eine Datei mit dem Namen part, in der die Größe, der Typ und der Mountpunkt der Virtual Machine beschrieben ist:

root 400
/mnt/ephemeral 0 /dev/sda2
swap 1 /dev/sda3

Anschließend erstellen wir eine Skriptdatei mit dem Namen firstboot. Dieses Skript wird ausgeführt wenn das Image das erste Mal in Eucalyptus gestartet wird und installiert dabei einen SSH Daemon.

apt-get -y install openssh-server

Nun erstellen wir ein Image mit dem vmbuilder und übergeben beim Aufruf die beiden Skripte als Parameter.

sudo vmbuilder xen ubuntu --part ./part --firstboot ./firstboot

Mit Hilfe der EC2 API Tools packen und registrieren wir abschließend den Kernel, die Ramdisk und das Image.

mkdir kernel
ec2-bundle-image -i /boot/vmlinuz-2.6.28-11-generic -d ./kernel --kernel true
ec2-upload-bundle -b kernel -m ./kernel/vmlinuz-2.6.28-11-generic.manifest.xml
EKI=`ec2-register kernel/vmlinuz-2.6.28-11-generic.manifest.xml | awk '{print $2}'`
echo $EKI

mkdir ramdisk
ec2-bundle-image -i /boot/initrd.img-2.6.28-11-generic -d ./ramdisk --ramdisk true
ec2-upload-bundle -b ramdisk -m ramdisk/initrd.img-2.6.28-11-generic.manifest.xml
ERI=`ec2-register ramdisk/initrd.img-2.6.28-11-generic.manifest.xml | awk '{print $2}'`
echo $ERI

mkdir image
ec2-bundle-image -i ubuntu-xen/root.img -d ./image --kernel $EKI --ramdisk $ERI
ec2-upload-bundle -b image -m ./image/root.img.manifest.xml
EMI=`ec2-register image/root.img.manifest.xml | awk '{print $2}'`
echo $EMI

Der Kernel, die Ramdisk und das Image sind nun in der Eucalyptus Cloud und können dort genutzt werden.

Zur Bestätigung geben wir folgenden Befehl ein:

ec2-describe-images

Die Ausgabe sollte nun einen registrierten Kernel, Ramdisk und Image anzeigen, die als „available“ gekennzeichnet sind.

Schritt 6: Starten eines Images

Bevor eine Instanz eines Image gestartet wird, müssen wir ein Schlüsselpaar (SSH Key) erstellen um uns nach dem Start als Root anmelden zu können. Der Schlüssel wird gespeichert, daher muss dieser Schritt nur einmal durchgeführt werden.

ec2-add-keypair mykey > ~/.euca/mykey.priv
chmod 0600 ~/.euca/mykey.priv

Falls wir unseren Key mal vergessen sollten, können wir uns mittels ec2-describe-keypairs eine Liste aller erstellten und auf dem System gespeicherten Schlüssel anzeigen lassen.

Nun können wir Instanzen von unserem registrierten Image wie folgt erstellen.

ec2-run-instances $EMI -k mykey

Während des ersten Starts einer Instanz erstellt das System einen Cache für das Image aus welchem die Instanz erstellt wird. Da die Images in der Regel sehr groß sind, kann dieser Vorgang etwas dauern.

Der aktuelle Status der Instanz kann mit folgendem Befehl abgefragt werden.

ec2-describe-instances

Die Ausgabe zeigt die aktuellen Informationen und den Status der Instanz. Während des ersten Starts sollte sich die Instanz im Status „pending“ befinden. Ist die Instanz gestartet, sollte der Status auf „running“ wechseln. Nachdem die Instanz über DHCP eine IP-Adresse erhalten hat können wir uns mittels des oben generierten SSH Keys mit der Instanz verbinden.

ssh -i ~/.euca/mykey.priv root@

Die Umgebung der Eucalyptus Cloud sollte nun diesem Diagramm entsprechen.

Weitere Informationen

  • Log Dateien: /var/log/eucalyptus
  • Konfigurationsdateien: /etc/eucalyptus
  • Init Skripte: /etc/init.d/eucalyptus-cc, /etc/init.d/eucalytpus-cloud und /etc/init.d/eucalytpus-nc
  • Datenbank: /var/lib/eucalyptus/db
  • Neustart (Anmerkung): Bei einem Neustart wird Eucalyptus nicht automatisch neu gestartet. Die Services müssen daher manuell geladen werden.
  • Umgebung (Anmerkung): Bevor der Client gestartet wird, sollten die Quellen unter ~/.euca/eucarc ge-sourced werden.

Quellen

Eucalyptus-Jaunty

Kategorien
Services

Rackspace – Cloud Sites

Das Cloud Sites [1] Angebot von Rackspace gehört zu dem Bereich der klassischen Webhosting Angebote, wie man sie von jedem üblichen Anbieter kennt. Es dient zum Bereitstellen von statischen Webseiten, Weblogs wie z.B. WordPress, Portalen wie Drupal, Joomla und DotNetNuke, Webshops oder Seiten für Marketing und Werbekampagnen. Der Zusatznutzen hebt sich von dem klassischen Webhosting dadurch ab, das die die Systeme auf denen sich die Webseiten befinden bei Bedarf automatisch skalieren und dadurch auch vor saisonalen Überlastungen geschützt sind.

Funktionsweise

    Erstellen der Seite und hochladen der Daten

  • Die Infrastruktur zum Hosten einer Webseite kann innerhalb von fünf Minuten erstellt werden. Konfigurationen für das Load Balancing, Clustering und redundantes Speichern der Daten wird automatisch durch das Rackspace übernommen.

    Automatische Skalierung

  • Die Daten der Webseiten werden automatisch und ohne Eingriff des Benutzers auf speziellen Clustersystemen gespeichert. Das bedeutet, dass die Performance mit den Anfragen der Benutzer wächst und eine Überlastung der Webseite nicht stattfindet.

Technologie

    Betriebssysteme

  • Die Infrastruktur hinter Cloud Sites besteht aus einer Vielzahl von Linux und Windows Servern, wobei jeder Cluster speziell auf das Betriebssystem abgestimmt ist. Vor Überlastungen schützen u.a. Load Balancing Mechanismen die bei Bedarf die Anfragen automatisch verteilen. Für jede Webseite oder einzelne Seite einer Webseite kann auf Linux oder Windows zurückgegriffen werden. Neben Standardsoftware wie WordPress, Drupal oder .NETNuke besteht ebenfalls die Möglichkeit eigene proprietäre Software auf den System zu installieren.

    Load Balancing

  • Die Daten der Webseiten und Anwendungen werden auf eine Vielzahl von Servern verteilt und mittels Load Balancing findet anschließend die Verteilung der Anfragen auf die Server statt. Fällt z.B. ein Server aus, übernimmt automatisch ein anderer Server seine Aufgabe und beantwortet die Anfrage, wodurch der Benutzer gar nicht bemerkt das ein technisches Problem vorliegt. Ein weiterer Vorteil besteht im Skalieren der Webseiten-Performanz. In Momenten, z.B. während eines Fernsehberichts in dem über die Webseite berichtet wird, sind die meisten Webseiten (vielmehr die Server auf denen sich die Webseiten befinden) auf Grund von zu vielen Anfragen überlastet und die Anfragen werden nicht mehr beantwortet. Der Sinn und Zweck des Fernsehberichts ist damit gescheitert, denn die meisten Benutzer werden nicht wiederkommen, wenn Sie merken, dass sie kein Angebot vorfinden. Durch das Load Balancing werden die Anfragen in solchen Momenten automatisch auf mehrere Server verteilt und die Antwortzeiten der Webseiten verhalten sich wie an „normalen“ Tagen.


[2]

    Linux

  • Debian + Red Hat Enterprise
  • PHP v5.2MySQL v5
  • Apache v1.3 + v2.
  • 2Perl v5.8
  • Mod Rewrite Enabled


[3]

    Windows

  • Windows 2008 Server
  • .NET v2, v3, & v3.5 SP1
  • IIS 7
  • MS SQL 2008

    Verwaltung

  • Web-Interface für die Verwaltung
  • Secure File Transfer (SFTP)
  • Master FTP Account und weitere
  • Starten von Cron Jobs, Zugriffsverwaltung und entpacken von Dateien


[4]

    DNS

  • White-label Nameserver
  • Online DNS Verwaltung
  • Private-label Nameserver
  • Eigener DNS-Server (optional)


[5]

Preise

Alle Preise sind hier zu finden: Rackspace Cloud Files Preise

Quelle

[1] Rackspace Cloud – Cloud Sites
[2] Graphik: Rackspace Cloud – Cloud Sites (1)
[3] Graphik: Rackspace Cloud – Cloud Sites (2)
[4] Graphik: Rackspace Cloud – Cloud Sites (3)
[5] Graphik: Rackspace Cloud – Cloud Sites (4)

Kategorien
Services Videos

Video: Eine Einführung zu Rackspace Cloud Servers

Das Video zeigt eine kurze Einführung, wie die Einrichtung einer Rackspace Cloud Server Umgebung vorgenommen wird.

via YouTube

Kategorien
Services

Rackspace – Cloud Files

Mit dem Cloud Files [1] Angebot von Rackspace können einzelne Dateien bis zu einer Größe von 5 GByte in der Rackspace Cloud redundant gespeichert werden. Dabei wächst der Speicherplatz mit dem genutzten Bedarf. Somit wird auch nur für den Speicherplatz bezahlt, der auch tatsächlich benötigt wird. Der Preis pro GByte liegt derzeit bei 15 Cent.

Funktionsweise

  • Hochladen der Dateien
    Mit Hilfe des Webinterface, der Desktop Software oder der Rackspace API kann eine unbegrenzte Anzahl von Daten gespeichert werden.
  • Kosten pro Speicherbedarf
    Der Speicherplatz wird lediglich gemietet. Die Abbrechung erfolgt pro genutzten Speicherplatz und Datentransfer. Dabei wächst der Speicherplatz mit dem Datenvolumen.
  • Datenschutz & Verfügbarkeit
    Die Dateien werden in sogenannte Container organisiert. Die Zugriffsrechte auf einen solchen Container können als Public oder Privat gekennzeichnet werden.

Cloud Files Speichertechnologie


[2]

  • Das Speichern und Verwalten der Daten erfolgt über das Webinterface, der Desktop Software oder der Rackspace API. Cloud Files dient z.B. als Backuplösung, zur Bereitstellung von Bildern oder als Datenspeicher für das Streaming von Videos. Weitere Möglichkeiten bestehen im Bereich Onlinespeicher um über das Internet z.B. mit einem Webbrowser auf die Daten direkt zuzugreifen oder für Entwickler zum Speichern Ihrer Anwendungsdaten.
  • Dem Gegenüber stehen aber auch Dinge, die typischerweise nicht mit Cloud Files genutzt werden können. Die Daten können z.B. nicht als virtuelle Festplatte lauf dem lokalen System eingebunden werden (mount, map). Das Spiegeln von Festplatten oder Backuplösungen die auf Byte-Level Striping oder Block-Level Striping basieren können ebenfalls nicht genutzt werden, genauso wie das anhängen (append) und sperren (locking).
  • Die Daten werden in Container organisiert, können aber nicht verschachtelt werden. Das bedeutet genau: Wenn nur ein Container (auf oberster Ebene) existiert, kann anschließend keine verschachtelte Verzeichnis/ Ordner Struktur ohne eine Transformation in eine flachere Struktur hochgeladen werden.
  • Innerhalb des Rechenzentrums werden mehrfache Kopien der Daten erzeugt und auf mindestens drei verschiedenen Geräten in zwei unterschiedlichen Bereichen des Rechenzentrums gespeichert. Dabei verfügt jeder Bereich eines Rechenzentrums über ein separate Strom- und Netzwerkverbindungen.


[3]

Cloud Files CDN-Technologie

  • Dateien die für die Öffentlichkeit bestimmt sind, werden über ein spezielles Content Distribution Network (CND) verteilt. Dabei handelt es sich um ein Netzwerk mit weltweit verteilten Standorten. Werden die Daten von einem Benutzer z.B. aus Tokyo das erste Mal abgerufen, wird von diesen Daten eine lokale Kopie im Cache auf den Servern in Hamburg gespeichert.


[4]


[5]

  • Werden diese Daten ein weiteres Mal erneut abgerufen aus Tokyo (oder Umgebung) abgerufen, werden die Daten direkt aus dem Cache bereitgestellt und müssen nicht von dem ursprünglichen (weiter entfernten) Server geladen werden. Das erhöht die Geschwindigkeit der Bereitstellung, da somit Latenzen die z.B. durch längere Übertragungswege entstehen, vermieden werden.

Die API

Mit der Cloud Files API können eigene Lösung/ Programme auf Grundlage der Rackspace Infrastruktur entwickelt werden.

  • Programmatisches Hochladen von Dateien.
  • Aktivierung von Cloud Files CDN für jede Art von Container zur Bereitstellung öffentlichen Inhalts.
  • Programmatische Erstellung von Container.
  • Programmatische Verwaltung der Container und Dateien.

Preise

Alle Preise sind hier zu finden: Rackspace Cloud Files Preise

Quelle

[1] Rackspace Cloud – Cloud Files

[2] Graphik: Rackspace Cloud – Cloud Files (1)
[3] Graphik: Rackspace Cloud – Cloud Files (2)
[4] Graphik: Rackspace Cloud – Cloud Files (3)
[5] Graphik: Rackspace Cloud – Cloud Files (4)
[6] Graphik: Rackspace Cloud – Cloud Files (5)