Kategorien
Grundlagen

Podcast: Chaosradio zum Thema Cloud Computing

Das Chaosradio hat am 28.01.2010 einen Podcast zum Thema Cloud Computing veröffentlicht. Teilnehmer waren Marcus Richter (Moderation), Frank Rosengart und Nikolai Longolius. Die drei diskutieren grundlegend über das Thema Cloud Computing und betrachten dabei die damit zusammenhängenden Risiken und Nebenwirkungen der Dienste und gehen dabei ebenfalls auf den möglichen Praxiseinsatz für Unternehmen ein.

[audio:http://audio.clouduser.de/chaosradio_153.mp3]

Quelle

  • CR153 – Cloud Computing
Kategorien
Management

Vorteile durch Desktop-Virtualisierung!

Was ist Desktop-Virtualisierung?

Im Vergleich zu klassischen Desktop-PCs werden virtuelle Desktops als virtuelle Maschinen wie eine zentral verwaltete Ressource betrachtet und im Rechenzentrum bereitgestellt. Das führt dazu, dass die Konfiguration und Verwaltung nicht mehr auf dem physikalischen Endgerät eines Benutzers stattfindet, sondern innerhalb der virtuellen Maschine.

Auf einem zentralen Rechner werden dabei mehrere individuelle Betriebssysteminstanzen für mehrere Benutzer zur Verfügung gestellt, wodurch jeder Benutzer in (s)einer eigenen virtuellen Umgebung arbeitet. Der Benutzer merkt nicht, dass seine Systemumgebung virtualisiert ist, da sich sein Gesamtsystem wie ein gewöhnlicher Desktop-PC verhält.

Es lassen sich drei Typen von virtuellen Desktops klassifizieren:

  • Standard Desktop
    Dabei handelt es sich um einen gewöhnlichen Desktop, der für alle Benutzer gleich aufgebaut und so ausgestattet ist, das Büroaufgaben damit ohne weiteres erledigt werden können.
  • Personalisierter Desktop
    Auf Basis von virtuellen Maschinen werden auf den Servern für jeden Benutzer individuell eingerichtete virtuelle Desktops bereitstellen, die dort zentral gepflegt und verwaltet werden. Die Anwender haben zudem die Möglichkeit selbständig Änderungen vorzunehmen.
  • High-End Desktop
    Wird eine enorme Leistung benötigt, erhält jeder Benutzer auf Basis von Blade PCs seine eigene Instanz im Rechenzentrum. Der Desktop wird dabei auf dem Blade PC ausgeführt, wodurch der Benutzer die vollständigen Ressourcen wie z.B. die Prozessorleistung alleine für sich nutzen kann.

Vorteile und Nutzen der Desktop-Virtualisierung

Durch die Trennung des Desktops von dem physikalischen Endgerät kann die Administration zentral auf einem Server vorgenommen werden, womit der Wartungsaufwand reduziert wird, da die Installation, Konfiguration und Aktualisierung nicht mehr vor Ort vorgenommen werden muss. Speziell im Falle von Migrationen stehen hier enorme Zeitvorteile im Vordergrund. So kann z.B. in kurzer Zeit die Umstellung auf eine neue Betriebssystemversion vorgenommen werden.

Weiterhin können die Kosten für die Client-Hardware gesenkt werden. Aktuelle Windows Betriebssysteme benötigen performante und damit kostspielige Endgeräte. Durch die Virtualisierung des Desktops können entweder ältere Endgeräte oder Thin Clients eingesetzt werden, die zudem stromsparend und wartungsarm sind. Laut einer IDC Kundenbefragung können die Kosten, im Vergleich zu herkömmlichen Desktop PCs (Fat Clients), um ca. 600 Dollar pro Benutzer pro Jahr gesenkt werden.

Ein weiterer zu beachtender Punkt ist die Erhöhung der Sicherheit. Die Daten befinden durch die Desktop-Virtualisierung nicht mehr lokal auf den Endgeräten, sondern werden zentral auf den Unternehmensservern gespeichert. Somit werden die Daten zusätzlich in die zentralen Datensicherungsmechanismen eingegliedert und der Zugriff auf die Daten wird zentral gesteuert. Die Compliance kann ebenfalls unternehmensweit verbessert werden, da die Installation von unerwünschter Software zentral unterbunden werden kann und es kann sichergestellt werden, dass die Daten im Rechenzentrum verbleiben.

In Unternehmen die mit wechselnden Arbeitsplätzen arbeiten, erhalten die Benutzer den Vorteil, immer über ihre eigene tatsächliche Umgebung zu verfügen. Der Nachteil der „Roaming Profiles“ besteht darin, dass die Installation & Konfiguration des Betriebssystems und der darauf installierten Software für jeden Benutzer, der an dem Rechner arbeitet, gleich ist. Im Falle der Desktop-Virtualisierung ist ein Benutzer damit (wirklich) nicht mehr an einen bestimmten Arbeitsplatz (Ort) gebunden.

Anforderungen & Herausforderungen der Desktop-Virtualisierung

Desktop-Virtualisierung ist kein Thema, dass kurzfristig umgesetzt werden kann, sondern bedarf einem gut durchdachten und ganzheitlichen Ansatz. Dazu gehören neben der Administration der virtuellen Desktops, ebenso die benutzerspezifische Anpassung und die Gewährleistung der Geschwindigkeit und Performanz. Letzteres ist vor allem kritisch zu betrachten, wenn ein Unternehmen über mehrere Standorte verteilt ist und der Zugriff über eine WAN-Verbindung stattfindet. Die Berücksichtigung der gesamten IT-Infrastruktur ist bei der Einführung und Implementierung von Desktop-Virtualisierung von enormer Wichtigkeit. Wozu eine ganzheitliche Betrachtung und ebenfalls Technologien zur Optimierung und Überwachung der WAN-Verbindungen und Performanz sowie des sicheren Zugriffs gehören.

Kategorien
Grundlagen

Was ist Grid Computing?

Die Charakteristiken von Computercluster sind das Bereitstellen von reiner Rechnerleistung in einem lokalen begrenzten Bereich. Die nächste Herausforderung bestand also darin, die Rechenleistung nicht nur lokal, sondern auch global verfügbar zu machen und neben der Rechenleistung z.B. auch Daten und Applikationen bereitzustellen.

Mitte der 1990er wurde der Begriff des Metacomputing als Möglichkeit zur Erweiterung von Paralleler Datenverarbeitung und Custer Computing eingeführt. Die Idee bestand darin, große Computersysteme über WAN-Leitungen (Wide Area Network) miteinander zu verbinden. Im Jahr 1997 wurden erstmals zwei Supercomputer des High Performance Computing Center Stuttgart (HLRS) und des Pittsburgh Supercomputing Centre (PSC) miteinander verbunden. Trotz der Verfügbarkeit von hohen Bandbreiten innerhalb der nationalen und internationalen Forschungsnetzwerke scheiterte das Experiment auf Grund der Latenz.

Das Metacomputing bezieht sich aber lediglich nur auf Computer (Rechenleistung) im Allgemeinen. Ian Foster und Carl Kesselman stellten im Jahre 1999 ein neues erweitertes Konzept mit dem Namen Grid Computing vor, das neben Computer auch andere Arten von (IT-)Ressourcen wie Software, Datenbanken, Rechenleistung, Speicherplatz oder spezielle Hardware beinhalten und miteiander vernetzen kann. Der Begriff des Grid wird abgeleitet aus dem englischen Wort Electrical Power Grid (Deutsch: Stromnetz), dessen Idee darin besteht, die Ressourcen den Benutzern so zur Verfügung zu stellen, als wenn sie den Strom aus der Steckdose bekommen würden. Dabei verfügt das Grid über standardisierte Schnittstellen, über die der Benutzer seine Anfragen übermitteln kann und ihm die Ressourcen dann automatisiert zugeteilt werden. Die Ressourcen sind dabei über das Internet verteilt und können unterschiedlichen ’virtuellen’ Organisationen angehören. Anhand der Schnittstellen kann der Status der Ressourcen abgefragt und diese direkt angesprochen werden. Ein entscheidender Vorteil liegt darin, dass der geographische Ort an dem sich die Ressource befindet nicht mehr von Bedeutung ist – siehe Graphik. Auf Grund des beliebigen und weltweiten Zugriffs auf Ressourcen über das Internet gilt das Grid als Generalisierung des World Wide Web. Davon abgeleitet steht die Technologie des Grid Computing somit als die Basistechnologie für die Koordination und Verarbeitung organisationsübergreifender Geschäftsprozesse und den gemeinschaftlichen Austausch und die Nutzung von Ressourcen.

Das entscheidende Ziel des Grid Computings bestand also darin, Ressourcen gemeinschaftlich global zu nutzen sowie diese zu koordinieren und darüber hinaus gemeinsam Probleme institutionsübergreifend in dynamischen virtuellen Organisationen zu lösen. Genauer bedeutet dies, dass zu Beginn Formalitäten wie das Abrechnungsschema und die Zugangsrechte geklärt werden und anschließend der Zugriff auf die Ressourcen wie z.B. Rechnerleistung oder Anwendungen für die gemeinschaftliche Nutzung bereitgestellt werden. Der Begriff der virtuellen Organisation beschreibt in diesem Fall eine dynamische Allianz von Organisationen, die ein gemeinsames Interesse während der Nutzung des Grids vertreten.

Arten von Grid Computing

Je nachdem wie die Ressourcen miteinander vernetzt sind und um was für ein Anwendungsszenario es sich handelt, können Grids in unterschiedliche Arten unterteilt werden. Nachfolgend werden fünf unterschiedliche Arten betrachtet.

  • Compute Grids
    Compute Grids werden verwendet um einem Benutzer Rechnerleistung bzw. Rechnerkapazität, die ihm in seiner eigenen Umgebung nicht zur Verfügung stehen, verteilt bereitzustellen. Das Bereitstellen kann hierbei eine derzeit nicht verwendete Ressource – z.B. eine Workstation außerhalb der Geschäftszeiten sein, oder aber auch ein Hochleistungclustersystem.
  • Data Grids
    Data Grids werden eingesetzt um große verteilte Datenmengen gemeinsam zu Nutzen und diese zu verarbeiten. Dabei wird eine sogenannte Data-Federation, eine organisationübergreifende Sicht auf alle Daten, die beispielsweise einem Projekt zugewiesen sind, definiert. Bei so einer Data-Federation handelt es sich um ein dezentral verwaltetes System, bei dem derjenige, der die Daten in dieser Umgebung zur Verfügung stellt auch die uneingeschränkte Kontrolle über diese Daten behält.
  • Application Grids
    Application Grids waren der erste Ansatz um virtuelle Organisationen zu etablieren und damit die organisationsübergreifende gemeinsame Nutzung von Ressourcen voranzutreiben. Die Betreiber der Grids sollten dadurch eine höhere Auslastung und die Benutzer ein besseres Angebot erfahren. Themen, die innerhalb dieses Grids auftreten, sind sichere und schnelle Datenverbindungen, Authentifikationen, Authorisierungen und Single-Sign-On sowie Accounting und Abbrechnungsmöglichkeiten.
  • Resource Grids
    Resource Grids sind die Erweiterung der Application Grids. Diese definieren ein Rollenmodell, in dem eindeutig zwischen einem Grid Benutzer, einem Grid Provider und einem Resource Provider unterschieden wird. Die Hierarchie ist logisch geordnert. Ein Grid Benutzer verwendet die Grid Infrastruktur des Grid Provider um die dort vorhandenen Ressourcen des Resource Providers zu nutzen. Für den Grid Benutzer unterscheidet sich die Funktionalität des Application- und des Resource Grids nicht. Das Konzept der beiden hat aber einen gravierenden Unterschied. Application Grids werden vertikal integriert, was bedeutet dass der Bedarf an Fremdleistungen sehr gering gehalten wird und die Komponenten individuell hinzugefügt werden. Dagegen müssen bei einem Resource Grid alle Schnittstellen definiert und offen gelegt werden, da jeder Ressource Provider über die Spezifikation der Grid Infrastruktur des Grid Providers informiert sein muss um dort ggf. seine Ressourcen anbieten zu können.
  • Service Grids
    Ein Service Grid verbindet das Konzept der Serviceorientierung mit der Technik der Resource Grids. Ein Service wird in diesem Zusammenhang als ein Bündel von mehreren Komponenten betrachtet, von dem jede einzelne Komponente wiederum als Utility von einem anderen Resource Provider zur Verfügung gestellt wird. In dieser Form des Grids existiert eine übergeordnete Form des Grid Providers, der so genannte Grid Service Provider, der im direkten Kontakt mit den Grid Benutzern steht und ihnen einen Komplettservice anbietet. Das bedeutet, dass der Grid Benutzer nicht darüber informiert ist, welcher Resource Provider ihm welche Ressource bereitstellt.
Kategorien
Grundlagen

Was ist Cluster Computing?

Handelte es sich bei Supercomputern zu Beginn noch um Systeme mit spezieller Technologie, werden heute in der Regel gängige Servertechnologien eingesetzt. Dabei werden viele einzelne, in der Regel kostengünstige Server zu einem so genannten Servercluster vernetzt, um über die Rechenleistung eines Supercomputers zu verfügen.

Die Grundlagen des Cluster Computing legte Gene Amdahl als Computerarchitekt bei IBM. In seinem 1967 veröffentlichten Paper zum Thema ’Parallel Processing’ stellte er folgende These auf, die auch als Amdahl’s Law bezeichnet wird und als Basis für Multiprozessor sowie Clustercomputer gilt.

Das Gesetz besagt, ’… wie sich der nicht parallelisierbare Anteil eines Programms auf die Gesamtrechenzeit auswirkt …’. Genauer bedeutet dies, dass die Geschwindigkeitszunahme in erster Linie durch den sequentiellen Anteil des Algorithmus beschränkt wird. Das ist darauf zurückzuführen, dass sich die Ausführungszeit nicht durch Parallelisierung verkleinern lässt.

Die ersten Ideen einen Computercluster aufzubauen stammen aus den Zeiten, in denen auch die ersten Computernetzwerke aufgebaut wurden. Der Grundgedanke zum Aufbau solcher Netzwerke bestand darin, Ressourcen in Form von Computersystemen untereinander zu verbinden und damit einen quasi Computercluster aufzubauen. Durch die Einführung der Paket vermittelnden Netzwerke im Jahre 1962 durch die Firma RAND, wurde auf dieser Grundlage 1969 das ARPANET Projekt gegründet. Dieses gilt als das erste Commodity-Netzwerk auf Basis eines Computercluster, in dem vier unterschiedliche Computercenter miteinander verbunden wurden. Jedes dieser vier Computercenter war für sich selbst wieder ein Computercluster, die aber nur autonom arbeiteten. Aus dem ARPANET wurde später das Internet, weshalb das Internet auch als die ’Mutter’ aller Computercluster gilt, aus dem Grund, das quasi alle Computerressourcen inkl. aller bereits bestehenden Cluster zusammengeschlossen werden können.

Ein Computercluster beschreibt also eine meist große Anzahl von einzelnen miteinander vernetzten Computern, die dazu verwendet werden einzelne Teilaufgaben, die zu einer Gesamtaufgabe gehören, parallel zu verarbeiten. Von außen betrachtet wirkt ein Computercluster wie ein einzelnes System. Die jeweiligen Knoten sind dabei untereinander über ein schnelles Netzwerk verbunden. Durch den Aufbau solcher Serverfarmen wird die Rechenkapazität und Verfügbarkeit deutlich gegenüber eines einzigen Computers erhöht. Vor allem die Ausfallsicherheit eines solchen Computercluster ist ein entscheidender Vorteil gegenüber einem einzelnen Computersystem. Fällt innerhalb eines Clusterverbunds ein einzelnes System aus, hat das keinen direkten Einfluss auf alle anderen beteiligten Systeme innerhalb des Clusters. Es wird damit also eine Redundanz erzielt. Computercluster können am besten für die Verarbeitung von Batch-Jobs eingesetzt werden, bei denen viele parallele Teilberechnungen durchgeführt werden. Handelt es sich bei der Verarbeitung jedoch um Teilaufgaben, die im hohen Maße synchronisiert werden müssen, sind Computercluster dafür nicht geeignet, da der Kommunikationsoverhead zwischen den einzelnen Systemen den Performancegewinn, der durch die parallele Verarbeitung entsteht, wieder relativiert.

Der erste kommerziell zu erwerbende Computercluster (ARCnet) wurde im Jahr 1977 von der Firma Datapoint vorgestellt. Mit dem so genannten VAXCluster für ihr
VAX-System hatte die Firma DEC im Jahr 1983 den ersten richtigen Erfolg im Bereich des kommerziellen Clustercomputing.

Arten von Computer Cluster

Das Ziel des Cluster Computing ist die Bereitstellung einer sehr hohen Rechenleistung bzw. einer besonders ausfallsicheren Rechnerumgebung. Von diesen Zielen ausgehend werden verschiedene Arten von Computercluster und dadurch auch deren Einsatzfeld definiert.

Bei Clustersystemen wird grundsätzlich zwischen homogenen und heterogenen Clustern unterschieden. Homogene Cluster zeichnen sich dadurch aus, dass die jeweiligen Computer, die dem Cluster angehören, alle das gleiche Betriebssystem und die gleiche Hardware einsetzen. Computer, die zu einem heterogenen Cluster gehören, dürfen über unterschiedliche Betriebssysteme und Hardware verfügen.

Heutzutage werden drei Arten von Computercluster unterschieden und eingesetzt:

  • Hochverfügbarkeit Cluster
    Hochverfügbarkeit Cluster werden verwendet die Verfügbarkeit zu steigern und für eine bessere Ausfallsicherheit zu sorgen. Aus diesem Grund darf die gesamte Hardware als auch die Software eines solchen Cluster in keinerWeise über einen Single-Point-of-Failure verfügen, da die Definition und der Zweck diesem widersprechen würde. Im Fehlerfall werden die Dienste von dem defekten Host des Cluster auf einen anderen Host automatisch übertragen. Einsatzgebiete solcher Clustersysteme sind Bereiche, in denen eine Ausfallzeit maximal einige Minuten pro Jahr erlaubt. Eine besondere Art von Hochverfügbarkeit Cluster sind die so genannten ’stretched Cluster’. In diesem Fall werden einzelne Hosts eines Cluster räumlich getrennt in verschiedene weit voneinander entfernte Rechenzentren untergebracht. Kommt es in einem der Rechenzentren zu einem nicht vorhersagbaren Problem, können die Hosts des anderen Rechenzentrums vollständig die Aufgaben übernehmen.
  • Load-Balancing Cluster
    Load-Balancing Cluster werden dazu verwendet eine Lastverteilung auf mehrere Computer zu ermöglichen. Aus der Benutzersicht steht ihm nur eine zentrale Einheit gegenüber, die aber logisch gesehen aus mehreren vernetzten Systeme besteht. Um die Leistung des gesamten Cluster zu erhöhen, werden nicht die einzelnen Hosts für sich aufgerüstet, sondern ein zusätzlicher Host dem Cluster hinzugefügt. Einsatzbereiche sind Umgebungen, in denen die Anforderungen an die Rechenleistung extrem hoch sind.
  • High Performance Computing Cluster
    High Performance Computing Cluster werden überwiegend dazu verwendet Berechnungsverfahren durchzuführen, wobei die Berechnungen auf mehrere Hosts verteilt werden. Hierbei werden zwei unterschiedliche Arten der Aufgabenverteilung unterschieden. Eine Möglichkeit besteht darin, die Aufgaben in unterschiedliche Pakete zu verteilen, die dann parallel auf mehreren Hosts ausgeführt werden. Die andere Variante wäre, die Aufgaben auf die einzelnen Hosts direkt zu verteilen. Einsatzgebiete der High Performance Computing Cluster liegen überwiegend in den wissenschaftlichen Bereichen, aber auch die Serverfarmen für das Rendern von 3D-Computergrafiken und Computeranimationen gehören zu dieser Art von Cluster.
Kategorien
Grundlagen

Was sind Supercomputer?

Supercomputer sind Hochleistungsrechner die auf eine sehr hohe Verarbeitungsleistung ausgerichtet sind. Sie verfügen über ein Array von Prozessoren, die auf eine gemeinsame Peripherie und einen gemeinsamen Hauptspeicher zugreifen können. Die Aufgaben werden parallel auf mehrere Prozessoren verteilt und anschließend ebenfalls mit hoher Parallelität abgearbeitet. Da das Array dabei aus mehreren tausend Prozessoren bestehen kann, wird damit die Arbeitsgeschwindigkeit erhöht. Die Rechnerarchitektur eines Supercomputers ist dabei speziell für eine bestimmte Anwendung angepasst, um die höchstmögliche Verarbeitungsgeschwindigkeit zu erreichen.

In den 1970er wurden die ersten Supercomputer von der Firma Cray (benannt nach dem Unternehmensgründer Seymour Cray) hergestellt. Der erste Supercomputer bekam den Namen Cray-1 und verfügte über 250 MegaFLOPS.

Welche Ziele werden mit Supercomputern verfolgt?

Der Wunsch aufwendige Abbildungen der Realwelt (Simulationen) und immer genauere Vorhersagen und aussagekräftige Gesamtergebnisse zu liefern ist in der Vergangenheit drastisch gewachsen. Hinzu kommt, dass Simulationen immer realitätsnaher werden und die beiläufigen Neben- und Randbedingungen zunehmen. Damit u.a. solche umfangreichen und hochparametrigen numerischen Probleme schnell gelöst werden können und immer mehr komplexere Zusammenhänge mit einbezogen werden können, sind Systeme mit extrem schneller und hoher Rechenleistung erforderlich. Für die Lösungen solcher Problemstellungen kommen Supercomputer zum Einsatz. Typischerweise werden Supercomputer heute in den folgenden Bereichen eingesetzt.

  • In der Klimaforschung zur Wettervorhersage.
  • Für die Auswertung hochauflösender bewegter Bilder in Echtzeit.
  • Für den Einsatz in Verteidigungssystemen als Zentrale Einheit.
  • In der Festkörperphysik.
  • In der Weltraumforschung.
  • Zur Berechnung von Filmsequenzen.
  • In den Bereichen der Simulations- und Crashtechnik.

Wie zu erkennen ist, handelt es sich in den Beispielen um Bereiche, in denen komplexe Systeme oder Teilsysteme untereinander stark verbunden sind. Diese Abhängigkeiten führen dazu, das Veränderungen in einem Teilsystem sich in der Regel auch parallel auf alle weiteren vorhanden Systeme auswirken, was eine hohe Rechenleistungen voraussetzt.

Kategorien
Services

20 Cloud Infrastruktur Anbieter

Cloud Infrastrukturen sind einfach zu nutzen und lassen sich gut in bestehende Infrastrukturen integrieren. Dazu überzeugen sie durch Kosteneinsparungen, einfaches Bereitstellen weiterer Serversysteme etc., sowie einem guten Monitoring und Verwalten von Anwendungen innerhalb der Cloud.

Dieser Artikel stellt 20 Cloud Infrastruktur Anbieter und ihre Produkte vor.

1. AllenPort
AllenPort verfügt über eine hybride SaaS Technologie. Dabei wird ein klassisches Microsoft Windows Netzwerk repliziert, was es ermöglicht, einem Benutzer unabhängig von seinem Arbeitsplatz sämtliche Daten und Anwendungen wie z.B. Microsoft Word bereitzustellen. Zu den weiteren Funktionen gehören Backup, Austausch von Dateien, Systemwiederherstellung und Remote Access.

Webseite: http://www.allenport.com

2. AppZero
AppZero stellt sogenannte Virtual Application Appliances bereit, die unabhängig vom Betriebssystem und der darunterliegenden Infrastruktur ausgeführt werden können. Es handelt sich dabei um ein eigenständiges Objekt, das eine Anwendung inkl. aller Abhängigkeiten wie ausführbare Bibliotheken, Dateien, Registrierung, Konfigurationen, und die Netzwerkidentität beinhaltet.

Webseite: http://www.appzero.com

3. Boomi
Boomi verbindet mit seiner AtomSphere jede Kombination von Cloud und selbst gehosteter Anwendung ohne dafür eine Appliance oder Software zu benutzen.

Webseite: http://www.boomi.com

4. CA
CA verfügt über zahlreiche Cloud basierte Tools für das Netzwerk- und Systemanagement. Unter anderem stehen Lösungen für den automatisierten Rechenzentrumsbetrieb sowie Regel basierter Optimierungsvorgänge. Eine weitere Funktion ihres „Spectrum Automation Manger“ sind die Verwaltung des Netzwerks- und Systemtraffics für Public und Private Cloud Umgebungen.

Webseite: http://www.ca.com

5. Cast Iron Systems
Cast Iron Systems stellt Lösungen zur Integration von SaaS Anwendungen mit selbst gehosteten Anwendungen/ Systeme für Unternehmen bereit. SaaS Anbieter sollen ihren Kunden damit eine schnelle Migration, sowie vollständig integrierte Services anbieten können.

Webseite: http://www.castiron.com

6. Citrix
Citrix Cloud Center (C3) verknüpft die Virtualisierung mit den Netzwerkprodukten. Sie stellt Cloud Anbietern eine virtuelle Infrastruktur Plattform für das Hosting von Cloud Services bereit. Die Architektur der Plattform besteht aus fünf Schlüsselkomponenten: Citrix XenServer, Anwendungen und Desktop Tools via Citrix XenApp, Bereitstellung mittels Citrix NetScaler, Bridging mittels Citrix Repeater und die Orchestrierung mit dem Citrix Workflow Studio.

Webseite: http://www.citrix.com

7. Elastra
Elastra entwickelt Software mit dem Unternehmen ihre Anwendungsinfrastruktur automatisch modellieren, bereitstellen und mit Richtlinien ausstatten können. Mit dem Enterprise Cloud Server dient der Verwaltung und Bereitstellung von komplexen Systemen. Anwender haben die Möglichkeit ihre Anwendungsinfrastruktur schnell zu modellieren und bereitzustellen sowie automatische Änderungen am Deployment-Prozess vornehmen und interne und externe virtuelle Ressourcen on-Demand für ihre eigene IT zu nutzen.

Webseite: http://www.elastra.com

8. EMC
Atmos und Atmos onLine sind EMCs Cloud Produkte für skalierbare, elastische und kostensparende Anwendungen und Services auf Basis von Virtualisierungtechnologien. Bei Atmos onLine handelt es sich um einen Cloud Storage Service mit dem große Datenmengen hochverfügbar verwaltet und bewegt werden können.

Webseite: http://www.emc.com

9. IBM
IBM stellt mit seinen Cloud Produkten eine Kombination aus Services und Systemen für Private und Public Clouds bereit. Dazu gehören auch IBMs bekannte Anwendungen die nun auch als Cloud basierte Versionen zur Verfügung stehen. Produkte kommen u.a. aus den Bereichen Speichermanagement, Cloud basierte E-Mail Services, Kalender und Kontaktverwaltung.

Webseite: http://www.ibm.com

10. Informatica
Informatica ist Spezialist für Cloud basierte Datenintegration. Die Produkte helfen den Benutzern beim Verschieben und Verwalten der Daten (zwischen unterschiedlichen Anwendungen) in der Cloud

Webseite: http://www.informatica.com

11. NetApp
Mit der Data ONTAP 8 Cloud Computing Infrastruktur verknüpft NetApp seine bereits vorhanden Plattformen Data ONTAP 7G und Data ONTAP GX. Data ONTAP 8 verfügt über Funktionen zur Verwaltung von Daten und arbeitet eng mit System zur Verwaltung von Rechenzentren zusammen. Data ONTAP 8 verknüpft die Speicher, Server, Netzwerk und Anwendungsschicht miteinander, so dass diese untereinander kommunizieren können.

Webseite: http://www.netapp.com

12. New Relic
New Relic bietet ein on-Demand Performance Management tool für Web Anwendungen. In wenigen Minuten wird der gesamte Code innerhalb von Private oder Public Clouds, klassischen Infrastrukturen oder hybriden Varianten untersucht. Die Performance von Web Anwendungen in der Cloud kann damit deutlich gesteigert werden.

Webseite: http://www.newrelic.com

13. Novell
Novell versucht die gesamte IT für die Cloud miteinander zu verknüpfen. Mit Moblin – ein auf die Cloud zentriertes Desktop Betriebssystem, dem SUSE Appliance Program – eine Initiative für Softwareentwickler, den Novell Cloud Security Service und PlateSping – einer Workload Management Lösung, hat Novell einige Produkte für die Cloud im Portfolio

Webseite: http://www.novell.com

14. Open Nebula
Mit OpenNebula kann jegliche Art von Cloud Umgebung aufgebaut werden. Darüber hinaus können damit virtuelle Infrastrukturen in einem Rechenzentrum oder einem Cluster verwaltet werden, oder eine lokale Infrastruktur mit einer Public Cloud Infratruktur verbunden und kombiniert werden, um damit hoch skalierbare Hosting Umgebungen zu entwickeln. OpenNebula unterstützt ebenfalls Public Clouds, indem Schnittstellen zur Verfügung stehen mit denen virtuelle Machinen, Speichersysteme und das Netzwerk verwaltet werden können.

Webseite: http://www.opennebula.org

15. OpSource
OpSource bietet alles aus dem Bereich „Cloud Operations“. Dazu gehören Infrastrukturen der Enterprise-Klasse bis hin zum vollständigen Managed Hosting und der Verwaötung von Anwendungen. Bei der OpSource Cloud handelt es sich um eine Virtual Private Cloud innerhalb der Public Cloud. Die on-Demand Angebote kombinieren „Technical Operations“, „Application Operations“ und „Business Operations“ mit „Web Operations“. Hierzu gehören Anwendungs-Management, Compliance-und Business-Services. Ein Weiteres Produkt aus dem Bereich Abbrechnung ist OpSource Billing CLM.

Webseite: http://www.opsource.net

16. Paglo
Mit der Log Management Lösung von Paglo können Log Dateien gesammelt und in der Cloud gespeichert, durchsucht und analysiert werden. Dazu werden die Daten von sämtlichen Geräten innerhalb des Netzwerks gesammelt. Eine weitere Anwendung von Paglo dient der Überwachung von Amazon EC2 Instanzen. Der Funktionsumfang beläuft sich auf den Lese- und Schreibzugriff der Festplatten, die Prozessor-Auslastung und dem Netzwerkverkehr.

Webseite: http://paglo.com

17. RightScale
Die Cloud Management Platform von RightScale dient zum automatischen Bereitstellen, Verwalten und Kontrollieren von Anwendungen in der Cloud. Dazu werden „Cloud-Ready“ Server-Templates und Best-Practise Architekturen für das Deployment zur Verfügung gestellt. Die Plattform unterstützt den Benutzer beim Deployment der Anwendungen beim Verwalten, Überwachen und bei der Fehlersuche. Zusätzlich wird ein (Vendor)-Lock-In vermieden, indem der Benutzer frei über die Art des Deployments, der Umgebung, dem Stack, Speicherplatz und der Cloud entscheiden kann, um über die größtmögliche Portabilität zu verfügen.

Webseite: http://www.rightscale.com

18. Stoneware
Stoneware bietet Produkte für Bildungseinrichtungen, das Gesundheitswesen, Hersteller jeder Art, den juristischen Bereich, die Finanzbranche und generell für Unternehmen. Dazu bietet Stoneware Private Cloud Technologien, die es IT Organisationen ermöglichen sollen Lösungen zu entwickeln, um auf Anwendungen, Inhalte, Daten und Services von überall aus zugreifen zu können.

Webseite: http://www.stone-ware.com

19. VMware
Durch die Acquirierung von SpringSource im vergangenen August schnappte sich VMware einen spezialisten für die Entwicklungen von Webanwendungen und Management Services. Mit „Lean Software“ steht dadurch eine Möglichkeit zur Verfügung, Anwendungen schnell in die Cloud auszuliefern. Des Weiteren akquirierte VMWare Hyperic, einen Anbieter von Open Source Monitoring und Software für die Fehlersuche.

Webseite: http://www.vmware.com

20. Zeus Technology
Mit den Produkten von Zeus können Benutzer Services innerhalb einer Cloud, auf einer physischen oder virtuellen Umgebung erstellen, verwalten und bereitstellen. Mit dem Zeus Cloud Traffic Manager kann die Nutzung einer Cloud überwacht und kontrolliert werden. Zusätzlich steht damit eine zentrale Verwaltungsmöglichkeit für verteilte Anwendungen und der Nutzen- und Auslastungsanalyse von Rechenzentren bereit.

Webseite: http://www.zeus.com

Quelle
ChannelWeb

Kategorien
Services Videos

Video: Vorstellung openQRM

Das Video zeigt die Funktionen der Open Source Cloud Computing Plattform openQRM 4.5 zur zentralen Verwaltung von Rechenzentren und skalierbaren IT Infrastrukturen. Im Fokus des Videos steht vor allem der Nutzen von openQRM für Private Clouds.

via YouTube

Kategorien
Services Videos

Video: Eine Einführung zu Rackspace Cloud Servers

Das Video zeigt eine kurze Einführung, wie die Einrichtung einer Rackspace Cloud Server Umgebung vorgenommen wird.

via YouTube

Kategorien
Services

Rackspace – Cloud Servers

Mit dem Cloud Server [1] Angebot von Rackspace können innerhalb von wenigen Minuten von einem bis zu 50 Server eingerichtet werden. Die Konfiguration erfolgt über ein Webinterface bzw. über eine spezielle von Rackspace bereitgestellte offen API. Die Server verfügen über einen vollständigen Root-Zugang und können je nach Wunsch und Aufgabenbereich eingerichtet werden. Abgerechnet wird nur die tatsächliche Nutzung.

Funktionsweise

  • Auswahl der Serverkonfiguration
    Die Auswahl der Grundkonfiguration erfolgt aus Basis des Arbeitsspeichers. Es steht ein Bereich von 256 MB bis zu 16 GB zur Verfügung
  • Auswahl des Betriebssystem
    Aktuelle stehen mehrere Linux Distributionen zur Verfügung, darunter Ubuntu, Debian, Gentoo, Centos, Fedora, Arch und Red Hat Enterprise Linux. Windows Varianten sollen folgen.
  • Verwaltung
    Innerhalb von wenigen Minuten sind die Server verfügbar. Über ein Webinterface oder eine spezielle API kann die Performance jedes vorhandene Servers vergrößert, verkleinert oder vollständig entfernt werden.

Technologie

  • Virtualisierung
    Jeder Cloud Server wird in einer eigenen Virtual Machine abgebildet und ist vollständig von der Hardware getrennt. An dieser Stelle werden Software Hypervisor eingesetzt, wodurch weitere Cloud Server innerhalb von wenigen Minuten zur Verfügung stehen, da nur eine weitere Virtual Machine auf der bereits laufenden Hardware gestartet werden muss. Damit kann die Performanz (Prozessorleistung, Arbeitsspeicher) eines einzelnen Cloud Servers schnell vergrößert oder verkleinert werden.
  • CPU Geschwindigkeit
    Alle Cloud-Server garantieren die CPU-Leistung die vorbar konfiguriert wurde. Wenn die Hardware auf der die Virtual Machine betrieben wird allerdings freie CPU Kapazitäten zur Verfügung hat, werden diese genutzt um ohne weitere Kosten zusätzliche Rechenleistung für die Virtual Machine bereitzustellen.
  • Skalierung
    Die Skalierung eines Cloud Servers erfolgt entweder manuell über das Webinterface oder die API. Allerdings ist der Server dabei vorübergehend nicht erreichbar(!), da der Arbeitspeicher, die Festplattenkapazität und die Prozessorleitstung angepasst werden müssen und der Server neu gestartet(!) wird. Der gesamte Prozess ist automatisiert und dauert ein paar Minuten.
  • Technik

    • Xen Hypervisor
    • RAID-10
    • 64-bit Systeme
    • 4 virtuelle CPUs pro Cloud Server
    • Reservierter Arbeitsspeicher und Speicherplatz
    • Voneinander getrennte Public und Privat Netzwerkschnittstellen
    • Mehrfache Öffentliche IP-Adressen sind möglich
    • Kostenlose Bandbreite für die private Netzwerkschnittstelle und der Kommunikation innerhalb der Rackspace Cloud z.B. zu Cloud Files.
    • Snapshot-basierte Server-Images
    • Dynamische IP-Adressen für Hochverfügbarkeits-Failover-Konfigurationen
    • Bootfähiger Rettungs-Modus
    • Zugriff auf das Dateisystem für die Reperatur


[2]

Verfügbare Betriebssysteme

  • Ubuntu 9.10 (Karmic Koala)
  • Centos 5.4
  • Gentoo 2008.0
  • Ubuntu 9.04 (Jaunty)
  • Centos 5.3
  • Red Hat EL 5.3
  • Ubuntu 8.10 (Intrepid Ibex)
  • Centos 5.2
  • Arch 2009.02
  • Ubuntu 8.04.2 (Hardy Heron) LTS
  • Fedora 11 (Leonidas)
  • Fedora 10 (Cambridge)
  • Debian 5.0 Lenny


[3]

Funktionen der API

  • Starten und verwalten der Server programmatisch mit der REST-API.
  • Individuelle Anpassung der Server.
  • Zuweisen von speziellen Metadaten zu bestimmten Server Instanzen über key/value Paare.
  • Neustart der Server mittels Soft- oder Hardreset.
  • Wiederherstellen von Servern aus jedem beliebigen eigenen Image.
  • Erstellung von individuellen Images.
  • Zeitlich gesteuerte Backups der Server.
  • Je nach Wunsch kann die Performanz der Server vergrößert oder verkleinert werden.
  • Mehrere Server können sich mehrere öffentliche IP-Adressen teilen.


[4]

Preise

Alle Preise sind hier zu finden: Rackspace Cloud Server Preise

Quelle

[1] Rackspace Cloud – Cloud Servers
[2] Graphik: Rackspace Cloud – Cloud Servers (1)
[3] Graphik: Rackspace Cloud – Cloud Servers (2)
[4] Graphik: Rackspace Cloud – Cloud Servers (3)

Kategorien
Literatur

Buch – Programming Amazon Web Services: S3, EC2, SQS, FPS, and SimpleDB

Titel: Programming Amazon Web Services: S3, EC2, SQS, FPS, and SimpleDB

Autor: James Murty

Beschreibung:
„Building on the success of its storefront and fulfillment services, Amazon now allows businesses to „rent“ computing power, data storage and bandwidth on its vast network platform. This book demonstrates how developers working with small- to mid-sized companies can take advantage of Amazon Web Services (AWS) such as the Simple Storage Service (S3), Elastic Compute Cloud (EC2), Simple Queue Service (SQS), Flexible Payments Service (FPS), and SimpleDB to build web-scale business applications. With AWS, Amazon offers a new paradigm for IT infrastructure: use what you need, as you need it, and pay as you go. Programming Web Services explains how you can access Amazon’s open APIs to store and run applications, rather than spend precious time and resources building your own. With this book, you’ll learn all the technical details you need to: Store and retrieve any amount of data using application servers, unlimited data storage, and bandwidth with the Amazon S3 service Buy computing time using Amazon EC2’s interface to requisition machines, load them with an application environment, manage access permissions, and run your image using as many or few systems as needed Use Amazon’s web-scale messaging infrastructure to store messages as they travel between computers with Amazon SQS Leverage the Amazon FPS service to structure payment instructions and allow the movement of money between any two entities, humans or computers Create and store multiple data sets, query your data easily, and return the results using Amazon SimpleDB. Scale up or down at a moment’s notice, using these services to employ as much time and space as you need Whether you’re starting a new online business, need to ramp upexisting services, or require an offsite backup for your home, Programming Web Services gives you the background and the practical knowledge you need to start using AWS. Other books explain how to build web services. This book teaches businesses how to take make use of existing services from an established technology leader. “

Bestellmöglichkeit: Amazon

Cover: