Kategorien
Management

Cloud Computing ist ein durch das Business getriebenes Konzept

Ich höre in Gesprächen oft, dass Cloud Computing ein rein technologischer Ansatz ist und dafür entwickelt wurde, Unternehmen in Zukunft zu helfen, skalierbarer, flexibler etc. zu agieren. Das ist auf der einen Seite auch richtig, allerdings vertrete ich die Meinung, dass Cloud Computing in erster Linie durch das Business und nicht durch die Technologien getrieben wird bzw. wurde. Aber warum ist das so?

Betrachten wir die Entwicklung der drei derzeitigen Player (Google, Amazon und Salesforce) im Cloud Computing Markt lässt sich daraus vieles ableiten, aber vor allem Gemeinsamkeiten erkennen, die zeigen, dass Cloud Computing ein vom Business getriebener Ansatz ist.

Wie viele vielleicht denken mögen, war Cloud Computing nicht plötzlich da. Nein, es ist historisch gewachsen! Google, wie auch Amazon hatten sich zu Beginn niemals das Ziel gesetzt: „Hey, wir machen jetzt Cloud Computing und bieten Services ‚on Demand‘ und auf Basis von ‚Pay as you go‘ über das Internet an“. Genau das machen die zahlreichen Anbieter, die derzeit auf den Cloud Computing Zug aufspringen. Nein, die Gründe von Google und Amazon sind einfacher und recht simpler Natur. Es ist jeweils ihr Kerngeschäft, was sie dazu „gezwungen“ hat, Cloud Computing Technologien zu entwickeln und zu nutzen.

Warum benötigt Google Cloud Computing?

Betrachten wir das Kerngeschäft von Google, steht hier die Suche und Indizierung des Internets im Vordergrund. Der Ausbau der Infrastruktur hat es schließlich ermöglicht, immer weitere Anwendungen zu entwickeln.

Warum benötigt Amazon Cloud Computing?

Amazons Kerngeschäft ist zunächst der Webshop und die dahinter nachgelagerten Prozesse, wie bspw. die Logistik, das Datawarehouse etc. Durch den Ausbau der Infrastruktur, abgesehen von den Amazon Web Services, können weitere ressourcen hungrige Anwendungen in das Portfolio mit aufgenommen werden.

Warum benötigt Salesforce Cloud Computing?

Nun, Salesforce ist ein wenig spezieller, da sie ihr Businessmodell von Beginn an exakt darauf ausgerichtet haben, Software as a Service, ergo einen Cloud Computing Service als Kerngeschäft anzubieten.

Gemeinsamkeiten!

Schauen wir uns die Gemeinsamkeiten (Herausforderungen) an, denen alle drei zugleich Gegenüberstehen, um ihr Kerngeschäft zu betreiben, wird deutlich warum Cloud Computing in erster Linie durch die eigentlichen Kerngeschäfte, also durch das Business, der drei Unternehmen getrieben wurde.

  • Hohe Rechenleistung
  • Hohe Performance
  • Hohe Verfügbarkeit
  • Hohe Zuverlässigkeit
  • Hohe Skalierbarkeit

Fazit!

Cloud Computing ist in erster Linie ein durch das Business getriebenes Konzept, welches durch die Kombination technologischer Entwicklungen aus den vergangenen Jahren optimal unterstützt wird.

Kategorien
News

Amazon Web Services erhalten ISO 27001 Zertifizierung

Die Amazon Web Services haben die ISO 27001 Zertifizierung erhalten. Die ISO 27001 Zertifizierung umfasst die AWS Infrastruktur, die Rechenzentren und die Services. Zu den zertifizierten Services gehören Amazon Elastic Compute Cloud (Amazon EC2), Amazon Simple Storage Service (Amazon S3) und Amazon Virtual Private Cloud (Amazon VPC).

Die ISO 27001 Norm ist ein globaler Sicherheitsstandard, der bestimmte Anforderungen an ein Information Security Management System stellt. Um die Zertifizierung zu erreichen, muss ein Unternehmen versichern, dass es über ein systematisches und kontinuierliches Konzept zur Verwaltung der sensiblen Unternehmens- und Kundendaten verfügt.

Die Amazon Web Services und alle ihre AWS Regionen sind bzgl. dieses weltweiten Sicherheitsstandards nun vollständig kompatibel und somit weltweit anerkannt. Weiterhin hat AWS ein offizielles Programm für die Aufrechterhaltung dieser Zertifizierung etabliert.

Kategorien
News

Amazon EC2 stellt Cluster GPU Instanzen vor

Mit den Cluster GPU Instanzen für Amazon EC2 führt Amazon einen neuen Instanz Typ ein, mit dem die Rechenleistung der GPU Prozessoren nun auch in der Cloud genutzt werden können. Grafikprozessoren (GPU) werden zunehmend dafür genutzt, um die Leistung von vielen alltäglichen Berechnungen zu beschleunigen. Aufgrund der einzigartigen infrastrukturellen Herausforderungen und hohen Kosten für diese Technologie, haben viele Unternehmen jedoch nicht die Möglichkeit GPUs für ihre Berechnungen zu nutzen.

Amazon Cluster GPU Instanzen verfügen über 22 GB Arbeitsspeicher, 33,5 EC2 Compute Units und nutzen das Amazon EC2 Cluster Netzwerk, welches über einen hohen Durchsatz und eine niedrige Latenz verfügt. Ideal also für High Performance Computing (HPC) und datenintensive Anwendungen.

Jede GPU Instanz verfügt über zwei NVIDIA Tesla® M2050 GPUs, die eine Spitzenleistung von mehr als eine Billion Flops mit doppelter Genauigkeit liefert. Durch die Nutzung der parallelen Rechenleistung von Hunderten von Kernen in den neuen GPU-Instanzen können dadurch viele Workloads immens beschleunigt werden. Speziell das Rendering von Graphiken und konstruktive Entwicklungen können davon stark profitieren.

Spezifikation einer Cluster GPU Instanz:

  • 22 GB Arbeitsspeicher
  • 33,5 EC2 Compute Units (2 x Intel Xeon X5570, Quad-Core “Nehalem” Architektur)
  • 2 x NVIDIA Tesla “Fermi” M2050 GPUs
  • 1690 GB Instanzspeicher
  • 64-bit Plattform
  • I/O Leistung: 10 Gigabit Ethernet
  • API Name: cg1.4xlarge

Weitere Informationen sind unter http://aws.amazon.com/ec2/hpc-applications zu finden.

Kategorien
News

Amazon S3 stellt "Multipart Upload" vor

Die Amazon Web Services haben ihren Dienst Amazon S3 um die Funktion „Multipart Upload“ erweitert. Dadurch können die Daten laut Amazon deutlich schneller und flexibler nach S3 hochgeladen werden.

Mittels „Multipart Upload“ kann ein einzelnes Objekt in Teile zerlegt werden, welche anschließend separat hochgeladen werden. Jedes Teil ist ein Bestandteil der Daten des ganzen Objektes, wobei der Upload der einzelnen Teile unabhängig und in beliebiger Reihenfolge erfolgen kann.

Sollte die Übertragung eines einzelnen Teilstück fehlschlagen, kann dieses erneut übertragen werden, ohne dabei andere Teilstücke zu beeinflussen. Nachdem alle Teilstücke übertragen wurden, befindet sich das Objekt wieder als ein vollständiges, einzelnes Objekt innerhalb von Amazon S3.

Multipart Upload verfügt über folgende Funktionen:

  • Parallele Uploads: Paralleles Hochladen mehrerer Teile eines Objekts um den Durchsatz zu verbessern.
  • Anhalten: Ein Upload kann gestartet, zwischendurch auf unbestimmte Zeit angehalten und anschließend weiter ausgeführt werden.
  • Fortfahren: Ein Upload kann fortgeführt werden, nachdem er angehalten, unterbrochen oder nur teilweise Übertragen wurde.
  • Uploads unbekannter Größe: Der Upload von Daten kann beginnen, bevor die gesamte Größe des Objekts bekannt ist.

Weiterhin wurden die AWS Java, .NET und PHP SDKs aktualisiert, um die „Multipart Upload“ Funktion zu unterstützen.

Kategorien
Kommentar

Are the Amazon Web Services the standard of the Cloud?

After the article The Amazon Web Services are the measure of all things in the Cloud Computing market! we should answer the question if the Amazon Web Services (AWS) are the standard of the Cloud as well.

The Amazon Web Services are actual and undisputed the market leader in the field of the Infrastructure as a Service (IaaS) provider and cover all segments and capabilities of Cloud Computing so far.

Due to the long-standing experience Amazon has a significant advance before all other provider in this segment. The expertise arosed by setting up a Private Cloud to fulfill the claims of their own infrastructure (scalability of the Amazon webshop etc.), from what finally the Public Cloud services (Amazon Web Services) originated.

First of all we can select from a variety of „standards“, because every provider attempt to seek his proprietary solution as a standard in the market. Therefore we cannot assume that the Amazon Web Services are the standard of the Cloud. Moreover a standard needs a certain period to become a standard.

So, what are the evidences, that the Amazon Web Services are already the standard respectively the coming standard of Cloud Computing?

A view on the current offerings of third-party suppliers in the Cloud Computing market shows that AWS has a high significance. Most of all Amazons storage service Amazon S3 is very popular. With JungleDisk, CloudBerry S3 Explorer, CloudBerry Backup or Elephant Drive are certain clients available to transfer the data from your local PC or server into the Amazon Cloud. Moreover, with S3 Curl, S3cmd or S3 Sync further open source solutions are available which implements the Amazon S3 API and can be use to store the data in the Amazon Cloud.

A further obvious evidence for the Amazon Web Services to become the Cloud Computing standard is the offering of the German Cloud Computing provider ScaleUp Technologies. They are offering a Cloud Storage, which fully implements and adopts the Amazon S3 API.

In addition, with Eucalyptus respectively the Ubuntu Enterprise Cloud „Clones“ of the Amazon Elastic Compute Cloud (EC2) are available, with them it is possible to build an own Private Cloud along the lines of EC2. With the Euca2ools you already find an adaption of the EC2 API.

If you take a look on the list of the AWS Solution Provider, you also see the current importance of AWS.

Not each AWS product has the current potential to referred as a standard. In my mind, just the Amazon Simple Storage Service (Amazon S3) as well as the Amazon Elastic Compute Cloud (Amazon EC2) can be regarded as a standard.

Based on the current offerings and adoptions you can see that S3 is widely used and recognized and it must be assumed that further third-party suppliers will jump on the bandwagon. Moreover, most of the providers will refrain from reinventing the wheel. AWS was the first provider in the IaaS Cloud Computing market and had, as a result, enough time to popularize their proprietary standards. Furthermore, the remain big providers missed to trail quick and to present their own offerings. If they wait any longer, the time will decide for AWS’s benefit.

Amazon S3 is the current defacto standard in the field of Cloud storage. Probably Amazon EC2 will trace shortly and establish oneself. If and when the remaining AWS offerings also become a defacto standard remains to be seen.

Kategorien
Management

Woran erkennt man echtes Cloud Computing?

Ich werde oft gefragt, woran man ein echtes Cloud Computing Angebot erkennt. Oft heißt es: „Hey, wir lassen unsere Datenverarbeitung von einem Dienstleister in seinem Rechenzentrum machen. Dann nutzen wir doch die Cloud, oder?“

Hm, Vorsicht! Cloud Computing wurde in letzter Zeit von den Marketingabteilungen einiger Anbieter missbraucht, wodurch eine Verwässerung des Begriffs stattgefunden hat. Was damals z.B. ein „Managed Server“ war ist nun ein „Cloud Server“. Letztendlich wurde aber nur der Aufkleber getauscht. Das wird auch als Cloudwashing bezeichnet.

Um ein echtes Cloud Computing Angebot zu identifizieren, sollte auf die folgenden Eigenschaften des Angebots geachtet werden:

  • On Demand:
    Ich beziehe die Ressourcen zu dem Zeitpunkt, wenn ich Sie auch tatsächlich benötige. Anschließend „gebe ich sie wieder zurück“.
  • Pay as you Go:
    Ich bezahle nur für die Ressourcen, die ich auch tatsächlich nutze, wenn ich sie nutze. Dabei wird entweder z.B. pro Benutzer, pro Gigabyte oder pro Minute/ Stunde abgerechnet.
  • Keine Grundgebühr:
    Bei einem Cloud Computing Angebot zahle ich keine monatliche/ jährliche Grundgebühr!
  • Hohe Verfügbarkeit:
    Wenn ich die Ressourcen benötige, kann ich sie zu diesem Zeitpunkt auch nutzen.
  • Hohe Skalierbarkeit:
    Die Ressourcen lassen sich automatisiert meinen Bedürfnissen anpassen. Das bedeutet, dass sie entweder mit meinen Ansprüchen wachsen, wenn ich mehr Leistung benötige oder sich verkleinern, wenn die Anforderungen wieder abnehmen.
  • Hohe Zuverlässigkeit:
    Die von mir genutzten Ressourcen sind zu dem Zeitpunkt wenn ich sie nutze tatsächlich verfügbar, worauf ich mich verlassen kann.
  • Blackbox:
    Ich muss mich nicht darum kümmern, wie es im Inneren des Cloud Angebots aussieht. Ich nutze einfach den Service über eine offene, gut dokumentierte Schnittstelle.
  • Automatisierung:
    Nachdem ich eine Grundeinrichtung bzgl. meiner Bedürfnisse vorgenommen habe, sind von mir keine weiteren manuellen Eingriffe während der Nutzung des Angebots notwendig. Ich muss z.B. die Leistung der Server oder die Größe des Speicherplatzes nicht manuell anpassen. Dafür werden mir Möglichkeiten zur Automation bereitgestellt.
  • Zugriff über das Internet:
    Darüber kann diskutiert werden. Allerdings ist der Kostenvorteil den man durch Cloud Computing erhält obsolet, wenn eine teure exklusive Mietleitung benötigt wird, um bspw. die Ressourcen eines Anbieters zu nutzen.
  • Keine zusätzlichen Installationen:
    Bei einem SaaS Angebot erfolgt die vollständige Nutzung über den Webbrowser ohne dabei eine weitere Softwarekomponenten wie z.B. Java (Umgebung) installieren zu müssen.
Kategorien
News

Amazon S3 reduziert die Preise für seinen Speicher

Rückwirkend zum 01. November 2010 hat Amazon S3 seine Preise für die „Standard“ und „Reduced Redundancy Storage“ Tarife in allen Regionen reduziert. Des Weiteren wurde der Schwellwert für die „volume based discounts“ von 50 auf 1 Terabyte verkleinert.

Die folgende Tabelle zeigt die preislichen Änderungen:

Alt Neu
Erste 1TB $0.150 $0.140
Nächsten 49TB $0.150 $0.125
Nächsten 50TB $0.140 $0.110
Nächsten 400TB $0.130 $0.110
Nächsten 500TB $0.105 $0.095
Nächsten 4000TB $0.080 $0.080 (keine Änderung)
Über 5000TB $0.055 $0.055 (keine Änderung)

Die Preise gelten für den Amazon S3 Standard Storage in den Regionen US-Standard, EU-West, und AP-East. Die neuen Preise für die Region US-West sowie dem „Reduced Redundancy Storage“ können auf der Amazon S3 Webseite nachgelesen werden.

Kategorien
News

openQRM integriert Ubuntu Enterprise Cloud, Amazon EC2 und Eucalyptus

Gesponsert durch die openQRM Enterprise, veröffentlicht das openQRM project ein neues Plugin, das Hybrid Cloud Computing ermöglicht.

Mit dem Plugin erhalten openQRM Nutzer nun die Möglichkeit, ihre selbst verwalteten Systeme transparent und vollautomatisiert zwischen Private und Public Clouds zu migrieren. Das Importieren bereits vorhandener Cloud Instanzen aus der Ubuntu Enterprise Cloud (UEC), Amazon EC2 oder Eucalyptus kann damit ohne großen Aufwand erfolgen. Dasselbe gilt ebenso für den Export der Systeme aus der openQRM Cloud heraus. Cloud Transparenz! Über die graphische Web Oberfläche können alle dafür benötigten Schritte der Migration durchgeführt werden. Damit können dem eigenen Rechenzentrum nach Bedarf externe Ressourcen von Public Cloud Anbietern hinzugefügt werden.

Durch die Nutzung einer agilen Privat zu Public oder Public zu Private Migration, kann damit kontrolliert werden, welche Daten und Dienste in einem sicheren Bereich bereitgestellt werden sollen. Somit können sensible Systeme innerhalb des eigenen Rechenzentrums betrieben und alle weiteren ressourcenintensiven Systeme zu Cloud Anbietern verlagert werden.

Ein Überblick über die neuen Funktionen zeigt das Video am Ende dieses Artikels.

Für alle die einen tieferen Einblick in eine Hybrid Cloud Lösung haben möchten, stellt openQRM Enterprise ein detailliert beschriebenes How to auf ihren Webseiten zur Verfügung. Dieses kann hier heruntergeladen werden.

Das Plugin steht bereits auf der Seite des openQRM project unter http://sourceforge.net/projects/openqrm zum Download bereit.

Kategorien
Events

29.11.2010 – nicht verpassen! AWS User Group Treffen in Hamburg!

Es ist wieder soweit. Das nächste Treffen der lokalen Amazon Web Services User Group Hamburg steht kurz bevor. Dieses Mal wird es weihnachtlich und die Veranstalter hoffen, dass sie noch vor dem engen Terminplan aller ITler in der Vorweihnachtszeit liegen. Neben interessanten Themen und Gesprächen wird es anscheinende auch kleine Überraschungen geben, wie zu Weihnachten üblich. Was, das wurde bisher aber noch nicht verraten! Für das leibliche Wohlergehen ist ebenfalls gesorgt.

Alle wichtigen Details im Überblick:

Veranstaltungstermin:

    Montag, 29.11.2010
    Beginn: 18.30 Uhr

Veranstaltungsort:

    Sinnerschrader AG
    Völckersstraße 38
    22765 Hamburg

Alle weitere Informationen und das Anmeldeformular sind auf der Webseite http://awsug.de bzw. direkt unter Es wird weihnachtlich . . . zu finden.

Kategorien
Services Tutorials

Erste Schritte mit der domainFACTORY “JiffyBox”

Nach der Vorstellung und weiteren Hintergrundinformationen zur domainFACTORY “JiffyBox”, gibt dieses Tutorial einen Einblick in das Innere. Dazu habe ich von der domainFACTORY GmbH einen kostenlosen Testzugang erhalten, für den ich mich auf diesem Wege bedanken möchte!

Erstellen einer JiffyBox

Zunächst melden wir uns dazu unter https://admin.jiffybox.de mit einem gültigen Benutzernamen und Passwort an, die wir unter https://www.jiffybox.de beantragen können.

Nach einer erfolgreichen Anmeldung werden wir im Control Panel begrüßt, wo wir im ersten Schritt mittels „Jetzt Trial-Server bestellen“ einen kostenlosen Test der JiffyBox vornehmen können oder uns über „Neue JiffyBox erstellen“ eine neue JiffyBox erzeugen. Wir wählen hier den zweiten Schritt.

Wir geben der neuen JiffyBox einen Namen, wählen einen Tarif, hier „CloudLevel 1 – mit 1 GB Arbeitsspeicher und 50 GB Festplatte für 0,02 € / Stunde“ und eine Linux Distribution, hier „Ubuntu 10.04 LTS“. Würden wir bereits über eine JiffyBox verfügen, hätten wir als Distribution ebenfalls ein Backup als Quelle angeben können.

Unter dem Punkt „Erweitert“ können wir der JiffyBox ein selbst gewähltes Root Passwort zuweisen. Anschließend wählen wir „Erstellen“.

Die JiffyBox wird nun automatisch im Hintergrund erzeugt. Statusinformationen zeigen dabei den aktuellen Vorgang!

Zurück im „Control Panel“ sehen wir die erzeugte JiffyBox und können nun mittels „Konfigurieren“ weitere Einstellungen vornehmen, die JiffyBox „Starten“, „Einfrieren“ oder wieder vollständig „Löschen“.

Hinter dem Menüpunkt „Voreinstellungen“ verbirgt sich das Schlüsselmanagement, wo wir mehrere SSH-Public-Keys eintragen können.

Über den Punkt „Alle Meldungen“ gelangen wir in den Statusbereich. Hier erhalten wir detailliert alle Informationen zu allen Vorgängen innerhalb unseres Accounts.

Weitere Informationen

Über den Menüpunkt „Account“ gelangen wir direkt zu den Stammdaten.

Weiterhin können wir über „Kundenservice“ direkt elektronischen Kontakt zu dem domainFACTORY Support aufnehmen und erhalten einen historischen Überblick über alle bisherigen Anfragen.

Wir können zusätzlich über den Menüpunkt „Passwörter“, unsere Passwörter für das JiffyBox Control Panel und dem Telefon Support eigenständig ändern. Zudem erhalten wir einen Überblick über alle bisher gestellten Rechnungen durch domainFACTORY über den Punkt „Rechnungen“.

Der Menüpunkt „Verbräuche“ gibt einen genauen Überblick zu den bisher entstandenen Kosten zu allen JiffyBoxen und dem verbrauchten Traffic.

Weiterhin erhalten wir einen detaillierten Überblick über die Nutzung jeder einzelnen, in unserem Account vorhandenen, JiffyBox.

Sowie vom derzeit verbrauchten Traffic.

Ein weiteres interessantes Feature ist die Möglichkeit zur Begrenzung der Kosten. Hier kann ein Betrag (in EUR) als Obergrenze eingetragen werden und die Folgeaktion, die stattfinden soll, wenn der Betrag erreicht wird.

Um die JiffyBox über Skripte zu steuern, haben wir über den Menüpunkt „API-Zugriff“ die Möglichkeit, einen API-Token zu erzeugen. Weitere Informationen für die Nutzung der API sind in der PDF-Datei „JiffyBox-API“ zu finden.

Arbeiten mit der JiffyBox

Zurück im Control Panel wollen wir nun ein Blick hinter die Konfigurationsmöglichkeiten einer JiffyBox werfen. Wie wir sehen werden, stehen uns dazu viele Möglichkeiten zur Verfügung. Wir wählen dazu unter „Ihre JiffyBoxen“ die Aktion „Konfigurieren“.

Wir erhalten zunächst einen Überblick zu allen notwendigen Informationen, wie der aktuellen IP-Adresse und dem aktuellen Hostnamen, dem genutzten Tarif, dem verfügbaren Arbeitsspeicher und der Festplattengröße, sowie der für diese JiffyBox verwendeten Linux Distribution.

Über „Profile und Festplatten“ können wir weitere Konfigurationen am System, der Festplattengröße und deren Zuordnung vornehmen.

Hinter „Netzwerk“ verbergen sich weitere Informationen zu den IP und DNS Informationen. Hier haben wir die Möglichkeit den „Reverse-DNS“ Namen zu ändern und eine weitere IP-Adresse zu bestellen.

Von jeder JiffyBox werden automatisch tägliche Backups erstellt. Dennoch haben wir die Option über den Menüpunkt „Backups“ ein manuelles Backup zu starten, bzw. eigene Backup Pläne zu erstellen.

Über „Konsole und Recovery“ steht uns der Zugriff mittels einer Web-Konsole und per SSH-Konsole zur Verfügung. Weiterhin kann ein Recovery-System aktiviert werden, um die JiffyBox im Notfallmodus zu starten.

Um die JiffyBox nun zu nutzen, wählen wir im Control Panel unter „Ihre JiffyBoxen“ lediglich „Starten“.

Mittels eines SSH-Clients, hier Putty, verbinden wir uns mit der JiffyBox. Die dazu benötigte IP-Adresse bzw. den DNS-Namen erhalten wir unter dem Menüpunkt „Netzwerk“ in dem Konfigurationsbereich der JiffyBox.

Anschließend melden wir uns mit dem Benutzer „root“ und dem von uns bei dem Erstellen der JiffyBox unter „Erweitert“ gewählten Passwort an.

Damit sind wir mit unserer ersten eigenen JiffyBox verbunden.

Um die JiffyBox wieder zu beenden, wählen wir im Control Panel für die entsprechende JiffyBox „Stoppen“.

Und dann „Herunterfahren“.

Die JiffyBox wird anschließend automatisch heruntergefahren. Eine Statusmeldung informiert uns über den erfolgreichen Vorgang.

Die JiffyBox kann anschließend wieder angepasst, gestartet, eingefriert oder gelöscht werden.

Die Verbrauchsanzeige informiert uns darüber, dass für eine Gesamtdauer von 1:33:36 Stunden bisher 0,03 EUR entstanden sind.