Kategorien
Kommentar

Der Himmel weint. Nicht! Public Cloud Ausfälle sind nun einmal öffentlich.

Die Cloud der Amazon Web Services (AWS) hatte am Ende der letzten Woche, genauer am Abend des 14. Juni zu US-amerikanischer Zeit, erneut mit Problemen zu kämpfen. Nach Angaben von AWS handelte es sich dabei um ein defektes Stromkabel eines Hochspannungsverteilers im Rechenzentrum in North Virginia.

Nicht der erste Ausfall

Zwar habe die Notstromversorgung zunächst funktioniert, jedoch habe sich dann der erste Generator überhitzt. Der zweite Generator übernahm zwar kurzzeitig, fiel aber ebenfalls wegen eines Konfigurationsfehlers an einem Schalter aus. Dadurch waren sämtliche Amazon EC2 Services und die EBS-Volumes nicht mehr mit Strom versorgt und vielen aus.

Es ist nicht der erste Ausfall von AWS. In den letzten 1,5 Jahren hat der Cloud Anbieter bereits drei Stück zu verzeichnen. Der erste war auf einen manuellen Fehler durch eine fehlerhafte Routerkonfiguration zurückzuführen, der zu einer Kaskade von Fehlern führte. Der zweite kurzzeitige Ausfall, über den in den deutschen Medien nicht berichtet wurde, lag an einer defekten Datenleitung, die das Rechenzentrum US-EAST-1 mit dem Internet verbindet.

Fragt mal euren Admin

Ich möchte diesen erneuten Ausfall auf keinen Fall kleinreden. Amazon ist Serviceanbieter und muss sicherstellen, dass das Angebot zuverlässig genutzt werden kann. Natürlich ruft so eine Situation wieder die Kritiker an die Front. Cloud sei unsicher und doch nicht zu gebrauchen und damals war ja eh alles besser und wenn man es selbst macht passiert so etwas nicht.

Liebe Kritiker, fragt mal euren Admin wie oft es Ausfälle im Rechenzentrum eures Unternehmens gibt. Oder besser, fragt ihn mal wie oft die Backupsysteme getestet werden. Die Antwort zur ersten Frage: Häufiger als ihr denkt. Die Antwort zur zweiten Frage: Niemals, denn um solche Szenarien duchzuspielen bedarf es Zeit. Ich bin mir sehr sicher, das Amazon regelmäßig Fehlersituation durchspielt. Aber ein fehlerhaftes Kabel? Ok, die Kaskade an Fehlern, die während zwei Ausfällen aufgetreten sind ist wirklich seltsam. Wenn es zu einem Problem kommt, dann halt richtig…

Dennoch, Amazon leistet wirklich sehr gute Pionierarbeit. Meiner Ansicht nach gehören sie derzeit zum besten was die Cloud Computing Welt zu bieten hat. AWS legt vor und die anderen Anbieter ziehen nach. So sieht es momentan aus.

Public bedeutet nun einmal öffentlich

Natürlich sind solche Fehler nicht zu entschuldigen und schaden das Ansehen des Cloud Computing. Allerdings stehen Public Cloud Anbieter nun einmal in der Öffentlichkeit. Wenn Microsoft mit Windows ein Problem hat, wird es in den Medien ebenfalls breitgetreten. Ein Anbieter mit einem eher unbekannten Produkt bleibt da unbeachtet.

Daher sollte man sich immer vor Augen halten, was tagtäglich in den weltweit verteilten Rechenzentren passiert, insbesondere in denen, die von privaten Firmen betrieben werden. Kommt sowas an die Öffentlichtkeit? Natürlich nicht, weil es niemanden interessiert. Daher meine Bitte, wenn ein Ausfall zu beklagen ist, stellt nicht immer gleich das gesamte Cloud Computing Konzept in Frage, sondern stellt euch lieber die Frage, wie es gerade im RZ eures Unternehmens vielleicht aussieht.

Ich würde gerne mal eine Studie über die Ausfälle von privat betrieben Rechenzentren erstellen, um einen Vergleich zu Public Cloud Rechenzentren zu haben. Allerdings glaube ich, dass die Datenerhebung sich äußerst schwierig herausstellen wird.


Bildquelle: http://tecbiz.blogspot.com

Kategorien
News

Erneute Probleme in der Amazon Cloud – Ausfall bei den Amazon Web Services in North Virginia

Wie GigaOm berichtet, hatten die Amazon Web Services am Donnerstag wieder mit einem Ausfall zu kämpfen, von dem Webseiten und Services wie Quora und HipChat betroffen waren. Zudem soll der Ausfall auch Heroku, einem Ableger von Salesforce, getroffen haben.

Amazon gehört zu den größten Infrastruktur Anbietern von vielen bekannten und mittlerweile sehr populären Services wie Pinterest und Dropbox. Von dem Ausfall waren die AWS Services Amazon EC2 und Amazon RDS betroffen, der in Amazons Rechenzentrum in North Virginia aufgetreten ist. Weitere Services wie ElastiCache und Elastic Beanstalk hatten in North Virginia ebenfalls mit Problemen zu kämpfen. Der Ausfall ist scheinbar auf einen Stromausfall zurückzuführen.

Folgende Informationen konnten über die AWS Status Webseite abgerufen werden:

Amazon EC2

We continue to investigate this issue. We can confirm that there is both impact to volumes and instances in a single AZ in US-EAST-1 Region. We are also experiencing increased error rates and latencies on the EC2 APIs in the US-EAST-1 Region.

9:55 PM PDT We have identified the issue and are currently working to bring effected instances and volumes in the impacted Availability Zone back online. We continue to see increased API error rates and latencies in the US-East-1 Region.

Amazon RDS

9:33 PM PDT Some RDS DB Instances in a single AZ are currently unavailable. We are also experiencing increased error rates and latencies on the RDS APIs in the US-EAST-1 Region. We are investigating the issue.
10:05 PM PDT We have identified the issue and are currently working to bring the Availability Zone back online. At this time no Multi-AZ instances are unavailable.
00:11 AM PDT As a result of the power outage tonight in the US-EAST-1 region, some EBS volumes may have inconsistent data.
01:38 AM PDT Almost all affected EBS volumes have been brought back online. Customers should check the status of their volumes in the console. We are still seeing increased latencies and errors in registering instances with ELBs.

GigaOm hat ebenfalls ein paar Tweets herausgesucht:

Mein Lieblingstweet ist übrigens dieser, der perfekt zu meinem kürzlich verfassten Artikel „Amazon Web Services – Das Mekka der Startups! Aber reicht das wirklich aus?“ passt und meine Ansicht bestätigt:

Nicht der erste Ausfall in der Geschichte der Amazon Web Services

Dieser Ausfall ist nicht der Erste in der Geschichte der Amazon Web Services. Erinnern wir uns an Ostern 2011 und einem kurzen Ausfall im März 2012. Ihre solltet also aus solchen Situationen lernen und nicht alle Eier in ein Nest legen, sondern die kritischen Daten breit verteilen. Am besten über mehrere Anbieter hinweg.

Dennoch stehe ich weiter hinter meiner Aussage, dass solche Ausfälle nur so extrem an die Öffentlichkeit geraten, da Cloud Anbieter nun einmal in der Öffentlichkeit stehen und Millionen von Augen ausgesetzt sind. Wie viele privat betriebene Rechenzentren haben wohl heute ein Problem gehabt, was meint ihr?


Bildquelle: http://www.loggly.com

Kategorien
News

Die Amazon Web Services überarbeiten ihre Support Angebote

Nachdem mit HP und Oracle nun zwei große der Branche ebenfalls beim Cloud Computing mitspielen, haben die Amazon Web Services (AWs) ihre Support Angebote überarbeitet. AWS hat entsprechend die Preise für seinen Premium Support verringert und wird seinen Gratis Support ausweiten.

Neben den Startups versucht Amazon seit längerer Zeit vehement auch einen Fuß bei den Enterprise Kunden in die Tür zu bekommen. Allerdings haben etablierte Anbieter wie HP und Oracle bereits mehr Erfahrung im Support für Unternehmenskunden und werden das als ein Unterscheidungsmerkmal zu Amazon sehen und bewerben. Kein Wunder also, das AWS hier nachziehen muss.

Die neuen AWS Support Angebote gliedern sich in Zukunft wie folgt:

  • Basic: Kostenloser 24×7 Support für alle AWS Kunden. Das beinhaltet Kontakt zum Kundenservice bzgl. Problemen mit dem Account und der Abrechnung sowie einem technischem Support für Probleme des AWS Systems. Darüber hinaus stehen mit technischen FAQs, Best Practise Guidelines und dem AWS Service Health Dashboard, ebenfalls die offiziellen AWS Entwickler Foren offen.
  • Developer: Ist vergleichbar mit einem Bronze Support und bietet für 49 US-Dollar pro Monat einen 1:1 E-Mail Kontakt mit Experten von AWS während der normalen Geschäftszeiten. Dazu gehören die Hilfe bei der Konfiguration, dem Betrieb und der Wartung von Applikationen, welche die Kernfunktionen- und Services von AWS nutzen.
  • Business: Nannte sich vormals Gold Support und beinhaltet den Basic und Developer Support. Hinzukommen ein 24/7 Telefon-, E-Mail und Chat-Support inkl. einer Reaktionszeit von einer Stunde sowie die Unterstützung durch einen AWS Trusted Advisor, der für die Überwachung zuständig ist und bei einem optimalem Betrieb hilft. Der Support deckt zudem die Lösungen von Drittanbietern wie E-Mail- und Datenbanklösungen ab. Die Kosten betragen ab sofort 100 US-Dollar pro Monat (vormals 400 US-Dollar) plus 3%-10% von den monatlichen Kosten für die Nutzung der AWS Infrastruktur.
  • Enterprise: Nannte sich zuvor Platinum Support und wird nun pro Nutzung abgerechnet. AWS garantiert hier eine Reaktionszeit von 15 Minuten nach Eingang des Problems, einen persönlichen technischen Ansprechpartner sowie Zugang zu AWS Architekten und Beratern.

Die neue Kostenstruktur für den AWS Support

Die Amazon Web Services überarbeiten ihre Support Angebote


Bildquelle: http://www.activegarage.com/

Kategorien
News

Amazon S3 erreicht 1 Billion gespeicherte Objekte

Die Grenze ist geknackt. Seit dem Ende der letzten Woche sind über eine Billion Objekte (1.000,000,000,000) im Cloud Storage Amazon S3 gespeichert. Jeff Barr vergleicht die Zahl mit etwa 142 Objekte die damit auf jedem Erdbewohner anfallen würden, oder 3,3 Objekte für jeden Stern in unserer Galaxie. Würde man ein Objekt pro Sekunde zählen, wäre man damit 31.710 Jahre beschäft alle zu zählen. Beeindruckend!

Amazon S3 erreicht 1 Billion gespeicherte Objekte

1 Billion Objekte entstehen nicht von alleine

Verantwortlich für diese atemberaubende Zahl, Amazon S3 existiert erst seit 6 Jahren, sind natürlich die Kunden. Trotz neuer Funktionen wie Amazon S3 – Object Expiration, mit der einzelne Objekte quasi ein Verfallsdatum erhalten, und wodurch bereits über 125 Milliarden Objekte gelöscht wurden, hat die Datenmenge explosionsartig zugenommen.

Natürlich entstehen solche Datenmengen nicht von alleine und Amazon trägt mit neue Funktionen wie bspw. dem API Zugriff auf die Abrechnungsdaten sein übliches dazu bei, dass immer mehr Daten gespeichert werden müssen. Dennoch ist diese hohe Frequenz nicht verwunderlich. Amazon S3 ist nun einmal der Dreh und Angelpunkt in der Amazon Cloud, wenn es darum geht „irgendetwas“ permanent zu speichern.


Bildquelle: http://www.businesscomputingworld.co.uk

Kategorien
News

AWS Identity and Access Management (IAM) Rollen für EC2 Instanzen

Amazon erweitert seinen AWS Identity and Access Management (IAM) Service um Rollen für Amazon EC2 Instanzen. Das schreibt das Unternehmen auf seinem Blog. Die neue Funktion ermöglicht den sicheren API-Zugriff von Amazon EC2 Instanzen auf andere AWS Services.

Bisher mussten die Access Keys in irgendeiner Form sicher auf die EC2 Instanzen transportiert und dort hinterlegt werden. Das stellt insbesondere beim Aufbau großer skalierbarer Infrastrukturen eine Herausforderungen dar. Zudem muss sichergestellt werden, dass sich die Schlüssel regelmäßig ändern. Die neuen IAM Rollen für EC2 Instanzen kümmern sich ab sofort automatisch um beides. Dazu wird eine IAM Rolle erstellt und diese den entsprechenden Berechtigungen zugewiesen. Die EC2 Instanzen müssen anschließend mit dieser Rolle gestartet werden. Anschließend sorgt das System dafür, das die jeweiligen Access Keys mit den vorher zugewiesenen Berechtigungen auf den EC2 Instanzen hinterlegt sind.

IAM Rollen für EC2 Instanzen können mit folgenden Ressourcen genutzt werden:

  • Alle EC2 Instanten
  • Linux und Windows Instanzen
  • Alle AMIs
  • Amazon VPC
  • Spot und Reserved Instances
  • Regionen: Nordamerika, Südamerika, Europa, Asien/Pazifik

Das Rollenkonzept wurde ebenfalls in die Services Auto Scaling und AWS CloudFormation integriert, wodurch auch diese nun EC2 Instanzen inkl. IAM starten können. Die Unterstützung für AWS GovCloud wird demnächst folgen.


Bildquelle: http://www.busmanagement.com

Kategorien
News

Amazon Spot Instanzen unterstützen nun Auto Scaling und CloudFormation

Die Amazon EC2 Spot Instances können nun auch zusammen mit dem Auto Scaling und der AWS CloudFormation genutzt werden. Das schreibt AWS auf seinem Unternehmensblog. Weiterhin stehen neue Code Beispiele bereit, mit denen gezeigt wird, wie die Amazon SNS genutzt werden können, um sich über Änderungen an den Spot Instance Preisen informieren zu lassen.

Amazon Spot Instances unterstützen nun Auto Scaling und CloudFormation

Auto Scaling mit Spot Instances

Anhand der Auto Scaling Funktion lässt sich jetzt auch die Anzahl der EC2 Spot Instances bei Bedarf automatisch skalieren. Mit Spot Instances bietet ein Kunde auf ungenutzte Amazon EC2 Kapazitäten. Dazu teilt man Amazon mit, welche EC2 Instanz man gerne haben möchte und was man bereit ist dafür zu bezahlen. Anhand von Angebot und Nachfrage wird ein Spot-Preis ermittelt.

AWS CloudFormation mit Spot Instances

EC2 Spot Instances lassen sich zudem nun auch über AWS CloudFormation Templates bereitstellen. Dazu stellt AWS entsprechend drei neue CloudFormation Templates zur Verfügung, um den Einstieg zu vereinfachen. Diese Templates beinhalten bspw. ein Template für die Verwaltung der asynchronen Verarbeitung mit Amazon SQS und Auto Scaling, ein Template für den Lasttest von Webseiten zusammen mit „Bees with Machine Guns“ und Auto Scaling sowie einem Template für das Grid Computing in Verbindung mit StarCluster.

Neue Code Beispiele für Amazon SNS

Mit einem neuen Code Beispiel werden zudem nun Möglichkeiten gezeigt, wie man Amazon SNS Benachrichtigungen erstellen und verwalten kann, wenn sich der Status von Amazon EC2 Spot Instanzen oder der Preis von Spot Instanzen in einer bestimmten Region ändert.

Kategorien
News

AWS ermöglicht ab sofort API Zugriff auf die Abrechnungsdaten

Fast kein Tag, an dem bei den Amazon Web Services (AWS) nichts passiert. Der Innovationsgrad ist erschreckend hoch. Da lohnt sich ja fast ein eigener AWS Blog. 😉 Mit der neuesten Funktion bietet Amazon nun den programmatischen Zugriff via API auf die Abrechnungsdaten.

AWS ermöglicht ab sofort API Zugriff auf die Abrechnungsdaten

Dafür muss dem AWS Billing System zunächst der Schreibzugriff auf einen Amazon S3 Bucket (Ordner) gegeben werden. Anschließend muss der programmatische Zugriff hier freigeschaltet werden.

Ist die Einrichtung erfolgt, legt Amazon mehrmals täglich eine Rechnung mit den voraussichtlichen Kosten in den angegeben S3 Bucket ab, wo diese heruntergeladen und weiterverarbeitet werden können. Am Ende einer jeden Abrechnungsperiode wird dort zudem die endgültige Rechnung bereitgestellt.

Folgende Parameter können aus den Abrechnungsdaten abgefragt werden. Detaillierte Informationen stehen hier:

  • Invoice ID
  • Payer Account Name and ID
  • Linked Account Name and ID (for Consolidated Billing)
  • Record Type
  • Record ID
  • Billing Period Start and End Dates
  • Invoice Date
  • Taxation Address
  • Payer Purchase Order Number
  • Product Code
  • Product Name
  • Seller of Record
  • Usage Type
  • Operation
  • Rate ID
  • Item Description
  • Usage Start and Usage End Date and Time
  • Usage Quantity
  • Blended Rate (for Consolidated Billing)
  • Currency Code
  • Cost Before Tax
  • Credits
  • Tax Amount
  • Tax Type
  • Total Cost

Die meisten der oben genannten Parameter ergeben nur im Zusammenhang mit dem Consolidated Billing einen Sinn. Kurzum kann ein AWS Kunde damit mehrere AWS Accounts unter einer einzigen Rechnung zusammenfassen.

Die erzeugten Dokumente können in einem beliebigen S3 Bucket gespeichert werden. Man sollte sich jedoch bewusst machen, dass man als Kunde selbst für die dadurch entstehenden Kosten des genutzten Speicherplatz zahlt. Nach der Weiterverarbeitung können diese Daten aber natürlich wieder gelöscht werden.

Kategorien
Analysen

Amazon Web Services – Das Mekka der Startups! Aber reicht das wirklich aus?

Die Amazon Web Services sind insbesondere bei Startups sehr beliebt. Der unkomplizierte Zugriff auf Infrastruktur Ressourcen haben es Unternehmen wie Pinterest ermöglicht, innerhalb kürzester Zeit einen fullminanten Start hinzulegen und ohne große Investitionen in eigene Infrastruktur zu wachsen. So sagt Pinterest sogar von sich selbst, dass sie ohne AWS nicht so darstehen würden wie heute. Jedoch lässt sich das große Geld bei den großen Unternehmen verdienen. Dafür hat Amazon in den vergangenen Wochen und Monaten einige strategische Entscheidungen in diese Richtung getroffen. Aber ist das Unternehmen überhaupt in der Lage mit seinem Public Cloud Angebot im lukrativen Markt für Geschäftskunden mitzuspielen oder bleiben sie eine reine Anlaufstelle für Startups?

Die Referenzen von Amazon sind beeindruckend

Ein Blick auf die Referenzen der Amazon Web Services beeindruckt. Im Laufe der Jahre sind auf der Public Cloud Infrastruktur eine Vielzahl von bekannten und in der Internetwelt hochgelobte Angebote entstanden. Zusätzlich hat sich um die AWS Solution Provider ein Ökosystem gebildet, die mit Clients, Add-On Services und Consulting die Amazon Cloud erweitern. Der jüngste Geniestreich im Ökosystem war die Veröffentlichung des AWS Marketplace, über den Anbieter und Kunden SaaS Anwendungen auf Basis des Pay per use anbieten und beziehen können.

Startups sind undankbar

Aber in dieser so scheinbar perfekten Welt gibt es auch Dinge zu hinterfragen. So wirbt Amazon auf seinen Veranstaltungen und in sonstigen Vorträgen vehement um die Aufmerksamkeit der Startups. Mit einem guten Grund. Wie ich eingangs geschrieben habe, erhalten Startups bei Amazon schließlich auch sehr unkompliziert die Ressourcen die sie benötigen. Aber lässt sich nur mit Startups wirklich viel Geld verdienen? Frank Sempert von Saugatuck Technology ist bspw. der Meinung, dass Amazon mit seinem Cloud Geschäft derzeit nicht viel verdient. Vielmehr geht er von Gewinnmargen im einstelligen Bereich aus und schätzt, dass Amazon frühestens ab dem Jahr 2015 höhere Margen zwischen 20 und 30 Prozent einfahren wird.

Ein weiterer Punkt: Startups sind undankbar! Ein Beispiel ist Zynga. Nachdem das Unternehmen in der AWS Cloud wachsen konnte, haben sie Amazon den Rücken gekehrt und sind in die eigene Private Cloud geflüchtet. So wird es in Zukunft auch mit anderen Kunden weitergehen. Denn die Amazon Cloud ist für junge Unternehmen ideal um zu wachsen und dabei auszutesten, wann sich das Wachstum bis zu einem gewissen Grad einstellt. Nachdem sich ein Maximum eingestellt hat, werden viele merken, dass eine On-Premise Lösung vielleicht doch die bessere und kostengünstigere Variante ist. Wenn der Kuchen also eine gewisse Größe erreicht hat, wird Amazon in vielen Fällen nicht davon kosten dürfen.

Auf ins Big Business

Das Ziel muss also darin bestehen, ebenfalls etablierte Unternehmen mit ins Kundenportfolio zu bekommen. Ein Blick auf die Referenzenliste zeigt nämlich nicht viele große und etablierte Kunden, was natürlich daran liegen kann, dass diese nicht kommuniziert werden möchten. Das hat Amazon aber bemerkt und ist seit Monaten weltweit auf der Suche nach neuen Mitarbeitern. Zudem bietet das Unternehmen ebenfalls einen Premium Support.

Allerdings ergibt sich für AWS hier ein Problem. Unternehmen setzen vermehrt auf das Cloud Computing. Allerdings zieht es die meisten in die Private Cloud, wobei weniger auf die Kosten und mehr auf das Thema Agilität geachtet wird. Public Clouds werden, auf Grund des Datenschutzes und eines möglichen Lock-in, der bspw. mit Services wie DynamoDB oder dem Amazon Simple Workflow auf jedenfall gegeben ist, eher abgelehnt.

Die Public Cloud wird in Zukunft daher nicht das Maß aller Dinge sein. Sie diente eher als aha Effekt bzw. Referenz für Unternehmen, um zu sehen, was Cloud Computing für Möglichkeiten bietet. Einen ersten richtigen Schritt hat Amazon daher mit der Eucalyptus Kooperation gemacht. Die Zusammenarbeit wird für Amazon der notwendige Türöffner sein, um auf Basis einer Hybrid Cloud attraktive Unternehmen anzusprechen und entsprechende Workloads oder Anwendungen in einem hybriden Modell zu betreiben.

Fazit

Die Amazon Web Services müssen den Sprung ins Big Business schaffen, denn nur mit Startups lässt sich kein Geld verdienen. Ich lasse mich natürlich gerne vom Gegenteil überzeugen, allerdings verhält sich Amazon hier sehr verschlossen und schlüsselt die Zahlen für die Amazon Web Services nicht detailliert auf.

Die aktuelle Entwicklung zeigt, dass sich das Cloud Computing bei etablierten Unternehmen mehr in die Richtung der Private Cloud orientieren wird. Ein erster strategischer Schritt war daher die Kooperation mit Eucalyptus Cloud, um den Hybrid Cloud Gedanken zu vertiefen, der mit dem VPC Service (Virtual Private Cloud) bereits seit längerem existiert. Es ist schwierig zu sagen, ob das allerdings reichen wird. Da es sich bei den Amazon Web Services jedoch um ein reines Service Unternehmen und kein Software Unternehmen handelt, werden sie den Schritt in ein reines Private Cloud Angebot nicht wagen (können). Selbst die Akquisition von Eucalyptus wäre zwar früher oder später vorstellbar, jedoch würde sich Amazon damit die Probleme eines Software Unternehmens ins Haus holen, indem sie dann auch für den Support der On-Premise Software, Upgrades, Bugfixes usw. zuständig wären.

Die Public Cloud ist für (etablierte) Unternehmen natürlich nicht vollständig uninteresant, dennoch prüfen sie, welche Daten in die Public Cloud ausgelagert werden. Denn wie habe ich vor längerer Zeit schon einmal geschrieben: „Am Ende zählt der Use Case.


Bildquelle (von mir modifiziert): http://badische-zeitung.de

Kategorien
News

AWS veröffentlicht VM Export Service für Amazon EC2

Mit dem AWS VM Import Service ermöglichen die Amazon Web Service den Import unterschiedlicher Virtual Machine Formate nach Amazon EC2, um damit virtualisierte On-Premise Ressourcen in die Amazon Cloud zu migrieren. Wie Jeff Barr auf dem Unternehmensblog berichtet, wurde der Service nun so erweitert, um virtuelle Maschinen von Amazon EC2 in die eigene On-Premise Umgebung zu exportieren.

AWS veröffentlicht VM Export Service für Amazon EC2

Diese Funktion steht mit der neuesten Version der EC2 command line (API) Tools bereit. Ein Export könnte bspw. so aussehen:

ec2-create-instance-export-task –e vmware -b NAME-OF-S3-BUCKET INSTANCE-ID

Hier wird die Instanz ID und der Name eines S3 Buckets benötigt, in dem die exportierte VM gespeichert wird.

Mit dem Befehl ec2-describe-export-tasks kann der Export Prozess überwacht und mit ec2-cancel-export-task gestoppt werden.

Ist der Exportvorgang abgeschlossen, muss das exportierte Image lediglich in die lokale On-Premise Umgebung heruntergeladen werden.

Der Service unterstützt derzeit den Export von Windows Server 2003 (R2) und Windows Server 2008 EC2 Instanzen in das VMware ESX kompatible VMDK Format sowie nach Microsoft Hyper-V VHD oder Citrix Xen VHD Images. Zudem plant AWS in Zukunft weitere Betriebssysteme, Image Formate und Virtualisierungstechnologien zu unterstützen.

Kategorien
News

BigQuery: Big Data Analyse mit Google

Google BigQuery, ein Cloud basierter Service für die Analyse sehr großer Datenmengen, kann nach einer geschlossenen Testphase mittlerweile von allen genutzt werden.

BigQuery ist ein Online Analytical Processing (OLAP) System, um Datensätze mit Milliarden von Zeilen und Terabytes an Daten zu verarbeiten und zielt auf Unternehmen und Entwickler in Unternehmen ab, die mit riesigen Datenmengen (Big Data) balancieren müssen.

BigQuery kann auf unterschiedliche Arten genutzt werden. Entweder mit einer Web-Oberfläche, einer REST API oder via Kommandozeile. Die Daten können zur Verarbeitung per CSV Format auf die Google Server hochgeladen werden.

Die Preise orientieren sich an der Menge der gespeicherten Daten und der Anzahl der Anfragen. Für den Speicherplatz berechnet Google 0,12 Dollar pro GB pro Monat bis zu einer maximalen Speichermenge von 2TB. Für die Anfragen werden 0,035 Dollar pro verarbeitetes GB berechnet. Die Limits liegen hier bei 1000 Anfragen pro Tag sowie 20TB zu verarbeitende Daten pro Tag. Für die ersten 100GB an verarbeitenden Daten pro Monat entstehen keine Kosten. Weitere Informationen stehen hier.

BigQuery ist nicht für die OLTP (Online Transaction Processing) Verarbeitung geeignet. Genauso wenig können Änderungen an den auf BigQuery gespeicherten Daten vorgenommen werden. Unternehmen, die eher eine klassische relationale Datenbank für OLTP benötigen, empfiehlt Google seine Cloud basierte Datenbank Google Cloud SQL, welche die volle SQL-Syntax unterstützt.

Mit seiner Portfolio Erweiterung um BigQuery präsentiert Google einen weiteren Service in dem mittlerweile stark umkämpften Markt von Cloud basierten Produkten für Unternehmen, in dem sich bereits namhafte Unternehmen wie Amazon, Oracle, IBM, Microsoft und viele weitere tummeln.