Kategorien
News

Bitdefender Security for Virtualized Environments steht im AWS Marketplace bereit

Ab sofort stellt der Anti-Malware-Bekämpfer Bitdefender seine Lösung „Security for Virtualized Environments“ (SVE) auf dem Amazon Web Services (AWS) Marketplace bereit. Auf der Plattform können sich Kunden Software und Services ansehen, vergleichen und bei Bedarf sofort buchen, um sie umgehend für den Geschäftsbetrieb einzusetzen. Auf diese Weise haben Unternehmen nun die Möglichkeit, SVE als zentral verwaltete Sicherheitslösung in der Cloud einzusetzen und so ihre virtuellen Maschinen vor Online-Bedrohungen zu schützen.

Bitdefender Security for Virtualized Environments steht im AWS Marketplace bereit

Die Bitdefender-Lösung ist für Unternehmen geeignet, welche die Cloud oder eine Kombination aus Cloud und virtualisiertem Rechenzentrum nutzen. SVE sichert dabei Windows- und Linux-Systeme über die APIs (Application Programming Interfaces) des Amazon-Angebots ab. Nutzer des AWS Marketplace profitieren dabei von einem zentralisierten Scanning und Management. Über die Plattform lassen sich beispielsweise Richtlinien für User-Gruppen konfigurieren oder Logs verschiedener AWS-Regionen einsehen. Die Virtual Appliance erhöht die Scanning Performance signifikant und sorgt dafür, dass Anti-Malware-Maßnahmen bei den geschützten Komponenten weniger Ressourcen verbrauchen. Darüber hinaus reduziert Bitdefender SVE finanzielle, logistische und die Performance betreffende Kosten.

„Security for Virtualized Environments“ steht aktuell in vier unterschiedlichen Varianten bereit.

  • SVE – Security Console (zur Absicherung von 40 Instanzen)
    320,00 Dollar pro Monat + AWS Gebühren
    Linux/Unix, Ubuntu 10.04 LTS | 64-bit Amazon Machine Image (AMI)
  • SVE – Security Console (zur Absicherung von 100 Instanzen)
    600,00 Dollar pro Monat + AWS Gebühren
    Linux/Unix, Ubuntu 10.04 LTS | 64-bit Amazon Machine Image (AMI)
  • SVE – Security Console (zur Absicherung von 200 Instanzen)
    960,00 Dollar pro Monat + AWS Gebühren
    Linux/Unix, Ubuntu 10.04 LTS | 64-bit Amazon Machine Image (AMI)
  • SVE – Security Virtual Appliance
    0,00 Dollar pro Stunde + AWS Gebühren
    Linux/Unix, Ubuntu 10.04 LTS | 64-bit Amazon Machine Image (AMI)
Kategorien
Management

Pinterest macht die Amazon Cloud für den eigenen Erfolg verantwortlich

Pinterest ist seit dem Start zu einem der Lieblinge im Internet geworden und hat ein beachtliches Wachstum zu verzeichnen. Ryan Park, Operations Engineer bei Pinterest, führt diesen Erfolg auf die Skalierbarkeit des Cloud Computing, genauer den Amazon Web Services zurück. Ohne Cloud Computing wäre der Erfolg von Pinterest nicht möglich gewesen, so Park kürzlich auf dem Amazon Web Services Summit in New York.

Pinterest ist eine Online Pinnwand. Es handelt sich dabei um einen Service der es erlaubt, Dinge zu sammeln und zu organisieren, die für jemanden von besonderem Interesse sind. Zudem können diese Dinge von anderen Nutzern auf der Pinnwand angeschaut werden.

Pinterest macht die Amazon Cloud für den eigenen Erfolg verantwortlich

Die Cloud hat es Pinterest ermöglicht, effizient zu arbeiten und kostengünstig zu experimentieren. Zudem konnte die Webseite sehr schnell wachsen, während sich nur ein sehr kleines Team um die Wartung kümmern musste. Im Dezember beschäftigte Pinterest insgesamt nur 12 Mitarbeiter. Laut der Rating Agentur ComScore konnte Pinterest im Monat März fast 18 Millionen Besucher gewinnen, eine 50-prozentige Steigerung gegenüber dem Vormonat. Die Webseite gehört demnach zu einer der am schnellsten wachsenden Webseiten in der Geschichte des Webs.

Pinterest setzt bei seinem Service auf Amazon S3 und Amazon EC2. Dabei ist die Nutzung von S3 seit dem letzten August um den Faktor 10 gestiegen. EC2 im selben Zeitraum um den Faktor 3. In Zahlen bedeutet das in etwa 80 Millionen Objekte die in Amazon S3 gespeichert sind, was ca. 410 Terabyte an Nutzerdaten entspricht.

Nach Park, wäre dies mit einem eigenen Rechenzentrum niemals möglich gewesen. Zunächst hätte das einen riesen Aufwand in Bezug auf die Kapazitätsplanungen bedeutet und die Hardware hätte noch bestellt und selbst installiert werden müssen. Zudem wäre Pinterest nicht in der Lage gewesen so schnell zu skalieren.

Aktuell nutzt Pinterest ca. 150 EC2 Instanzen, um damit die Kern Services bereitzustellen. Diese sind in Python geschrieben. Zudem setzt Pinterest auf das Django Framework. Der Traffic wird über die Instanzen mit Hilfe von Amazon ELB (Elastic Load Balancer) verteilt. Weitere 90 EC2 Instanten werden für das Caching eingesetzt und noch einmal 35 Instanzen für interne Zwecke.

Im Hintergrund der Anwendungen laufen etwa 70 Master-Datenbanken auf EC2 sowie eine Reihe von Backup-Datenbanken, die sich in verschiedenen Regionen auf der ganzen Welt befinden, um für die Redundanz zu sorgen.

Um seinen Nutzern Daten in Echtzeit zu liefern, sind die Datenbank-Tabellen über mehrere Server hinweg verteilt. Wenn ein Datenbankserver mehr als 50 Prozent Last fährt, wird die Hälfte des Inhalts auf einen anderen Server verschoben. Dieser Prozess wird auch als Sharding bezeichnet. Im vergangenen November nutzte Pinterest acht Master-Slave-Datenbank-Paare. Heute sind es schon 64 Paare.

Ein weiterer Vorteil, der Pinterest entgegenkommt, ist das pay-as-you-go Modell. Da Pinterest bei AWS nur für die Ressourcen bezahlt die sie benötigen, konnte Kapital gespart werden. Der meiste Datenverkehr entsteht in den USA während den Nachmittags-und Abendstunden. Mit Amazon Autoscaling fügt Pinterest in diesen Zeiträumen entsprechend mehr Instanzen hinzu, um die Anfragen zu bewältigen. In der Nacht werden die Instanzen dann wieder entfernt.

Mit diesem Ansatz ist Pinterest in der Lage, die Anzahl der Server die sie in der Nacht verwenden, um rund 40 Prozent zu reduzieren. Da Amazon pro Stunde abrechnet, führt diese Reduktion zu Kosteneinsparungen. Während der Lastspitzen, zahlt Pinterest etwa 52 US-Dollar pro Stunde für Amazon EC2. In den frühen Morgenstunden liegen die Kosten dann bei 15 US-Dollar pro Stunde.

Das pay-as-you-go Modell lässt Pinterest ebenfalls neue Services testen, ohne dafür langfristig in eigene Serverhardware- oder software zu investieren. Ein gelungenes Experiment war, laut Park, die Nutzung von Amazon Elastic Map Reduce, Amazons Hadoop-basierten Service für die Datenanalyse.

Fazit

Pinterest ist nur ein gutes Beispiel dafür, wie Cloud Computing dabei unterstützt neue Geschäftsmodelle mit einem minimalen Ressourcen- und Kapitalaufwand zu realisieren und im Erfolgsfall für die entsprechende Flexibilität und Skalierbarkeit zu sorgen.

Kategorien
News

Ein Drittel aller Internetnutzer greifen täglich auf die Amazon Cloud zu!

Cloud Computing Anbieter sind die kommenden Giganten im Internet. Sie werden dafür sorgen, dass wir auf Informationen zugreifen und werden den Handel und weitere Geschäftsmodelle mit ihren hochskalierbaren und hochverfügbaren Infrastruktruren stützen. Jedoch ist es schwierig nachzuvollziehen, wie groß ein Anbieter wirklich ist.

Der Cloud Intelligence Anbieter DeepField Networks hat auf seinem Unternehmensblog interessante Zahlen veröffentlicht, die zeigen, für welchen Internet-Traffic Amazon verantwortlich ist.

Demnach greifen ein Drittel aller Internetnutzer mindestens einmal pro Tag auf die Amazon Cloud zu. Zudem fließen 1% des gesamten Internet-Verkehrs (Verbraucher) von Nordamerika in die Amazon Cloud. YouTube machte im vergangenen Jahr einen Anteil von 6% des gesamten Internetverkehrs aus.

Die Bedeutung der Amazon Web Services wurde zudem letztes Jahr sehr deutlich, als ein Ausfall mehrere hoch frequentierte Webseiten und Services lahmlegte.

DeepField hat seine Daten, nach eigenen Angaben, von einer Reihe von großen Netzbetreibern, mit denen sie kooperieren. Dabei wurde nur der Verkehr von Teilnehmern der Studie gemessen und die direkte Maschine-zu-Maschine Kommunikation ebenso ausgeschlossen wie konstante Scanning und Einbruchsversuche aus China.

Der Zugriff von Unternehmen auf die Amazon Cloud-Infrastruktur wurde ebenfalls gemessen. An erster Stelle befindet sich Truste.com. Ein Service der ein Online Datenschutz Gütesiegel anbietet, das häufig in kommerziellen Webseiten eingesetzt wird. Fast 21% des täglichen Verbraucher-Traffics, der die Amazon Cloud erreicht, ist auf TRUSTe zurückzuführen.


Bildquelle: http://www.nebraskaweatherphotos.org

Kategorien
News

Puppet unterstützt OpenStack

Die Open Source Cloud Konfigurations- und Management-Suite Puppet hat seine Software um zahlreiche Module erweitert, um auf OpenStack basierte Cloud Computing Umgebung damit steuern zu können. Damit erhält OpenStack nun endlich auch eine Benutzeroberfläche.

Puppet unterstützt OpenStack

Die neuen Modulen helfen Administratoren dabei, OpenStack Cloud Umgebungen automatisiert aufzubauen sowie diese zu überwachen und zu warten. Der primäre Zugriff auf OpenStack erfolgt über eine API, mit der die Steuerung vorgenommen wird. Graphische Benutzeroberflächen hingegen sind bisher zu kurz gekommen. Rackspace bietet eine graphische Oberfläche, allerdings nur für die Verwaltung von OpenStack Umgebungen die auf Rackspace selbst gehostet werden. Dell hat mit Crowbar kürzlich eine Konsole für den Zugriff auf die Grundfunktionen veröffentlicht.

Mit Puppet steht nun eine dritte Variante bereit. Die ersten verfügbaren Module decken dabei die grundlegenden Bereiche von OpenStack ab, also Compute, Object Store und Image Store. Puppets Funktionsumfang ist jedoch viel größer und kann neben dem Aufbau von OpenStack Umgebungen diese ebenfalls Überwachen und z.B. das Patch-Management übernehmen. Die Module selbst werden aktualisiert wenn Puppet ein Update erhält.

Die jeweiligen Module wurden von Puppet zusammen mit Cisco, Red Hat und den Cloud Service Anbietern Morphlabs und eNovance entwickelt. Unter PuppetForge, dem Puppet Repository, können bereits die ersten Module heruntergeladen werden. Diese bieten die Steuerung der Grundfunktionen von OpenStack. Weitere Module werden in den kommenden Monaten bereitgestellt.

Bei dem OpenStack Engagement handelt es sich allerdings nicht um die erste Kooperation. Es stehen bereits weitere Puppet Module zur Verfügung, mit denen Cloud Services auf Basis von VMware oder Amazon Web Services Umgebungen verwaltet werden können.

Kategorien
News

Die Amazon Web Services veröffentlichen den AWS Marketplace

Die Amazon Web Services (AWS) haben heute ihren AWS Marketplace vorgestellt. Dabei handelt es sich um einen Online-Shop, auf dem AWS Kunden und Partner Software suchen, kaufen oder bereitstellen, die auf der Infrastruktur der AWS Cloud genutzt werden kann.

Die Amazon Web Services veröffentlichen den AWS Marketplace

Es steht bereits Software von vielen bekannten Anbietern zur Verfügung, darunter CA, Canonical, Couchbase, Check Point, IBM, Microsoft, SUSE, Red Hat, SAP und Zend sowie viele Open Source Lösungen wie WordPress, Drupal und das MediaWiki.

Der AWS Marketplace beinhaltet pay-as-you-go Lösungen, freie Software und gehostete Anwendungen. In jedem Fall entstehen zusätzliche Kosten für die Nutzung der AWS Infrastruktur.

Die entsprechende Software kann über den von Amazon.com bekannten 1-Click Mechanismus eingekauft werden und wird anschließend entweder als ein vorkonfiguriertes Server Image zur Verfügung gestellt oder kann z.B. auch über die AWS Management Konsole deployed werden. Abgerechnet wird nach der tatsächlichen Nutzung, entweder pro Stunde oder pro Monat. Zudem werden die Kosten für die jeweilige Software auf der Rechnung der restlichen AWS Services mit aufgeführt.

Kategorien
News

Ubuntu 12.04 verbindet OpenStack und die Amazon Web Services über eine API

Canonical, Entwickler der Linux Distribution Ubuntu wird mit der kommenden Ubuntu 12.04 LTE eine API veröffentlichen, mit der OpenStack basierte Clouds mit der Infrastruktur der Amazon Web Services (AWS) verbunden werden können. Ubuntu 12.04 LTE wird Ende April erwartet und soll die API in Form des Any Web Service Over Me (AWSOME) Proxy Service mitliefern. Das teilte Canonical Günder Mark Shuttleworth dem INQUIRER mit.

Ubuntu 12.04 verbindet OpenStack und Amazon Web Services über eine API

Shuttleworth möchte insbesondere OpenStack damit helfen, den Bekanntheitsgrad zu erhöhen und somit den Einsatz von mehr OpenStack Clouds zu fördern. Er hält es zudem für sehr nützlich, den Nutzern zu ermöglichen Clouds auf Basis von OpenStack aufzubauen und diese auf Basis einer gemeinsamen API mit den Amazon Web Services kommunizieren zu lassen.

AWSOME soll laut Shuttleworth die grundlegenden Funktionen der Amazon Web Services bieten, um Unternehmen einen flüssigen Übergang zu OpenStack basierten Clouds zu ermöglichen. Demnach stehen bei AWSOME die Kern APIs im Vordergrund, mit denen bspw. eine virtuelle Maschine gestartet werden kann oder der Zugriff auf den Speicher ermöglicht wird. Beide Cloud Infrastrukturen sind grundsätzlich verschieden. Diejenigen, die sich mehr mit OpenStack beschäftigen wollen, müssen sich tiefer in dessen native API einarbeiten. Aber Erfahrungen haben gezeigt, dass Nutzer dankbar dafür sind, wenn sie mit den grundlegenden Funktionen einer ihnen bekannten API und Tools eine Private Cloud aufsetzen können, so Shuttleworth.

Canonicals AWSOME APIs werden mit dem kommenden Ubuntu 12.04 Release verfügbar und als eine Option während der Installation auszuwählen sein.

Kategorien
Analysen

Analyse: Die Platform-as-a-Service Umgebung von VMware Cloud Foundry

Ursprünglich startete Cloud Foundry als Plattform für das Deployment von Java Spring Anwendungen auf die Amazon Web Services. Im April 2011 folgte dann die Übernahme durch VMware, wodurch Cloud Foundry zu einem Open Source und Multi-Framework Platform-as-a-Service Angebot wurde, das eine Vielzahl von unterschiedlichen Sprachen und Laufzeitumgebungen unterstützt. Dazu gehören u.a. Java, Spring, Ruby, Scala und Node.js. VMware bezeichnet Cloud Foundry auch als ein Open PaaS, da die Plattform vom gewöhnlichen Notebook, über einen PC bis hin zu einer Public Cloud auf unterschiedlichen Systemen und Umgebungen genutzt werden kann.

Cloud Foundry ermöglicht das Multi-Cloud Deployment

Die Cloud Foundry Plattform setzt sich aus drei Bereichen zusammen. Der Erste bezieht sich auf die Wahl des Frameworks, der Zweite auf die Serviceunterstützung der Anwendung und die Dritte auf das Deployment.

Die Wahl des Frameworks

Cloud Foundry unterstützt neben Spring for Java, Rails und Sinatra for Ruby und Node.js ebenfalls JVM Sprachen wie Groovy, Grails und Scala. Hinzu kommt die Unterstützung für das Microsoft .NET Framework wodurch Cloud Foundry zur ersten nicht Microsoft Plattform gehörte, auf der .NET Anwendungen ausgerollt werden konnten. Alles zusammen macht Cloud Foundry zu einem der ersten mehrsprachigen PaaS.

Services für die Anwendung

In der Cloud sind Entwickler auf zuverlässige Messaging-Systeme, NoSQL Datenbanken zusammen mit relationalen Datenbanken angewiesen. Cloud Foundry unterstützt dafür neben RabbitMQ als Messaging-System sowie MongoDB und Redis als NoSQL Datenbanken, MySQL als relationale Datenbank. Die Liste der unterstützten Dienste wächst, so hat die Plattform zuletzt eine PostgreSQL-Unterstützung erhalten.

Das Deployment

Anhand von „Micro Cloud Foundry“ kann Cloud Foundry auf gewöhnlichen Notebooks oder Computer genutzt werden. Dazu beinhaltet die Micro Cloud Foundry den vollständigen Cloud Foundry Stack, mit dem virtuelle Maschinen auf einem PC oder Mac gestartet werden können. Cloud Foundry kann zudem in Private Cloud oder Public Cloud Umgebungen wie den Amazon Web Services betrieben werden. Das macht Cloud Foundry zu einem äußerst flexiblen PaaS.

Ausrollen von Anwendungen auf Cloud Foundry

Entwickler können Anwendungen entweder mit der SpringSource Tool Suite (STS) oder VMC, einer Ruby Gem Kommandozeile deployen.

Das Messaging System ist das Rückgrat von Cloud Foundry. Es handelt sich dabei um das zentrale Kommunikationssystem, über das alle Komponenten miteinander sprechen. Der HTTP Verkehr zu den einzelnen Anwendungen wird von Routern gesteuert. Diese routen die URLs zu den jeweiligen Anwendungen und übernehmen ebenfalls das Load Balancing des Verkehrs über die Instanzen.

Cloud Controller sind die Schlüsselkomponenten, die für die Verwaltung der Anwendungen zuständig sind. Sie verknüpfen die verschiedenen Services mit einer Anwendung und ermöglichen den Zugriff durch die externe REST API.

Ein Health Manager überwacht den Zustand aller ausgeführten Anwendungen. Fällt eine Anwendung aus, informiert er den Cloud Controller. Dieser ergreift die weiteren Maßnahmen.

Der ausführbare Code wird in Cloud Foundry zu Einheiten zusammengefasst und wiederum zu einem Droplet verpackt. Ein Droplet abstrahiert den zugrunde liegenden Code und stellt eine generische ausführbaren Code Einheit dar. Ein Droplet Execution Agent ist für die Ausführung des Codes innerhalb jedes Droplets verantwortlich und stellt das Betriebssystem und die Laufzeitumgebung bereit.

Fazit

Cloud Foundry ist ein schnell gewachsener und offener PaaS. Viele Hersteller haben ihre Unterstützung angekündigt und werden mit weiteren Plattformen und Services den Stack erweitern, was Cloud Foundry zu einer echten Alternative zu kommerziellen PaaS Angeboten wie Microsoft Windows Azure oder der Google App Engine werden lässt.

Kategorien
News

Cloudwurm: Amazon Web Services und Rackspace Images sind anfällig für Windows RDP Exploit

Wie sicher sind Cloud Server wirklich? Diese Frage stellt The Hacker News und berichtet von einem RDP Windows Exploit (MS12-020), von dem scheinbar Windows Images der Amazon und Rackspace Cloud betroffen sind.

Tests mit dem Nmap NSE Script „rdp-ms12-020.nse“ haben demnach ergeben, dass alle Rackspace Cloud Images davon standardmäßig betroffen sind. Auf Amazon EC2 sind aktuell alle ungepatchten Windows AMIs und EBS Images vor der Version „2012.03.13“ betroffen, die über die AWS Management Konsole mit den Standard Firewall-Regeln gestartet werden.

Laut The Hacker News haben die Cloud Anbieter zwar Schritte unternommen, um dem MS12-020 Exploit entgegenzuwirken, jedoch soll das nicht ausreichen, um die Kunden zu schützen, was daran liegen soll, dass AWS als auch Rackspace auf Grund ihrer Standard-Sicherheitseinstellungen an dieser Stelle Lücken aufweisen.

So verfügt Amazon EC2 über eine globale Standard „allow RDP“ Firewall-Regel (Port 3389) für alle Kunden, die ihre EC2 Instanzen über die AWS Management Konsole starten. Rackspace hingegen hat für alle seine Cloud Server ein ungesichertes Servicenetz – ein LAN, dass mit keiner Firewall geschützt wird.

Wenn ein weiterer Exploit nun den MS12-020 Exploit ausnutzen würden, könnte es dazu kommen, dass sich die Sicherheitslücke über eine Vielzahl von Servern in der Cloud verteilt.

Nutzer können sich selbst dagegen schützen, indem sie ihre Cloud Server patchen und darauf achten die RDP Firewall-Regeln sicher zu gestalten und alle nicht notwendigen Ports schließen.


Weiterführende Links


Bildquelle: thehackernews.com, ibnlive.in.com

Kategorien
News

Die Amazon Web Services hosten Katalog für Humangenetik in der Cloud

Die Amazon Web Services (AWS) und das U.S. National Institutes of Health (NIH) haben die komplette Datenbank des 1000 Genomes Project als Public Data Set in die Amazon Cloud migriert. Damit haben Wissenschaftler nun ständigen Zugang zu 200 Terabyte an genetischen Daten zur Erforschung von Krankheiten. Ein weiterer idealer Anwendungsfall für Cloud Computing und Big Data.

Die Kooperation, die offiziell während des White House Big Data Summit angekündigt wurde, ermöglicht es Wissenschaftlern kostenlos auf die weltweit größte Sammlung von Daten zur Humangenetik zuzugreifen Bei dem 1000 Genomes Project handelt es sich um ein internationales Forschungsprojekt, das von einem Konsortium bestehend aus 75 Unternehmen und Organisationen koordiniert wird. Das Ziel des Projekts ist die Erstellung des detailreichsten Katalogs von genetischen Variationen bei Menschen.

Dazu hat das Projekt bereits 200 Terabyte an genetischen Daten inkl. DNS Sequenzen von mehr als 1.700 Personen gesammelt, auf die Wissenschaftler nun kostenlos über die AWS Cloud zugreifen können. Das Projekt verfolgt das Ziel die Gene von weltweit über 2.600 Individuen aus 26 Bevölkerungen bereitzustellen. Das 1000 Genomes Project startete 2008 mit ein paar Terabytes an Daten in seine Pilotphase. Bereits 2010 wurde ein kleiner Teil als Public Data Set auf AWS veröffentlicht.

Bei den Amazon Public Data Sets handelt es sich um ein öffentliches zentrales Repository von unterschiedlichen Daten, die auf Amazon S3 und Amazon EBS gespeichert sind. Auf diese Daten kann direkt zugegriffen werden, z.B. über Amazon EC2 oder Amazon EMR (Elastic MapReduce) ohne diese großen Datenmengen auf lokale Server herunterzuladen.

Amazon hat neben dem 1000 Genomes Project ebenfalls Public Data Sets vom NASA Jet Propulsion Laboratory, Langone Medical Center an der New York University, Unilever, Numerate, Sage Bionetworks oder Ion Flux gespeichert.

Die Nutzung der Public Data Sets ist kostenlos. Kosten entstehen für die Verarbeitung der Daten auf der Amazon Cloud wie z.B. Amazon EC2.

In diesem Zusammenhang sehr interessant: Nach der Cloud, wird Amazon auch der Big Data Gigant?

Weiterführende Informationen


Bildquelle: http://www.ige3.unige.ch

Kategorien
News

Amazon Web Services mit kurzzeitigem Ausfall

Wie auf Twitter gut zu verfolgen, war die US-EAST-1 Region der Amazon Web Services heute kurzfristig nicht erreichbar.

Auch der US-amerikanische Plattform Anbieter Cedexis konnte dieses über das eigene Monitoring System verfolgen.

Nach 15 Minuten war die Region wieder erreichbar, wie auch Cedexis informierte.

Der Grund des Ausfalls bestand in einem Problem mit der Internetverbindung, wie Amazon auf seiner Statusseite berichtet.

Demnach waren Amazon EC2 sowie die Amazon Virtual Private Cloud jeweils in North Virginia sowie AWS Elastic Beanstalk betroffen.

An diesem Ausfall sieht man leider, dass alle Services zwar sorgenfrei laufen können, aber die Internetverbindung die Achillesferse des Cloud Computing ist. Für die Cloud Anbieter als auch für die Nutzer.