Kategorien
Management @en

Amazon Web Services suffered a 20-hour outage over Christmas

After a rather bumpy 2012 with some heavy outages the cloud infrastructure of the Amazon Web Services again experienced some problems over Christmas. During a 20 hour outage several big customers were affected, including Netflix and Heroku. This time the main problem was Amazons Elastic Load Balancer (ELB).

Region US-East-1 is a very big problem

This outage is the last out of a series of catastrophic failure in Amazon’s US-East Region-1. It is the oldest and most popular region in Amazon’s cloud computing infrastructure. This new outage precisely in US-East-1 raises new questions about the stability of this region and what Amazon has actually learned and actually improved from the past outages. Amazon customer awe.sm had recently expressed criticism of the Amazon cloud and especially on Amazon EBS (Amazon Elastic Block Store) and the services that depend on it.

Amazon Elastic Load Balancer (ELB)

Besides the Amazon Elastic Beanstalk API the Amazon Elastic Load Balancer (ELB) was mainly affected by the outage. Amazon ELB belongs to one of the important services if you try to build a scalable and highly available infrastructure in the Amazon cloud. With ELB users can move loads and capacities between different availability zones (Amazon independent data centers), to ensure availability when it comes to problems in one data center.

Nevertheless: both Amazon Elastic Beanstalk and Amazon ELB rely on Amazon EBS, which is known as the „error prone-backbone of the Amazon Web Services„.

Kategorien
Management

Amazon Web Services mit 20-stündigen Ausfall über Weihnachten

Nach einem eher holprigen Jahr 2012 mit einigen schweren Ausfällen, zeigten sich über Weihnachten erneut Probleme in der Cloud Infrastruktur der Amazon Web Services. Während eines 20-stündigen Ausfalls waren mehrere größere Kunden betroffen, darunter Netflix und Heroku. Das Hauptproblem bestand dieses Mal mit Amazons Elastic Load Balancer (ELB).

Region US-East-1 sehr großes Problemkind

Bei diesem Ausfall handelt es sich um den bisher letzten aus einer Reihe von schweren Ausfällen in Amazons Region US-East-1. Dabei handelt es sich um die älteste und meist genutzte Region in Amazons Cloud Computing Infrastruktur. Dieser erneute Ausfall eben in US-East-1 wirft neue Fragen bzgl. der Stabilität dieser Region auf und was Amazon aus den letzten Ausfällen tatsächlich gelernt und vor allem verbessert hat. Erst kürzlich hatte Amazon Kunde awe.sm Kritik an der Amazon Cloud und hier insbesondere an Amazon EBS (Amazon Elastic Block Store) und den Services die davon abhängig sind geäußert.

Amazon Elastic Load Balancer (ELB)

Von dem Ausfall war neben der Amazon Elastic Beanstalk API hauptsächlich der Amazon Elastic Load Balancer (ELB) betroffen. Dabei gehört Amazon ELB zu einem der wichtigen Services, wenn eine skalierbare und hochverfügbare Infrastruktur innerhalb der Amazon Cloud aufgebaut werden soll. Nutzer können mit dem ELB die Lasten zwischen verschiedenen Availability Zones (unabhängiges Amazon Rechenzentrum) verschieben und damit die Verfügbarkeit sicherstellen, wenn es in einem Rechenzentrum zu Problemen kommt.

Allerdings: Sowohl Amazon Elastic Beanstalk als auch Amazon ELB setzen auf Amazon EBS, welches als das „fehlerhafte Rückgrat der Amazon Web Services gilt„.

Kategorien
Analysis

Lessons learned: Amazon EBS is the error-prone backbone of AWS

In a blog article awe.sm writes about their own experiences using the Amazon Web Services. Beside the good things of the cloud infrastructure for them and other startups you can also derived from the context that Amazon EBS is the single point of failure in Amazon’s infrastructure.

Problems with Amazon EC2

awe.sm criticized Amazon EC2’s constraints regarding performance and reliability on which you absolutely have to pay attention as a customer and should incorporate into your own planning. The biggest problem awe.sm is seeing in AWS zone-concept. The Amazon Web Services consist on several worldwide distributed „regions“. Within this regions Amazon divided in so called „availability zones“. These are independent data center. awe.sm mentions three things they have learned from this concept so far.

Virtual hardware does not last as long as real hardware

awe.sm uses AWS for about 3 years. Within this period, the maximum duration of a virtual machine was about 200 days. The probability that a machine goes in the state „retired“ after this period is very high. Furthermore Amazon’s „retirement process“ is unpredictable. Sometimes you’ll notify ten days in advance that a virtual machine is going to be shut down. Sometimes the retirement notification email arrives 2 hours after the machine has already failed. While it is relatively simple to start a new virtual machine you must be aware that it is also necessary to early use an automated deployment solution.

Use more than one availability zone and plan redundancy across zones

awe.sm made ​​the experience that rather an entire availability zone fails than a single virtual machine. That means for the planning of failure scenarios, having a master and a slave in the same zone is as useless as having no slave at all. In case the master failures, it is possibly because the availability zone is not available.

Use multiple regions

The US-EAST region is the most famous and also oldest and cheapest of all AWS regions worldwide. However, this area is also very prone to error. Examples were in April 2011, March 2012 and June 2012 (twice). awe.sm therefore believes that the frequent regions-wide instability is due to the same reason: Amazon EBS.

Confidence in Amazon EBS is gone

The Amazon Elastic Block Store (EBS) is recommended by AWS to store all your data on it. This makes sense. If a virtual machine goes down the EBS volume can be connected to a new virtual machine without losing data. EBS volumes should also be used to save snapshots, backups of databases or operating systems on it. awe.sm sees some challenges in using EBS.

I/O rates of EBS volumes are bad

awe.sm made ​​the experiences that the I/O rates of EBS volumes in comparison to the local store on the virtual host (Ephemeral Storage) are significantly worse. Since EBS volumes are essentially network drives they also do not have a good performance. Meanwhile AWS provides Provisioned IOPS to give EBS volumes a higher performance. Because of the price they are too unattractive for awe.sm.

EBS fails at regional level and not per volume

awe.sm found two different types of behavior for EBS. Either all EBS volumes work or none! Two of the three AWS outages are due to problems with Amazon EBS. If your disaster recovery builds on top of moving EBS volumes around, but the downtime is due to an EBS failure, you have a problem. awe.sm had just been struggling with this problem many times.

The error status of EBS on Ubuntu is very serious

Since EBS volumes are disguised as block devices, this leads to problems in the Linux operating system. With it awe.sm made very bad experiences. A failing EBS volume causes an entire virtual machine to lock up, leaving it inaccessible and affecting even operations that don’t have any direct requirement of disk activity.

Many services of the Amazon Cloud rely on Amazon EBS

Because many other AWS services are built on EBS, they fail when EBS fails. These include e.g. Elastic Load Balancer (ELB), Relational Database Service (RDS) or Elastic Beanstalk. As awe.sm noticed EBS is nearly always the core of major outages at Amazon. If EBS fails and the traffic subsequently shall transfer to another region it’s not possible because the load balancer also runs on EBS. In addition, no new virtual machine can be started manually because the AWS Management Console also runs on EBS.

Comment

Reading the experiences of awe.sm I get the impression that Amazon do not live this so often propagandized „building blocks“ as it actually should. Even when it is primary about the offering of various cloud services (be able to use them independently), why let they depend the majority of these services from a single service (EBS) and with that create a single point of failure?

Kategorien
Analysen

Erfahrungen: Amazon EBS ist das fehlerhafte Rückgrat von AWS

In einem Blogartikel schreibt das Unternehmen awe.sm über die eigenen Erfahrungen mit der Nutzung der Amazon Web Services (AWS). Neben den Vorteilen, die sich für das Unternehmen und andere Startups durch die Cloud Infrastruktur ergeben, lässt sich aus dem Kontext aber auch ableiten, dass Amazon EBS der Single Point of Failure in Amazons Infrastruktur ist.

Die Probleme von Amazon EC2

awe.sm kritisiert Amazon EC2s Beschränkungen hinsichtlich der Geschwindigkeit und Zuverlässigkeit, auf die man als Kunde unbedingt achten und in die eigene Planung mit einfließen lassen sollte. Das größte Problem besteht in dem Zonen-Konzept von AWS. Die Amazon Web Services bestehen aus mehreren „Regionen“ die weltweit verteilt sind. Innerhalb dieser Regionen unterteilt Amazon noch einmal in die sogenannten „Availability Zones„. Dabei handelt es sich um eigenständige Rechenzentren. awe.sm nennt drei Dinge, die sie aus diesem Konzept bisher gelernt haben.

Virtuelle Hardware hält nicht so lange wie echte Hardware

awe.sm nutzt AWS seit ca. 3 Jahren. Innerhalb dieses Zeitraums betrug die maximale Laufzeit einer virtuellen Maschine ungefähr 200 Tage. Die Wahrscheinlichkeit, dass sie nach dieser Zeit in den Zustand „retired“ geht sei sehr hoch. Zudem sei Amazons „retirement process“ unberechenbar. Manchmal wird man bereits zehn tage vorher informiert, dass eine virtuelle Maschine heruntergefahren wird. Es kam aber auch vor, dass eine Info zwei Stunden eintraf, nachdem die virtuelle Maschine bereits ausgefallen war. Zwar ist es relativ simple neue virtuelle Maschinen hochzufahren, aber man sollte sich bewusst machen, dass es auch notwendig ist frühzeitig eine automatisierte Deploymentlösung zu nutzen.

Man muss mehr als eine Availability Zone nutzen und die Redundanz zonenübergreifend planen

awe.sm hat die Erfahrungen gemacht, dass eher eine ganze Availability Zone ausfällt als eine einzige virtuelle Maschine. Das bedeutet für die Planung von Fehlerszenarios, dass es genauso nutzlos ist, einen Master und einen Slave in derselben Region zu haben wie gar keinen Slave einzusetzen. Sollte der Master ausfallen liegt es möglicherweise nämlich nur daran, weil die Availability Zone nicht verfügbar ist.

Man sollte mehrere Regionen verwenden

Die Region US-EAST ist die bekannteste und ebenfalls älteste und günstigste aller AWS Regionen weltweit. Allerdings ist auch gerade diese Region sehr fehleranfällig. Beispiele gab es im April 2011, März 2012 oder auch Juni 2012 [1][2]. awe.sm geht daher davon aus, das die häufige Regionen weite Instabilität auf die gleiche Ursache zurückzuführen ist: Amazon EBS.

Das Vertrauen in Amazon EBS ist verschwunden

Der Amazon Elastic Block Store (EBS) wird von AWS empfohlen, um darauf sämtliche Daten zu speichern. Das macht auch Sinn. Fällt eine virtuelle Maschine aus, kann das EBS Volume an eine neue virtuelle Maschine angebunden werden, ohne dabei Daten zu verlieren. EBS Volumes sollen ebenfalls dazu genutzt werden, um dort Snapshots, Backups der Datenbanken oder die Betriebssysteme darauf zu speichern. awe.sm sieht in EBS jedoch manche Herausforderungen.

Die I/O Raten von EBS Volumes sind schlecht

awe.sm hat die Erfahrungen gemacht, dass die I/O Raten von EBS-Volumes im Vergleich zu dem lokalen Speicher auf dem virtuellen Host (Ephemeral Storage) deutlich schlechter sind. Da es sich bei EBS Volumes im wesentlichen um Netzlaufwerke handelt, haben sie ebenfalls auch keine gute Performance. AWS stellt mit IOPS zwar mittlerweile EBS Volumes mit einer höheren Performance bereit. Für awe.sm sind diese auf Grund des Preises jedoch viel zu unattraktiv.

EBS versagt auf der Regionen-Ebene und nicht pro Volume

awe.sm hat an EBS zwei unterschiedliche Verhaltensarten festgestellt. Entweder funktionieren alle EBS Volumes oder keines! Zwei von den drei AWS Ausfällen sind auf Probleme mit Amazon EBS zurückzuführen. Sollte das eigene Disaster Recovery also darauf aufbauen, im Fehlerfall EBS Volumes zu transferieren, der Ausfall jedoch auf Grund eines EBS Fehlers auftritt, hat man ein Problem. awe.sm habe genau mit diesem Problem schon öfters zu kämpfen gehabt.

Der Fehlerzustand von EBS auf Ubuntu ist sehr schwerwiegend

Da EBS Volumes als Block-Devices getarnt werden, führt das zu Problemen im Linux Betriebssystem. Damit hat awe.sm sehr schlechte Erfahrungen machen müssten. So hat bspw. ein fehlerhaftes EBS Volume dazu geführt, dass eine virtuelle Maschine vollständig eingefroren ist und keine Möglichkeit mehr bestand auf die Maschine zuzugreifen oder weitere Aktionen durchzuführen.

Viele Services der Amazon Cloud setzen auf Amazon EBS

Da viele weitere AWS Services auf EBS aufsetzen, fallen diese ebenfalls aus, wenn EBS ausfällt. Dazu gehören u.a. der Elastic Load Balancer (ELB), die Relational Database Service (RDS) oder Elastic Beanstalk. Wie awe.sm festgestellt hat ist EBS so gut wie immer das Hauptproblem größerer Ausfälle bei Amazon. Fällt EBS also aus und soll der Datenverkehr daraufhin in eine andere Region übertragen werden, funktioniert das nicht, da der Load Balancer ebenfalls auf EBS läuft. Darüber hinaus kann keine neue virtuelle Maschine manuell gestartet werden, da die AWS Management Console ebenfalls auf EBS läuft.

Kommentar

Wenn man sich die Erfahrungen von awe.sm so durchliest erhält man den Eindruck, dass dieses so oft propagierte „Building Blocks“ bei Amazon doch nicht so gelebt wird wie es eigentlich sollte. Auch wenn es dabei primär um das Angebot der einzelnen Cloud Services geht (diese unabhängig nutzen zu können), wieso macht man den Großteil dieser Services dann von einem einzigen Service (EBS) abhängig und schafft damit einen Single Point of Failure?

Kategorien
Management

Cloud Computing Ausfälle im Jahr 2012

Das Jahr neigt sich dem Ende und nicht alles ist 2012 in der Public Cloud so glatt gelaufen, wie es sich die meisten gewünscht haben. Ich denke bei dem einen oder anderen Cloud Admin und vor allem Nutzer werden sich in diesem Jahr wahrscheinlich ähnliche Gefühlsregungen gezeigt haben.

Public Cloud Ausfälle 2012

Ich habe mal eine kleine Auswahl aller Artikel zum Thema „Cloud Computing Ausfälle“ zusammengestellt, die ich im Jahr 2012 hier auf CloudUser veröffentlicht habe.

  1. Microsoft Azure mit 12-stündigem Ausfall – War der Schalttag (29. Februar) das Problem?
  2. CloudStore der britischen Regierung ebenfalls vom Windows Azure Ausfall betroffen
  3. Microsoft bestätigt: Windows Azure Ausfall war ein Schaltjahr Problem
  4. Azure Nutzer erhalten für den Ausfall am 29. Februar eine Gutschrift über 33%
  5. Amazon Web Services mit kurzzeitigem Ausfall
  6. Erneute Probleme in der Amazon Cloud – Ausfall bei den Amazon Web Services in North Virginia
  7. Der Himmel weint. Nicht! Public Cloud Ausfälle sind nun einmal öffentlich.
  8. Armutszeugnis: Cloud Computing Ausfälle haben seit 2007 mehr als 71 Million US-Dollar an Kosten verursacht.
  9. Salesforce hatte mit Ausfall zu kämpfen
  10. Amazon Web Services (AWS) erneut mit Ausfall. Wieder ein Stromausfall. Wieder in North Virginia. Schwere Stürme sind die Ursache.
  11. Der Ausfall der Amazon Web Services (AWS) zeigt die schlechte Systemarchitektur von Instagram
  12. Amazon Web Services (AWS) Ausfall: Erklärungen | Erster Kunde geht | Netflix hält die Treue | Okta versteht die Cloud-Architektur
  13. Der Amazon Web Services (AWS) Ausfall: Letzte Chance – So etwas darf nicht noch einmal passieren!
  14. Ausfall: Salesforce erneut mit schwerwiegenden Problemen
  15. Ausfallprävention: Diese Fragen sollte man seinem Cloud Computing Anbieter stellen
  16. Microsoft Windows Azure Compute in der Region „West Europe“ ausgefallen
  17. Fehlerhafte Netzwerkkonfiguration war Schuld am Windows Azure Ausfall für die Region „West Europe“
  18. Ausfall: Salesforce erneut mit Performance-Problemen
  19. Microsoft erklärt den Grund für den Ausfall von Windows Azure in der Region „West Europe“
  20. Schuldzuweisungen in Zeiten des Cloud Computing
  21. Erneuter Ausfall der Amazon Web Services zeigt, dass Cloud Nutzer nicht aus den eigenen Fehlern lernen
  22. Ausfall der Google App Engine – Load Balancer waren die Ursache
  23. Windows Azure Compute in „South Central US“ und „West Europe“ mit Problemen
  24. Ausfälle in der Cloud liegen in der Natur des Menschen

Da ist schon einiges zusammengekommen. Aber ich wette, tragen wir weltweit sämtliche Ausfälle in von Unternehmen selbst betriebenen Rechenzentren zusammen, schneidet die Public Cloud gut ab.

Hat jemand hierzu vielleicht Statistiken?

Kategorien
Management

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing

Mit dem IT-Cloud-Index präsentieren techconsult und HP Deutschland eine Langzeituntersuchung zum Stellenwert von Cloud Computing in mittelständischen Anwenderunternehmen. Der Cloud-Einsatzgrad hat sich innerhalb eines Jahres nahezu verdoppelt. Software-as-a-Service (SaaS) dominiert zwar noch innerhalb der Cloud-Dienste, die Nachfrage nach Infrastructure-as-a-Service-Angeboten (IaaS) hat jedoch insbesondere im dritten Quartal gegenüber dem zweiten deutlich zugelegt und befindet sich auf der Überholspur. Die Cloud-Thematik manifestiert sich zunehmend im Mittelstand. Fast jedes zweite Unternehmen hat sich bereits intensiv mit diesem Thema auseinandergesetzt.

Cloud Computing Nutzung hat sich innerhalb eines Jahres verdoppelt

Im deutschen Mittelstand setzt jedes fünfte Unternehmen bereits auf Cloud-Lösungen. Mit einem Anteil von 22 Prozent der Unternehmen im dritten Quartal 2012 hat sich der Einsatzgrad gegenüber dem Vorjahresquartal nahezu verdoppelt. Allerdings zeigt sich eine etwas abgemilderte Wachstumsdynamik in den letzten Monaten. Im Vergleich zum Vorquartal hat sich der Einsatzgrad um einen Prozentpunkt erhöht. Für das vierte Quartal dürfte dieser zunächst verhaltene Entwicklungstrend anhalten. So wird ein Zuwachs von einem Prozent prognostiziert.

Innerhalb der Cloud-Dienste wird dem Software-as-a-Service-Modell weiter die bedeutendste Rolle zugesprochen. So setzen 15 Prozent der mittelständischen Unternehmen entsprechende Produkte ein. Die Steigerungsraten über die letzten Quartale zeigen sich indes sehr konstant, wenn auch auf einem immer noch ausbaufähigem Niveau. Dagegen steigt der Bedarf an Infrastrukturleistungen im Rahmen des as-a-Service-Modells seit dem zweiten Quartal deutlich an.

Was die SaaS-Angebote betrifft, stehen die klassischen, horizontal einsetzbaren Software-Lösungen im Fokus des Interesses. So baut der Mittelstand neben den Office- und CRM-Lösungen vor allem auf E-Mail- und Collaboration-Dienste.

Die Nachfragesteigerung für Cloud-Infrastrukturleistungen liegt gegenüber dem Vorquartal bei drei Prozentpunkten. Inwieweit hier saisonale Aspekte eine Rolle spielen, wird das vierte Quartal dieses Jahres zeigen. Den Prognosen der Befragten zufolge dürfte jedoch der positive Trend anhalten. Damit gilt es für den Mittelstand nicht nur die kurzfristige Auslastung von Kapazitätsspitzen sicherzustellen, sondern auch langfristig in das IaaS-Modell einzusteigen. Die Treiber waren in erster Linie der Bedarf an Server- und Speicherkapazitäten. Der anhaltende Trend ist auch Indiz dafür, dass die mittelständischen Unternehmen zunehmend Vertrauen in die IaaS-Cloud entwickeln und sie als adäquate Option sehen, ihren Bedarf an Infrastruktur-Ressourcen kostenoptimal zu decken.

Plattform-as-a-Service Angebote konnten sich im Jahresverlauf ebenfalls als ein konstant nachgefragter Service entwickeln, wenn auch mit noch verhaltenen Wachstumsraten. Vornehmlich tragen die Datenbanken als Service auf der Anwendungs-Infrastrukturebene zu dem aktuellen Einsatzgrad von sechs Prozent bei, der sich um einen Prozentpunkt im Vergleich zum Vorquartal erhöht hat.

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing

Jedes zweite Unternehmen hat Interesse am Cloud Computing

Das Thema Cloud Computing manifestiert sich im Mittelstand. Mittlerweile hat sich fast jedes zweite Unternehmen (47 Prozent) mit Cloud Computing sehr intensiv bzw. intensiv auseinandergesetzt. Weitere 30 Prozent haben sich zumindest grundsätzlich schon einmal mit der Thematik beschäftigt. Im Vergleich zum Vorjahr hat sich allein der Anteil derjenigen verdoppelt, die sich sehr intensiv mit Cloud-Lösungen beschäftigt haben.

Nur jedes fünfte Unternehmen hat sich bislang gar nicht mit der Thematik auseinandergesetzt. Hier ist davon auszugehen, dass sich diese Unternehmen zum einen skeptisch gegenüber einem grundlegenden Eingriff in die Strukturen der bestehenden und laufenden IT-Infrastruktur zeigen. Zum anderen spielt das Thema Virtualisierung in diesen, zum Teil auch kleineren Unternehmen, nach wie vor eine weniger stark ausgeprägte Rolle. Zu berücksichtigen ist auch, dass auf Grund des operativen Alltagsgeschäftes häufig Ressourcen fehlen, sich Zeit zu nehmen und sich über neue Technologien zu informieren und sich damit auseinanderzusetzen. Insbesondere in kleineren mittelständischen Unternehmen wird in erster Linie die Nutzung von Cloud Computing aus der Geschäftsleitung (50 Prozent) heraus angeregt.

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing

Geschäftsführung forciert Cloud Computing Themen

Treiber für Cloud Computing ist meist die unternehmenseigene IT, oftmals auch in Abstimmung mit der Fachabteilung. In erster Linie kommt der Impuls für den Einsatz von Cloud Computing daher vom IT-Verantwortlichen des Unternehmens (72 Prozent). Diese drängen darauf, ihre IT-Kapazitäten zu flexibilisieren und von den Vorteilen des Cloud Computing zu profitieren. Das wird möglich durch den kostengünstigen Bezug von Speicherkapazitäten, Software oder Rechenleistungen aus der „Wolke“.

14 Prozent der Befragten gaben an, dass Cloud Computing von der Geschäftsleitung angestoßen werde. Dies sind vor allem überdurchschnittlich viele kleinere mittelständische Unternehmen. Noch im Herbst 2011 waren es gerade neun Prozent. Hier wird deutlich, dass das Thema mehr als noch vor einem Jahr auch in die Chefetagen gelangt ist. Aktuell spielen Fachabteilungen eine weniger relevante Rolle, nur acht Prozent der Befragten gaben an, dass der Cloud-Einsatz ausschließlich aus der Fachabteilung heraus angeregt wurde.

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing

Public Cloud ist im Mittelstand angekommen

Anwender geben auch im dritten Quartal der Private Cloud grundsätzlich den Vorzug. Hier verbleibt die IT im Haus bzw. wird beim Dienstleister in einer dedizierten Umgebung betrieben. Immerhin zieht mit 46 Prozent der aktuellen Cloud-Nutzer fast jeder Zweite dieses Modell der Public und der Hybrid Cloud vor. Dennoch wurde der Public Cloud über die letzten Quartale die zunehmend höhere Akzeptanz erneut bestätigt. Jedes dritte Unternehmen kann sich mit diesem Modell anfreunden. Eine ähnliche Kontinuität ist in der Bewertung der hybriden Form festzustellen, die jeder Fünfte als adäquate Lösung bestätigt.

Im Durchschnitt hatte von den Cloud Usern im dritten Quartal jedes zweite Unternehmen Dienste aus der Private Cloud bezogen. Hierbei wurden vor allem PaaS- und IaaS-Angebote in Anspruch genommen. Was SaaS-Dienste betrifft, so werden diese zwar noch immer mehrheitlich aus der Private Cloud bezogen. Allerdings ist hier im Verlauf des letzten Jahres eine deutliche Tendenz zu Lösungen aus der Public Cloud zu verzeichnen, deren Nutzung im Vergleich zum dritten Quartal 2011 um zehn Prozent zulegte. Im Jahresvergleich konnte die Hybrid-Cloud um zwei Prozent zulegen. Durch die Parallel-Nutzung von Private und Public Cloud werden die eigenen Ressourcen mit den Vorteilen der Public Cloud kombiniert und stellen so eine ideale Ergänzung zu eigenen Private-Cloud-Ressourcen dar. Bei Engpässen können skalierbare Public-Cloud-Dienste ergänzt werden, ohne im Regelbetrieb ungenutzte Infrastruktur bereithalten zu müssen. Virtualisierung als Grundstein für hybride Cloud-Lösungen ist in vielen Unternehmen zwar gegeben, die Herausforderung ist jedoch, einen geeigneten Dienstleister bzw. Cloud-Anbieter zu finden, mit dessen Lösungen die unternehmenseigene Infrastruktur kompatibel ist.

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing


Quelle: techconsult

Kategorien
Services

Microsoft Lösungen für die Private Cloud

Angesichts aktueller politischer Entwicklungen in Deutschland, die es deutschen Behörden ermöglichen sollen, Daten in der Cloud abzugreifen, wird sich der Trend in Unternehmen verstärken, eine eigene Private Cloud aufzubauen. Ein Grund, aktuelle Lösungen zu evaluieren. Nachdem ich vor kurzem mit openQRM, Eucalyptus, OpenStack, CloudStack und OpenNebula einige Open-Source Kandidaten vorgestellt habe, sind heute die Lösungen von Microsoft an der Reihe. Insbesondere der neue Microsoft Windows Server 2012 und Hyper-V bringen interessante Microsoft Cloud Ansätze in das eigene Rechenzentrum.

Microsoft in der Private Cloud

Eine Private Cloud bedeutet, die Konzepte einer Public Cloud – u.a. Flexibilität, Skalierbarkeit und Self-Service – in das eigene Rechenzentrum zu übertragen. Hier sei noch einmal angemerkt, dass eine einfache Virtualisierung NICHT einer Private Cloud entspricht. Zu einer Cloud gehören u.a. die drei oben genannten Eigenschaften, die von der gewöhnlichen Virtualisierung so nicht erfüllt werden.

Microsoft ermöglicht mit seinen Lösungen das Abbilden von Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (PaaS) sowohl in der Private als auch in der Public Cloud. Dieses hat den Vorteil Daten und Anwendungen bspw. primär lokal im eigenen Rechenzentrum zu speichern und im Bedarfsfall in die Public Cloud zu skalieren.

IaaS stellt dabei Infrastrukturressourcen wie Rechenleistung, Speicherplatz und Netzwerkkapazitäten als Service bereit, PaaS hingegen Anwendungsplattformen als Service.

Was wird für eine Private Cloud à la Microsoft benötigt?

Für den Aufbau einer Microsoft Private IaaS-Umgebung wird der Windows Server Hyper-V, das Microsoft System Center sowie das Microsoft System Center Virtual Machine Manager Self-Service Portal benötigt, wodurch sich eine dedizierte Cloud-Umgebung inkl. Self-Service Möglichkeiten bereitstellen lässt.

Darüber hinaus ermöglichen die Private Cloud Services die nahtlose Anbindung an Microsoft Public Cloud Infrastruktur Windows Azure. Somit lassen sich neben einer Ressourcenskalierung ebenfalls Applikationsframeworks und Identitymanagement-Tools nutzen, um die Private mit der Public auf Basis einer Hybrid Cloud zu integrieren.

Hyper-V

Hyper-V ist Microsofts Technologie für die Servervirtualisierung. Er setzt auf dem Windows Server 2012 auf und bildet die Grundlage einer Microsoft Private Cloud. Damit lassen sich mehrere Server als virtuelle Maschinen (VMS) auf einer physikalischen Hardware betreiben. Hierzu unterstützt Hyper-V parallel unterschiedliche Betriebssysteme, darunter u.a. Windows und Linux auf x64-Hardware.

System Center

Das System Center ist der Dreh- und Angelpunkt der Private Cloud und unterstützt bei der Verwaltung der physikalischen, virtuellen als auch Cloud-Infrastruktur. Dazu gehören neben dem Management der skalierbaren Rechenzentrumsinfrastruktur und geschäftskritischer Workloads ebenfalls die Steuerung standardisierter Prozesse für die Verwaltung des Rechenzentrums und der Verwaltungs-Workflows. Weiterhin bietet das System Center Self-Service-Funktionen, mit denen Nutzer die benötigten IT-Ressourcen konsumieren können.

Virtual Machine Manager SSP 2.0

Das Virtual Machine Manager Self-Service Portal setzt auf den Windows Server Hyper-V und das System Center auf. Es handelt sich dabei um eine kostenlose und fertige Lösung, mit der sich Ressourcen in einem Rechenzentrum dynamisch zu Gruppen zusammenfassen lassen, um damit die Private Cloud mit den notwendigen Ressourcen zu versorgen. Weiterhin lassen sich einzelne oder Gruppen von Ressourcen unterschiedlichen Abteilungen zuordnen und z.B. virtuelle Maschinen über ein Self-Service-Portal bereitstellen.

Kombination mit der Microsoft Public Cloud

Auch wenn der Artikel zu Beginn die politischen Einflüsse auf die Public Cloud sensibilisiert hat, gibt es dennoch Szenarien, bei denen eine Public Cloud weiterhin in Frage kommen kann. Es kommt auf die Sensibilität der Daten an und wie ein Unternehmen damit selbst umgehen möchte.

Die Microsoft Private Cloud Services lassen sich ebenfalls mit Microsofts Public Cloud verbinden, um evtl. Lastspitzen auszugleichen oder die Zusammenarbeit in unterschiedlichen Regionen zu verbessern. Hier ein paar Einsatzmöglichkeiten.

SharePoint Online & Office 365

Wollen sich Unternehmen weltweit vergrößern, muss auch die IT mitwachsen. Das stellt bei on-Premise Lösungen finanzielle und zeitliche Herausforderungen dar. Einfacher ist es, neue Standorte über Cloud Lösungen anzubinden und den Mitarbeitern damit denselben Zugriff auf Dokumente und Applikationen zu ermöglichen wie den Mitarbeitern in der zentralen Niederlassung.

Hier können SharePoint Online und Office 365 helfen. Beide ermöglichen die standortübergreifende Zusammenarbeit und den Datenaustausch zwischen Mitarbeitern an geographisch unterschiedlichen Orten.

Exchange Online

Wie beim Austausch von Daten und der globalen Zusammenarbeit verhält es sich beim Thema E-Mail. Vergrößert sich ein Unternehmen überregional oder gar global stehen IT-Entscheider vor denselben Herausforderungen. Eine Private Cloud auf Basis von Microsoft lässt sich zum einen mit Exchange Online erweitern, um den wachsenden Speicherbedarf gerecht zu werden. Darüber hinaus können Mitarbeiter über eine simple URL auf die Exchange-Dienste in der Private oder Public Cloud zugreifen.

SQL

Wer an Microsoft und Datenbanken denkt, dem fällt zunächst Microsoft Access ein. Für Leute, die mehr Performance benötigen der Microsoft SQL-Server. Wohlgemerkt verschlingt, insbesondere ein Datenbankserver, massiv an Hardware und benötigt eine Menge Performance um die heutigen Anforderungen zu erfüllen.

Eine Microsoft Alternative aus der Cloud heißt SQL Azure. Dabei handelt es sich um einen vollständig verwalteten SQL-Server in Microsofts Public Cloud, der weltweit zur Verfügung steht.

Applikationsskalierung

In Zeiten globaler Vernetzung und des Internets lassen sich die benötigten Ressourcen für eine Applikation nur noch schwer einschätzen. Eine einzige Marketingaktion kann entscheidend für den Erfolg oder Misserfolg (Applikationen bricht unter der Last zusammen.) eines neuen Service sein. Gegensteuern lässt sich nur mit hohen Investitionen in die eigene Infrastruktur, ohne genau zu wissen, ob die Ressourcen tatsächlich benötigt oder ob sie gar überhaupt ausreichen werden.

Public Cloud Infrastrukturen sind dynamischer, da hier grundsätzlich mehr Ressourcen zur Verfügung stehen als es ein Unternehmen in der Regel im eigenen Rechenzentrum kann. So lassen sich Applikationen in der Cloud ebenfalls während Spitzenlasten ausfallsicher und skalierbar betreiben. Nehmen die Zugriffe zu, werden weitere Ressourcen automatisch hinzugefügt und wieder entfernt, wenn der Ansturm vorbei ist. Dabei kann die Applikation entweder direkt in der Public Cloud betrieben werden oder zunächst in der Private Cloud laufen und bei Bedarf weitere Ressourcen aus der Public Cloud anfordern (Hybrid Cloud).

Zu beachten ist hier jedoch, dass Applikationen, seien sie lokal oder bereits direkt für die Cloud gedacht, auch für die Cloud entwickelt werden müssen.

Kategorien
Kommentar

Ein deutscher Patriot Act schadet dem deutschen Cloud Computing Markt

Wie netzpolitik.org berichtet, arbeiten das deutsche Bundesfinanzministerium sowie das Bundesinnenministerium an der Überwachung von Daten in der Cloud. Ebenso arbeiten das Zollkriminalamt (ZKA) sowie das Bundesamt für Verfassungsschutz im Rahmen internationaler Arbeitsgruppen an Methoden, um Daten aus der Cloud abzuhören. Zusammen mit der Bundesnetzagentur gehören beide dazu dem „European Telecommunications Standards Institute“ (ETSI) an. Zwar sei das Bundeskriminalamt (BKA) nicht direkt mit involviert, sei aber in Kontakt mit dem ZKA und habe Einfluss auf Entwicklungen und Beschlüsse.

Das ETSI soll Datenschutz umgehen

Bereits im August hatte ich darüber geschrieben, dass sich das ETSI mit Technologien beschäftigt, um den Datenschutz trotz Mechanismen wie z.B. SSL auszuhebeln.

Das ETSI soll dazu „eine geheime Hintertür für die Cloud“ entwickeln. Dabei soll es darum gehen, den Sicherheitsbehörden das Abhören und Überwachen von Kommunikationsdaten in der Cloud zu erleichtern. Das soll neben Angeboten wie Facebook, Twitter usw. ebenfalls Unternehmensangebote wie die Amazon Web Services, Microsoft Windows Azure und andere Anbieter betreffen. Dazu habe sich das ETSI eine Backdoor überlegt, um unkompliziert den unautorisierten Zugriff zu ermöglichen.

SSL wird ausgehebelt

Bei der ETSI Idee handelt es sich, wie sonst oft diskutiert, allerdings nicht um rechtliche Themen wie bspw. dem „Patriot Act“. Hier geht es um reine Technik. Das ETSI will eine Schnittstelle definieren, mit der europäische Sicherheitsbehörden Zugriff auf die Cloud Services der Anbieter erhalten. Die ETSI-Arbeitsgruppe “TC Lawful Interception” stellt sich die Umsetzung so vor, dass die Internet-Anbieter sämtlichen Verkehr standardmäßig umleiten. Nutzt ein Anwender eine verschlüsselte HTTPS-Verbindung (was mittlerweile Standard ist), soll der Datenverkehr auf spezielle Server in das Rechenzentrum des Internet-Anbieter umgeleitet werden. Hier sollen die Sicherheitsbehörden dann den Zugriff auf die Daten erhalten. Um das zu realisieren, müssen die entsprechenden SSL-Zertifikate ausgehebelt werden. Der ETSI geht es nach eigenen Angaben nur um die Erfassung der Datenkommunikation und nicht um die Kontrolle der Inhalte. Der britische Sicherheitsspezialisten und Leiter des Computer Laboratory der Universität Cambridge Ross Anderson hingegen schreibt nach einer Analyse des ETSI-Entwurfs allerdings: „Wenn man die Infrastruktur baut, auf die sich das ETSI geeinigt hat, kann diese für Überwachungsaktivitäten genutzt werden.“

Konsortium hilft beim Forschen zum Schnüffeln

Wie netzpolitik weiter schreibt, arbeiten die Deutsche Telekom und die 1&1 Internet AG zusammen unter der Firma „Strategie- und Forschungszentrum Telekommunikation“ (SFZ TK) an dem gemeinsamen Projekt mit dem Namen „CLOUD“ an der Überwachung von Cloud-Diensten. Zwar geht es nur um die „Fragestellungen zu Cloud-Computing und dessen Implikationen auf die Telekommunikationsüberwachung“, aber was man zwischen den Zeilen lesen kann ist besorgniserregend:

„Die unter Umständen weltweite und nicht transparente Verteilung der Daten, Software, Betriebssysteme und Speicher sowie der in der Regel auf verschlüsselten Kommunikationsprotokollen basierende Zugang zu Cloud-Diensten erschwert einen Zugriff der Sicherheitsbehörden.“

Neben dem BKA und der Bundespolizei arbeitet ebenfalls das Bundesamt für Verfassungsschutz mit SFZ TK zusammen.

Deutschland verbaut sich selbst einen kleinen Wettbewerbsvorteil

Im Mai hatte ich im Verlauf der SecureCloud 2012 in Frankfurt noch die Gelegenheit mit mehreren Beratern zu sprechen. Die durchweg einstimmigen Aussagen waren, dass sich Cloud Angebote aus Deutschland mit dem Verkaufsargument des hohen Datenschutzniveau sehr gut verkaufen lassen.

Ein deutscher Patriot Act schadet dem deutschen Cloud Computing Markt

Einige Cloud Anbieter aus Deutschland werben u.a. mit solchen Geschichten wie „Made in Germany“ und hohen Datenschutzanforderungen in unserem Land. So ganz unrecht haben sie damit natürlich nicht. Im Vergleich zu anderen Ländern ist der Zugriff auf Daten bei einem deutschen Anbieter so ohne weiteres nicht möglich.

Dieser Wettbewerbsvorteil – TRUST (wir erinnern uns an die CeBIT 2012) – wird, geht es nach der deutschen Bundesregierung, jedoch bald verschwinden. Es geht dann nicht mehr darum, wer den besseren Datenschutz bieten kann oder vertrauenswürdig ist, sondern einzig und allein darum wer die besten Services und die innovativsten Produkte hat. Unternehmen müssen in Zukunft zudem noch besser darauf achten, ihre Daten zu klassifizieren und entscheiden, was in die Cloud soll und was doch lieber on-Premise bleibt. Darüber hinaus wird diese Entwicklung Einfluss auf den Markt haben, da sich immer mehr Unternehmen für eine eigene Private Cloud entscheiden.

Willkommen Private Cloud

Das Vertrauen in die Public Cloud wird weiter sinken und Public Cloud Services – die für das Cloud Computing in Reinform stehen – werden demnach einen weiteren Dämpfer erhalten! Interessant ist, dass die Marktforscher von Gartner für 2012 ein großes Wachstum in der Public Cloud sehen. Zudem sollen die Ausgaben für Enterprise Public Cloud Services bis 2016 die 207 Milliarden US-Dollar erreichen.

Ziehen wir diese neue Entwicklung heran, wird Gartner seine Prognosen wohl herunterschrauben müssen. Die Bedenken von CIOs, Public Cloud Services zu nutzen, sind derzeit eh schon höher als gedacht. Der Hauptgrund sind die Befürchtungen vor Datenlecks in der Public Cloud. Deutsche Unternehmen werden die Gedanken der deutschen Regierung ebenfalls nicht gerne hören. Eine Umfrage von IDC ergab vor kurzem, das ein Drittel der befragten deutschen Unternehmen in 2013 zwischen 26% – 50% ihres IT-Budget in die Private Cloud investieren wollen. Allerdings interessieren sich 90% der Unternehmen nicht(!) für die Public Cloud.

Kategorien
Comment

Failures in the cloud are in the nature of man

If the cloud falls it has to do with the people who are responsible for it. How could it be otherwise. Finally, the systems do not program or configure on their own. And even if it means „No cloud without automation“ you have to say „(No cloud without automation) without human skills“. In particular, we see our human weaknesses in the cloud when an outage occurs. Especially this year, we have seen a few of them.

People make mistakes

And that’s ok. As long as we are learning from those mistakes. What at one or the other vendors was not the case this year. I will not mention any names here, because those certainly know itself that they need to do something much better. But if an emergency generator does not work twice and also all emergency plans fail, something is wrong!
Although this failure, I am writing about, was not primarily a human error. Because against a hurricane and storm we are helpless. But the cascade of failures that happened during the storm is inexplicable.

Other errors that have happened this year, can be assigned directly to the people. On the one hand we had for example misconfigured network interfaces which ensure that the vendor networks were flooded with data and have therefore set themselves checkmate. Or a provider recently changes the configuration of the load balancer, which led to a prolonged outage.

Like I said, people make mistakes. And therefore one should not always blame „the big bad cloud“, but rather look behind the facade and keep in mind that there are just sitting humans like you and I.

Along these lines, let’s have a better 2013. 🙂

Kategorien
Kommentar

Ausfälle in der Cloud liegen in der Natur des Menschen

Wenn die Cloud fällt sind es wir Menschen, die dafür verantwortlich sind. Wie soll es auch anders sein. Schließlich programmieren und konfigurieren sich die Systeme nicht von alleine. Und auch wenn es heißt „No cloud without automation“ muss man eigentlich sagen „(No cloud without automation) without human skills“. Insbesondere zeigen sich unsere menschlichen Schwächen in der Cloud dann, wenn es wieder mal zu einem Ausfall kommt. Vor allem in diesem Jahr haben wir ein paar davon gesehen.

Menschen machen Fehler

Und das ist ok. Solange aus diesen Fehlern auch gelernt wird. Was bei dem einen oder anderen Anbieter dieses Jahr nicht der Fall war. Ich will und werde hier keine Namen nennen, denn diejenigen Wissen bestimmt selbst, dass sie etwas deutlich besser machen müssen. Aber wenn ein Notstromaggregat innerhalb kürzester Zeit zweimal nicht funktioniert und ebenfalls sämtliche Notfallpläne scheitern, läuft etwas falsch!
Zwar war dieser Ausfall, von dem ich hier spreche, in erster Linie kein menschliches Versagen. Denn gegen einen Wirbelsturm und Gewitter sind wir machtlos. Aber die Kaskade von Fehlern die während des Unwetters passiert war, ist unerklärlich.

Andere Fehler die in diesem Jahr passiert sind, lassen sich dem Menschen direkt zuordnen. Zum einen waren da bspw. falsch konfigurierte Netzwerkschnittstellen die dafür gesorgt haben, dass die Netze der Anbieter mit Daten überflutet wurden und sich somit selbst Schachmatt gesetzt haben. Oder es wurden erst kürzlich bei einem Anbieter Änderungen an der Konfiguration der Load-Balancer vorgenommen, die zu einem längeren Ausfall führten.

Wie gesagt, Menschen machen Fehler. Und daher sollte man nicht immer „der großen bösen Cloud“ die Schuld geben, sondern hinter die Fassade schauen und bedenken, dass dort auch nur Menschen wie Du und ich sitzen.

In diesem Sinne, auf in ein besseres 2013. 🙂