Kategorien
Events

Event-Tipp: CloudOps Summit 2012 – Cloud Computing auf der nächsten Ebene

Die Grundsatzdiskussionen um das Thema Cloud Computing sind vorbei. Der CloudOps Summit 2012 im September wird zeigen, wie Unternehmen Cloud Services nutzen müssen und welche Auswirkungen dies auf den laufenden Betrieb hat. Nach der ersten Veranstaltung im letzten Jahr, findet der zweite CloudOps Summit am 20. September 2012 erneut im Hörsaalzentrum am Campus Westend, Universität Frankfurt, statt. Die kostenlose Cloud Konferenz richtet sich an CIOs, CFOs, CTOs, Architekten und Betriebsverantwortliche, die das Potenzial des Cloud Computing für ihr Unternehmen erkannt haben und sich anhand von anwendungsbezogenen Themen informieren wollen.

Cloud, Big Data, Skills

Auf der Agenda stehen neben Themen zur Integration von existierenden Anwendungen in die Cloud, ebenfalls Big Data Diskussionen und der Aufbau von Cloud-Architekturen. Ein weiteres Thema richtet sich an den kommenden Wandel der Arbeitswelt durch Cloud Computing und welche Auswirkungen dieses auf die Mitarbeiter hat. Referenten, unter anderem von arago, Amazon Web Services, EMC, Interxion, Logica und syngenio stellen ihre Themen in Workshops und fünfminütigen Lightning Talks vor. Bis zum 15. August ist der „Call for Papers“ noch geöffnet, bei dem Interessierte einen eigenen Lightning Talk oder Workshop zu einem Cloud-Projekt einreichen können.

Kostenlos und Qualitativ

Die Teilnahme am CloudOps Summit 2012 ist kostenlos. Unter www.cloudops.de sind aktuelle Informationen zur Veranstaltung sowie Anmeldemöglichkeiten für Teilnehmer, Sprecher und Sponsoren abrufbar. Echtzeit-Nachrichten vom Event, einschließlich der Vorträge und Workshops, können Interessenten zudem über Twitter unter @CloudOps_Summit verfolgen. In diese Jahr hat der CloudOps Summit unter http://cloudops.de/blog zudem einen eigenen Blog mit Informationen, Meinungen und Analysen zu aktuellen Cloud Themen.

Kategorien
Kommentar

Der Feind ist mitten unter uns: Das ETSI will den vermeintlich sicheren Cloud Hafen Europa zerstören

Europa verliert seinen Status als vermeintlich sicherer Hafen für Cloud Services. Die Zeiten, in denen Berater, Rechtsanwälte und Datenschützer den Finger vor den Bösen USA heben können sind vorbei. Der Feind ist Mitten unter uns und heißt ETSI (European Telecommunications Standards Institute).

Europa und Datenschutz… Kinder das waren noch Zeiten!

Werden wir wahrscheinlich unseren Kindern und Enkeln erzählen. Lange galt Europa als das Vorbild, wenn es um den Datenschutz ging. Die erste Frage die sich ein Cloud Anbieter von Beratern, Analysten und Kunden gefallen lassen musste war, ob er denn auch ein Rechenzentrum in Europa betreibe. Denn hier kommen die „bösen“ USA schließlich nicht an die Daten ran. Aus und vorbei. Geht es nach der ETSI, sind wir alle bald weltweit gleich gestellt, sei es in den USA, Asien, Afrika und ja, sogar in EUROPA!

Wie das ZDF bzw. ORF-Journalist Erich Moechel schreiben, will das ETSI „eine geheime Hintertür für die Cloud“. Dabei soll es darum gehen, den Sicherheitsbehörden das Abhören und Überwachen von Kommunikationsdaten in der Cloud zu erleichtern. Das soll neben Angeboten wie Facebook, Twitter usw. ebenfalls Unternehmensangebote wie die Amazon Web Services, Microsoft Windows Azure und andere Anbieter betreffen. Dazu habe sich das ETSI eine Backdoor überlegt, um unkompliziert den unautorisierten Zugriff zu ermöglichen.

SSL wird ausgehebelt

Bei der ETSI Idee handelt es sich, wie sonst oft diskutiert, allerdings nicht um rechtliche Themen wie bspw. dem „Patriot Act“. Hier geht es um reine Technik. Das ETSI will eine Schnittstelle definieren, mit der europäische Sicherheitsbehörden Zugriff auf die Cloud Services der Anbieter erhalten. Die ETSI-Arbeitsgruppe “TC Lawful Interception” stellt sich die Umsetzung so vor, dass die Internet-Anbieter sämtlichen Verkehr standardmäßig umleiten. Nutzt ein Anwender eine verschlüsselte HTTPS-Verbindung (was mittlerweile Standard ist), soll der Datenverkehr auf spezielle Server in das Rechenzentrum des Internet-Anbieter umgeleitet werden. Hier sollen die Sicherheitsbehörden dann den Zugriff auf die Daten erhalten. Um das zu realisieren, müssen die entsprechenden SSL-Zertifikate ausgehebelt werden. Der ETSI geht es nach eigenen Angaben nur um die Erfassung der Datenkommunikation und nicht um die Kontrolle der Inhalte. Der britische Sicherheitsspezialisten und Leiter des Computer Laboratory der Universität Cambridge Ross Anderson hingegen schreibt nach einer Analyse des ETSI-Entwurfs allerdings: „Wenn man die Infrastruktur baut, auf die sich das ETSI geeinigt hat, kann diese für Überwachungsaktivitäten genutzt werden.“

Willkommen Private Cloud

Wird die Idee Realität ist das Vertrauen in die Public Cloud zerstört und Public Cloud Services – die für das Cloud Computing in Reinform stehen – wären demnach tod! Interessant ist, dass die Marktforscher von Gartner für 2012 ein großes Wachstum in der Public Cloud sehen. Zudem sollen die Ausgaben für Enterprise Public Cloud Services bis 2016 die 207 Milliarden US-Dollar erreichen.

Ziehen wir diese neue Entwicklung heran, wird Gartner seine Prognosen wohl herunterschrauben müssen. Die Bedenken von CIOs, Public Cloud Services zu nutzen, sind derzeit eh schon höher als gedacht. Der Hauptgrund sind die Befürchtungen vor Datenlecks in der Public Cloud. Deutsche Unternehmen werden die Gedanken der ETSI ebenfalls nicht gerne hören. Eine Umfrage von IDC ergab vor kurzem, das ein Drittel der befragten deutschen Unternehmen in 2013 zwischen 26% – 50% ihres IT-Budget in die Private Cloud investieren wollen. Allerdings interessieren sich 90% der Unternehmen nicht(!) für die Public Cloud.


Bildquelle: http://mully1.wordpress.com

Kategorien
News

Microsoft erklärt den Grund für den Ausfall von Windows Azure in der Region "West Europe"

Microsoft hat gestern weitere Informationen zu dem 2-stündigen Ausfall von Windows Azure in Europa in der letzten Woche bekanntgegeben. In einer ersten Stellungnahme am Tag nach dem Ausfall berichtete Microsoft von einer fehlerhaften Netzwerkkonfiguration, die zu den Problemen geführt haben soll.

Fehlkonfiguration und Nachrichtenflut

In einem weiteren Blogbeitrag erklärt Windows Azure General Manager Mike Neil, dass Microsoft weitere Rechenkapazitäten hinzufügen wollte, um die steigende Nachfrage in der Sub-Region „West Europa“ zu befriedigen. Allerdings wurde das Limit der für die neuen Kapazitäten benötigten „Devices“ nicht angepasst. Da die Last auf diesen Cluster plötzlich stark Anstieg, wurde der Grenzwert schnell überschritten, was zu einer großen Anzahl von Netzwerkmanagement-Nachrichten führte. Die erhöhten Managementdaten lösten wiederum Fehler in der Hardware des Clusters aus, wodurch die CPU-Auslastung auf 100% anstieg.

Cloud Computing ist eine Frage des Vertrauens und der Transparenz

Mit dem Stand heute haben wir für das Jahr 2012 zwei Spitzenreiter bei den Public Cloud Ausfällen. Platz eins teilen sich Amazon (3) und Salesforce (3), gefolgt von Microsoft (2). Das Ausfälle immer mal wieder vorkommen werden, daran sollte man sich höchstwahrscheinlich gewöhnen. Denn eine 100% Verfügbarkeit gibt es nun einmal nicht. Und jeder Anbieter, der eine 100% Verfügbarkeit verkauft, DER LÜGT! Warum? Ganz einfach, wie bei einigen Amazon Ausfällen, als auch dem letzten Microsoft Ausfall ist u.a. menschliches Versagen Schuld an dem Ausfall. Menschen machen Fehler.

Cloud Computing Anbieter müssen daher dafür sorgen, dass ihre Dienstleistungen und vor allem die Art wie sie arbeiten transparent ist. Das schließt die zeitnahe und umfangreiche Analyse aber vor allem die uneingeschränkte öffentliche Kommunikation während eines Ausfalls ein. Transparenz ist im Cloud Computing enorm wichtig für ein Unternehmen, dass seine Daten einem Anbieter anvertraut und bei dem die Daten vermeintlich auf dem selben physikalischen System gespeichert sind wie die eines Mitbewerbers. Denn Transparenz schafft Vertrauen!


Bildquelle: http://haymarket.net.au

Kategorien
News

openQRM 5.0 erscheint mit überarbeiteter Benutzeroberfläche und neuem Dual-Lizenzmodell

Wie bereits Anfang Juni hier auf CloudUser angekündigt, hat die openQRM Enterprise GmbH mit openQRM 5.0 die nächste Generation ihrer Infrastructure-as-a-Service- (IaaS) und Cloud Computing Management Lösung veröffentlicht. Zudem wird ein neues duales Lizenzmodell präsentiert, das es Unternehmen ermöglicht, professionellen Support aus erster Hand zu erhalten und damit ihre Investitionen in eine Open-Source Datacenter-Management-Plattform langfristig zu sichern.

openQRM 5.0 erscheint mit überarbeiteter Benutzeroberfläche und neuem Dual-Lizenzmodell

Komplett neue Benutzeroberfläche

openQRM 5.0 wurde weitgehend umgeschrieben, wobei nicht nur äußerliche Änderungen an dem IaaS- und Cloud-Builder vorgenommen wurden. Neben der Umstellung der graphischen Benutzeroberfläche auf das Model-View-Controller-Konzept wurden zudem alle openQRM-Plugins neu geschrieben und mit weiteren Funktionen ausgestattet. Als weitere Erneuerung steht nun ein komplett neues Cloud-Portal zur Verfügung, sowie Postgres als weitere Backend-Datenbank neben MySQL.

openQRM 5.0 wurde darüber hinaus so erweitert, dass alle weltweit möglichen Sprachen unterstützt werden können. Als Standardsprachen unterstützt openQRM 5.0 ab sofort Englisch und Deutsch, das Cloud-Portal zusätzlich noch Spanisch, Niederländisch, Französisch und Italienisch.

Um den Administrator zu zeigen, welche Aktionen das System aktuell im Hintergrund durchführt, hat openQRM 5.0 eine Statusanzeige für „Active Events“ erhalten, die der Admin jederzeit einsehen kann.

Neben der webbasierten Benutzeroberfläche bietet openQRM 5.0 dem Nutzer nun auch einen vollwertigen Kommandozeilen-Client, mit dem die Management-Plattform innerhalb einer Terminal-Sitzung kontrolliert oder mit weiteren Anwendungen integriert werden kann.

Alle weiteren Erneuerungen befinden sich im Change-Log zu openQRM 5.0 unter http://www.openqrm-enterprise.com/de/ueber-openqrm/changlog-50.html.

Dual-Lizenzmodell für professionellen Support

Mit openQRM 5.0 ändert sich aufgrund verstärkter Nachfrage der Kunden das Lizenzmodell. Neben der bereits vorhandenen Open-Source-Version (GPL 2.0) können Unternehmen zusätzlich eine Enterprise-Version erwerben. Diese bietet neben erweiterten, unternehmensrelevanten Funktionen, ebenfalls professionellen Support durch die openQRM Enterprise GmbH.

In den letzten Jahren vermehrten sich die Anfragen von Kunden nach professionellem Support und Enterprise-Lizenzen, aber vor allem nach weiteren Feature-Wünschen. Darüber hinaus ist die Anzahl der Support-Anfragen angestiegen. Aus diesem Grund hat sich die openQRM Enterprise GmbH dafür entschieden das Lizenzmodell zu ändern, um diesen Anfragen weiterhin professionell gerecht zu werden. Professionelle Anwender erhalten mit der neuen Enterprise-Version somit ein kommerziell lizensiertes Produkt, inklusive der damit einhergehenden Investitions- und Updatesicherheit, Produktgewährleistung und professionellem Support. Kunden mit bestehenden Serviceverträgen (SLA) werden automatisch von der neuen Version profitieren und erhalten alle nötigen Lizenzen für openQRM Enterprise 5.0.

Die Community-Version von openQRM 5.0 wird von der Änderungen ebenfalls profitieren. Die freie Version von openQRM 5.0 erscheint wie bislang auch unter der GPLv2-Lizenz und wird weiterhin stetig verbessert werden. Zudem will die openQRM Enterprise GmbH die Qualität der Dokumentation, HowTos und Videos – auf welche die Community kostenlos Zugriff erhalten wird – fortlaufend steigern.

Weitere Informationen zur Community- und Enterprise-Version von openQRM 5.0 und deren Unterschiede sind auf http://openqrm-enterprise.com/products-service/version-comparison.html zu finden.

Kategorien
News

Ausfall: Salesforce erneut mit Performance-Problemen

Nach den beiden Ausfällen im Juni und Juli, startet der CRM Anbieter Salesforce erneut mit Problemen in den August. Dieses Mal traf es weltweit den eigenen E-Mail Service, der – laut der Statusseite – mit einem Leistungsabfall („performance degradation“) zu kämpfen hatte.

Leistungsabfall und keine konkreten Informationen

Die Probleme begannen um 2:18 AM PDT, wo die Statusseite einen Leistungsabfall des E-Mail Service anzeigte. Halbstündlich fügte Salesforce ein Update zu der Seite hinzu, allerdings ohne nennenswerten Informationswert. Es wurde lediglich immer von

The salesforce.com Technology Team is actively working on resolving the performance degradation issue affecting the Email services. At this point, customers may experience slowness with Email services. Please check the status of trust.salesforce.com frequently for updates regarding this issue.

berichtet. Weitere Informationen wurden nicht bekanntgegeben.

Das führte Salesforce bis 6:30 am PDT weiter fort und berichtete dann:

The salesforce.com Technology Team has resolved the performance degradation issue affecting the Email Services. The problem began at 6:45am and was resolved as of 1:30pm UTC.

Um 11:46 am PDT folgte ein weiteres Problem mit der Instanz CS6, bei der ebenfalls von einem Leistungsabfall berichtet wurde.

The salesforce.com Technology Team is working to isolate a performance degradation issue on the CS6 instance. Some customers might be experiencing intermittent errors.

Um 12:01 pm PDT wurde das Problem dann scheinbar gelöst:

The salesforce.com Technology Team has resolved the performance degradation issue on the CS6 instance. The problem began at 17:47 UTC and was resolved as of 18:36 UTC.

Salesforce wird zum Problemfall

Der Ausfall des E-Mail Systems ist nun nicht so gravierend wie die letzten Ausfälle. Hier zeigten die Salesforce Systeme ebenfalls Leistungsabfälle. Insbesondere der Ausfall im Juli offenbarte schwerwiegende Probleme, bei dem mehrere Instanzen nicht erreichbar waren und von dem ebenfalls die sogenannten “Sandbox” Instanzen betroffen waren, welche die Salesforce Kunden für die Entwicklung und Test neuer Funktionen nutzen. Den Ausfall im Juni begründete Salesforce mit einer Fehlfunktion zwischen dem Storage und der Datenbank.

Kategorien
News

Rackspace präsentiert sein OpenStack Portfolio

Rackspace hat heute offiziell seine Cloud Services – Cloud Databases und Cloud Servers – auf seine neue Cloud Plattform auf Basis von OpenStack ausgerollt. Neue Nutzer dürfen sofort die OpenStack Cloud nutzen. Bestehende Kunden werden in bestimmten Zeitfenstern auf die neue Plattform migriert. Mit diesem Wandel gehört Rackspace, neben HP, nun eine der größten OpenStack Umgebungen weltweit.

Rackspace präsentiert sein OpenStack Portfolio

Das Rackspace OpenStack Portfolio

Das Rackspace Portfolio auf Basis von OpenStack umfasst die Angebote Cloud Servers, Databases, Cloud Files und Cloud Sites, ein Platform-as-a.Service für .Net, PHP und Monitoring-Funktionen.

Nach eigenen Angaben werden Kunden die größten Unterschiede in den OpenStack APIs erkennen, die Serveranfragen 25 Mal schneller erstellen können.

Um seine bestehenden Kunden auf die neue Plattform zu migrieren, wird es in den nächsten Monaten Zeitfenster geben, wann das stattfinden soll. Zudem will Rackspace ein Tool entwickeln, um den Prozess zu beschleunigen.

Kategorien
News

ownCloud veröffentlicht Apps für Android und iOS

ownCloud hat native Apps für Android und iOS veröffentlicht, mit denen auf die File-Sharing- und File-Synchronisierungssoftware nun auch mobil zugegriffen werden kann. Die jeweiligen Apps sind auf Google Play bzw. im Apple App Store für jeweils 79 Cents erhältlich.

Der private Cloud Storage

Bei ownCloud handelt es sich um die Private Cloud Variante zu Cloud Storage Services wie Dropbox oder Box.net. Mit der OpenSource Software können Privatanwender und Unternehmen Adressen, Termine, Bilder, Office-, Video- und Audio-Dateien teilen und synchronisieren, die sie auf der „eigenen Festplatte“ oder bei einem Hosting-Anbieter speichern (Anmerkung). Damit können sie diese jederzeit, überall und mit jedem Endgerät nutzen – und behalten dennoch die volle Verantwortung über ihre Systeme.

Mobile Cloud Lösung

Bisher konnten die Nutzer auf ihre Daten entweder mit dem plattformunabhängigen Webclient oder dem ownCloud-Client, den es für Windows, Mac OS und Linux gibt, zugreifen. Die neuen Apps für Android und iOS ermöglichen nun auch die mobile Nutzung auf gängigen Smartphones und Tablet-PCs. Eine Übersicht der Funktionen der beiden ownCloud Apps sind unter https://owncloud.com/de/overview/mobileapps zu finden.

Kategorien
Management

CloudWashing: 16 Aussagen die beschreiben, dass es sich nicht um Cloud Computing handelt

In den zwei Artikeln „Woran erkennt man echtes Cloud Computing“ und „Hört endlich mit eurem CloudWashing auf! Ihr habt eh verloren“, habe ich auf den Missstand hingewiesen, dass manche Anbieter auf den Cloud Computing Zug aufspringen, aber ihre eigenen Vorstellungen davon haben, um was es sich beim Cloud Computing tatsächlich handelt. James Governor von RedMonk hat vor längerer Zeit ebenfalls einen Artikel geschrieben, in dem er 16 Aussagen trifft, die man gut nutzen kann um zu zeigen, dass es sich bei einem vermeintlichen Cloud Computing Angebot nun einmal nicht um Cloud handelt.

Selbst prüfen: Dann handelt es sich nicht um Cloud Computing

  • Wenn man das Etikett entfernt und darunter etwas von “Grid” oder “OGSA” steht… ist es kein Cloud Computing!
  • Wenn man ein 40 Seiten starkes Pflichtenheft an den Anbieter schicken muss… ist es kein Cloud Computing!
  • Wenn man das Angebot nicht mit der privaten Kreditkarte bezahlen kann… ist es kein Cloud Computing!
  • Wenn man Hardware kaufen muss… ist es kein Cloud Computing!
  • Wenn es keine API gibt… ist es kein Cloud Computing!
  • Wenn man die eigenen Systeme dafür neu entfernen muss… ist es kein Cloud Computing!
  • Wenn für das Provisieren länger als 10 Minuten benötigt wird… ist es kein Cloud Computing!
  • Wenn das de-Provisieren länger als 10 Minuten dauert… ist es kein Cloud Computing!
  • Wenn man weiß wo sich die Maschinen befinden… ist es kein Cloud Computing!
  • Wenn sich ein Consultant im Raum befindet… ist es kein Cloud Computing!
  • Wenn man vorab die Anzahl der benötigten Maschinen spezifizieren muss… ist es kein Cloud Computing!
  • Wenn maximal ein Betriebssystem unterstützt wird… ist es kein Cloud Computing!
  • Wenn man sich nicht mit dem eigenen System dorthin verbinden kann… ist es kein Cloud Computing!
  • Wenn man Software installieren muss um das Angebot nutzen zu können… ist es kein Cloud Computing!
  • Wenn man die gesamte Hardware besitzt… ist es kein Cloud Computing!
  • Wenn es länger als 20 Folien benötigt um das Angebot zu erklären… ist es kein Cloud Computing!

Bildquelle: http://freddieandcinnamon.wordpress.com

Kategorien
Kommentar

ZDF: Ahnungslosigkeit im technischen Jenseits

Das ZDF scheint aus den Problemen, die sie während der WM 2010(!) hatten, keine Lehren gezogen zu haben. Zumindest liest sich so ein Kommentar von Eckart Gaddum, verantwortlich für die Neuen Medien im ZDF.

Rückblick: WM 2010

Während des Spiels Deutschland gegen Serbien bei der WM 2010 konnte man als Zuschauer ein klassisches Szenario erleben, wo Cloud Computing hätte helfen können. Das ZDF übertrug das WM Spiel ab 13:30 Uhr, also zu einer Uhrzeit wo die Vielzahl der Menschen in Deutschland arbeiten muss. Parallel zur Fernsehübertragung existiert(e) ganz modern ebenfalls ein Live Stream, erreichbar über die Internetseite des ZDF – http://zdf.de. Die Vorberichte des Spiels wurden stabil übertragen. Es wurde nicht einmal der Eindruck vermittelt, einen Internet Stream zu sehen. Doch bereits während der Nationalhymnen brach der Stream zusammen!

ZDF: Stand 2012

Zusammen mit der ARD bietet das ZDF zusätzlich zum Fernsehprogramm ebenfalls bis zu sechs weitere Olympia Sportarten live über das Internet an. Dabei griffen am 28. Juli über 1,6 Millionen auf die Highlightvideos zu. Live schauten knapp über eine Million zu.

Und jetzt kommt Herr Gaddum: „Kurzzeitig – wie gestern beim Tischtennis – hat uns das große Interesse der Leute auch schon mal in die Knie gezwungen. Mit einem solchen Ansturm haben selbst wir nicht gerechnet.“ Das ZDF plant seine Systeme aufzurüsten, aber man höre: „Und dennoch können wir nicht jeden Nutzungs-Peak vorausahnen – das ist eben das Netz„, so Gaddum.

Ahnungslosigkeit im technischen Jenseits

Sehr geehrter Herr Gaddum, Sie müssen nicht jeden Nutzungspeak vorausahnen können. Denn Sie haben es richtig erkannt, das Netz ist unberechenbar. ABER, es gibt Technologien und Systeme, die Ihnen dabei helfen und Ihnen das Vorausahnen abnehmen. Schauen Sie doch mal wie es der moderne Mittbewerb wie bspw. Netflix macht.

In diesem Sinne.

Kategorien
News

Netflix veröffentlicht seinen Chaos Monkey

Netflix hat den Quellcode für seinen Chaos Monkey veröffentlicht. Das schreiben Cory Bennett und Ariel Tseitlin auf dem Netflix-Blog. Unternehmen die ernsthaft Systemarchitekturen in der Cloud der Amazon Web Services (AWS) betreiben wollen und sich auf Ausfälle von AWS vorbereiten möchten, sollten auf den Chaos Monkey zurückgreifen, um das eigene System zu stabilisieren.

Der Chaos Monkey

Der Chaos Monkey ist ein Service der auf den Amazon Web Services läuft, nach Auto Scaling Groups (ASGs) sucht Instanzen (virtuelle Maschinen) pro Guppe wahllos beendet. Dabei ist die Software flexibel genug entwickelt worden, dass sie ebenfalls auf den Plattformen anderer Cloud Anbieter funktioniert. Der Service ist voll konfigurierbar, läuft standardmäßig aber an gewöhnlichen Werktagen von 09.00 Uhr bis 15.00 Uhr. In den meisten Fällen hat Netflix seine Anwendungen so geschrieben, dass diese weiterhin funktionieren, wenn eine Instanz plötzlich Probleme hat. In speziellen Fällen passiert das bewusst nicht, damit die eigenen Leute das Problem beheben müssen, um daraus zu lernen. Der Chaos Monkey läuft also nur ein paar Stunden am Tag, damit sich die Entwickler nicht zu 100% auf ihn verlassen.

Weitere Informationen zum Chaos Monkey und der Simian Army gibt es unter „Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur„.

Chaos Monkey Quellen