Kategorien
News

openQRM 5.0 erscheint mit überarbeiteter Benutzeroberfläche und neuem Dual-Lizenzmodell

Wie bereits Anfang Juni hier auf CloudUser angekündigt, hat die openQRM Enterprise GmbH mit openQRM 5.0 die nächste Generation ihrer Infrastructure-as-a-Service- (IaaS) und Cloud Computing Management Lösung veröffentlicht. Zudem wird ein neues duales Lizenzmodell präsentiert, das es Unternehmen ermöglicht, professionellen Support aus erster Hand zu erhalten und damit ihre Investitionen in eine Open-Source Datacenter-Management-Plattform langfristig zu sichern.

openQRM 5.0 erscheint mit überarbeiteter Benutzeroberfläche und neuem Dual-Lizenzmodell

Komplett neue Benutzeroberfläche

openQRM 5.0 wurde weitgehend umgeschrieben, wobei nicht nur äußerliche Änderungen an dem IaaS- und Cloud-Builder vorgenommen wurden. Neben der Umstellung der graphischen Benutzeroberfläche auf das Model-View-Controller-Konzept wurden zudem alle openQRM-Plugins neu geschrieben und mit weiteren Funktionen ausgestattet. Als weitere Erneuerung steht nun ein komplett neues Cloud-Portal zur Verfügung, sowie Postgres als weitere Backend-Datenbank neben MySQL.

openQRM 5.0 wurde darüber hinaus so erweitert, dass alle weltweit möglichen Sprachen unterstützt werden können. Als Standardsprachen unterstützt openQRM 5.0 ab sofort Englisch und Deutsch, das Cloud-Portal zusätzlich noch Spanisch, Niederländisch, Französisch und Italienisch.

Um den Administrator zu zeigen, welche Aktionen das System aktuell im Hintergrund durchführt, hat openQRM 5.0 eine Statusanzeige für „Active Events“ erhalten, die der Admin jederzeit einsehen kann.

Neben der webbasierten Benutzeroberfläche bietet openQRM 5.0 dem Nutzer nun auch einen vollwertigen Kommandozeilen-Client, mit dem die Management-Plattform innerhalb einer Terminal-Sitzung kontrolliert oder mit weiteren Anwendungen integriert werden kann.

Alle weiteren Erneuerungen befinden sich im Change-Log zu openQRM 5.0 unter http://www.openqrm-enterprise.com/de/ueber-openqrm/changlog-50.html.

Dual-Lizenzmodell für professionellen Support

Mit openQRM 5.0 ändert sich aufgrund verstärkter Nachfrage der Kunden das Lizenzmodell. Neben der bereits vorhandenen Open-Source-Version (GPL 2.0) können Unternehmen zusätzlich eine Enterprise-Version erwerben. Diese bietet neben erweiterten, unternehmensrelevanten Funktionen, ebenfalls professionellen Support durch die openQRM Enterprise GmbH.

In den letzten Jahren vermehrten sich die Anfragen von Kunden nach professionellem Support und Enterprise-Lizenzen, aber vor allem nach weiteren Feature-Wünschen. Darüber hinaus ist die Anzahl der Support-Anfragen angestiegen. Aus diesem Grund hat sich die openQRM Enterprise GmbH dafür entschieden das Lizenzmodell zu ändern, um diesen Anfragen weiterhin professionell gerecht zu werden. Professionelle Anwender erhalten mit der neuen Enterprise-Version somit ein kommerziell lizensiertes Produkt, inklusive der damit einhergehenden Investitions- und Updatesicherheit, Produktgewährleistung und professionellem Support. Kunden mit bestehenden Serviceverträgen (SLA) werden automatisch von der neuen Version profitieren und erhalten alle nötigen Lizenzen für openQRM Enterprise 5.0.

Die Community-Version von openQRM 5.0 wird von der Änderungen ebenfalls profitieren. Die freie Version von openQRM 5.0 erscheint wie bislang auch unter der GPLv2-Lizenz und wird weiterhin stetig verbessert werden. Zudem will die openQRM Enterprise GmbH die Qualität der Dokumentation, HowTos und Videos – auf welche die Community kostenlos Zugriff erhalten wird – fortlaufend steigern.

Weitere Informationen zur Community- und Enterprise-Version von openQRM 5.0 und deren Unterschiede sind auf http://openqrm-enterprise.com/products-service/version-comparison.html zu finden.

Kategorien
News

Netflix veröffentlicht seinen Chaos Monkey

Netflix hat den Quellcode für seinen Chaos Monkey veröffentlicht. Das schreiben Cory Bennett und Ariel Tseitlin auf dem Netflix-Blog. Unternehmen die ernsthaft Systemarchitekturen in der Cloud der Amazon Web Services (AWS) betreiben wollen und sich auf Ausfälle von AWS vorbereiten möchten, sollten auf den Chaos Monkey zurückgreifen, um das eigene System zu stabilisieren.

Der Chaos Monkey

Der Chaos Monkey ist ein Service der auf den Amazon Web Services läuft, nach Auto Scaling Groups (ASGs) sucht Instanzen (virtuelle Maschinen) pro Guppe wahllos beendet. Dabei ist die Software flexibel genug entwickelt worden, dass sie ebenfalls auf den Plattformen anderer Cloud Anbieter funktioniert. Der Service ist voll konfigurierbar, läuft standardmäßig aber an gewöhnlichen Werktagen von 09.00 Uhr bis 15.00 Uhr. In den meisten Fällen hat Netflix seine Anwendungen so geschrieben, dass diese weiterhin funktionieren, wenn eine Instanz plötzlich Probleme hat. In speziellen Fällen passiert das bewusst nicht, damit die eigenen Leute das Problem beheben müssen, um daraus zu lernen. Der Chaos Monkey läuft also nur ein paar Stunden am Tag, damit sich die Entwickler nicht zu 100% auf ihn verlassen.

Weitere Informationen zum Chaos Monkey und der Simian Army gibt es unter „Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur„.

Chaos Monkey Quellen

Kategorien
Services

Die Revolution beginnt: instantnavi – Mobile Navigation direkt aus der Cloud

Es handelt sich um eine Revolution und zeigt die steigende Bedeutung der Cloud auch im Consumer-Umfeld. instantnavi, ein Sub-Projekt der sozialen Mitfahrzentrale flinc, macht lokale Apps für die Navigation auf Smartphones überflüssig und überträgt die Routendaten direkt aus der Cloud auf den mobilen Webbrowser.

Die Revolution beginnt: instantnavi - Mobile Navigation direkt aus der Cloud

instantnavi: Die Revolution der mobilen Navigation hat begonnen

Zwar benötigt Googles mobile Navigation App „Google Navigation“ ebenfalls eine Datenverbindung, um die Routeninformationen live aus dem Web zu übertragen, jedoch ist dafür eine native lokale App mit einer Größe von immerhin 33,84 MB (Google Maps) notwendig.

instantnavi hingegen kann geräteunabhängig in jedem HTML-5 fähigen Webbrowser genutzt werden. Die Konfiguration erfolgt ebenfalls im Browser am PC/ Mac. Dazu meldet man sich zunächst per OAuth entweder mit seinem Twitter, Facebook Account oder per E-Mail an. Anschließend kann man neben der Zieladresse weitere Informationen (Symbole) die später auf dem Display angezeigt werden hinzufügen. Dazu gehören bspw. die aktuelle Geschwindigkeit, die Ankunftszeit oder die noch zu fahrenden Kilometer. Nun wählt man nur noch eine Farbe für die Symbole aus und gibt der Route einen Namen.

InstantNavi erzeugt anschließend einen Link in der Form http://instantnavi.com/to/[Bezeichnung] plus zusätzlichem QR-Code, der diesen Link enthält. Hinter diesen Link sind sämtliche Informationen und Konfigurationen gespeichert, die für Navigation benötigt werden. Sehr schick, die angelegten Routen lassen sich in Dosen abspeichern, um später ggf. Änderungen daran vornehmen zu können.

Dieser Link muss nun nur noch auf dem mobilen Webbrowser geöffnet, das GPS eingeschaltet werden und los geht’s.

Die Konfiguration muss derzeit noch über den Browser am Computer oder Tablet erfolgen, da die mobilen Displays für die Anordnung der Symbole zu klein sind. Hierfür sollen in Zukunft mobile Apps entwickelt werden, mit denen die Konfiguration vorgenommen werden kann.

OpenStreetMap dient als Datenbasis

Als Datenbasis greift instantnavi auf die Karten des OpenStreetMap Projekts zurück. Auf dem Rückweg vom Barcamp Bodensee 2012 habe ich die HTML-5 App (damals noch in einer geschlossenen Alpha) parallel zum „klassischen“ Navi laufen lassen. Der erste Eindruck überzeugt. Nach kurzer Zeit wurde mein aktueller Standort erkannt und der Navigationspfeil bewegte sich mit uns. Die Karte wird derzeit nur im 2D-Modus dargestellt und ist ständig nach Norden ausgerichtet, was nicht weiter stört, nur ein wenig ungewohnt für denjenigen sein kann, der sonst den 3D-Modus nutzt. Was noch fehlt ist die Sprachausgabe, aber das System befindet sich in einem frühen Status und Silvia hat mir bereits von vielen weiteren Ideen erzählt, die in die App einfließen werden. Die erstellte Route kann übrigens ebenfalls über Facebook und Twitter geteilt oder in eine Webseite oder Blog als Graphik/ Link eingebunden werden.

Die instantnavi Navigation selbst wird kostenlos bleiben. Die bereits oben angesprochene mobile App – für die Konfiguration – soll ein paar Cent kosten. Die Monetarisierung kann bspw. über Zusammenarbeit mit Restaurants, Geschäfte oder Events erfolgen, indem die Route zu der Location via Link/ Barcode auf der Webseite eingebunden wird.

Aus der Studentenbude zum professionellen Sub-Projekt

Das Projekt entstammt urspünglich einer Master Thesis von Silvia Hundegger und ihrem Kommilitonen/ Kollegen Christian Bäuerlein an der UNI Darmstadt. Beide arbeiten aktuell für die soziale Mitfahrzentrale flinc. Das soziale Netzwerk hat die Idee der beiden als ein unabhängiges Co-Projekt mit dem Ziel „eingekauft“, bald selbst ein eigenes Navigationsystem im Portfolio zu haben, um es in flinc zu integrieren. Dazu erhalten Silvia und Christian von flinc entsprechend Arbeitszeit und Ressourcen wie Entwickler, Designer usw. zur Verfügung gestellt, um InstantNavi zu realisieren. Seit Ende Juni befindet sich instantnavi im Live-Betrieb.

Kategorien
Kommentar

Hört endlich mit eurem CloudWashing auf! Ihr habt eh verloren!

Ich war einer der ersten der den Terminus CloudWashing öffentlicht verwendet hat. Da es mich einfach wahnsinnig nervt, wie die klassischen Webhoster usw. die Unwissenheit der Anwender nutzen, um sie zu betrügen!

Das ist Cloud Computing

Ich hatte hier bereits 2010 beschrieben, worauf man bei einem echten Cloud Service achten sollte.

  • On Demand:
    Ich beziehe die Ressourcen zu dem Zeitpunkt, wenn ich Sie auch tatsächlich benötige. Anschließend „gebe ich sie wieder zurück“.
  • Pay as you Go:
    Ich bezahle nur für die Ressourcen, die ich auch tatsächlich nutze, wenn ich sie nutze. Dabei wird entweder z.B. pro Benutzer, pro Gigabyte oder pro Minute/ Stunde abgerechnet.
  • Keine Grundgebühr:
    Bei einem Cloud Computing Angebot zahle ich keine monatliche/ jährliche Grundgebühr!
  • Hohe Verfügbarkeit:
    Wenn ich die Ressourcen benötige, kann ich sie zu diesem Zeitpunkt auch nutzen.
  • Hohe Skalierbarkeit:
    Die Ressourcen lassen sich automatisiert meinen Bedürfnissen anpassen. Das bedeutet, dass sie entweder mit meinen Ansprüchen wachsen, wenn ich mehr Leistung benötige oder sich verkleinern, wenn die Anforderungen wieder abnehmen.
  • Hohe Zuverlässigkeit:
    Die von mir genutzten Ressourcen sind zu dem Zeitpunkt wenn ich sie nutze tatsächlich verfügbar, worauf ich mich verlassen kann.
  • Blackbox:
    Ich muss mich nicht darum kümmern, wie es im Inneren des Cloud Angebots aussieht. Ich nutze einfach den Service über eine offene, gut dokumentierte Schnittstelle.
  • Automatisierung:
    Nachdem ich eine Grundeinrichtung bzgl. meiner Bedürfnisse vorgenommen habe, sind von mir keine weiteren manuellen Eingriffe während der Nutzung des Angebots notwendig. Ich muss z.B. die Leistung der Server oder die Größe des Speicherplatzes nicht manuell anpassen. Dafür werden mir Möglichkeiten zur Automation bereitgestellt.
  • Zugriff über das Internet:
    Darüber kann diskutiert werden. Allerdings ist der Kostenvorteil den man durch Cloud Computing erhält obsolet, wenn eine teure exklusive Mietleitung benötigt wird, um bspw. die Ressourcen eines Anbieters zu nutzen.
  • Keine zusätzlichen Installationen:
    Bei einem SaaS Angebot erfolgt die vollständige Nutzung über den Webbrowser ohne dabei eine weitere Softwarekomponenten wie z.B. Java (Umgebung) installieren zu müssen.

Das ist CloudWashing

Twinstrata hat den Spieß umgedreht und beschrieben, was acht sichere Zeichen dafür sind, dass der Anbieter CloudWashing betreibt.

    8. Das Produkt wird auf vier Paletten in einem Mack Truck geliefert.
    7. Die Rechnung für die Kühlung verdoppelt sich und freie Flächen verschwinden.
    6. Auf der Verpackung befindet sich ein „Cloud“ Aufkleber.
    5. Statt es gewünschten Pay-as-you-go Modells erhält man einen „36 monatigen Ratenzahlungsplan“.
    4. Die on-Demand Erweiterung erfolgt 90 Tage nach dem Kontakt mit einem Vertriebsmitarbeiter.
    3. Die Telefonnummer für On-Demand-Erweiterung ist ständig besetzt.
    2. Deine Berufsbezeichnung lautet nun „Cloud Administrator“, aber Du machst das gleiche wie zuvor.

    und zu guter letzt:

    1. Nach zwei Jahren ruft der Vertriebsmitarbeiter an um zu sagen: “Upgrade time!”

Hört auf mit dem CloudWashing! Ihr habt eh verloren!


Bildquellen: http://community.service-now.com, http://blogspot.com

Kategorien
Kommentar

Dein Cloud Services Setup

Inspiriert von Karsten Sauers Blogparade zum Thema Social Media Setup, möchte ich mit diesem Artikel nun eine Eigene mit dem Fokus auf die Nutzung von Cloud Services starten. Dabei interessiert mich, welche Services wofür genutzt werden und wie intensiv das passiert, also ob es darum geht den Service erst einmal zu evaluieren oder ob es sich um den produktiven Einsatz handelt. Dabei steht zum einen die private Nutzung aber bevorzugt der Einsatz im Unternehmensumfeld im Vordergrund.

Fragen über Fragen

Wie ich eingangs erwähnt habe, interessiert mich insbesondere die geschäftliche Nutzung, also wie ihr bei der Arbeit Cloud Services einsetzt, um bestimmte Herausforderungen zu bewältigen. Aber natürlich ist auch die private Nutzung interessant, da sich insbesondere durch die Cloud die Arbeitswelt und das private Umfeld mehr und mehr verschmelzen. Ich würde gerne Wissen: Was sind eure bevorzugten Services (privat, geschäftlich)? Welche Probleme löst ihr damit? Welche Vorteile habt ihr dadurch? Welche Probleme habt ihr durch die Nutzung bekommen? Schreibt einfach eure Success Story oder die Lessons Learned.

Wie Karsten es im Bereich Social Media gemacht hat, möchte ich gerne euer Cloud Services Setup portraitieren. Wenn ihr Interesse habt, dann schickt mir einfach eine E-Mail mit Antworten zu den unten genannten Fragen an cloud-setup@clouduser.org. Ich werde die Infos dann umgehend auf CloudUser veröffentlichen.

  • Wer bist Du?
  • Was machst Du?
  • Wie sieht Dein Cloud Services Setup (privat, beruflich) aus?
  • Wie lautet Deine Sucess Story oder die Lessons Learned?

Bildquelle: http://wunderground.com

Kategorien
Analysen

Microsoft attackiert die Amazon Web Services über die Private Cloud

Microsoft portiert seine Cloud Lösungen Windows Azure Web Sites, Virtual Machines und das Service Management Portal auf den Windows Server und ermöglicht es damit Hosting Anbieter ihren Kunden hochverfügbare Webseiten und Infrastructure-as-a-Service Lösungen auf Basis von Microsoft Cloud Technologien anzubieten. Anders als die Google Compute Engine, lassen sich die neuen Microsoft Cloud Lösungen prinzipiell auch in einer Private Cloud aufbauen. Die Cloud Implementierung, die sich bei etablierten Unternehmen tendenziell als die Bevorzugte herausstellt.

Microsoft Hosting Services

Die Microsoft Hosting Services setzten sich im Kern aus der „Windows Server Hosting Platform“, „Infrastructure-as-a-Service“, „Windows Azure“ und den „Business Productivity Hosting Solutions“ zusammen. Dabei bietet die Hosting Plattform ein Framework, Web Server, Datenbanken und weitere Tools, mit denen Web Seiten auf Windows gehostet werden können. Mit dem „Dynamic Data Center Toolkit“ können Web-Hoster on-Demand virtuelle Server, Cluster, Netzwerkinfrastrukturen und Speicherplatz bereitstellen. Über Windows Azure stehen Möglichkeiten zur Verfügung, neue Anwendungen auszurollen sowie neue Cloud Services zu erstellen. Die „Business Productivity Hosting Solutions“ ermöglichen das Anbieten von Business Anwendungen auf Basis von Microsoft Exchange 2010 und SharePoint 2010.

Granularer wird zwischen „Web Sites“, „Virtual Machines“, dem „Service Management Portal“ und einer „API“ unterschieden.

Web Sites

Mit „Web Sites“ können hochverfügbare und skalierbare Webseiten-Infrastrukturen aufgebaut werden, mit denen man über 10.000 Seiten in einer einzigen Web Farm verwalten kann. Zudem werden unterschiedliche Frameworks und Sprachen wie ASP.NET, ASP, PHP und Node.js mit einer vollständigen Git Integration unterstützt.

Virtual Machines

Zusammen mit bekannten Microsoft Technologien wie System Center und Windows Server lassen sich Infrastructure-as-a-Service Angebote aufbauen, mit denen virtuelle Machinen mit Windows Server und Linux bereitgestellt werden.

Service Management Portal und API

Anhand einer Metro-basierten Oberfläche und einem Self-Service Portal lassen sich „Web Sites“ und „Virtual Machines“ verwalten. Mit einer REST-basierten API lässt sich das Portal anpassen und erweitern, um damit bspw. andere Portal anzubinden.

Amazon ist ein reiner Service Anbieter

Auch wenn sich das neue Microsoft Angebot in erster Linie an Hosting-Anbieter richtet, sollte man nicht vergessen, wie einfach es ist, die Lösungen für die Private Cloud verfügbar zu machen.

Die Amazon Web Services verstehen es zwar hochwertige Public Cloud IaaS auszuliefern. Wenn es um die on-Premise Anforderungen von Unternehmen geht, hat Microsoft hier allerdings die Nase vorn. Wo AWS in der Cloud geboren ist und langsam damit anfangen muss, etablierte Kunden von der Basis abzuholen, um das große Geschäft zu machen, kommt Microsoft aus dem on-Premise Bereich und ist hier mit Abstand Marktführer.

Zudem weiß Microsoft, was es bedeutet, Software anzubieten, diese zu warten, Updates auszuliefern usw. Amazon ist ein reiner Service Anbieter und ist in kurzer Zeit nicht in der Lage diese Expertise und vor allem die notwendigen Vertriebskanäle aufzubauen.

Private Cloud wird bevorzugt

Und genau darin besteht auch Microsofts großer Vorteil. Das Unternehmen befindet sich bereits dort, wo die meisten Unternehmen gerne bleiben möchte, in den eigenen vier Wänden ihres Rechenzentrums, in der Private Cloud. Laut einer KPMG-Studie haben fast 60% (400 Befragte) der IT-Entscheider gute Erfahrung mit Private Cloud Lösungen gemacht. 21% wollen in Zukunft hier gezielter investieren. Dabei fließen bereits 19% des IT-Budgets in die Private Cloud, bevorzugt in Infrastructure-as-a-Services.

Für das Jahr 2013 wollen ein Drittel der befragten Unternehmen 26% – 50% ihres IT-Budget in die Private Cloud stecken. Darüber hinaus interessieren sich ca. 90% der Unternehmen nicht(!) für die Public Cloud, wobei 6% diese nutzen und 7% darüber nachdenken.

Amazons einziger Private Cloud Anker heißt Eucalyptus

Man kann sich nun die Frage stellen, ob AWS überhaupt daran interessiert ist, mit Microsoft in der Private Cloud in den Wettbewerb zu ziehen. Egal wird es ihnen allerdings nicht sein, das haben Maßnahmen zu Beginn des Jahres gezeigt.

Genauer geht es um den Deal der Amazon Web Services mit Eucalyptus Inc., die einen Fork der Amazon Web Services für die Private Cloud anbieten. Die Kooperation ist so aufgebaut, das Entwickler aus beiden Unternehmen Lösungen schaffen werden, um Private Cloud Lösungen auf Basis von Eucalyptus mit der Amazon Infrastruktur nahtlos zu verbinden. Zudem sollen die Kunden für die Nutzung von AWS als auch Eucalyptus dieselben Management Tools verwenden können. Darüber hinaus soll die Kompatibilität beider APIs verbessert werden.

Eucalyptus ist derzeit also der einzige Weg für die Amazon Web Services in die Rechenzentren der Unternehmen, wo Microsoft bereits wartet.

Kategorien
Management

Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur

Die letzten Ausfälle bei den Amazon Web Services (AWS) hier und hier haben gezeigt, dass bei manchen Kunden wie bspw. Instagram, die Systemarchitektur nicht auf das Cloud Computing ausgelegt ist. Und auch wenn AWS so etwas nicht (mehr) passieren darf, sollte man selbst darauf achtgeben, präventiv auf den möglichen Ernstfall vorbereitet zu sein. Eine Möglichkeit ist der von Netflix entwickelte Chaos Monkey und weitere Tools, die ich in diesem Artikel vorstellen möchte.

Üben, Lernen, Testen

Bevor sich Netflix für den Einsatz seines Systems auf den Amazon Web Services entschieden hat (Migration von einer eigenen Infrastruktur), verbrachte das Unternehmen viel Zeit damit, um die AWS Plattform zu verstehen und ein Test-System innerhalb der Infrastruktur aufzubauen. Dabei wurde insbesondere darauf geachtet, soviel realistischen Traffic bzw. Traffic Szenarien wie möglich zu erzeugen, um damit das Test-System auf seine Stabilität hin zu prüfen.

Anfangs entwickelte Netflix dazu einen einfachen Repeater, der die echten und vollständigen Kundenanfragen auf das System innerhalb der AWS Infrastruktur kopierte. Damit identifizierte Netflix die möglichen Engpässe seiner Systemarchitektur und optimierte im Zuge dessen die Skalierbarkeit.

Netflix Rambo Architektur

Netflix selbst bezeichnet seine Software Architektur gerne auch als Rambo Architektur. Das hat den Hintergrund, dass jedes System unabhängig von den anderen Systemen einwandfrei funktionieren muss. Dazu wurde jedes System innerhalb der verteilten Architektur so entwickelt, dass es darauf vorbereitet ist, dass andere Systeme zu denen eine Abhängigkeit besteht, ausfallen können und das dieses toleriert wird.

Sollte das Bewertungssystem ausfallen, verschlechtert sich zwar die Qualität der Antworten, aber es wird dennoch eine Antwort geben. Statt personalisierten Angeboten werden dann nur bekannte Titel angezeigt. Sollte das System, dass für die Suchfunktion zuständig ist, unerträglich langsam sein, muss das Streaming der Filme trotzdem einwandfrei funktionieren.

Der Chaos Monkey

Eines der ersten Systeme die Netflix auf bzw. für AWS entwickelt hat, nennt sich Chaos Monkey. Sein Job ist es zufällig Instanzen und Services innerhalb der Architektur zu zerstören. Damit stellt Netflix sicher, dass alle Komponenten unabhängig voneinander funktionieren, selbst dann wenn Teil-Komponenten ein Problem haben.

Neben dem Chaos Monkey hat Netflix viele weitere Monitoring und Test-Tools für den Betrieb seines Systems auf den Amazon Web Services entwickelt, die das Unternehmen als The Netflix Simian Army bezeichnet.

Latency Monkey

Der Latency Monkey induziert künstliche Verzögerungen im Netflix eigenem REST-Client-Server Communication-Layer, um einen Leistungsabfall zu simulieren und rechtzeitig Maßnahmen zu ergreifen bzw. im Vorwege angemessen zu reagieren. Indem sehr große Verzögerungen erzeugt werden, kann damit zudem der Ausfall eines Nodes oder eines vollständigen Service simuliert werden, ohne diese Instanzen tatsächlich zu zerstören. Damit wird die Fehlertoleranz eines neuen Service überprüft, indem der Ausfall seiner Abhängigkeiten simuliert wird. Der Ausfall dieser Abhängigkeiten wirkt sich dabei jedoch nicht auf den Rest des Systems aus.

Conformity Monkey

Der Conformity Monkey findet Instanzen, die nicht den Best-Practices Anforderungen entsprechen und fährt diese herunter. Wenn z.B. Instanzen gefunden werden, die nicht zu einer Auto-Scaling Group gehören, weiß der Conformity Monkey, dass dieses zu Problemen führen wird. Diese werden also heruntergefahren, um dem Service-Owner die Gelegenheit zu geben, neue Instanzen mit den erwarteten Eigenschaften hochzufahren.

Doctor Monkey

Der Doctor Monkey überprüft die Health Checks, die sich auf jeder Instanz befinden und überwacht zudem weitere Eigenschaften, wie bspw. die CPU-Auslastung, um mögliche Fehlerquellen innerhalb der Instanzen selbst zu erkennen. Werden fehlerbehaftete Instanzen entdeckt, werden diese zunächst automatisch vom Service entfernt. Anschließend erhält der Service-Owner die Gelegenheit die Ursache für den Fehler zu finden und beendet diese Möglicherweise um stattdessen neue Instanzen zu starten.

Janitor Monkey

Der Janitor Monkey sorgt dafür, dass die Netflix Cloud Umgebung effizient betrieben wird und sich kein Müll oder überschüssige Instanzen anhäufen. Dazu sucht er nach ungenutzten Ressourcen und sorgt dafür, dass diese verschwinden.

Security Monkey

Der Security Monkey ist eine Erweiterung des Conformity Monkey. Er findet Sicherheitslücken oder Schwachstellen wie falsch konfigurierte AWS Security Groups und beendet die beanstandeten Instanzen. Er stellt zudem sicher, dass alle SSL-und DRM-Zertifikate gültig sind.

10-18 Monkey

Der 10-18 Monkey (steht auch für Lokalisierung-Internationalisierung bzw. l10n-i18n) erkennt Konfigurations- und Laufzeit Probleme innerhalb von Instanzen, die Kunden in verschiedenen geografischen Regionen, mit unterschiedlichen Sprachen und Zeichensätze bedienen.

Chaos Gorilla

Der Chaos Gorilla ist vergleichbar mit dem Chaos Monkey, simuliert allerdings einen vollständigen Ausfall einer Amazon Availability Zone. Damit wird sichergestellt, dass die Funktionalität des Systems automatisch in andere Availability Zones verschoben wird, ohne das ein manueller Eingriff von Netflix erforderlich ist und das der Nutzer davon etwas bemerkt.

Fazit

Die Simian Army von Netflix ist ein Extrembeispiel wie eine Cloud Architektur auszusehen hat. Das Unternehmen hat viel Zeit, Anstrengungen und Kapital in die Entwicklung seiner Systemarchitektur investiert, die auf der Cloud Infrastruktur der Amazon Web Services läuft. Aber es lohnt sich und jedes Unternehmen, das die Cloud ernsthaft nutzen möchte und ein hochverfügbares Angebot präsentieren will, sollte sich Netflix unbedingt zum Vorbild nehmen.

Kategorien
News

Jury Mitglied: Cloud Computing World Series Awards

René Büst war Jurymitglied der 2012er Cloud Computing World Series Awards.

Kategorien
Analysen

Google Cloud Platform vs. Amazon Web Services – Ein erster Vergleich

Nachdem Google sein Cloud Portfolio mit der Compute Engine erweitert hat, fangen erste Medien an darin den Killer der Amazon Web Services zu sehen. Ein Grund mal die Cloud Services von Google und Amazon gegenüberzustellen. Wer sich für einen direkten Vergleich von Microsoft Windows Azure mit den Amazon Web Services interessiert, sollte hier weiterlesen.

Der Vergleich: Google Cloud vs. Amazon Cloud

Die folgende Tabelle stellt das Cloud Services Portfolio 1:1 gegenüber und schafft Klarheit, wer in welchem Bereich was anbietet, wie der Name des jeweiligen Service lautet und unter welcher URL weitere Informationen zu diesem zu finden sind.

Funktion

Amazon Web Services

Google Cloud Platform

Rechenleistung

Virtuelle Maschinen Elastic Compute Cloud Full Virtual Machines (Google Compute Engine)
High Performance Computing Cluster Compute Instances
MapReduce Elastic Map Reduce Google App Engine
Dynamische Skalierung Auto Scaling Google Compute Engine

Speicher

Unstrukturierter Speicher Simple Storage Service Google Cloud Storage
Flexible Entities SimpleDB
Block Level Storage Elastic Block Store Persistent disk (Google Compute Engine)

Datenbanken

RDBMS Relational Database Service Google Cloud SQL, BigQuery
NoSQL DynamoDB „Google F1“

Caching

CDN CloudFront
In-Memory ElastiCache

Netzwerk

Load Balancer Elastic Load Balancer
Hybrid Cloud Virtual Private Cloud
Peering Direct Connect
DNS Route 53 Public DNS

Messaging

Async Messaging Simple Queue Service
Push Notifications Simple Notification Service
Bulk Email Simple Email Service

Monitoring

Ressourcen Monitoring CloudWatch

Sicherheit

Identitätsmanagement Identity Access Management

Deployment

Ressourcenerstellung CloudFormation
Web Application Container Elastic Beanstalk Google App Engine

Wie man sieht, ist das Google Cloud Portfolio im Vergleich zum Service Angebot der Amazon Web Services noch sehr dünn. Falls ich etwas bei Google übersehen habe, macht mich darauf bitte aufmerksam. Ich werde das dann umgehend nachtragen.

Kategorien
News

Organisation & Moderation: CloudCamp Frankfurt 2012

Am 24.05.2012 hat René Büst zusammen mit Roland Judas das CloudCamp Frankfurt 2012 moderiert. Darüber hinaus hat René die Moderation der Veranstaltung übernommen.

Moderation des CloudCamp Frankfurt 2012

Die Aufzeichnung der Paneldiskussion kann hier angeschaut werden: