Kategorien
Management

In eigener Sache: Cloud Computing – Was zählt sind Kenntnisse aus der Praxis

Cloud Computing ist auf dem Vormarsch. Trotz anfänglicher Bedenken bekennen sich immer mehr Unternehmen zum Cloud Computing und fangen an, mit dem Konzept mehr Potential aus ihrer IT zu schöpfen. Was sich auf der einen Seite positiv liest, birgt in Wahrheit aber auch eine Schattenseite. Und die darf nicht unterschätzt werden. Eine Studie des BITKOM belegt einen massiven Mangel an Fachkräften. Darüber hinaus warnen Marktforscher vor einem zu geringen Kenntnisstand für Konzepte wie dem Cloud Computing. Diese Entwicklung haben auch der Cloud Computing & Technologie Analyst und Advisor René Büst und der IT-Berater Dr. Dietmar G. Wiedemann vor längerer Zeit erkannt und vor diesem Hintergrund das Schulungskonzept „CLOUD-PRO.de“ entwickelt. Die Initiative stellt sich der Aufgabe, den steigenden Bedarf an Fachkräften im Cloud Computing zu befriedigen.

Fehlende Fachkenntnisse trüben die Adaption des Cloud Computing

Zwar gehört die IT-Branche in Deutschland zu den Top-Wachstumsbranchen und zählt zu den bedeutenden Märkten. Allerdings erreicht sie langsam aber stetig ihren Zenit. Das ist zuletzt auch dem Mangel an qualifizierten Fachkräften geschuldet. Eine Studie des BITKOM aus dem Jahr 2012 verdeutlicht, dass sich die Zahl nicht besetzter Stellen innerhalb von nur drei Jahren um 23.000 Stellen mehr als verdoppelt hat. Zu den Top-3 der benötigten IT-Skills zählt das Cloud Computing. Das belegt eine Tech Trends Studie von IBM, in der nur 10 Prozent der befragten Unternehmen über das notwendige Cloud Computing Wissen verfügen.

Weiterhin warnen Marktforscher vor dem Mangel an Cloud Computing Kenntnissen. So prognostizieren sie bis zum Jahr 2015 zwar weltweit über sieben Millionen IT-Stellen, die Bezug zum Cloud Computing haben werden. Warnen gleichzeitig aber auch vor der fehlenden Ausbildung, Kenntnissen und Erfahrungswerten der Mitarbeiter im Bereich der Cloud. „Das hat zwangsläufig auch Auswirkungen auf die Unternehmen, da Mitarbeiter heutzutage die Ideen und Konzepte des Cloud Computing verstehen müssen. Nur so können sie den Wertbeitrag des Cloud Computing für das Unternehmen aufzeigen und die geschäftliche als auch IT-Sicht verknüpfen.“, sagt Cloud-Analyst und -Advisor René Büst. „Weiterhin ist der Mega-Trend Cloud die Grundlage für weitere Trends wie Mobile, Social, Big Data oder auch „The Internet of Things“ und somit ein zentraler Bestandteil der heutigen und zukünftigen Skills eines jeden Mitarbeiters.“, ergänzt der Dr. Dietmar Wiedemann, der den Fachbereich Cloud Computing im IT-Verband BDOA e.V. leitet.

„CLOUD-PRO.de“ befriedigt den steigenden Bedarf an Cloud Computing Kenntnissen und vermittelt strategisches Wissen aus der Praxis

Aus diesem Grund haben der Cloud Computing & Technologie Analyst und Advisor René Büst (renebuest research | CloudUser.de) sowie der IT-Berater Dr. Dietmar G. Wiedemann (Proventa AG) das Schulungskonzept „CLOUD-PRO.de“ entwickelt.

Bei Cloud-Pro.de steht die „Praxisrelevanz“ im Mittelpunkt. Auf Basis von praktischen Übungen erhalten die Teilnehmer in einem Zwei-Tages-Seminar das notwendige Wissen aus der Praxis, um anschließend selbst ihre persönliche Cloud Computing Strategie zu entwickeln. Anhand von vollständigen Beispielen lernen sie, wie aus einer scheinbar simplen Strategie ein echter Wettbewerbsvorteil wird. Praktische und direkt anwendbare Tools, Checklisten und Methodenbausteine für die Strategieentwicklung, Einführung und Nutzung bis hin zur Klärung wirtschaftlicher, organisatorischer, rechtlicher und sicherheitsrelevanter Fragen der Cloud, sind Bestandteil des Konzepts. Nach einer erfolgreichen Prüfung erhalten die Teilnehmer zudem das Zertifikat „Certified Manager Cloud”, das sie als geprüften Cloud Computing Experten am Markt auszeichnet.

Weitere Informationen und Anmeldung

Möglichkeiten zur kostenpflichtigen Teilnahme bestehen am 9. und 10. September sowie am 7. und 8. Oktober 2013 in Frankfurt am Main in den Räumen der Proventa AG (Untermainkai 29).

Weitere Informationen stehen unter http://cloud-pro.de zur Verfügung.

Kategorien
Management

T-Systems setzt ein Zeichen und schickt Anwälte und Notare in die Cloud [Update]

T-Systems bietet zusammen mit der Arbeitsgemeinschaft Informationstechnologie im Deutschen Anwaltverein (davit) allen Anwälten und Notaren in Deutschland ein sicheres Dokumentenmanagement aus der Cloud an. Der entsprechende Kooperationsvertrag wurde von der Telekom-Tochter und der davit auf dem 64. Deutschen Anwaltstag in Düsseldorf unterzeichnet. Mit der Cloud-Lösung lassen sich von den Juristen Dokumente elektronisch in der Cloud erstellen, bearbeiten und archivieren und beliebig viele digitale Akten anlegen. Die Lösung ist skalierbar wird nach einem verbrauchsabhängigen Mietpreis abgerechnet, wodurch keine Investitionskosten entstehen. Der Zugang kann über davit oder T-Systems bestellt werden.

Zugeschnitten auf die Bedürfnisse von Anwälten und Notaren

T-Systems hat die von ihr entwickelte revisionssichere Standardlösung zusätzlich auf die Bedürfnisse von Anwälten und Notaren sowohl fachlich als auch technisch zugeschnitten. Der Service ist mit dem § 203 StGB für Berufsgeheimnisträger konform und erfüllt zudem sämtliche Anforderungen an den Beschlagnahmeschutz vertraulicher Informationen zwischen Anwälten und Mandanten. Für den Zugriff auf das System ist ein acht bis 50 Stellen langer, digitaler Schlüssel notwendig, den nur der Anwender kennt. Nach Angaben von T-Systems kann kein Mitarbeiter zu keinem Zeitpunkt auf die Daten in der Cloud-Lösung zugreifen und sie auslesen. Ebenfalls nicht bei Wartungsarbeiten. Aus Datenschutzgründen befinden sich die Dokumente in jedem Fall auf Servern innerhalb Deutschlands in einem nach international anerkannten Sicherheitsstandards zertifizierten, deutschen Rechenzentrum.

Im Hintergrund arbeitet die Lösung doculife des Schweizer Partners Document Future AG. Diese ist nahtlos in Microsoft Office und Outlook integrierbar. Hat der Anwender einen De-Mail-Account, kann er diesen über ein Plug-in nutzen und Nachrichten an Klienten oder an Gerichte verschlüsselt versenden. Nachricht und Anhang erreichen den oder die Empfänger somit sicher und beweiskräftig. Umgekehrt können die Anwälte und Notare auch De-Mail-Nachrichten empfangen. Aber auch konventionelle E-Mails erhält der Nutzer nur von Absendern, die er hierzu freigeschaltet hat.

Anwälte und Notare werden mobil

Über ein mobiles Endgerät mit dem Apple-Betriebssystem iOS lassen sich alle Dokumente ebenfalls aus der Cloud von überall aus sicher abrufen. Nutzer von Windows 8 und Android müssen sich noch etwas gedulden. Hier laufen allerdings bereits die Pilotprojekte. Die Akten lassen sich zudem auf Wiedervorlage einstellen. Die Cloud-Anwendung erinnert die Anwender dann an die anstehenden Aufgaben.

Update: Weitere Informationen zum Angebot

Ich hatte heute noch ein Briefing mit T-Systems zu diesem Service. Hier die weiteren wichtigen Fakten.

Grundsätzlich bietet T-Systems für alle seine Kunden, das gilt nicht nur für diese Anwalts- und Notar-Lösung, eine Private Cloud an. Das bedeutet, dass Unternehmen über eine dedizierte Netzwerkleitung mit einem T-Systems Rechenzentrum verbunden werden und dort auf die Hosted Private Cloud bzw. Virtual Private Cloud zugreifen. Hierzu werden die unterschiedlichen Lösungen in Blöcken voneinander physikalisch isoliert, um die Sicherheit zu gewährleisten.

Der Service für die Anwälte und Notare wird ebenfalls getrennt auf einer dedizierten Plattform in einem separaten physikalischen Block innerhalb eines T-Systems Rechenzentrum in Deutschland betrieben. Der Anwender muss nicht zwingend über eine dedizierte MPLS-Verbindung auf das Rechenzentrum zugreifen und kann dazu ebenfalls eine Standard Internetverbindung nutzen.

Die Sicherheit für den Zugriff auf das System wird, wie bereits oben beschrieben über einen bis zu 50 Stellen langen, digitalen Schlüssel sichergestellt. Dieser ist ausschließlich im Besitz des Anwenders und wird nur auf dessen lokalen System gespeichert. Das bedeutet zudem, dass dieser Schlüssel niemals verloren gehen darf. Ansonsten sind die Daten verloren, da T-Systems keine Möglichkeit besitzt, den Schlüssel wiederherzustellen oder ohne diesen Schlüssel auf die Daten zuzugreifen.

Der Zugriff auf die Daten in der Private Cloud erfolgt über eine klassische lokale Software-Installation von doculife, die einen vollen Funktionsumfang besitzt, über den Webrowser mit eingeschränkten Funktionen oder über mobile Apps für Smartphones und Tablets. Die Funktionsbeschränkung im Browser ist z.B. die nicht vorhandene E-Mail Integration. Die mobilen Apps sind derzeit noch im reinen Read-Only Modus.

Die Sicherheit bei der Übertragung der Daten vom Anwender in die Cloud wird unter Verwendung des Browsers via HTTPS (SSL) sichergestellt. Kommt die lokale doculife Software inkl. Outlook Integration zum Einsatz, wird eine End-to-End Verschlüsselung aufgebaut. Wird aus doculife heraus eine E-Mail inkl. Anhang über den De-Mail Dienst verschickt, ist laut T-Systems die End-to-End Verschlüsselung soweit sichergestellt, dass nur die De-Mail kurzzeitig auf den Servern geöffnet wird, der doculife Anhang aber weiterhin verschlüsselt bleibt.

Die Lösung kann in sechs verschiedenen Ausbaustufen, inkl. drei unterschiedlichen Beratungspaketen genutzt werden, dessen Preise in dieser Liste zu finden sind.

Kommentar: Ein Zeichen für alle Unternehmen

Technologisch betrachtet ist die Cloud in Deutschland angekommen. Viele Unternehmen haben bereits erkannt, wie sie damit ihre Produktivität erhöhen können und mehr Kapital, Zeit und Raum für Innovationen schaffen. Dennoch bestehen weiterhin rechtliche- und datenschutztechnische Bedenken sowie Probleme damit, das notwendige Vertrauen in die Anbieter aufzubauen. Die erste Person zu der in solchen Fällen in der Regel Kontakt aufgenommen wird ist der Rechtsanwalt. Dieser besänftigt dann mit Stichworten wie Auftragsdatenverarbeitung, Safe-Harbor, EU-Standardvertragsklauseln oder persönliche SLA-Verträge. Denn die rechtlichen Rahmenbedingungen sind soweit geschaffen. An Vertrauen fehlt es jedoch weiterhin. Das ist etwas sehr Subjektives, was auch kein Rechtsanwalt oder Datenschutzbeauftragter direkt vermitteln kann.

Das Vertrauen in die Cloud kann daher nur gestärkt werden, indem ebenfalls Nutzer mit höchst sensibel zu bewerteten Daten auf Cloud-Lösungen zurückgreifen. Diesen Schritt sind T-Systems und der davit nun gegangen und setzen damit ein deutliches Zeichen für alle Unternehmen, die noch Bedenken äußern u.a. personenbezogene Daten auf einem Cloud-Service zu speichern. Eines darf hier nicht übersehen werden. Anwälte und Notare arbeiten neben personenbezogene Daten ebenfalls mit weiteren äußerst sensiblen Daten, die meist noch kritischer zu betrachten sind. Darüber hinaus unterliegen sie noch strengeren Gesetzen als ein durchschnittliches Unternehmen. Genannt sei nur der § 203 StGB „Verletzung von Privatgeheimnissen“, in dem geregelt ist, wie mit Verletzungen „… von namentlich ein zum persönlichen Lebensbereich gehörendes Geheimnis oder ein Betriebs- oder Geschäftsgeheimnis…“ umgegangen wird. Oder die Anforderungen an den Beschlagnahmeschutz vertraulicher Informationen zwischen Anwälten und Mandanten. Anwälte und Notare gehören damit rechtlich als auch sicherheitstechnisch mit zu den gefährdetsten Gruppen in der Cloud, wofür die T-Systems und der davit nun eine Lösung geschaffen haben.

Ich war vor kurzem in einem Think Tank, wo es darum ging, wie man Cloud-Services für Anwälte und Steuerberater rechtskonform aber ebenfalls technisch und organisatorisch aufbauen sollte. Dabei waren auch einige Rechtsanwälte anwesend, die aus der Praxis berichteten und lieber heute als morgen auf Cloud-Lösungen zurückgreifen würden, um vor allem ortsunabhängig und zu jeder Zeit auf ihre Daten zugreifen zu können.

Auch andere Cloud-Anbieter sollten diesem Vorbild folgen und ein Maximum an rechtlicher Sicherheit bieten, wie zum Beispiel dem revisionssicheren Speichern und Archivieren von Daten. Ein weiterer Pluspunkt, den deutsche Anbieter ganz klar als Vorteil gegenüber internationalen Cloud-Anbietern ausspielen müssen, ist das anbieten echter(!) Cloud-Services aus einem deutschen Rechenzentrum, welches nach international anerkannten Sicherheitsstandards zertifiziert ist.

Kategorien
Management

Eilmeldung: TeamDrive ist "Cool Vendor in Privacy" 2013

Erfreuliche Nachrichten aus Deutschland. Die Cloud-Storage Lösung für Unternehmen TeamDrive wurde von Gartner mit dem Titel „Cool Vendors in Privacy“ 2013 ausgezeichnet. Insbesondere die steigende Nutzung von Tablets und Smartphones führen zu einem erhöhten Bedarf an hybrid Cloud-Services, die gleichermaßen einfach zu bedienen und zudem ein Höchstmaß an Sicherheit bieten müssen. Ein Grund warum TeamDrive von Gartner den diesjährigen Titel erhalten hat.

Über TeamDrive

TeamDrive ist eine Filesync- und -share-Lösung für Unternehmen und Organisationen, die nicht riskieren wollen, dass sensible Daten bei externen Cloud-Services verstreut werden und ermöglicht es Daten oder Dokumente im Team zu synchronisieren. Dazu überwacht TeamDrive beliebige Ordner auf einem PC oder Notebook, die man mit eingeladenen Anwendern gemeinsam nutzen und bearbeiten kann. Damit stehen Daten jederzeit, auch offline zur Verfügung. Die automatische Synchronisation, Backups und Versionierung von Dokumenten schützen die Anwender zuverlässig vor Datenverlust. Mit der Möglichkeit die TeamDrive Registration und Hosting-Server im eigenem Datacenter zu betreiben, lässt sich TeamDrive sehr gut in vorhandene IT-Infrastruktur integrieren. TeamDrive stellt hierzu alle notwendigen APIs zur Verfügung.

Mehr über TeamDrive ist unter „TeamDrive: Dropbox für Unternehmen“ zu finden.

Darüber hinaus arbeite ich gerade an einem Sicherheitsvergleich zwischen TeamDrive und der Open-Source Cloud Storage Lösung ownCloud. Diese wird in den nächsten Tagen hier auf CloudUser und als Paper (PDF) veröffentlicht.

Kategorien
Management

Google macht erste ernsthafte Schritte ins Enterprise Umfeld

In einem Beitrag auf dem Google Enterprise Blog hat Google Support Pläne für seine Cloud Plattform Lösungen App Engine, Compute Engine, Cloud Storage, Cloud SQL und BigQuery angekündigt. Auch Google habe nach eigener Aussage mittlerweile verstanden, dass Google Groups oder Stack Overflow nicht immer die passenden Antworten liefern und die Unterstützung durch einen telefonischen Ansprechpartner erfordert. Ja, so schauts aus Google!

Support Pläne für die Google Cloud Platform

Google unterteilt seinen Support in vier Kategorien: Bronze, Silver, Gold und Platinum, die je folgende Leistungen beinhalten:

  • Bronze
    Preis: Kostenlos
    Leistung: Zugriff auf die Online-Dokumentation und Foren sowie Kontakt bzgl. Fragen zur Abrechnung.
  • Silver
    Preis: $150 pro Monat
    Leistung: Alle Leistungen von Bronze. Plus: E-Mail Support bzgl. Produkt-Funktionen, Best Practice und Fehlermeldungen.
  • Gold
    Preis: ab $400 pro Monat
    Leistung: Alle Leistungen von Silver. Plus: 24×7 Telefon-Support und Beratung zur Applikationsentwicklung sowie Best Practices oder Architekturunterstützung für einen bestimmten Use Case.
  • Platinum
    Preis: Auf Anfrage.
    Leistung: Alle Leistungen von Gold. Plus: Sehr individuelle Unterstützung. Direkter Kontakt zu einem Technical Account Manager.

Kommentar

Google scheint immer mehr zu verstehen, dass die „Alte Welt“ nicht nur durch Foren und Communities unterstützt werden möchte. Insbesondere Unternehmen erwarten einen hochwertigen und persönlichen Support. Dass Google auch im Unternehmensumfeld weiter ankommen möchte, durfte ich bereits persönlich erfahren. Nach einer Formularanfrage zu einem Google Apps Problem erhielt ich wenige Minuten später einen Anruf von einem deutschen Google Mitarbeiter, der sich mit mir auseinandersetze. Das war ein positiver Aha-Effekt und ein Schlüsselerlebnis. Als ein sehr früher Google Apps Nutzer war ich noch Zeiten gewohnt, wo Support-Seiten auf Fehlerseiten liefen und ein telefonischer Kontakt nicht einmal in die USA möglich war.

Dennoch, Google ist derzeit nicht auf Augenhöhe mit den Amazon Web Services (AWS) oder Microsoft Windows Azure zu sehen und ist eher auf Platz drei zu finden. Zwar gehört Google neben den beiden genannten plus Salesforce zu den aktuellen Cloud Playern am Markt, allerdings ist das Portfolio der Google Cloud Platform im Vergleich zu AWS und Azure sehr dünn. Mit der App Engine, Compute Engine, Cloud Storage, Cloud SQL, BigQuery, der Prediction API sowie der Translation API stehen immerhin insgesamt sieben für sich gekapselte Services zur Verfügung, die aber bei weitem nicht den Umfang von AWS bieten. Zudem sollte man wissen, dass sich die Google Compute Engine weiterhin in einer geschlossen Beta befindet und somit nicht zur aktiven Konkurrenz zählt.

Ich sehe bei Google weiterhin ein Akzeptanzproblem in Bezug auf die Glaubwürdigkeit und vor allem der Vertrauenswürdigkeit. Google ist und bleibt im Kern eine Suchmaschine, die sich über Werbung finanziert. Daher gilt Google nicht ohne Grund als Datenkrake, was zahlreiche Aktionen und Entscheidungen durch Googles Führungsetage selbst weiter untermauert. Google muss an dieser Stelle deutlich offener werden und zeigen, was mit den Daten passiert, die Unternehmen aber auch gewöhnliche Nutzer Google anvertrauen.

Kategorien
Management

AWS OpsWorks: Mehr PaaS-Funktionalität im Cloud-Portfolio von Amazon

Korrekterweise spricht man bei den Amazon Web Services (AWS) von einem Infrastructure-as-a-Service (IaaS). Bei AWS Elastic Beanstalk spalten sich die Lager, ob der Service zu den Platform-as-a-Services (PaaS) gezählt werden dürfe. Zumindest bietet AWS seit längerer Zeit diverse PaaS-Funktionalität in seinem Cloud-Portfolio und erweitert diese nun mit „AWS OpsWorks“ (noch in der Beta).

Was ist AWS OpsWorks?

AWS OpsWorks ist eine Lösung für das flexible und automatisierte Applikationsmanagement. Es richtet sich an IT-Administratoren und DevOps Entwickler, die damit den vollständigen Lebenszyklus einer Anwendung inkl. Ressourcen-Provisionierung, Konfigurationsmanagement, Softwareupdates, Monitoring und Zugriffskontrolle verwalten können. AWS OpsWorks kann kostenlos genutzt werden. Kosten entstehen für die darunter eingesetzten virtuellen AWS Infrastrukturressourcen.

OpsWorks ermöglicht das Erstellen einer logischen Architektur, die Provisionierung der benötigten Ressourcen basierend auf der Architektur sowie das Bereitstellen der Applikation und die dafür benötigte Software und Pakete für eine bestimmte Konfiguration. OpsWorks sorgt dann für den Betrieb der Applikation und unterstützt deren Lebenszyklus inkl. Autoscaling und Softwareupdates.

AWS OpsWorks Details

AWS OpsWorks unterstützt unterschiedliche Applikations-Architekturen und arbeitet mit jeder Software zusammen, deren Installation skript-basiert verläuft. Basierend auf dem Chef Framework können bereits fertige eigene Rezepte oder welche aus der Community genutzt werden, um OpsWorks einzusetzen.

Ein Event-basiertes Konfigurationssystem hilft beim Lebenszyklus-Management einer Applikation. Dazu gehören anpassbare Deployments, Rollbacks, Patchmanagement, Autoscaling sowie Autohealing. So lässt sich z.B. ein Update über das Aktualisieren einer einzigen Konfigurationsdatei ausrollen. Zudem ist OpsWorks in der Lage, AWS Instanzen basierend auf einer selbst exakt spezifizierten Konfiguration zu hosten. Dazu gehört ebenfalls die Skalierung dieser Applikation anhand der jeweiligen Last auf der Anwendung oder einer zeitbasierten automatischen Skalierung sowie der Überwachung der Applikation und dem Austausch fehlerhafter Instanzen.

Mit OpsWorks lassen sich Applikationen in sogenannte „Layer“ aufbauen. Layer definieren, wie ein Teil von Ressourcen, die zusammen verwaltet werden, konfiguriert werden sollen. Ein Beispiel könnte ein Web-Layer sein. Dieser beinhaltet EC2 Instanzen, EBS Volumes inkl. einer RAID Konfiguration und Mount Points sowie Elastic IP-Adressen. Für jeden Layer kann zudem eine Software-Konfiguration erstellt werden. Darin sind Installations-Skripte und Schritte für die Initialisierung enthalten. Wird nun eine Instanz zu einem Layer hinzugefügt, sorgt OpsWorks dafür, dass diese die entsprechenden Konfigurationen erhält. OpsWorks stellt vor-definierte Layer für Technologien wie Ruby, PHP, HAProxy, Memcached und MySQL bereit. Diese können angepasst und erweitert werden.

Technologie aus Deutschland

OpsWorks ist eine Erfindung aus Deutschland und basiert auf der Scalarium Technologie des Berliner Unternehmens Peritor. Scalarium wurde bereits 2012 von Amazon gekauft.

Kommentar

Bei AWS OpsWorks handelt es sich zwar um kein konkretes PaaS Angebot. Dieses liegt allerdings an der Building Blocks Philosophie der Amazon Web Services. Das bedeutet, dass die angebotenen Services so granular wie möglich bereitgestellt werden. Der Kunde hat anschließend die Möglichkeit, die Services für seinen Use Case so zu integrieren, wie er sie benötigt. Dafür wird natürlich dementsprechend viel Eigenleistung und Wissen benötigt, welches bei einem typischen PaaS für die Infrastruktur nicht erforderlich ist. Jedoch schließt AWS OpsWorks hinsichtlich der Convenience zu den PaaS am Markt immer weiter auf und bietet immer mehr PaaS-Funktionalität in der Amazon Cloud.

Über eines sollte man sich als Kunde dennoch bewusst sein. Und das gilt nicht nur für AWS OpsWorks, sondern für die Nutzung jedes AWS Service. Der Lock-in in die AWS-Infastruktur wird mit jedem Service den Amazon veröffentlicht immer größer. Das muss nichts Schlechtes bedeuten. Ein Lock-in ist zwangsläufig nichts Negatives und kann im Gegenteil sogar von Vorteil sein, solange die eigenen Anforderungen erfüllt werden und nicht zu große Kompromisse durch den Kunden selbst gemacht werden müssen.

Man muss sich als Kunde dies nur vor Augen halten und bereits vor dem Weg in die AWS Cloud, als auch in jede andere Cloud, über mögliche Exit-Strategien oder einen Multi-Cloud Ansatz nachdenken.

Kategorien
Management

Netflix veröffentlicht weitere "Monkeys" als Open-Source – Eucalyptus Cloud wird es freuen

Wie GigaOM berichtet, wird Netflix in naher Zukunft weitere Services ähnlich zu seinem Chaos Monkey und der Simian-Army unter der Open-Source Lizenz auf Github veröffentlichen.

Der Chaos Monkey

Der Chaos Monkey ist ein Service der auf den Amazon Web Services läuft, nach Auto Scaling Groups (ASGs) sucht und Instanzen (virtuelle Maschinen) pro Gruppe wahllos beendet. Dabei ist die Software flexibel genug entwickelt worden, dass sie ebenfalls auf den Plattformen anderer Cloud Anbieter funktioniert. Der Service ist voll konfigurierbar, läuft standardmäßig aber an gewöhnlichen Werktagen von 09.00 Uhr bis 15.00 Uhr. In den meisten Fällen hat Netflix seine Anwendungen so geschrieben, dass diese weiterhin funktionieren, wenn eine Instanz plötzlich Probleme hat. In speziellen Fällen passiert das bewusst nicht, damit die eigenen Leute das Problem beheben müssen, um daraus zu lernen. Der Chaos Monkey läuft also nur ein paar Stunden am Tag, damit sich die Entwickler nicht zu 100% auf ihn verlassen.

Weitere Informationen zum Chaos Monkey und der Simian Army gibt es unter „Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur„.

Weitere Services aus Netflix Monkey Portfolio

  • Denominator: Ein Tool für die Verwaltung mehrerer DNS-Provider.
  • Odin: Eine Orchestration API, die von Jenkins und Asgard, dem Netflix Deployment Tool, aufgerufen werden kann. Sie soll Entwicklern helfen bequemer zu deployen.
  • Recipes: Dabei handelt es sich um Blaupausen (blueprints), mit denen sich mehrere Netflix Komponenten zusammen einfacher ausrollen lassen.
  • Launcher: Soll per Knopfdruck die fertigen Blaupausen ausrollen.
  • Mehr Monkeys: Zu den weiteren Netflix Monkeys die noch in diesem Jahr folgen sollen, gehören der Conformity Monkey, der Latency Monkey und der Latency Howler Monkey. Der Conformity Monkey stellt sicher, dass alle relevanten Instanzen äquivalent aufgesetzt sind. Der Latency Monkey simuliert Latenzen und weitere Fehler. Der Latency Howler Monkey überwacht, ob ein Workload auf mögliche AWS Limitierungen trifft und meldet dies.

Der Chaos Gorilla, der wahllos den Absturz einer vollständigen AWS Availability Zone simuliert sowie der Chaos Kong, der eine ganze AWS Region simuliert abschießt, sollen ebenfalls bald folgen.

Kommentar

Zwar möchte Netflix seine „Monkeys“ Cloud übergreifend anbieten, so dass z.B. auch OpenStack Nutzer darauf zurückgreifen können. Allerdings spielt Netflix mit der stetigen Veröffentlichung seiner HA-Testsuite Eucalyptus damit immer mehr in die Arme.

Eucalyptus Cloud ermöglicht den Aufbau einer Private Cloud auf Basis der grundlegenden Funktionen der Amazon Cloud Infrastruktur. Was Amazon bei sich z.B. als AWS Availiablty Zone bezeichnet, repräsentiert bei Eucalyptus ein „Cluster“. Die Netflix Tools ermöglichen somit auch ähnliche HA-Funktionalität Prüfung in der Private/ Hybrid Cloud, wie Netflix sie selbst bereits in der Amazon Public Cloud nutzt. Darüber hinaus wird Eucalyptus die Netflix Tools mittelfristig ganz sicher in die eigene Cloud Lösung integrieren, um eine eigene HA-Prüfung im Portfolio zu haben.

Die Veröffentlichung der Netflix Tools unter der Open-Source Lizenz wird nicht zuletzt die Kooperation der Amazon Web Services und Eucalyptus weiter stärken, sondern Eucalyptus für Amazon als Übernahmeobjekt immer attraktiver machen.

Kategorien
Management

Die Datenleitungen: Das Rückgrat der Cloud

Im Cloud Umfeld wird immer viel über die Anbieter, ihre Verfügbarkeit, Ausfallsicherheit und Service Level Agreements (SLA) gesprochen. Was sehr oft gar nicht angesprochen wird ist die Hauptabhängigkeit Nummer eins: Die Backbones der Internet Carrier. Die „Submarine Cable Map 2013“ illustriert sehr schön, wo welche Kabel weltweit verlaufen, die für den Datentransfer zwischen den einzelnen Kontinenten verantwortlich sind.

Die Datenleitungen: Das Rückgrat des Cloud Computing

Submarine Cable Map 2013 – Das weltweite Backbone unter dem Meer

Die „Submarine Cable Map 2013“ zeigt das weltweite Backbone der Unterwasserkabel im Meer. Sie zeigt, wo der meiste Datentransfer stattfindet und welche Länder über die beste Vernetzung verfügen.

Insgesamt illustriert die Karte 244 Leitungen. Darunter diejenigen die zwischen dem Zeitraum von 1992 bis 2012 verlegt wurden oder die, welche bis 2014 in Betrieb genommen werden. Bereits bestehende Leitungen sind farbig markiert, geplante sind Grau. Weitere zwölf Leitungen sollen in den kommenden zwei Jahren neu verlegt werden.

Am unteren Rand der Karte lässt sich zudem ablesen, wie schnell die jeweiligen Verbindungen zwischen den verschiedenen Ländern und Kontinenten sind und wie stark die Auslastung ist. Zu erkennen ist z.B., dass die USA nach Kolumbien und Venezuela über schnelle Datenverbindungen verfügen, nach Frankreich und Großbritannien ist es jedoch langsamer. Die schwächste Datenleitung haben die USA demnach nach Südafrika und Indien.

Kategorien
Management

Der Cloud Computing ROI: Kosten sagen nicht immer viel aus!

Wie der Return on Investment (ROI) des Cloud Computing bestimmt werden kann, habe ich in diesem Artikel bereits beschrieben. Die Praxis zeigt jedoch, dass es meistens gar nicht so leicht umsetzbar ist und andere Werte im Vordergrund stehen sollten.

Der Return on Investment

Der Begriff Return on Investment (deutsch Kapitalverzinsung, Kapitalrendite oder Anlagenrendite) bezeichnet ein Modell zur Messung der Rendite einer unternehmerischen Tätigkeit, gemessen am Gewinn im Verhältnis zum eingesetzten Kapital. Der ROI beschreibt als Oberbegriff für Renditekennzahlen sowohl die Eigenkapitalrendite als auch die Gesamtkapitalrendite.

Quelle: Wikipedia.de

Der Nutzen sollte vor den Kosten stehen

Der erfolgreiche Einsatz von Cloud Computing lässt sich nicht immer in Zahlen ausdrücken. Daher lässt sich der ROI des Cloud Computing am besten aus dem Nutzen bestimmen. Administratoren und CIOs sollten dazu auf die offensichtlich Werte achten, die beim Einsatz entstehen. Sie sollten sich z.B. fragen, was sie von der Nutzung eines bestimmten Service erwarten können. Auf dieser Basis lassen sich weitere, auf den Nutzen bezogene, Fragen entwickeln, die sich nicht auf das Finanzielle konzentrieren. So können bspw. Metriken entwickelt werden, die sich auf den sichtbaren Nutzen eines Cloud Service beziehen, den dieser in der Lage ist zu liefern. Metriken könnten sein:

  • Wie schaut es mit dem Support und weiteren Services aus, die durch den Anbieter bereitgestellt werden?
  • Können Einsparungen erzielt werden?
  • Wie kompliziert ist der Abrechnungsvorgang?
  • Wie ist die Benutzerfreundlichkeit des Service?
  • Ist die dynamische Nutzung durch den neuen Service gewährleistet?
  • Wie flexibel ist der neue Service in Bezug auf Veränderungen und wechselnder Anforderungen?
  • Wie schnell kann der neue Cloud Service adaptiert und bereitgestellt werden?
  • Wie sehen die Wartungs- und Upgradekosten sowie die Ausfallzeiten im Vergleich zum Cloud Service aus?
  • Wie ist der Einfluss auf das Unternehmen, wenn Services in Zukunft aus der Cloud bezogen werden?
  • Wie sehen die Risiken in Bezug auf die Unternehmensprozesse und gespeicherten Daten in der Cloud aus?
  • Konnte die Zufriedenheit meiner Mitarbeiter erhöht werden?
  • Hat sich die Agilität und Flexibilität verbessert?

Agilität, Flexibilität und Zufriedenheit stehen vor den Kosten

Bewusst rate ich bei der Bewertung des Cloud Computing nicht immer nur auf die reinen Kosten zu schauen. Denn was nützt es, wenn ich mit einer on-Premise Lösungen nach fünf Jahren zwar günstiger fahre als mit Cloud Services, in dieser Gleichung aber vernachlässige, dass ich als Unternehmen auch innerhalb dieser fünf Jahre Wartungskosten für Updates, Serverhardware usw. habe. Klar, wenn ich einmal kräftig investiere und meine eingekauften Ressourcen über einen sehr langen Zeitraum nutze, ohne diese zu erneuern, fahre ich definitiv günstiger als mit einem Cloud-Modell, wo ich monatliche bzw. jährliche Beiträge zahle. Was allerdings beachtet werden sollte ist, dass ich damit ständig den aktuellen Trends hinterher hänge und vor allem niemals die neueste Softwareversion einsetze. Investiere ich also Anfangs eine hohe Summe in Softwarelizenzen und lasse meine Mitarbeiter sechs bis sieben Jahre mit veralteten Softwareversionen arbeiten, spare ich natürlich langfristig. Ähnlich verhält es sich mit Hardware. Aber mache ich meine Mitarbeiter damit auch glücklich und vor allem produktiv? Nein!

Cloud Computing optimiert sämtliche technologische Prozesse und führt zu mehr Effizienz. Zudem verkürzt es den Zugriff auf Ressourcen und erhöht damit die Innovationsfähigkeit des Unternehmens. Mitarbeiter können dadurch schneller auf Informationen und Applikationen zugreifen, wodurch sie Informationen kurzerhand analysieren und sofort Entscheidungen treffen können. Mit einem ortsunabhängigen Zugriff auf die Daten lässt sich darüber hinaus die Produktivität jedes einzelnen Mitarbeiters erhöhen.

Entwickler fragen nach der on-Demand Bereitstellung von Ressourcen

Diese Bestätigung habe ich von einem Manager eines deutschen DAX-Konzerns, der mit seinem Team eine Private Cloud aufgebaut hat, um den internen Bereitstellungsprozess von Ressourcen (Server) für die Entwickler zu optimieren und zu standardisieren. Jahrelang waren die Entwickler gezwungenermaßen darauf angewiesen, einen Bereitstellungsprozess für physikalische Server zu nutzen, der ewig dauerte. Das führte dazu, dass manche Projekte entweder mit Verzögerung fertiggestellt wurden oder überhaupt nicht durchgeführt werden konnten. Mit einem Workaround, der vom Standardprozess abwich, wurde ein externer Dienstleister ins Boot geholt, der virtuelle Server innerhalb von 5 Tagen bereitstellte. Allerdings waren die Entwickler hier auf die Software des Anbieters angewiesen, da dieser nicht den Softwarestack des DAX-Konzerns unterstütze. Folge: Ein qualitativ schlechter Entwicklungsprozess, da die Software auf den virtuellen Servern nicht zu der auf der späteren Live-Plattform kompatible war.

Mit dem Aufbau einer Private Cloud wurde diese Gesamtsituation nun gelöst. Server werde jetzt innerhalb von 5 Minuten bereitgestellt. Da ein Unternehmen bei einer Private Cloud allerdings vollständig in die eigenen Infrastrukturressourcen investieren muss, würde der ROI negativ ausfallen, wenn man sich nur an den harten Zahlen orientiert.

Entwickler fragen nach der on-demand Bereitstellung von Ressourcen. So ist es bei dem DAX-Konzern und so ist es auch bei anderen Unternehmen. Einfach mal die Entwickler direkt fragen. Leider fließt der Wert, der aussagt, dass ein Entwickler bzw. Mitarbeiter zufrieden arbeitet, niemals in den ROI ein. Das sollte er aber. Denn die Agilität, Flexibilität und Zufriedenheit sollten einen ebenso großen Stellenwert einnehmen wie die reinen Kosten.

Kategorien
Management

Amazon Web Services mit 20-stündigen Ausfall über Weihnachten

Nach einem eher holprigen Jahr 2012 mit einigen schweren Ausfällen, zeigten sich über Weihnachten erneut Probleme in der Cloud Infrastruktur der Amazon Web Services. Während eines 20-stündigen Ausfalls waren mehrere größere Kunden betroffen, darunter Netflix und Heroku. Das Hauptproblem bestand dieses Mal mit Amazons Elastic Load Balancer (ELB).

Region US-East-1 sehr großes Problemkind

Bei diesem Ausfall handelt es sich um den bisher letzten aus einer Reihe von schweren Ausfällen in Amazons Region US-East-1. Dabei handelt es sich um die älteste und meist genutzte Region in Amazons Cloud Computing Infrastruktur. Dieser erneute Ausfall eben in US-East-1 wirft neue Fragen bzgl. der Stabilität dieser Region auf und was Amazon aus den letzten Ausfällen tatsächlich gelernt und vor allem verbessert hat. Erst kürzlich hatte Amazon Kunde awe.sm Kritik an der Amazon Cloud und hier insbesondere an Amazon EBS (Amazon Elastic Block Store) und den Services die davon abhängig sind geäußert.

Amazon Elastic Load Balancer (ELB)

Von dem Ausfall war neben der Amazon Elastic Beanstalk API hauptsächlich der Amazon Elastic Load Balancer (ELB) betroffen. Dabei gehört Amazon ELB zu einem der wichtigen Services, wenn eine skalierbare und hochverfügbare Infrastruktur innerhalb der Amazon Cloud aufgebaut werden soll. Nutzer können mit dem ELB die Lasten zwischen verschiedenen Availability Zones (unabhängiges Amazon Rechenzentrum) verschieben und damit die Verfügbarkeit sicherstellen, wenn es in einem Rechenzentrum zu Problemen kommt.

Allerdings: Sowohl Amazon Elastic Beanstalk als auch Amazon ELB setzen auf Amazon EBS, welches als das „fehlerhafte Rückgrat der Amazon Web Services gilt„.

Kategorien
Management

Cloud Computing Ausfälle im Jahr 2012

Das Jahr neigt sich dem Ende und nicht alles ist 2012 in der Public Cloud so glatt gelaufen, wie es sich die meisten gewünscht haben. Ich denke bei dem einen oder anderen Cloud Admin und vor allem Nutzer werden sich in diesem Jahr wahrscheinlich ähnliche Gefühlsregungen gezeigt haben.

Public Cloud Ausfälle 2012

Ich habe mal eine kleine Auswahl aller Artikel zum Thema „Cloud Computing Ausfälle“ zusammengestellt, die ich im Jahr 2012 hier auf CloudUser veröffentlicht habe.

  1. Microsoft Azure mit 12-stündigem Ausfall – War der Schalttag (29. Februar) das Problem?
  2. CloudStore der britischen Regierung ebenfalls vom Windows Azure Ausfall betroffen
  3. Microsoft bestätigt: Windows Azure Ausfall war ein Schaltjahr Problem
  4. Azure Nutzer erhalten für den Ausfall am 29. Februar eine Gutschrift über 33%
  5. Amazon Web Services mit kurzzeitigem Ausfall
  6. Erneute Probleme in der Amazon Cloud – Ausfall bei den Amazon Web Services in North Virginia
  7. Der Himmel weint. Nicht! Public Cloud Ausfälle sind nun einmal öffentlich.
  8. Armutszeugnis: Cloud Computing Ausfälle haben seit 2007 mehr als 71 Million US-Dollar an Kosten verursacht.
  9. Salesforce hatte mit Ausfall zu kämpfen
  10. Amazon Web Services (AWS) erneut mit Ausfall. Wieder ein Stromausfall. Wieder in North Virginia. Schwere Stürme sind die Ursache.
  11. Der Ausfall der Amazon Web Services (AWS) zeigt die schlechte Systemarchitektur von Instagram
  12. Amazon Web Services (AWS) Ausfall: Erklärungen | Erster Kunde geht | Netflix hält die Treue | Okta versteht die Cloud-Architektur
  13. Der Amazon Web Services (AWS) Ausfall: Letzte Chance – So etwas darf nicht noch einmal passieren!
  14. Ausfall: Salesforce erneut mit schwerwiegenden Problemen
  15. Ausfallprävention: Diese Fragen sollte man seinem Cloud Computing Anbieter stellen
  16. Microsoft Windows Azure Compute in der Region „West Europe“ ausgefallen
  17. Fehlerhafte Netzwerkkonfiguration war Schuld am Windows Azure Ausfall für die Region „West Europe“
  18. Ausfall: Salesforce erneut mit Performance-Problemen
  19. Microsoft erklärt den Grund für den Ausfall von Windows Azure in der Region „West Europe“
  20. Schuldzuweisungen in Zeiten des Cloud Computing
  21. Erneuter Ausfall der Amazon Web Services zeigt, dass Cloud Nutzer nicht aus den eigenen Fehlern lernen
  22. Ausfall der Google App Engine – Load Balancer waren die Ursache
  23. Windows Azure Compute in „South Central US“ und „West Europe“ mit Problemen
  24. Ausfälle in der Cloud liegen in der Natur des Menschen

Da ist schon einiges zusammengekommen. Aber ich wette, tragen wir weltweit sämtliche Ausfälle in von Unternehmen selbst betriebenen Rechenzentren zusammen, schneidet die Public Cloud gut ab.

Hat jemand hierzu vielleicht Statistiken?