Kategorien
News

Box OneCloud nun auch für Android

Nachdem Box seinen aus 50 Apps bestehenden Katalog OneCloud im März für das iOS veröffentlicht hat, steh die Apps Suite für das „Mobile Enterprise“ nun auch auf Android zum Download bereit.

Box OneCloud nun auch für Android

Box OneCloud Public Cloud Plattform bietet mobile Anwendungen, speichert Daten und ermöglicht das Teilen und die Zusammenarbeit an Dateien. Mit 50 Apps fing alles für iOS basierte Geräte an. Nun folgt Android.

Mit Box OneCloud lässt es sich Anwendungs- und geräteübergreifend (Tablets und Smartphones) auf Business-relevante Daten zugreifen. Zu neuen, auf Android verfügbaren Apps gehören iAnnotate, Breezy, Docusign Ink und Fetchnotes.

Box hat ebenfalls ein neues OneCloud SDK vorgestellt, das Android Entwickler nutzen können, um Apps zu entwickeln, die in der Box Cloud laufen.

Kategorien
Analysen

Vendor Lock-in? Macht eure Hausaufgaben!

Das Thema Datenschutz und der Vendor Lock-in geben sich beim Thema Cloud Computing die Klinke in die Hand. Im Interview für die Computerwoche machte Eucalyptus CEO Marten Mickos mir gegenüber eine interessante Aussage: „Die Leute erinnern sich daran, was Microsoft und Oracle in der Vergangenheit getan haben. Nun vermuten sie, das VMware dasselbe vorhat.“ Der Wink mit dem Zaunpfahl ist hier nicht zu übersehen. Aber, Marten hat recht!

Tradition in der Moderne: Psychologen an die Front

Der Lock-in selbst ist an sich nicht das Problem. Wie viele Windows (Workstation/ Server) Installationen gibt es bspw. weltweit? Und wie viele Leute ärgern sich täglich über Windows und schimpfen auf das System, nutzen es aber dennoch weil es nicht anders geht? Und warum ist das so? Ganz einfach, selbst in der „alten Welt“ haben wir uns regelmäßig in die Abgründe eines Anbieters begeben und uns bewusst auf einen Vendor Lock-in eingelassen. Es wurde nur in dieser Form, wie wir es heute tun, niemals darüber gesprochen. Denn, bleiben wir beim Beispiel Windows, hat man ein System (Windows Server) aus dem Hause Microsoft, dann hat man sich in 90% aller Fälle beim Mailserver auch für ein Microsoft System (Exchange) entschieden. Passt ja alles so gut zusammen, Schnittstellen und so weiter.

Es geht beim Cloud Vendor Lock-in nicht direkt um den Anbieter oder die Systeme selbst, nein es ist ein psychologisches Problem. Denn wo die DATEN und PROZESSE in der „alten Welt“ noch auf den eigenen Servern ihr Unwesen trieben, befinden sich diese nun beim Anbieter, also nicht mehr im eigenen Einflussbereich.

Macht ALLE eure Hausaufgaben!

Es ist falsch mit dem Finger auf die Cloud Anbieter zu zeigen. Es wäre von den Anbietern aber ebenso falsch, nach Außen nicht offen zu sein.

APIs, APIs, APIs

Neben Ausnahmen stellen allerdings alle großen Player am Markt eine dokumentierte API nach Außen bereit. Wodurch sich die Daten, Systeme usw. wieder aus der Cloud herausholen lassen. Natürlich gibt es Services, die mit Vorsicht zu genießen sind. Zwei davon sind die Amazon DynamoDB und der Amazon Simple Workflow. Bei beiden handelt es sich um proprietäre Systeme, für die man explizit entwickeln muss und es bisher keine on-Premise Lösungen gibt. Aber machen wir uns nichts vor, auch ein Windows Azure, Rackspace, OpenStack, Eucalyptus, Google, T-Systems und wie sie alle heißen haben irgendwo einen Lock-in. Denn dabei handelt es sich nun einmal um proprietäre Systeme. Die Einzige Forderungen die man an die Anbietern stellen kann ist, zu allen Services die sie im Portfolio haben, auch eine umfangreiche API bereitzustellen, was sie zum größten Teil auch machen.

Evaluieren, Evaluieren, Evaluieren

Als Nutzer sollte man sich nicht auf einen Anbieter verlassen und vor allem generalistisch entwickeln. Die Web-TV Agentur „schnee von morgen“ nutzt bspw. primär zwar die Amazon Cloud, hat aber ein equivalentes Code-Modell für die Google App Engine entwickelt. Es bringt nichts mit dem Finger auf einen Anbieter zu zeigen. Wenn er die Anforderungen nicht erfüllt, dann wird er halt nicht genommen, Punkt. Er wird schon sehen, was er davon hat. Um sich bestmöglich vor einem Lock-in zu schützen, muss ein Cloud Nutzer die Anbieter seiner Wahl daher penibelst unter die Lupe nehmen bzw. nehmen lassen und dann den Anbieter für einen Bereich auswählen, bei dem ein Lock-in nicht zutrifft. Es wird in Zukunft zudem vermehrt dazu kommen, dass man nicht alle Services von einem Anbieter bezieht, sondern auf Cloud Broker zurückgreift, die für die Zuteilung der Services zuständig sind.


Bildquelle: http://delimiter.com.au

Kategorien
Events

Event-Tipp: CloudOps 2012 Call for Papers – Werde Teil von etwas ganz Großem!

Nach dem rockigen Charme des CloudCamp Frankfurt 2012 wird es in der frankfurter Cloudszene wieder ein wenig „seriöser“. Mit ein wenig mehr Business – ja der gute Zwirn darf getragen werden – findet der CloudOps Summit zum zweiten Mal in seiner Geschichte am 20.09.2012 im Campus Westend der Uni Frankfurt statt. Neben vielen gesetzten Sprechern, haben die Veranstalter einen Call for Papers eröffnet, bei dem ihr euch mit einem herausragenden(!) Vortrag bewerben könnt.

Event-Tipp: CloudOps 2012 Call for Papers - Werde Teil von etwas ganz Großem!

Grundsatzdiskussionen sind laaangweilig!

Die Cloud ist angekommen und hat sich auch in den Köpfen der IT-Entscheider und Fachabteilungen festgesetzt. Daraus resultieren weitere Themen wie bspw. Big Data oder Bring Your Own Device, die zum einen von Cloud Infrastrukturen unterstützt werden zum anderen aber auch durch das Thema Consumerization getrieben werden.

Grundsatzdiskussionen zu Themen wie was ist IaaS, PaaS und SaaS sind ebenso nicht mehr notwendig wie das leidige Thema Datenschutz und Sicherheit. Entweder man macht es oder lässt es sein, Punkt! (Ich habe erst gestern mit einem Systemhaus telefoniert, die bereits über 120 Office 365 Projekte abgewickelt haben, Tendenz steigend. So schlecht kann die Cloud daher nicht sein, oder?)

Selbstverständlich werden Unternehmen über einen gewissen zeitlichen Horizont unterschiedliche Cloud Services nutzen (müssen). Und auch wir Nörgler (aka Deutschen) sind dazu in der Lage, ehrlich! Der CloudOps Summit 2012 wird daher nicht mehr in die Grundsatzdiskussion einsteigen, sondern drei Schwerpunkte behandeln, die essentiell wichtig sind und von der Cloud beeinflusst werden.

Transition to the Cloud

  • Wie können existierende Anwendungen in die Cloud migriert werden?
  • Welche Erfahrungen gibt es hinsichtlich Datenschutz und Compliance?
  • Bei welchen Systeme/Plattformen ist eine Migration in die Cloud besonders sinnvoll?

Build/Run the Cloud

  • Wie können Cloud-Architekturen sicher aufgebaut und betrieben werden?
  • Welche Auswirkungen hat die Cloud auf bestehende Planungs- und Betriebs-Prozesse?
  • Wie kann mit der steigenden Kompexität von cloudbasierten Architekturen umgegangen werden?

Cloud Skills

  • Welche Rollen und Aufgaben werden in einem zukünftigen Cloud Betrieb benötigt?
  • Wie verändern sich die Anforderungen innerhalb der einzelnen Rollen?
  • Welchen neuen, disruptiven Dienstleitungen werden durch Cloud Computing ermöglicht?

Klasse zuerst!

Wer sich also in der Lage fühlt, zu einem dieser Themen einen Vortrag bzw. ein interessantes Projekt inkl. Lösungsansatz(!) zu präsentieren, der sollte sich am Call for Papers des CloudOps Summit 2012 beteiligen. Bewerbungen können für eine Keynote (15 Minuten), einen Lightning Talk (6 Minuten) oder einen Workshop (30 Minuten) abgegeben werden.

Die Bewerbung für einen Vortrag ist hier zu finden. Zudem sollte man sich darauf einstellen, neben dem Vortrag ebenfalls einen bzw. zwei Artikel zu dem Thema zu schreiben. Die Nachwelt soll auch etwas davon haben.

Für Rückfragen könnt ihr euch über Twitter an @rjudas oder @renebuest bzw. per eMail an rjudas@arago.de oder rene@clouduser.org wenden.

Kategorien
Management

So finden Sie einen echten Software-as-a-Service Anbieter

Entwicklungszeit? Gibt es nicht! Kosten für die Wartung? Fehlanzeige! Eine deutlich schnellere Einrichtung im Vergleich zu einer gehosteten Lösung und keine kostspieligen Ausgaben für Backup-Lösungen? Genau! Das sind nur ein paar Vorzüge für die Nutzung von Software-as-a-Service (SaaS) Lösungen. Aber wie stellt man sicher, dass der SaaS Anbieter auch den gewünschte Service bietet, den ich erwarte? Diese Frage soll der Artikel beantworten!

Unternehmen, die sich für SaaS Lösungen entscheiden, wollen den immensen Kosten für Lizenzen und Wartungen entfliehen und stellen sich insbesondere gegen die Verantwortlichkeiten gegenüber den klassischen Ansätzen, um ihren Mitarbeitern Applikationen bereitzustellen.

Die Spreu vom Weizen, also die guten von den schlechten SaaS Anbietern zu trennen ist kritisch, aber zu bewältigen, wenn man die Grundlagen der Technologie versteht. Die folgenden Tipps helfen bei der Bewertung von SaaS Anbietern und enttarnen diejenigen, die im SaaS Markt eigentlich nichts zu suchen haben.

Tipps für den Weg zur SaaS Lösung

  • SaaS Lösungen werden innerhalb einer Cloud Umgebung gehostet. Dabei greifen die Nutzer ausschließlich per Webbrowser auf die Software zu. Es muss niemals und zu keinem Zeitpunkt auch nur ein Stück Software wie Plugins auf dem lokalen System oder Upgrades für die genutzte SaaS Applikationen installiert werden. Weder muss in Backup Equipment, Datenbanken oder physikalischer Hardware investiert werden.
  • SaaS Applikationen werden fortwährend von einer einzigen Quelle aktualisiert. Sämtliche Upgrades sollten regelmäßig erfolgen und beinhalten keine Aktion durch den Endnutzer.
  • Eine echte SaaS Lösung ist immer vollständig Web-basiert. Dabei überträgt die SaaS Applikation nur HTML Daten. HTML benötigt eine minimale Menge an Bandbreite. Ein Punkt wo sich echte SaaS Anbieter von denen unterscheiden, die es gerne sein möchten. Stellen Sie daher sicher, dass jeder Anbieter, mit dem Sie zusammenarbeiten, eine Einschätzung bzgl. der notwendigen Bandbreite zur Verfügung stellt.
  • Ein echter SaaS Anbieter zeigt sich vertraglich selbst dafür verantwortlich, einen akzeptablen Support zu leisten sowie über eine hohe Verfügbarkeit und entsprechend schnelle Antwortzeiten zu verfügen. Aus diesem Grund sollten Sie sich als Kunde niemals um die CPU-Auslastung kümmern müssen oder gar etwas über die Effizienz des Systems zu Gesicht bekommen.
  • Die Software eines SaaS-Anbieters arbeitet immer mit der gleichen Code-Basis. Upgrades der Software sollte regelmäßig stattfinden, ohne dass der Nutzer auch nur eine Aktion dafür vornehmen muss.
  • Echte SaaS-Lösungen sind Mehrbenutzer Umgebungen und werden bei dem Anbieter gehostet. Updates und Upgrades für das SaaS-System werden über ein gemeinsames System gleichzeitig an alle Clients ausgeliefert wodurch keine zusätzlichen Kosten entstehen.
  • SaaS Lösungen speichern die Daten immer auf den Servern der Anbieter ab und niemals innerhalb der Infrastruktur des Kunden. Da sich die Daten damit außerhalb des eigenen Einflussbereichs befinden, muss sichergestellt werden, wer verantwortlich für die Aufbewahrung der Daten ist und das diese ständig intakt sind. Zudem sollte geprüft werden, dass es sich bei dem Anbieter um ein verantwortungsvolles, zuverlässiges und gut etabliertes Unternehmen handelt. Achten Sie darüber hinaus darauf, dass der SaaS Anbieter über Notfallpläne zur Datensicherung verfügt, wenn es zu Systemfehlern kommt.

Kurztest: Ist der Anbieter ein Saas Anbieter?

  1. Achten Sie darauf, dass der Zugriff über einen Webbrowser stattfindet. SaaS Applikation benötigen nicht ein Stück zusätzliche Software oder Hardware auf Ihrer Seite um genutzt zu werden.
  2. Fragen Sie nach Referenzen und sprechen Sie mit anderen Kunden. Wahre Aussagen von Kunden sind hilfreich für die mögliche Nutzung der SaaS-Lösung in Ihrem Unternehmen.
  3. Stellen Sie sicher, dass der Anbieter eine Einschätzung über die notwendige Bandbreite für die Nutzung der Applikationen macht. Ist die Schätzung sehr hoch, wäre es möglich, dass es sich nicht um eine echte SaaS-Lösung handelt.
  4. Ein echter SaaS Anbieter rechnet nach dem Pay per use Modell ab. Das bedeutet, dass Sie nur pro Benutzer pro Monat/ Woche bezahlen und niemals einen langfristigen Vertrag eingehen müssen oder etwa für ein Jahr im Voraus bezahlen müssen.

Bildquelle: http://www.aresumefortoday.com

Kategorien
News

Nutzen die Mitarbeiter Dropbox geht der Geschäftsführer in den Knast!

So oder so ähnlich könnte es sein, wenn man Puppet Labs CEO Luke Kanies glauben schenkt. Diese These stellt der Manager während einer Panel Diskussion auf der GigaOm Structure 2012 auf. Oh Graus mögen nun alle Geschäftsführer denken, denn ganz unrecht scheint er damit nicht zu haben, wenn wir schauen, mit was für Herausforderungen Unternehmen heutzutage konfrontiert werden, wenn sich alles in die Cloud bewegt.

Die rechtlichen Entscheidungen sind schwammig

Kanies war nicht daran interessiert das Publikum zu schocken, dennoch stellte er heraus, dass die meisten Unternehmen keine internen Regeln haben, wie Mitarbeiter mit Cloud Services umzugehen haben, um damit auf der rechtlichen Seite zu sein. Die Rechtsanwälte unter den Lesern wird es nun freuen… 😉 Panel-Teilnehmer James Urquhart (enStratus VP of Product Strategy) stimmte Kanies zu und fügte hinzu, dass es bereits vier Gesetzesänderungen gibt, wie mit gespeicherten Dokumenten in der Cloud umzugehen sei.

Es gibt mehr Herausforderungen als nur die Gesetze

Das Panel wandte sich auch schnell dem Thema Recht ab, kein Wunder saß dort auch kein einziger Rechtsanwalt, und konzentrierte seine Diskussion auf die Thematik, dass Unternehmen einen Wandel vom Infrastruktur-zentrischen hin zu Applikations-zentrischen Architekturen erleben werden. Zudem müssen die Menschen eine völlig neue Art des Denkens annehmen. Laut Paremus CEO Richard Nicholson haben viele Organisationen Probleme mit den Strukturen aktueller Applikationen. Wofür er durch das Panel eine breite Zustimmung erhielt. Werden die Applikationen in das Zentrum gestellt, ist es notwendig, dass Unternehmen darüber nachdenken, wie sie ihr Geld ausgeben und wer die Entscheidungen trifft.

Hallo Schatten-IT

Das Panel sprach ebenfalls ein Thema an, das ich vor längerer Zeit in meinem Artikel „Cloud Computing und die Schatten-IT“ behandelt habe. Wenn die IT-Abteilungen nicht in der Lage sind auf die Bedürfnisse ihrer Mitarbeiter einzugehen und schnell Lösungen bieten, wird sich selbst an Cloud Services bedient, was dann z.B. mit Dropbox am eigenen Arbeitsplatz enden kann. Luke Kanies: „Ein Grund dafür ist, wenn man die IT fragt und egal wie die Frage lautet, sie sagen Nein.“ „Daher Fragen die Leute nicht mehr und suchen sich halt selbst ihre Lösungen. Trotz aller möglichen rechtlichen Herausforderungen.“ Wo wir wieder beim Thema Geschäftsführer und Knast sind!

Video zur Panel Diskussion auf der GigaOm Structure 2012

Watch live streaming video from gigaomstructure at livestream.com

Bildquelle: http://gallery.kewl.lu

Kategorien
News

Rackspace wird nervös! Offenheit als Argument gegen AWS und seine "Klone".

Tja, wenn man die Fälle davon schwimmen sieht, versucht man es halt mit Spitzen gegen die Konkurrenz. In diesem Fall Rackspace Präsident Lew Moorman gegen die Amazon Web Services (AWS) und alle Anbieter, die „Klone“ der AWS Cloud aufbauen. Moorman ist auf dem Standpunkt, dass der Cloud Markt eine Open Source Alternative zum Platzhirsch AWS benötigt, so der Manager während seiner Präsentation auf der GigaOm Structure 2012. Rackspace gehört zu den größeren Mitbewerbern von AWS und den Initiatoren der Open Source Cloud Software OpenStack.

Rackspace wird nervös! Offenheit als Argument gegen AWS und seine

Moorman: Nicht auf den AWS Zug aufspringen

Moorman hält es für eine falsche Strategie, wenn sich andere Anbieter darauf konzentrieren einfach nur Interoperabilität zu der Amazon Cloud Infrastruktur zu bieten. Natürlich bringt Moorman in diesem Zusammenhang OpenStack ins Spiel, das Rackspace zusammen mit der NASA im Jahr 2010 gegründet hat und welches er als die Open Source Alternative am Markt sieht. Er vergleicht OpenStack sogar mit der Evolution von Linux. Allerdings widerspricht sich der Rackspace Präsident. OpenStack sei bemüht zu 100% im Einklang mit den Amazon Web Services zu sein, wird aber stetig in die Entwicklung und Wartung einer eigenen transparenten API investieren. Damit möchte OpenStack zwar kompatible zu AWS sein, seinen Kunden aber mehr Möglichkeiten bieten.

Eat Your Own Dog Food

Rackspace setzt alles auf OpenStack. So wird der Cloud Anbieter gegen Ende dieses Sommers seine Public Cloud Infrastruktur komplett auf die OpenStack Plattform umstellen. Moorman erwartet das Gleiche von anderen Anbietern, die dem OpenStack Projekt angehören. Beispielweise basiert das gesamte HP Converged Cloud Portfolio auf OpenStack.

Ein der Verzweiflung geschuldeter Schritt

Rackspace bzw. Moormans Vorstoß wirken wie ein verzweifelter Versuch, neben dem großen Rivalen AWS ein wenig Aufmerksamkeit zu bekommen. Insbesondere Rackspace ist seit Jahren das, was man nicht als offen bezeichnen kann. Erst mit OpenStack scheinen sie die Kurve zu bekommen. Aber was bedeutet hier offen? Reden wir von der Software oder den APIs? Reden wir hier im Sinne der Kunden als Endnutzer oder im Sinne der Kunden von OpenStack, also Service Anbieter? Wenn wir an dieser Stelle von Kunden sprechen sollten wir es im Sinne der Endkunden, also Unternehmen, die Cloud Infrastrukturen nutzen, machen.

Was ich sehr traurig finde ist, das sich Rackspace bzw. OpenStack selbst nicht treu sind. Auf der einen Seite argumentieren sie damit, dass der Cloud Markt eine Open Source Alternative zu den Amazon Web Services benötigt, auf der anderen Seite wollen sie zu 100% konform zu AWS sein. Was denn nun bitte Rackspace und OpenStack?

Eines ist klar, der Anbieter und das Projekt scheinen verstanden zu haben, dass AWS meilenweit entfernt ist. Zudem wird Rackspace meiner Einschätzung nach langsam nervös, da AWS sich mit Eucalyptus einen starken Open Source Partner an Land gezogen hat, mit dem Unternehmen ihre eigene AWS kompatible Private Cloud aufbauen können, wodurch sie ihre Instanzen, Workloads etc. zwischen der Amazon Cloud und der eigenen Eucalyptus Cloud verschieben können.

In meinem Artikel „Die Amazon Web Services und der Vendor Lock-in„, habe ich auf mögliche Lock-in Situationen in der Amazon Cloud hingewiesen. Diese beziehen sich auf die Amazon Services Amazon DynamoDB und Simple Workflow Services (SWF), die dazu führen, dass Unternehmen sich in eine Abhängigkeit begeben, da DynamoDB eine proprietäre Datenbank ist und mit SWF vollständige Geschäftsprozesse in der Amazon Cloud abgebildet werden können. Allerdings bin ich seit der Kooperation mit Eucalyptus hier entspannter geworden, da Eucalyptus in Zukunft immer mehr AWS Services adaptieren wird.

Rackspace kopiert die AWS Strategie

Nachdem AWS und Eucalyptus nun also kooperieren, um hybride Cloud Infrastrukturen aufzubauen und damit den Lockin aufweichen, muss Rackspace nachziehen. Mit der Umstellung der eigenen Public Cloud Infrastruktur auf OpenStack machen sie den ersten Schritt, um bei ihren Kunden dann zukünftig argumentieren zu können, dass diese mit einer eigenen Private Cloud auf Basis von OpenStack ebenfalls einen hybriden Ansatz verfolgen können.

Kategorien
News

Google Apps Administratoren können nun die 2-Wege Authentifizierung erzwingen

Die 2-Wege Authentifizierung, mit der eine weitere Sicherheitsebene im Anmeldeprozess eingezogen wird, steht bereits seit dem Jahr 2010 innerhalb von Googles Office Suite Google Apps zur Verfügung. Aber erst jetzt haben Administratoren die Möglichkeiten, diese Sicherheitstechnologie zwingend für ihre Nutzer zu aktivieren.

Google Apps Administratoren können nun die 2-Wege Authentifizierung erzwingen

Mit einer weiteren Einstellungen in der Google Apps Management Konsole, können Admins nun erzwingen, dass sich ihre Nutzer über die 2-Wege Authentifizierung anmelden. Damit wird ein Nutzer nun nicht mehr nur nach seinem Password gefragt, sondern muss zusätzlich einen Code eingeben, den er via SMS oder Sprachnachricht auf sein Mobiltelefon erhalten hat.

Mit dem Einsatz einer 2-Wege Authentifizierung wird die Sicherheit des Systems erhöht, da ein Angreifer neben dem Passwort des Nutzers ebenfalls sein Mobiltelefon stehlen müsste.

Allerdings macht dieses Verfahren den Anmeldeprozess für die Nutzer komplizierter und verlangt eine Konfiguration auf dem jeweiligen Mobiltelefon. Folglich kann es dazu führen, das viele Nutzer die 2-Wege Authentifizierung verweigern werden.

Kategorien
News

Wenn der Kuchen spricht, haben die Krümel Pause: So sieht Amazon CTO Werner Vogels die Cloud in 5 Jahren

Er ist der weltweit einflussreichste Manager, wenn es um das Thema Cloud Computing geht und wird vereinzelnd schon als Cloud Rockstar bezeichnet, Amazon CTO Werner Vogels. Werner ist die treibende Kraft hinter den Amazon Web Services und hatte mit seiner damaligen Dissertation „Scalable Cluster Technologies for Mission-Critical Enterprise Computing“ zumindest im Geiste bereits die Amazon Cloud geschaffen. Auf der diesjährigen GigaOM Structure 2012 warf er einen Blick in sein Orakel und erzählte wie sich die Cloud seiner Meinung nach von heute bis ins Jahr 2017 verändern wird.

Die Amazon Web Services werden noch günstiger

Werner verspricht, das Amazon in Zukunft sein Preismodell weiterhin verbessern wird. „Wenn man zurück schaut, sieht man, dass wir unsere Preise bereits 20 mal verringert haben. Das Beste ist, dieses auch weiterhin zu tun. Das ist unser Ziel.“

Die Startup Szene wird sich weiter vergrößern

Das Amazon Startups liebt, wissen wir ja bereits. Mit Socialcam, Pinterest und Instagram nennt er nur ein paar Beispiele von jungen Unternehmen, die sich die Cloud zu nutze gemacht haben, um auf ihr schnell skalieren zu können und freut sich schon auf weitere neue Startups. Werner nennt dieselben Argumente, die auch ich immer gerne wieder nutze. „Wären sie in der Lage gewesen ihre Unternehmen in einer traditionellen Welt von Hardware und Infrastruktur aufzubauen? Ich denke nicht! Wir werden viele junge Unternehmen sehen, die völlig neue Dinge bauen werden.“

CIOs werden auf junge Unternehmen hören

Wenn es um IT-Lösungen geht, die erst durch die Cloud entstanden sind, „werden CIOs bereit sein, auf junge Unternehmen zu hören.“ „Vor fünf Jahren hätten sie nur mit den großen Jungs gesprochen.“ Dies wird sich weiter verändern.

Alte Hardware Unternehmen werden gegen das Aussterben kämpfen

HP und die anderen klassischen Hardware Unternehmen müssen sich anpassen um zu überleben. „Ich glaube wenn Unternehmen wirklich eine neue Cloud-Mentalität verinnerlichen – nicht nur eine Cloud im Angebot haben, sondern ein echter Partner für ihre Kunden sind statt nur ein Verkäufer zu sein – und Ihnen helfen Kosten einzusparen, werden CIOs sich auch junge Unternehmen anschauen, die überall auftauchen.“ „Ich sehe CIOs die mittlerweile bereit sind mehr Risiko einzugehen“, so Werner. „Wenn sich Dinosaurier nicht verändern, nun ja wir wissen was mit den Dinosaurier passiert ist.“

Werner Vogels Video auf der GigaOM Structure 2012

Watch live streaming video from gigaomstructure at livestream.com

Bildquelle: http://www.allthingsdistributed.com

Kategorien
Services

Google Cloud SQL – MySQL á la Google

Google Cloud SQL ist ein Web Service, der Google App Engine Applikation die Möglichkeit gibt, relationale Datenbanken zu erstellen und zu verwalten. Der Service sorgt für die vollständige Verwaltung, Überwachung und Administration der Datenbanken, wodurch sich ein Entwickler, wie von Platform-as-a-Service (PaaS) bekannt, zu 100% auf das Schreiben seiner Anwendungen und Services konzentrieren kann.

Mit Google Cloud SQL können soweit alle Funktionen einer MySQL Datenbank genutzt werden. Dadurch können Daten, Anwendungen und Services, laut Google, bequem zwischen on-Premise Systemen und der Cloud verschoben werden. Zudem können vorhandene Datenbanken über eine JDBC oder DB-API an App Engine Anwendungen angeschlossen werden. Um sicherzustellen, dass die Anwendungen ständig verfügbar sind, repliziert Google Cloud SQL die Daten über mehrere geographisch voneinander getrennte Regionen, um damit eine hohe Datenverfügbarkeit zu gewährleisten. Der Service befindet sich derzeit noch in einem Betastatus.

Google Cloud SQL so funktioniert es

Bei Google Cloud SQL handelt es sich um eine MySQL Instanz in der Cloud. Sie verfügt über alle Fähigkeiten und Funktionen von MySQL, mit einigen zusätzlichen Funktionen sowie ein paar nicht unterstützten Features. MySQL erfordert keine Software-Installation, muss nicht gewartet werden und ist ideal für kleine bis mittlere Anwendungen, so Google.

Google Cloud SQL kann entweder über die Kommandozeile, die Google App Engine per Java oder Python Bibliothek oder über ein Datenbank Tool wie den SQuirrel SQL Client genutzt werden.

Funktionen und Einschränkungen

Google Cloud SQL kann derzeit zusammen mit Google App Engine Anwendungen genutzt werden, die in Java oder Python geschrieben sind.

Funktionen

  • Möglichkeit zum Hosten einer MySQL Datenbank in der Cloud
  • Instanzgrößen bis zu 10GB
  • Synchrone Replikation über mehrere geographisch voneinander getrennte Regionen
  • Import und Export von Datenbanken via mysqldump
  • Kompatibilität zu Java und Python
  • Kommandozeilentool
  • SQL Prompt in der Google API Konsole

Einschränkungen

  • Größenbeschränkung für einzelne Instanzen auf 10GB
  • Benutzerdefinierte Funktionen werden nicht unterstützt
  • MySQL-Replikation wird nicht unterstützt
  • Die folgenden MySQL-Anweisungen werden nicht unterstützt:
    • LOAD DATA INFILE
    • SELECT … INTO OUTFILE
    • SELECT … INTO DUMPFILE
    • INSTALL PLUGIN …
    • UNINSTALL PLUGIN
    • CREATE FUNCTION …
    • LOAD_FILE()

Preise

Seit dem 12. Juni 2012 wird die Nutzung von Google Cloud SQL berechnet. Dafür bietet Google zwei Abrechnungsvarianten: Fertige Pakete oder pro Nutzung.

Fertige Pakete

Stufe RAM Enthaltener Speicher Enthaltener Datenverkehr pro Tag Kosten pro Tag
D1 0.5GB 1GB 850K 1,46 Dollar
D2 1GB 2GB 1.7M 2,93 Dollar
D4 2GB 5GB 4M 5,86 Dollar
D8 4GB 10GB 8M 11,71 Dollar

Jede Datenbank erhält die oben genannte Größe an RAM und zusätzlich eine angemessene Leistung an CPU Rechenleistung. Der Speicherplatz wird anhand dem von der MySQL Datenbank benötigen Platz gemessen. Die Abrechnung erfolgt monatlich, bezogen auf die Anzahl der Tage, an denen die Datenbank vorhanden ist. Speicherplatz für Backups wird nicht berechnet. Die Anzahl der I/O-Zugriffe auf den Speicher durch die Datenbank Instanz hängt von der Anzahl der Anfragen, der Arbeitsbelastung und den Daten selbst ab. Cloud-SQL cached die Daten im Speicher, um die Anfragen so effizient wie möglich zu bedienen und damit die Anzahl der I/O-Zugriffe zu minimieren.

Abrechnung pro Nutzung

Ressource Preise
D1 Database Instance (0.5GB RAM) 0,10 Dollar pro Stunde
D2 Database Instance (1GB RAM) 0,19 Dollar pro Stunde
D4 Database Instance (2GB RAM) 0,38 Dollar pro Stunde
D8 Database Instance (4GB RAM) 0,77 Dollar pro Stunde
1GB Storage 0,24 Dollar pro Monat
I/O 0,10 pro Million

Die Abrechnung der Datenbanken erfolgt pro Stunde, dabei wird immer auf die nächste Stunde aufgerundet. Die Abrechnung des Speicherplatzes erfolgt ebenfalls pro Stunde, egal ob die Datenbank aktiv ist oder nicht. Gemessen wird das Maximum an Bytes innerhalb dieser Stunde. Zudem wird auf das nächste GB aufgerundet.

Abrechnung der Bandbreite

Ressource Preise
Ausgehender Datenverkehr 0,12 Dollar pro GB

Es wird nur der ausgehende Datenverkehr gemessen. Der Verkehr zwischen Google App Engine Applikationen und Cloud SQL wird nicht berechnet.

Kategorien
News

Armutszeugnis: Cloud Computing Ausfälle haben seit 2007 mehr als 71 Million US-Dollar an Kosten verursacht.

Seit 2007 haben 568 Stunden Ausfallzeit von 13 namhaften Cloud Services mehr als 71.700,000 US-Dollar an Kosten verursacht, das sagt zumindest die International Working Group on Cloud Computing Resiliency (IWGCR). Dabei liegt die durchschnittliche Nichtverfügbarkeit von Cloud Services bei 7,5 Stunden pro Jahr. Das entspricht einer garantierten Verfügbarkeit von 99,9 Prozent, die weit weg von dem liegt, was von geschäftskritischen Systemen (99,999 Prozent) erwartet wird. Im Vergleich dazu beträgt die durchschnittliche Nichtverfügbarkeit von Strom in einer modernen Großstadt weniger als 15 Minuten pro Jahr. Ein Armutszeugnis für die Public Cloud Anbieter?

Mit „Availability Ranking of World Cloud Computing (ARWC)“ handelt es sich um die erste Publikation der im März 2012 von ParisTech und 13 pariser Universitäten gegründeten Gruppe. Grundlage ihrer Forschung sind Presseberichte von Cloud Computing Ausfällen von Services wie Twitter, Facebook, Amazon, Microsoft, Google, Yahoo, Paypal und Weiteren.

Public Cloud Anbieter stehen unter Druck

Seit die Cloud Anbieter damit begonnen haben, immer mehr staatliche Einrichtungen und weltweit agierende Unternehmen anzusprechen wird es zunehmend wichtiger, dass die bereitsgestellten Services zuverlässig arbeiten, insbesondere dann, wenn es sich um geschäftskritische Systeme handelt. Das scheinen die Cloud Anbieter aber scheinbar nicht zu 100% verinnerlicht zu haben.

Die Kosten pro Ausfall sind nicht zu vernachlässigen

Die Forscher fanden heraus, dass die Kosten für einen einstündigen Ausfall variieren. Der Reiseanbieter Amadeus hätte demnach mit 89.000 US-Dollar zu rechnen, Paypal hingegen mit 225.000 US-Dollar pro Stunde. Die Zahlen basieren auf den stündlichen Kosten, mit der die jeweilige Industrie in ihrem Markt rechnet. Ausfälle bei Unternehmen wie Google, Microsoft und Amazon belaufen sich, laut den Forschern, auf schätzungsweise 200.000 US-Dollar pro Stunde.

Neben den wirtschaftlichen Auswirkungen für den Service Anbieter, sollte hier aber nicht der Kunde aus den Augen verloren werden. Der ist viel wichtiger! Manche Ausfälle haben sich schließlich schon über mehrere Tage hingezogen.

Der Zustand ist wahrscheinlich noch viel schlimmer

Die Forscher merken an, dass ihre Vorgehensweise nicht perfekt sei, da die vorliegenden Informationen bei weitem nicht vollständig seien. Sie gehen daher davon aus, das sie die vorliegenden Zahlen wahrscheinlich unterschätzen. Viele Ausfälle wurden von der Presse nicht publiziert, was viel Platz für weitere bietet. Darüber hinaus standen den Forschern ebenfalls nicht die exakten Werte für die wirtschaftlichen Kosten pro Ausfall oder die durchschnittlichen Kosten pro Stunde von jedem Cloud Anbieter zur Verfügung.

Liebe Anbieter entschädigt richtig!

Wie ich erst vorgestern geschrieben habe, sind Public Cloud Ausfälle nun einmal öffentlich. Probleme in einem privaten Rechenzentrum interessieren niemanden. Kein Journalist würde darüber berichten, da es einfach langweilig ist und keine Leser anziehen würde.

Aber der „Witz“ an der ganzen Cloud Ausfall Geschichte ist, dass die Cloud Anbieter lediglich die Kosten für den Zeitraum, in welchem der Service nicht verfügbar war, erlassen. So haben Azure Nutzer für den Ausfall am 29. Februar eine Gutschrift über 33% erhalten. Amazon ist hier nicht besser.

Es ist ja schön und gut und vor allem zwingend erforderlich, dass man als Nutzer zumindest nicht einen Service berechnet bekommt, der nicht funktioniert. Wo kommen wir denn dahin: Pay as you go! Aber die Cloud Anbieter müssen hier etwas ändern, sonst werden sie von Seiten der Kunden früher oder später ihr blaues Wunder erleben. Sie müssen sich an dieser Stelle mit mehr Transparenz und Glaubwürdigkeit durch eine strengere Selbstkontrolle und Verpflichtung gegenüber ihren Kunden abheben.

Die Erstattung der Kosten für einen nicht verfügbaren Service ist das eine. Aber wie schaut es mit Vertragsstrafen aus, wenn ich als Unternehmen auf Grund des Ausfalls meinen Kunden wiederum nicht die erwartete Serviceleistung erbringen kann und von diesem wiederum in Regress genommen werde bzw. wenn ich dadurch Umsatzeinbußen habe. Hier halten sich die Cloud Anbieter derzeit (noch) schön raus. Ich denke hier gibt es eine Menge Stoff für Diskussionen. Rechtsanwälte bitte zuerst. 😛


Bildquelle: http://www.deerns.nl