Kategorien
Kommentar

Woran erkennt man einen (echten) Cloud Service?

Ist es nun Cloud oder nur „vercloudifiziert“? Woran kann ich als Anwender einen echten Cloud Service erkennen? Diese Frage ist nicht immer ganz einfach zu beantworten, da die Kniffe meistens im Detail versteckt sind bzw. sich in der Infrastruktur befinden, in die in der Regel nicht hineingeschaut werden kann. Eines Vorweg, ein Service der über das Internet angeboten wird ist nicht gleich ein Cloud Service!

Einen echten Cloud Service zu erkennen ist nicht immer ganz einfach

Grundsätzlich kann bei der Betrachtung zwischen dem technischen und wirtschaftlichen Bereich unterschieden werden, um einen ersten Eindruck zu erhalten, ob es denn nun ein Cloud Service ist oder nicht. Dazu sollte man sich bspw. ein verifiziertes und echtes Cloud Computing Angebot wie im IaaS Bereich z.B. die Amazon Web Services oder im Bereich SaaS Microsoft Office 365 oder Google Apps vor Augen halten und damit einen Vergleich anstellen.

Wichtige Anzeichen die für einen Cloud Service sprechen sind Flexibilität, Skalierbarkeit und Hochverfügbarkeit. Die Flexibilität spielt insbesondere bei der Abrechnung der Kosten eine wichtige Rolle. Die Skalierbarkeit und Hochverfügbarkeit sind die technischen Themen.

Technik, Technik, Technik

So sollte ein Nutzer z.B. schon ein wenig genauer hinschauen, wenn er plötzlich eine E-Mail erhält, in der ein Wartungsfenster für einen SaaS Dienst angekündigt wird. Auch wenn wir nicht in die Infrastruktur des Anbieters hineinschauen können, Wartungsfenster gehören nicht zum Cloud Computing. Nehmen wir hier die verifizierten Cloud Anbieter Amazon, Google und Microsoft zum Vergleich, gibt es bei allen drei keine Wartungsfenster. Zumindest wurde ich bisher noch nie über so eine Maßnahme informiert. Von anderen Anbietern hingegen schon. Hier sprechen wir nämlich von dem Punkt Hochverfügbarkeit. Wenn die Infrastruktur von Amazon regelmäßig Wartungsfenster benötigen würde, könnten sie ihren Dienst nicht in der Form anbieten.

Skalierbarkeit bedeutet, dass ich entsprechend angeforderte Ressourcen wie Rechenleistung, Speicherplatz aber auch neue Benutzerkonten im Falle von SaaS umgehend erhalte, ohne darauf ein paar Minuten oder gar Stunden warten zu müssen. Hier sind mir bisher keine negativen Beispiele aufgefallen.

Die Kosten im Auge behalten

Wirtschaftlich betrachtet geht Cloud Computing Hand in Hand mit der Flexibilität, die der Anwender durch die Nutzung erhält. Das bedeutet er zahlt nur für die Ressourcen – Rechenleistung, Speicherplatz aber auch wiederum Nutzerkonten – die er tatsächlich in einem bestimmten Zeitraum genutzt bzw. benötigt hat. Hinzu kommt, das für die Nutzung des Angebots keine Einrichtungsgebühr oder gar eine Grundgebühr gezahlt werden muss.

Die Flexibilität zahlt sich zudem dadurch aus, das monatlich abrechnet wird. Eine Abrechnung für ein ganzes Jahr ist schon sehr grenzwertig, da ich den Service evtl. nur für ein halbes Jahr benötige, in diesem Fall dann aber laufende Kosten für ein weiteres halbes Jahr anfallen. Vorsicht, es gibt Anbieter, die monatliche Preise kommunizieren, der Vertrag aber für ein Jahr abgeschlossen wird. Zudem muss hier dann noch separat gekündigt werden.

Vorher informieren oder beraten lassen

Wie zu sehen, gibt es Erkennungsmerkmale für einen (echten) Cloud Service. IaaS Angebote sind die transparentesten Angebote, da anhand der Services und der Nutzung zu sehen ist, wie flexibel, skalierbar und hochverfügbar die Infrastruktur ist. Ebenso sind die Kosten nachvollziehbar. Ähnlich verhält es sich bei PaaS. SaaS Dienste werden leider immer wieder „vercloudifiziert“. D.h. dass hier viel bei den Preisen und Laufzeiten getrixt wird. Daher sollte man sich vorab über den Service genau informieren, einen verifizierten Cloud Anbieter (siehe oben) zum Vergleich heranziehen oder vorab eine unabhängige Beratung einholen.


Bildquelle: http://www.planung-analyse.de

Kategorien
Analysen

Nach der Cloud, wird Amazon auch der Big Data Gigant?

IaaS Cloud Infrastrukturen haben auf Grund ihrer Skalierbarkeit die idealen Voraussetzungen für die Verarbeitungen großer Datenmengen, wodurch Big Data ein idealer Anwendungsfall für Cloud Computing ist. Aber welcher Anbieter wird das Rennen um die Verarbeitung machen?

Big Data ist ein idealer Anwendungsfall für das Cloud Computing

Amazon Web Services

Ein Kandidat ist Amazon. Zum einen hat das Unternehmen auf Grund seines Kerngeschäfts, dem Web-Shop, eine große Expertise bei der Verarbeitung und Analyse großer Datenmengen aufgebaut und diese, betrachtet an der Evolution und dem Funktionsumfang der Webseite, stetig weiterentwickelt. Hinzu kommen aber auch die Amazon Web Services und der darunter liegenden massiv skalierbaren Infrastruktur, die ideal für die Verarbeitung von Big Data ist und die Unternehmen nutzen können, um dort Anwendungen für die Analyse ihrer Daten zu betreiben. Dazu stehen mit Amazon EC2, Amazon S3 und Amazon Elastic MapReduce gut miteinander zu kombinierende Services zur Verfügung. Neben dem Service AWS Import/ Export, mit dem große Datenmengen auf dem Postweg an Amazon geschickt werden können, die von Amazon dann direkt in die Cloud kopiert werden, hat sich Amazon mit der vor kurzem angekündigten Kooperation mit dem Private Cloud Infrastruktur-Software Anbieter Eucalyptus zudem eine gute Ausgangsposition geschaffen, um Unternehmen die Möglichkeit zu geben, über eine Hybrid Cloud Daten aus der Private in die Amazon Cloud übertragen zu lassen.

Google

Google hat ebenfalls viel Erfahrung bei der Verarbeitung großer Datenmengen, was u.a. auf die Indexierung des Internets und die damit verbundene Suche zurückzuführen ist – ebenfalls beides Kerngeschäfte von Google. Hinzu kommt, das Google kürzlich mit Google BigQuery einen neuen Service für Entwickler vorgestellt hat, auf dem Anwendungen entwickelt werden können, um Big Data zu verarbeiten. Dieser befindet sich aktuell aber noch in der geschlossenen Betaphase.

Anders als die Amazon Web Services scheint Google allerdings nicht so konsequent auf das Business getrimmt zu sein. Zudem wirkt Google an vielen Stellen immer noch wie ein großer Spielplatz für die eigenen Entwickler, was natürlich immer wieder gute Innovationen hervorbringt, Google sich aber bereits eingestehen musste, dass einige Services doch einfach mehr Kapital verbrennen als Nutzen ergeben. So wurde die Google App Engine anfangs stark gepushed, hat im Laufe der Zeit aber etwas an Innovation verloren.

Microsoft

Microsofts Kerngeschäft hat im Vergleich zu Amazon oder Google in erster Linie nichts mit der Verarbeitung großer Datenmengen zu tun. Dennoch steht mit Windows Azure ebenfalls eine skalierbare Infrastruktur bereit, auf der Unternehmen Big Data analysieren können.

Im Vergleich zu Google oder Amazon ist Microsoft aber bereits schon dort lange angekommen, wo die beiden erst genannten erst zielstrebig hinwollen, das Business. Microsoft sollte die Herausforderungen und Wünsche, insbesondere bei den renommierten Unternehmen, kennen und gezielt darauf eingehen können.

Erste infrastrukturelle Schritte hat Microsoft bereits mit der Unterstützung von Hadoop auf Azure unternommen und eine Agenda zeigt die weiteren Vorhaben für das Jahr 2012. So wird das Unternehmen mit Hilfe von Hortonworks und einer ODBC Schnittstelle Apache Hadoop an Microsofts Excel anbinden und so Big Data ins Büro bringen. Damit können Business Intelligence (BI) Tools einen direkten Zugang zu einem Hadoop Cluster erhalten und via Excel Pivot-Analysen durchgeführt werden.

Die Anderen

Es existieren eine Vielzahl an Unternehmen, die mit Big Data tagtäglich in ihrem Kerngeschäft konfrontiert werden. Dazu gehören bspw. ebay, Facebook, XING, LinkedIn oder auch Twitter. Allerdings bietet keines dieser genannten Unternehmen einen Public Cloud Service an, mit dem Big Data von Dritten verarbeitet werden könnte. Die Kosten für den Ausbau einer stärker skalierbaren Infrastruktur wären wohl auch zu hoch.

Allerdings sollten auch renommierte Unternehmen wie SAP, IBM oder Oracle im Bereich Big Data nicht aus den Augen gelassen werden. Die Expertise aus dem Kerngeschäft ist zweifelsohne vorhanden.


Bildquelle: https://www.emcforums2011.com, http://www.techweekeurope.es

Kategorien
News

Mobile, Social Media und Big Data sind die Treiber des Cloud Computing

Zwei voneinander unabhängige Studien von Microsoft und SAP zeigen die besondere Bedeutung des Cloud Computing und das die Bereiche Mobile Computing, Social Media und Big Data die Treiber der Cloud sind.

„Mobile Computing, Social Media und Big Data sind die Treiber des Cloud Computing.

Eine neue Studie im Auftrag von SAP lässt Spekulationen aufkommen, das Cloud Computing, unterstützt durch die Bereiche Mobile Computing, Social Networking und Big Data, in den nächsten Jahren viel mehr Möglichkeiten aufzeigen wird, als es das Internet in seinen frühen Jahren geschafft hat.

Die Studie zeigt, das anhand des Cloud Computing bereits heute eine beträchtliche Zahl von Arbeitsplätzen in den USA geschaffen wurde und basierend auf zahlreichen Trends und Indikatoren, ein enormes Potenzial für neue Geschäfte hat und Hunderttausende neuer Arbeitsplätze schafft.

So zeigt die SAP Studie bspw., dass 11 Cloud Computing Anbieter zusammen 80.000 neue Arbeitsplätze im Jahr 2010 geschaffen haben. Zudem war das Beschäftigungswachstum bei diesen Unternehmen fast fünfmal größer als das des gesamten High-Tech-Sektors. Der Bericht zitiert dazu eine Studie der Bank of America Merrill Lynch Global, in der die Gesamtzahl der Mitarbeiter von 11 Cloud Computing Unternehmen (Amazon, Google, Netflix, OpenTable, Salesforce, Taleo, SuccessFactors, RightNow, Intuit, NetSuite und Concur) im Zeitraum von Januar 2010 bis Januar 2011 berechnet wurde. Die Gesamtzahl der Beschäftigten wuchs innerhalb dieses Jahres um 27%. So wuchs das führende Cloud Unternehmen OpenTable in diesem Zeitraum um mehr als 44%. VMware um 41% und Amazon um 31%.

Unternehmen die Cloud-Services anbieten, werden in den nächsten fünf Jahren voraussichtlich einen Umsatz von durchschnittlich 20 Milliarden Dollar pro Jahr erwirtschaften, wodurch in diesem Zeitraum ca. 472.000 Arbeitsplätze in den USA und weltweit geschaffen werden könnten. Darüber hinaus werden Venture Capital-Investitionen in den Cloud Bereich für die kommenden fünf Jahren auf 30 Milliarden Dollar taxiert, die weitere 213.000 neue Arbeitsplätze allein in den USA schaffen sollen.

Eine weitere Studie von IDC im Auftrag von Microsoft kommt zu dem Ergebnis, dass Cloud Computing in den kommenden drei Jahren weltweit 14 Millionen Arbeitsplätze schaffen wird. Diese werden aber auch in Bereichen außerhalb der IT wie Marketing, Vertrieb, Finanzen, Verwaltung, Entwicklung und Dienstleistungen entstehen. Darüber hinaus werden neue Positionen entstehen wie z.B. der „Virtuelle Ressourcen Administrator“ oder der „Kunden-Netzwerk Moderator“.

IDC prognostiziert in den nächsten drei Jahren zudem Einnahmen durch Cloud Innovation in Höhe von 1.1 Billion Dollar pro Jahr.

Mobile Computing, Social Networking und Big Data sind die Treiber

Drei Megatrends Treiben den Bereich der Cloud-Services voran und sorgen für das Wachstum im Arbeitsmarkt.

  • Mobile Computing: Der Markt für Smartphones und Tablets wird weiter stark nachgefragt. Dadurch werden die Anfragen an die Back-Ends wie App-Stores, Datenbanken und Speicherplatz der Cloud-Services durch Mobile Anwendungen massiv steigen. Zudem ermöglichen Cloud Services Tablet und Smartphone Nutzer einen besseren Zugriff auf Informationen und anderen Daten.
  • Social Networking: Ohne Cloud Computing Technologien wäre eine so massive Skalierbarkeit und Elastizität nicht möglich um diese Webseiten zu betreiben.
  • Big Data: Cloud Infrastrukturen und Plattformen werden bei der Verarbeitung und Analyse riesiger Datenmengen auf Grund ihrer Skalierbarkeit eine große Rolle spielen.

Bildquelle: http://www.thenewnewinternet.com, http://www.emptylemon.co.uk

Kategorien
News

Amazon und Eucalyptus kooperieren – Gemeinsame Allianz gegen OpenStack?

Die Amazon Web Services und der Private Cloud Infrastruktur-Software Anbieter Eucalyptus werden in Zukunft enger zusammenarbeiten, um die Migration von Daten zwischen der Amazon Cloud und Private Clouds besser zu unterstützen.

Amazon und Eucalyptus kooperieren - Gemeinsame Allianz gegen OpenStack?

Amazon und Eucalyptus kooperieren.

Dabei wird die Kooperation unterschiedlich aufgebaut sein. Zunächst sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen.

Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.


Das sieht ganz nach einer Allianz gegen OpenStack aus! Schaut man sich die jüngsten Ankündigungen bzgl. OpenStack an – siehe unten – wäre das von Amazon als auch Eucalyptus ein kluger Schachzug, zumal sich die Eucalyptus Infrastruktur sehr nah an den Basisfunktionen der Amazon Web Services orientiert.

Zudem kann der von Amazon immer wieder geförderte Ansatz der Hybrid Cloud damit verbessert werden. Was sicherlich auch im Hinblick auf das Thema Big Data und der damit verbundenen Verarbeitung großer Datenmengen in der Amazon Cloud für die Amazon Web Services von großem Nutzen sein wird. Nach dem Motto: „Bigger is Better“ bzw. „Data without Limits“.


Bildquelle: http://www.search-internetmarketing.com/, http://www.techweekeurope.co.uk

Kategorien
Management

Performance König Amazon? – AWS hängt Azure und Rackspace beim Datentransfer ab!

Sollen Daten aus dem Storage Service der Amazon Cloud zu Mittbewerbern wie Windows Azure und Rackspace übertragen werden, dauert dieser Vorgang 10 mal länger als der Transfer von Azure und Rackspace in die Amazon Cloud, das ergaben Testergebnisse des Speicherhersteller Nasuni.

Performance König Amazon?

Nasuni führte dazu fünf Testreihen durch, bei der in jedem Fall 12TB an Daten zwischen zwei Cloud Services übertragen wurden. Die Ergebnisse zeigen, dass die Datenübertragung von Amazon S3 zu Azure oder Rackspace deutlich mehr Zeit in Anspruch nimmt, als die Übertragung der Daten vom Mittbewerb in die Amazon Cloud. So dauert bspw. der Transfer von 12TB Daten von Amazon zu Azure 40 Stunden, wohingegen dieselbe Datenmenge von Azure zu Amazon nur 4 Stunden benötigt.

Der Transfer von Rackspace in Richtung Amazon benötigte 5 Stunden. Die Übertragung von Amazon zu Rackspace hingegen fast eine Woche. Der Transfer zwischen zwei Amazon Buckets dauerte 4 Stunden. Die Tests beschränkten sich dabei nur auf den Transfer zwischen Public Cloud Anbietern und nicht zwischen dem Rechenzentrum eines Nutzers und einem der genannten Cloud Services bzw. dem Rücktransfer von einem Public Cloud Anbieter in das eigene Rechenzentrum.

Die Testergebnisse variieren zudem von der Tageszeit und der Anzahl der für den Datentransfer eingesetzten Rechner. Dennoch zeigen die Ergebnisse den kleinsten zeitlichen Horizont, den es benötigt, um 12TB zu transferieren.

Im Folgenden sind die Ergebnisse zu finden, die zeigen, wie lange es benötigt 12TB an Daten zwischen den einzelnen Cloud Anbietern zu übertragen.

  • Amazon S3 zu Amazon S3 “Bucket”: 4 Stunden
  • Amazon S3 zu Windows Azure: 40 Stunden
  • Amazon S3 zu Rackspace: Knapp eine Woche
  • Microsoft Windows Azure zu Amazon S3: 4 Stunden
  • Rackspace zu Amazon S3: 5 Stunden

Ergebnisse des Cloud Storage Performance Tests.

Ergebnisse des Cloud Storage Performance Tests.

Nasuni kommt zu dem Ergebnis, dass die Hauptprobleme derzeit bei den Schreibvorgängen, also dem Speichern der Daten, in der Cloud liegen. Alle Datenübertragungen Richtung Amazon S3 betrugen zwischen 4 und 5 Stunden, wohingegen das Schreiben Microsoft Windows Azure und Rackspace erheblich länger dauerte.

Gründe für die langsame Amazon-zu-Azure Migration sieht Nasuni darin begründet, dass die Tests das Daten-Limit von Windows Azure erreicht haben könnten. Woran es genau liegt, darauf hat Nasuni keine Antwort. Es könnte an langsamen eingehenden Netzwerkverbindungen aber auch an einer technologischen Beschränkung liegen.

Aussagen von Microsoft bzgl. der Performance Unterschiede gibt es laut Nasuni bisher nicht. Jedoch bemerkte Nasuni bei Amazon S3 keine Performance Einschränkungen und führt die Leistungen auf die Architektur oder Bandbreite von Azure zurück.

Während der Migration von Amazon zu Rackspace bemerkte Nasuni ebenfalls eine schwache eingehende Datentransferrate und zieht hier Rückschlüsse auf eine schlechte Performance bei anderen OpenStack basierten Clouds, da auch Rackspace den Open Source Cloud Stack einsetzt und das Projekt massiv unterstützt.


Bildquelle: http://wikimedia.org, http://blogspot.com/

Kategorien
Analysen

Verliert die Google App Engine ihre Attraktivität?

Platform-as-a-Service (PaaS) gehört mit Abstand zu den Zukunftsthemen im Cloud Computing. Im Jahr 2011 kamen neben bereits bestehenden Anbietern wie Heroku, Cloud Foundry, Engine Yard, Beanstalk, Windows Azure, Force.com, OpenShift oder cloudControl, viele weitere hinzu, was die mediale Präsenz dieses Cloud Bereichs anhob. Nur um einen Service ist ein wenig ruhig geworden: Die Google App Engine.

Die Google App Engine war bereits sehr früh verfügbar

Die Google App Engine (GAE) gehört mit der Erscheinung im Jahr 2008 zu einer der ersten PaaS am Markt und war der einzige Service der Python und Java gleichzeitig unterstützte. Aber im Laufe der Jahre hat die Innovation rund um GAE deutlich nachgelassen.

Startups und Entwickler gehörten zu den Hauptnutzern von GAE. Das lag in erster Linie an den Möglichkeiten der weitestgehend kostenlosen Nutzung und den nicht notwendigen Investitionen in SDKs und Plugins. Ein weiterer Grund war die geringe Auswahl an Angeboten. Java und Python Entwickler würden niemals Windows Azure wählen, was zu diesem Zeitpunkt die einzige Alternative war. Nach und nach entwickelte sich Heroku (mittlerweile von Salesforce aufgekauft) zu einer echten Alternative für Python Entwickler, auf Kosten der Google App Engine. Doch bereits während der Anfangsphase der GAE hat Google es verpasst die riesige Anzahl an gehosteten Anwendung an Bord zu behalten und die wichtige Entwickler Community für sich zu gewinnen. Was ist also der Grund für den Abstieg der Google App Engine?

Refactoring und Vendor lock-in

Ein Hauptproblem der Google App Engine besteht in den massiven Änderungen die vorgenommen werden müssen, wenn eine Anwendung auf die GAE portiert werden soll. Befindet sich die Anwendung dann auf der GAE, kann sie ausschließlich die proprietäre API nutzen, was es Entwickler sehr schwierig macht, später die Plattform wieder zu wechseln. Selbst Standard Java Web Anwendungen müssen an vielen Stellen angepasst werden, um auf der GAE betrieben zu werden. Während Heroku weitere Funktionen hinzufügte und für eine bessere Kontrolle sorgte, schränkte Google die Entwickler mit der proprietären API ein.

Beta-Status und Innovationen

Microsoft, das für seine langen Release-Zyklen bekannt ist, hat es geschafft das Azure SDK mehrfach zu aktualisieren und das Management Portal häufig zu verbessern. Die Google App Engine orientiert sich an Googles „Beta-Status“ Tradition. So blieb die GAE für fast drei Jahre im Beta-Status, was professionellen Entwicklern nicht die Sicherheit gab, ihre Produktionsanwendungen auf die GAE zu portieren. Während Google in der jungen Vergangenheit mit Pull Queues, Cloud SQL und der Blobstore API viele der gewünschten Funktionen umsetzen konnte, hat es lange gedauert auf die Bedürfnisse der Kunden zu reagieren.

Schlechte Unterstützung für Unternehmensanwendungen

Lange unterstützte die GAE nur zustandslose Web Anwendungen. Technologisch betrachtet können auf der GAE somit nur Web Anwendungen entwickelt werden, die keine komplexe Business-Logik benötigen. Bspw. verfügt Windows Azure über ein Rollenkonzept (Web Roles), um Web Anwendungen zu betreiben und Worker Roles, um damit lang laufende Prozesse und komplexe Geschäftsregeln ausführen zu lassen. Ähnlich verhält es sich bei Heroku, wo der Web Dyno und Worker Dyno diese Funktionen aufteilen. Bis zur Einführung von Backends in der Version 1.5.0 (Mai 2011), machte diese mangelnde Unterstützung zur Aufteilung einer Anwendung es schwierig Unternehmensanwendungen auf die GAE zu migrieren.

Der Datenzugriff

Lange nutzte die Google App Engine ausschließlich Big Table als primären Datenspeicher. Amazon zog schnell mit SimpleDB nach, führte damit weitere Funktionen ein und veröffentlichte mit RDS einen Database-as-a-Service. Zuletzt folgt dann DynamoDB. Das Fehlen eines guten Speichers für Transaktionsdaten schränkte die Entwickler bei der Nutzung der GAE stark ein. Jede Anwendung die professionell eingesetzt werden soll, benötigt zwangsläufig eine Kombination aus relationaler und NoSQL-Datenbank, um innerhalb der Cloud zu skalieren. Die GAE verfügte nicht über diese Funktionen, die für Daten-intensive Anwendungen erforderlich sind. Services wie BlobStore und Cloud SQL kamen demnach viel zu spät.

Vermarktung

Mit der Google App Engine hatte Google die ideale Position, Startups eine kostengünstige Plattform anzubieten. Sie wäre ideal gewesen, um typische Web-Anwendungen für den Markt der Endverbraucher zu entwickeln und bereitzustellen. Allerdings hat Google sich hier von Anfang nicht deutlich positioniert. Typische Low-End Web-Anwendungen, die prädestiniert für den Einsatz auf der App Engine gewesen wären, haben sich für Heroku entschieden, wohingegen High-End Anwendungen und Anwendungen mit hohen Workloads zu Amazon EC2 gegangen sind. Die Einführung der Amazon Micro Instanzen und die Free Tier Angebote haben der Google App Engine zudem weiterhin geschadet. Bis heute kann man nicht eindeutig sagen, welchen Platz die Google App Engine auf der mittlerweile großen Landkarte des PaaS einnimmt. Soll sie, aus Sicht von Google, genutzt werden, um Low-End Web-Anwendungen zu betreiben oder doch lieber für Unternehmensanwendungen?

Kosten

Natürlich mag es niemand, wenn ein vormals kostenloser Service nun bezahlt werden muss. Jedoch muss Google mit der App Engine auch irgendwann Geld verdienen. Allerdings hielten die Entwickler das neue Preismodell für äußerst unangemessen. Es gab einen riesen Aufruhr in der Community, als Google die neue Preisstruktur vorstellte. So stellten viele Kunden fest, dass ihre Kosten plötzlich um das drei- bis fünffache steigen würden. Das führte zu einem großen Bruch mit der Community, wodurch u.a. einige Startups von der Google App Engine zu Amazon EC2 bzw. zu einem klassischen Web Hoster gewechselt sind.

Sonstiges

Die GAE Entwickler Community hat den Eindruck, dass die App Engine im Vergleich zu Android innerhalb von Google schlechter angesehen wird. Das führt ebenfalls zu einer schlechten Stimmung.

Google und VMware kündigten damals auf der Google I/O im Jahr 2010 eine Partnerschaft an, um Spring auf die Google App Engine zu portieren. Trotz der Ankündigung kaufte VMware dennoch RabbitMQ und WaveMaker und brachte mit Cloud Foundry seine eigene PaaS Lösung auf den Markt. Während VMware CloudFoundry als Open PaaS positionierte, blieb die Google App Engine auf der Strecke.

Ein weiterer Rückschlag für Google war der Verlust des bekannten GAE Evangelist Patrick Chanezon, der als Head of Developer Relations zu VMware wechselte, um damit CloudFoundry zu stärken.

Kategorien
Management

Netflix erwartet künftig SSDs als Speichertechnologie für Cloud Infrastrukturen!

Netflix Cloud Architekt Adrian Cockcroft erwartet künftig schnellere I/O Mechanismen in der Cloud. Netflix gehört zu den größten Kunden der Amazon Web Services und Cockcroft wünscht sich zunehmend den Einsatz von SSDs (Solid-State-Drives) als Speichertechnologie für die Amazon Cloud. Ein Problem besteht hier jedoch – für die Amazon Web Services – SSDs lassen sich noch nicht stark genug skalieren.

In einem Interview mit ZDNet UK erläuterte Cockcroft erneut die Bedeutung von schnellen I/O Mechanismen innerhalb der Cloud. „Ich habe bereits vor einiger Zeit nach SSDs in der Cloud gefragt.“, so Cockcroft.

Er findet es zwar klasse, dass Amazons Dynamo DB auf SSD basiert, dennoch erwartet er eine noch höhere Skalierbarkeit. Netflix nutzt Cassandra als Speicherarchitektur, um damit das Streaming der Mediadaten zu realisieren. Der Einsatz von SSD würde Netflix dabei noch besser unterstützen.

Die Problematik besteht laut Cockcroft jedoch darin, dass SSDs für Amazon vorab nicht stark genug skalieren, bevor sie damit einen Service anbieten. Daher haben die Amazon Web Services zwar Instanzen für CPU, Speicher und die Netzwerkkapazitäten, aber das I/O ist auf die Leistung der Festplatte beschränkt.


Bildquelle: http://alblue.bandlem.com

Kategorien
Analysen

Hinter Amazons Cloud verbergen sich geschätzte 450.000 Server

Wie viele Server benötigt es, um eine Cloud wie bspw. die der Amazon Web Services zu betreiben? Wie es innerhalb der physikalischen Infrastruktur tatsächlich aussieht, darüber gibt Amazon, wie auch alle anderen großen Internetunternehmen, keine Auskunft. Nach aktuellen Schätzungen eines Wissenschaftlers soll es sich um mindestens 454.400 Server in weltweit sieben Rechenzentren handeln.

Die Amazon Cloud ist riesig

Huan Liu, Wissenschafter in den Accenture Technology Labs, hat anhand der internen und externen IP-Adressen Amazon EC2 analysiert. Die Adressen hat er hochgerechnet, um Schätzungen für die Anzahl der Racks pro Rechenzentrum vorzunehmen. Er traf dann die Annahme, dass sich in jedem Rack 64 Blade Server befinden – vier 10U-Chassis mit jeweils 8 Blades.

Das ist eine von mehreren Annahmen für Liu’s Schätzungen, die er jedoch mit Vorbehalten dokumentiert. Photos in einer Präsentation von AWS Distinguished Engineer James Hamilton aus dem Jahr 2011, zeigen bspw. 1U „pizza box“-Rackmount-Server statt Blades. Allerdings ist nicht bekannt, ob es sich bei den Bildern tatsächlich um die aktuelle Infrastruktur von Amazon handelt.

Ein interessanter Aspekt von Liu’s Forschung ist eine hohe Konzentration von Amazons IP-Adressen in der US-East Region im nördlichen Virginia, wo Amazon mehrere Rechenzentren betreibt. Er schätzt, dass sich 5.030 Racks im Norden von Virginia befinden, bzw. ca. 70 Prozent der geschätzten Gesamtzahl von 7.100 Racks der Amazon Web Services. Im Gegensatz dazu hat die neue Amazon US-West Region (Oregon) nur 41 Racks, die Berichten zufolge in Containern bereitgestellt werden.


Weiterführende Informationen


Bildquelle: http://flockshots.de

Kategorien
Analysen

Microsoft und Amazon liefern sich Preiskampf in der Cloud

Als Anbieter mit einem großen Public Cloud Portfolio kämpft Microsoft nun nicht mehr nur mit Google, sondern liefert sich seit kurzem auch einen Preiskampf mit den Amazon Web Services. Das gute daran: die Gewinner sind die Nutzer.

Der Kampf verlagert sich in die Cloud

Nachdem Microsoft am Ende der vergangenen Woche seine Preise für Windows Azure Storage und Windows Azure Compute gesenkt hat und damit auf die Preissenkungen der Amazon Web Services, ebenfalls in der vergangenen Woche, reagiert hat, befinden sich die derzeitigen Preise für Speicherplatz und Rechenleistung aus der Cloud auf einem niedrigen Rekordniveau und befinden sich auf dem Stand hiesiger Stromtarife.

Die Frage ist, wie lange das noch so weitergehen kann, denn die Preise können im Prinzip nur weiter fallen. Betrachten wir nämlich die Tatsache, das die Stromtarife auf Erdgaspreisen, saisonalen Einflüssen und weiteren Variablen basieren, kann Cloud Computing noch günstiger werden.

Die Preisgestaltung beider Anbieter ist nicht direkt vergleichbar, da die Preise und Dienstleistungen variieren. Aber die Kernaussage dieses Wettbewerbs ist eindeutig: Die Preise werden weiter sinken.

Beispielweise kostet eine Amazon Small (Standard) On-Demand Instanz mit Linux/Unix 0,090 Dollar (ca. 0,067 EUR) pro Stunde. Eine Windows Instanz 0,115 Dollar (ca. 0,088 EUR) pro Stunde. Ich zahle derzeit ca. 0,244 EUR pro Kilowattstunde an meinen Stromanbieter.

Beide Anbieter argumentieren, dass sie ihre eigenen Einsparungen (Economies of scale) sehr gerne an ihre Kunden weiterreichen und fokussieren Entwickler, Startups, kleine Unternehmen sowie Großkunden.

Nachdem nun aber auch HP und weitere Anbieter in den Cloud Computing Markt für IaaS Ressourcen eingestiegen sind, werden die Preise noch weiter fallen.


Bildquellen: http://www.merkur-online.de, http://diepresse.com

Kategorien
Analysen

Sinn und Unsinn von Cloud Siegeln, Zertifikaten, Verbänden und Initiativen

Axel von Leitner, Mitbegründer und Geschäftsführer von 42HE, einem Cloud Startup aus Köln hat auf dem Unternehmensblog die Problematik und Situation mit Cloud Computing Siegeln und Verbänden bzw. speziellen Initiativen stark kritisiert.

Dem Grundtenor von Axel muss ich zustimmen. Aber fangen wir von Vorne an. Es existieren mittlerweile einige Verbände und Initiativen, wie wir es auch aus anderen Bereichen kennen. Dazu gehören z.B. Verbände und Vereine wie EuroCloud, SaaS-EcoSystem oder Initiativen wie Cloud Services Made in Germany und Deutsche Wolke.

Cloud Computing ist ein globaler Ansatz und kein deutsches Konzept

Was insbesondere die Initiativen gemeinsam haben ist, dass Sie mit diversen Versprechen versuchen, so viele Anbieter von Cloud Computing Services wie möglich in die eigenen Reihen zu lotsen. Vor allem „Cloud Services Made in Germany“ springt auf das vermeintliche Qualitätsmerkmal Made in Germany auf und verspricht dabei „Mehr Rechtssicherheit bei der Auswahl von Cloud-basierten Diensten…“.

Cloud Computing aus Deutschland = Qualität?

Die Liste der Unternehmen, die sich an „Cloud Services Made in Germany“ beteiligen ist lang. Die Prüfungskriterien äußerst schwach, was die hohe Beteiligung erklären könnte. Für die Aufnahme muss ein Unternehmen folgende Kriterien erfüllen:

  • Das Unternehmen des Cloud Service-Betreibers wurde in Deutschland gegründet und hat dort seinen Hauptsitz.
  • Das Unternehmen schließt mit seinen Cloud Service-Kunden Verträge mit Service Level Agreements (SLA) nach deutschem Recht.
  • Der Gerichtsstand für alle vertraglichen und juristischen Angelegenheiten liegt in Deutschland.
  • Das Unternehmen stellt für Kundenanfragen einen lokal ansässigen, deutschsprachigen Service und Support zur Verfügung.

Quelle: http://www.cloud-services-made-in-germany.de/beteiligung

Die Frage die man sich hier nun stellen sollte ist, wo ist das wirkliche Qualitätskriterium, dass die Initiative prüft? Handelt es dabei sich um ein Qualitätsmerkmal, dass ich meinen Firmensitz in Deutschland habe? Nein! Das ich einen deutschen Support anbiete? Ja, vielleicht! Das ich meine Geschäfte und Verträge nach deutschem Recht abschließe? Recht und Datenschutz als Qualitätmerkmal? Ist das nicht ein bisschen weit hergeholt?

In den Kriterien wird in keinster Weise auf die wirkliche Qualität eines Service eingegangen. Darf sich der Service wirklich Cloud Service nennen? Wie ist das Abrechnungsmodell? Sorgt der Anbieter für eine Cloud Computing konforme Skalierbarkeit und Hochverfügbarkeit? Und viele weitere Fragen, die essentiell wichtig sind, um die Qualität eines Cloud Service zu bewerten!

Die Initiative „Cloud Services Made in Germany“ versteckt sich leider einzig und allein hinter den vermeintlich hohen Datenschutzanforderungen in Deutschland, sagt aber nichts über die tatsächliche Qualität eines Cloud Computing Anbieters bzw. dessen Services aus.

Eine Cloud für Deutschland?

Dieser Aufgabe hat sich die Initiative „Deutsche Wolke“ gewidmet. Es handelt sich dabei um einen Zusammenschluß deutscher und internationaler Organisationen zum Aufbau einer föderalen Cloud-Infrastruktur für Deutschland. Die Initiative verkauft sich zwar leider ebenfalls unter dem Deckmantel von „Made in Germany“, hat aber dennoch einen ganz anderen qualitativ höherwertigen Anspruch als z.B. „Cloud Services Made in Germany“.

Denn mit mit einer eigenen Cloud Infrastruktur auf Basis von offenen Standards und Schnittstellen und unter dem Aspekt hoher Verfügbarkeit und strengen Datenschutzrichtlinien werden die derzeit noch überschaubaren Partner von „Deutsche Wolke“ anscheinend deutlich besser überprüft.

Dennoch argumentiert auch die „Deutsche Wolke“ verstärkt mit den hohen Datenschutzrichtlinien in Deutschland.

Auch die Verbände wollen mir ihren Zertifikaten ein Wort mitreden

Dann gibt es noch die Verbände EuroCloud und SaaS-EcoSystem, die vor allem durch ihre Gütesiegel und Zertifikate auffallen. EuroCloud hat dafür seinen SaaS Star Audit im Angebot. Das SaaS-EcoSystem hingegen hat mit „Cloud-Experte“ sein Qualitäts-Zertifikat für Saas & Cloud Computing Berater sowie sein „Trust in Cloud“ für Cloud Computing Anbieter.

Die Qualität und der Nutzen solcher Zertifikate und Gütesiegel stehen und fallen natürlich mit den Unternehmen, die mit der Prüfung beauftragt sind sowie den Prüfkriterien. Hinzu kommt ebenfalls ein großer Geldbeutel, um sich zertifizieren zu lassen. Speziell das Zertifikat „Cloud-Experte“ des SaaS-EcoSystem ist mit Vorsicht zu genießen. Bisher haben nur zwei Marketingexperten(!) das Zertifikat erhalten, was ich bereits in einem älteren Artikel kritisiert habe.

Aber auch bei dem EuroCloud SaaS Star Audit scheint sich bisher nicht viel getan zu haben. Zumindest gibt es seit dem letzten Artikel keine neuen Services, die einen Star Audit erfolgreich absolviert haben.

Deutschland doch kein Qualitätskriterium für die Cloud?

„Cloud Made in Germany“. Wer den vermeintlich höheren Datenschutz als Wettbewerbsvorteil sieht ist auf dem falschen Weg in die Cloud! Denn das ist ein Trugschluss und ein Argument was nicht zutrifft.

Natürlich darf der Patriot Act nicht unterschätzt werden. Insbesondere auf Grund seiner nicht vorhandenen Transparenz, wann welche US-Regierungseinheit Zugriffe auf bestimmte Daten erhält. Jedoch sollte man nicht vergessen, das seit jeher ein deutscher Staatsanwalt in ein Rechenzentrum Zugriff erhalten kann, wenn er einen trifftigen Grund hat. Sei es nun beim Cloud Computing oder Outsourcing. Auch wenn hier zunächst ein richterlicher Beschluss vorliegen muss.

Zudem haben auch unsere deutschen Politiker daran Interesse unkompliziert Zugriff auf diverse Daten zu erhalten. Diese Diskussionen werden ebenfalls schon seit Jahren geführt. Ich bin kein Jurist und schon gar kein Politiker und kann dazu nicht viel sagen. Allerdings halte ich es für falsch, sich nur auf den Datenschutz auszuruhen. Made in Germany steht für Qualität das ist richtig, aber nicht zwingend im Bereich der Informationstechnologie und schon gar nicht im Bereich Cloud Computing – es gibt natürlich ein paar Ausnahmen. Es ist schade, dass so schreiben zu müssen, aber die Realität ist, das uns andere Länder, insbesondere die USA Jahre voraus sind. Diese schießen erst und entschuldigen sich später, wohingegen die Deutschen über alles debattieren (müssen) bevor eine Entscheidung getroffen wird. Deutsche Unternehmen sollten sich lieber auf ihre Innovationskraft konzentrieren, die definitiv vorhanden ist, anstatt sich hinter Siegeln zu verstecken.

Denn wie wir sehen, haben es die Cloud Computing Player wie Amazon, Google, Microsoft oder auch Salesforce nicht nötig, sich mit einem (deutschen) Siegel, Zertifikat oder dergleichen zu profilieren und denen interessiert es auch nicht, zu recht! Schließlich ist Cloud Computing ein globaler Ansatz und kein deutsches Konzept!