Kategorien
Kommentar

DsiN-Cloud-Scout – Vorsicht: Marktforschung unter der Schirmherrschaft der deutschen Bundesregierung

Im Rahmen der CeBIT 2013 haben SAP, Microsoft, Fraunhofer und die Deutsche Telekom zusammen mit der deutschen Bundesregierung unter „Deutschland sicher im Netz e.V.“ den DsiN-Cloud-Scout präsentiert. Grundsätzlich begrüße ich solche Art von Entscheidungshilfen. Vor allem wenn auch der Staat daran interessiert ist sich mit einzubringen. Jedoch handelt es sich bei diesem Cloud-Scout einfach nur um eine großangelegte Marktforschung und das auch noch legitimiert durch die deutsche Bundesregierung und mehr nicht. 14 Fragen sollen potentielle Kunden, wenn auch anonym, die wichtigsten Antworten zum Interesse am Cloud Computing herauslocken und geben am Ende nicht mehr als oberflächliche Hinweise und weiterführende links.

Der DsiN-Cloud-Scout

Auf der Seite von „Deutschland sicher im Netz“ wird der Cloud-Scout wie folgt beworben:

DsiN unterstützt vor allem kleine und mittelständische Unternehmen, die IT-Sicherheitsvorteile von Cloud Computing zu nutzen und Schwachstellen zu vermeiden. Mit dem DsiN-Cloud-Scout erfahren Sie in 10-15 Minuten, in welcher Weise Sie Cloud Computing sicher für Ihr Unternehmen nutzen und dadurch sogar die Informationssicherheit in Ihrem Unternehmen verbessern können.

Die Fragen im DsiN-Cloud-Scout führen Sie schrittweise und mit einem Augenmerk auf Ihre Unternehmenssituation an das Thema Cloud und Sicherheit heran. Im abschließenden Ergebnisbericht (PDF) bekommen Sie auf Sie zugeschnittene Informationen, die mehr Klarheit in das Thema IT- und Datensicherheit bringen werden und Sie bei der richtigen Wahl von Cloud-Diensten und Cloud-Anbietern unterstützen sollen.

Der Fragebogen dient nur als erste Orientierung und ersetzt keine individuelle Sicherheitsanalyse. Bevor geschäftskritische Informationen oder Anwendungen in die „Cloud“ ausgelagert werden, empfiehlt es sich, eine Cloud-Strategie unter Einbezug einer solchen Sicherheitsanalyse festzulegen. Dazu werden zusätzlich Links zu verlässlichen Quellen zur Verfügung gestellt.

Die 14 Fragen

  • 1. Wie viele Mitarbeiter arbeiten in Ihrem Unternehmen?
  • 2. Wie schätzen Sie Ihr Cloud-Wissen ein?
  • 3. In welcher Branche ist Ihr Unternehmen tätig?
  • 4. Wie entwickelt sich Ihr Unternehmen?
  • 5. In welcher Form wünschen Sie sich anbieterneutrale Unterstützung zum Thema Cloud Computing und Sicherheit?
  • 6. Welche der Aussagen zur Verfügbarkeit passt am besten auf Ihr Unternehmen?
  • 7. Welche Erwartungen und Vorteile verbinden Sie mit Cloud Computing?
  • 8. Welche Hürden sehen Sie für Ihr Unternehmen beim Einstieg in Cloud Computing?
  • 9. Welche sind aktuell Ihre hauptsächlichen Sicherheitsbedenken bei Cloud Computing?
  • 10. Welche der genannten IT-Sicherheitsmaßnahmen fehlen in Ihrem Unternehmen?
  • 11. Welche Anwendungen könnten Sie sich vorstellen, online über die Cloud zu beziehen statt auf lokal installierten Systemen?
  • 12. In welcher Form und von wo greifen die Anwender auf Daten und Anwendungen im Unternehmen zu?
  • 13. Besitzt Ihr Unternehmen einen schnellen Internetzugang?
  • 14. Über wen würden Sie eine Cloud-Lösung beziehen?

Verspricht viel bringt nichts

Ein Blick auf die 14 Fragen lässt schnell daraus schließen, dass es sich bei dem Cloud-Scout um ein reines Mittel zur Marktforschung handelt. Was interessieren Fragen über die Größe des Unternehmens, der Branche oder der Entwicklung des Unternehmens. Schaut man sich zudem alle Multiple Choice Antworten im Detail mal genauer an, ist schon sehr gut zu erkennen, wer wo Interesse an welchen Informationen hat. Zwar sind die Ratschläge, die man am Ende bekommt, fachlich korrekt. Dennoch ist der gesamte Cloud-Scout nicht nur qualitativ sondern ebenfalls quantitativ ungenügend! Mit 14 allgemeinen Fragen ist es nicht einmal ansatzweise Möglich den Bedarf oder eine mögliche Cloud-Strategie zu erahnen. Ja, es wird auf der Seite zu Beginn darauf hingewiesen, dass es oberflächlich ist. Aber in dem individuellen Ergebnisbericht einfach nur kurz etwas anzureißen und auf externe Quellen zu verlinken, die nur noch mehr komplizierte Informationen liefern, ist wirklich schwach.

Ich habe den Cloud-Scout natürlich gemacht. Wie eine Auswertung am Ende ausschauen könnte gibt es hier zum DOWNLOAD.

Fazit – Vorsicht: Marktforschung

Zusammenfassend lässt sich sagen, dass es sich hierbei weniger um ein Informationsangebot sondern viel mehr um den schlechten und versteckten Versucht handelt, eine großangelegte Marktforschung zu betreiben. Es werden 14 sehr allgemeine Fragen gestellt, zu denen sehr allgemeine Multiple Choice Antworten angeboten werden. Am Ende liefert der Cloud-Scout wiederum sehr allgemeine Ratschläge und verweist auf weitere externe Quellen, die dem Unternehmen mehr komplexe Informationen liefern. Es wird in keinster Weise der Versuch unternommen, den Cloud-Scout Nutzer näher an das Thema Cloud Computing heranzuführen oder einen Überblick zu verschaffen.

Ich empfehle daher lieber:

Ja, die sind beide von mir! Aber sie sind wirklich unabhängig, kostenlos und man gibt keine Daten von sich selbst Preis, von denen ich am Ende in irgendeiner Form profitiere.

Kategorien
Kommentar

Jedes dritte deutsche Unternehmen nutzt die Cloud. Ehrlich? Glaube ich nicht!

Laut einer Umfrage des Bitkom unter 436 deutschen Unternehmen haben im Jahr 2012 bereits ein Drittel aller Befragten Cloud Computing genutzt. Das hört sich im ersten Moment viel an und zeigt, dass es in Deutschland Cloud-technisch weiter nach oben geht. Allerdings gehe ich davon aus, dass die Zahl geschönt ist. Nein, nicht durch den Bitkom selbst, sondern weil immer noch nicht klar ist, was Cloud Computing wirklich bedeutet und die meisten befragten Unternehmen schlichtweg mit Ja geantwortet haben, obwohl es sich gar nicht um Cloud handelt. Unterstützung bei meiner These bekomme ich dabei von Forrester Research.

Umfrage-Ergebnisse des Bitkom

Das nun jedes dritte Unternehmen in Deutschland auf Cloud setzt, bedeutet etwa ein Wachstum von 9 Prozent im Vergleich zu 2011. Hinzu kommt, dass 29 Prozent planen Cloud Lösungen einzusetzen. Ein weiteres Drittel sieht Cloud Computing überhaupt nicht auf der Agenda. Laut der Umfrage haben aktuell 65 Prozent der Großunternehmen ab 2.000 Mitarbeitern Cloud Lösungen im Einsatz. Der Mittelstand zwischen 100 bis 1.999 Mitarbeitern kommt auf 45 Prozent. Kleinere Unternehmen mit 20 bis 99 Mitarbeitern decken ein Viertel ab.

Private Cloud wird bevorzugt

Dabei setzen 34 Prozent der befragten Unternehmen auf eigene Private Clouds. Im Vergleich zu 2011 sind das 7 Prozent mehr. 29 Prozent planen den Einsatz dieser Cloud-Form.

Wo wir zu meiner Behauptung kommen, dass die Aussage, das jedes dritte deutsche Unternehmen die Cloud nutzt, geschönt ist. Denn das was ich immer wieder höre und sehe, wird nun auch von Forrester Research, genauer James Staten, öffentlich dargelegt, der dies sogar als Cloud-Washing bezeichnet. 70 Prozent der „Private Clouds“ sind keine Clouds.

70 Prozent der „Private Clouds“ sind keine Clouds

Die Problematik besteht hauptsächlich darin, dass den meisten IT-Administratoren weiterhin das Verständnis dafür fehlt, was Cloud Computing, sei es nun Public oder Private Cloud, wirklich bedeutet. Wie James Staten schreibt, sind sich 70 Prozent befragter IT-Administratoren nicht darüber im klaren, was eine Private Cloud ist. Die meisten bezeichnen eine vollständig virtualisierte Umgebung bereits als Cloud, die überhaupt nicht über die Kerneigenschaften einer Cloud verfügt.

Virtualisierung ist kein Cloud Computing

Man muss das an dieser Stelle noch einmal verdeutlichen, dass die reine Virtualisierung einer Infrastruktur sie noch lange nicht zu einer Private Cloud macht. Virtualisierung ist eine Teilmenge des Cloud Computing und ein zentraler Bestandteil. Aber: Die Bereiche Self-Service, Skalierbarkeit, Ressourcen-Pools, Automatisierung, granulare Abrechnung, on-Demand Bereitstellung der Ressourcen usw. bietet keine gewöhnliche Virtualisierungslösung und liefert erst eine Cloud-Infrastruktur.

Erschreckenderweise ist auch mancher Anbieter so dreist und verkauft seine ehemaligen on-Premise Virtualisierungslösungen nun als Cloud. Das „Geständnis“ habe ich von einem Mitarbeiter von einem sehr großen US-amerikanischen Anbieter, der nun auch auf Cloud macht. Der Kontext in dem persönlichen Gespräch war ungefähr „Wir haben auf unsere angepassten VMware Lösungen einfach Cloud drauf geschrieben, um schnell etwas „Cloud-fähiges“ am Markt zu haben.

Deutsche Unternehmen glauben sie haben eine „Private Cloud“

Ähnlich sehe ich es auch bei den deutschen Unternehmen. Ich möchte dem Bitkom keine Vorwürfe machen. Schließlich muss er sich auf die korrekte Beantwortung der Fragen verlassen. Und was kann er dafür, wenn die Befragten aus Unwissenheit möglicherweise falsch antworten, indem sie behaupten eine Private Cloud zu nutzen, obwohl es sich dabei maximal um eine virtualisierte Infrastruktur ohne Cloud Eigenschaften handelt.

Mit diesem Hintergrund sollte man die Ergebnisse dieser Bitkom-Umfrage kritisch sehen, relativieren und eingestehen, dass eben nicht jedes dritte deutsche Unternehmen Cloud Computing nutzt.

Update: 12.03.13

Nicht das hier der Eindruck vermittelt wird, dass ich meine Behauptungen aus der Luft greife. Gestern wurde mir ein „Terminal-Server“ als Private Cloud „verkauft“. Argument: Es gibt ja viele Definitionen von Cloud, an denen man sich bedienen kann.

Update: 13.03.13

Auch werden gerne „Exchange-Server mit OWA als „Private Mail-Cloud“ bezeichnet.

Kategorien
Kommentar

Der Windows Azure Storage Ausfall zeigt: Siegerkronen haben keine Bedeutung

Der weltweite Ausfall von Windows Azure Storage auf Grund eines abgelaufenen SSL-Zertifikat hat auf Twitter erneut große Wellen geschlagen. Der ironische Beigeschmack kommt insbesondere dadurch zustande, dass Windows Azure erst vor kurzem durch Nasuni zum „Leader in Cloud Storage“ gewählt wurde. Besonders durch Performance, Verfügbarkeit und Schreibfehler konnte Azure glänzen.

Zurück zum Tagesgeschäft

Natürlich wurde das Test-Ergebnis auf dem Team eigenen Windows Azure Blog zurecht gefeiert.

„In einer Untersuchung der Nasuni Corporation wurden verschiedene Anbieter von Cloud Storage wie Microsoft, Amazon, HP, Rackspace, Google vergliechen. Das Ergebnis: Windows Azure konnte in nahezu allen Kategorien (unter anderem Performance, Verfügbarkeit, Schreibfehler) die Siegerkrone einheimsen. Windows Azure geht dort klar als „Leader in Cloud Storage“ hervor. Eine Infografik mit den wichtigsten Ergebnissen gibt es hier, den gesamten Report hier.“

Allerdings wurde das Azure Team durch den wirklich schweren Ausfall, der weltweit zu spüren war, wieder auf den Boden der Tatsachen zurückgeholt und sollte sich nun lieber wieder dem Tagesgeschäft widmen und dafür sorgen, dass ein ABGELAUFENES SSL-ZERTIFIKAT nicht wieder zu so einem Ausfall führt. Denn dieser hat das Test-Ergebnis somit relativiert und zeigt, dass Siegerkronen überhaupt keine Bedeutung haben. Sehr verwunderlich ist, dass bei Microsoft immer vermeidbare Fehler zu solchen schweren Ausfällen führen. Ein weiteres Beispiel ist das Problem mit dem Schaltjahr 2012.

Kategorien
Kommentar

Big Data und Cloud Computing helfen nicht nur Obama

In meinem Gastbeitrag bei den Automatisierungs-Experten von arago bin ich vor zwei Wochen auf das Thema Big Data eingegangen und das Unternehmen aus dem US-Wahlkampf 2012 von Barack Obama lernen sollten, wie sie Echtzeit-Informationen in einen Vorsprung umwandeln. Neben Cloud Computing, Mobile und Social Media gehört Big Data zu den aktuellen Top-Themen im IT-Unternehmensumfeld. Dabei handelt es sich bei weitem nicht mehr nur um einen Trend sondern um die Realität. Und das mit einem weitreichenden Einfluss auf Unternehmen, ihre strategische Ausrichtung und der IT. Bekannte Technologien und Methoden haben mit der Analyse von Big Data ihre Grenzen erreicht und nur das Unternehmen, welches es schafft, aus den Datensilos einen Informationsvorsprung zu erzielen, wird dem Wettbewerb in Zukunft einen Schritt voraus sein.

Big Data: Kein Alter Wein in Schläuchen

Grundsätzlich ist die Idee hinter Big Data nichts Neues. Von Anfang bis Mitte der 1990er Jahre ging es bereits unter dem Begriff „Business Intelligence“ darum, anhand von Verfahren eine systematische Analysen von Daten vorzunehmen. Die Ergebnisse werden dazu verwendet, um neue Erkenntnisse zu gewinnen, die dabei helfen, die Ziele eines Unternehmens besser zu erreichen und strategische Entscheidungen zu treffen. Allerdings war die Datenbasis, die es zu analysieren galt, deutlich kleiner als heute und lies nur Analysen auf Daten aus der Vergangenheit zu, was zu unsicheren Prognosen für die Zukunft führte. Heute sammeln sämtliche Alltagsgegenstände jede Sekunde massive Datenmengen an Informationen. Dazu gehören Smartphones, Tablets, Autos, Stromzähler oder auch Kameras. Hinzu kommen Bereiche, die sich nicht in der unmittelbaren Umgebung eines Menschen befinden, wie vollautomatisierte Produktionslinien, Distributionslager, Messinstrumente, Flugzeuge und anderen Fortbewegungsmitteln. Und natürlich sind es wir Menschen, die Big Data mit unseren Verhalten im Internet nähren. Tweets auf Twitter, Kommentare auf Facebook, Suchanfragen mit Google, Stöbern mit Amazon und sogar die Vitalwerte während einer Jogging-Session liefern modernen Unternehmen heute unmengen an Daten, aus denen sich wiederum wertvolle Informationen gewinnen lassen.

Strukturierte und unstrukturierte Daten

Große Datensätze sind keine neue Erscheinung. Bereits seit Jahrzenten sammeln Handelsketten, Ölfirmen, Versicherungen oder Banken massiv Informationen über Warenbestände, Bohrdaten und Transaktionen. Weiterhin gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Bereichen von dem, was heute als Big Data bezeichnet wird. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, die Wettervorhersage und die Medizinbranche. Alle genannten Bereiche und Branchen haben mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen.

Doch nun wirkt sich die Problematik auch auf die „normalen“ Branchen aus. Die heutigen Herausforderungen bestehen darin, dass Daten aus vielen unterschiedlichen Quellen stammen und zum Teil schnell, unverhersagbar und damit unstrukturiert aufkommen. Big Data soll daher insbesondere an den Stellen helfen, wo viele unterschiedliche Datenquellen miteinander kombiniert werden. Beispiele sind Tweets auf Twitter, das Surfverhalten oder Informationen über Abverkäufe, um auf dieser Basis neue Produkte und Dienstleistungen zu entwickeln. Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält. Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten beziehungsweise Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind. Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Warum Unternehmen sich für Big Data entscheiden

Doch wo kommen diese riesigen Datenmengen tatsächlich her und welche Motivation haben Unternehmen, sich mit der Thematik zu beschäftigen. Die Marktforscher der Experton Group haben versucht, die Fragen in Ihrer „Big Data 2012 – 2015“ Client-Studie im Oktober 2012 zu klären. Demnach ist der wichtigste Treiber für den Einsatz von Big Data Technologien und Konzepten das rasante Datenwachstum inklusive dem dazugehörigen Qualitätsmanagement und der Automatisierung der Analysen und Reports. Die Themen Kundenbindung und Marketing nehmen circa ein Drittel der Unternehmen zum Anlass, um die Anaysen ihrer Datenbestände zu erneuern. Neue Datenbanktechnologien nennen 27 Prozent der Befragten Unternehmen als Motivation für neue Verfahren zur Datenalyse. Weiterhin zählen nahezu alle Eigenschaften von Big Data zu den Gründen für die Erweiterung des strategischen Datenmanagements. Das zeigt, dass Big Data bereits Realität ist, auch wenn es in vielen Fällen nicht unter diesem Begriff bekannt ist. Die Big Data Treiber selbst sind über alle Branchen und Unternehmensgrößen hinweg gleich. Der einzige Unterschied besteht in der Bedeutung und Intensität. Ein großer Unterschied bei der Unternehmensgröße besteht in der Verteilung der Daten und Informationen an die richtigen Mitarbeiter im Unternehmen. Hier sehen große Unternehmen ihre größten Herausforderungen. Wohingegen kleinere Unternehmen das Thema als sehr unkritisch einstufen.

Big Data: Ein Anwendungsfall für die Cloud

Die Öl-und Gasindustrie hat die Verarbeitung großer Datenmengen durch den Einsatz von traditionellen Storage-Lösungen (SAN und NAS) gelöst. Forschungsorientierte Organisationen oder Unternehmen wie Google, die mit der Analyse von Massendaten zu tun haben, neigen eher dazu den Grid Ansatz zu verfolgen, um die nicht benötigten Ressourcen in die Software-Entwicklung zu investieren.

Big Data Verarbeitung gehört in die Cloud

Cloud Infrastrukturen helfen bei der Kostenreduzierung für die IT-Infrastruktur. Dadurch werden Unternehmen in die Lage versetzt, sich effizienter auf ihr Kerngeschäft zu konzentrieren und erhalten mehr Flexibilität und Agilität für den Einsatz neuer Lösungen. Damit wird ein Grundstein gelegt, sich auf die ständig verändernden Datenmengen einzustellen und für die notwendige Skalierbarkeit zu sorgen. Cloud Computing Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.

Cloud Ressourcen wachsen mit der Datenmenge

Cloud Computing Infrastrukturen sind darauf ausgelegt, dass sie mit den jeweiligen Anforderungen und Bedürfnissen mitwachsen oder sich reduzieren lassen. Unternehmen können die hohen Anforderungen – wie Hohe Rechenleistung, viel Speicherplatz, hohes I/O, performante Datenbanken usw. – die von Big Data erwartet werden, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Cloud Konzepte wie Infrastructure-as-a-Service (IaaS), vereinen beide Welten und nehmen dadurch eine einzigartige Position ein. Für diejenigen, die das SAN/NAS Konzept verstehen, werden die Ressourcen ebenfalls nutzen können, um massiv-parallele Systeme zu entwerfen. Für Unternehmen denen es schwer fällt sich mit den genannten Technologien auseinanderzusetzen oder diese zu verstehen, bieten IaaS Anbieter entsprechende Lösungen, um die Komplexität der Speichertechnologien zu umgehen und sich auf die Herausforderungen des Unternehmens zu konzentrieren.

Eine passable Lösung kommt von Cloud Computing Pionier Amazon Web Services. Mit der AWS Data Pipeline steht bei Amazon ein Service (noch in der Betaphase) bereit, mit dem sich Daten automatisch zwischen verschiedenen Systemen verschieben und verarbeiten lassen. Die Systeme können sich dazu entweder direkt in der Amazon Cloud oder auf einem anderen System außerhalb befinden. Amazon macht damit die Handhabung der wachsenden Datenmengen auf verteilten System mit unterschiedlichen Formaten einfacher. Dazu lassen sich beliebig viele Pipelines erstellen, in denen die unterschiedlichen Datenquellen, Bedingungen, Ziele, Anweisungen und Zeitpläne definiert sind. Kurzum geht es darum, welche Daten von welchem System auf Basis welcher Bedingungen geladen, verarbeitet und die Ergebnisse anschließend wieder gespeichert werden. Die Pipelines selbst werden je nach Bedarf stündlich, täglich oder wöchentlich gestartet. Die Verarbeitung kann entweder direkt in der Amazon Cloud oder auf den Systemen im unternehmenseigenen Rechenezentrum stattfinden.

Big Data = Big Opportunities?

Nicht nur das Obama Beispiel zeigt, wie gewinnbringend die Verknüpfung von strukturierten und unstrukturierten Daten aus mobilen Endgeräten, Social Media Kanälen, der Cloud und vielen weiteren unterschiedlichen Quellen für ein Unternehmen sein kann. Allerdings muss man sich bei Big Data über eines im Klaren sein. Es geht letztendlich nicht um die Masse der Daten die gesammelt wird, sondern um deren Qualität und wofür die Daten letztendlich überhaupt genutzt werden sollen.

Entscheidend ist daher, ob und wie ein Unternehmen es schafft, aus den Massen an Daten, die durch menschliche und maschinelle Interaktionen entstehen, die qualitativ hochwertigsten Informationen zu analysieren und sich damit eine führende Position am Markt sichert. Qualifizierte Daten sind das neue Öl und werden in den Unternehmen, die den eigenen Vorteil darin erkennen, für den gewinnbringenden Antrieb sorgen.

Kategorien
Kommentar

Ekelhaft: Amazon behandelt Menschen wie virtuelle Maschinen – Die menschliche Cloud

Bei diesem Artikel handelt es sich zwar nicht direkt um das Thema Cloud Computing, aber ich sehe bei der gesamten Problematik so manche Ähnlichkeiten zu dem Konzept der Amazon Web Services und es macht mich einfach nur außerordentlich wütend, wie ein Unternehmen wie Amazon mit seinen Mitarbeitern wohlgemerkt MENSCHEN umgeht.

Hintergrund

Eine kürzlich von der ARD veröffentlichte Dokumentation (Video) hat die menschenverachtenden Machenschaften des weltgrößten Einzelhändlers Amazon mit Leiharbeitern in Deutschland aufgedeckt. Das die Arbeitsbedingungen bei Amazon in den Logistikzentren grundsätzlich als sehr schlecht zu bezeichnen sind ist kein Geheimnis, darüber gab es bereits mehrere Berichte. Aber was dieser Bericht aufdeckt ist unter jeder menschlichen Würde, wofür sämtliche Beteiligte inkl. Amazon selbst öffentlich zur Verantwortung gezogen werden müssen.

Der Bericht deckt auf, das der Erfolg von Amazon auf dem Rücken von Leiharbeitern erwirtschaftet wird, die unter übelsten Bedingungen „leben“ müssen und das hier Mitten in Deutschland. Dazu sammelt der Konzern europaweit Leiharbeiter ein und bringt diese in Feriendörfern unter. Dazu setzt Amazon auf Subunternehmen z.B. für das Rekrutieren und die „Sicherheit“ der Leiharbeiter. In total überfüllten Bussen werden die Mitarbeiter in die Logistikzentren gebracht. Kommen Sie zu spät zur Schicht – auch ohne eigene Schuld – erhalten sie weniger Lohn. Die Dokumentation veranschaulicht, wie ein Unternehmen wie Amazon „… 5000 Menschen für drei Monate heranschaffen und dann wieder loswerden muss„.

Amazon behandelt Leiharbeiter wie virtuelle Maschinen

Um nun doch ein klein wenig die Kurve zur Cloud zu bekommen, sehe ich so manche Parallelen zwischen der Missachtung der menschlichen Würde durch Amazon und dem Cloud Computing Konzept wie es die Amazon Web Services betreiben. Man tausche einfach den Begriff „virtuelle Maschine“ gegen das Wort „Mensch„.

Amazon benötigt, wie es der Bericht auch gut beschreibt, „Menschen bei Bedarf“ und lässt diese gerne mal 15 Tage am Stück durcharbeiten. Amazon überträgt das Konzept der Cloud also die Prinzipien „on Demand“ und „Pay per use“ auf sein Einzelhandelsgeschäft in die Logistikzentren und schafft sich damit seine „Menschen Cloud“. Es ist ein sehr gutes analoges Beispiel zur technischen Situation des Webshops während der Weihnachtszeit. Währenddessen werden übermäßig viele Ressourcen an Rechenleistung benötigt, um den Webshop durch die hohen Anfragen stabil zu halten. Ähnlich verhält es sich in den Logistikzentren. Steigen die Anfragen beim Webshop, müssen die Aufträge schließlich auch kommissioniert und für den Versand fertig gemacht werden. Sinken die Anfragen, ist auch in den Lagern weniger los. Dementsprechend werden weniger Menschen benötigt, die dann auch nicht mehr bezahlt werden müssen. Ein Beispiel von einem Amazon-Vorabeiter des Logistikzentrum bei Koblenz: „Hier arbeiten 3300 Mitarbeiter, und davon sind 3100 befristet.“

Theoretisch eine schöne Idee Amazon, aber so geht das nicht! Ihr könnt Menschen nicht hochfahren wie virtuelle Maschine und wieder entsorgen wenn ihr sie nicht mehr benötigt!

Kategorien
Kommentar

Wettbewerb: Schule und Cloud Computing – Weil sich die Zeiten endlich ändern müssen

Wer kennt das Dilemma nicht – Schule und Informationstechnologie? Ich kann gar nicht beschreiben, wie sehr meine Mitschüler und ich damals unter schlecht ausgestatten Laboren und Lehrkräften, die sich als wahre IT-Muffel ausgezeichnet haben, leiden durften. Wer nicht ein wenig Eigeninitiative zeigte, ist dabei kläglich auf der Strecke geblieben. Aber es war damals ja auch nicht abzusehen, wohin sich unsere Gesellschaft entwickeln wird…

Zurück in die Zukunft

Ich selbst habe (damals) vor dem Studium eine Ausbildung zum Fachinformatiker Systemintegration gemacht. Man hätte meinen können, das man auch mit dementsprechenden Systemen ausgebildet(!) wird. Denn Schlosser usw. haben schließlich auch – meiner Einschätzung nach – sehr gut ausgestattete Werkstätten mit teuren Anlagen zum Fräsen, Bohren und Drehen. Also all das, was sie für ihr Handwerkszeug(!) benötigen!

Was ist denn das Handwerkszeug eines Fachinformatiker? Genau, Computer! Hardware, Software und Programmierkenntnisse. An ersten Beiden hat es an meiner Berufsschule sehr stark gemangelt, $$$. Letzteres war je nach Lehrkraft zu bewerten. Mein Schlüsselerlebnis war jedoch, als es im zweiten Lehrjahr dann endlich neue PCs gab. Die wurden als quasi Bausatz angeliefert. Bedeutete, den Schülern wurde ein „Projekt“ verkauft, um das zusammenbauen eines Rechnersystems zu „lernen“. Fakt war, dass die Lehrkraft die Fragen an die Schüler weitergereicht hat, die ihre Ausbildungen in einem IT-Betrieb gemacht haben, dessen Kerngeschäft es war, PCs zu bauen. Wohlgemerkt geht es hier nicht um das ob sondern um das wie.

Fassen wir zusammen. IT in der Schule hat mit $$$ und den entsprechenden Kenntnissen der Lehrkräfte zu tun. Und nach ein paar Gesprächen scheint es an beiden weiterhin zu mangeln.

Cloud Computing bringt Schulen den notwendigen IT-Segen

Anhand von Cloud-Lösungen erhalten Schulen den flexiblen Zugriff auf die benötigten IT-Ressourcen. Seien es Software-as-a-Service Applikationen für bestimmte Anwendungsfälle in einem Unterrichtsfach oder für die gemeinsame aber verteilte Zusammenarbeit (auch nach der Schule) an einer Facharbeit oder sonstigen Projekten. Mittels Platform-as-a-Service aber auch Infrastructure-as-a-Service lassen sich Programmieraufgaben oder auch kleine IT-Gruppenprojekte zeitnah und kostengünstig umsetzen. Kombiniert mit Thin-Clients können auch die Hardwarekosten gering gehalten und die entsprechende physikalische Sicherheit der Systeme sichergestellt werden.

Wettbewerb: Schule und Cloud

Eine Initiative unter der Federführung der fat IT solutions GmbH zusammen mit Prof. Dr. Gunter Dueck von BlueForge, den Amazon Web Services und der Igel Technology GmbH will das nun ändern. Der Schulwettbewerb „Schule und Cloud“ hat das Ziel, Berufsschulen den Nutzen von IT-Lösungen während des Unterrichts näher zu bringen. Die Idee besteht darin, den „… am besten gestalteten Cloudcomputer Deutschlands.. “ zu finden. Dazu sollen Lehrer in Gruppenprojekten oder AGs pädagogisch wertvolle Software auf kostenlos zur Verfügung gestellten Computern in der Cloud installieren. Dabei kann es sich z.B. um Bildbetrachter, Textverarbeitung oder Lernprogramme handeln. Anschließend soll das System so konfiguriert werden, wie es später weiter benutzt werden soll.

Der Wettbewerb richtet sich an Berufsschulen und hier nicht nur an Klassen der IT-Ausbildungsberufe. Die besten drei Projekte werden im Anschluss von einer Jury prämiert. Mehr Informationen zur Teilnahme gibt es unter http://schule-und-cloud.de/requirements.html.

Kategorien
Kommentar

Hat der Channel in Zeiten des Cloud Computing noch eine Bedeutung?

Auf dem Cloud EcoSystem Winter Meeting wurde in einem Panel diskutiert, welche Bedeutung der Channel in der Cloud überhaupt noch hat. Da die Mehrzahl der Protagonisten jedoch ein Teil dieses Channels waren, gab es natürlich wenig Kritik. Allerdings war auch wenig von Veränderungen zu hören, da man ja auf Grund des ASP Modells schon selbst seit 1998 quasi in der Cloud sei.

ASP ist kein Cloud Computing

Auf die Diskussion ASP (Application Service Providing) vs. SaaS (Cloud) gehe ich hier nicht ein. Das ASP mit SaaS (Software-as-a-Service) respektive Cloud Computing nichts zu tun hat, wird nicht nur von mir, sondern vielen weiteren Publikationen propagiert. (Ich war übrigens sehr froh, dass Stefan Ried während seines Vortrags mit den „Cloud Mythen“ noch einmal aufgeräumt hat und allen Beteiligten die echten Eigenschaften und Vorteile der Cloud präsentiert hat, danke Stefan!)

Der Channel muss sich verändern

Kommen wir zum Channel. Es wäre falsch zu sagen, dass er stirbt. Zum einen gibt es auch weiterhin „Dinge“ für den Vertrieb und die Lobby dahinter wird auch alles menschenmögliche tun, um ihr Geschäftsmodell zu verteidigen. Aber es wäre vermessen, die Augen zu verschließen und so weiter zu machen wie bisher. Natürlich, „Hardware wird immer benötigt!“, aber auch in dieser Stückzahl? Und können zig Anbieter nur vom Vertrieb von Hardware leben?

Meiner Ansicht nach ist der Software-Vertrieb, ein sehr großer Teil vom gesamten Markt, tod. Überlegen wir uns, welche Art von Software in Zukunft noch auf Datenträger verschickt wird, fallen mir spontan nur die Betriebssysteme ein. Obwohl sich diese mittlerweile auch über die Webseiten der Hersteller herunterladen lassen, wie andere Softwarelösungen übrigens auch, die noch nicht als SaaS zur Verfügung stehen. Zum Beispiel liefert Microsoft für Office365 Home Premium trotz Verpackung nur noch einen Code aus, mit dem die Software von einer Microsoft Webseite heruntergeladen oder gestreamed wird.

Vom Reseller zum Integrator

Der typische Channel für Software-Reseller ist meiner Ansicht nach daher nicht mehr zu retten. Unternehmen aus diesem Bereich sollten sich möglichst schnell Gedanken über alternative Wege machen. Mögliche Ansätze bestehen in Partnerprogrammen mit den Softwareherstellern, um z.B. bei beratungsintensiven Lösungen (eigentlich sollten SaaS Anwendungen intuitiv zu konfigurieren und bedienen sein) dem Kunden zur Seite zu stehen und bei der Migration und Integration zu helfen. Ergo: Software-Reseller müssen sich mehr Expertise als das reine wiederverkaufen aneignen und zu Sytemintegratoren werden.

Eine weitere Möglichkeit besteht in dem Aufbau eines eigenen Marktplatz für SaaS-Applikationen. Hier gilt es jedoch sich direkt von den bestehenden Angeboten zu differenzieren und neben einer Vielzahl von Lösungen aus den unterschiedlichen Bereichen, ebenfalls dafür zu sorgen, dass die von dem Kunden genutzten Lösungen miteinander integriert sind und über eine zentrale Datenhaltung verfügen und somit keine Insellösungen entstehen. Gut zu erkennen: auch hier muss der Reseller wieder zum Integrator werden. Weg von dem reinen Zwischenhandel mit Software.

Selbstverständlich existieren Software-Reseller, die ebenfalls Integrationen vornehmen. Das sind die klassischen Systemhäuser. Aber auch diese müssen sich auf Grund der Cloud verändern.

Kategorien
Kommentar

Office 365 Home Premium – Microsoft setzt nicht auf Software-as-a-Service

Gestern war es soweit, Microsoft hat sein neues Office für den Endkundenmarkt vorgestellt. Das neue Office 365 Home Premium verspricht neue Funktionen für die direkte Anbindung an soziale Netzwerke, SkyDrive und Skype, was die Kommunikation mit Familie und Freunden erleichtern soll. Zudem steht jedem Anwender künftig sein persönliches Office überall zur Verfügung. Sei es auf PC, Tablet oder Smartphone – und sogar auf dem Mac. Die Bedienung erfolgt neben Tastatur auch über Touch oder Stifteingabe. Wer nun aber gedacht hat, das Microsoft sein neues Office ganz nach dem Gedanken der Cloud als SaaS (Software-as-a-Service) bereitstellt, der irrt.

Cloud aber kein Software-as-a-Service

Beim Office 365 Home Premium handelt es sich nicht um SaaS oder einen Cloud Service im eigentlichen Sinne, da das Office nicht über den Browser bereitgestellt und genutzt wird. (Zwar gibt es weiterhin die vollkommen kostenlosen Office Web Apps, die haben aber direkt nichts mit Office 365 Home Premium zu tun.) Microsoft begründet es damit, dass nicht alle Office Funktionen performant im Browser betrieben werden können. Stattdessen geht Microsoft einen „interessanten“ Weg, den es so noch nicht gibt. Microsoft Office wird hybrid. Microsoft bezeichnet diese wirklich neuartige Technologie als „Office Streaming“. Mittels „Click 2 Run“ lässt sich eine Office Suite innerhalb weniger Minuten installieren. Das Interessante daran ist, dass Microsoft zunächst die am statistisch häufigsten genutzten Grundfunktionen installiert, wodurch man sehr schnell mit der Arbeit mit Office starten kann. Man ist also in der Lage bereits während der Installation mit Office zu arbeiten. Im Hintergrund wird der Rest installiert. Der Cluo: ruft man eine Funktion bspw. von Word auf, während sich Office noch im Installationsmodus befindet, wird genau diese Funktion priorisiert und direkt gestreamed. (Ob ein Nutzer diese Art der Installation nun wirklich braucht ist eine andere Frage, aber die Idee ist gut.)

Cloud nur im Backend

Office 365 Home Premium synchronisiert alle individuelle Einstellungen und Dokumente automatisch mit der Cloud. Dadurch stehen alle Daten auf allen angebundenen PCs zur Verfügung. Das funktioniert ebenfalls auf fremden PCs, wenn man sich dort mit dem Microsoft-Konto von hotmail.de, outlook.com oder live.de anmeldet. Anhand der neuen Technologie „Office on Demand“ wird das Office dann aus der Cloud für die Bearbeitung auf den jeweiligen Rechner gestreamt. „Office on Demand“ installiert das Office auf dem lokalen System in eine virtuellen Umgebung. Beim Beenden der Sitzung wird die virtuelle Umgebung geschlossen und das Office mit sämtlichen Daten verschwindet wieder vollständig vom System. Microsoft möchte damit die Privatsphäre bei der Nutzung auf fremden Computern sicherstellen.

Preise und Goodies

Office 365 Home Premium beinhaltet die Programme Word, Excel, PowerPoint und OneNote, darüber hinaus auch Outlook, Access und Publisher. Durch das Abonnement verfügt ein Anwender automatisch immer über die aktuelle Office-Lösung auf seiner Festplatte oder unterwegs via Office on Demand. Weitere Goodies: 60 Minuten Skype pro Monat ins Festnetz, zusätzliche 20 GB SkyDrive Speicher und Nutzungsrechte für bis zu fünf Endgeräte, für Laptops, Tablets und Smartphones, sowohl für Windows- als auch Mac-Umgebungen.

Preise

  • Office 365 Home Premium: 99 EUR pro Jahr
  • Office 365 University: 79 EUR für 4 Jahre
  • Office Home & Student 2013 für 139 EUR
  • Office Home & Business 2013 für 269 EUR
  • Office Professional 2013 für 539 EUR

Office 365-Business

Ab 27. Februar 2013 stehen darüber hinaus Neue Office 365-Business Services mit neuen Funktionen zur Verfügung, in denen wahrscheinlich auch eine SkyDrive Pro Version enthalten sein wird.

Die Strategie passt zu Windows 8

Das Microsoft nicht auf SaaS setzt, kommt zwar ein wenig überraschend, passt aber in die Windows 8 Strategie. Die Applikationen werden überwiegend lokal gehalten, um die Geschwindigkeit zu garantieren und nicht zwangsläufig auf eine Datenverbindung angewiesen zu sein. Sämtliche persönliche Einstellungen und Dokumente werden, wenn der Nutzer möchte, in der Cloud gespeichert, um damit den orts- und plattformunabhängigen Zugriff zu gewährleisten. Dieser wird mit „Office on Demand“ und dem Streaming sichergestellt.

Ist die Microsoft Office Suite noch zeitgemäß?

Mir stellt sich die Frage, warum Microsoft weiterhin an diesem massiven Office Paket festhält und die Applikationen nicht einzeln anbietet. Ich verstehe die Strategie dahinter, Outlook nun auch dem Endanwender zugänglich zu machen. Die Eltern können z.B. die Familie organisieren. Aber wer macht das tatsächlich? Nach Microsofts Recherchen wohl einige. So durften Referenzkunden während des Launch Events von ihren Use Cases berichten. Ich bin mir da nicht so sicher. Schaut man sich das Verhalten von (jungen) Nutzern an, stellen die sich lieber selbst ihre Productivity Suite zusammen und wollen das nicht von Mama und Papa diktiert bekommen. (Der Einfluss der Freunde ist viel größer.) Dropbox für Storage, Evernote für Notizen, Remember the Milk oder Wunderlist für Aufgaben, GMail oder Outlook.com für E-Mail gehören zu den Wunsch-Kandidaten. Die Cloud und Mobile Apps machen dies möglich.

Office ist gut, keine Frage! Aber ist diese mächtige Lösung noch zeitgemäß? Wollen sich Nutzer wirklich noch diktieren lassen was sie nutzen sollen oder lieber ihre eigenen Lösungen zusammenstellen. Word und Excel sind ein Mehrwert für jede persönliche Productivity Suite, aber dafür müssen sie einzeln angeboten werden und damit meine ich nicht die Office Web Apps.

Kategorien
Kommentar

Das lokale Betriebssystem stirbt, lang lebe der Cloud-Desktop

Die mit der Post-PC-Ära einhergehenden Veränderungen im Betriebssystemmarkt sind nicht alleine auf mobile Endgeräte zurückzuführen. Schon länger existieren Lösungen, mit denen sich ein Betriebssystem im Browser abbilden lässt oder Systeme, welche die voll ausgestatteten lokalen Systeme überflüssig machen. Angemerkt sein zum Beispiel Mainframes, Terminal-Server und Thin-Clients. Auf dieses Thema bin ich im letzten Jahr mit dem Artikel „Zurück in die Cloud: Terminals und Mainframes bekommen ihr Update 2.0“ eingegangen. Auch Remote Desktop Sessions sind längst etablierte Möglichkeiten für den Zugriff aus der Ferne. Werden all diese Technologien in die Gegenwart projiziert, gelangen wir zu einem der nächsten großen Trends im IT-Unternehmensumfeld, den Cloud-Desktops.

Ein Desktop aus der Cloud

Nicht nur aus Sicht der ortsunabhängigen und gemeinsamen Arbeit an Projekten ist der Cloud-Desktop ein logischer Entwicklungsschritt und geht weit über Cloud Storage Services mit Mehrwertdiensten für die parallele Arbeit an Dokumenten und weiteren Daten hinaus. Cloud-Desktops bzw. Desktop-as a-Services (DaaS) gehören zu den Top-Themen für die IT eines Unternehmens und werden in Zukunft die „Virtual Desktop Infrastructure“ ablösen. Man kann auch sagen, dass Cloud-Desktops bzw. DaaS die konsequente Weiterentwicklung der Virtual Desktop Infrastructure sind.

Die stetige Weiterentwicklung des Cloud Computing macht Cloud-Desktops zur optimalen Plattform für Unternehmen. Cloud-Desktops ermöglichen die vollständige Ausgliederung der Desktop-Umgebung zu einem Anbieter. Die Abrechnung erfolgt nach Bedarf. Der Cloud-Desktop Anbieter ist im Anschluss für die Bereitstellung und Wartung der Umgebung zuständig. Dazu gehören u.a. das Einspielen von Updates und Upgrades, das Backup und das Bereitstellen des Speicherplatz. Anhand der Ausgliederung an einen zentralen Anbieter, lässt sich auf den Cloud-Desktop unabhängig von der geographischen Lage, der Struktur des Unternehmens und dem jeweiligen Endgerät zugreifen.

Alles immer und überall dabei

Cloud-Desktops bilden vollständige Arbeitsumgebungen, wie wir sie vom lokalen Desktop kennen, ab. Anders als bei gewöhnlichen Cloud Storage Angeboten, stehen hier zusätzlich alle notwendigen Anwendungen für das ortsunabhängige Arbeiten bereit. Der Desktop wird damit vollständig mobil, was Mitarbeitern im Home Office und im Außendienst zu Gute kommt. Cloud-Desktops sind die ideale Lösung, wenn die darunter befindende Infrastruktur nicht notwendig ist. Die Unternehmens-IT muss sich durch den Einsatz von Cloud-Desktops nicht mehr mit dem Einkauf, der Installation und weiteren Themen auseinandersetzen, die zum Betrieb und der Wartung einer Desktop-Umgebung dazugehören. Weiterhin wird die weltweite Bereitstellung der Systeme und Softwarelösungen an die Mitarbeiter vereinfacht.

Vorteile und Bedenken

Die Vorteile eines Cloud-Desktops bestehen u.a. in der Verringerung der Ausgaben für Hardware und Wartung plus der monatlichen Flexibilität je nach Bedarf. Weiterhin bekommen die Mitarbeiter damit die Möglichkeit, zu jederzeit und von jedem Ort auf ihre Arbeitsumgebung zuzugreifen. Dazu lassen sich diese virtualisierten Desktops aus dem Unternehmensnetzwerk, über das Internet und über viele Plattformen wie Tablets, Smartphones, ThinClients aber auch klassische Endgeräte wie Laptops oder Desktop-PCs nutzen.

Vor der Nutzung einer Cloud-Desktop Umgebung gibt es aber auch Dinge zu beachten. Dazu gehört zum einen der Anbieter und ob dessen Angebot die eigenen Anforderungen erfüllt. Weiterhin sind die Themen Service Levels, Sicherheit sowie Gesetze und Regulierungen von wichtiger Bedeutung. Aber auch, wie es mit der Integration in bestehende Backendsysteme oder bereits eingesetzte Software-as-a-Service Lösungen aussieht. Ein nicht zu unterschätzender Bereich ist darüber hinaus die Verfügbarkeit einer stabilen Datenverbindung. Denn „No cloud, no cookies.“

Kategorien
Kommentar

Oracle treibt sein Cloud-Washing tapfer voran

Oracle arbeitet weiter an seiner Cloud-Washing Strategie und treibt sie vehement und ungeachtet jeder Kritik voran. Unter dem Namen „Infrastructure as a Service on Premise mit Capacity on Demand“ bietet Oracle seine Hardware Unternehmen nun auch zur Miete für das eigene Rechenzentrum an.

Vorkonfigurierte Applikationsserver

Oracle erweitert sein Private Cloud Infrastruktur Angebot um die Möglichkeit, vorkonfigurierte Applikationsserver für eine monatliche Gebühr anzumieten, die dann im Rechenzentrum des Kunden installiert werden. Die von Oracle genannten „engineered systems“ beinhalten Oracle Exadata Database Machine, Oracle Exalogic Elastic Cloud, Oracle Sparc SuperCluster, Oracle Exalytics In-Memory Machine und Oracle Sun ZFS Storage.

Die Idee soll darin bestehen, dass Oracle damit extra Kapazitäten bereitstellt, die über die bereits genutzten Ressourcen einer Oracle Private Cloud hinaus gehen. Genau das bezeichnet Oracle als Infrastructure-as-a-Service (IaaS), was allerdings mit einem IaaS Cloud Angebot nichts zu tun hat, sondern ganz gewöhnliche Oracle Rechenzentrumslösungen sind.

Ein Drei-Jahres-Vertrag ist kein Cloud!

Genauso wenig, wie es sich bei Oracles „Cloud Infrastructure“ um ein echtes Cloud Angebot handelt, so schaut es mit dem neuen „Oracle IaaS On-Premise“ aus. Der Drei-Jahres-Vertrag beinhaltet nur die Hardware für die Applikationsserver, die Wartung und ein gewisses Maß an Nutzung. Für die Oracle Software Lizenzen fallen weitere Kosten an. Zudem muss für „Peaks“ bezahlt werden. Was das genau sein soll und was es kostet, wird nicht gesagt.

Oracle verliert den Anschluss

Leider wird immer deutlicher, wie Oracle dem Markt seine Philosophie vom Cloud Computing verkaufen will. Es wird schlichtweg die Hardware, Software usw., die früher teuer verkauft wurden, nun einfach vermietet und als Cloud bezeichnet!

Oracle scheint alles daran gelegen zu sein, den Anschluss im Cloud Markt nicht zu verlieren. Dafür haben sie jedoch nicht die richtige Strategie. Die echten Public Cloud Anbieter, allen voran Amazon Web Services, Windows Azure, Google und Rackspace werden Oracle immer stärker den Rang ablaufen. Auf der Private Cloud Seite sieht es für Oracle aber nicht besser aus. Hier sichern sich Anbieter wie openQRM-Enterprise, Eucalyptus, OpenStack-Partner und CloudStack immer mehr Marktanteile.