Kategorien
Analysen

Cloud Computing und das Dilemma mit der Internetleitung

Interessanterweise wird auf keiner Konferenz oder in irgendeinem Panel über die Relevanz der Intenetleitung für das Cloud Computing gesprochen. Na klar, dabei handelt es sich auch schließlich um DAS Killerargument. Denn keine Internetverbindung bedeutet kein Zugriff auf die Ressourcen, bedeutet kein Geschäft für die Anbieter. Also warum Öl ins Feuer gießen?!

Das Thema Breitbandausbau ist ein langes und viel diskutiertes Thema in Deutschland. Sicherlich gibt es Bereiche, in denen hohe Bandbreiten verfügbar sind – in den Städten. Fährt man jedoch ein paar Kilometer außerhalb, war es das aber auch schon.

Angezeigte Verfügbarkeit: Leitungsgebunden ≥ 1 Mbit/s

Angezeigte Verfügbarkeit: Leitungsgebunden ≥ 1 Mbit/s

Telekom Chef René Obermann hat sich für eine Cloud Made in Germany ausgesprochen. Zudem hat die Deutsche Telekom angekündigt, einen eigenen Marktplatz für Cloud Anwendungen aufzubauen. Gut, aber wann sorgt die Telekom dafür, dass auch schnelle und vor allem stabile Internetleitungen für jedermann verfügbar sind? Das die Internetverbindung die Achillesferse des Cloud Computing ist, haben wir schließlich heute gesehen.

Angezeigte Verfügbarkeit: Leitungsgebunden ≥ 16 Mbit/s

Angezeigte Verfügbarkeit: Leitungsgebunden ≥ 16 Mbit/s

Auch die Deutsche Bundesregierung unterstützt das Thema Cloud Computing. Und sollte sich deswegen verstärkt in der Pflicht sehen, den Bürgern und Unternehmen Cloud Computing fähige Internetverbindungen bereitzustellen. Vergessen sollte man hier auch nicht die Unternehmen, die ihren Sitz in ländlichen Gebieten haben. Hier gibt es einige die an einer 2000 MBit Leitung oder kleiner sitzen, da sie sich eine dedizierte Leitung nicht leisten können.

Angezeigte Verfügbarkeit: Leitungsgebunden ≥ 50 Mbit/s

Angezeigte Verfügbarkeit: Leitungsgebunden ≥ 50 Mbit/s

Auch wenn es im ersten Moment vielleicht nicht offensichtlich ist, da sich alle ausschließlich auf die Cloud Services der Anbieter konzentrieren, aber hier herrscht ein extremer Nachbesserungsbedarf. Denn was nutzen Cloud Services, wenn diese entweder gar nicht, nicht performant (zu langsame Up- und Downloadraten) oder nur unzureichend (instabil) genutzt werden können?! Zu diesem Thema hatte ich bereits Ende 2011 einen Artikel geschrieben.

Quelle: http://www.zukunft-breitband.de

Kategorien
Analysen

Hinter Amazons Cloud verbergen sich geschätzte 450.000 Server

Wie viele Server benötigt es, um eine Cloud wie bspw. die der Amazon Web Services zu betreiben? Wie es innerhalb der physikalischen Infrastruktur tatsächlich aussieht, darüber gibt Amazon, wie auch alle anderen großen Internetunternehmen, keine Auskunft. Nach aktuellen Schätzungen eines Wissenschaftlers soll es sich um mindestens 454.400 Server in weltweit sieben Rechenzentren handeln.

Die Amazon Cloud ist riesig

Huan Liu, Wissenschafter in den Accenture Technology Labs, hat anhand der internen und externen IP-Adressen Amazon EC2 analysiert. Die Adressen hat er hochgerechnet, um Schätzungen für die Anzahl der Racks pro Rechenzentrum vorzunehmen. Er traf dann die Annahme, dass sich in jedem Rack 64 Blade Server befinden – vier 10U-Chassis mit jeweils 8 Blades.

Das ist eine von mehreren Annahmen für Liu’s Schätzungen, die er jedoch mit Vorbehalten dokumentiert. Photos in einer Präsentation von AWS Distinguished Engineer James Hamilton aus dem Jahr 2011, zeigen bspw. 1U „pizza box“-Rackmount-Server statt Blades. Allerdings ist nicht bekannt, ob es sich bei den Bildern tatsächlich um die aktuelle Infrastruktur von Amazon handelt.

Ein interessanter Aspekt von Liu’s Forschung ist eine hohe Konzentration von Amazons IP-Adressen in der US-East Region im nördlichen Virginia, wo Amazon mehrere Rechenzentren betreibt. Er schätzt, dass sich 5.030 Racks im Norden von Virginia befinden, bzw. ca. 70 Prozent der geschätzten Gesamtzahl von 7.100 Racks der Amazon Web Services. Im Gegensatz dazu hat die neue Amazon US-West Region (Oregon) nur 41 Racks, die Berichten zufolge in Containern bereitgestellt werden.


Weiterführende Informationen


Bildquelle: http://flockshots.de

Kategorien
Analysen

Microsoft und Amazon liefern sich Preiskampf in der Cloud

Als Anbieter mit einem großen Public Cloud Portfolio kämpft Microsoft nun nicht mehr nur mit Google, sondern liefert sich seit kurzem auch einen Preiskampf mit den Amazon Web Services. Das gute daran: die Gewinner sind die Nutzer.

Der Kampf verlagert sich in die Cloud

Nachdem Microsoft am Ende der vergangenen Woche seine Preise für Windows Azure Storage und Windows Azure Compute gesenkt hat und damit auf die Preissenkungen der Amazon Web Services, ebenfalls in der vergangenen Woche, reagiert hat, befinden sich die derzeitigen Preise für Speicherplatz und Rechenleistung aus der Cloud auf einem niedrigen Rekordniveau und befinden sich auf dem Stand hiesiger Stromtarife.

Die Frage ist, wie lange das noch so weitergehen kann, denn die Preise können im Prinzip nur weiter fallen. Betrachten wir nämlich die Tatsache, das die Stromtarife auf Erdgaspreisen, saisonalen Einflüssen und weiteren Variablen basieren, kann Cloud Computing noch günstiger werden.

Die Preisgestaltung beider Anbieter ist nicht direkt vergleichbar, da die Preise und Dienstleistungen variieren. Aber die Kernaussage dieses Wettbewerbs ist eindeutig: Die Preise werden weiter sinken.

Beispielweise kostet eine Amazon Small (Standard) On-Demand Instanz mit Linux/Unix 0,090 Dollar (ca. 0,067 EUR) pro Stunde. Eine Windows Instanz 0,115 Dollar (ca. 0,088 EUR) pro Stunde. Ich zahle derzeit ca. 0,244 EUR pro Kilowattstunde an meinen Stromanbieter.

Beide Anbieter argumentieren, dass sie ihre eigenen Einsparungen (Economies of scale) sehr gerne an ihre Kunden weiterreichen und fokussieren Entwickler, Startups, kleine Unternehmen sowie Großkunden.

Nachdem nun aber auch HP und weitere Anbieter in den Cloud Computing Markt für IaaS Ressourcen eingestiegen sind, werden die Preise noch weiter fallen.


Bildquellen: http://www.merkur-online.de, http://diepresse.com

Kategorien
Analysen

Sinn und Unsinn von Cloud Siegeln, Zertifikaten, Verbänden und Initiativen

Axel von Leitner, Mitbegründer und Geschäftsführer von 42HE, einem Cloud Startup aus Köln hat auf dem Unternehmensblog die Problematik und Situation mit Cloud Computing Siegeln und Verbänden bzw. speziellen Initiativen stark kritisiert.

Dem Grundtenor von Axel muss ich zustimmen. Aber fangen wir von Vorne an. Es existieren mittlerweile einige Verbände und Initiativen, wie wir es auch aus anderen Bereichen kennen. Dazu gehören z.B. Verbände und Vereine wie EuroCloud, SaaS-EcoSystem oder Initiativen wie Cloud Services Made in Germany und Deutsche Wolke.

Cloud Computing ist ein globaler Ansatz und kein deutsches Konzept

Was insbesondere die Initiativen gemeinsam haben ist, dass Sie mit diversen Versprechen versuchen, so viele Anbieter von Cloud Computing Services wie möglich in die eigenen Reihen zu lotsen. Vor allem „Cloud Services Made in Germany“ springt auf das vermeintliche Qualitätsmerkmal Made in Germany auf und verspricht dabei „Mehr Rechtssicherheit bei der Auswahl von Cloud-basierten Diensten…“.

Cloud Computing aus Deutschland = Qualität?

Die Liste der Unternehmen, die sich an „Cloud Services Made in Germany“ beteiligen ist lang. Die Prüfungskriterien äußerst schwach, was die hohe Beteiligung erklären könnte. Für die Aufnahme muss ein Unternehmen folgende Kriterien erfüllen:

  • Das Unternehmen des Cloud Service-Betreibers wurde in Deutschland gegründet und hat dort seinen Hauptsitz.
  • Das Unternehmen schließt mit seinen Cloud Service-Kunden Verträge mit Service Level Agreements (SLA) nach deutschem Recht.
  • Der Gerichtsstand für alle vertraglichen und juristischen Angelegenheiten liegt in Deutschland.
  • Das Unternehmen stellt für Kundenanfragen einen lokal ansässigen, deutschsprachigen Service und Support zur Verfügung.

Quelle: http://www.cloud-services-made-in-germany.de/beteiligung

Die Frage die man sich hier nun stellen sollte ist, wo ist das wirkliche Qualitätskriterium, dass die Initiative prüft? Handelt es dabei sich um ein Qualitätsmerkmal, dass ich meinen Firmensitz in Deutschland habe? Nein! Das ich einen deutschen Support anbiete? Ja, vielleicht! Das ich meine Geschäfte und Verträge nach deutschem Recht abschließe? Recht und Datenschutz als Qualitätmerkmal? Ist das nicht ein bisschen weit hergeholt?

In den Kriterien wird in keinster Weise auf die wirkliche Qualität eines Service eingegangen. Darf sich der Service wirklich Cloud Service nennen? Wie ist das Abrechnungsmodell? Sorgt der Anbieter für eine Cloud Computing konforme Skalierbarkeit und Hochverfügbarkeit? Und viele weitere Fragen, die essentiell wichtig sind, um die Qualität eines Cloud Service zu bewerten!

Die Initiative „Cloud Services Made in Germany“ versteckt sich leider einzig und allein hinter den vermeintlich hohen Datenschutzanforderungen in Deutschland, sagt aber nichts über die tatsächliche Qualität eines Cloud Computing Anbieters bzw. dessen Services aus.

Eine Cloud für Deutschland?

Dieser Aufgabe hat sich die Initiative „Deutsche Wolke“ gewidmet. Es handelt sich dabei um einen Zusammenschluß deutscher und internationaler Organisationen zum Aufbau einer föderalen Cloud-Infrastruktur für Deutschland. Die Initiative verkauft sich zwar leider ebenfalls unter dem Deckmantel von „Made in Germany“, hat aber dennoch einen ganz anderen qualitativ höherwertigen Anspruch als z.B. „Cloud Services Made in Germany“.

Denn mit mit einer eigenen Cloud Infrastruktur auf Basis von offenen Standards und Schnittstellen und unter dem Aspekt hoher Verfügbarkeit und strengen Datenschutzrichtlinien werden die derzeit noch überschaubaren Partner von „Deutsche Wolke“ anscheinend deutlich besser überprüft.

Dennoch argumentiert auch die „Deutsche Wolke“ verstärkt mit den hohen Datenschutzrichtlinien in Deutschland.

Auch die Verbände wollen mir ihren Zertifikaten ein Wort mitreden

Dann gibt es noch die Verbände EuroCloud und SaaS-EcoSystem, die vor allem durch ihre Gütesiegel und Zertifikate auffallen. EuroCloud hat dafür seinen SaaS Star Audit im Angebot. Das SaaS-EcoSystem hingegen hat mit „Cloud-Experte“ sein Qualitäts-Zertifikat für Saas & Cloud Computing Berater sowie sein „Trust in Cloud“ für Cloud Computing Anbieter.

Die Qualität und der Nutzen solcher Zertifikate und Gütesiegel stehen und fallen natürlich mit den Unternehmen, die mit der Prüfung beauftragt sind sowie den Prüfkriterien. Hinzu kommt ebenfalls ein großer Geldbeutel, um sich zertifizieren zu lassen. Speziell das Zertifikat „Cloud-Experte“ des SaaS-EcoSystem ist mit Vorsicht zu genießen. Bisher haben nur zwei Marketingexperten(!) das Zertifikat erhalten, was ich bereits in einem älteren Artikel kritisiert habe.

Aber auch bei dem EuroCloud SaaS Star Audit scheint sich bisher nicht viel getan zu haben. Zumindest gibt es seit dem letzten Artikel keine neuen Services, die einen Star Audit erfolgreich absolviert haben.

Deutschland doch kein Qualitätskriterium für die Cloud?

„Cloud Made in Germany“. Wer den vermeintlich höheren Datenschutz als Wettbewerbsvorteil sieht ist auf dem falschen Weg in die Cloud! Denn das ist ein Trugschluss und ein Argument was nicht zutrifft.

Natürlich darf der Patriot Act nicht unterschätzt werden. Insbesondere auf Grund seiner nicht vorhandenen Transparenz, wann welche US-Regierungseinheit Zugriffe auf bestimmte Daten erhält. Jedoch sollte man nicht vergessen, das seit jeher ein deutscher Staatsanwalt in ein Rechenzentrum Zugriff erhalten kann, wenn er einen trifftigen Grund hat. Sei es nun beim Cloud Computing oder Outsourcing. Auch wenn hier zunächst ein richterlicher Beschluss vorliegen muss.

Zudem haben auch unsere deutschen Politiker daran Interesse unkompliziert Zugriff auf diverse Daten zu erhalten. Diese Diskussionen werden ebenfalls schon seit Jahren geführt. Ich bin kein Jurist und schon gar kein Politiker und kann dazu nicht viel sagen. Allerdings halte ich es für falsch, sich nur auf den Datenschutz auszuruhen. Made in Germany steht für Qualität das ist richtig, aber nicht zwingend im Bereich der Informationstechnologie und schon gar nicht im Bereich Cloud Computing – es gibt natürlich ein paar Ausnahmen. Es ist schade, dass so schreiben zu müssen, aber die Realität ist, das uns andere Länder, insbesondere die USA Jahre voraus sind. Diese schießen erst und entschuldigen sich später, wohingegen die Deutschen über alles debattieren (müssen) bevor eine Entscheidung getroffen wird. Deutsche Unternehmen sollten sich lieber auf ihre Innovationskraft konzentrieren, die definitiv vorhanden ist, anstatt sich hinter Siegeln zu verstecken.

Denn wie wir sehen, haben es die Cloud Computing Player wie Amazon, Google, Microsoft oder auch Salesforce nicht nötig, sich mit einem (deutschen) Siegel, Zertifikat oder dergleichen zu profilieren und denen interessiert es auch nicht, zu recht! Schließlich ist Cloud Computing ein globaler Ansatz und kein deutsches Konzept!

Kategorien
Analysen

Die Amazon Web Services und der Vendor Lock-in

Die Amazon Web Services (AWS) legen ein beachtliches Tempo vor. In regelmäßigen Abständen veröffentlicht das Unternehmen aus Seattle immer mehr Cloud Services, was Amazon innerhalb kürzester Zeit zum Cloud-Primus hat werden lassen. Der letzte Streich, der Amazon Simple Workflow liegt gerade knapp 2 Wochen zurück.

Auf dem ersten Blick ist die Leistung von Amazon wirklich sehr beachtlich. Zudem können die meisten Mitbewerber das vorgelegte Tempo kaum mithalten. Der zweite Blick trübt jedoch die Euphorie um die angebotenen Services. Denn viele Unternehmen nutzen AWS, um ihre ersten Schritte zu gehen und dabei auf eine flexible und öffentliche Cloud Infrastruktur zurückzugreifen. Aber je mehr Angebote wie bspw. Workflow Services oder speziell für die Cloud entwickelte Datenbanken veröffentlicht werden, desto größer wird ebenfalls das Bedenken einem Cloud Vendor Lock-in zum Opfer zu fallen.

Auf Grund der kostengünstigen und einfach zu nutzenden Infrastruktur für Rechenleistung und Speicherplatz, haben sich anfangs viele Kunden für den Einsatz von AWS entschieden. Diese Einfachheit ist weiterhin unumstritten und ermöglicht es insbesondere kleinen Unternehmen und Startups schnell auf die Ressourcen zurückzugreifen, die zu einem bestimmten Zeitpunkt benötigt werden, ohne große vorab Investitionen zu tätigen. Hinzu kommt das bequeme Mitwachsen der Infrastruktur, wenn unerwartet große Anfragen entstehen und die tatsächliche Abrechnung (pay as you go) der Ressourcen. Unternehmen können ihre Workloads also deutlich bequemer und flexibler in der Amazon Cloud verarbeiten lassen als im eigenen Rechenzentrum.

Jedoch führt die Einführung neuer Dienste wie Amazon DynamoDB und Simple Workflow Services (SWF) dazu, dass genau diese Workloads deutlich stärker an die AWS-Infrastruktur gebunden werden. So stellt es für Entwickler bspw. eine größere Herausforderung dar, ihre Daten von der DynamoDB zu einer nicht Amazon Datenbank zu migrieren. Im Falle von SWF, mit der Entwickler workflow-fähige Anwendungen erstellen können, wird die Lücke zwischen der on-Premise Infrastruktur und den Amazon Ressourcen immer kleiner und hebt die Grenze zwischen Kundenseite und AWS-Infrastruktur zunehmend auf.

Es scheint so, als wolle Amazon den Microsoft-Weg gehen, eben nur in der Cloud. Microsoft führte nach Betriebssystemen und Office Produkten immer weitere Funktionen ein und stimmte diese perfekt aufeinander ab. Hinzu kommen bereits vorhandene oder im Laufe der Zeit eingeführte Funktionen, die auch von anderen Herstellern angeboten wurden, aber eine untergeordnete Rolle spielten. So waren die Kunden nicht bereit für eine Funktion zu bezahlen, die in der Software bereits enthalten war, selbst wenn die vom Drittanbieter angebotene in den meisten Fällen deutlich besser war.

Eine weitere nicht zu unterschätzende Problematik ist die Abwanderung von Daten – nicht Diebstahl! Mit Amazon SWF können Anwendungs- und Serviceübergreifende Anwendungen entwickelt werden die einen flüssigen und integrierten Übergang zwischen Anwendungen auf der Kundenseite und der AWS Infrastruktur herstellen. Mit den Simple Workflow Services werden die Daten quasi aus dem eigenen Rechenzentrum in die Amazon Cloud übertragen und sind dort eng in die Workflow Prozesse und die Infrastruktur verankert.

Ähnlich verhält es sich bei der Nutzung von Amazon DynamoDB, aber auch Amazon SimpleDB. Kommt eine dieser Datenbank zum Einsatz ist ein Wechseln zu einem anderen Cloud Anbieter nicht möglich. So kann u.a. die Entwicklung einer Anwendung im Zusammenhang mit einer dieser Datenbanken nicht offline stattfinden, da Amazon DynamoDB bzw. Amazon SimpleDB nur in der Amazon Cloud laufen. Auch der AWS Storage Gateway ist aus der Lock-in Sicht eher kritisch zu betrachten, der er die Daten aus dem eigenen Rechenzentrum heraus auf Amazon S3 speichert.

Amazon ist aus gutem Grund der weltweit führende Cloud Computing Anbieter. Aber Erfolg und Macht führen in der Regel dazu, beides auch zu festigen und stetig auszubauen. Daher sollte sich jeder überlegen, in wie weit und vor allem wie integriert er welchen Service nutzen will und sich zudem nach Alternativen umschauen und eine Multi-Vendor Strategie fahren.

Denn unter diesen Gesichtspunkten stellt sich Frage, ob Zynga wirklich nur aus Performancegründen den Weg in die eigene Cloud gewählt hat.


Bildquelle: http://www.flyingomelette.com

Kategorien
Analysen

Kriterien zur Auswahl eines Cloud Computing Anbieters

Cloud Computing Anbieter haben mit ihren Angeboten und Eigenschaften den größten Einfluss auf Unternehmen und deren Informationstechnologie. Dabei müssen sich Unternehmen der Herausforderung stellen, den für Ihre Bedürfnisse idealen Anbieter zu identifizieren. Das stellte Unternehmen bereits in der Vorzeit des Cloud Computing vor Probleme, jedoch hat sich die Situation durch die hohe Standardisierung auf Seiten der Anbieter verschärft.

In der Regel müssen sich Unternehmen für das entscheiden, was der Anbieter im Portfolio hat ohne Einfluss darauf zu haben und Anpassungen vornehmen zu können. Hinzu kommt, dass neben dem Angebot und dem Preis ebenfalls die SLAs, Governance, Compliance usw. bei der Auswahl berücksichtigt werden müssen. Schließlich hat sich der Einflussbereich des Unternehmens minimiert und das Vertrauen in den Cloud Computing Anbieter steht auf dem Spiel.

Die eigenen Bedürfnisse sind ausschlaggebend

Unternehmen stehen damit vor der Herausforderung den oder die Anbieter zu selektieren, der bzw. die ihre Ansprüche bzgl. der Integration der vorhandenen Systeme, der Abbildung der Geschäftsprozesse usw. bestmöglich unterstützen und des Weiteren über eine hohe Vertrauensbasis verfügen.

Eine Bewertung und Auswahl vorzunehmen ist nicht trivial. Zudem existieren dafür keine geeigneten Frameworks und es ist ebenso schwierig so ein allgemeingültiges Framework zu erstellen. Das ist der Individualität und den Anforderungen eines jeden einzelnen Unternehmens geschuldet. Jedoch kann ein Unternehmen bei der richtungsweisenden Bewertung und Auswahl unterstützt werden.

Grundsätzlicher Auswahlprozess

Auf Grund einer Vielzahl von Angeboten, die unterschiedliche Services, Kosten, Support etc. mit sich bringen, benötigen Unternehmen eine klare Strategie und starke Auswahlkriterien um Cloud Computing bestmöglich für sich zu nutzen.

Während Kosten, Skalierbarkeit, Fachwissen und die operative Stabilität offensichtliche Kriterien sind, gibt es weitere wichtige Faktoren, die bei der Auswahl eines Cloud Computing Anbieters notwendig sind.

Eigene Anforderungen definieren

Ein Unternehmen muss sich zunächst über sich selbst im Klaren sein. Das heißt, es muss seine Unternehmensstrategie, seine Unternehmensziele sowie seine Kernprozesse und Funktionen kennen. Zudem muss es klar definieren, was es sich von der Nutzung der Cloud verspricht. Geht es eher darum, die Möglichkeiten der internen IT zu erweitern oder sollen die nicht strategisch wichtigen Unternehmensanwendungen in die Cloud migriert und dort betrieben werden?

Sobald das Unternehmen eine klare Vorstellung von seinen Anforderungen hat, gilt es einen geeigneten Partner zu finden, der bei der Ausführung hilft. Dabei sollte beachtet werden, dass ein Anbieter, der den aktuellen Bedürfnissen gerecht wird, möglicherweise bei einer Änderungen der Strategie nicht mehr die gewünschten Anforderungen erfüllen kann. Die eigene Strategie sollte daher nicht als ein statischer Plan behandelt werden und eine gewisse Flexibilität beinhalten. Denn die Geschäftsanforderungen ändern sich in der heutigen Zeit deutlich schneller und auch neue unvorhergesehene Cloud-Technologien werden auf dem Markt erscheinen, die dabei helfen werden das Unternehmen strategisch neu auszurichten. Daher ist es notwendig, die Cloud Strategie als auch den Cloud Computing Anbieter regelmäßig zu überprüfen.

Auswahl des Cloud Computing Anbieters

Jedes Angebot im Cloud Computing ist einzigartig. Sei es ein Infrastructure-as-a-Service, Platform-as-a-Service, Software-as-a-Service, Security Service oder ein Service zur Abbildung eines Geschäftsprozesses. Hinzu kommt, dass sich auch die Anforderungen eines Unternehmens an einen Services mit den Angeboten in der Cloud unterscheiden. Das betrifft in erster Linie den eigentlichen Nutzen für das Unternehmen bis hin zur technologischen Anbindung. Die erste Frage, die einem Cloud Computing Anbieter also grundsätzlich gestellt werden muss, ist, ob er genau den Cloud Service anbieten kann, der von dem Unternehmen benötigt wird. Sollte diese Frage mit ja beantwortet werden, gilt es anschließend den Anbieter genauer zu untersuchen. Verfügt er über langjährige Erfahrungen, hat er ein aussagekräftiges Kundenportfolio, passt der Anbieter ethisch zu dem Unternehmen. Bspw. wäre es für ein Unternehmen, das sich in vielen Bereichen für den Umweltschutz einsetzt, unvorstellbar einen Cloud Computing Anbieter zu wählen, der nicht über eine Green IT Policy verfügt.

Im Verlauf der Prüfung werden dann die detaillierten Anforderungen des Unternehmens untersucht und mit den Angeboten des Cloud Computing Anbieters verglichen. Dazu sollten während der Anforderungsanalyse Attribute definiert werden, die der Cloud Service bzw. die Anwendungen erfüllen müssen und je nach Gewichtung für oder gegen die Wahl des Cloud Computing Anbieters sprechen.

Beurteilung der allgemeinen Sicherheit

Eine der größten Sorgen ist die Datensicherheit in der Cloud und die Funktionsfähigkeit der Infrastruktur für den geschäftskritischen Betrieb. Die Systeme und Daten müssen sich daher in sicheren Händen befinden und das gilt es sicherzustellen. Bei der Auswahl des Cloud Anbieters muss daher zunächst eine Bestandsaufnahme der eigenen Sicherheitsanforderungen gemacht und die Probleme erörtert werden, die es zu bewältigen gilt. Dazu gehören z.B. der Datentransfer, die Speicherung, die Zutrittskontrolle, und Netzwerksicherheit. Im Anschluss muss bestimmt werden, ob der Anbieter über die Sicherheit und Compliance Technologien und Mechanismen verfügt, um diese Bedürfnisse zu erfüllen.

Hier sollte der Anbieter u.a. gefragt werden, wie die Sicherheitsmechnismen funktionieren, um den Schutz der Daten während des Transports und beim Speichern zu gewährleisten oder ob die virtualisierte Infrastruktur wirklich sicher ist. Weiterhin ist es notwendig zu wissen, ob der Anbieter über die entsprechenden Technologien und Prozesse wie Verschlüsselung und Entschlüsselung, Disaster Recovery, Zugangsbeschränkungen, Intrusion Protection/ Prevention und Firewall-Dienste verfügt.

Fragen stellen alleine reicht allerdings nicht. Um den Anbieter wirklich kennenzulernen müssen die Sicherheitdokumentationen und Zertifizierungen eingehend überprüft werden. Auch ein Besuch vor Ort sollte in Betracht gezogen werden, um zu sehen und zu verstehen, was sich hinter der Cloud des Anbieters verbirgt.

Zuletzt sollte immer das Worst-Case-Szenario in die Bewertung des Sicherheitsniveaus des Anbieters einfließen. Denn auch wenn das undenkbare niemals eintreten wird, sollte der Anbieter seine Kunden davor bestmöglich schützen können.

Bewertung des Service und Supports

Da es sich beim Cloud Computing um ein serviceorientiertes Model handelt, sollte sich ein Unternehmen für einen Anbieter entscheiden, der Vertrauen ausstrahlt, über eine ausgezeichnete Infrastruktur verfügt und messbare Ergebnisse nachweisen kann. Zudem sollte der Anbieter über eine hohe Reaktionsfähigkeit (schnelle Reaktion auf betriebliche Probleme) und einen guten proaktiven Support (z.B. Kundenbetreuung, vorbeugende Instandhaltung, Erhöhung der Ressoucen in einem Shared Umfeld etc.) verfügen.
Zwar sind maßgeschneiderte Verträge im Bereich des Cloud Computing nicht üblich, dennoch sollte der Anbieter bereit sein, unternehmensgerechte Service Level Agreements (SLAs) zu definieren. Darin enthalten sein sollten bspw. Performance, Verfügbarkeit, Bereitstellungszeit und ein Problemlösungszeitraum. Dazu gehören wiederum formale Eskalationsrichtlinien und definierte Sanktionen. Weiterhin könnte es interessant und notwendig sein, zu überprüfen, wie die bisherige Erfolgsbilanz bzgl. der Einhaltung der SLAs durch den Anbieter aussieht.

Die Suche nach einem flexiblen Anbieter

Das Interesse am Cloud Computing nimmt immer stärker zu. Jedoch ist kein Unternehmen bereit, seine Systeme vollständig in die Cloud zu verlagern. Daher planen die meisten Unternehmen mit dem Aufbau eines hybriden IT-Ökosystems. Also einer Hybrid Cloud, bei der die Ressourcen im eigene Rechenzentrum (ggf. Private Cloud) mit Ressourcen aus einer externen Cloud Infrastruktur (Public Cloud) kombiniert werden.

Unternehmen sollten hierbei darauf achten, dass der Anbieter in der Lage ist, hybride Umgebungen nahtlos zu integrieren und diese ebenfalls sorgfältig zu verwalten. So kann ein Unternehmen bei Bedarf die benötigten Cloud Services von dem Anbieter beziehen und damit seine internen IT Ressourcen und Möglichkeiten erweitern.

Verstehen des Abrechnungsmodells

Die nutzungsabhängige Abrechnung ist eine der attraktivsten Eigenschaften des Cloud Computing. Unternehmen erhalten dadurch die Möglichkeit, auf hohe Investitionen zu verzichten, indem die Kosten für die Beschaffung von Hard- und Software minimiert werden und wodurch sie ein vorhersehbares Betriebskostenmodell aufbauen können.

Dennoch sollten sich Unternehmen bewusst machen, dass jeder Anbieter seine eigene Art und Weise der Preisgestaltung für seine Services hat. Während einige bspw. eine Instanz pro Stunde oder pro Monat abrechnen, berechnen andere auf Basis der genutzten Ressourcen. Einige Anbieter erwarten z.B. eine Vorauszahlung für einen bestimmten Basis Service und in einigen Fällen muss für die Kundenbetreuung möglicherweise eine zusätzliche Gebühr bezahlt werden. Unternehmen müssen daher das Abrechnungsmodell des Anbieters verstehen, um spätere Überraschungen zu vermeiden und ggf. einen kundenspezifischen Preis auszuhandeln.

Auf in die Cloud

Um sicherzustellen, dass exakt die Cloud Services erworben werden, die ein Unternehmen auch wirklich benötigt, muss der Auswahlprozess klar definiert und sorgfältig vorgenommen werden. Dazu gilt es genau zu wissen, wie die Kriterien für die Nutzung von Cloud Computing heute aussehen und wie sie in Zukunft aussehen könnten bzw. sollen.


Bildquelle: http://www.wirtschaftsforum.de

Kategorien
Analysen

Die Herausforderungen des Cloud Computing: Verträge der Cloud Anbieter

Mit der Adaption von Cloud Computing Technologien und Services stehen Unternehmen Herausforderungen gegenüber, die es zu bewältigen gilt. Zum einen müssen organisatorische Voraussetzungen geschaffen und Aufklärungsarbeit innerhalb des Unternehmens geleistet werden, um die Akzeptanz und das Verständnis zu stärken. Zum anderen treffen aber auch viele “Widerstände” von außen auf das Unternehmen. Das sind neben Fragen bzgl. der Sicherheit und des Datenschutz ebenfalls Themen zur Verfügbarkeit und Performanz des ausgewählten Cloud Service sowie dessen Integrationsfähigkeit in die bereits bestehende IT-Infrastruktur und die nahtlose Unterstützung der vorhandenen Geschäftsprozesse. Und wie auch schon aus den klassischen Sourcingmöglichkeiten bekannt, besteht auch im Cloud Computing die Angst, in die Abhängigkeit eines einzigen Anbieters zu verfallen. So müssen auch hier die Interoperabilität und die Schnittstellen des Anbieters sowie ein Vergleich zu anderen Anbieteren vorgenommen werden.

Ist die Entscheidung für die Nutzung des Cloud Computing gefallen, ist es für Unternehmen zunächst an der Zeit, eine Ist-Analyse der bestehenden IT-Infrastruktur und Systeme vorzunehmen, um auf Basis dieser zu planen, welche Cloud Services adaptiert werden sollen. Hier kann bspw. eine Kosten-/ Nutzen-Analyse weiterhelfen, bei der auch eine Risikobewertung nicht fehlen sollte. Um erste Erfahrungen auf dem Cloud Computing Gebiet zu sammeln, sollte ein Pilotprojekt initiiert werden, welches auf Grund des Cloud Computing Konzepts schnell und kostengünstig gestartet werden kann. Dieses sollte einem Gesamtverantwortlichen “Cloud” untergeordnert sein, der als zentrale Stelle innerhalb der Organisation für die Adaption und Beratung der einzelnen Abteilungen für dieses Thema zuständig ist. Mit den gesammelten Erfahrungen können dann weitere Projekte gestartet werden und die Adaption unterschiedlicher Cloud Services sukzessive vorgenommen werden.

Verträge der Cloud Anbieter

Bevor ein Unternehmen einen Vertrag mit einem Cloud Anbieter eingeht, sollte es sich vorab intensiv mit dem Auswahlprozess und den Inhalten des Vertrags beschäftigen, um zu erkennen, welche Bedingungen im Vertrag auf jedenfall enthalten sein müssen.

Nach Frank Ridder sind die Standardverträge auf Grund der Compliance- und Datenschutz-Anforderungen der Cloud Anbieter ohne Anpassungen für Unternehmen so nicht annehmbar. Weiterhin fehlen “[…] Regelungen bezüglich der zukünftigen Entwicklung der Preise und Qualität der Dienste […]”. Zudem behalten sich viele Cloud Anbieter vor, “[…] die Bedingungen des Vertrages nach Abschluss im Ganzen oder teilweise zu ändern.” Ein Schutz vor steigenden Preisen ist ebenso wenig enthalten, wie “Eine Garantie, dass der Service in Zukunft verbessert werde oder zumindest auf dem gleichen Niveau bleibt […]”.

Ridder rät daher, “[…] mit den Providern zusätzliche Vertragsklauseln auszuhandeln, die vor Zusatzkosten oder steigenden Preisen schützen […]”. Zudem müssen insbesondere Unternehmen mit hohen Sicherheitsanforderungen unbedingt nachverhandeln. Dadurch kann sich der Preis aber auch das eigene Risiko erhöhen. Aus diesem Grund muss das Unternehmen bereits vor dem Weg in die Cloud eine detaillierte Risiko-Analyse vornehmen und diese während den gesamten Vertragsverhandlungen und der Vertragslaufzeit fortführen.


Bildquelle: http://imageshack.us

Kategorien
Analysen

Die 10 Cloud Computing Trends für das Jahr 2012

Neben dem Thema Datenintegration gehören neue Management-Praktiken zu den wachsenden Trends im neuen Business Markt. Entscheider sehen darin insbesondere eine Möglichkeit das Wachstum ihres Unternehmens zu stärken. Es handelt sich dabei allerdings auch um eine Antwort auf die Herausforderungen und die irreversible Nachfrage nach Vielseitigkeit, dem Speichern, der Skalierbarkeit und der Komplexität im Umgang mit Informationen.

Als Folge dieses Trends setzen immer mehr Unternehmen verstärkt auf die Cloud, um hier die Datenintegration und das Datenmanagement, innerhalb einer darauf spezialisierten Infrastruktur, zu betreiben und somit eine zuverlässige Informationsstruktur sicherzustellen.

Die folgenden 10 Cloud Computing Trends werden im Jahr 2012 zu einer höheren Zuverlässigkeit sowie einer sicheren cloud-basierten Datenintegration und weiteren Datenmanagement-Lösungen führen.

1. B2B verbessert die Agilität

Im Bereich Business-to-Customer (B2C) liegt der Fokus derzeit verstärkt auf den Themen Soziale Netzwerke, Mobile Cloud sowie Cloud Services im Allgemeinen. Dieser Trend hat ebenfalls einen Einfluss auf den Bereich Business-to-Business (B2B) und erhöht die Agilität für B2B-Anwendungen. Damit wird ebenfalls das Thema Consumer-as-a-Service (CaaS)-Plattform vorangetrieben, da immer mehr Unternehmen ihren Fokus auf Commerce-APIs legen.

2. Die Geschäftstätigkeit überwacht die Anforderungen

Als eine Folge des Cloud Computing befinden sich Unternehmen nun in der Situation ihre Prozesse mit denen in der Cloud und der lokalen Infrastruktur zu integrieren, was wiederum Anforderungen an ein effizientes Business Activity Monitoring (BAM) stellt. Ein transparenter Einblick in die Geschäftsprozesse verbessert die Kundenaktivitäten und Cloud-Services und sorgt dafür, dass das operative Geschäft effizient arbeitet.

3. Cloud Services… verhandeln, verhandeln, verhandeln, …

Outsourcing verändert die Art wie wir Geschäfte machen. Jedoch führt das zu zusätzlichen Herausforderungen im Cloud-Management. Das Thema Cloud Services Brokerage (CSB) wird weiter an Popularität gewinnen, da hierdurch ein hohes Maß an Technologie-Management von Cloud-Services sowie Datenmanagement und Integration zwischen verschiedenen Cloud Anbietern (CRM, EAI oder B2B) angeboten wird.

4. Data Governance wird populär

Immer mehr Daten und Informationen werden in die Cloud verlagert. Das führt zu einer erhöhten Nachfrage nach mehr Cloud-Storage, einem einfacheren Zugriff auf diese Daten, agilere Geschäftsprozesse, Audit-Protokolle und eine höhere Sicherheit, was alles eine effizientere Data Governance erfordert.

5. EIA wird zum Standard

Enterprise Application Integration (EAI) wird für die meisten Unternehmen zur gängigen Praxis da der Fokus verstärkt auf Business-to-Business (B2B) ausgerichtet wird. Immer mehr Unternehmen gehen in die Cloud um EAI zu nutzen und darüber eine nahtlose Datenintegration ihrer Back-End-Systeme und ihrer Cloud-Plattform zu ermöglichen. Die Datenintegration wird zudem durch Cloud-Anwendungen und Software-as-a-Service (SaaS) verstärkt.

6. Das Speichern riesiger Datenmengen

Migrieren Unternehmen in die Cloud steigt dadurch die Nachfrage nach mehr Cloud-Storage, der den Zugriff von mehreren Geräten und Orten ermöglicht. Zusätzlich zur Menge, wird die Nachfrage nach Schnelligkeit, Zuverlässigkeit und Sicherheit steigen. Davon werden viele Unternehmen profitieren, u.a. aus dem Bereich der Cloud Services Brokerage, der Datenbereitstellung und weiterer Cloud-Services und Anwendungen.

7. Master Data Management (MDM)

Master Data Management (MDM) wird sich innerhalb der Cloud weiterentwickeln, da immer mehr Anbieter von Cloud-Lösungen darauf zurückgreifen. Damit werden vollständige Cloud Service Pakete angeboten, in denen Themen wie Aggregation, Anreicherung, Manipulation, und die Datenqualität innerhalb der Cloud-Plattform sichergestellt werden.

8. Neue Geschäftsprozessmodelle

Cloud Computing hat die Art wie Geschäfte gemacht werden und gearbeitet wird verändert, indem es die Effizienz der Wartungs- und Beschaffungsprozesse verbessert. Dieser Trend führt dazu, dass sich die Steuerung und Verwaltung der Daten und Informationen von der internen IT in Richtung der Cloud-Anbieter und Lieferanten verlagert. Unternehmen stehen dadurch in der Pflicht sich verstärkt auf die Verbesserung des Business Process Modeling (BPM) und weiterer Innovation zu konzentrieren.

9. PaaS Integration

Die Popularität von PaaS (Platform-as-a-Service) wird weiterhin zunehmen, da es Unternehmen nach wie vor den Zugriff auf skalierbare Cloud Infrastrukturen ermöglicht, auf denen Anwendungen bequem bereitgestellt werden können. Darüber hinaus sind Unternehmen derzeit bei der Evaluierung von iPaaS, dass sie bei der Integration und dem Management unterstützen soll, während die Geschäftstätigkeiten weiterhin On-Premise stattfinden.

10. Zuverlässige Sicherheit für Daten in der Cloud

Cloud Computing hat die Durchführung von persönlichen und geschäftliche Transaktionen revolutioniert, was ebenfalls zu mehreren Risiken geführt hat. Aus diesem Grund hat sich die Sensibilität hinsichtlich der Privatsphäre und der Datensicherheit in kleinen und großen Unternehmen verstärkt und hat z.T. neue Gesetze hervorgebracht. Über die Sicherheit wird ernsthaft nachgedacht und die Kunden haben ein hohes Schutzbedürfnis bzgl. ihrer Online-Transaktionen, Kreditkartendaten und persönlichen Informationen entwickelt. Das gilt es zu berücksichtigen und ernst zu nehmen.


Bildquelle: http://siliconangle.com

Kategorien
Analysen

Die Herausforderungen des Cloud Computing: Latenz der Datenverbindungen

Mit der Adaption von Cloud Computing Technologien und Services stehen Unternehmen Herausforderungen gegenüber, die es zu bewältigen gilt. Zum einen müssen organisatorische Voraussetzungen geschaffen und Aufklärungsarbeit innerhalb des Unternehmens geleistet werden, um die Akzeptanz und das Verständnis zu stärken. Zum anderen treffen aber auch viele “Widerstände” von außen auf das Unternehmen. Das sind neben Fragen bzgl. der Sicherheit und des Datenschutz ebenfalls Themen zur Verfügbarkeit und Performanz des ausgewählten Cloud Service sowie dessen Integrationsfähigkeit in die bereits bestehende IT-Infrastruktur und die nahtlose Unterstützung der vorhandenen Geschäftsprozesse. Und wie auch schon aus den klassischen Sourcingmöglichkeiten bekannt, besteht auch im Cloud Computing die Angst, in die Abhängigkeit eines einzigen Anbieters zu verfallen. So müssen auch hier die Interoperabilität und die Schnittstellen des Anbieters sowie ein Vergleich zu anderen Anbieteren vorgenommen werden.

Ist die Entscheidung für die Nutzung des Cloud Computing gefallen, ist es für Unternehmen zunächst an der Zeit, eine Ist-Analyse der bestehenden IT-Infrastruktur und Systeme vorzunehmen, um auf Basis dieser zu planen, welche Cloud Services adaptiert werden sollen. Hier kann bspw. eine Kosten-/ Nutzen-Analyse weiterhelfen, bei der auch eine Risikobewertung nicht fehlen sollte. Um erste Erfahrungen auf dem Cloud Computing Gebiet zu sammeln, sollte ein Pilotprojekt initiiert werden, welches auf Grund des Cloud Computing Konzepts schnell und kostengünstig gestartet werden kann. Dieses sollte einem Gesamtverantwortlichen “Cloud” untergeordnert sein, der als zentrale Stelle innerhalb der Organisation für die Adaption und Beratung der einzelnen Abteilungen für dieses Thema zuständig ist. Mit den gesammelten Erfahrungen können dann weitere Projekte gestartet werden und die Adaption unterschiedlicher Cloud Services sukzessive vorgenommen werden.

Latenz der Datenverbindungen

Längere Distanzen zwischen dem Anwender und der Anwendung in der Cloud führen zu einer höheren Latenz beim Datentransfer. Hinzu kommt eine nicht ausreichende Bandbreite sowie Protokolle, die nicht für weite Strecken geeignet sind. Das hat zur Folge, dass ebenfalls die Geschwindigkeit der Anwendung darunter leidet und der Anwender so mit einer langsamen Anwendung arbeiten muss, wie er es von seinem lokalen System in der Regel nicht gewohnt ist. So kann es im schlimmsten Fall dazu kommen, dass das Öffnen und Speichern von Dokumenten in der Cloud ein paar Minuten in Anspruch nehmen kann.

Dietmar Schnabel nennt Ansätze um den Zugriff auf Anwendungen, die sich in der Cloud befinden, zu beschleunigen.

Die Mehrzahl der Unternehmen mit verteilten Standorten leiten den Datenverkehr der Außenstellen zuerst in die Zentrale, wo er über ein Internetgateway inkl. einem Content-Filter in das Internet übertragen wird. Das Nadelöhr ist damit dieser zentrale Gateway, den sich alle Cloud Anwendungen teilen müssen.

Die Außenstellen müssen daher mit einem eigenen lokalen Internetzugang ausgestattet werden, um den zentralen Gateway zu entlasten und jeder Anwendung damit mehr Bandbreite zur Verfügung zu stellen. Dafür müssen in den Außenstellen jedoch dieselben Richtlinien gelten wie bei dem beschriebenen zentralen Ansatz. Hinzu kommt, dass ebenfalls Sicherheitsmaßnahmen für Phishing-Attacken, Malware, Viren, Trojaner usw. vorgenommen werden. Weiterhin sollten die Gateways in den Außenstellen über Caching Funktionen verfügen, um redundanten Datenverkehr zu vermeiden.

Mit der Priorisierung von Anwendungen kann zudem die Latenz bei empfindlichen Protokollen verringert werden. Damit kann bspw. E-Mail Datenverkehr zweitrangig behandelt werden, wo hingegen Echtzeitdaten wie VoIP Daten, Videostreams oder Remoteverbindungen bevorzugt behandelt werden und weiterhin eine Mindestbandbreite zugewiesen bekommen können.

Ebenfalls hilfreich können “[…] Algorithmen zur Optimierung von ineffizienten Protokollen wie etwa Microsoft CIFS oder MAPI […]” sein, mit denen die Reaktionszeit der Anwendungen in der Cloud erhöht werden.


Bildquelle: http://meship.com

Kategorien
Analysen

Die führenden Cloud Computing Unternehmen

Während Hardwarehersteller derzeit schlechten Zeiten ausgesetzt sind, florieren Cloud Computing Anbieter. Ein Grund mal zu schauen, welcher Anbieter auf Basis von harten Fakten (Zahlen) der derzeitige Primus ist.

CloudTimes hat anhand von Yahoo Finance und YCharts dazu ein Ranking der führenden Cloud Computing Unternehmen aufgestellt.

Verwundern wird der erste Platz niemanden. Die Amazon Web Services haben nun einmal einen Vorsprung von mehr als sechs Jahren und nutzen diesen gnadenlos aus. Mit ca. 60.000 Nutzern vertrauen neben Pharma-Unternehmen, Großbanken und mehrere weitere große Unternehmen auf die Cloud Infrastruktur des Anbieters aus Seattle.

Mit fast 80.000 weltweit verteilten Servern (Stand: 3. Quartal 2011) folgt Rackspace auf dem zweiten Platz. Auf dem dritten Platz landet IBM gefolgt von VMware, Microsoft, Salesforce, Google und EMC.

Unternehmen Kurs-Gewinn-Verhältnis 3-Jahres Ertragswachstum Gewinnspanne
Amazon 102.5 122.5% 2%
Rackspace 92.4 82.4% 6.8%
IBM 14.6 35.8% 14.8%
VMWare 54.3 125.5% 19.2%
Microsoft 10.7 53% 32.6%
Salesforce 7,798.0 91.6% 0.2%
Google 19.7 91.6% 25.7%
EMC 23.5 71.1% 12.3%

Quelle: http://cloudtimes.org
Bildquelle: http://cloudtimes.org