Kategorien
Management

Interview mit Thomas Uhl (Deutsche Cloud)

Im Rahmen des CloudOps Summit 2011 in Frankfurt haben wir mit einzelnen Referenten Interviews geführt. Heute: Thomas Uhl.

Warum gibt es fast keine kleinen IaaS Provider/ Startups in Deutschland?
Deutschland ist in Sachen Cloud Computing sicherlich skeptischer als andere Länder. Solange wird das Datenschutz Thema noch als Vorwand dienen. Deutschland ist in Sachen IT-Strartups sicherlich auch kein
Musterbeispiel. Viele Investoren haben extreme Problem in der Finanzierung von Software und Service Startups.

In welchem Cloud Computing Bereich sehen Sie das größte Wachstum der nächsten Jahre?
Storage as a Service. Jeder will von überall aus auf seine Daten zugereifen können. Daher sind Startups wie Filespots und Petaera sicherlich richtungsweisend.

Wo sehen Sie derzeit noch die größten Herausforderungen des Cloud Computing?
In der Akzeptanz der Deutschen Anwender und vor allem der IT-Abteilungen.

Führt Cloud Computing zu einer neuen Generation von Schatten-IT?
Cloud Computing ist die neue Sonne der IT. Verstaubte und unflexible interne IT-Systeme werden in den Schatten gestellt.

Wie sehen Sie den Cloud Computing Markt in 10 Jahren?
Die interne IT wird zur Ausnahme.

Wie wichtig ist Open Source für das Cloud Computing?
Alle relevanten Cloud-Anbieter nutzen OpenSource. Leider schaffen sie meist einen LockIn auf der Basis ihrer Add-Ons. OpenSource kann aber helfen, LockIns zu vermeiden. Daher haben wir die Deutsche Wolke auf
OSS aufgebaut.

Welche(s) Open Source Software/ Projekt hat für Sie den bisher größten Beitrag zum Cloud Computing geleistet?
Linux und die OpenSource Hypervisors XEN, kvm und VirtualBox.

Wie sehen Sie den Cloud Computing Standort Deutschland?
Er ist ideal. Es sind kaum Naturkatastrophen und Energieversorgungsprobleme zu befürchten. Die Sensibilität für Datenschutz zwingt die Anbieter sich hier in Sachen Compliance etwas einfallen zu lassen. Ich sehe Cloud Computing Made in Germany als einen zukünftigen Export-Schlager.

Was sind die Bestandteile einer hochsicheren Cloud-Anwendung?
Zunächst natürlich der Standort, technische Redundanzen, backdoor-freie Verschlüsselung auf allen Ebenen und zertifizierte Betriebsprozesse.

Wo sehen Sie die größten Gefahren und Angriffspotentiale von Cloud-Anwendungen?
Der Mensch wir leider immer ein fast nicht vermeidbares Rest-Risiko darstellen.

Sind die aktuellen Diskussionen bzgl. des Datenschutz und der Datensicherheit wirklich (nur) ein Problem des Cloud Computing?
Nein. Natürlich nicht. Leider wird der Datenschutz oft als Vorwand genutzt, Cloud Computing zu verteufeln. Ich hoffe das wird sich bald ändern. Deutsche Cloud Anbieter haben hier aber klare Standort Vorteile,
die sie nutzen sollten.


Über Thomas Uhl

Uhl studierte Medizinische Informatik in Heidelberg und gründete im Jahr 1994 die Thinking Objects Software GmbH in Würzburg. Zeitgleich war er Mitautor eines der ersten Linux-Bücher “Linux, vom PC zur Workstation”. Thomas Uhl war mehrere Jahre im Vorstand des LIVE Linux-Verbands und ist Gründungs- und Vorstandsmitglied der Lisog. Im Rahmen seiner Tätigkeit für die Lisog verantwortet er die Definition des “Open Source Cloud Reference Stacks”, einer Aggregation verschiedener OpenSource-Komponenten einzelner Lisog-Mitglieder zu einem Lösungsstack. Darüber hinaus ist er Aufsichtsrat der Topalis AG in Stuttgart, der Grau Data AG in Schwäbisch Gmünd und der Shift Consulting AG in Andechs. Als Gründungsmitglied der GENO Gesundheitsnetze eG setzt er sich für die intersektorale Vernetzung des medizinischen Versorgungssystems ein. Seit Februar 2011 ist Thomas Uhl Mitglied des Advisory Boards der Sones GmbH in Erfurt. Uhl ist darüber hinaus einer der Initiatoren der Deutschen Wolke.

Kategorien
Management

Die Herausforderungen des Cloud Computing: Datenschutz und Datensicherheit

Mit der Adaption von Cloud Computing Technologien und Services stehen Unternehmen Herausforderungen gegenüber, die es zu bewältigen gilt. Zum einen müssen organisatorische Voraussetzungen geschaffen und Aufklärungsarbeit innerhalb des Unternehmens geleistet werden, um die Akzeptanz und das Verständnis zu stärken. Zum anderen treffen aber auch viele “Widerstände” von außen auf das Unternehmen. Das sind neben Fragen bzgl. der Sicherheit und des Datenschutz ebenfalls Themen zur Verfügbarkeit und Performanz des ausgewählten Cloud Service sowie dessen Integrationsfähigkeit in die bereits bestehende IT-Infrastruktur und die nahtlose Unterstützung der vorhandenen Geschäftsprozesse. Und wie auch schon aus den klassischen Sourcingmöglichkeiten bekannt, besteht auch im Cloud Computing die Angst, in die Abhängigkeit eines einzigen Anbieters zu verfallen. So müssen auch hier die Interoperabilität und die Schnittstellen des Anbieters sowie ein Vergleich zu anderen Anbieteren vorgenommen werden.

Ist die Entscheidung für die Nutzung des Cloud Computing gefallen, ist es für Unternehmen zunächst an der Zeit, eine Ist-Analyse der bestehenden IT-Infrastruktur und Systeme vorzunehmen, um auf Basis dieser zu planen, welche Cloud Services adaptiert werden sollen. Hier kann bspw. eine Kosten-/ Nutzen-Analyse weiterhelfen, bei der auch eine Risikobewertung nicht fehlen sollte. Um erste Erfahrungen auf dem Cloud Computing Gebiet zu sammeln, sollte ein Pilotprojekt initiiert werden, welches auf Grund des Cloud Computing Konzepts schnell und kostengünstig gestartet werden kann. Dieses sollte einem Gesamtverantwortlichen “Cloud” untergeordnert sein, der als zentrale Stelle innerhalb der Organisation für die Adaption und Beratung der einzelnen Abteilungen für dieses Thema zuständig ist. Mit den gesammelten Erfahrungen können dann weitere Projekte gestartet werden und die Adaption unterschiedlicher Cloud Services sukzessive vorgenommen werden.

Datenschutz und Datensicherheit

Während der Nutzung einer Public Cloud werden die Daten eines Unternehmens immer an einen Cloud Anbieter übertragen. Aus diesem Grund sind viele Kritiker der Meinung, dass Cloud Computing von der rechtlichen Seite betrachtet nicht zulässig sei, da die Anforderungen des Datenschutzes an dieser Stelle nicht erfüllt werden.

Arnd Böken zeigt, dass es rechtlich ohne weiteres möglich ist, personenbezogene Daten innerhalb einer Public Cloud verarbeiten zu lassen, wenn das Unternehmen und der Cloud Anbieter bestimmte Voraussetzungen einhalten. Der Cloud Anbieter wird dafür als Auftragsdatenverarbeiter für das Unternehmen tätig.
Nach §11 Bundesdatenschutzgesetz (BDSG) muss das Unternehmen den Cloud Anbieter zunächst sorgfältig auswählen, um diesen die Auftragsdatenverarbeitung vornehmen zu lassen. Dazu hat es die Pflicht, “[…] zu prüfen, ob der Anbieter geeignete technische und organisatorische Schutzmaßnahmen getroffen hat, die Daten sicher zu verarbeiten.” Um das sicherzustellen, muss das Unternehmen das Schutzkonzept des Cloud Anbieters überprüfen. Grundsätzlich müssen dabei die folgenden Grundsätze der Datensicherheit bei der Verarbeitung personenbezogener Daten nach der Anlage zu § 9 des Bundesdatenschutzgesetz (BDSG) eingehalten werden:

  • Zutrittskontrolle: Maßnahmen, die Unbefugte am Zutritt zu Datenverarbeitungsanlagen hindern. Das gilt für Außenstehende sowie für Mitarbeiter aus anderen Unternehmensbereichen oder Mitarbeiter außerhalb ihrer Arbeitszeit, etwa durch Gebäudeüberwachung, Einrichten von Sicherheitszonen, Berechtigungsausweise und Alarmanlagen.
  • Zugangskontrolle: Maßnahmen, die Unbefugte daran hindern, Datenverarbeitungssysteme zu nutzen, etwa durch Passwortvergabe, sowie Schutzmaßnahmen gegen Eindringen wie Firewalls.
  • Zugriffskontrolle: Schutzmaßnahmen, damit Mitarbeiter Daten nur im Rahmen ihrer Zugriffsberechtigung einsehen und nutzen können sowie der Schutz bei Nutzung der Daten und nach Speicherung. Zum Beispiel eine eindeutige Zuweisung von Zugriffsberechtigungen, wirksame Prüfverfahren und Verschlüsselung.
    Weitergabekontrolle: Schutz der Daten bei Speicherung oder Weitergabe einschließlich einer Dokumentation, an welche Stellen Weitergabe vorgesehen ist. Durch genaue Dokumentation der beteiligten Rechenzentren, Protokollierung der Speicherorte der Daten, Regelungen zur Verschlüsselung und zuverlässige Löschverfahren.
  • Eingabekontrolle: Protokollierung, wann und von wem welche Daten eingegeben, verändert oder entfernt worden sind.
  • Auftragskontrolle: Daten dürfen bei Auftragsdatenverarbeitung nur nach den Weisungen des Auftraggebers verarbeitet werden. Unter anderem durch eine eindeutige Regelungen zur Zweckbindung, zu Zugriffsbeschränkungen, zur Aufbewahrung, zum Verlust von Datenträgern, zu Löschverfahren und vollständiger Herausgabe nach Auftragsende.
  • Verfügbarkeitskontrolle: Schutzmaßnahmen gegen zufällige Zerstörung oder Verlust von Daten. Beispielsweise durch regelmäßige Sicherung, USVs und Katastrophenpläne.
    Trennungskontrolle: Systeme müssen Daten, die zu unterschiedlichen Zwecken erhoben wurden, getrennt verarbeiten können. Zum Beispiel durch Trennung über Zugriffsregelung.

Des Weiteren sind Zertifizierungen des Anbieters unverzichtbar sowie eine Bestätigung über die Einhaltung des oben genannten Schutzkonzeptes.

Eine Auftragsdatenverarbeitung setzt gleichermaßen voraus, “[…] dass die Daten nur in Rechenzentren innerhalb des Europäischen Wirtschaftsraums (EWR), das heißt EU plus Norwegen, Island und Liechtenstein, verarbeitet werden.” Aus diesem Grund haben viele Cloud Anbieter ebenfalls EU/EWR-Clouds im Angebot, z.B. dann, “[…] wenn ein Unternehmen seine Buchführung in die Cloud auslagern will.”
Zudem sollte ein Unternehmen mit dem Cloud Anbieter eine Vertraulichkeitsvereinbarung abschließen, bevor es diesem weitere Interna mitteilt.

Kategorien
Management

Das Video zu meiner Paneldiskussion während des BMC User Forum 2011 ist online

Am 14. und 15. November 2011 fand in Berlin das BMC User Forum statt, welches sich mit den Themen IT Service Management, Infrastructure & Application Management (BMC ProactiveNet Performance Management u. ä.), Automation, Cloud Computing, Control-M und Middleware Management – für verteilte sowie Mainframe Umgebungen – beschäftigte.

Am 15. November war ich zu einer Podiumsdiskussion mit Paul Avenant (BMC President of Enterprise Service Management) zum Thema „How mobility, SaaS and Social Media are changing IT“ eingeladen worden.

http://service.twistage.com/plugins/player.swf?p=bmctv-production&v=af7f9c3b10d49

Quelle: Video

Kategorien
Management

Exklusiv: Interview mit Holger Sirtl von Microsoft Windows Azure

Es wird viel über Cloud Services und deren Anbieter gesprochen und geschrieben. Dabei bleiben jedoch die treibende Kräfte hinter den Angeboten meistens im Schatten. Allerdings sind es gerade sie, die entscheidenden Anteil an der Entwicklung haben. In diesem Interview beantwortet Holger Sirtl aus dem Microsoft Windows Azure Team 10 Fragen zum Thema Cloud Computing.

Holger, stell Dich bitte kurz vor.
Gerne. Mein Name ist Holger Sirtl. Seit ca. 5 Jahren bin ich jetzt bei Microsoft beschäftigt und dort als sogenannter Architect Evangelist zuständig für die Themen Cloud Computing und Windows Azure Platform. Eine wirklich spannende Aufgabe.

Microsoft ist neben den Office- und Collaborationstools mit Windows Azure in der Cloud präsent. Kurz Zusammengefasst, was sind die Stärken von Windows Azure?
Windows Azure ist Microsofts Platform-as-a-Service-Angebot, d.h. die Windows Azure Platform fasst verschiedene Dienste zusammen, die von Entwicklern dazu genutzt werden können, eigene Cloud-basierte Anwendungen zu schreiben und in der Cloud zu betreiben. Die Dienste sind dabei so gehalten, dass sie möglichst einfach genutzt werden können. Dadurch können sich Entwickler wirklich auf ihre Kernaufgabe – das Schreiben von Software – fokussieren. Fragen der zugrundeliegenden Infrastruktur, wie das Konfigurieren virtueller Maschinen, oder des Betriebs wie das Einspielen von Betriebssystem-Upgrades oder Hotfixes bleiben dem Entwickler erspart. Das übernimmt alles die Plattform vollautomatisch.

Welche Funktion in Windows Azure ist für Dich das Highlight?
Natürlich umfasst die Plattform viele tolle Services. Wenn ich aber einen Dienst herauspicken soll, dann vielleicht den Access Control Service, da an ihm das Wesen von „Platform-as-a-Service“ besonders deutlich wird. Du brauchst Authentifizierung über Facebook-ID oder Windows Live ID in Deiner Anwendung? Kein Problem: mit wenigen Mausklicks ist der Access Control Service konfiguriert und in Deine eigene Anwendung – übrigens egal wo sie letztlich betrieben wird – integriert. Programmierung ist dann nur noch zur Auswertung der vom Access Control Service ausgestellten Security Token notwendig.

Werden wir mal generischer. Was sind für Dich DIE Hauptargumente Cloud Computing einzusetzen?
Die Wesensmerkmale der Cloud, d.h. bedarfsgerechte Bereitstellung von quasi beliebig vielen IT-Ressourcen, nutzungsabhängige Abrechnung, standardisierte Zugriffsschnittstellen geben bereits Hinweise auf deren Vorteile: Die Cloud bietet die Möglichkeit, in kürzester Zeit, ohne Vorab-Investitionen IT-Ressourcen zu nutzen und diese Nutzung bei Ende des Bedarfs auch sofort wieder einzustellen. Man zahlt nur für das, was man verbraucht. Durch die Standard-Schnittstellen (z.B. RESTful Services) wird die Nutzung denkbar einfach. Heißt also: wann immer man sich keine großen Gedanken über Kapazitätsplanung machen möchte oder eine solche Planung schwer durchführbar ist (weil man entweder die zukünftige Last schwer abschätzen kann oder die Last stark schwanken wird und man nicht unnötig Ressourcen für vermeintliche Spitzenlasten vorhalten möchte) kann die Cloud ihre Stärken ausspielen. Und das bei minimalem Kostenrisiko für den Nutzer.

Zu Beginn des Cloud Computing Zeitalters war der Tenor, auf Grund von Kosten, Flexibilität etc. Public Clouds zu nutzen. In Private Clouds hingegen würde kein nennenswerter Vorteil gesehen, da die Komplexität im eigenen RZ bleibt bzw. noch erhöht wird. Diese Stimmung hat sich bzgl. Datenschutzthemen etc. geändert. Wie stehst Du zu dem Thema Private oder Public Cloud? Ist die Hybrid Cloud der goldene Mittelweg?
Das Konzept der Private Cloud, d.h. Einsatz von Cloud Technologien (Virtualisierung, automatisierte Provisionierung von IT-Ressourcen etc.) im eigenen Rechenzentrum hat durchaus seine Daseinsberechtigung. Es gibt Fälle, in denen rechtliche Vorgaben oder branchenspezifische Regelungen (z.B. in der Finanzbranche) den Speicherung und Verarbeitung von Daten im eigenen Rechenzentrum erzwingen. Die Private Cloud kann jedoch nicht alle zuvor genannten Stärken der Cloud ausspielen. So sind die zur Verfügung stehenden Ressourcen begrenzt durch die Infrastruktur des eigenen Rechenzentrums. Darüber hinaus fallen Kosten an, die unabhängig von der tatsächlichen Nutzung sind. Sofern die Nutzung gut berechenbar ist (weil z.B. eine gleichmäßige Last auf den Systemen zu erwarten ist) ist dies aber vertretbar. Als Fazit würde ich deshalb formulieren „Public Cloud wo möglich, Private Cloud wo nötig“. Eine Kombination aus Public und Private Cloud ist deshalb in der Tat ein guter Mittelweg. Allerdings werden sich meiner Meinung nach langfristig die Public Cloud Angebote durchsetzen.

PaaS wird im Vergleich zu IaaS und SaaS der größte Wachstumsmarkt in den nächsten Jahren zugesprochen. Woran liegt das Deiner Meinung nach?
Ich denke, auf Infrastruktur-Ebene werden wir in den nächsten Jahren durch Standardisierung der Angebote eine Konsolidierung sehen. Dies hat zur Folge, dass sich Anbieter auf dieser Ebene kaum mehr voneinander differenzieren können und der Wettbewerb primär über den Preis der angebotenen Dienste stattfindet. In der Folge werden die Anbieter zunehmend Dienste auf einer höheren Abstraktionsebene, der Plattform-Ebene, sehen. Die Bereitstellung derartiger Plattform-Dienste wird dabei nicht nur von den großen Cloud-Anbietern sondern auch von vielen anderen Software-Herstellern, die auf die jeweiligen Plattformen aufsetzen, erfolgen. Hier tut sich also ein großer Markt mit entsprechenden Wachstumsprognosen auf. Auf der Software-Ebene sehe ich übrigens durchaus auch ähnliches Wachstum.

Welche weitere Servicesart neben PaaS, IaaS und SaaS wird sich in Zukunft Deiner Meinung nach entwickeln und eine wichtige Rolle spielen?
Das hängt ein wenig davon ab, wie eng oder weit man die genannten Konzepte fasst. Neben diesen Diensten sehe ich noch Potenzial für Integrationsdienste die die Brücke zwischen heterogenen Cloud-Services verschiedener Provider schlagen können. Auch für Business-Process-as-a-Service, d.h. die Weiterentwicklung von SaaS-Diensten zu geschäftsprozessorientierten Diensten sehe ich einen Markt.

Das Thema Closed Source vs. Open Source wird seit Jahren diskutiert. Nun zielt die Thematik ebenfalls auf Cloud Infrastrakturen ab. Wie stehst du zu dem Thema bezogen auf Clouds?
Serviceorientierung ist ein weiteres Wesensmerkmal der Cloud. Zugriff auf die Funktionalität der Services erfolgt über Standardschnittstellen, die innere Funktionsweise der Services ist für die Nutzung irrelevant, d.h. liegt in der Verantwortung des Service Providers. Hier liegt das Optimierungspotenzial für den Provider und auch die Möglichkeit, Wettbewerbsvorteile zu erzielen. Aus diesem Grund liegt es nicht unbedingt im Interesse des Providers, Implementierungsdetails (also auch den Sourcecode) offenzulegen. Das Spiel kann sich ändern, wenn bei der Optimierung ein gewisses Maximum erreicht ist, d.h. Wettbewerbsvorteile kaum mehr erzielt werden können. Dann kann es ein Weg sein, Code offenzulegen, um der eigenen Technologie zu größerer Verbreitung zu verhelfen. Dies ist etwas, was wir im Infrastrukturbereich beobachten. Es ist durchaus interessant, über den Aufbau von Clouds mit Open Source Technologien nachzudenken. Dabei bewegen wir uns allerdings typischerweise im Private-Cloud-Umfeld mit den bereits genannten Einschränkungen.

Microsoft hat sich vor längerer Zeit auch stückweit für das Thema Open Source geöffnet. Wird es Bestrebungen geben, dass sich MS auch in der Cloud für Open Source öffnet oder wäre das zu weit hergegriffen?
Ich denke, Microsoft hat sich dem Thema nie wirklich komplett verschlossen. Tatsächlich sollte man nicht vergessen, dass die große Mehrheit an Open Source Software auf Microsoft-Betriebssystemen läuft. Und hier fügt sich Windows Azure absolut ein. Es ist absolut möglich und willkommen, beispielsweise .NET-, Java- oder PHP-basierte Open Source Software auf Windows Azure zu betreiben. Die Differenzen mit der Community begründen sich wahrscheinlich mit der Tatsache, dass dort Open Source oft gleichgesetzt wird mit der Offenlegung des Sourcecodes oder kostenlosen Bereitstellung des Betriebssystems. Dies ist aktuell bei Windows Azure ebenso wenig gegeben wie bei den anderen Microsoft-Betriebssystemen.

Bisher werden die Office- und Collaborationtools in der Cloud mehr gepushed als Windows Azure. Was können wir in Zukunft von Microsoft noch in der Cloud erwarten?
Dass die Office- und Collaborationtools rund um Office365 sichtbarer vermarktet werden, liegt womöglich daran, dass die Zielgruppe (Fachanwender) breiter gestreut ist als dies bei Windows Azure (Zielgruppe Entwickler) der Fall ist. Von der Bedeutung her sind beide Services gleichwertig. In der Tat ergeben sich in der kombinierten Nutzung von Office365 und Azure ja auch interessante Szenarien. Microsoft ist absolut „Cloud-ready“. Entsprechend werden auch alle Services weiterentwickelt. Azure wird weitere Plattformdienste erhalten, bestehende werden weiterentwickelt. Zum Teil sind Weiterentwicklungen ja auch schon in Form sogenannter Community Technology Previews zugreifbar (z.B. SQL Azure DataSync oder SQL Azure Reporting Services). Darüber hinaus wird Microsoft weiter an der „Symmetrie“ von Cloud und vor-Ort-IT arbeiten. D.h. alle Werkzeuge, Anwendungen, Anpassungen etc., die in der Cloud laufen, werden auch lokal laufen (und umgekehrt). Damit überlässt es Microsoft seinen Kunden und Partnern, den bestgeeigneten Ausführungsort für IT zu bestimmen.

Kategorien
Management

Wollen Sie "Cloud-Experte" werden?

Richtig, Cloud Computing ist angekommen und wird bleiben. Somit ändern sich auch die Erwartungen von Unternehmen, insbesondere Beratungshäuser, an ihre Mitarbeiter. Jeder Berater muss nun zugleich auch ein „Cloud-Experte“ sein. Diesen Braten scheint auch der SaaS-EcoSystem e.V. gerochen zu haben und bietet die Möglichkeit ein gleichnamiges Zertifikat zu erlangen.

Der SaaS-EcoSystem e.V. möchte Anbietern wie auch Nutzern professionelles Know-how anbieten, wodurch Experten aus dem SaaS-EcoSystem über einen internen Prüfprozess den Status eines „Cloud-Experten“ erlangen können. Anhand eines Fachthemas, das durch Veröffentlichungen von Aufsätzen und Checklisten aufzubereiten und auf Basis von Referenzen nachzuweisen ist, muss der Prüfling sein Expertenwissen nachweisen. Sind alle Rahmenbedingungen erfüllt, wird der Kandidat am Ende von einem Gremium zertifiziert.

Die „Cloud-Experten“ zeigen sich im Anschluss dafür verantwortlich auf Veranstaltungen zu sprechen, bzw. weiteres Wissen für das SaaS-EcoSystem zu publizieren.

Was ist laut dem SaaS-EcoSystem e.V. ein Cloud Experte?

Für den SaaS-EcoSystem e.V. stellt der „Cloud-Experte“ ein Qualitäts-Zertifikat für Saas & Cloud Computing Berater dar. Dabei dient das SaaS-EcoSystem als neutrale Prüfinstanz der Angaben des Beraters und vergibt diesem das personenbezogene Qualitäts-Zertifikat für sein Fachgebiet.

Nach Angaben des SaaS-EcoSystem e.V. besteht der Nutzen für den „Cloud-Experten“ darin, dass Anbieter wie auch Anwender damit eine Entscheidungshilfe erhalten. Ein Experte kann neben dem Schreiben und Erstellen von Fachartikeln und Checklisten ebenfalls Qualitätskontrollen vornehmen. Außerdem soll sich ein Kunde darauf verlassen können, dass der Berater über bestimmte Eigenschaften eines Kriterienkatalogs für „Cloud-Experten“ verfügt. So soll jeder „Cloud-Experte“ über tiefes Fachwissen und Basis Qualifikationen sowie vorhandene Referenzen verfügen und auf Wunsch seine selbst erstellten Unterlagen bereitstellen. Im Grunde geht es laut dem SaaS-EcoSystem e.V. also darum, das SaaS-EcoSystem zu gestalten und zu präsentieren.

Was sind die Teilnahmebedingungen?

Zunächst muss sich der Prüfling einem Fachgebiet zuwenden. Das kann entweder als Berater in den Bereichen Business oder Technologie sein, als Cloud Anbieter bzw. aus der Sicht eines Cloud Nutzers. Darüber hinaus muss er weitere Bedingungen erfüllen:

  • Eine Referenz für den Start.
  • Ein Fachartikel passend zum Spezialgebiet.
  • Eine Checkliste für die Zielgruppe zum Einstieg in das Thema.
  • Einen Vortrag bzw. Präsentation zum Spezialgebiet.
  • Eine Präsentation zur Prüfung und auf Vereinsveranstaltungen im Layout des SaaS-Ecosystem.
  • Das Profil und die Unterlagen müssen auf der Website veröffentlicht sein.

Dem SaaS-EcoSystem e.V. zu Folge wird ein besonderer Wert auf die Referenzen, Fachartikel und Checklisten gelegt.

Wie hoch sind die Kosten für die Zertifizierung?

Die Kosten für die Zertifizierung sind im Mitgliedsbeitrag des SaaS-EcoSystem e.V. enthalten. Für jeden weiteren Teilnehmer zahlt ein Mitgliedbetrieb zusätzlich 480,00€.

Fazit

Zuden bisher zertifizierten „Cloud-Experten“ gehören Michael Nowarra als Experte für das Thema „SaaS-Partnernetzwerke“ und Frank Türling als Experte für das Thema „Kundengewinnung in der Cloud“.

Hierbei handelt es sich allerdings um Themen für Anbieter in der Cloud. „Cloud-Experten“ für Kunden wurden bisher noch nicht zertifiziert. Diese sollten allerdings tunlichst folgenden, denn sollte ein „Cloud-Experte“ sich nicht doch eher mit technischen und strategischen Themen auseinandersetzen und Verständnis dafür haben, wie Unternehmen Cloud Computing für sich am besten nutzen können und sollten, bzw. Anbieter beraten, wie diese Cloud Services am besten bereitstellen sollten, anstatt Marketing Themen zu beherrschen. Ansonsten sind wir wieder ganz schnell beim Thema „Cloud Washing“!

Mehr unter http://www.saasecosystem.org/cloud-experte

Kategorien
Management

Do you "Trust in Cloud"?

Die Transparenz und Glaubwürdigkeit aber besonders das Vertrauen in Cloud Computing Anbieter ist insbesondere in Deutschland noch eher als gering einzuschätzen. Zu groß sind die Bedenken die eigenen Daten, Prozesse usw. in die Hände eines Anbieters in der Cloud zu legen. Do you „Trust in Cloud“? Diese Frage stellt sich auch der SaaS-EcoSystem e.V. und hat eine Zertifizierung für SaaS Anbieter ins Leben gerufen.

Das SaaS-EcoSystem wurde im April 2010 gegründet und fördert nach eigenen Angaben Unternehmen aus dem deutschsprachigen Raum, die im SaaS & Cloud-Umfeld tätig sind durch praktische und pragmatische Unterstützung entlang der SaaS-Wertschöpfungskette.

Das sogenannte „Trust in Cloud“-Zertifikat soll als Entscheidungshilfe für Unternehmen und Anwender dienen und sich als ein Qualitäts-Zertifikat für SaaS und Cloud-Lösungen etablieren. Auf Basis des Zertifikats sollen Nutzer die Möglichkeit erhalten Cloud-Lösungen objektiv zu vergleichen und an Hand aufbereiteter Informationen zur einer sicheren Entscheidung kommen. SaaS bzw. Cloud Anbieter soll das „Trust in Cloud“-Zertifikat dabei helfen sich mittels eines Qualitätszertifikats erfolgreich am Markt zu positionieren.

Wie wird zertifiziert?

Das „Trust in Cloud“-Zertifikat basiert auf einem Katalog mit 30 Fragen, der in 6 Kategorien á 5 Fragen unterteilt ist. Die Fragen müssen durch den Prüfling mit Ja oder Nein beantwortet werden und zudem nachgewiesen werden. Beantwortet der Cloud Anbieter eine Frage mit Ja, erhält er dafür eine „Cloud“. Der Anbieter muss in jeder Kategorie mindestens drei Fragen mit Ja beantworten können. Darüber hinaus gilt es für den Anbieter mindestens drei Kundenreferenzen nachzuweisen, die sein Produkt aktiv nutzen. Auch hier erhält der Anbieter für jede nachgewiesene Referent eine „Cloud“. Der Anbieter erhält das „Trust in Cloud“-Zertifikat, wenn er mehr als 60 % der Fragen mit Ja beantworten und mindestens drei Referenzen nachweisen konnte.

Die „Trust in Cloud“ Checkliste umfasst die Kategorien Referenzen, Datensicherheit, Qualität der Bereitstellung, Entscheidungssicherheit, Vertragsbedingungen, Serviceorientierung und Cloud-Architektur. Die Liste kann hier kostenlos eingesehen und heruntergeladen werden.

Was sind die Voraussetzungen?

Zur Teilnahme ist jeder Softwareanbieter berechtigt, der über eine Standard-Lösung verfügt, die auf einer Cloud-Architektur basiert. Zudem muss er folgende Voraussetzungen erfüllen.

  • Erfolgreiche Registrierung (auf dieser Webseite)
  • Ausgefülltes Anbieter-Profil (nach Registrierung)
  • Regelmäßige Aktualisierung des Profils

Zudem existieren Ausschlusskriterien, die nicht zu einer Teilnahme an „Trust-in-Cloud“ berechtigen und zu einem Entzug des Zertifikats führen können. Hierbei handelt es sich um die Folgenden.

  • Falsche Angaben bei der Checkliste
  • Keine Aktualisierung des Anbieter-Profils
  • Insolvenzanmeldung

Was kostet die Zertifizierung?

Für die Teilnahme an dem „Trust in Cloud“-Zertifikat werden 1.500,00 € pro Jahr pro Lösung berechnet. Für jede weitere Lösung entstehen Kosten von 480,00 € pro Jahr. Die Gebühr wird ebenfalls berechnet, wenn es nicht zu einer erfolgreichen Zertifizierung kommt und muss direkt bei der Anmeldung bezahlt werden. Wurde die Lösung erfolgreich zertifiziert, muss die Teilnahmegebühr jährlich entrichtet werden.

Bisher haben vier Lösungen erfolgreich das „Trust in Cloud“-Zertifikat erhalten. Darunter TecArt mit CRM Mobile, Xsite mit E-Commerce as a Service, forcont mit ECM Services und BEO Software mit Import Export Versand.

Mehr unter http://www.saasecosystem.org/trust-in-cloud/.

Kategorien
Management

Vertrauen ist gut, Kontrolle ist besser! Das EuroCloud SaaS Star Audit.

Im stetig wachsenden Cloud Computing Markt wird es immer schwieriger den Überblick zu behalten. Tagtäglich drängen mehr Anbieter auf den Markt, um ihre Services der Öffentlichkeit, insbesondere Unternehmen, schmackhaft zu machen. Software-as-a-Service Lösungen haben bzgl. der Marktpräsenz die Nase vorn. Im Vergleich zu den anderen Cloud Servicearten wie bspw. IaaS oder PaaS, sind diese relativ einfach umzusetzen, da die dafür benötigte Infrastruktur in der Regel von einem Infrastrukturdienstleister bezogen wird. So wird es für Unternehmen immer schwieriger den für sich richtigen Anbieter zu finden. Hinzu kommen die Transparenz und das damit verbundene Vertrauen zu dem Dienstleister. Die eigenen Daten werden schließlich nicht jedem anvertraut.

Der EuroCloud e.v. hat dazu speziell für SaaS Anbieter ein Zertifizierungsprogramm gestartet. Das sogenannte EuroCloud SaaS Star Audit soll jedem Unternehmen helfen, welches eine dezidierte SaaS Anwendung betreibt. Der Anwender soll damit im Umkehrschlus ein aussagefähiges Testat zur Auswahlentscheidung erhalten. Ziel des gesamten Audits ist für ein hohes Maß an Sicherheit und Transparenz für Anwender und Betreiber zu sorgen.

Der Inhalt des Audits umfasst das allgemeine Profil des Anbieters, die Verträge und Compliance sowie das Thema Datenschutz. Darüber hinaus werden die allgemeine Sicherheit, der Betrieb und die Infrastruktur sowie die Betriebsprozesse betrachtet. Abgerundet wird das Audit mit einem Blick auf die Anwendung selbst und dessen Implementierung.

Ingesamt vergibt das EuroCloud SaaS Star Audit je nach Erfüllung der Anforderungen 5 Sterne. So muss ein Anbieter für einen Stern mindestens die folgenden Bedingungen erfüllen:

Es handelt sich um ein im EU Handelsregister eingetragenes Unternehmen.

Der technische Betrieb der Anwendung erfolgt in einer für die Bereitstellung von webbasierten Diensten geeigneten Infrastruktur. Hierzu gehört:

  • abgeschlossener Bereich für die verwendeten Hardware-komponenten
  • Redundante Stromversorgung mit USV Betrieb für mindes-tens 20 Minuten
  • Redundante Internetanbindung
  • Zutrittskontrolle
  • Grundlegende Arealsicherheit

Die vertraglichen Vereinbarungen sind konform mit den Datenschutz-Anforderungen im Sinne des BDSG.

Es bestehen nachvollziehbare Kündigungsvereinbarungen.

Es bestehen eindeutige Vereinbarungen bezüglich der Kundendaten ohne Rückbehaltungsanspruch durch den Auftragnehmer.

Es bestehen vertraglich vereinbarte Regelungen mit dokumentierten Daten-Exportschnittstellen zur Rückgabe und Löschung von Kundendaten bei Beendigung des Vertragsverhältnisses.

Je nach Zertifizierungsstufe kommen immer mehr Bedingungen hinzu, wobei zunächst jeweils die Vorstufe erfüllt sein muss, bevor die nächste Stufe zertifiziert werden kann.

Stand heute wurden bereits zwei Unternehmen nach dem EuroCloud SaaS Star Audit zertifiziert. Die Pironet NDH Datacenter GmbH mit ihrer Anwendung „PIRONET Office Web Apps“ erhielt 5 Sterne. Die optivo GmbH mit ihrer Anwendung „optivo® broadmail“ 4 Sterne.

Mehr unter http://www.saas-audit.de

Kategorien
Management

Schöne virtualisierte Welt der IT

In der heutigen IT-Welt findet man fast in allen Bereichen Virtualisierung, ganz gleich ob es sich um Hardware-, Software- oder Netz-Umgebung handelt. Das Hauptziel der Virtualisierung ist Rationalisierung und Leistungssteigerung der Rechenzentren. Ohne Virtualisierung muss in einem Rechenzentrum für jeden Anwender und jedes Anwendungsgebiet ein eigenes Serversystem aufgebaut werden, das in der Lage ist, eigenständig Anfragespitzen abzudecken. Daraus folgt logischerweise eine Überproportionalisierung der Serverkomponenten eines IT-Systems. Laut einer Studie der International Data Corporation (IDC), geht die durchschnittliche Serverauslastung in dieser Konstellation nicht über 25% hinaus. Das bedeutet eine enorme Vergeudung von Serverkapazitäten, Räumlichkeiten und Personalkapazitäten in Rechenzentren.

IBM konnte bereits vor über 30 Jahren den Mainframe-Computer in logisch getrennten virtuellen Maschinen partitionieren, um gleichzeitige Ausführung verschiedener Applikationen und Prozesse auf einem Rechner, d.h. Multi-Tasking, zu realisieren. Es ist ein wesentliches Merkmal der Virtualisierung, eine logische Abstraktionsschicht zu schaffen, zwischen dem Anwender und den Ressourcen – Hardware und Software – die er benutzt, um seine Aufgaben zu erledigen. Ihm wird der Eindruck vermittelt, er sei der alleinige Nutzer aller Ressourcen, obwohl er in der Tat sie mit vielen anderen teilt.

Für die Virtualisierung stehen heute diverse Virtualisierungssoftware zur Verfügung, die virtuelle Maschinen realisieren können. Die eigentliche Virtualisierung kann auf unterschiedlichen Ebenen stattfinden.

Ein Beispiel für die Virtualisierung auf der Betriebssystem-Ebene ist Linux-VServer. Diese Open Source-Software kann Teile eines IT-Systems so aufteilen und voneinander abgrenzen, dass einzelne Prozesse nicht außerhalb des ihnen zugeteilten Arbeitsbereiches zugreifen können. Damit können z.B. Dateisysteme, Hauptspeicher, Netzwerkadressen oder Prozessorzeiten für unterschiedliche Anwendungen partitioniert werden.

Ein Beispiel für die Virtualisierung auf einer abstrakten Verwaltungsebene, auch Paravirtualisierung genannt, ist das von IBM entwickelte Betriebssystem OS/400 (IBM i). Das konstruktionsprinzip von OS/400 ist die Objektbasiertheit. Alle Bestandteile des Betriebssystems sind als Objekte mit Eigenschaften und Funktionen zu betrachten. OS/400 stellt eine Reihe von schlüsselfertigen Lösungen zur Verfügung.

Ein Beispiel für die Virtualisierung auf der Hardware-Ebene ist Intel Virtualization Technology (Intel VT). Mit dieser Technologie hat der Chip-Hersteller Intel die Grundlage geschaffen für die Nutzung seiner Prozessoren für Server-Virtualisierung.

Ein schönes Beispiel für die praktische Nutzung der Virtualisierungssoftware, auch für die PC-Benutzer, ist die Freeware von Oracle / Sun VirtualBox. Mit diesem Tool kann man beliebige Betriebssysteme auf einem PC ausführen ohne zusatzinstallation. Man kann z.B. Linux unter Windows laufen lassen oder umgekehrt. Auf diese Art und Weise kann man seinen PC benutzen, um die Portabilität einer Anwendung zu testen.

Kategorien
Management

Anwendungsbereiche des Cloud Computing (Redux)

Auf Grund seiner Charakteristiken lässt sich Cloud Computing insbesondere für Szenarien einsetzen, in denen Systeme periodischen oder nicht vorhersagbaren Einflüssen ausgesetzt sind oder einem stetigen Wachstum unterliegen. Cloud Computing lässt sich jedoch vielfältig einsetzen, wie die folgenden Anwendungsfälle zeigen.

Optimierung der eigenen IT-Infrastruktur

Der Großteil aller Unternehmen verfügt über eine eigene, in der Regel komplexe IT-Infrastruktur, die es zu verwalten gilt, um den immer neuen und steigenden Anforderungen gerecht zu werden. Dadurch verlieren die meisten den Fokus auf die eigenen Kernkompetenzen, um sich mit genau diesen von ihren Mittbewerbern zu differenzieren und hieraus einen Vorteil zu erzielen.

Weiterhin werden enorme finanzielle und zeitliche Investitionen getätigt, um den Anforderungen an das laufende Geschäft durch das Verwalten, Vergrößern und Skalieren von Ressourcen und Kapazitäten zu erhöhen (Stichwort: Lastspitzen), wodurch sich die Produktivität z.B. für neue geschäftskritische Projekte verringert. An dieser Stelle dürfen ebenfalls nicht die Vorabinvestitionen vernachlässigt werden, die für den Aufbau der IT-Infrastruktur sowie den laufenden Betrieb/ Wartung vorgenommen werden müssen.

Mit dem Einsatz von Cloud Computing Lösungen z.B. durch das Outsourcing interner IT-Anwendungen oder die Nutzung von Cloud Storage können externe Ressourcen effektiv und bedarfsgerecht genutzt werden und die oben genannten Kosten lassen sich damit minimieren.

Content bereitstellen

Unternehmen stehen vor der Herausforderung, Inhalte wie Bilder, Videos oder sonstige Downloads auf Ihren Webseiten den Kunden hochperformant und zuverlässig bereitzustellen. Eine Möglichkeit dies zu realisieren, ist das Erhöhen des Durchsatzes sowie die Verringerung der Latenz innerhalb des Netzwerks.

Mittels eines Content Delivery Network (CDN) innerhalb einer Cloud Computing Infrastruktur, in welchem die Inhalte auf sogenannten Edge-Servern gespeichert werden und die sich in einem Rechenzentrum, das sich möglichst nah am Benutzer befindet, können Teile der oben genannten Anforderungen erfüllt werden. Zusätzlich können Algorithmen verwendet werden, welche die Inhalte zum Zeitpunkt der Anfrage auf die Server in der Nähe des Benutzers kopieren, wodurch die Leistung weiter erhöht wird.

Hosting von Anwendungen

Vor der Einführung des Software-as-a-Service Modells (SaaS) (abgesehen von den Application Service Providern – ASP) waren Unternehmen gezwungen eigene Infrastrukturen für die Nutzung und Bereitstellung lokaler Anwendungen aufzubauen und zu warten. Mit SaaS können diese Anwendungen nun online gehostet und verwendet werden. Die Vorteile ergeben sich auf der einen Seite durch Kosteneinsparungen auf Grund eines nutzungsabhängigen Abrechnungsmodells durch automatisierte Updates und Upgrades durch den Anbieter. Auf der anderen Seite ist eine gute Integration in die eigenen bestehenden Systeme ein Vorteil.

Anbieter von Software-as-a-Service basierten Anwendungen stehen vor der Herausforderung die kostspieligen und komplexen Infrastrukturen, die für das Hosting dieser Anwendungen benötigt werden, aufzubauen sowie skalierbar und hochperformat bereitszustellen. Zumal die Nachfrage durch die Kunden mittels eines Forecast schwierig anzuschätzen ist.

Bereitstellung von Medieninhalten

Wollen Unternehmen ihren Kunden Medieninhalte über das Internet bereitstellen, stehen sie vor der Herausforderung, Lastspitzen durch nicht kalkulierbare Anfragemengen zu unterschiedlichen Zeitpunkten zu bewältigen, die nicht überschaubar sind und teuer werden können. Anforderungen an die gesamte Infrastruktur betreffen hierbei die verfügbare Bandbreite, die Performance, den Speicherplatz und nicht zu vernachlässigen: Die Sicherheit. All das kann dazu führen, dass die ursprünglich geplanten Kosten deutlich höher ausfallen.

High Performance Computing

Die Verarbeitung großer Datenmengen für die eine hohe Rechenleistung benötigt wird, ist in den vergangenen Jahren stark angestiegen. Davon betroffen sind vor allem Unternehmen aus den Bereichen der Medizintechnik, Finanzdienstleitungen und Medien.

Für einzelne rechenintensive Projekte werden die Kapazitäten der Infrastrukturen oftmals stark erweitert, da die bestehende Infrastruktur nicht leistungsfähig genug ist. Im schlimmsten Fall stehen zusätzlich nicht ausreichend finanzielle Mittel und Zeit zur Verfügung, um die Infrastruktur gemäß den Anforderungen anzupassen. Hinzu kommt der Aufwand zur Errichtung und dem Erweitern der Serverumgebungen und der damit verbundenen Beschaffung und Bereitstellung der Hard- und Software. Das Gewährleisten einer hohen Verfügbarkeit darf ebenso wenig vernachlässigt werden wie die Sicherheit der gesamten Umgebung. Weiterhin muss die Infrastruktur verwaltet werden (u.a. Zuweisung des Speichers, Konfiguration der Batchprozesse, etc.), um den Geschäftszweck zu erfüllen, was implizit dazu führt, dass die Mitarbeiter dementsprechend fortgebildet und verwaltet werden müssen.

Eine weitere Herausforderung ist die Verwaltung und Neuzuordung der Ressourcen nach dem erfolgreichen Beenden eines Projekts. Werden die verfügbaren Ressourcen nicht umgehend neuen Projekten oder Aufgaben zugewiesen, sind diese ungenutzt und verursachen Kosten ohne einen Wertbeitrag zu leisten.

Mittels Cloud Computing können die Problematiken der oben genannten Punkte minimiert werden und Ressourcen für Projekte aus dem Bereich des High Performance Computing (HPC) bzw. Parallel Computing bedarfsgerecht und kosteneffizient bezogen werden.

Externe E-Commerce Lösungen

Im Bereich des E-Commerce verfügen die meisten Unternehmen nicht über die Kernkompetenzen, um in ihren Anwendungen die notwendigen Eigenschaften für einen ganzheitlichen Handelsprozess zu etablieren. Dazu gehören der gesamte Zahlungsverkehr, die Auftragsverwaltung, das Kommissionieren und Verpacken der Artikel sowie den Versand zum Kunden. Weiterhin muss die gesamte IT-Infrastruktur auf die E-Commerce Lösung abgestimmt sein, um die Bearbeitung der Kundenanfragen zuverlässig und sicher abzuwickeln und ebenfalls auf saisonale bzw. unerwartete Lastspitzen durch schwankende Anfragen flexibel zu reagieren.

Zahlreiche Cloud Computing Anbieter stellen E-Commerce Lösungen bereit, wodurch Unternehmen auf den Aufbau und die Verwaltung einer eigenen Plattform verzichten können und sich damit auf ihre Kernkompentenzen und ihre Kunden konzentrieren können.

Webcrawler

Informationen sind im Internet weit verteilt und unorganisiert, wodurch für das Suchen, Abfragen, Verteilen und Organisieren dieser Daten hohe Anforderungen hinsichtlich der Verarbeitung und dem Speichern gestellt werden. Weiterhin werden moderne Algorithmen benötigt, mit denen diese Daten manipuliert, indiziert und die Anfragen der Benutzer beantwortet werden können. Der ständige Wandel innerhalb des Internets verstärkt zudem die Situation, exakt die Informationen zu finden, die gesucht wurden.

Mit Cloud Computing steht im Prinzip jedem die Möglichkeit bzgl. Speicherplatz und Rechenleistung zur Verfügung, um einen eigenen Webcrawler zu entwickeln. Dazu müssen Dinge beachtet werden, die auch von der Infrastruktur eines Cloud Computing Anbieters erfüllt werden müssen, auf welcher der Webcrawler dann ggf. ausgeführt wird.

Datenspeicherung und Datenbackup

Eine der größten Herausforderungen für Unternehmen ist die stetige Zunahme der zu speichernden Daten, welche die Verwaltungsaufgaben immer komplexer und kostspieliger werden lässt. Nicht nur auf Grund dieser Situation wird die Gewährleistung des Datenschutzes und der Datenverfügbarkeit immer wichtiger. Cloud Storage für das Speichern und Backup der Daten ist hierfür ein idealer Ansatz, wenn gewisse Punkte beachtet werden.
Ein Cloud Storage hat bspw. in erster Linie den Vorteil, dass der genutzte Speicherplatz automatisch mit den Bedürfnissen mitwächst. Werden heute 10GB, morgen aber 100GB benötigt, stellt das kein Problem dar und es müssen dafür keine eigenen Investitionen in neue Speichersysteme getätigt werden.
Zudem stehen alle Daten an einer zentralen Stelle bereit, wodurch alle Mitarbeiter von jedem beliebigen Ort aus einen gemeinsamen Zugriff auf exakt denselben Datenbestand erhalten und damit die Zusammenarbeit deutlich verbessert wird.

Web-Hosting

Unternehmen haben unterschiedliche Lösungsansätze, um das Web-Hosting ihrer Webseite zu betreiben. Zunächst besteht die Möglichkeit ein eigens Rechenzentrum aufzubauen und zu betreiben. Weiterhin kann ein Drittanbieter damit beauftragt werden, die Webseite auf seine dafür dedizierten Servern zu hosten und zu verwalten. Der letzte Ansatz ist die Nutzung Cloud Computing basierter Lösungen.

Egal welcher Ansatz nun verfolgt wird, ist es für Unternehmen unabdingbar eine Infrastruktur auszuwählen, die ihnen eine größtmögliche Sicherheit, Zuverlässigkeit und Performance bietet. Unabhängig davon rücken die Kosten, also fixe Kosten und variable Kosten, immer weiter in den Fokus und betreffen jedes Unternehmen jeder Größe. Zudem ist in den letzten Jahren der Wunsch nach Flexibilität immer weiter gestiegen um die Kosten transparenter im Blick zu behalten.

Cloud Computing Lösungen geben Unternehmen hierbei die Chance ihre Vorabinvestitionen zu verringern und damit Kapital zu sparen. Ein weiterer Vorteil einer Cloud Lösung besteht in der Skalierbarkeit in beide Richtungen. Steigt die Auslastung an, können die Ressourcen nach oben skaliert werden. Nimmt die Auslastung wieder ab, werden die überschüssigen Ressourcen wieder freigegeben. In beiden Fällen entstehen nur Kosten für die Ressourcen, die auch tatsächlich genutzt werden.

Kategorien
Management

Cloud Computing ist kein Allheilmittel!

Zunächst handelt es sich bei Cloud Computing nicht mehr um einen Hype! Wir befinden uns mittlerweile in der Evaluations- und Adaptionsphase und gerade deswegen ist weiterhin viel Aufklärungsarbeit notwendig, um die Potentiale aufzuzeigen.

Bei den Potentialen handelt es sich bspw. um Kosten – Wandel von fixen zu variablen Kosten, eine bessere Ressourcenallokation, Flexibilität, Agilität, Ortsunabhängigkeit – dadurch flexibleres Recruiting von Leuten auf der ganzen Welt, Bsp. 37Signals). Wichtig ist, dass sich Unternehmen darüber jedoch im klaren sind, dass Cloud Computing Anbieter einem nicht die Arbeit vollständig abnehmen und das der Weg in die Cloud gut durchdacht und geplant werden muss. Das Unternehmen muss sich zunächst selber kennen und analysieren und schauen wo es Potentiale für Cloud Computing sieht.

Der Glaubenskrieg

Wir haben in der Cloud im Prinzip dieselbe Situation wie wir sie schon in der Vergangenheit gesehen haben. In jedem Bereich gibt es einen Glaubenskrieg, welche Technologie oder welcher Ansatz der Bessere ist. So kennen wir den Krieg zwischen Microsoft und Linux oder aktuell zwischen dem iPhone und Android. In der Cloud haben wir den Krieg der unterschiedlichen Deploymentmodels wie der Private/ Public/ Virtual Private und Hybrid Cloud. Aber anders wie bspw. beim Kampf zwischen Apple und Android, wo hier zwischen der coolen Marke Apple mit seinem verschlossenen iOS System und dem offenen Ansatz von Android argumentiert wird, geht es beim Cloud Computing argumentativ in erster linie um die Themen Datenschutz, Datensicherheit und Compliance.

Es geht um den Use Case

Fakt ist allerdings, dass alles vom gegenwärtigen Use Case abhängt. Denn es gibt nicht die gute oder schlechte Cloud. Betrachten wir einmal die unterschiedlichen Cloud Deployment Ansätze:

Private Cloud
Ich bin kein Gegner der Private Cloud. Ich finde die Adopation der Konzepte und Methoden des Cloud Computing für das eigene Rechenzentrum durchaus interessant. Es besteht dadurch die Möglichkeit, die interne IT deutlich flexibler zu gestalten und seinen internen Kunden und Projekten die Ressourcen on Demand bereitzustellen, wodurch sich die Resourcenallokation verbessert und die Abrechnung ebenfalls genauer wird.

Dennoch sollte ein Unternehmen sich überlegen, ob es tatsächlich Sinn macht eine Private Cloud im eigenen Rechenzentrum aufzubauen. Warum? Mit der Private Cloud hat man die Probleme des klassischen Rechenzentrum Betriebs plus die Komplexität der Private Cloud. Hinzu kommen die Kosten für die Hardware/ Software/ Lizenzen sowie die Fortbildung des Personals. Cloud Computing dient nun einmal dazu, sich auf die eigenen Kernkompetenzen zu konzentrieren. Das schafft man mit einer Private Cloud jedoch nicht!

Public Cloud
Die Public Cloud hilft z.B. Entwicklern mit einer coolen Idee, kostengünstig an dafür benötigte Ressourcen zu gelangen. Die für das Projekt benötigte Infrastruktur wächst mit den Anforderungen der Entwickler und der eigentlichen Software. Dann sind natürlich Webapplikationen dafür bestens geeignet. In den vergangenen Monaten und Jahren sind auf Basis der Public Clouds viele tolle und neue Anwendungen und Geschäftsmodelle entstanden. Aber auch Graphikdesigner sollten sich überlegen, ob sie sich für das Rendern ihrer Videos lieber einen Apple Xserver holen oder doch lieber eine performante Instanz in der Cloud starten. Und auch für andere Bereiche in denen der Datenschutz eine nicht so hohe Bedeutung hat (je nach land in dem der Provider sitzt) sind ausreichend Potentiale vorhanden.

Virtual Private Cloud
Die Virtual Private Cloud verbindet das Beste aus den Welten der Public Cloud und der Private Cloud. Hier sehe ich in Zukunft mehr Produktivsysteme als z.B. in der Public Cloud. Sie ist besonders für Unternehmen interessant, denen verhandelbare SLAs und ein höherer Service wichtig sind. Die Anbieter von Virtual Private Clouds bieten darüber hinaus eine bessere Unterstützung bei der Verwaltung der virtuellen Infrastruktur, was unter anderem auch daran liegt, dass innerhalb einer Public Cloud ein sehr hohes Maß an Standardisierung herrscht. In einer Virtual Private Cloud erhält man dagegen die Möglichkeit für mehr Customization.

Hybrid Cloud
Wird mittelfristig das gängigste Cloud Deploymentmodel werden. Unternehmen stocken darüber bei Bedarf ihre Ressourcen auf, wenn diese benötigt werden und geben Sie im Anschluss wieder zurück. Damit werden Services (nicht nur IaaS sondern auch SaaS und PaaS) in die eigene Unternehmens IT adoptiert. Für die Adaption ist natürlich keine eigene Private Cloud erforderlich, aber ein Cloud Managementsystem, das für die Verwaltung und das Monitoring der einzelnen Services wichtig ist.

Beim Cloud Computing geht es um Selbstverantwortung

Unabhängig davon welches Cloud Deploymentmodel am Ende genutzt wird, ist die Eigenverantwortung ein wichtiges Thema! Ein Nutzer darf nicht die gesamte Verantwortung auf die Seite des Anbieters schieben, wenn es darum geht, die Cloud zu nutzen. Natürlich ist der Anbieter für die Infrastruktur verantwortlich, aber das Unternehmen was die Cloud nutzen möchte muss zunächst seine Hausaufgaben machen. Man sollte als Kunden mit dem Anbieter zusammenarbeiten und ggf. den ersten Schritt machen. Sollte er keine Reaktion zeigen, ist er definitiv der falsche Anbieter für mich. Im Falle der Virtual Private Cloud sollte ich als Kunde Einfluss auf das Design meiner virtuellen Infrastruktur nehmen können und mit dem Anbieter zusammen eine Strategie erarbeiten. Denn das ist genau die Kernkompentenz des Anbieters!

Darüber hinaus sollte jedes Unternehmen über ein Risikomanagementsystem verfügen, dass auf Gefahrenpotentiale aufmerksam macht. Wenn ich bspw. als ein produzierendes Unternehmen tätig bin, habe ich auch mehr als nur einen Lieferanten, für den Fall das mein primärer Lieferant ausfällt.

Der Weg in die Cloud

Es gibt nicht exakt DEN weg in die Cloud, aber es gibt logische Dinge die man berücksichtigen sollte.

Haben Sie eine Strategie und denken Sie über Ihre Governance nach. Ein Problem der Cloud besteht darin, dass sie zum ausprobieren verlockt. Und plötzlich ist man drin und nutzt möglicherweise ungewollt mehrere Services, die nicht in die IT-Strategie passen. Darüber hinaus sollten man sich überlegen, was man mit und in der Cloud machen möchte und was man davon erwartet. Als nächstes gilt es eigene Kriterien aufzustellen die aufzeigen, was man vom Cloud Computing Anbieter erwartet. Im Anschluss müssen die Bereich im Unternehmen identifiziert werden, die in die Cloud gehen können, gefolgt von der Suche nach den für das Unternehmen benötigten Services. Das bedeutet, dass das Unternehmen gründlich analysiert werden muss. Weiterhin ist eine offene Kommunikation zur und innerhalb der IT-Abteilung sehr wichtig!

Design for Failure!

Wenn Sie die Cloud nutzen wollen, sollten Sie eines beachten: Design for Failure!. Die Nutzung von IaaS meint in erster Linie, dass der Provider „nur“ Ressourcen zur Verfügung stellt, mit denen ich mir ein eigenes virtuelles, skalierbares Rechenzentrum aufbauen kann. Ich merke immer wieder, dass dieses Verständnis fehlt. Bei einer Virtual Private Cloud sieht das etwas anders aus, da hier der Service mehr im Vordergrund steht. Bei einer Virtual Private Cloud sollte man daher mit dem Anbieter zusammen ein Design entwickeln. Unabhängig von Public Cloud oder Virtual Private Cloud ist es allerdings wichtig sich mit der Cloud die man nutzt detailliert auszukennen hat.

Bzgl. des Design for Failure sollte man daher grundsätzlich darauf achten, keinen Single Point of Failure zu schaffen. Und vor allem immer davon ausgehen, dass zu jedem Zeitpunkt etwas schiefgehen kann. Das Ziel muss daher darin bestehen, das die Anwendung zu jederzeit funktioniert, auch dann wenn die darunter liegende Hardware bzw. Infrastruktur ein Problem hat.

Multivendor Cloud Strategie

In Bezug auf das Design for Failure Prinzip sollte man sich ebenfalls Gedanken über eine Multivendor Cloud Strategie machen. Dies gilt nicht nur für IaaS sondern ebenfalls für SaaS und PaaS und bedeutet, dass man sich nicht nur auf einen Anbieter konzentriert, sondern seine Services/ Instanzen über mehrere Anbieter hinweg verteilt. Man kann sich dafür zunächst einen primären Anbieter suchen und parallel dazu bei weiteren Anbietern Vorbereitungen treffen. Falls es bei dem primären Anbieter zu einem Problem kommt, kann dann automatisiert umgeswitched werden. Neben der dadurch noch höheren Ausfallsicherheit beugt man damit ebenfalls einem Vendor Lock-in vor und macht sich Gedanken über das grundsätzliche und portable Design der virtuellen Infrastruktur.

Fazit

Cloud Computing hat für jedes Unternehmen Potentiale. Unabhängig von einer Private/ Public/ Virtual Private oder Hybrid Cloud oder IaaS, SaaS, PaaS. Es gilt letztendlich die passende Lösung für sein Unternehmen zu finden und zu schauen wo Cloud Computing helfen kann. Das heißt zunächst das Unternehmen zu analysieren, zu kennen und zu verstehen und die Bedürfnisse und Anforderungen zu definieren. Im Anschluß muss eine Cloud Strategie entwickelt und danach selbstverantwortlich gehandelt werden. Denn Cloud Computing ist nun einmal kein Allheilmittel!