Kategorien
Analysen

Kostenvergleich: Cloud Computing vs. On-Premise und Managed Services

Neben dem flexibleren Ressourcenbezug hat Cloud Computing vor allem finanzielle Vorteile. Bei dem Aufbau und Betrieb einer eigenen IT-Infrastruktur entstehen hohe Vorlaufkosten (Investitionskapital), welche in die Infrastruktur etc. investiert werden müssen. Dabei handelt es sich um Kapital, das zunächst erst einmal verplant ist und für weitere Projekte nicht mehr zur Verfügung steht, mit denen das Unternehmen weiteren Umsatz generieren könnte. Zudem dauert es eine nicht zu unterschätzende Zeit, bis die neu angeschafften Ressourcen tatsächlich produktiv eingesetzt werden können. Der Kauf eines Serversystems ist dafür ein gutes Beispiel. Die Kosten dafür müssen vorab vollständig entrichtet werden. Der eigentliche Wertbeitrag des Systems macht sich allerdings erst in den nächsten Jahren bemerkbar, während es sich im Einsatz befindet. Dabei verursacht das System natürlich weitere Kosten bzgl. der Wartung, Strom etc.

Das Problem besteht also darin, dass ein System, bzw. das investierte Kapital in das System, nicht umgehend einen direkten Wertbeitrag für das Unternehmen leistet und sogar noch mehr Kapital benötigt, um betrieben zu werden. Unternehmen investieren sehr ungerne in Bereiche, deren eigentlichen Wertbeitrag sie aber erst über einen längeren Zeitraum erhalten. Das Ziel eines Unternehmens besteht darin, in Bereiche zu investieren, die umgehend einen sichtbaren Wertbeitrag für das Unternehmen erzielen.

Das Pay as you Go Modell des Cloud Computing ist für ein Unternehmen somit deutlich billiger, da in diesem Fall nur für die Ressourcen bezahlt wird, die auch tatsächlich genutzt werden und die umgehend einen Wertbeitrag für das Unternehmen leisten.

Die Nutzung der Infrastruktur eines Managed Service Providers oder Services eines Cloud Computing Anbieters führt dazu, dass Unternehmen ihre Investitionskosten und weitere Vorlaufkosten auf ein Minimum reduzieren können. Das Cloud Computing bietet zudem den Vorteil, die entstandenen Kosten mit den Ressourcen zu verknüpfen, die tatsächlich genutzt wurden und somit über eine exakte und detaillierte Abrechnung zu verfügen. Des Weiteren kann damit das Kapital zielgerichtet investiert werden. Es lohnt sich somit ein Blick auf die Kosten, die bei den unterschiedlichen Arten der IT-Nutzung entstehen.

[CHRISTMAN et. al.] haben einen Kostenvergleich zwischen einer Co-Location (Managed Services), einem eigenen Rechenzentrum (On-Premise) und einem Infrastructure-as-a-Service Angebot (Cloud Computing) vorgenommen.

Nicht ganz unerwartet zeigte das Cloud Computing Angebot hier einen deutlichen Kostenvorteil, da, ausschließlich die reinen Betriebskosten betrachtet, in diesem Fall nur Kosten für die genutzten Server sowie den Datenstransfer entstehen, wenn diese auch tatsächlich genutzt wurden. Das Managed Services Angebot landete dabei auf dem zweiten Platz. Das ist auf die einmaligen Investitionen wie die Serverhardware, Netzwerkkomponenten, Betriebssystemlizenzen und die Einrichtung sowie die laufenden Kosten wie die Investitionskosten, Instandhaltungskosten, Miete, Stromkosten, Remoteservices und dem Datentransfer zurückzuführen. Die On-Premise Lösung hingegen war erwartungsgemäß die teuerste und landete damit auf dem dritten Platz. Neben den bereits oben genannten einmaligen Investitionen bei den Managed Services erhöhten vor allem der Aufbau der Infrastruktur und die allgemeinen Baukosten den Gesamtpreis. Dazu kommen bei den laufenden Kosten noch die Bereiche der Administration (Personal) und die Miete für die Datenleitung.

Dennoch sind die Entscheidungsgrundlagen für ein Cloud Computing Angebot individueller Natur. Zunächst gilt es die eigenen Bedürfnisse zu identifizieren, um danach das für sich passende Angebot herauszufiltern und zu schauen, ob und wo Cloud Computing für das Unternehmen einen entscheidenen Vorteil bieten kann. Zudem müssen auch die genutzten virtuellen Instanzen konfiguriert und die Cloud an dieser Stelle mit Intelligenz ausgestattet werden. Hierfür ist daher auch das entsprechende Personal erforderlich, was ebenfalls Zeit und spezifisches Wissen benötigt, um die Infrastruktur den eigenen Bedürfnissen nach aufzubauen.

Quelle

[CHRISTMAN et. al.]
Constantin Christmann, Jürgen Falkner, Dietmar Kopperger, Annette Weisbecker; Schein oder Sein; Kosten und Nutzen von Cloud Computing; iX Special 2/2010 Cloud, Grid, Virtualisierung, S. 6

Kategorien
Analysen

Cloud Computing vs. On-Premise und Managed Services

Arten, wie Unternehmen Informationstechnologie für sich einsetzen, gibt es im Grunde genommen nicht viele. Die eine besteht darin, alles selbst zu machen. Die andere darin, alles zu einem Drittanbieter auszulagern. Die dritte ist, eine hybride Lösung zu nutzen, also bestimmte Dinge selbst zu betreiben und gewisse Bereiche verarbeiten zu lassen.

Grundsätzlich unterscheiden wir also den Betrieb einer eigenen IT-Infrastruktur, auch als On-Premise bezeichnet, und den Ansatz des Outsourcingmodells. Für das Outsourcing wird auch oft der englische Begriff Managed Services verwendet.

On-Premise

Beim On-Premise, also dem Betrieb einer eigenen IT-Infrastruktur, verfügt ein Unternehmen über eine vollständig eigene intern zu verwaltende IT-Umgebung. Das gilt selbst dann, wenn das Unternehmen Server in einer Co-Location eines Rechenzentrums angemietet hat. In diesem Fall müssen also sämtliche Vorabinvestitionen in Hardware und Software sowie Kosten für Strom, Kühlung und Personal geleistet werden. Fällt einer oder mehrere Server aus, entstehen dadurch weitere Kosten sowie der Zwang, diese schnellstmöglich durch funktionsfähige Geräte zu ersetzen.

Managed Services

Bei den Managed Services, also der Auslagerung des Betriebs und der Verwaltung der IT-Aufgaben, wird ein externer Dienstleister mit der Wartung beauftragt. In diesem Fall befinden sich die Server im Eigentum des Dienstleisters. Dieser ist für den reibungslosen Betrieb der Infrastruktur zuständig und hat dafür zu sorgen, dass ein fehlerhafter Server umgehend oder je nach dem vereinbarten Service Level Agreement (SLA) auszutauschen.

Der Dienstleister verfügt somit über die Expertise, dem Unternehmen den einwandfreien Betrieb der Server zu garantieren. Des Weiteren ist er für die Wartung der Betriebssysteme verantwortlich, die auf den Servern installiert sind. Das beinhaltet die Versorgung mit Patches etc. und die Betreuung der gesamten Netzwerkinfrastruktur, in der die Server untergebracht sind. Das Unternehmen hat mit dem Dienstleister in der Regel einen langfristigen Vertrag und zahlt diesem für die erbrachten Leistungen eine monatliche oder jährliche Gebühr.

Der Vergleich

Zu diesen beiden IT-Nutzungsmodellen gesellt sich nun das Cloud Computing. In Diskussionen zum Thema Cloud Computing wird von Skeptikern in der Regel die Meinung vertreten, dass Cloud Computing keine nennenswerten Vorteile birgt und es sich dabei nur um alten Wein in neuen Schläuchen handelt.

IT-Manager stehen immer denselben Situationen gegenüber. Dabei entstehen Fragen hinsichtlich der korrekten Softwarelizensierung, in deren Falle viele Unternehmen tappen, da die Übersicht dabei schnell verloren gehen kann. Auch der Zeitpunkt und die Art und Vorgehensweise beim nächsten unternehmensweiten Softwareupdate darf an dieser Stelle nicht unterschätzt werden. Wie verhält es sich beim Ausfall einer Hardware in der Nacht? Zum einen muss dafür das benötigte Personal verfügbar und zum anderen die entsprechende Ersatzhardware vorhanden sein. Ähnlich verhält es sich bei der grundsätzlichen Verwaltung der bestehenden Serverlandschaft und der Entsorgung ausrangierter Althardware, die ordnungsgemäß beseitigt werden muss. Ein weiterer nicht zu unterschätzender Punkt ist die Erweiterung der IT-Infrastruktur. Von der Planung über die Entscheidung bis hin zur letztendlichen Bestellung, Lieferung, der endgültigen Installation und des Testlaufs können dabei mehrere Monate verstreichen. Aber auch steuerrechtliche Themen wie die Abschreibung der IT-Vermögenswerte sind Bereiche, die bei dem Betrieb einer IT-Infrastruktur mit bedacht werden müssen.

Ein Vergleich soll zeigen, dass dem nicht so ist. George Reese hat zu diesem Thema die oben genannten Nutzungsmodelle, On-Premise und Managed Services dem Cloud Computing gegenübergestellt und die Attribute “Investitionskapital”, “Betriebskosten”, “Bereitstellungszeit”, “Flexibilität”, “Anforderungen an das Mitarbeiter KnowHow” und “Zuverlässigkeit” miteinander verglichen. Hierbei hat er eine Gewichtung bzgl. der Wichtigkeit der jeweiligen Attribute auf die entsprechende IT-Nutzung vorgenommen.

Investitionskapital

  • On-Premise:            signifikant
  • Managed Services:   moderat
  • Cloud Computing:     unerheblich

An dieser Stelle gilt es die Frage zu stellen, wie viel Kapital zur Verfügung steht, um die eigene Infrastruktur aufzubauen bzw. Änderungen an dieser vorzunehmen. Bei dem Betrieb eines Eigenen Rechenzentrums muss bspw. in die dafür benötigte Hardware vorab gezielt investiert werden, selbst dann, wenn die Hardware zu dem Zeitpunkt noch nicht benötigt wird. Somit kommt dem Investitionskapital eine hohe Bedeutung zu. Im Falle der Managed Services entstehen Setup Gebühren für die Einrichtung des Systems, die jedoch als angemessen betrachtet werden können. Beim Cloud Computing entstehen keine Vorabinvestitionen und Verpflichtungen. Das Investitionskapital ist an dieser Stelle daher marginal.

Betriebskosten

  • On-Premise:            moderat
  • Managed Services:   signifikant
  • Cloud Computing:     nutzungsbasiert

Die laufenden Kosten für das eigene Rechenzentrum beziehen sich auf die Kosten für das Personal und/ oder Subunternehmer, die für die Verwaltung und den Betrieb der Infrastruktur zuständig sind. Dazu kommen die Kosten für die Gebäude sowie die Nebenkosten, die während des Betriebs entstehen. Erhebliche Abweichungen der laufenden Kosten entstehen speziell mit Subunternehmern, wenn Notfälle oder andere Probleme eintreten und Sonderzahlungen z.B. durch Mehrarbeit entstehen. Managed Services sind verhältnismäßig teuer, jedoch sind die monatlichen Kosten vertraglich fest geregelt, sodass die Aufwendungen, die aufgebracht werden müssen, planbar sind, da diese sehr selten variieren. Die laufenden Kosten beim Einsatz von Cloud Computing hängen von der Art, Länge und Häufigkeit der jeweiligen Nutzung ab. Jedoch besteht hier der entscheidene Vorteil darin, dass nur dann Kosten entstehen, wenn ein Service genutzt wird. Die Abrechnung erfolgt auf Basis der tatsächlichen Nutzung – nicht mehr und nicht weniger. Im Vergleich zu den Managed Services sind die Personalkosten höher, aber deutlich günstiger als bei dem Betrieb eines eigenen Rechenzentrums.

Bereitstellungszeit

  • On-Premise:            signifikant
  • Managed Services:   moderat
  • Cloud Computing:     keine

Die Bereitstellungszeit ist ein entscheidender Faktor, wenn es darum geht, wie lange es dauert, bis z.B. ein neuer Server der bestehenden Infrastruktur hinzugefügt wird. Im Falle eines eigenen Rechenzentrums oder der Managed Services erfolgt zunächst die Planung gefolgt von der sich anschließenden Bestellung und der damit verbunden Wartezeit, bis die neue Komponente endgültig in Betrieb genommen und zunächst getestet wird, bis sie dann am Ende in den Live-Betrieb gehen kann. Bei der Zusammenarbeit mit einem Managed Services Provider ist die Wartezeit geringer im Vergleich zum eigenen Rechenzentrum, vorausgesetzt der Provider hat die benötigten Komponenten vorrätig. Bei der Nutzung des Cloud Computing vergehen von der Entscheidung für einen neuen Server bis zu seiner vollständigen Bereitstellung hingegen nur wenige Minuten.

Flexibilität

  • On-Premise:            limitiert
  • Managed Services:   moderat
  • Cloud Computing:     flexibel

Infrastrukturen sind heutzutage z.T. extremen Anforderungen und unerwarteten Belastungen ausgesetzt. Aus diesem Grund gilt es darauf zu achten, inwieweit eine Infrastruktur etwaige unvorhergesehene Spitzenlasten beherrschen kann, indem sie bei Bedarf weitere Ressourcen bereitstellt. Ein Beispiel wäre eine beschränkte Speicherplatzgröße. Wie verhält sich die Infrastruktur, wenn das Limit des Speicherplatzes plötzlich erreicht ist. Rechenzentren, die selbst betrieben werden, haben von Natur aus eine sehr feste Kapazität und das Hinzufügen von weiteren Ressourcen kann bei Bedarf nur durch den Einsatz von mehr Kapital vorgenommen werden. Zudem ist der Zeitraum von der Notwendigkeit weiterer Ressourcen bis zur endgültigen Bereitstellung sehr lang. Ein Managed Service Provider kann hier temporär mit weiteren Ressourcen aushelfen, indem bspw. die Bandbreite erhöht oder der kurzfristige Zugriff auf alternative Speichermöglichkeiten gewährt wird. Bei der Verwendung des Cloud Computing hingegen kann die entsprechende Cloud Infrastruktur so eingerichtet werden, dass sie im Falle weiterer benötigter Kapazitäten diese automatisch hinzufügt und wieder entfernt, wenn sie nicht mehr benötigt werden.

Anforderungen an das Mitarbeiter Know How

  • On-Premise:            signifikant
  • Managed Services:   limitiert
  • Cloud Computing:     moderat

Bei diesem Attribut geht es um die Frage, wieviel Know How innerhalb des Unternehmens benötigt wird, um die IT-Umgebung zu betreiben. Beim dem Betrieb eines eigenen Rechenzentrums werden entsprechendes Personal oder Subunternehmer benötigt, die über die notwendigen Kenntnisse der Infrastruktur verfügen. Dazu gehört u.a. das Wissen über die Serverhardware und die Betriebssysteme sowie die Betreuung der Systeme, z.B. das Einspielen von Patches, um die Systeme auf dem aktuellen Stand zu halten. Den Vorteil haben an dieser Stelle die Managed Services Provider, da diese sich um die Wartung der Infrastruktur kümmern. Je nachdem wie die Nutzung von Cloud Computing erfolgt, sind entweder mehr oder weniger Kenntnisse erforderlich. Unterstützung bieten hier bspw. Cloud Infrastruktur Manager (Software), die dabei helfen, die verwendete Cloud Umgebung zu verwalten. Jedoch sind hier trotzdem Kenntnisse bzgl. der Einrichtung und der Konfiguration der virtuellen Maschinen Images notwendig.

Zuverlässigkeit

  • On-Premise:            variiert
  • Managed Services:   hoch
  • Cloud Computing:     moderat bis hoch

Die Zuverlässigkeit der Infrastruktur ist ein weiterer wichtiger Punkt, den es zu beachten gilt. Der Aufbau einer hochverfügbaren Infrastruktur im eigenen Rechenzentrum hängt von dem jeweiligen Personal und des verfügbaren Kapitals ab, das in die Infrastruktur investiert werden soll. Ein Managed Services Provider ist an dieser Stelle die bewährteste Alternative. Jedoch ist hier ein Standortvorteil, den eine Cloud auf Grund ihrer Rendundanz bietet, nicht vorhanden. Einer Cloud Infrastruktur fehlt hingegen (noch) die nachgewiesene Erfolgsbilanz der Stabilität.

Fazit

Der Vergleich zeigt, dass es für den Großteil der Unternehmen keinen Sinn mehr ergibt, eine eigene Infrastruktur von Grund auf neu aufzubauen. Lediglich Unternehmen, die bereits hohe Investitionen in das eigene Rechenzentrum vorgenommen haben oder diejenigen, die auf Grund von rechtlichen Hindernissen oder anderweitiger Regularien ihre Daten nicht bei einem Drittanbieter speichern dürfen, können zunächst davon absehen. Sie sollten sich für zukünftige Investionen aber zumindest Gedanken über den Ansatz eines Hybrid Cloud Modells machen.

Alle anderen Unternehmen sollten schließlich auf einen Managed Service Provider oder einen Cloud Computing Anbieter zurückgreifen. Speziell das Pay as you Go Modell und der flexible Ressourcenbezug des Cloud Computing führt bei jedem Unternehmen zu einer höheren Flexibilität und somit einer besseren Agilität und erhöht die Innovationsfreudigkeit bei den Mitarbeitern.

Kategorien
Analysen

Cloud Computing ist auch eine Frage des Risikomanagements

Ausfälle wie Sie bei Amazon der Fall waren zeigen, dass für die Nutzung von Cloud Computing ebenfalls das Risiko betrachtet und bewertet werden muss, um darüber zu bestimmen, welche Auswirkungen bspw. ein Ausfall des Anbieters oder dessen nicht Erreichbarkeit auf das Unternehmen und seinen Geschäftsbetrieb hat.

Das gilt für die Nutzung von IaaS genauso wie für SaaS oder PaaS. Im Vergleich zu SaaS bestehen bei IaaS und PaaS jedoch weniger Möglichkeiten, eine Cloud Multivendor Strategie aufzubauen. Das ist dem Umstand geschuldet, dass der SaaS Anbieter den kompletten Stack von der Infrastruktur, über die Datenhaltung bis hin zur Oberfläche abbildet. Der automatische Transfer der Daten während eines Fehlerfalls bzw. die Echtzeit Synchronisation der Daten zwischen zwei oder mehreren SaaS Anbietern ist quasi unmöglich, was letzten Endes nicht nur an den proprietären Schnittstellen liegt, sondern ebenfalls der Art wie die einzelnen Prozesse intern abgebildet sind. Cloud Computing bedeutet nun einmal auch Standardisierung auf höchstem Niveau. Un dessen muss man sich als Unternehmen bewusst sein, wenn man Software-as-a-Service nutzen möchte.

Im Gegensatz dazu können bei der Nutzung von IaaS und auch PaaS die Daten bzw. das System oder die Anwendungen bedeutend einfacher automatisiert über mehrere Anbieter hinweg verteilt werden. IaaS Anbieter zeigen sich für den Bereich der Infrastruktur verantwortlich. Hier erhält man lediglich den Zugriff auf virtuelle Ressourcen (Server) um auf dieser Basis seine eigene virtuelle Infrastruktur aufzubauen. Durch den Anbieter bereitgestellte APIs kann über Skripte eine automatische Verteilung der Daten als auch der Anwendungen zu mehreren Anbietern erfolgen. Dieses Szenario gilt für Public Cloud, als auch Virtual Private Cloud Anbieter. Im Bereich PaaS sieht es ähnlich aus. Hier ist der Anbieter für die Infrastruktur, also den für die Applikationen benötigten virtuellen Ressourcen sowie dem Betriebsystem inkl. dem Anwendungstack (z.B. Apache, Tomcat, usw.) zuständig. Einige kleinere PaaS Anbieter sind jedoch dazu übergegangen, die Infrastruktur nicht selber bereitzustellen und stattdessen auf auf IaaS Public Cloud Anbieter zurückzugreifen. Die Portabilität der Daten und der Anwendung selbst ist abhängig vom Anbieter und welche Programmiersprache bzw. Programmiermodelle genutzt werden können. Bspw. ist die Google AppEngie sehr proprietär, wodurch ein 1:1 Transfer der Anwendung nicht ohne weiteres stattfinden kann.

Unabhängig vom Cloud Computing sind diverse Unternehmen dazu verpflichtet, ein Risikomanagementsystem einzusetzen. Das Thema Risiko ist jedoch nicht immer sehr greifbar, dennoch hat jeder von uns unterbewusst sein eigenes Risikomanagementsystem. Gehen wir bspw. bei Rot über die Ampel, prüfen wir vorher wie es um das Risiko steht, von einem Auto erfasst zu werden. Es ist also ein sehr logischer Vorgang, der im Unternehmensumfeld zu einer sehr komplexen Aufgabe werden kann, wenn alle Parameter berücksichtigt werden müssen, die Einfluss auf eine bestimmte Situation oder ein Szenario haben.

Und genau deswegen muss auch ein Risikomanagement bei der Nutzung von Cloud Computing erfolgen. Zu Beginn habe ich beschrieben, dass auf Basis einer Cloud Multivendor Strategie dem Ausfall meines bevorzugten Cloud Computing Anbieters vorgebeugt werden sollte. Dieses Beispiel ist für ein produzierendes Unternehmen z.B. aus der Automobilindustrie selbstverständlich. So verfügt jeder Hersteller über mehr als einen Zulieferer, für den Fall, dass der primäre Lieferant ausfallen sollte. Wie wir sehen, ist dieses analoge Beispiel sehr gut auf das Thema Cloud Computing abzubilden.

Risikomanagement ist durchaus kompliziert. Sind die wichtigsten Faktoren und Variablen jedoch bekannt und sind dafür ebenfalls Lösungen vorhanden, steht der sicheren und risikominimierten Nutzung von Cloud Computing nichts mehr im Weg.

Dennoch besteht noch viel Aufklärungsarbeit bzgl. der risikokonformen Nutzung von Cloud Computing. Und auch die technische Sicherheit darf in diesem Zusammenhang nicht vernachlässigt werden. Denn nicht nur die Cloud Computing Anbieter selbst sind für die Einführung und Einhaltung technischer (Ausfall-)Sicherheitsmaßnahmen zuständig. Auch der Cloud Computing Nutzer steht in der Pflicht, seine Hausaufgaben zu erledigen und muss sich über die aktuelle Situation informieren und entsprechende Maßnahmen einleiten.

Kategorien
Analysen

Google vs. Microsoft: Der Kampf um die Vorherrschaft in der Business Cloud

Was mit dem Einstieg von Bing im Suchmaschinenmarkt und der anschließenden Einführung von StreetSide bei der Katalogisierung der Welt begann, weitet sich nun auch auf den Unternehmensbereich aus. Hatte Google mit Google Apps for Business auch hier das erste Produkt, zieht Microsoft nun mit Office 365 nach.

Es wird wahrscheinlich der spannendste Kampf in der Cloud überhaupt. Noch interessanter als bspw. Google vs. Apple oder Google vs. Facebook – der Kampf um die vorherschende Stellung in den Unternehmen, wenn es darum geht, welche Office und Collaboration Suite in Zukunft in der Cloud eingesetzt wird. Microsoft ist der Platzhirsch der lokalen Installation. Google hat sich von Beginn an auf die Nutzung von Cloud Applikationen konzentriert und bewegt sich mit seinen Google Apps for Business derzeit gezielt auf die Unternehmen zu. Das hat auch Microsoft erkannt und schickt im Gegenzug sein Office 365 ins Rennen.

Google geht den Microsoft Weg

Microsofts Weg in die Unternehmen ging damals über die Heimanwender von Windows, Office und Outlook Produkten. Die Strategie ging auf. Wer auch am Abend mit den „bekannten“ Programmen aus Redmond arbeitet, hat es tagsüber bei der Arbeit leichter, da er sich damit auskennt. Auch die Empfehlungen für ein Produkt von Microsoft durch die Mitarbeiter war dadurch vorprogrammiert. Dasselbe galt für die Windows Server. Wenn ein Windows Betriebssystem so einfach zu bedienen und zu konfigurieren ist, dann kann ein Server schließlich nicht viel komplizierter sein. Damit konnten auch die Entscheider ins Boot geholt werden.

Googles Strategie könnte bzw. sollte ähnlich verlaufen. Schätzungsweise nutzen bereits 200 Millionen Nutzer weltweit Google Mail. Damit erhalten diese ebenfalls kostenlosen Zugriff auf die Produkte Google Calendar als auch Google Docs, neben Google Groups die drei Kernanwendungen der Google Apps for Business. Ideal, um potentielle Unternehmensanwender mit dem Google Gen zu infizieren und damit Google Apps for Business in den Unternehmen zu platzieren.

Google hat gegenüber Microsoft den Vorteil, dass Sie in der Cloud „geboren“ sind und darin „leben“. Microsoft hingegen ist erst „eingezogen“ und ist noch dabei (technologisch) seinen Platz zu finden. Microsofts Vorteil besteht eindeutig in seinen bestehenden Beziehungen zu den Unternehmenskunden. Weltweit nutzen schätzungsweise 80% der Unternehmen Produkte aus dem Hause Microsoft, darunter Windows, Office, Outlook und Exchange. Nicht zu vergessen weitere Produkte wie Dynamics CRM usw. Damit hat Microsoft einen enormen Vertrauensvorsprung gegenüber Google. Auch die Wechselkosten bspw. von einer On-Premise Exchange Installation hin zu Office 365 scheinen deutlich günstiger und einfacher, da die Schnittstellen auf beiden Seiten durch Microsoft spezifiziert sind. Hier muss jedoch fairerweise gesagt werden, dass Google über gute Migrationstools von unterschiedlichen Systemen hin zu Google Apps verfügt.

Googles Schwierigkeit besteht jedoch darin Vertrauen aufzubauen. Das Unternehmen aus Mountain View gilt immer noch als die alleinherrschende Datenkranke und ist zudem bei den meisten weiterhin „nur“ als eine Suchmaschine bekannt. Aber auch technologisch muss Google nachbessern. Wer aus der Windowswelt kommt, kennt die zentralen Ordnerstrukturen auf den Dateiservern. Die Ordnerstruktur unter Google Docs ist hier sehr unelegant gelöst. Es existiert kein zentraler Bereich, in dem die Nutzer ihre Daten allen zur Verfügung stellen können. Stattdessen erhalten andere Benutzer nur über persönliche Freigaben den Zugriff auf die Daten eines bestimmten Nutzers. Natürlich kann alles über die integrierte Suche gefunden werden, was auch zu Google passt, ist für den Unternehmenseinsatz jedoch sehr unpraktisch.

Die Mobile Cloud

Google hat insbesondere im wichtigen Unternehmensbereich der Mobile Cloud die Nase vorne. Die vollständige Integration von Google Apps (Google Mail, Google Kalender, Google Kontakte usw.) in Android, den Chrome Webbrowser und somit auch in den Chromebooks per sync bzw. push über eine drahtlose Internetverbindung (WLAN, 3G) ist ein entscheidener Vorteil gegenüber Microsoft.

Microsoft hat es seit jeher nicht geschafft ein gutes und stabiles Betriebssystem für mobile Endgeräte zu entwickeln und darüber hinaus eine nahtlose und gute Integration (sync) bspw. zu Outlook zu schaffen. Zudem muss alles per Active Sync vorgenommen werden, wozu das Endgerät an den lokalen Computer angeschlossen werden musste. Windows Phone 7 könnte möglicherweise ein erster guter Schritt sein.

Tipps für Google

Für Google gilt es in erster Linie Vertrauen zu schaffen und über den Schatten der Suchmaschine weiter hinauszukommen. Das Image der Datenkrake wird wahrscheinlich niemals vollständig verschwinden, aber über den Aufbau von Vertrauen zu den Unternehmen kann daran aber gearbeitet werden.

Darüber hinaus sollte die Strategie verfolgt werden, über den privaten Google Nutzer in die Unternehmen zu gelangen. Der gewöhnliche Mitarbeiter hat doch mehr Einfluss als gedacht.

Technologisch und organisatorisch muss Google Docs unbedingt nachgebessert werden. Das Nichtvorhandensein einer zentralen Ordnerstruktur führt zu einer schlechten Übersicht der Daten, da sich diese überall und bei jedem Benutzer, der zu der Google Apps Domain gehört, befinden können. Wir haben uns bisher so geholfen, dass wir bei einem Benutzer die Ordnerstruktur aufgebaut haben in der alle anderen Nutzer neue Ordner und Dokumente ablegen. Das ist jedoch sehr unpraktisch. Die Idee für den Privatbereich ist gut, um einem Freund mal eben schnell nur eine bestimmte Datei freizugeben. Für den Einsatz im Unternehmen, ist dieses Vorgehen aber nicht praktikabel. Vermutlich handelt es sich dabei um eine Funktion, die aus den Versionen für den privaten Einsatz einfach übernommen wurden. Es sollte daher zwar private Bereiche geben, aber ebenfalls einen zentralen Ort, auf denen alle Benutzer zugreifen können ohne das vorher Freigaben etc. erstellt werden müssen.

Die Angst bzgl. des Datenschutzes, der Datensicherheit und der Compliance ist den Köpfen der Entscheider weiterhin sehr hoch angesiedelt. Insbesondere der Zugriff von Regierungen und staatlichen Behörden auf die Unternehmensdaten ist ein Knock-Out Kriterium. Google muss sich hier eindeutig davon distanzieren, jemals den Zugriff durch staatliche Organe usw. auf die Daten zu gewähren und dieses seinen Kunden vertraglich zusichern. Dieses kann durch politische Vorgaben, wie bspw. dem Patriot Act oder einem Abkommen zwischen zwei Staaten jedoch erschwert werden. Im zweiten Fall wird bspw. geregelt, dass ein Staat A einem anderen Staat B im Verdachtsfall die Daten aushändigen muss. Und das gilt ebenfalls unabhängig davon, ob es sich bei dem Unternehmen um einen Cloud Computing Anbieter handelt oder ob sich die Daten auf einem Server im eigenen Rechenzentrum befinden.

Darüber hinaus könnten die Google Apps for Business als On-Premise Lösunge für die Unternehmen angeboten werden, die über eine Private Cloud verfügen und ihre Daten nicht aus der Hand geben wollen, dürfen oder können.

Tipps für Microsoft

Microsoft hat auf Grund der aktuellen Präsenz im On-Premise Geschäft die besseren Karten. Jedoch war die Aussage, Regierungen und stattlichen Behörden auf Anfrage ggf. den Zugriff auf die Daten zu gewähren, ein schwerwiegender Fehler, wodurch das Vertrauen in Microsoft gesunken ist. Zumindest zeigen das die Diskussionen vergangener Tage, zu denen sogar die Cloud Infrastrukturanbieter keine konkrete Stellung beziehen wollen.

Insbesondere in dem Bereich der Mobile Cloud muss Microsoft kräftig investieren und Boden gut machen. Die Mobilität und der Wunsch auf die Daten und Anwendungen zu jeder Zeit und an jedem Ort zuzugreifen wird weiter steigen. Hier muss ein Umdenken stattfinden. Einen Chromebook Clone auf Basis von Windows zu entwickeln wird da nicht ausreichen.

Fazit

Der Kampf um den Bereich für Unternehmensanwendungen in der Cloud hat erst begonnen und es bleibt weiter spannend. Speziell Microsofts Aussage, mit den Regierungen zusammenarbeiten zu wollen, könnte Google das Stück Vertrauen verschaffen das für den Einsatz von Google Apps im Unternehmen notwendig ist.

Es bleibt zudem interessant zu sehen, wie sich das Windows Phone 7 und die Integration der Office 365 Cloud Services entwickeln werden, damit Microsoft auch hier Boden gut machen kann.

Alles in allem stehen hier zwei Unternehmen mit ihren Produkten gegenüber, die es beide verdient hätten, in den Unternehmen eingesetzt zu werden – am Ende entscheidet jedoch die jeweilige Cloud Strategie.

Kategorien
Analysen

Was Unternehmen aus dem Amazon EC2 Problem in North Virginia lernen sollten!

Am 21. April haben wir es wieder erlebt. Auch eine hochverfügbare Cloud wie die von Amazon ist nicht vor Fehlern geschützt. Natürlich erhalten Kritiker nun wieder die Gelegenheit gegen die Nutzung der Cloud zu argumentieren. Aber um es vorweg zu nehmen, Anbieter wie Hootsuite, Mobypicture, Foursquare und Reddit hätten von dem Ausfall nicht betroffen sein müssen, hätten Sie auf eine ausfallsichere Architektur gesetzt.

Aus diesem Grund ist es nicht nachvollziehbar, dass diese Unternehmen mit dem Finger auf Amazon zeigen und sagen: „Uns trifft keine Schuld, Amazon ist down!“. Es wäre interessant zu wissen, wer zur Rechenschaft gezogen worden wäre, hätten diese Anbieter keinen Public Cloud Service genutzt, sondern betrieben ein eigenes Rechenzentrum. Denn eines ist klar, (solche) Probleme können in jedem Rechenzentrum auftreten und hätten dann bedeutend schwerwiegendere Probleme. Und wenn die Cloud richtig genutzt worden wäre, wären auch die Probleme bei Amazon in der Form nicht sichtbar geworden.

Was ist passiert?

Hintergrund
Die Amazon Cloud besteht aus mehreren Regionen, verteilt über mehrere Kontinente, in denen sich wiederum mehrere sogenannte Availability Zones befinden. Availability Zones sind verschiedene Standorte innerhalb einer Region, die so konstruiert sind, dass sie isoliert betrieben werden und von Fehlern in anderen Availability Zones nicht betroffen sind.

Durch das Starten von Instanzen in separaten Regionen, können Web Anwendungen so konstruiert werden, dass sich diese geographisch in der Nähe von bestimmten Kunden befinden und rechtlichen oder anderen Anforderungen gerecht werden.

Weiterhin werden Anwendungen vor dem Ausfall eines einzelnen Standorts geschützt, indem Instanzen in separaten Availability Zones ausgeführt werden.

Wie das Konzept genau funktioniert, kann unter Das Konzept hinter den AWS Regionen und Verfügbarkeitszonen nachgelesen werden.

Das Problem
Um 1:41 AM PDT begann das Problem mit Latenzen und Fehlerraten innerhalb der EBS Volumes und Verbindungsproblemen zu den EC2 Instanzen in mehreren Availability Zones der Region US-EAST-1.

Das führte dazu, dass die Webseiten bzw. Webanwendungen, die auf den EC2 Instanzen betrieben werden, nicht mehr erreichbar waren.

Design For Failure

Zunächst muss eines klar sein. Amazon stellt „nur“ virtuelle Ressourcen zum Aufbau einer eigenen virtuellen Infrastruktur bereit. Amazon ist NICHT für die Anwendung und deren Funktionalität zuständig, sondern stellt nur die Infrastruktur bereit, auf der die Anwendungen ausgeführt werden.

„Everything fails, all the time“ Werner Vogels, CTO Amazon.com

Aus diesem Grund rät Amazon: „Design for failure!“ und gibt Tipps, dieses umzusetzen:

  • Avoid single points of failure
  • Assume everything fails, and design backwards
  • Goal: Applications should continue to function even if the underlying physical hardware fails or is removed or replaced.

Und nennt Möglichkeiten für die Realisierung des Designs:

  • Use Elastic IP addresses for consistent and re-mappable routes
  • Use multiple Amazon EC2 Availability Zones (AZs)
  • Create multiple database slaves across AZs
  • Use Amazon Elastic Block Store (EBS) for persistent file systems

Design for failure! Ist im Prinzip nichts Neues. Im Grunde sollte das ebenfalls bei jedem anderen nicht Cloud Anbieter und im eigenen Rechenzentrum beachtet werden. Der Entwickler sollte immer in der Pflicht stehen, seine Anwendung gegen Hardware oder sonstige Ausfälle abzusichern und die Verfügbarkeit sicherzustellen.

Hootsuite und Mobypicture bspw. haben den Fehler gemacht, sich nur auf eine AWS Region zu konzentrieren, anstatt ihren Service über die gesamte Amazon Cloud hinweg zu verteilen. Speziell bei Mobypicture, als einen europäischen Anbieter mit Sitz in Holland, ist genau dies ein wenig verwunderlich. Die deutsche Seite von Foursquare hingegen war bspw. erreichbar und lief stabil, ebenso die von Reddit.

Nicht alles auf eine Karte setzen

Für jedes Unternehmen, das seinen Service über die Cloud anbietet, gilt es daher: „Nutze die gesamte Cloud eines Anbieters und verlasse Dich nicht nur auf einen einzigen Anbieter!“

Durch die Verteilung einer Anwendung über mehrere Regionen und Availability Zones bei einem Anbieter wird die Verfügbarkeit der Anwendung drastisch erhöht. Zudem ist eine MultiVendor Strategie zwingend erforderlich. Außerdem müssen bereits von Beginn an Fallback Szenarien entwickelt werden, um gegen einen plötzlichen Ausfall vorbereitet zu sein.

Es geht also bspw. darum, Systeme aufzubauen, die im Fehlerfall automatisch eine gespiegelte Infrastruktur bei einem anderen Anbieter aufbauen. Besser wäre es, mehrere Anbieter parallel zu nutzen und die Services über mehrere Anbieter hinweg zu verteilen. Dazu gehört z.B.: Instanzen von unterschiedlichen Anbietern parallel produktiv einzusetzen, um damit das Risiko zu streuen.

Denn: Cloud Computing löst nicht alle Probleme automatisch…

Für die Zukunft

Amazon darf auf keinen Fall von einer Schuld freigesprochen werden, dazu werben sie viel zu deutlich mit der eigenen Verfügbarkeit. Dennoch, beim Cloud Computing handelt es sich um bedeutend mehr als nur das Nutzen von ein paar virtuellen Ressourcen und jeder Nutzer der Cloud ist für die Verfügbarkeit seiner Anwendung selber verantwortlich. Dafür stehen ihm ausreichend Mittel und Wege auf Grund der Cloud zur Verfügung!

Kategorien
Analysen

Wo bleibt der Killer PaaS?

Es gibt nunmehr eine Vielzahl von Platform as a Service (PaaS) Angeboten auf dem Markt, die mehr oder weniger jede moderne Programmiersprache unterstützen. Doch eines haben alle gemeinsam. Jedes Angebot setzt auf maximal einem Infrastructure as a Service (IaaS) Angebot auf. Sei es ein Proprietäres oder das eines Drittanbieters. Wie zu erwarten ist derzeit noch die Infrastruktur von AWS die bevorzugte Wahl.

Betrachten wir eine kleine Auswahl von PaaS Angeboten und das darunter eingesetzte IaaS Angebot.

Was also fehlt ist ein unabhängiges gehostetes PaaS Angebot. Eine richtige PaaS Innovation! Eine Art PaaS Broker. SteamCannon geht in diese Richtung. Jedoch ist er 1. kein unabhängiger gehosteter Service (es steht ein AWS AMI zur Verfügung) und 2. wird derzeit nur AWS EC2 unterstützt.

Selbstverständlich muss der Service auch auf einer Plattform betrieben werden, aus diesem Grund mag das Verlangen nach einem unabhängigen gehosteten Service zunächst missverständlich sein. Aber bereits hier muss die Macht der Cloud genutzt werden. Der Killer PaaS darf nicht nur als AMI auf einer Infrastruktur laufen, sondern muss über mehrere Anbieter hinweg verteilt sein. So ist bereits dessen Ausfallsicherheit gewährleistet.

Der Killer

Warum ich diesen Service als Killer PaaS bezeichne ist ganz einfach. Er muss alle IaaS Anbieter und nicht nur einen bestimmten am Markt, sowie alle gängigen Programmiersprachen, unterstützen. Die Funktionalität ist in der Theorie recht simpel. Als Nutzer des Killer PaaS habe ich bereits vorher bei unterschiedlichen IaaS Anbietern wie AWS, Rackspace, GoGrid etc. einen Account registriert. Alternativ bietet mir der Killer PaaS an, dort einen erstellen zu lassen.

Nach belieben werden die Zugangsdaten für den jeweiligen IaaS Anbieter hinterlegt, auf die der Killer PaaS zugreifen kann. Ich kann bereits hier, wenn ich möchte, meinen primäre, sekundären etc. Anbieter festlegen. Mehr habe ich als Nutzer nicht zu tun.

Möchte ich meine Anwendungen in der Cloud betreiben, lade ich den Programmcode auf den Killer PaaS hoch. Dieser kümmert sich nun um den Rest und deployed die Anwendung auf die von mir hinterlegten Infrastrukturen. Das kann er entweder willkürlich vornehmen, da er den Status der jeweiligen Infrastruktur bzgl. Performance etc. kennt, oder er zieht die von mir vorher festgelegten Einstellungen in betracht und verteilt die Anwendung auf den primären Anbieter. Falls dieser zu ausgelastet ist auf den Sekundären usw..

Der Killer PaaS ist so intelligent, dass er die gesamte Anwendung über mehrere Anbieter hinweg verteilt und damit die bestmögliche Performanz und Verfügbarkeit gewährleistet. Habe ich mich als Nutzer jedoch zu Beginn dafür entschieden die Anwendung bei einem primären Anbieter ausführen zu lassen und hat dieser nun Performance- oder anderweitige Probleme, sorgt der Killer PaaS dafür, dass automatisch weitere (oder alle) Ressourcen von einem anderen Anbieter genutzt werden. Mir sind Fälle bekannt, bei denen Anwender bei AWS keine neuen Instanzen in einer AWS Region mehr starten konnten, weil nicht genügend Ressourcen vorhanden waren. Davon darf ich bzw. meine Anwendung jedoch nichts mitbekommen. Wenn meine Anwendung plötzlich einer enormen Belastung, z.B. auf Grund eines Besucherandrangs, ausgesetzt ist und der IaaS Provider ebenfalls einen Ressourcenengpass hat, sorgt der Killer PaaS dafür, dass Ressourcen von einem anderen Anbieter bezogen oder andere Maßnahmen eingeleitet werden.

Mit so einem Killer PaaS können ebenfalls viele Fragen bzgl. SLAs geklärt werden. Die Ausfallsicherheit und Verfügbarkeit der Anwendung wird hier durch den Killer PaaS sichergestellt. Da dieser ebenfalls über mehrere IaaS Anbieter hinweg in der Cloud betrieben wird, ist auch dessen Verfügbarkeit gewährleistet.

Was also benötigt wird ist eine unabhängige Cloud Management Platform wie bspw. enstratus, nur für PaaS.

Kategorien
Analysen

Der Weg zum Cloud Standard!

Was viele Experten und Organisationen wie die Open Source Business Foundation (OSBF), die Distributed Management Task Force (DMTF) und Unternehmen wie bspw. RedHat mit der Deltacloud API bereits seit langer Zeit fordern geht in die nächste Runde.

Das IEEE (Institute of Electrical and Electronical Engineers) hat zwei Projekte zur Standardisierung eingeleitet, die dazu dienen sollen, mittels eines Frameworks Interoperabilität zwischen unterschiedlichen Cloud Computing Plattformen zu schaffen. Bei den jeweiligen Projekten handelt es sich um die „Cloud Portability and Interoperability Profiles“ (P2301), sowie dem „Standard for Intercloud Interoperability and Federation“ (P2302).

Auf Basis der unterschiedlichen Schnittstellen, Protokolle und Dateiformate soll das Projekt „P2301“ Standards für die Portabilität und die Verwaltung von Cloud Computing Technologien entwickeln. Das Projekt „P2302“ hingegen widmet sich der Standardisierung von Schnittstellen, die für den Datenaustausch zwischen Clouds bzw. Cloud Computing Anbietern dienen sollen und somit die Interoperabilität zwischen den unterschiedlichen Cloud Computing Plattformen gewährleisten.

Weitere Informationen der IEEE: http://standards.ieee.org/news/2011/cloud.html

Kategorien
Analysen

Cloud Computing und die Schatten-IT

Fördert Cloud Computing die Schatten-IT? Ja, definitiv!

Was ist eine Schatten-IT?

Ganz einfach gesagt: Die Nutzung von IT-Ressourcen wie Hardware und Software von Mitarbeitern ohne die Kenntnis der IT-Abteilungen.

Dabei handelt es sich nicht um ein neues Problem, im Gegenteil. Die meisten Firmenrechner sind grundsätzlich nicht ausreichend gegen den gemeinen Mitarbeiter geschützt. Über USB-Sticks oder anderen Datenträgern, aber auch das Internet kann Software auf den PC gelangen. Für die beiden erstgenannten helfen Thin-Clients, Computer mit einer minimalen Hardwareausstattung – z.B. ohne CD-Laufwerk.

In der Regel entsteht eine Schatten-IT jedoch nicht aus Boshaftigkeit, sondern aus reiner Verzweiflung. So kommt es vor, dass Unternehmen nicht ausreichend Softwarelizenzen vorrätig haben und das ein Programm nicht gestartet werden kann, da der Autorisierungsschlüssel auf einem Server liegt. In den meisten Fällen hilft das kurzzeitige entfernen des Netzwerkkabels. Langfristig gesehen aber nur eine alternative Software z.B. aus dem Open Source Bereich.

Cloud Computing fördert dieses Problem!

Statt sich um lokale Alternativen zu kümmern, bedienen wir uns nun aus der Cloud. Heutzutage ist es ein leichtes, mittels Dropbox einen kostenlosen Cloud Storage zu nutzen oder per Google Docs ein Dokument zu erstellen. Gehen wir einen Schritt weiter, wird das Entführen von Dokumenten oder anderen Dateien damit ebenfalls gefördert. Eine Datei bei Dropbox oder Google Docs hochzuladen ist schnell erledigt. Falls der Upload von Dateien untersagt ist, lässt sich dieses durch das einfache Erstellen eines neuen Google Docs Dokuments und dem Kopieren der Inhalte aus dem lokalen Dokument in das „Cloud“-Dokument vornehmen.

Ähnlich verhält es sich mit Infrastruktur-Ressourcen, also virtuellen Servern von Anbietern wie den Amazon Web Services, GoGrid oder Rackspace. Durch die immer leichter zu bedienenden Managementoberflächen über einen Webbrowser können sich Entwickler oder Fachabteilungen ein eigenes virtuelles Rechenzentrum in der Cloud aufbauen, ohne das die IT-Abteilungen etwas davon merkt.

Aber warum ist das so?

Während eines Gespräches hörte ich vor kurzem folgende Aussage:

„Unser Infrastrukturdienstleister (IT-Abteilung/ Rechenzentrum) ist zu unflexibel und der Zeitraum bis wir neue Ressourcen für ein Projekt erhalten ist zu lang. Zudem sind sie nicht in der Lage uns eine Cloud Computing Infrastruktur bereitzustellen. Daher haben wir begonnen ein Testprojekt bei den Amazon Web Services zu evaluieren.“

Solche Aussagen zeigen das Problem: IT-Abteilungen hängen den Anforderungen der Fachabteilungen technologisch hinterher.

Was muss passieren?

IT-Abteilungen haben natürlich die Möglichkeit mittels Firewalls und weiteren Sicherheitstechnologien den Zugriff auf externe Systeme zu beschränken. Jedoch ist es schlichtweg so, dass eine Einschränkung der Mitarbeiter ebenfalls das Kreativpotential verringert. Daher gilt es für die IT-Abteilungen an erster Stelle aktive Aufklärungsarbeit zu leisten.

Zudem sollten IT-Abteilungen nicht zu einem überwachenden Organ werden.

Unternehmen gehen mittlerweile dazu über, Firmenkreditkarten zu überwachen. Wenn keine Firmenkreditkarten vorhanden sind, werden die Spesen und Reisekostenabrechnungen der Mitarbeiter überwacht, da Mitarbeiter und Fachabteilungen dazu übergegangen sind, die Kosten für den Cloud Service mit der privaten Kreditkarte zu begleichen und die Kosten über Spesen etc. zu verrechnen.

Solche Praktiken kommen jedoch einem Überwachungsstaat gleich und schüren Misstrauen innerhalb des Unternehmens.

IT-Abteilungen sollten daher selber kleine Cloud Projekte starten und über diese aktiv berichten. Ganz nach dem Motto: „Tue Gutes und rede darüber.“ Damit zeigen sie ihren Kollegen und Mitarbeitern, dass sie über die geforderte Expertise verfügen und zudem offen gegenüber der Cloud und neuen Technologien sind.

Die IT ist heutzutage der Business Enabler und die IT-Abteilungen erhalten durch das Cloud Computing noch mehr Potential das zu fördern.

Kategorien
Analysen

Die "Mobile Cloud" ist der wahre Megatrend

Genau genommen laufen die beiden Megatrends Mobile Computing und Cloud Computing bereits seit mehreren Jahren Hand in Hand nebeneinander her.

Worauf viele Anbieter wie z.B. Apple jahrelang verzichtet haben, hat Google bereits während der Einführung von Android besonderen Wert gelegt und hat damit das enorme Wachstumspotential erkannt. So hat Google z.B. seine Dienste wie Mail, Kalender etc. sowie das App Deployment über den Market Cloud basiert ausgerichtet.

Das erste Android Endgerät (HTC Dream | T-Mobile G1) kam am 22.10.2008 auf den Markt. Zielgruppe waren in erster Linie Privatnutzer, die mit einem Googlekonto ihre E-Mails, Termine, Kontakte etc. synchronisieren wollten. Nach etwas über einem Jahr entwickelte sich das System langsam aber sicher zu einer mobilen Plattform für den Unternehmenseinsatz. Das Update auf Android 1.6 brachte nun auch die lang ersehnte Möglichkeit, das Endgerät via VPN mit einer Gegenstelle zu verbinden. Verbindungen können hierbei über die Protokolle PPTP und L2TP (IPsec PSK bzw. IPsec CRT) hergestellt werden.

Für den Einsatz im Unternehmen stehen Anwendungen für unterschiedliche Bereiche zur Verfügung. Als mobiler Dateimanager ist der Astro File Manager eine gute Alternative. Wie schon auf den Palm Handhelds hat Dataviz ebenfalls für Android eine Version seiner mobilen Office Suite Documents To Go im Portfolio. Über einen kostenlosen Viewer können Word Dokumente, Excel Dateien und Power Point Präsentationen betrachtet werden. Die kostenpflichtige Version gestattet dann auch das Erstellen und Bearbeiten der oben genannten Dateien und zusätzlich das Betrachten von PDF-Dateien. Für Administratoren steht das Programm Server up bereit. Damit können Netzwerke und Webserver mobil überwacht werden und es informiert über unterschiedliche Arten u.a. per SMS oder E-Mail, wenn z.B. ein Server nicht mehr erreichbar ist. Salesforce, Anbieter von Geschäftsanwendungen (u.a. CRM) stellt seine Produkte ebenfalls als mobile Versionen mit dem Namen Salesforce Mobile zur Verfügung. Da diese allerdings über den Webbrowser genutzt werden sind sie daher aber nicht auf Android beschränkt. Für den Abruf von E-Mails bzw. die Synchronisation mit einem Microsoft Exchange Server stehen u.a. Anwendungen wie K-9 Mail, TouchDown oder Aardvark bereit.

Der meiner Ansicht nach größte Vorteil von Android, der auch für den Einsatz im Unternehmen spricht ist die Portabilität. Neben Smartphones funktioniert Android auf den beliebten Netbooks und Tablets. Aber ebenso der Einsatz auf modernen Kassensystemen, MDEs (Mobile Datenerfassung) und jeder Art von Embedded Systems ist vorstellbar.

Optimales Szenario

Das bisher noch einfachste und bzgl. Android mit dem wenigsten Aufwand verbundene Szenario ist der vollständige Einsatz der Google Infrastruktur. Das setzt allerdings voraus, dass von dem Unternehmen bereits Google Apps für die E-Mail Kommunikation und die Verwaltung der Kalender und Kontakte eingesetzt wird. Android ist per se vollständig in die Google Infrastruktur integriert. Somit werden alle Änderungen die z.B. im E-Mail Postfach oder im Kalender stattfinden automatisch mit den Google Servern synchronisiert. Daher sind die Daten eines Benutzers – egal an welchem Arbeitsplatz (Desktop/ Mobil) er sitzt – immer auf dem aktuellen Stand. E-Mails werden über den Push-Mail Dienst automatisch auf das mobile Endgerät zugestellt. Dies ist wohlgemerkt das optimale Szenario und kann so nicht ohne einen Mehraufwand umgesetzt werden, wenn z.B. ein Exchange Server eingesetzt wird.

Ideal für eine Cloud Strategie

Android verfolgt u.a. den Ansatz des Cloud Computing. Das heißt die Daten liegen dabei in einer Serverfarm im Internet und synchronisieren sich in diesem Fall mit dem mobilen Endgerät.
Entscheidet sich ein Unternehmen z.B. für das oben beschriebene Szenario, bei dem die Daten bei Google gespeichert werden, kann hier auf die Bereitstellung und Wartung der mobilen Infrastruktur im eigenen Rechenzentrum verzichtet werden, was einen klaren Kostenvorteil bedeutet. Durch das Speichern der Unternehmensdaten auf den Servern und nicht auf dem mobilen Endgerät sind die Daten geschützt. Das Endgerät kann im Falle eines Diebstahls oder anderen Missgeschicken jederzeit zentral gesperrt bzw. generell zentral administriert werden. Telefongespräche können über das Unternehmensnetzwerk stattfinden. Die Gespräche werden vom mobilen Endgerät gestartet und anschließend vom Unternehmensnetzwerk geroutet (z.B. in das Festnetz) und gesteuert. Der Vorteil besteht in der deutlichen Trennung von privaten und geschäftlichen Gesprächen, der Nutzung einer einzigen Rufnummer und den Zugriff auf die zentrale Kontaktdatenbank des Unternehmens. Neben (mobilen) Telefonkonferenzen über das Unternehmensnetzwerk unabhängig von Ort/ Zeit und beliebig vielen Benutzern besteht die Möglichkeit den aktuellen Status jedes Benutzers abzufragen um so zu sehen ob dieser gerade Verfügbar ist. Weiterhin haben u.a. Außendienstmitarbeiter Zugriff auf sämtliche Daten (z.B. CRM oder ERP) von jedem Ort mittels einer (mobilen) Internetverbindung.

Fazit

Die Mobile Cloud ist kein Zukunftsthema sondern bereits seit längerer Zeit in der Gegenwart angekommen. In ihr verschmelzen die beiden Megatrends Mobile Computing und Cloud Computing zu einem Hypertrend (wenn man diesen so bezeichnen darf) und ermöglichen Unternehmen und Ihren Mitarbeitern somit den Zugriff auf sämtliche Daten von jedem Ort und zu jeder Zeit.

Kategorien
Analysen

Cloud + Co-Working = Cloud Working

Co-Working bzw. Co-Working Spaces, wie z.B. das Betahaus Hamburg sind der neue Trend, wenn es darum geht agil, innovativ und interdisziplinär miteinander zu arbeiten.

Es handelt sich dabei um eine neue Arbeitsform, in der bspw. Freiberufler, Startups etc. unabhängig und nebeneinander innerhalb desselben Arbeitsbereiches agieren und damit voneinander profitieren sollen.

Der eigene Arbeitsplatz soll damit unverbindlich und zeitlich flexibel genutzt werden – das pay-as-you-go Büro!

Die Cloud unterstützt beim Co-Working

Und wie das Co-Working bei der Kreativität und der interdisziplinären Zusammenarbeit hilft, unterstützt Cloud Computing dabei, die technische Zusammenarbeit zu fördern, um aus den gemeinsamen Ideen echte Produkte und Dienstleistungen zu kreiieren. Denn die Erhöhung der Agilität und Flexibilität gehören schließlich auch zu den grundlegenden Eigenschaften des Cloud Computing.

Dazu stehen zahlreiche Anwendungen in der Cloud bereit, um jederzeit und von jedem Ort aus zu arbeiten. Neben Tools für das Projektmanagement wie Basecamp oder planio, Cloud Office Suites wie Google Apps oder Zoho, CRM Tools wie Salesforce, Storage Services wie Dropbox oder JungleDisk, sowie vollständige Infrastrukturen wie die Amazon Web Services helfen dabei, die Ziele erfolgreich zu erreichen.

Die genannten Anwendungen lassen sich innerhalb kürzester Zeit aktivieren und auch das Hinzufügen weiterer Mitarbeiter ist ein Kinderspiel. Vorbei sind die Zeiten, in denen ein Ticket beim Support eröffnet werden muss, um einen weiteren Kollegen die Anwendungen zur Verfügung zu stellen, die er benötigt um gemeinsam am Ziel mitzuwirken.

Vor allem das gemeinsame Bearbeiten von Dokumenten wird durch die Nutzung von Cloud Office Suites immer effizienter. So kann an einem Google Docs Dokument bspw. zur selben Zeit an demselben Dokument gearbeitet werden. Das ist im ersten Moment nichts beeindruckendes. Sieht man jedoch, wie von Geisterhand die Buchstaben des Projektpartners das Dokument füllen, während man selber eine Passage in diesem Dokument bearbeitet, ist das schon ziemlich cool. Zudem ich aus eigener Erfahrung sagen kann, dass Dokumente bzw. Entscheidungen und dadurch Projekte tatsächlich deutlich schneller abgeschlossen werden können.

Von Cloud Services profitieren Startups und Freiberufler ebenfalls, indem sie ihre Investitionskosten auf ein Minimum beschränken können, da sie kein Kapital in die Anschaffung von eigenen Servern zum Speichern der Daten aufbringen müssen. Hier helfen Storage Dienste, wie z.B. das bereits oben genannte Dropbox.

Gedanken gilt es sich auch um die Infrastruktur zu machen, die für die Umsetzung der Ideen, die beim Co-Working entstanden sind, erforderlich ist. Fixe Kosten können bekanntlich der Tod eines jeden jungen und aufstrebenden Unternehmens sein. Zudem verhindert ein finanzieller Engpass die Umsetzung von Ideen und Innovationen, wenn die entsprechende Infrastruktur nicht zur Verfügung stehen kann. Cloud Infrastructure Services wie die Amazon Web Services helfen hier – nicht nur kleinen Unternehmen und Projekten. Zudem fördern sie die Agilität und verringern die technische Bürokratie, wie sie aus starren Unternehmensstrukturen bekannt sind, da die benötigte Infrastruktur innerhalb von Minuten bereitgestellt wird.

Fazit

Jeder Co-Worker ist zugleich auch ein Cloud-Worker. Zumindest sollte er sich über die Möglichkeiten, welche die Cloud ihm bietet, informieren, um auch aus technisch kollaborativer Sicht flexibel zu sein.