Kategorien
Analysen

Die Angst vor dem Kontrollverlust durch SaaS und Cloud Services

CIOs werden sich in Zukunft mit dem Kontrollverlust ihrer Daten beschäftigen müssen, die über unterschiedliche Software-as-a-Service Anwendungen durch verschiedenen Abteilungen verteilt sind. Nach und nach kommen immer mehr SaaS Applikationen hinzu, welche die Situation weiter verschärfen werden. Proaktives Handeln ist gefragt!

Der Kontrollverlust wird immer größer

So merken immer mehr IT-Abteilungen, dass sie nicht mehr in der Lage sind, zu kontrollieren, welche Cloud Anwendungen wie bspw. Salesforce, Google Apps oder Box von den jeweiligen Abteilungen genutzt werden, da sich viele bereits selbständig bedienen. Das Hauptproblem besteht dahin, dass mittlerweile viele Entscheidungen an der IT-Abteilung vorbei getätigt werden. Ein sehr ungewohntes Bild für die IT-Entscheider, sind sie doch historisch betrachtet der Mann im IT-Haus. Dieses Phänomen wird auch als Schatten-IT bezeichnet, was durch das Cloud Computing, auf Grund des einfachen Zugriffs auf Ressourcen, seinen Höhepunkt erhält.

Was die einzelnen Abteilungen und Mitarbeiter jedoch vergessen: Je mehr SaaS Anwendungen oder Cloud Services (ungefragt) in das Unternehmen eingeführt werden, desto größer werden die Sicherheitslöcher und der Kontrollverlust, nicht nur für den CIO, breitet sich aus.

Dabei existieren ausreichend Systeme und Mechanismen, um mit der Herausforderung umzugehen. Für diese Lösungen kann bzw. sollte allerdings nur die IT-Abteilung zuständig sein. Ein erster Schritt bedeutet daher Aufklärungsarbeit: reden, reden, reden und die Verantwortlichen der jeweiligen Abteilungen und Arbeitsgruppen mit ins Boot holen.

Sind die zwischenmenschlichen Bereiche geklärt helfen z.B. Single Sign-On Systeme, um die Mitarbeiter zu unterstützen sich nur ein Passwort merken zu müssen und sie von dem Notieren von Benutzernamen und Passwörtern an ungeeigneten Plätzen abzuhalten. Sollte ein Mitarbeiter aus dem Unternehmen ausscheiden, müssen die Zugriffe auf die Cloud basierten Anwendungen unterbunden werden. Kümmert sich eine Abteilung oder ein Projekt selbst darum, bleibt der Account – aus eigener Erfahrung -offen, da dieser schließlich noch benötigt werden könnte. Hier helfen z.B. automatisierte Systeme, die den Zugriff auf den Account sperren.

Genau so verhält es sich bei der Überwachung der Cloud basierten Anwendungen sowie der Rollenvergabe und der damit verbundenen Rechtesituation. Sollte ein Mitarbeiter in eine höhere Position wechseln, erhält er damit in der Regel auch neue Rechte, um auf sensiblere Daten zugreifen zu dürfen.

In allen Fällen kann u.a. ein Identity and Access Management (IAM) System helfen, das für die Überwachung und Kontrolle spezieller Richtlinien zuständig ist. Hier ist es allerdings von besonderer Wichtigkeit, dass die IT-Abteilung wieder die Oberhand gewinnt und proaktiv auf die Mitarbeiter zugeht und nicht versucht durch das Sperren von Ports und Anwendungen die Macht wieder an sich zu reißen. Die Mitarbeiter, Arbeitsgruppen und Abteilungen genießen nämlich ihre aktuelle Freiheit, unkompliziert und vor allem schnell neue Lösungen und Anwendungen zu nutzen, ohne dafür Wochen oder gar Monate warten zu müssen!


Bildquelle: http://blog.insight.com

Kategorien
Analysen

Consumerization of IT: Die Cloud macht IT-Abteilungen selbst zum Nutzer

Mitarbeiter stehen eine Vielzahl an unterschiedlichen Endgeräten und IT-Services zur Verfügung, die sie ohne Hilfe aber vor allem ohne die Zustimmung der Unternehmens IT und unachtsam jeglicher Vorschriften nutzen können. Zudem wird die Liste der Geräte und Services täglich länger. Die private Nutzung von iPhones, iPads und Android basierten Geräten im Arbeitsalltag sehen manche Unternehmen als vorteilhaft, andere wiederum als ein Risiko und versuchen den Einsatz zu verhindern. Unabhängig davon, ob diese Geräte nun geduldet oder sich ein Widerstand entwickelt, stehen Unternehmen und ihre IT-Abteilungen bei der Verwaltung und Organisation von Consumerization und BYOD erst am Anfang und auch die Cloud spielt dabei eine wichtige Rolle.

Durch den Consumerization Trend werden IT-Abteilungen selbst zum Nutzer

Denn das Thema Consumerization of IT und das Phänomen „Bring your own device“ (BYOD) haben einen viel größeren Einfluss und eine höhere Bedeutung als nur die Wahl der persönlich bevorzugten Technologie. Es handelt sich viel mehr um einen Wandel in der Beziehung zwischen den (führenden) Mitarbeitern wie spezifischen Arbeitsgruppen, Managern sowie den Geschäftsbereichen und den IT-Abteilungen. Die Mitarbeiter möchten selbst über die Auswahl der genutzten Technologien entscheiden bzw. nehmen diese Entscheidungen bereits selbst vor. So stehen neben Google Apps, Dropbox, Salesforce, Skype und Twitter weitere zahlreiche Cloud Services und Software-as-a-Service Anwendungen bereit, die schnell und einfach zu nutzen sind und gleichermaßen mit einem Knopfdruck zur Verfügung stehen. Daher ist es auch nicht verwunderlich, dass die Mitarbeiter ohne die Erlaubnis der IT-Abteilungen oder deren Hilfestellung diese Art von Lösungen nutzen.

Kurzum handelt es sich bei der Consumerization of IT um eine Herausforderung für traditionsbewusste und noch klassisch eingestellte IT-Abteilungen, da diese sich insbesondere für die Bereitstellung, den Zugang und die Kontrolle aller Informationsressourcen verantwortlich sehen. Allerdings darf nicht vergessen werden, dass die Informationstechnologie im Laufe der Jahre eine immer größere Bedeutung im Leben jedes Einzelnen gewonnen hat. Mitarbeiter und die IT-Abteilungen müssen nun einen neuen – für beide Seiten zufriedenstellenden – Weg finden, der den Mitarbeitern auf der einen Seite die gewünschte Freiheit und Flexibilität gibt, um sich auf ihren Arbeitsalltag für das Unternehmen zu konzentrieren, aber wichtige Themen wie die Sicherheit und Compliance ebenfalls nicht zweitrangig behandelt werden.

Ironischerweise werden sich die IT-Abteilungen ebenfalls mehr und mehr in der Rolle von “einfachen” Technologie Nutzern wiederfinden. Denn Cloud Computing ist ein logischer Schritt der Consumerization of IT. Waren IT-Abteilungen früher dafür zuständig, dem Unternehmen und den Entscheidern schnellstmöglich und am Besten in Echtzeit Lösungen zu liefern, sind sie durch das Cloud Computing selbst zum Nutzer geworden und somit auf Dritte angewiesen. So werden sich die IT-Abteilungen vom einfachen Bereitstellen der IT für das Unternehmen zu Vermittlern (Broker) innerhalb des Unternehmens entwickeln und dafür zu sorgen, die benötigten Services einzukaufen, um damit die passenden Lösungen zu kombinieren.


Bildquelle: http://media11.connectedsocialmedia.com, http://onemindblog.wordpress.com

Kategorien
Analysen

Sorgt die Telekom endlich für den Durchbruch des Cloud Computing in Deutschland?

Die Deutsche Telekom hat vom Tabakkonzern British American Tobacco einen Cloud Computing Auftrag über 160 Millionen Euro mit einer Laufzeit von sieben Jahren erhalten. Dabei geht es um die Abbildung und Verarbeitung der betriebswirtschaftlichen SAP Prozesse in der Cloud.

Die Deutsche Telekom geht steil in die Cloud

Die offensive der Deutschen Telekom im Cloud Computing ist kaum zu übersehen. Die CeBIT war nur ein Indikator für den Willen, in der Cloud etwas bewegen zu wollen. Hinzu kommt die Penetration des Endkundengeschäfts mit massiver Print- und Fernsehwerbung für die Telekom Cloud. Kann die Deutsche Telekom damit aber auch endlich für den Durchbruch der Cloud in Deutschland sorgen?

Neben Virtual Private Cloud Services für Unternehmenskunden und der Telekom Cloud für das Privatsegment hat die Telekom im Rahmen der CeBIT angekündigt, ab Sommer 2012 einen Cloud Services Marktplatz für kleine und mittelständische Unternehmen anzubieten, dessen Cloud Infrastruktur auf OpenStack basiert.

Anders als die (US-amerikanischen) Cloud Anbieter deckt die Telekom somit beide wichtigen Bereiche ab, das Geschäftskunden- als auch das Privatkundensegment. Denn spätestens mit den Telekom Cloud Werbespots und Angeboten sollte der Term Cloud mittlerweile auch bei vielen Deutschen angekommen sein.

Die Cloud ist noch nicht in der Breite angekommen

Im für Skeptiker bekannten Deutschland ist Cloud Computing noch nicht richtig angekommen. Anders als z.B. in den USA, wo der Cloud Computing Markt regelrecht blüht und Milliardenumsätze eingefahren werden, finden sich in den Kommentaren zu Cloud Artikel auf anderen Online IT-Magazinen immer wieder Phrasen wie „Bleibt mir weg mit eurem ****** SaaS, das ist doch alles viel zu teuer.“ oder „Cloud? Meine Daten bekommt ihr nicht!“.

Die Deutschen Nichtnutzer oder Skeptiker sehen in der Cloud also eher eine Gefahr als eine Chance. Eine Chance auch für Startups, in dem weltweiten lukrativen Cloud Computing Markt ein Wort mitreden zu können.

Abgesehen von der doch recht beachtlichen Anzahl von SaaS Startups in Deutschland, ist der Markt für junge Unternehmen in den Bereichen IaaS und PaaS so gut wie nicht vorhanden. ScaleUp Technologies wollte als Spin-off der internet4YOU, bereits 2009 IaaS in Form von Rechenleistung und Speicherplatz aus Deutschland heraus anbieten. Mittlerweile nutzen sie die dafür selbst entwickelte Plattform, um diese großen Telkos zu verkaufen. Im Bereich PaaS halten cloudControl und Scalarium die Fahne hoch.

Wie daran gut zu erkennen ist, es fehlt an Kapital, um Infrastructure Services aufzubauen. Scalarium und cloudControl setzen als Grundlage auf die Amazon Web Services und setzen ihre Plattform für das Cloud Hosting oben drauf. VCs investieren lieber in den Consumer Markt, was auch an der Akzeptanz des Cloud Computing in Deutschland liegen mag.

Dabei zeigen aktuelle Zahlen einen sehr positiven Trend, der auch schon während des Aufkommen des Cloud Computing prognostiziert wurde. So wird der Software-as-a-Service Markt in diesem Jahr um 17,9% auf 14.5 Milliarden US-Dollar wachsen. Alleine in Westeuropa auf 3,2 Milliarden Dollar. Zudem wird der gesamte deutsche Markt für Cloud Computing in diesem Jahr die Umsatzgrenze von 5 Milliarden Euro überschreiten und damit um fast 50 Prozent wachsen.

Die Deutsche Telekom kann Einfluss haben

Die Telekom kann und wird mittelfristig dafür sorgen, dass sich Cloud Computing auch endlich in der Breite in Deutschland etabliert. Ein Signal kann bereits der British American Tobacco Deal sein. Die Studien zeigen darüber hinaus bereits einen deutlichen Trend, der sich nun – z.B. mit der Telekom Cloud – auch auf den Markt für Privatkunden auswirken wird. Zudem existieren neben der Telekom weitere Cloud Computing Anbieter im selben Segment, die zwar nur die Geschäftskunden ansprechen, aber ebenfalls beachtenswerte Angebote haben.

Von besonderer Bedeutung wird weiterhin der Datenschutz im dafür sehr sensiblen Deutschland bleiben, was zu einem Standortvorteil werden kann, es zwangsläufig aber nicht sein muss. Hier muss weiterhin viel Vertrauen und Transparenz aufgebaut werden. Auf der anderen Seite gibt es mittlerweile allerdings viele Nutzer von Apples iCloud sowie Dropbox oder weiteren Cloud Storage Anbietern. Es ist also nur eine Frage der Zeit. Betrachtet man zudem den z.T. sehr lockeren Umgang mit privaten Daten in den sozialen Netzwerken, handelt es sich bei der Cloud Skepsis eher um ein Generationsproblem.

PS: Übrigens Deutschland, Big Data – ein Cloud Computing Use Case – steht auch schon länger vor der Tür! 😉

Kategorien
Analysen

Analyse: Die Platform-as-a-Service Umgebung von VMware Cloud Foundry

Ursprünglich startete Cloud Foundry als Plattform für das Deployment von Java Spring Anwendungen auf die Amazon Web Services. Im April 2011 folgte dann die Übernahme durch VMware, wodurch Cloud Foundry zu einem Open Source und Multi-Framework Platform-as-a-Service Angebot wurde, das eine Vielzahl von unterschiedlichen Sprachen und Laufzeitumgebungen unterstützt. Dazu gehören u.a. Java, Spring, Ruby, Scala und Node.js. VMware bezeichnet Cloud Foundry auch als ein Open PaaS, da die Plattform vom gewöhnlichen Notebook, über einen PC bis hin zu einer Public Cloud auf unterschiedlichen Systemen und Umgebungen genutzt werden kann.

Cloud Foundry ermöglicht das Multi-Cloud Deployment

Die Cloud Foundry Plattform setzt sich aus drei Bereichen zusammen. Der Erste bezieht sich auf die Wahl des Frameworks, der Zweite auf die Serviceunterstützung der Anwendung und die Dritte auf das Deployment.

Die Wahl des Frameworks

Cloud Foundry unterstützt neben Spring for Java, Rails und Sinatra for Ruby und Node.js ebenfalls JVM Sprachen wie Groovy, Grails und Scala. Hinzu kommt die Unterstützung für das Microsoft .NET Framework wodurch Cloud Foundry zur ersten nicht Microsoft Plattform gehörte, auf der .NET Anwendungen ausgerollt werden konnten. Alles zusammen macht Cloud Foundry zu einem der ersten mehrsprachigen PaaS.

Services für die Anwendung

In der Cloud sind Entwickler auf zuverlässige Messaging-Systeme, NoSQL Datenbanken zusammen mit relationalen Datenbanken angewiesen. Cloud Foundry unterstützt dafür neben RabbitMQ als Messaging-System sowie MongoDB und Redis als NoSQL Datenbanken, MySQL als relationale Datenbank. Die Liste der unterstützten Dienste wächst, so hat die Plattform zuletzt eine PostgreSQL-Unterstützung erhalten.

Das Deployment

Anhand von „Micro Cloud Foundry“ kann Cloud Foundry auf gewöhnlichen Notebooks oder Computer genutzt werden. Dazu beinhaltet die Micro Cloud Foundry den vollständigen Cloud Foundry Stack, mit dem virtuelle Maschinen auf einem PC oder Mac gestartet werden können. Cloud Foundry kann zudem in Private Cloud oder Public Cloud Umgebungen wie den Amazon Web Services betrieben werden. Das macht Cloud Foundry zu einem äußerst flexiblen PaaS.

Ausrollen von Anwendungen auf Cloud Foundry

Entwickler können Anwendungen entweder mit der SpringSource Tool Suite (STS) oder VMC, einer Ruby Gem Kommandozeile deployen.

Das Messaging System ist das Rückgrat von Cloud Foundry. Es handelt sich dabei um das zentrale Kommunikationssystem, über das alle Komponenten miteinander sprechen. Der HTTP Verkehr zu den einzelnen Anwendungen wird von Routern gesteuert. Diese routen die URLs zu den jeweiligen Anwendungen und übernehmen ebenfalls das Load Balancing des Verkehrs über die Instanzen.

Cloud Controller sind die Schlüsselkomponenten, die für die Verwaltung der Anwendungen zuständig sind. Sie verknüpfen die verschiedenen Services mit einer Anwendung und ermöglichen den Zugriff durch die externe REST API.

Ein Health Manager überwacht den Zustand aller ausgeführten Anwendungen. Fällt eine Anwendung aus, informiert er den Cloud Controller. Dieser ergreift die weiteren Maßnahmen.

Der ausführbare Code wird in Cloud Foundry zu Einheiten zusammengefasst und wiederum zu einem Droplet verpackt. Ein Droplet abstrahiert den zugrunde liegenden Code und stellt eine generische ausführbaren Code Einheit dar. Ein Droplet Execution Agent ist für die Ausführung des Codes innerhalb jedes Droplets verantwortlich und stellt das Betriebssystem und die Laufzeitumgebung bereit.

Fazit

Cloud Foundry ist ein schnell gewachsener und offener PaaS. Viele Hersteller haben ihre Unterstützung angekündigt und werden mit weiteren Plattformen und Services den Stack erweitern, was Cloud Foundry zu einer echten Alternative zu kommerziellen PaaS Angeboten wie Microsoft Windows Azure oder der Google App Engine werden lässt.

Kategorien
Analysen

Eine Analyse der Microsoft Windows Azure Plattform

Neben Platform-as-a-Services wie Cloud Foundry, Force.com, Google App Engine oder Red Hat OpenShift sollte man einen Service nicht vergessen: Windows Azure. Microsoft verfügt historisch bedingt über eine weltweit riesige Entwicklergemeinde, die nicht unterschätzt werden sollte. Die Microsoft Windows Azure Plattform wurde 2008 angekündigt und 2010 veröffentlicht. Seitdem hat Microsoft sein PaaS Angebot stetig um neue Funktionen erweitert.

Die Windows Azure Referenzarchitektur

Die Windows Azure Plattform wurde speziell für Entwickler konzipiert, um Anwendungen auf Basis von Microsoft Technologien wie bspw. .NET zu entwickeln. Dennoch können auch Java, PHP oder Node.js Entwickler die Umgebung für ihre Zwecke nutzen. Dazu bietet Microsoft ausreichend Tools und Plugins für Eclipse und anderer bekannter Entwicklungsumgebungen, um dieses zu ermöglichen.

Zunächst werden die einzelnen Komponenten der Windows Azure Platform betrachtet. Im Anschluss folgen dann ein paar Szenarien, wofür Azure genutzt werden kann.

Windows Azure

Bei Windows Azure handelt es sich um Herz und Seele der gesamten Azure Plattform. Es ist das Betriebssystem, dass auf jedem Server innerhalb der weltweit verteilten Rechenzentren der Azure Cloud läuft. Anders als die anderen Windows Versionen kann Windows Azure nicht käuflich erworben werden und ist speziell auf die Bedürfnisse der Cloud Infrastrukturen von Microsoft abgestimmt. Windows Azure abstrahiert dabei die darunterliegende Hardware und suggeriert somit, dass es sich dabei um lediglich eine Instanz des Betriebssystems handelt. Da das Betriebssystem über mehrere physikalische Server hinweg operiert, sorgt eine spezielle Schicht für die Koordination und Ausführung der jeweiligen Prozesse. Diese Schicht wird auch Fabric bezeichnet. Zwischen der Fabric und dem Windows Azure Betriebssystem befinden sich die virtuellen Maschinen (VM), auf denen der eigentliche Quellcode und die Anwendungen ausgeführt werden. Entwickler sehen jedoch nur zwei Services dieses Stacks, Windows Azure Compute und Windows Azure Storage.

Windows Azure Compute

Windows Azure Compute wird bspw. genutzt, wenn eine Anwendung auf Windows Azure ausgerollt werden soll. Dazu werden Anwendungen in drei möglichen Rollen ausgeführt, Web Role, Worker Role oder VM Role. Die Web Role wird genutzt um typische ASP.NET Web Anwendungen oder jede andere Art von CGI Web Anwendungen zu betreiben. Die Worker Role wird benötigt um langlaufende Prozesse, die über keine Benutzeroberfläche verfügen, auszuführen. Eine Web Role könnte in diesem Zusammenhang z.B. ein IIS Container und eine Worker Role ein Windows Service sein. Beide können auf mehreren Wegen miteinander kommunizieren, wobei der Quellcode innerhalb der Worker Role jedoch unabhängig von der Web Role läuft. Über die Worker Role können dann sowohl .NET Anwendungen als auch native COM Anwendungen auf Windows Azure portiert werden. Über die Worker Role unterstützt Windows Azure zudem Microsoft fremde Umgebungen wie PHP, Java und Node.js. Die VM Role ermöglicht es schlussendlich, Anwendungen innerhalb eines angepassten Windows Server 2008 Image auszuführen. Damit sind Unternehmen in der Lage Anwendungen auf Windows Azure zu portieren, die z.B. Abhängigkeiten zu Komponenten von Drittanbietern haben.

Windows Azure Storage

Um eine Anwendung ausführen zu lassen wird auf jedenfall Speicherplatz für die Konfiguration und weiterer Daten benötigt. Windows Azure Storage bietet hier drei unterschiedliche Möglichkeiten: Blobs, Tables und Queues.

Blobs sind dafür geeignet, um große binäre Objekte wie Bilder und Videos, Dokumente usw. zu speichern. Tables bietet einen skalierbaren Key/ Value basierten Speicher. Queues werden genutzt, um Nachrichten zuverlässig zwischen einzelnen Anwendungen zu übertragen. Daher sind Queues die beste Lösung, um eine Web Role und Worker Role miteinander kommunizieren zu lassen. Der Zugriff auf die Daten in Windows Azure Storage erfolgt per HTTP und REST.

Windows Azure Service Bus

Der Windows Azure Service Bus sorgt für eine nahtlose Integration von Services die sich innerhalb eines Unternehmens hinter einer Firewall und einem Service in der Cloud befinden. Damit wird quasi eine sicherer Brücke zwischen den klassischen on-Premise Anwendungen im Unternehmen und den Cloud Services hergestellt. Dazu werden die Services die sich hinter der Firewall oder dem NAT befinden bei dem Service Bus registriert, wodurch ein Cloud Service diese anschließend aufrufen kann. Der Service Bus abstrahiert den physikalischen Ort des Service, indem er eine URI bereitstellt, die jeder für den Aufruf nutzen kann.

Access Control Service

Bei dem Access Control Service handelt es sich um einen Mechanismus, der für die Absicherung der Cloud Services und Anwendungen genutzt wird. Dazu können auf eine sehr deklarative Art und Weise Regeln definiert werden, mit denen bestimmt wird, wie ein Cloud Service aufgerufen werden darf. Dabei werden eine Vielfalt von unterschiedlichen Identity-Management Infrastrukturen unterstützt. Der Access Control Service ermöglicht es bspw. Unternehmen ihre on-Premise Sicherheitsmechanismen der Active Directory mit den Cloud basierten Authentifizierung zu integrieren.

Windows Azure Caching

Windows Azure Caching stellt Anwendungen, die auf Windows Azure gehosted werden, einen In-Memory Caching Service zur Verfügung. Dieser vermeidet die Schreib/- und Lesezugriffe auf die Festplatte und ermöglicht den Anwendungen einen schnellen Zugriff auf die Daten aus einem High-Speed Cache. Der Cache kann mehrere Arten von Daten speichern, darunter XML, Binärdaten oder serialisierte CLR Objekte. Web Anwendungen die häufig nur lesende Zugriffe benötigen, können den Cache nutzen, um die Geschwindigkeit zu erhöhen.

SQL Azure

SQL Azure ist der Microsoft SQL Server in der Cloud. Anders als Azure Storage, das für das Speichern von unstrukturierten Daten genutzt wird, handelt es sich bei SQL Azure um eine vollständige Relationale Datenbank Engine. Sie basiert auf der selben Datenbank Engine wie der MS SQL Server und kann per T-SQL abgefragt werden. Auf Grund der Nähe zu MS SQL können on-Premise Anwendungen ohne weiteres auf SQL Azure zurückgreifen. Entwickler können mit ADO.NET oder ODBC API auf SQL Azure zugreifen. PHP Entwickler nutzen dazu die PHP API. Mit Microsoft SQL Azure Data Sync können Daten zwischen dem on-Premise SQL Server und SQL Azure synchronisiert werden. Dabei handelt es sich um eine sehr mächtige Funktion, um Datenknoten innerhalb der Cloud aufzubauen, die ständig mit den lokalen on-Premise Datenbanken synchronisiert werden. SQL Azure kann zudem exakt so behandelt werden wie ein gewöhnlicher Datenbank Server im eigenen Rechenzentrum. Da Microsoft hier allerdings für die Installation, Wartung und Verfügbarkeit des Datenbank Service zuständig ist, können sich Unternehmen darauf konzentrieren, den Service einfach nur zu nutzen.

Nun folgen ein paar Szenarien, die Ideal für die Nutzung der Microsoft Windows Azure Plattform sind.

Skalierbare Web Anwendungen

Da die Windows Azure Plattform auf den bekannten .NET und ASP.NET Plattformen basiert, ist es für Entwickler dieser Technologien einfach zu wechseln und Web Anwendungen kostengünstig auf Windows Azure zu betreiben. Damit erhalten Sie die Möglichkeit die Skalierbarkeit ihrer Web Anwendungen deutlich zu erhöhen ohne sich Gedanken über die dafür
notwendige Infrastruktur zu machen. Selbst PHP, Java oder Node.js Entwickler können von Azure profitieren.

Rechenintensive Anwendungen

Die Windows Azure Plattform kann für sehr prozess- und rechenintensive Anwendungen genutzt werden die gelegentlich eine große Menge an Rechenressourcen benötigen. Durch die Nutzung der Worker Role können Entwickler ihren Quellcode über mehrere Instanzen parallel ausführen lassen. Die entweder durch die Web Role oder der on-Premise Anwendung generierten Daten können anschließend der Worker Role via Azure Storage zugeteilt werden.

Zentraler Zugriff auf Daten

Wenn Daten für eine Vielzahl von Anwendungen, den Zugriff durch mehrere Browser, Computer und mobile Endgeräte zugänglich gemacht werden sollen, macht es Sinn, diese an einem zentralen Ort zu speichern. Windows Azure Storage ist hier eine gute Lösung, um Daten zentral zu speichern und zu pflegen sowie Desktop Anwendungen, Silverlight, Flash und AJAX basierten Web Anwendungen oder mobilen Applikationen bereitzustellen.

Hybride Anwendungen – verteilt in der Cloud und on-Premise

Es kann Bedingungen für die Erweiterung eines Teils einer Anwendung für die Cloud oder den Aufbau einer Cloud-Oberfläche für eine bestehende Anwendung geben. Durch die Nutzung des Service Bus und Access Control können on-Premise Anwendungen nathlos und sicher um bzw. in die Cloud erweitert werden. Dazu kann der Service Bus sowie eine weitere Technologie – Azure Direct Connect – dabei helfen, ein hybrides Cloud Szenario aufzubauen.

Cloud basierte Datenknoten

Mit Hilfe von SQL Azure können Unternehmen Datenknoten aufbauen, die den Zugriff durch externe Partner oder mobile Mitarbeiter ermöglichen. So könnte bspw. ein Unternehmen einen Teil seiner Daten in der Cloud bereitstellen, die ständig mit der lokalen Datenbank synchronisiert werden. Die Datenbank in der Cloud wird dann für B2B Partner für Abfragen und Bestellungen geöffnet. Hier helfen SQL Azure und SQL Azure Data Sync bei der Umsetzung so eines Szenarios.

Kategorien
Analysen

Red Hat OpenShift – Ein Blick hinter die Kulissen

Red Hat gehört zweifelsohne zu den bekannten Unternehmen die Plattformen in ihrem Portfolio haben. Zudem haben sie es geschafft das Open Source Konzept in ein rentables Business Model zu überführen. Mit der damaligen Akquisition von JBoss wurde der Weg in den lukrativen Markt der Middleware und Application-Server geebnet. In der Szene gilt der JBoss darüber hinaus zu den Entwickler freundlichen J2EE Application-Server.

RedHat: Von Open-Source zur Open-Cloud

Red Hats Cloud Strategie hat sich mit der Zeit entwickelt. Begonnen hat alles mit der klassischen Virtualisierung basierend auf KVM gefolgt von Red Hat MRG, mit dem Messaging-, Realtime- und Grid-Technologien für Unternehmen angeboten werden. Mit CloudForms erschien dann der erste vollständige IaaS Stack zum Aufbau einer Private Cloud, die im direkten Wettbewerb zu VMware und Microsoft Hyper-V steht. Somit hatet RedHat alle notwendigen Komponenten zusammen, um eine PaaS Angebot zu veröffentlichen: Virtualisierung auf Basis von KVM, Self Service und Private Cloud Möglichkeiten anhand von CloudForms sowie Application Services via JBoss.

Red Hat hat erkannt, dass wenn es im PaaS Bereich erfolgreich sein will, ein mehrsprachiges Angebot in den Markt bringen muss. Die Stärke von Red Hat besteht, unterstützt durch JBoss, in der Java EE Plattform. Durch die Akquisition von Makara wurde ein PaaS Anbieter gekauft, der sich auf PHP und Python Umgebungen spezialisiert hat. Ein kluger Schachzug, da Makara um Java EE erweitert werden konnte, um damit ein PaaS Angebot für Unternehmen anzubieten. Im May 2011 wurde mit OpenShift dann endgültig ein PaaS für Unternehmen veröffentlicht.

OpenShift gibt es in zwei unterschiedlichen Varianten: Express und Flex.

OpenShift Express ist ein kostenloses Angebot für Entwickler, dass zwar über keine graphische Managementoberfläche verfügt, aber eine Reihe von Sprachen wie Java, Perl, PHP, Python und Ruby unterstützt. Die Anwendungen werden in einer Shared-Umgebung betrieben und können über diverse Kommandozeilentools deployed werden. Die Möglichkeiten die einem Entwickler zur Verfügung stehen sind recht umfangreich. OpenShift Express unterstützt neben GIT Deployments eine gute Auswahl an Sprachen und Datenbanken.

OpenShift Flex läuft auf Amazon EC2 und benötigt die AWS Anmeldedaten, um Deployments von Anwendungen vorzunehmen. Während der 30 tägigen Probezeit werden die AWS Anmeldaten nicht benötigt und ermöglichen für diesen Zeitraum die kostenlosen Nutzung. OpenShift Flex ist für Unternehmen und Anwendungen mit einer Hochverfügbarkeit gedacht. Dazu werden neben dem JBoss Application Server ebenfalls der Apache Web Server, Apache Tomcat, MySQL, PHP, Zend Framework, Java, Memcached, Membase, Infinispan, MRG Messaging und MongoDB unterstützt. Die Architektur von OpenShift Flex wurde für Cloud Skeptiker entwickelt. Das bedeutet, das Flex technisch auf mehreren Public Cloud Anbietern und ebenfalls innerhalb eines eigenen Private PaaS eingesetzt werden kann.

Kategorien
Analysen

Nach der Cloud, wird Amazon auch der Big Data Gigant?

IaaS Cloud Infrastrukturen haben auf Grund ihrer Skalierbarkeit die idealen Voraussetzungen für die Verarbeitungen großer Datenmengen, wodurch Big Data ein idealer Anwendungsfall für Cloud Computing ist. Aber welcher Anbieter wird das Rennen um die Verarbeitung machen?

Big Data ist ein idealer Anwendungsfall für das Cloud Computing

Amazon Web Services

Ein Kandidat ist Amazon. Zum einen hat das Unternehmen auf Grund seines Kerngeschäfts, dem Web-Shop, eine große Expertise bei der Verarbeitung und Analyse großer Datenmengen aufgebaut und diese, betrachtet an der Evolution und dem Funktionsumfang der Webseite, stetig weiterentwickelt. Hinzu kommen aber auch die Amazon Web Services und der darunter liegenden massiv skalierbaren Infrastruktur, die ideal für die Verarbeitung von Big Data ist und die Unternehmen nutzen können, um dort Anwendungen für die Analyse ihrer Daten zu betreiben. Dazu stehen mit Amazon EC2, Amazon S3 und Amazon Elastic MapReduce gut miteinander zu kombinierende Services zur Verfügung. Neben dem Service AWS Import/ Export, mit dem große Datenmengen auf dem Postweg an Amazon geschickt werden können, die von Amazon dann direkt in die Cloud kopiert werden, hat sich Amazon mit der vor kurzem angekündigten Kooperation mit dem Private Cloud Infrastruktur-Software Anbieter Eucalyptus zudem eine gute Ausgangsposition geschaffen, um Unternehmen die Möglichkeit zu geben, über eine Hybrid Cloud Daten aus der Private in die Amazon Cloud übertragen zu lassen.

Google

Google hat ebenfalls viel Erfahrung bei der Verarbeitung großer Datenmengen, was u.a. auf die Indexierung des Internets und die damit verbundene Suche zurückzuführen ist – ebenfalls beides Kerngeschäfte von Google. Hinzu kommt, das Google kürzlich mit Google BigQuery einen neuen Service für Entwickler vorgestellt hat, auf dem Anwendungen entwickelt werden können, um Big Data zu verarbeiten. Dieser befindet sich aktuell aber noch in der geschlossenen Betaphase.

Anders als die Amazon Web Services scheint Google allerdings nicht so konsequent auf das Business getrimmt zu sein. Zudem wirkt Google an vielen Stellen immer noch wie ein großer Spielplatz für die eigenen Entwickler, was natürlich immer wieder gute Innovationen hervorbringt, Google sich aber bereits eingestehen musste, dass einige Services doch einfach mehr Kapital verbrennen als Nutzen ergeben. So wurde die Google App Engine anfangs stark gepushed, hat im Laufe der Zeit aber etwas an Innovation verloren.

Microsoft

Microsofts Kerngeschäft hat im Vergleich zu Amazon oder Google in erster Linie nichts mit der Verarbeitung großer Datenmengen zu tun. Dennoch steht mit Windows Azure ebenfalls eine skalierbare Infrastruktur bereit, auf der Unternehmen Big Data analysieren können.

Im Vergleich zu Google oder Amazon ist Microsoft aber bereits schon dort lange angekommen, wo die beiden erst genannten erst zielstrebig hinwollen, das Business. Microsoft sollte die Herausforderungen und Wünsche, insbesondere bei den renommierten Unternehmen, kennen und gezielt darauf eingehen können.

Erste infrastrukturelle Schritte hat Microsoft bereits mit der Unterstützung von Hadoop auf Azure unternommen und eine Agenda zeigt die weiteren Vorhaben für das Jahr 2012. So wird das Unternehmen mit Hilfe von Hortonworks und einer ODBC Schnittstelle Apache Hadoop an Microsofts Excel anbinden und so Big Data ins Büro bringen. Damit können Business Intelligence (BI) Tools einen direkten Zugang zu einem Hadoop Cluster erhalten und via Excel Pivot-Analysen durchgeführt werden.

Die Anderen

Es existieren eine Vielzahl an Unternehmen, die mit Big Data tagtäglich in ihrem Kerngeschäft konfrontiert werden. Dazu gehören bspw. ebay, Facebook, XING, LinkedIn oder auch Twitter. Allerdings bietet keines dieser genannten Unternehmen einen Public Cloud Service an, mit dem Big Data von Dritten verarbeitet werden könnte. Die Kosten für den Ausbau einer stärker skalierbaren Infrastruktur wären wohl auch zu hoch.

Allerdings sollten auch renommierte Unternehmen wie SAP, IBM oder Oracle im Bereich Big Data nicht aus den Augen gelassen werden. Die Expertise aus dem Kerngeschäft ist zweifelsohne vorhanden.


Bildquelle: https://www.emcforums2011.com, http://www.techweekeurope.es

Kategorien
Analysen

Verliert die Google App Engine ihre Attraktivität?

Platform-as-a-Service (PaaS) gehört mit Abstand zu den Zukunftsthemen im Cloud Computing. Im Jahr 2011 kamen neben bereits bestehenden Anbietern wie Heroku, Cloud Foundry, Engine Yard, Beanstalk, Windows Azure, Force.com, OpenShift oder cloudControl, viele weitere hinzu, was die mediale Präsenz dieses Cloud Bereichs anhob. Nur um einen Service ist ein wenig ruhig geworden: Die Google App Engine.

Die Google App Engine war bereits sehr früh verfügbar

Die Google App Engine (GAE) gehört mit der Erscheinung im Jahr 2008 zu einer der ersten PaaS am Markt und war der einzige Service der Python und Java gleichzeitig unterstützte. Aber im Laufe der Jahre hat die Innovation rund um GAE deutlich nachgelassen.

Startups und Entwickler gehörten zu den Hauptnutzern von GAE. Das lag in erster Linie an den Möglichkeiten der weitestgehend kostenlosen Nutzung und den nicht notwendigen Investitionen in SDKs und Plugins. Ein weiterer Grund war die geringe Auswahl an Angeboten. Java und Python Entwickler würden niemals Windows Azure wählen, was zu diesem Zeitpunkt die einzige Alternative war. Nach und nach entwickelte sich Heroku (mittlerweile von Salesforce aufgekauft) zu einer echten Alternative für Python Entwickler, auf Kosten der Google App Engine. Doch bereits während der Anfangsphase der GAE hat Google es verpasst die riesige Anzahl an gehosteten Anwendung an Bord zu behalten und die wichtige Entwickler Community für sich zu gewinnen. Was ist also der Grund für den Abstieg der Google App Engine?

Refactoring und Vendor lock-in

Ein Hauptproblem der Google App Engine besteht in den massiven Änderungen die vorgenommen werden müssen, wenn eine Anwendung auf die GAE portiert werden soll. Befindet sich die Anwendung dann auf der GAE, kann sie ausschließlich die proprietäre API nutzen, was es Entwickler sehr schwierig macht, später die Plattform wieder zu wechseln. Selbst Standard Java Web Anwendungen müssen an vielen Stellen angepasst werden, um auf der GAE betrieben zu werden. Während Heroku weitere Funktionen hinzufügte und für eine bessere Kontrolle sorgte, schränkte Google die Entwickler mit der proprietären API ein.

Beta-Status und Innovationen

Microsoft, das für seine langen Release-Zyklen bekannt ist, hat es geschafft das Azure SDK mehrfach zu aktualisieren und das Management Portal häufig zu verbessern. Die Google App Engine orientiert sich an Googles „Beta-Status“ Tradition. So blieb die GAE für fast drei Jahre im Beta-Status, was professionellen Entwicklern nicht die Sicherheit gab, ihre Produktionsanwendungen auf die GAE zu portieren. Während Google in der jungen Vergangenheit mit Pull Queues, Cloud SQL und der Blobstore API viele der gewünschten Funktionen umsetzen konnte, hat es lange gedauert auf die Bedürfnisse der Kunden zu reagieren.

Schlechte Unterstützung für Unternehmensanwendungen

Lange unterstützte die GAE nur zustandslose Web Anwendungen. Technologisch betrachtet können auf der GAE somit nur Web Anwendungen entwickelt werden, die keine komplexe Business-Logik benötigen. Bspw. verfügt Windows Azure über ein Rollenkonzept (Web Roles), um Web Anwendungen zu betreiben und Worker Roles, um damit lang laufende Prozesse und komplexe Geschäftsregeln ausführen zu lassen. Ähnlich verhält es sich bei Heroku, wo der Web Dyno und Worker Dyno diese Funktionen aufteilen. Bis zur Einführung von Backends in der Version 1.5.0 (Mai 2011), machte diese mangelnde Unterstützung zur Aufteilung einer Anwendung es schwierig Unternehmensanwendungen auf die GAE zu migrieren.

Der Datenzugriff

Lange nutzte die Google App Engine ausschließlich Big Table als primären Datenspeicher. Amazon zog schnell mit SimpleDB nach, führte damit weitere Funktionen ein und veröffentlichte mit RDS einen Database-as-a-Service. Zuletzt folgt dann DynamoDB. Das Fehlen eines guten Speichers für Transaktionsdaten schränkte die Entwickler bei der Nutzung der GAE stark ein. Jede Anwendung die professionell eingesetzt werden soll, benötigt zwangsläufig eine Kombination aus relationaler und NoSQL-Datenbank, um innerhalb der Cloud zu skalieren. Die GAE verfügte nicht über diese Funktionen, die für Daten-intensive Anwendungen erforderlich sind. Services wie BlobStore und Cloud SQL kamen demnach viel zu spät.

Vermarktung

Mit der Google App Engine hatte Google die ideale Position, Startups eine kostengünstige Plattform anzubieten. Sie wäre ideal gewesen, um typische Web-Anwendungen für den Markt der Endverbraucher zu entwickeln und bereitzustellen. Allerdings hat Google sich hier von Anfang nicht deutlich positioniert. Typische Low-End Web-Anwendungen, die prädestiniert für den Einsatz auf der App Engine gewesen wären, haben sich für Heroku entschieden, wohingegen High-End Anwendungen und Anwendungen mit hohen Workloads zu Amazon EC2 gegangen sind. Die Einführung der Amazon Micro Instanzen und die Free Tier Angebote haben der Google App Engine zudem weiterhin geschadet. Bis heute kann man nicht eindeutig sagen, welchen Platz die Google App Engine auf der mittlerweile großen Landkarte des PaaS einnimmt. Soll sie, aus Sicht von Google, genutzt werden, um Low-End Web-Anwendungen zu betreiben oder doch lieber für Unternehmensanwendungen?

Kosten

Natürlich mag es niemand, wenn ein vormals kostenloser Service nun bezahlt werden muss. Jedoch muss Google mit der App Engine auch irgendwann Geld verdienen. Allerdings hielten die Entwickler das neue Preismodell für äußerst unangemessen. Es gab einen riesen Aufruhr in der Community, als Google die neue Preisstruktur vorstellte. So stellten viele Kunden fest, dass ihre Kosten plötzlich um das drei- bis fünffache steigen würden. Das führte zu einem großen Bruch mit der Community, wodurch u.a. einige Startups von der Google App Engine zu Amazon EC2 bzw. zu einem klassischen Web Hoster gewechselt sind.

Sonstiges

Die GAE Entwickler Community hat den Eindruck, dass die App Engine im Vergleich zu Android innerhalb von Google schlechter angesehen wird. Das führt ebenfalls zu einer schlechten Stimmung.

Google und VMware kündigten damals auf der Google I/O im Jahr 2010 eine Partnerschaft an, um Spring auf die Google App Engine zu portieren. Trotz der Ankündigung kaufte VMware dennoch RabbitMQ und WaveMaker und brachte mit Cloud Foundry seine eigene PaaS Lösung auf den Markt. Während VMware CloudFoundry als Open PaaS positionierte, blieb die Google App Engine auf der Strecke.

Ein weiterer Rückschlag für Google war der Verlust des bekannten GAE Evangelist Patrick Chanezon, der als Head of Developer Relations zu VMware wechselte, um damit CloudFoundry zu stärken.

Kategorien
Analysen

Ist IaaS die Lösung für die Herausforderungen von Big Data?

Big Data gehört zu den Trend Themen für das Jahr 2012. Immer mehr Unternehmen suchen in dem Thema Lösungen für die Verarbeitung großer Datenmengen. Dazu gehören neben dem Speichern ebenso die Analysefunktionen auf diesen Daten. Wie aber kann Infrastructure-as-a-Services dabei helfen, mit diesen Problemen umzugehen und Lösungen zu finden?

Big Data ist die größte IT-Herausforderung für Unternehmen

Oracle’s jährlicher Datacentre Index, der im Januar veröffentlicht wurde zeigt, dass Unternehmen in Europa, dem Nahen Osten und Afrika ihre Rechenzentrumsstrategien auf Grund der stetig wachsenden Datenmengen für das Jahr 2012 überdenken müssen. Zudem wird Big Data von vielen als die größte IT-Herausforderung für Unternehmen in den nächsten zwei Jahren gesehen.

Datenflut

Unsere Datenmengen steigen exponentiell. Die parallele Nutzung von Dienstleistungen wie HDTV, Radio, Video on Demand (VOD) und Security as a Service haben immer höhere Anforderungen an Netzwerk-Infrastrukturen. Die Nutzungen von Anwendungen wie Videokonferenzen und neue Kommunikationswege wie Social Media verändern sich ständig, was ebenfalls Einfluss auf die tägliche Nutzung und den Zugriff auf Daten durch Unternehmen hat. Um mit diesen wachsenden Datenmengen umzugehen, wird verstärkt auf externe Rechenzentrumsfunktionen- und kapazitäten zurückgegriffen. Welche Daten dabei wie ausgelagert werden sollten stellen die größten Herausforderungen dar.

Ein allgemeines Problem

Traditionell gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Nutzern von Big Data. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, Wettervorhersage, Regierungen und die Medizinbranche. Alle genannten Bereiche haben seit Jahren mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen. Doch nun wirkt sich die Problematik auch auf weitere „normale“ Branchen aus.

Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält.

Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten bzw. Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind.

Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Welcher Weg ist der Richtige?

Die Öl-und Gasindustrie hat dies durch den Einsatz von eher traditionellen Storage-Lösungen (SANs und NASs) gelöst. Forschungsorientierte Organisationen oder Unternehmen wie Google, die mit der Analyse von Massendaten zu tun haben, neigen eher dazu den Grid Ansatz zu verfolgen, um die nicht benötigten Ressourcen in die Software-Entwicklung zu investieren.

IaaS (Infrastructure-as-a-Service), vereint beide Welten und nimmt dadurch eine einzigartige Position ein. Für diejenigen, die das SANs/NAS Konzept verstehen, werden die Ressourcen ebenfalls nutzen können, um massiv-parallele Systeme zu entwerfen. Wobei der Grid-Ansatz wahrscheinlich besser funktioniert. Für Unternehmen denen es schwer fällt sich mit den genannten Technologien auseinanderzusetzen oder diese zu verstehen, bieten IaaS Anbieter entsprechende Lösungen, um die Komplexität der Speichertechnologien zu umgehen und sich auf die Herausforderungen des Unternehmens zu konzentrieren.

Wettbewerbsfähig bleiben

McKinsey’s Report „Big data: The next frontier for innovation, competition, and productivity“, aus dem Jahr 2011 untersucht, wie Daten zu einer wichtigen Grundlage des Wettbewerbs werden sowie ein neues Produktivitätswachstum und Innovationen schaffen.

Wenn Unternehmen heutzutage wettbewerbsfähig bleiben wollen, müssen sie sicherzustellen, dass sie über die entsprechende IT-Infrastruktur verfügen, um mit den heutigen Daten-Anforderungen umzugehen. IaaS bietet damit ein solides Konzept und Fundament, um damit erfolgreich zu bleiben.

Kosteneinsparung für die interne IT-Infrastruktur, wie Server und Netzwerkkapazitäten, Freisetzen von dadurch nicht mehr benötigtem technischem Personal, um sich somit effizienter auf das Kerngeschäft zu konzentrieren und die Flexibilität neue Lösungen, auf Grund der sich ständig veränderten Datenmengen, besser zu skalieren sind die ersten Schritte um den Anforderungen von Big Data gerecht zu werden.

IaaS Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.


Bildquelle: http://collaborationforgood.org, http://futurezone.at

Kategorien
Analysen

Microsoft schafft den Spagat zwischen Cloud Computing und Mobile Computing. Die Mobile Cloud wird Realität!

Cloud Computing und Mobile Computing sind die technologischen Grundlagen von dem was als Consumerization bezeichnet wird. Es ist also nur eine logische Schlussfolgerung, dass sich diese beiden Bereiche zum Trend der Mobile Cloud zusammenschließen.

Die Mobile Cloud wird Realität

Unterbewusst nutzen wir die Mobile Cloud bereits seit längerer Zeit. Zum Beispiel dann, wenn wir eine E-Mail auf unserem mobilen Endgerät, wie Netbook, Laptop, aber vor allem Smartphone und Tablet wie Android, iPhone oder Windows bearbeiten. Die E-Mail wird zwar in der Regel lokal geschrieben, lassen wir den Zugriff über den Browser mal Außen vor, beim Versenden/ Empfangen bleibt aber eine Kopie auf den Servern des Anbieters bestehen, so dass wir auch über jedes andere Endgerät auf diese E-Mail zugreifen können. Sobald eine Datenverbindung besteht, wird diese E-Mail dann mit dem aktuell genutzten Endgerät synchronisiert.

Ein weiteres Beispiel für die Nutzung der Mobile Cloud sind Cloud Storage Lösungen wie bspw. Dropbox. Die Daten befinden sich in diesem Fall nicht auf dem lokalen Endgerät, sondern auf den Servern von Dropbox. Öffnen wir mit dem mobilen Client auf dem Smartphone/ Tablet einen Ordner werden zunächst nur Metadaten übertragen, die zeigen was sich in dem Ordner befindet. Erst wenn wir eine Datei auswählen, wird diese direkt auf das lokale Gerät übertragen. Das geschieht jedesmal, wenn wir die Datei öffnen möchten. Dropbox bietet hier allerdings die Möglichkeit, die Datei zu favorisieren. In diesem Fall wird eine lokale Kopie auf dem Smartphone abgelegt.

Die Mobile Cloud ermöglicht uns also den Zugriff auf unsere Daten von überall, zu jedem Zeitpunkt, unabhängig vom Endgerät – wenn denn eine Datenverbindung vorhanden ist. Kurzum, die Mobile Cloud ist großartig!

Auch Microsoft möchte ein Wörtchen Mitreden

In Zeiten von coolen Startups und gehypten Firmen wie Apple oder Suchmaschinen wie Google, die deutlich mehr Potential haben als nur das zu finden, über das wir uns gerade informieren möchten, wirken Unternehmen wie Microsoft im ersten Moment ein wenig blass und eingerostet. Das dieser Eindruck nicht von alleine kommt hat seine Gründe. Microsoft hat im Bereich Mobile Computing in den letzten Jahren nicht wirklich glänzen können. Erst mit dem Windows Phone und auch der Kooperation mit Nokia hat sich etwas bewegt. Was das Thema Cloud Computing angeht, hat es auch sehr lange gedauert, bis mit Windows Azure und Office 365 gute Alternativen zu anderen Lösungen den Markt erreicht haben.

Speziell beim Thema Cloud Computing kann und sollte man Microsoft jedoch ein wenig in Schutz nehmen. Mitbewerber wie Google oder Amazon konnten sich hier von Beginn an anders aufstellen. Wo Microsoft sich komplett neu erfinden musste, sind es die Kerngeschäfte, die Google und Amazon in die Cloud getrieben haben. Zudem verfügt Microsoft über eine immense Kundenbasis, die es zu befriedigen gilt. Google, Amazon oder auch Startups konnten hier relativ unbedacht an den Markt gehen und „einfach mal präsentieren“ was sie haben, ohne sich direkt vor Bestandskunden rechtfertigen zu müssen und diese ggf. zu verlieren. Das werden Google und Amazon ebenfalls noch zu spüren bekommen.

Der Mobile Cloud Ansatz von Microsoft

In den Bereichen wo Microsoft anfangs Schwächen offenbart hat, startet der Konzern anscheinend nun voll durch. Zumindest beeindruckt der Mobile Cloud Ansatz und stellt dem iOS aber auch Android eine wirklich ernstzunehmende Konkurrenz dar und zeigt, dass Microsoft das Thema Consumerization verstanden hat.

Microsoft hat das Thema Consumerization verstanden.

Microsoft hat das Thema Consumerization verstanden.

Die Grundlage der Microsoft Mobile Cloud bilden Windows 8 und Office 365 sowie weitere Lösungen wie Exchange, Sharepoint und Lync. Windows 8 und Office 365 sind dabei das bekannte Duo, was wir auch von dem Desktop kennen, nur als Tablet Variante. Exchange, Sharepoint und Lync hingegen arbeiten im Hintergrund. Entweder auf den Servern von Microsoft oder in der Private Cloud im eigenen Rechenzentrum.

Windows 8 wirkt sehr aufgeräumt mit einer innovativen Oberfläche, die weit entfernt von den alten UI-Design ist und nur durch die Farben im ersten Moment die Handschrift von Microsoft erkennen lässt. Was besonders gefällt ist allerdings die Nutzung des Tablets als quasi Desktop Ersatz. Mit einem „Wisch“ befindet man sich in einer bekannten Windows Oberfläche, die auch nicht Tablet affinen Nutzern das mobile Arbeiten ermöglicht, ohne sich großartig umstellen zu müssen. Hier wird auch der Unterschied zwischen einem iPad oder Android Tablet deutlich. Ein Windows 8 Tablet ist in erster Linie als Arbeitsgerät ausgelegt, wohingegen insbesondere Apple mit dem iPad zunächst die Masse der Multimedia Junkies ansprechen möchte und erst dann die Unternehmen.

Mit der lokalen Office 365 Installation auf dem Tablet in Verbindung mit einem SharePoint Server ist das verteilte Arbeiten von jedem Ort aus möglich – Internetverbindung vorausgesetzt! Sind das Tablet bzw. der Nutzer also mit dem SharePoint synchronisiert, werden alle Daten automatisch abgeglichen und das Weiterarbeiten mit einem anderen Endgerät ist kein Problem. Hier bietet ein Windows 8 Tablet allerdings einen weiteren Vorzug, der es ermöglicht das Tablet via Dockingstation mit einem Monitor, Maus und Tastatur zu verbinden und als „normalen“ Desktop-PC zu nutzen.

Fazit

Es hat zwar länger gedauert als bei den anderen Unternehmen, aber Microsoft ist im Bereich Cloud und Mobile steil aus der Kurve gekommen und kann den Trend Consumerization derzeit nach einer ersten Einschätzung am besten unterstützen. Trotz aller Kritiken wird an dieser Stelle einmal mehr deutlich wo Microsoft seine Wurzeln und Stärken hat: Das Business. Und genau diese Erfahrungen sind wertvolle Vorteile gegenüber den anderen Cloud und Mobile Anbietern im Markt.


Bildquelle: http://www.futureclick.net, https://devcentral.f5.com, http://sharepoint360.de,