Kategorien
Analysen

Software-as-a-Service: Warum auch Ihre Anwendung in die Cloud gehört

Software-as-a-Service ist der am schnellsten wachsende Bereich im Cloud Computing Markt. Immer mehr Anbieter traditioneller Softwarelösungen vollziehen den Wandel und bieten ihre Anwendungen aus der Cloud an. Erfahren Sie, warum auch Ihre Anwendung in die Cloud gehört und warum Ihre Kunden aber auch Sie als Anbieter davon profitieren.

Software-as-a-Service: Warum auch Ihre Anwendung in die Cloud gehört

Was bedeutet Software-as-a-Service?

Software-as-a-Service (SaaS) ist die oberste Schicht des Cloud Computing Servicemodells. Sie stellt dem Anwender vollständige Anwendungen zur Verfügung. Es kann als eine Art Distributionsmodell verstanden werden, bei dem die Nutzung von Software (Lizenzen) über das Internet von einem Drittanbieter angeboten wird. Der Drittanbieter übernimmt dabei u.a. die Wartung, Aktualisierung und das Hosting der Software. Für den Anbieter besteht der Vorteil darin, dass nur eine Instanz einer Software auf den Servern bereitgestellt werden muss, welche unzählige Anwender gleichzeitig nutzen können. Wird die Software auf einen aktuellen Stand gebracht, genügt ein Update Vorgang an zentraler Stelle und die Software ist für alle Anwender gleichzeitig aktuallisiert. Der Vorteil für den Anwender besteht darin, dass lediglich nur ein Endgerät mit einem Web-Browser und eine Internetverbindung ausreicht um z.B. Dienste wie E-Mail, Office Anwendungen oder ERP-Systeme nutzen zu können. Die Anschaffung und Wartung großer Serverlandschaften bzw. Softwarepakete entfällt ebenso wie das Updaten der lokalen Anwendungen. Der Drittanbieter sorgt immer für einen aktuellen Stand der Software und stellt die gesamte Infrastruktur für das Hosting der Software bereit. Dazu gehören auch das Speichern von Dateien und Dokumenten auf den Servern des Anbieters. Der Anbieter ist demnach für alle notwendigen Bereiche des Betriebs wie Verfügbarkeit, Backup, Redundanzen und auch die Stromversorgung verantwortlich. Die Abrechnung erfolgt mit dem pay per use Modell. Dabei werden die Kosten pro nutzenden Anwender der Software berechnet.

Was bedeutet SaaS für Ihre Kunden?

Kurzum, Software-as-a-Service macht Ihren Kunden das Leben einfacher und hilft diesen dabei, gezielt und nur bei Bedarf investieren zu müssen.

Überschaubare Investitionskosten

Zu einer IT-Infrastruktur zählen u.a. lokale Computersysteme, mit denen die Mitarbeiter ihre Arbeit verrichten. Auf diesen sind zum Teil zahlreiche Anwendungen installiert, die pro Computersystem oder Nutzer fest abgerechnet werden; egal ob der aktuelle Nutzer des Systems die Anwendung benötigt oder nicht. Weiterhin werden für das zentrale Speichern von Daten, Kommunikations- und Kollaborationslösungen wie E-Mail oder Systeme zur Zeiterfassung und Unternehmensplanung Serverhardware und Software im Backend benötigt. Vergessen sollte man auch nicht Server und Software für den Verzeichnisdienst, gegen den sich die Mitarbeiter autorisieren müssen. Alle aufgezählten Bereiche, und das ist nur ein Teil, führen zu hohen Investitionskosten. Dabei sollte zudem beachtet werden, dass dies alles auch gewartet und in regelmäßigen Abständen aktualisiert werden muss.

Software-as-a-Service verringert den größten Teil der oben genannten Nachteile einer lokalen IT-Infrastruktur. Hohe nicht haargenaue Investitionskosten in Lizenzen entfallen ebenso, wie ungenutzte Softwarelizenzen. Unternehmen haben in heutigen Zeiten verstärkt mit einer größer werdenden Mitarbeiterfluktuation zu tun. Hinzu kommt, dass viele auf Teilzeit- oder Aushilfskräfte zurückgreifen, um eine bestimmte Hochkonjunktur auszugleichen, die über dem Mittelwert im Jahr liegt. Dafür müssen entsprechende Lizenzen vorgehalten werden, damit jeder Mitarbeiter produktiv arbeiten kann. Das führt dazu, dass über das Jahr hinweg zu viele Softwarelizenzen im Unternehmen vorhanden und auf den Systemen installiert sind. Durch die nicht vorhersagbare Anzahl benötigter Mitarbeiter findet entweder eine Überinvestition statt oder es herrscht ein Mangel, der in der Regel durch Workarounds gelöst wird.

Mit einer Software-as-a-Service Lösung lassen sich je nach Bedarf weitere Nutzer innerhalb kürzester Zeit hinzufügen und auch wieder entfernen. Das bedeutet, das Unternehmen bezahlt tatsächlich nur für den Mitarbeiter, der auch eine bestimmte Software benötigt.

Ähnlich verhält es sich mit lokalen Computersystemen und den Servern im Backend. Die für E-Mail und ERP-Systeme notwendigen Server befinden sich innerhalb der Infrastruktur des Anbieters, der für deren Wartung, Aktualisierung und Administration zuständig ist. Eine Investition in diese Backendsysteme entfällt somit. Darüber hinaus werden keine performanten lokalen Computersysteme mehr benötigt. Da die Anwendung über einen Browser bereitgestellt und darüber ebenfalls genutzt wird, reichen in der Regel kostengünstige Terminals oder Thin-Clients.

Immer auf dem aktuellen Stand

Software muss ständig neuen Anforderungen genügen. Sei es auf Grund neuer gesetzlicher Vorschriften oder weil sich Fehler und Sicherheitslücken während des Entwicklungsprozesses eingeschlichen haben, die behoben werden müssen. Und natürlich erscheinen in regelmäßigen Abständen neue Softwareversionen, die neue Funktionen usw. mit sich bringen. All das erfolgt in einer klassischen IT-Infrastruktur normalerweise manuell durch einen vom Benutzer oder besser Administrator durchgeführten Installationsprozess oder durch automatisierte Systeme. So oder so ist das IT-Personal damit beschäftigt, zunächst Updates auf Testsystemen einzuspielen, um das Verhalten auf das Gesamtsystem zu überprüfen.

Eine Software-as-a-Service Anwendung ist ständig auf dem aktuellen Stand. Der Anbieter sorgt im Hintergrund dafür, dass Sicherheitslücken, Fehlerkorrekturen, Updates und neue Funktionen eingespielt werden, ohne das der Anwender oder Administrator aktiv daran beteiligt ist und in den meisten Fällen nichts davon bemerkt.

Orts- und plattformunabhängiges Arbeiten

Traditionelle Softwareapplikationen sind an ein lokales Computersystem gebunden, wodurch das orts- und plattformunabhängige Arbeiten erschwert wird. Mit mobilen Endgeräten wie Notebooks sind die Anwendungen zwar stückweit portabel, aber weiterhin an diesem einen Gerät gebunden. Zudem muss die jeweilige native Anwendung auch stets für das lokale Betriebssystem verfügbar sein, was nicht immer der Fall ist.

Software-as-a-Service Anwendungen werden über einen Standard-Webbrowser genutzt. Dadurch sind sie zu 100% orts- und plattformunabhängig. Steht einem Mitarbeiter mal nicht sein gewohntes System zur Verfügung, kann er über den Webbrowser dennoch auf die Anwendung zugreifen. Ein weiterer Vorteil besteht darin, dass der Zugriff auf wichtige Daten stets möglich ist, da diese zentral im Backend der SaaS Anwendung abgelegt werden und sich somit von jedem Mitarbeiter, der dazu berechtigt ist, aufrufen lassen.

Was bedeutet SaaS für Sie selbst?

Software-as-a-Service spart Ihnen Zeit, Geld und Nerven.

Kosten der Software

Ist eine klassische Anwendung fertig entwickelt, geht die eigentliche Arbeit erst los. Wie soll die Software vertrieben werden, wie werden Updates bereitgestellt und wie soll reagiert werden, wenn ein Bug entdeckt wird, dessen Korrektur immens wichtig ist? Das sind nur ein paar Fragen, die sich ein Anbieter stellten muss. Traditionell wird Software als Datenträger in Form einer CD ausgeliefert. Das bedeutet auf der einen Seite Kosten für die Datenträger, Verpackung, Logistik usw. Auf der anderen Seite aber ebenfalls einen statischen Stand der Softwareversion, der nach jeder Neuinstallation mit Updates (per CD) zusätzlich erweitert werden muss. Aber wie verhält es sich, wenn auch das Update wiederum einen Fehler beinhaltet oder nicht kompatible zu bestimmten anderen Applikationen ist? Der logistische Prozess beginnt von vorne. Im Laufe der Zeit ist man dazu übergegangen, Software und Updates als Downloads bereitzustellen. Dadurch konnten zwar Kosten eingespart werden, die Updateproblematik bleibt aber zum größten Teil bestehen. Ähnlich verhält es sich beim Release einer vollständig neuen Softwareversion mit neuen Funktionen und Design.

Software-as-a-Service hebt diese Problematiken vollständig auf. Die Anwendung wird online über einen Webbrowser zugänglich gemacht, wodurch sämtliche externe logistische Prozesse entfallen. Ebenso verhält es sich mit dem Bereitstellen von Updates. Dieses entfällt vollständig, da Sie als Anbieter alle Fäden der Software in der Hand halten und die Änderungen, Fehlerkorrekturen, Verbesserungen und völlig neue Versionen an einer zentralen Stelle pflegen.

Plattformunabhängigkeit

Manche Software steht ausschließlich für die bekannten Betriebssysteme zur Verfügung. Die Entwicklung und der Vertrieb lohnen sich für die vermeintlichen Kleinen nicht. Das schreckt nicht nur den einen oder anderen Nutzer ab, sondern lässt diesen zu Aussagen hinreißen, das der Anbieter nicht offen sei.

Software-as-a-Service sorgt für die Plattformunabhängigkeit der Anwendung und somit zu einer größeren Reichweite und Kundenzufriedenheit. Die Anwendung wird ausschließlich über einen Browser bereitgestellt und funktioniert ohne die Installationen weiterer Softwarekomponenten. Das hat zur Folge, dass Sie nur für die gängigen Standardbrowser entwickeln müssen und die lokalen Betriebssysteme und alle darauf installierten Applikationen keinen Einfluss auf Ihre Software nehmen.

Auch Ihre Anwendung gehört in die Cloud

Vergleichen wir den klassischen Softwaremarkt und wie hier Software entwickelt, bereitgestellt und konsumiert wird, mit dem Cloud Computing, wird eines sehr deutlich. Die Art wie Software an den Nutzer ausgeliefert wird, hat sich verändert. Das Verschicken von Datenträgern oder das Bereitstellen von Updates entfällt. Ebenso das Installieren der Software bzw. der Updates. Software wird aus der Cloud als Service, daher auch Software-as-a-Service (SaaS), bereitgestellt. Der Anbieter hat hier soweit alle Fäden in der Hand und der Nutzer bemerkt, rein äußerlich, z.B. ein Update nicht. Es sei denn, es werden Änderungen an der Oberfläche vorgenommen. Im Updateprozess selbst ist der Nutzer nicht involviert, denn er muss nichts herunterladen oder installieren. Er konsumiert die Software lediglich über einen Webbrowser.


Download

Sie können CloudUser.de auch unterstützen und den Artikel kostenpflichtig als PDF unter „Software-as-a-Service: Warum auch Ihre Anwendung in die Cloud gehört“ herunterladen.


Bildquelle: Nicholas Thein / pixelio.de

Kategorien
Analysen

Ihre Cloud Computing Strategie: Der Use Case ist von zentraler Bedeutung

Was sind die zentralen Elemente einer Cloud-Strategie? Diese Frage ist nicht immer einfach und kann in der Regel nur allgemein beantwortet werden, da es „den“ Masterplan für eine Cloud-Strategie nicht gibt. Welcher genauso wenig für eine Unternehmensstrategie oder IT-Strategie existiert.

Der Use Case steht im Mittelpunkt

Eine IT-Strategie hat immer die Aufgabe die Unternehmensstrategie bestmöglich zu unterstützen. Denn heutzutage kann oder vielmehr sollte sich aus der IT-Strategie eine mögliche Unternehmensstrategie ableiten. Eine gute Referenz ist die „IT-Governance-Geschäftsarchitektur“ aus „Referenzmodelle für IT-Governance“ von Wolfgang Johannsen und Matthias Goeken. Das Modell ist zwar sehr theoretisch, zeigt aber wie alle Teile eines Unternehmens zusammenhängen sollten.

Ihre Cloud Computing Strategie: Der Use Case ist von zentraler Bedeutung

Graphik aus „Referenzmodelle für IT-Governance“ von Wolfgang Johannsen, Matthias Goeken

Ebenso verhält es sich mit einer Cloud-Strategie. Die Frage ist, wie können Cloud-Services die Unternehmensstrategie unterstützen. Das muss sich zwangsläufig nicht in harten Zahlen wie „x Prozent mehr Umsatz erzielt“ widerspiegeln. Wenn ein Unternehmen es bspw. auf Basis von Software-as-a-Service (SaaS) schafft, dass seine Mitarbeiter flexibler arbeiten können (von zu Hause oder einem Café), dann hat es etwas für die Produktivität seiner Mitarbeiter getan was sich mittelfristig, vielleicht sogar kurzfristig auch in Zahlen zeigt. Ein weiterer möglicher Ansatz ist es, die Cloud für die eigene Innovation des Unternehmens zu nutzen, da man schneller an Ressourcen gelangt um kurzfristig zu schauen ob die Idee funktionieren könnte. Stichwort Forschung und Entwicklung.

Cloud-Strategie: Top-down oder Bottom-up

Hierzu kann man den in der Informatik oft verwendeten Top-down bzw. Bottom-up Ansatz nutzen, um ein Verständnis für den Einfluss des Cloud Computing auf die Strategie eines Unternehmens zu erhalten.

Top-down Cloud-Strategie

Beim Top-down Ansatz werden die Möglichkeiten des Cloud Computing für ein Unternehmen analysiert und daraus ein konkreter Use Case definiert. Also eine Innovation bzw. eine Idee kreiert, die das Cloud Computing erst ermöglicht. Anschließend wird auf dieser Basis die Cloud-Strategie erstellt.

Bottom-up Cloud-Strategie

Beim Bottom-up Ansatz wird ein bereits existierender Use Case mit den Möglichkeiten des Cloud Computing umgesetzt. Das bedeutet, es wird analysiert, wie die Cloud dabei helfen kann, die Anforderungen des Use Cases bestmöglich zu unterstützen. Daraus leitet sich dann die jeweilige Cloud-Strategie ab.

Ihre Cloud Computing Strategie: Der Use Case ist von zentraler Bedeutung

Cloud-Strategie: Top-down oder Bottom-up (René Büst, renebuest research, 2013

Es gilt also grundsätzlich zu überlegen, was man als Unternehmen erreichen möchte und wie die Cloud dabei helfen kann, dieses Ziel zu erreichen. Auf der anderen Seite heißt es aber auch zu verstehen, welche Möglichkeiten die Cloud bietet, um daraus eine Strategie abzuleiten und somit den Innovationsgrad des Unternehmens zu erhöhen. Erst wenn man verstanden hat wohin man gehen möchte, sollte man sich auch um konkrete Cloud-Lösungen kümmern. Der Weg in die Cloud startet mit dem richtigen Use Case. Es muss bereits ein konkretes Konzept und eine Idee feststehen, denn Technologien sind austauschbar.

Cloud-Strategie: Die wesentlichen Punkte

Neben dem eigentlichen Use Case ist es von entscheidender Bedeutung, den richtigen Verantwortlichen zu finden, der für die Umsetzung der Cloud-Strategie sorgt. Dieser muss neben der Informationstechnologie ebenfalls die Anforderungen von der Unternehmensseite kennen und verstehen. Darüber hinaus sollte er auch über den Tellerrand blicken können, um über den Top-down Ansatz mögliche Potentiale des Cloud Computing für das Unternehmen zu erkennen.

Services und Prozesse

Ausgehend vom Bottom-up Ansatz müssen die bestehenden Prozesse des Unternehmens in Services abgeleitet werden. Auf dieser Basis wird es den IT-Verantwortlichen erleichtert, mögliche Cloud-Lösungen zu evaluieren, welche die Anforderungen erfüllen und das Unternehmensziel bestmöglich unterstützen.

KPIs definieren

Ist der Cloud-Einsatz auch erfolgreich? Wie auch andere Investitionen und Veränderungen muss auch die Cloud-Strategie messbar gemacht werden. Dafür sind Key Performance Indicator (KPI) ein bewährtes Mittel. Eine mögliche Messgröße sind die Kosten. Das sollte aber nicht die Einzige und auf keinen Fall die mit der höchsten Priorität sein. Denn beim Cloud Computing geht es um viel mehr als nur Kosten einzusparen. Es geht unter anderem um die Verbesserung der Agilität eines Unternehmens. Das wäre dann auch ein weiterer KPI, die Agilität. Diese kann zum Beispiel aussagen, um wie viel schneller die Mitarbeiter Services aus der Cloud nutzen können. Ein weiterer KPI könnte Aussagen über die Performance der Skalierbarkeit machen.

Die IT-Abteilung verändern

Cloud Computing erfordert auch neue Kenntnisse und Aufgaben der Mitarbeiter. Neben Cloud-Architekten und weiteren neuen Rollen, werden Cloud-Service-Manager benötigt, die für die jeweiligen Services und deren Verfügbarkeit verantwortlich sind und neue Services evaluieren.

Multi-Cloud Strategie und Failover berücksichtigen

Auch eine Public Cloud ist nicht fehlerfrei. Das sollte in der Cloud-Strategie unbedingt von Beginn an berücksichtigt und dafür Failover-Szenarien entwickelt werden. Dazu gehört u.a. das Erstellen einer Sub-Cloud-Strategie für die Nutzung von mehreren Clouds, die im Fehlerfall genutzt werden können, bis das primäre Angebot wieder betriebsbereit ist.

Finden Sie Ihren Weg

Cloud Computing beginnt immer mit einem Use Case, auf dessen Basis sich dann eine Cloud-Strategie ergibt. In der Regel verfügt ein Unternehmen bereits über eine Unternehmens- und eine IT-Strategie, welche bestimmte Use Cases abbildet (Button-up). Dann sollte die Cloud-Strategie die Ziele beider vereinen, unterstützen und im besten Fall erweitern.

Von der grünen Wiese kommend (Top-down) lässt sich der Innovationsgrad eines Unternehmens zudem erhöhen, indem die Fähigkeiten des Cloud Computing analysiert und daraus neue Möglichkeiten für das Unternehmen aufgezeigt werden, aus denen es einen Wettbewerbsvorteil oder neue Mittel und Wege entdeckt, die dabei helfen um u.a. produktiver zu sein.


Download

Sie können CloudUser.de auch unterstützen und den Artikel kostenpflichtig als PDF unter „Ihre Cloud Computing Strategie: Der Use Case ist von zentraler Bedeutung“ herunterladen.

Kategorien
Analysen

Amazon kauft Eucalyptus Cloud – Es ist nur eine Frage der Zeit

In der Public Cloud sind die Amazon Web Services (AWS) derzeit die unangefochtene Nummer Eins. Bei Private bzw. Hybrid Cloud Lösungen sind Anbieter wie Microsoft oder HP allerdings besser aufgestellt. AWS selbst hat hier zur Zeit kein eigenes Angebot zu bieten. Stattdessen wurde im März 2012 eine exklusive Kooperation mit Eucalyptus Systems eingegangen, die ein Abbild der grundlegenden AWS Funktionen bieten. Diese strategische Entscheidung ist nachvollziehbar und wird Folgen für die Zukunft haben.

Die Kooperation zwischen AWS und Eucalyptus

Im März 2012 haben AWS und Eucalyptus Systems, Anbieter einer Private Cloud Infrastruktur-Software, mit der sich die grundlegenden Funktionen der Amazon Cloud auch im eigenen Rechenzentrum aufbauen lassen, sich zu einer engeren zusammenarbeiten entschlossen. Diese Kooperation ging verstärkt von Eucalyptus CEO Marten Mickos aus und hat den Hintergrund, die Migration von Daten zwischen der Amazon Cloud und Eucalyptus Private Clouds besser zu unterstützen.

Dabei ist die Kooperation unterschiedlich aufgebaut. Zunächst konzentrieren sich Entwickler aus beiden Unternehmen darauf, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.

Der Mitbewerb holt auf

Auch wenn es in der Public Cloud derzeit sehr rosig aussieht, die Zukunft liegt in der Hybrid Cloud. Hinzu kommt, dass viele Unternehmen eher mit einer eigenen Private Cloud liebäugeln, als in die Public Cloud zu wechseln. Das bedeutet, dass die Private bzw. die Hybrid zunehmend an Bedeutung gewinnen. Hier haben die Amazon Web Services, bis auf die Virtual Private Cloud, jedoch selbst nichts zu bieten. Microsoft und HP verfügen bereits über ein sehr ausgeglichenes Portfolio, das sowohl Lösungen und Angebote für die Public als auch für die Private Cloud bietet. Weiterhin verfügen beide über eine große Kundenbasis.

Außerdem ist ein weiterer Punkt klar. Wo sich Microsoft und HP auf Unternehmen konzentrieren, sind die Amazon Web Services derzeit noch verstärkt das Mekka für Startups. Der Erfolg spricht für sich. Dennoch, schaut man sich Amazons Bemühungen in den letzten Monaten an, ist die Zielrichtung klar. AWS muss und will in die Unternehmen. Das ist jedoch nur mit einer echten Private/ Hybrid Cloud Strategie möglich. Amazon wird daher irgendwann an einem Punkt ankommen, wo es aktiv darum geht, auch diese Märkte aggressiv zu erobern.

Amazon ist ein Serviceanbieter

Bisher hat AWS im Cloud-Umfeld keine Akquisitionen getätigt, da sie es einfach nicht mussten. Als Innovation-Leader setzen sie die Maßstäbe in der Public Cloud. In der Private/ Hybrid Cloud sieht es jedoch anders aus. Hier besteht, meiner Einschätzung nach, so gut wie keine Expertise. Auch wenn Amazon eigene Rechenzentren betreibt, ist der Betrieb einer quasi Standardlösung für Unternehmen anders. Hier haben Microsoft oder HP jahrelange Erfahrungen und somit einen klaren Vorteil. Die Amazon Web Services sind ein typischer Service-Anbieter. Das bedeutet, sie liefern ihre Services aus der Cloud aus, die einfach nur konsumiert werden sollen. Cloud-Software für den Massenmarkt wird nicht entwickelt. Für das Bereitstellen, Ausliefern, Warten und Ausrollen von Updates und neuer Versionen sowie die Kunden zu besänftigen fehlt die Erfahrung. Daher ist die Kooperation mit Eucalyptus der erste richtige Schritt gewesen. Was nicht zum Kerngeschäft gehört wird ausgelagert. So wie Amazon Cloud Computing vermarktet, scheinen sie es auch selbst zu leben.

Dennoch wird Amazon mehr Einfluss auf auf die Private und Hybrid Cloud nehmen und ebenfalls ein Stück von diesem Kuchen genießen wollen. Daher wird der nächste logische Schritt darin bestehen, Eucalyptus Systems zu kaufen. Zum Einen geht es um mehr Einfluss auf Eucalyptus. Denn auch auch wenn Marten Mickos die Kooperation mit AWS vorangetrieben hat, wird er sich nicht allem beugen, was Amazon verlangt. Auf der anderen Seite muss die Hybrid Cloud Integration gestärkt werden. Hinzu kommt, dass für die Private Cloud Beratung qualifiziertes Personal benötigt wird, das Eucalyptus inkl. seiner Partnerunternehmen ebenfalls mitbringt.

Es ist nur eine Frage der Zeit

Wann Eucalyptus Systems von Amazon übernommen wird ist eine Frage der Zeit. Vielleicht schon in 2013 oder doch erst in 2014/ 2015. Auf jedenfall wird es dazu kommen. Wie Eucalyptus dann integriert wird ist schwer zu sagen. Ich gehe davon aus, dass Eucalyptus zunächst eigenständig agieren wird und als „Ein Amazon Unternehmen“ unter die Dachmarke von Amazon gesetzt wird. Ganz nach dem Motto, konzentriere dich auf dein Kerngeschäft, wird AWS sich weiterhin auf die Public Cloud konzentrieren und in Ruhe schauen, wie sich die Hybrid und Private Cloud, unter dem eigenen Einfluss, entwickeln wird. Auf jedenfall hätten sie mit Eucalyptus dann schon einmal die richtige Lösung für ihre Zwecke im eigenen Portfolio.

Kategorien
Analysen

Meine fünf Cloud Computing, Mobile und Big Data Vorhersagen für 2013 und ein Wunsch

Ich wollte mich dieses Jahr eigentlich nicht an den Spekulationen beteiligen. Eine Anfrage von CloudExpos Jeremy Geelan konnte ich allerdings nicht ausschlagen und hab für ihn meine ganz persönlichen Vorhersagen für den Cloud Computing, Mobile und Big Data Markt für 2013 niedergeschrieben. Diese möchten ich dann natürlich auch hier veröffentlichen und ebenfalls einen persönlichen Wunsch äußern.

1. Big Data ist das neue Öl

Im Jahr 2012 haben wir ein enormes Wachstum des Big Data Marktes inkl. neuen Lösungen für die Analyse von großen Mengen an Informationen gesehen. Das wird sich im Jahr 2013 fortsetzen. Denn das Unternehmen, das es schafft, die qualitativ hochwertigsten Daten zu sammeln, darauf die für sich besten Analysen vornimmt und damit die hochwertigsten Informationen erhält, wird sich am Markt an eine führende Position begeben.

Allerdings sollten wir hier nicht den Endnutzer vernachlässigen. Heute sprechen wir über die Backend-Systeme, wenn wir von Big Data sprechen. Dabei wird jedoch vergessen, dass auch wir als Nutzer extrem beeinflusst werden. Betrachten wir die Viehlzahl an sozialen Netzwerken, e-mail und weitere online und offline Anwendungen, sind wir einer Daten- bzw. Informationsüberlast ausgesetzt, die ebenfalls in irgendeiner Form verwaltet werden muss, um uns zu helfen die Informationstechnologie bzw. unser Leben bequemer zu gestalten.

2. Die Bedeutung der Mobile Cloud nimmt zu

Tatsächlich existiert die sogenannte Mobile Cloud bereits seit mehreren Jahren, da es sich beim Cloud Computing um das Rückgrat der mobilen Welt handelt. Bei genauerer Betrachtung wird deutlich, dass Cloud Computing ein Erfolgsgarant für den Markt mobiler Technologien und Angebote ist. Die Cloud ermöglicht es Anbietern ihren Kunden den für sie tatsächlich einen Mehrwert bringenden Content wie Bücher, Musik ,Apps etc. an jedem Ort und geräteübergreifend bereitzustellen. Smartphones, Tablets und andere neue mobile Endgeräte werden diesen Trend in 2013 weiter verstärken. Insbesondere das Potential in Afrika und der dort stark wachsende Markt mobiler Angebote wird die Mobile Cloud zu einem der wichtigsten Ansätze in der Zukunft machen.

3. Mobile Big Data

Als ein weiteres Resultat der wachsenden mobilen Märkte in den Schwellenländern, wird das Thema Big Data neben der Mobile Cloud für Unternehmen immer wichtiger werden, um neue Kunden weltweit und insbesondere in den Schwellenländern zu erreichen. Unternehmen müssen verstehen, wie Kunden dort Technologien, Services und das Internet nutzen und wie grundsätzlich konsumiert wird. Das wird sowohl einen großen Einfluss auf die alten Märkte als auch die Neuen haben und ebenfalls die neuen Kunden beeinflussen.

4. Hybrid Cloud macht das Rennen

Sind wir ehrlich. Die Public Cloud ist die einzig wahre Cloud! Auf Grund von Bedenken hinsichtlich der Sicherheit und des Datenschutzes plus neuen Gesetzen, die es Regierungen erlauben auf Daten in der Cloud zuzugreifen, werden immer mehr Unternehmen ihre Private Cloud Strategie planen. Das bedeutet nicht, dass die Public Cloud tod ist. Wir werden weiterhin neue Services in der Public Cloud sehen und auch Unternehmen werden sie u.a. zur Skalierung nutzen. Aber am Ende wird die Hybrid Cloud das Rennen machen. Unternehmen sind angehalten, ihre Daten zu klassifizieren, bevor sie in die Cloud übertragen werden. Das bedeutet, dass sensible Daten in der Private Cloud bzw. im nur virtualisierten Rechenzentrum bleiben und unkritische Daten wie Marketingkampagnen und weitere nicht so sensible Daten wandern in die Public Cloud. Dafür wird selbstverständlich eine Verbindung sowie eine sichere Kombination aus Private und Public Cloud benötigt, die Hybrid Cloud.

5. Hybrid Tablets ziehen in die Unternehmen ein

Tablets helfen uns dabei, die IT, das Internet und weitere Dinge bequemer zu nutzen. Jedoch sind sie für den vollständigen Einsatz im Unternehmen nicht geeignet. Auf Konferenzen und Reisen sehe ich regelmäßig Nutzer, die sich zu ihrem Tablet eine externe Tastatur gekauft haben. Hybrid Tablets sind das beste aus beiden Welten. Das Tablet mit seinem Touchscreen und einer einfach zu bedienenden Benutzeroberfläche plus den klassischen Laptops und ihren Tastaturen. Lange Texte auf einem Tablet mit der virtuellen Tastatur zu schreiben macht kein Spaß und ist anstrengend, was auch die Reaktionen von Business-Anwendern sind. Darüber hinaus werden Hybrid Tablets die heutigen gewöhnlichen Laptops ersetzen.

Mein Wunsch für 2013

Mein Wunsch für 2013 geht an alle Cloud Computing Anbieter: Hört bitte mit euren nebulösen Marketing-Phrasen auf und bietet einfach nur gute Cloud Services an, die stabil sind und dem Kunden einen echten Mehrwert bieten.

Kategorien
Analysen

Wann erscheint das Microsoft Cloudbook?

Mit Windows 8 hat Microsoft bereits vieles ins Zentrum der Cloud gestellt. Wie man es von anderen Systemen kennt, kann für Windows 8 nun auch ein zentraler Microsoft-Account genutzt werden, um darüber Einstellungen, Apps aus dem Marketplace und Daten geräteübergreifend zu synchronisieren. Produktiv- und Mediendaten lassen sich über SkyDrive in das System einbinden. Office 365 und Office 2013 stehen zudem als lokale und reine Cloud-Lösungen bereit.

Die strategische Neuausrichtung zahlt sich aus

Hier zeigt sich auch die strategische Ausrichtung der letzten Monate, indem angefangen wurde u.a. SkyDrive mit sehr attraktiven Preisen zu vermarkten und ebenfalls die SkyDrive APIs für Entwickler zu öffnen. Ein weiterer bedeutender Schritt war zudem die Fokussierung der Office Suites auf die Cloud.

Windows Azure dient als neuer zentraler Anker

Ein weiterer wichtiger Schritt war die Erweiterung seiner Cloud Computing Plattform Windows Azure um die Windows Azure Mobile Services. Entwickler von Windows 8 Applikationen erhalten damit die Möglichkeit, Windows Azure als Cloud Backend für ihre Apps zu nutzen, um dort bspw. Daten zu speichern oder Nachrichten zu versenden oder Benutzer zu autorisieren. Zunächst wird nur Windows 8 unterstützt, Windows Phone, iOS und Android sollen folgen.

Mit seinen Windows Azure Mobile Services ist Microsoft nicht alleine im Markt der Backend-as-a-Services (BaaS). Hier tummeln sich bereits Anbieter wie Urban Airship, Parse oder Kinvey. Die Idee eines BaaS besteht darin, Entwicklern dabei zu helfen, sich hauptsächlich auf das Frontend ihrer Applikation zu konzentrieren. Alle Themen die sich um das Backend drehen, übernimmt bzw. vereinfacht der Service.

Windows Azure Mobile Services

Nach einer Grundkonfiguration lassen sich die Daten in der Azure Cloud speichern und mit der SQL Datenbank innerhalb von Azure verknüpfen. Im Anschluss können die Apps auf die Daten zugreifen, ohne dass der Entwickler dafür extra Code schreiben muss. Im Hintergrund setzen die Windows Azure Mobile Services auf eine REST API und ein JSON-basiertes ODATA Format. Darüber hinaus hilft der Service beim Erstellen von Tabellen, dem Durchsuchen von Daten sowie dem Konfigurieren der Indizes und der Zugriffskontrolle. Weiterhin lassen sich Benutzer authentifizieren und Nachrichten an die Clients verschicken.

Im Vergleich zu anderen BaaS Anbietern ermöglichen die Windows Azure Mobile Services über ein Dashboard zusätzlich Analytics Funktionen, mit denen Entwickler die Nutzung der App und weitere Metriken überwachen können.

SharePoint ist ein weiterer Baustein für Unternehmenskunden

Erst kürzlich hat Microsoft die Integration von SharePoint und Yammer vorgestellt. Bereits heute können Anwender die beiden Systeme mit Web Parts und dem neuen Yammer Open Graph zu einer durchgängigen Lösung verbinden. Darüber hinaus werden künftig einheitliche Anwenderprofile, Dokumenten-Management-Funktionen und Feed Aggregation für eine engere Verzahnung beider Lösungen sorgen.

Mit „Microsoft Yammer Enterprise“ werden künftig die verschiedenen bezahlten Services in einem Angebot zusammengefasst. Der Anwender bezahlt dann drei US-Dollar monatlich, statt wie bisher 15 US-Dollar. Auch eine engere Verknüpfung mit Microsoft SharePoint Online und Office 365 Enterprise ist geplant.

Ausbau der SharePoint Funktionalität

Zu den wichtigsten SharePoint-Erweiterungen gehört dabei beispielsweise die neue „Drag and Drop-Funktionalität“, sodass Dokumente schneller via SharePoint bereitgestellt werden können. Neu ist auch, dass sich Aufgaben über Outlook, Project und SharePoint hinweg konsolidieren lassen.

Auch an der Basis von SharePoint hat Microsoft Änderungen vorgenommen, mit dem Resultat verbesserter Skalierbarkeit und Performance auf Grund einer neuen Cloud-Architektur. Das Web Content Management wurde ausgebaut und vereinfacht nun Cross-Site-Publishing.

Darüber hinaus ermöglicht der Ausbau des Risk Managements den IT-Abteilungen in den Unternehmen eine bessere Kontrolle über die Verteilung von Dokumenten über SharePoint, Exchange und Lync hinweg.

Neues Cloud App Model

Ergänzend verfügt SharePoint 2013 künftig über ein neues Cloud App Model. Microsoft adressiert damit gezielt die über 700.000 Entwickler, die basierend auf SharePoint ihre Applikationen und Anwendungen realisieren. Das neue Cloud App Model und der neue Office Store sollen ihnen die Entwicklung, den Kauf, Roll-out und die Verwaltung ihrer Applikationen weiter vereinfachen.

Mobile Apps sorgen für Zugriff auf Dokumente und Daten

Um Anwender die Möglichkeit zu bieten, von überall und unabhängig vom Endgerät auf Dokumente und Daten zugreifen zu können, stehen ihnen künftig SharePoint Mobile Apps zur Verfügung. Über verschiedene Endgeräte, Windows 8, Windows Phone, iOS und Android Devices, können sie dann sowohl auf SharePoint 2013 als auch auf SharePoint Online zugreifen.

Wann kommt das Microsoft Cloudbook?

Betrachtet man die aktuellen Entwicklungen, bleibt eine interessante Frage. Geht Microsoft in Zukunft vielleicht sogar den Google Weg. Gibt es möglicherweise bald ein Chromebook Pendant aus dem Hause Microsoft? Der Browser wird immer mehr zum Hauptarbeitsbereich Nummer eins. Hinzu kommt, dass immer mehr Anwendungen per SaaS in die Cloud wandern. Nicht vergessen sollte man dabei, dass Microsoft mit seiner Windows Azure Infrastruktur bereits über eine ausgereifte und leistungsfähige Cloud Umgebung verfügt, auf der ebenfalls Office 365 betrieben wird und über die ein „Microsoft Cloudbook“ ohne weiteres mit Applikationen usw. versorgt werden kann. Mit Windows Azure, Office 365 (Office 2013), SharePoint, Yammer, Outlook.com, SkyDrive, Skype, dem Windows Store usw. hat Microsoft in den letzten Monaten und Jahren zumindest die notwendigen Rahmenbedingungen dafür geschaffen.

Kategorien
Analysen

Erfahrungen: Amazon EBS ist das fehlerhafte Rückgrat von AWS

In einem Blogartikel schreibt das Unternehmen awe.sm über die eigenen Erfahrungen mit der Nutzung der Amazon Web Services (AWS). Neben den Vorteilen, die sich für das Unternehmen und andere Startups durch die Cloud Infrastruktur ergeben, lässt sich aus dem Kontext aber auch ableiten, dass Amazon EBS der Single Point of Failure in Amazons Infrastruktur ist.

Die Probleme von Amazon EC2

awe.sm kritisiert Amazon EC2s Beschränkungen hinsichtlich der Geschwindigkeit und Zuverlässigkeit, auf die man als Kunde unbedingt achten und in die eigene Planung mit einfließen lassen sollte. Das größte Problem besteht in dem Zonen-Konzept von AWS. Die Amazon Web Services bestehen aus mehreren „Regionen“ die weltweit verteilt sind. Innerhalb dieser Regionen unterteilt Amazon noch einmal in die sogenannten „Availability Zones„. Dabei handelt es sich um eigenständige Rechenzentren. awe.sm nennt drei Dinge, die sie aus diesem Konzept bisher gelernt haben.

Virtuelle Hardware hält nicht so lange wie echte Hardware

awe.sm nutzt AWS seit ca. 3 Jahren. Innerhalb dieses Zeitraums betrug die maximale Laufzeit einer virtuellen Maschine ungefähr 200 Tage. Die Wahrscheinlichkeit, dass sie nach dieser Zeit in den Zustand „retired“ geht sei sehr hoch. Zudem sei Amazons „retirement process“ unberechenbar. Manchmal wird man bereits zehn tage vorher informiert, dass eine virtuelle Maschine heruntergefahren wird. Es kam aber auch vor, dass eine Info zwei Stunden eintraf, nachdem die virtuelle Maschine bereits ausgefallen war. Zwar ist es relativ simple neue virtuelle Maschinen hochzufahren, aber man sollte sich bewusst machen, dass es auch notwendig ist frühzeitig eine automatisierte Deploymentlösung zu nutzen.

Man muss mehr als eine Availability Zone nutzen und die Redundanz zonenübergreifend planen

awe.sm hat die Erfahrungen gemacht, dass eher eine ganze Availability Zone ausfällt als eine einzige virtuelle Maschine. Das bedeutet für die Planung von Fehlerszenarios, dass es genauso nutzlos ist, einen Master und einen Slave in derselben Region zu haben wie gar keinen Slave einzusetzen. Sollte der Master ausfallen liegt es möglicherweise nämlich nur daran, weil die Availability Zone nicht verfügbar ist.

Man sollte mehrere Regionen verwenden

Die Region US-EAST ist die bekannteste und ebenfalls älteste und günstigste aller AWS Regionen weltweit. Allerdings ist auch gerade diese Region sehr fehleranfällig. Beispiele gab es im April 2011, März 2012 oder auch Juni 2012 [1][2]. awe.sm geht daher davon aus, das die häufige Regionen weite Instabilität auf die gleiche Ursache zurückzuführen ist: Amazon EBS.

Das Vertrauen in Amazon EBS ist verschwunden

Der Amazon Elastic Block Store (EBS) wird von AWS empfohlen, um darauf sämtliche Daten zu speichern. Das macht auch Sinn. Fällt eine virtuelle Maschine aus, kann das EBS Volume an eine neue virtuelle Maschine angebunden werden, ohne dabei Daten zu verlieren. EBS Volumes sollen ebenfalls dazu genutzt werden, um dort Snapshots, Backups der Datenbanken oder die Betriebssysteme darauf zu speichern. awe.sm sieht in EBS jedoch manche Herausforderungen.

Die I/O Raten von EBS Volumes sind schlecht

awe.sm hat die Erfahrungen gemacht, dass die I/O Raten von EBS-Volumes im Vergleich zu dem lokalen Speicher auf dem virtuellen Host (Ephemeral Storage) deutlich schlechter sind. Da es sich bei EBS Volumes im wesentlichen um Netzlaufwerke handelt, haben sie ebenfalls auch keine gute Performance. AWS stellt mit IOPS zwar mittlerweile EBS Volumes mit einer höheren Performance bereit. Für awe.sm sind diese auf Grund des Preises jedoch viel zu unattraktiv.

EBS versagt auf der Regionen-Ebene und nicht pro Volume

awe.sm hat an EBS zwei unterschiedliche Verhaltensarten festgestellt. Entweder funktionieren alle EBS Volumes oder keines! Zwei von den drei AWS Ausfällen sind auf Probleme mit Amazon EBS zurückzuführen. Sollte das eigene Disaster Recovery also darauf aufbauen, im Fehlerfall EBS Volumes zu transferieren, der Ausfall jedoch auf Grund eines EBS Fehlers auftritt, hat man ein Problem. awe.sm habe genau mit diesem Problem schon öfters zu kämpfen gehabt.

Der Fehlerzustand von EBS auf Ubuntu ist sehr schwerwiegend

Da EBS Volumes als Block-Devices getarnt werden, führt das zu Problemen im Linux Betriebssystem. Damit hat awe.sm sehr schlechte Erfahrungen machen müssten. So hat bspw. ein fehlerhaftes EBS Volume dazu geführt, dass eine virtuelle Maschine vollständig eingefroren ist und keine Möglichkeit mehr bestand auf die Maschine zuzugreifen oder weitere Aktionen durchzuführen.

Viele Services der Amazon Cloud setzen auf Amazon EBS

Da viele weitere AWS Services auf EBS aufsetzen, fallen diese ebenfalls aus, wenn EBS ausfällt. Dazu gehören u.a. der Elastic Load Balancer (ELB), die Relational Database Service (RDS) oder Elastic Beanstalk. Wie awe.sm festgestellt hat ist EBS so gut wie immer das Hauptproblem größerer Ausfälle bei Amazon. Fällt EBS also aus und soll der Datenverkehr daraufhin in eine andere Region übertragen werden, funktioniert das nicht, da der Load Balancer ebenfalls auf EBS läuft. Darüber hinaus kann keine neue virtuelle Maschine manuell gestartet werden, da die AWS Management Console ebenfalls auf EBS läuft.

Kommentar

Wenn man sich die Erfahrungen von awe.sm so durchliest erhält man den Eindruck, dass dieses so oft propagierte „Building Blocks“ bei Amazon doch nicht so gelebt wird wie es eigentlich sollte. Auch wenn es dabei primär um das Angebot der einzelnen Cloud Services geht (diese unabhängig nutzen zu können), wieso macht man den Großteil dieser Services dann von einem einzigen Service (EBS) abhängig und schafft damit einen Single Point of Failure?

Kategorien
Analysen

Windows 8 ist ein "Übergangsmodell"

Ich habe Windows 8 nun seit ein paar Tagen im echten produktiven Einsatz. Mir gefällt das neue Betriebssystem sehr gut, auch wenn die Mischung aus „Kachel-Umgebung“ und dem bekannten Windows Desktop „etwas Anderes“ ist. Wobei ich sagen muss, dass ich insbesondere mit der Kachel-Oberfläche sehr gerne arbeiten „würde“! Würde genau deswegen, da ich mich ca. 99% meiner Zeit auf der klassischen Desktop Oberfläche befinde. Und das aus dem Grund, weil alle Anwendungen die ich nutze zwar über die Kacheln gestartet werden, aber dann automatisch auf den Desktop wechseln.

Hauptarbeitsbereich: Browser

Hauptsächlich arbeite ich im Browser. Und auch diese öffnen automatisch den Windows Desktop, selbst der Internet Explorer. Selbstkritisch wie ich bin, muss ich eingestehen, dass ich den Windows Store noch nicht nach möglichen Kandidaten durchforstet habe. Dort gibt es bestimmt den einen oder anderen Schatz zu finden, der mir weiterhelfen kann.

Die Nutzung ist eine Gratwanderung

Die Nutzung von Windows 8 ist dennoch eine Gratwanderung. Auf einem Tablet sind die Kacheln und die Bedienung sehr gut umgesetzt. Das konnte ich bereits ausführlich testen. Mit einer Maus kommt dabei nicht so das Feeling auf. Auf der anderen Seite benötigt man, nicht nur für die alten Anwendungen, noch den klassischen Desktop. Hier kommt man mit den Fingern auf einem Tablet aber nicht weit. Es sei denn man hat Finger wie ein Buchfinkenweibchen. Hier ist eine Maus angebracht.

Aber grundsätzlich kann ich Windows 8 nur empfehlen.

Windows 8 kann nur ein „Übergangsmodell“ sein

Windows 8 ist bzw. kann „nur“ ein Übergangsmodell sein. Das ist nicht so negativ gemeint wie es klingen mag. Aber Microsoft musste nun einmal einen Weg finden um den Nutzern und Entwicklern ein hybrides Modell zu liefern. Mit der kommenden Version – Windows 9 oder vielleicht sogar „Windows X“ – wird der klassische Desktop vollständig verschwinden. Beziehungsweise wird es nur noch einen schmalen Kompatibilitätsmodus für den Desktop geben, um sämtliche Nachzügler nicht komplett zu verlieren.

Im Laufe der Zeit werden aber alle Software-Entwickler und Anbieter ihre Lösungen entweder ganz auf das Software-as-a-Service (SaaS) Modell via Browser umstellen oder ihre Apps für die Windows Kachel-Oberfläche optimieren und im Windows Store anbieten.

Wann kommt das „Microsoft Cloudbook“?

Eine interessante Frage bleibt dennoch. Geht Microsoft in Zukunft vielleicht sogar den Google Weg. Gibt es möglicherweise bald ein Chromebook Pendant aus dem Hause Microsoft? Wie ich oben angemerkt habe, ist der Browser mein Hauptarbeitsbereich Nummer eins und da bin ich definitiv nicht der Einzige. Hinzu kommt, dass immer mehr Anwendungen per SaaS in die Cloud wandern. Nicht vergessen sollte man dabei, dass Microsoft mit seiner Windows Azure Infrastruktur bereits über eine ausgereifte und leistungsfähige Cloud Umgebung verfügt, auf der ebenfalls Office 365 betrieben wird und über die ein „Microsoft Cloudbook“ ohne weiteres mit Applikationen usw. versorgt werden kann. Mit Windows Azure, Office 365 (Office 2013), Outlook.com, SkyDrive, Skype, dem Windows Store etc. hat Microsoft in den letzten Monaten und Jahren zumindest die notwendigen Rahmenbedingungen geschaffen.

Kategorien
Analysen

Cloud Computing und Big Data – Der ideale Use Case

Ich hatte schon einmal im März die Frage gestellt, ob Infrastructure-as-a-Service (IaaS) die ideale Lösung für die Herausforderungen von Big Data ist. Bereits damals bin ich zu dem Ergebnis gekommen, dass die Verarbeitung und Analyse großer Datenmengen – kurz: Big Data – ein idealer Use Case für das Cloud Computing ist. Unternehmen können die hohen Anforderungen, die Big Data erwartet, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Was ist Big Data

Als Big Data werden besonders große Datenmengen bezeichnet, die mit Hilfe von Standard-Datenbanken und Daten-Management-Tools nicht oder nur unzureichend verarbeitet werden können. Problematisch sind hierbei vor allem die Erfassung, die Speicherung, die Suche, Verteilung, Analyse und Visualisierung von großen Datenmengen. Das Volumen dieser Datenmengen geht in die Terabytes, Petabytes, Exabytes und Zettabytes.

Quelle: Wikipedia.de

Beispiele für Big Data

Für Unternehmen bietet die Analyse von Big Data die Möglichkeit zur Erlangung von Wettbewerbsvorteilen, Generierung von Einsparungspotentialen und zur Schaffung von neuen Geschäftsfeldern. Beispiele hierfür sind:

  • zeitnahe Auswertung von Webstatistiken und Anpassung von Online-Werbemaßnahmen
  • bessere, schnellere Marktforschung
  • Entdeckung von Unregelmäßigkeiten bei Finanztransaktionen (Fraud-Detection)
  • Einführung und Optimierung einer intelligenten Energieverbrauchssteuerung (Smart Metering)
  • Erkennen von Interdependenzen in der medizinischen Behandlung
  • Realtime-Cross- und Upselling im E-Commerce und stationären Vertrieb
  • Aufbau flexibler Billingsysteme in der Telekommunikation

Quelle: Wikipedia.de

Herausforderungen von Big Data

Klassische relationale Datenbanksysteme sowie Statistik- und Visualisierungsprogramme sind oft nicht in der Lage, derart große Datenmengen zu verarbeiten. Für Big Data kommt daher eine neue Art von Software zum Einsatz, die parallel auf bis zu Hunderten oder Tausenden von Prozessoren bzw. Servern arbeitet. Hierbei gibt es folgende Herausforderungen:

  • Verarbeitung vieler Datensätze
  • Verarbeitung vieler Spalten innerhalb eines Datensatzes
  • schneller Import großer Datenmengen
  • sofortige Abfrage importierter Daten (Realtime-Processing)
  • kurze Antwortzeiten auch bei komplexen Abfragen
  • Möglichkeit zur Verarbeitung vieler gleichzeitiger Abfragen (Concurrent Queries)

Die Entwicklung von Software für die Verarbeitung von Big Data befindet sich noch in einer frühen Phase. Prominent ist der MapReduce-Ansatz, der in der Open-Source-Software (Apache Hadoop und MongoDb), sowie in einigen kommerziellen Produkten (Aster Data, Greenplum u. a.) zum Einsatz kommt.

Quelle: Wikipedia.de

Cloud Computing und Big Data: Der perfekte Use Case

Unsere Datenmengen steigen exponentiell. Die parallele Nutzung von Dienstleistungen wie HDTV, Radio, Video on Demand (VOD) und Security as a Service haben immer höhere Anforderungen an Netzwerk-Infrastrukturen. Die Nutzungen von Anwendungen wie Videokonferenzen und neue Kommunikationswege wie Social Media verändern sich ständig, was ebenfalls Einfluss auf die tägliche Nutzung und den Zugriff auf Daten durch Unternehmen hat. Um mit diesen wachsenden Datenmengen umzugehen, wird verstärkt auf externe Rechenzentrumsfunktionen- und kapazitäten zurückgegriffen. Welche Daten dabei wie ausgelagert werden sollten stellen die größten Herausforderungen dar.

Ein allgemeines Problem

Traditionell gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Nutzern von Big Data. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, Wettervorhersage, Regierungen und die Medizinbranche. Alle genannten Bereiche haben seit Jahren mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen. Doch nun wirkt sich die Problematik auch auf weitere “normale” Branchen aus.

Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält.

Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten bzw. Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind.

Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Wettbewerbsfähigkeit steigern

McKinsey’s Report “Big data: The next frontier for innovation, competition, and productivity”, aus dem Jahr 2011 untersucht, wie Daten zu einer wichtigen Grundlage des Wettbewerbs werden sowie ein neues Produktivitätswachstum und Innovationen schaffen.

Wenn Unternehmen heutzutage wettbewerbsfähig bleiben wollen, müssen sie sicherzustellen, dass sie über die entsprechende IT-Infrastruktur verfügen, um mit den heutigen Daten-Anforderungen umzugehen. IaaS bietet damit ein solides Konzept und Fundament, um damit erfolgreich zu bleiben.

Big Data Verarbeitung in der Cloud

Kosteneinsparungen für die interne IT-Infrastruktur, wie Server und Netzwerkkapazitäten, Freisetzen von dadurch nicht mehr benötigtem technischem Personal, um sich somit effizienter auf das Kerngeschäft zu konzentrieren und die Flexibilität neue Lösungen, auf Grund der sich ständig veränderten Datenmengen, besser zu skalieren sind die ersten Schritte um den Anforderungen von Big Data gerecht zu werden.

Cloud Computing Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.

Cloud Ressourcen wachsen mit Big Data

Cloud Computing Infrastrukturen sind darauf ausgelegt, dass sie mit den jeweiligen Anforderungen und Bedürfnissen mitwachsen oder sich reduzieren lassen. Unternehmen können die hohen Anforderungen – wie Hohe Rechenleistung, viel Speicherplatz, hohes I/O, performante Datenbanken usw. – die von Big Data erwartet werden, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Kategorien
Analysen

Checkliste: Überprüfen Sie einen Cloud Computing Anbieter auf Echtheit

Vermehrt wird die Frage gestellt, woran sich ein echtes Cloud Computing Angebot erkennen lässt. Oft heißt es: “Wir lassen unsere Datenverarbeitung von einem Dienstleister in seinem Rechenzentrum machen. Dann nutzen wir doch die Cloud, oder?” Vorsicht! Cloud Computing wurde in letzter Zeit von den Marketingabteilungen einiger Anbieter missbraucht, wodurch eine Verwässerung des Begriffs stattgefunden hat. Was damals zum Beispiel ein “Managed Server” war, ist nun ein “Cloud Server”. Letztendlich wurde aber nur der Aufkleber getauscht. Dieses „Prinzip“ wird auch als CloudWashing bezeichnet.

Checkliste: Überprüfen Sie einen Cloud Computing Anbieter auf Echtheit

Cloud Computing und seine Eigenschaften

Cloud Computing bezeichnet in erster Linie ein Servicemodell, bei dem auf (theoretisch unbegrenzte) IT-Ressourcen wie Rechenleistung, Speicherplatz, Applikationen und andere Arten von Services on-Demand zugegriffen werden kann. Dabei werden auf Basis des Pay as you go Konzeptes nur die Ressourcen berechnet, die zu diesem Zeitpunkt auch tatsächlich genutzt werden.

Neben den bekannten Eigenschaften des Cloud Computing existieren weitere typische Begebenheiten, die eine Cloud auszeichnen. Dazu gehören neben allgemeinen ebenfalls technische Eigenschaften und der Blickwinkel aus der Sicht eines Unternehmens.

Allgemeine Eigenschaften

Elastizität
Die Cloud erlaubt das hoch- und herunterskalieren von Ressourcen je nach Bedarf. Die dafür benötigte Zeit liegt im Bereich von Sekunden oder Minuten jedoch nicht Wochen oder Monaten.

Skaleneffekte
Der Cloud Computing Anbieter ist in der Lage Skaleneffekte auszunutzen und kann die für das Cloud Computing benötigte Infrastruktur wie Strom, Kühlung, Bandbreite und Hardware zum bestmöglichen Preis beschaffen.

Pay as you Go
Dabei handelt es sich mehr um eine allgemeine als um eine geschäftliche Eigenschaft. Techniker werden durch den Einsatz der Cloud Entscheidungen bei der Zuweisung von Ressourcen treffen, die unmittelbare Auswirkungen auf den Ressourcenverbrauch und die Höhe der Gesamtkosten haben. Damit hat in Zukunft jeder die Aufgabe, das Unternehmen effizienter zu führen.

Technische Eigenschaften

Schnelle Skalierbarkeit
Weitere Ressourcen können innerhalb von Minuten on-Demand gekauft werden, um bei Bedarf unerwarteten Situationen gerecht zu werden. Dazu gehören z.B. umfangreiche Berechnungen oder eine unerwartet hohe Besucherzahl auf der Webseite. Werden die Ressourcen nicht länger benötigt, können sie der Cloud zurückgegeben werden.

Die Ressourcen sind abstrakt und unkompliziert
Die Hardware, die für den Betrieb einer Cloud benötigt wird, ändert sich und wird ständig verbessert. Jedoch ist es die Aufgabe des Cloud Computing Anbieters dafür zu sorgen. Ein Cloud Computing Nutzer muss sich mit den Details hinter einer Cloud nicht mehr auseinandersetzen.

Eine Cloud besteht aus einzelnen Bausteinen
Die IT-Ressourcen eines Cloud Computing Anbieters bestehen aus kleinen Bausteinen. Das bedeutet, sie sind einzeln verfügbar und werden jeweils einzeln berechnet. Ein Nutzer hat die Möglichkeit entweder keine, alle oder nur ein paar Ressourcen zu nutzen, welche ihm als Service durch die Cloud bereitgestellt werden.

Experimentieren ist kostengünstig
Cloud Computing entfernt die wirtschaftliche Hürde zum Experimentieren. Dadurch können neue Ideen ausprobiert werden, ohne langfristig in die dafür benötigte Hardware zu investieren, indem auf temporäre Ressourcen zurückgegriffen wird.

Eigenschaften aus der Sicht eines Unternehmens

Keine Vorabinvestitionen
Cloud Computing wurde geschaffen, um Ressourcen bei Bedarf nutzen zu können. Aus diesem Grund sind keine einmaligen und großen Investitionen notwendig, bevor der eigentliche Bedarf auftritt.

Aus fixen kosten werden variable Kosten
Anstatt sich auf eine feste Anzahl von Ressourcen über einen langen Vertragszeitraum (in der Regel ein bis drei Jahre) festzulegen, ermöglicht es Cloud Computing den Ressourcenverbrauch in Echtzeit zu verändern.

Investitionen werden zu Betriebskosten
Investitionen werden in der Regel auf einen langen Zeitraum verteilt und führen damit zu einer mehrjährigen Verpflichtung, eine bestimmte Menge von Ressourcen zu nutzen. Die Betriebskosten hingegen beziehen sich auf die tatsächliche Nutzung des Cloud Service und können in Echtzeit verändert werden.

Die Ressourcenzuteilung wird granularer
Cloud Computing ermöglicht eine minimale Nutzung in Bezug auf die Zeit und Ressourcen, bspw. Servernutzung pro Stunde und einzelne Bytes des genutzen Speichers.

Das Unternehmen gewinnt an Flexibilität
Da ein Unternehmen sich nicht mehr langfristig an Ressourcen bindet, ist es in der Lage, schneller auf Änderungen bzgl. der benötigten Mengen und der Art der Geschäftstätigkeit zu reagieren.
Der Anbieter steht mehr unter Beobachtung
Das Kerngeschäft des Cloud Computing Anbieters besteht darin, seine Cloud für die öffentliche Nutzung bereitzustellen. Somit hat er einen starken Anreiz seine Services so bereitzustellen, dass sie zuverlässig, anwendbar und kostengünstig sind. Die Cloud spiegelt also die Kernkompetenzen eines Anbieters wieder.

Die Kosten sind inhaltsorientierter
Durch das flexible Ressourcenzuweisungsmodell des Cloud Computing ist es genauso leicht 100 Server für eine Stunde zu beziehen und zu betreiben wie einen Server für 100 Stunden. Das fördert das innovative Denken hinsichtlich der Lösungen von Problemen, die nur durch eine große Skalierung ermöglicht werden.

Die Checkliste

Wohlgemerkt, ins Innere müssen und können Sie in der Regel nicht hineinschauen. Bei einer Cloud handelt es sich um eine Blackbox, die entweder über eine API (Schnittstelle) oder eine Weboberfläche gesteuert wird. Es kommt also auf die äußeren Werte an, die Sie direkt sehen und bemerken können.

Checkliste: Überprüfen Sie einen Cloud Computing Anbieter auf Echtheit


Die Checkliste kann ebenfalls unter „Checkliste: Überprüfen Sie einen Cloud Computing Anbieter auf Echtheit“ angesehen und als PDF heruntergeladen werden. Eine englischsprachige Version befindet sich unter Checklist: Check a Cloud Computing provider for authenticity.


Bildquelle: ©Claaslietz / PIXELIO

Kategorien
Analysen

Diese Kenntnisse benötigen Ihre Mitarbeiter für das Cloud Computing

Cloud Computing ist gekommen, um zu bleiben. Das Paradigma hat sich in der jüngsten Vergangenheit von einem Hype zu einer ernsthaften Alternative für Unternehmen entwickelt, ihre IT-Infrastrukturen und Umgebungen flexibler zu gestalten und damit die eigene Agilität zu verbessern. Early Adopter sind bevorzugt Startups, die auf den Zug aufgesprungen sind, um den einfachen Ressourcenbezug der Public Cloud für sich zu nutzen. So zählen mittlerweile viele, zum Teil bekannte, aber vor allem junge Unternehmen zu Kunden von Public Cloud Services, die ohne diese skalierbaren Infrastrukturen nicht existieren würden. Aber welche Eigenschaften und Kenntnisse sind heutzutage notwendig, um in der Cloud zu überleben?

Unternehmerisch und wirtschaftlich denken

Eine erfolgreiche Cloud Computing Adaption und Nutzung steht und fällt mit dem Use bzw. Business Case. Diesen gilt es zu identifizieren und vor allem zu bewerten, um zu entscheiden, ob Cloud Computing helfen kann. Darüber hinaus sollte ein realistischer Return on Investment (ROI) vorhergesagt bzw. bestimmt werden, um die jeweiligen Metriken zu überwachen, die mit dem Geschäftsverlauf abgeglichen werden. Cloud Computing bietet Unternehmen viele Möglichkeiten, aus denen erfahrene Business Analysten potentielle Chancen ableiten können.

Technische Kenntnisse

Unabhängig davon in welcher Ausprägung – Public, Private oder Hybrid – eine Cloud genutzt werden soll, muss zunächst überhaupt verstanden werden, dass für die Cloud entwickelt werden muss. Das bedeutet auch, dass sich die Kenntnisse verstärkt auf Internet Technologien fokussieren müssen. Dazu gehören u.a. Themen wie die Java und .NET Frameworks, ebenso der Bereich der Virtualisierung sowie Open-Source Tools und weitere Programmiersprachen.

Unternehmensarchitektur und Anforderungen

Wichtig ist es, eine Roadmap für die künftigen Services festzulegen, welche notwendig sind und ob diese extern aus einer Public Cloud oder intern bereitgestellt werden. Dazu müssen die Mitarbeiter in der Lage sein die Sprache des Business zu sprechen und gleichermaßen mit der IT-Abteilungen kommunizieren können. Sich mit den Konzepten einer SOA (Service-Oriented-Architecture) auszukennen, schadet ebenfalls nicht.

Projektmanagement

Kenntnisse im Bereich Projektmanagement sollte man zwangsläufig besitzen, wenn man mit IT-Projekten zu tun hat. Daran ändert auch das Cloud Computing nichts. Dennoch sollte man berücksichtigen, dass die Nutzer des Cloud Service agiler geworden sind und schneller neue Wünsche und Anpassungen fordern können.

Verhandlungsgeschick

Die Zusammenarbeit mit Anbietern von Cloud Diensten wird immer mehr in den Vordergrund rücken. Dabei müssen u.a. Service Level Agreements, die Verfügbarkeit, Performance und grundsätzlich sämtliche Vertragsinhalte verhandelt werden.

Sicherheit und Compliance

Egal auf welche Cloud Implementierung die Entscheidung fällt, das Verständnis für das Thema Sicherheit wird immer wichtiger. Genauso verhält es sich mit Compliance-Fragen wie bspw. dem Sarbanes-Oxley-Act, HIPAA, dem Bundesdatenschutzgesetz (BDSG) usw.

Datenintegration und Analyse

Der Wert der Daten, die sekündlich generiert, gesammelt und verarbeitet werden, hat in den letzten Jahren enorm an Bedeutung gewonnen. Allerdings ergibt sich der wahre Wert erst dann, wenn aus den Daten echte Informationen gewonnen werden, auf deren Basis Entscheidungen getroffen werden können. Wie, in welcher Form und welchem System diese Daten bzw. Informationen aufbereitet werden, bleibt jedem selbst überlassen. Entscheidend ist, dass die richtigen Lösungen und Umgebungen gefunden werden, um Big Data zu analysieren.

Mobile Applikationen

Das stetige Wachstum mobiler Endgeräte und flexibler Arbeitsplätze hängt direkt mit dem Paradigma der Cloud zusammen. Das liegt unter anderem daran, dass auf Services aus der Cloud bequemer von überall und von jedem Endgerät – Notebook, Tablet oder Smartphone – zugegriffen werden kann. Der Bedarf an Entwicklern für mobile Applikationen wird daher in den kommenden Jahren weiter steigen.


Bildquelle: ©Gerd Altmann / PIXELIO