Kategorien
Analysen

Die Herausforderungen des Cloud Computing: Service Level Agreements

Mit der Adaption von Cloud Computing Technologien und Services stehen Unternehmen Herausforderungen gegenüber, die es zu bewältigen gilt. Zum einen müssen organisatorische Voraussetzungen geschaffen und Aufklärungsarbeit innerhalb des Unternehmens geleistet werden, um die Akzeptanz und das Verständnis zu stärken. Zum anderen treffen aber auch viele “Widerstände” von außen auf das Unternehmen. Das sind neben Fragen bzgl. der Sicherheit und des Datenschutz ebenfalls Themen zur Verfügbarkeit und Performanz des ausgewählten Cloud Service sowie dessen Integrationsfähigkeit in die bereits bestehende IT-Infrastruktur und die nahtlose Unterstützung der vorhandenen Geschäftsprozesse. Und wie auch schon aus den klassischen Sourcingmöglichkeiten bekannt, besteht auch im Cloud Computing die Angst, in die Abhängigkeit eines einzigen Anbieters zu verfallen. So müssen auch hier die Interoperabilität und die Schnittstellen des Anbieters sowie ein Vergleich zu anderen Anbieteren vorgenommen werden.

Ist die Entscheidung für die Nutzung des Cloud Computing gefallen, ist es für Unternehmen zunächst an der Zeit, eine Ist-Analyse der bestehenden IT-Infrastruktur und Systeme vorzunehmen, um auf Basis dieser zu planen, welche Cloud Services adaptiert werden sollen. Hier kann bspw. eine Kosten-/ Nutzen-Analyse weiterhelfen, bei der auch eine Risikobewertung nicht fehlen sollte. Um erste Erfahrungen auf dem Cloud Computing Gebiet zu sammeln, sollte ein Pilotprojekt initiiert werden, welches auf Grund des Cloud Computing Konzepts schnell und kostengünstig gestartet werden kann. Dieses sollte einem Gesamtverantwortlichen “Cloud” untergeordnert sein, der als zentrale Stelle innerhalb der Organisation für die Adaption und Beratung der einzelnen Abteilungen für dieses Thema zuständig ist. Mit den gesammelten Erfahrungen können dann weitere Projekte gestartet werden und die Adaption unterschiedlicher Cloud Services sukzessive vorgenommen werden.

Service Level Agreements

In einem Service Level Agreement (SLA) werden die von einem Anbieter zu erbringenden Leistungen und Abrechnungen fest vereinbart, wodurch die Dienstgüte zwischen dem Anbieter und seinem Kunden vertraglich und rechtsbindend festgelegt wird. Dabei wird der gemeinsame Vertrag aus der Sicht des Kunden beschrieben und der Anbieter hält im Gegenzug die Eigenschaften, den Umfang und die Qualität seiner Leistungen in einem Katalog fest.

Neben den Verfügbarkeiten der Leistungen sind in einem SLA ebenfalls die Ressourcenzuteilungen, die Verfügbarkeitsquote, die Reaktions- und Wartungszeiten sowie Vereinbarungen über Sicherheiten, Priorisierungen, Garantien und Abrechnungsmodelle enthalten. Des Weiteren werden ebenfalls Regelungen bzgl. des Supports und Fehlerbehebungen über bestimmte Fehlerklassen definiert und Reaktions- und Problemlösungszeiten festgelegt. Die entsprechenden Vereinbarungen werden jeweils über einen so genannten Key Performance Indikator (KPI) festgehalten und gemessen.

Darüber hinaus werden in einem SLA Regelungen festgehalten, die bei einem Verstoß des Anbieters gegen die zugesagten Leistungen, Rechtsfolgen nach sich ziehen. Bei der Nichteinhaltung der Verfügbarkeit wird hier z.B. das Malussystem eingesetzt. Aber auch die Pauschalisierung von Schadensersatzregelungen und die Voraussetzungen für eine beiderseitige Kündigung werden hier festgehalten.

Heinz Schick hat dazu einen Katalog mit zwanzig Eckpunkten erstellt, auf die bei der Erstellung eines SLAs geachtet werden sollte.

  1. Systembeschreibung: Detaillierte Anforderungsbeschreibung eines Services durch den Nutzer.
  2. Gültigkeitszeitraum für die SLAs: Festgelegter Zeitraum, in dem die Leistungen erfüllt werden müssen.
  3. Hauptrollen in dem SLA: Zuständigkeitsverteilung, die festlegt, wer für welche Aufgabe verantwortlich ist.
  4. Nutzerzufriedenheit: Spiegelt die Erwartung des eigentlichen Anwenders wieder.
  5. Verfügbarkeit: Legt Zeiträume fest, in denen der Anwender auf den Service uneingeschränkt zugreifen kann.
  6. Geplante Ausfallzeiten: Festgelegte Zeiträume, in denen Wartungen und Notfallübungen vorgenommen werden.
  7. Serviceschnittstellen: Wechselwirkungen zwischen den unterschiedlichen IT-Diensten werden untersucht und detailliert beschrieben.
  8. Zuverlässigkeit: Misst, wie häufig ein System ausfällt und wie lange benötigt wird, bis der Dienst nach der vereinbarten Dienstgüte wiederhergestellt ist.
  9. Leistungserwartung: Beschreibt z.B. die erwarteten Antwortzeiten und Durchsatzraten.
  10. Problem-Reporting und -lösung: Der Betrieb eines Services muss festgehalten werden. Dazu muss zu jedem KPI ein Messverfahren fest definiert und der Umfang des Reporting festgelegt werden.
  11. Benachrichtigungs- und Eskalationswege: Die Eskalationswege im Fehlerfall müssen festgelegt werden. Zudem sollte ein Anbieter bereits frühzeitig auf Probleme hinweisen.
  12. Wartung: Die Systeme müssen regelmäßigen Wartungszyklen unterzogen werden.
  13. Wachstum und Veränderungen: Der Anbieter muss auf Grund seiner eigenen Planungssicherheit von dem Kunden über das erwartete zukünftige Wachstum informiert werden.
  14. Backup und Wiederherstellung: Dabei gilt es Backup- und Recovery Prozesse einzuhalten und über entsprechend ausgebildetes Ersatzpersonal zu verfügen.
  15. Archivierung und Datenspeicherung: Die gesetzlichen und betrieblichen Archivierungsregeln müssen erfüllt werden. Des Weiteren muss ein Archivierungskonzept für die Speichersysteme vorhanden sein.
  16. Business-Recovery und -Continuity: Beschreibt einen Maßnahmenkatalog und eine Notfallplanung im Fehlerfall inkl. der Auswirkung auf die Geschäftsprozesse und einer Risikobewertung.
  17. Security: Ganzheitliche Maßnahmen und Konzepte zum Thema Sicherheit für einen Service.
  18. Regelmäßige Lagebesprechung: Intensive Kommunikation zwischen dem Kunden und dem Anbieter. Dazu gehören ebenfalls die monatliche Überprüfung der KPIs und Diskussionen über weitere Anforderungen und Verbesserungsvorschläge.
  19. Unterschrift: Der Anbieter übernimmt die Verantwortung für die bei ihm gehosteten und von ihm bezogenen Services.
  20. Kontinuierliche Administration: Permanente Kontrolle durch den Kunden. Dazu gehören das Überprüfen der Berichte und Abrechnungen.

Dienstleistungen und Produkte können kostengünstig angeboten werden, wenn sie standardisiert werden. Diesem Konzept bedienen sich auch Cloud Computing Anbieter. Neben ihren Infrastrukturen, Services etc. sind sie auch dazu übergegangen Standard-SLAs anzubieten, die für jeden Kunden gleichermaßen gelten. Auf Nachfrage, je nach Unternehmensgröße und gegen Aufpreis können die SLAs jedoch nachverhandelt und den Unternehmensbedürfnissen angepasst werden.

Daher gilt es für ein Unternehmen, eine sorgfältige Leistungsbeschreibung auf Basis des genutzten Services vorzunehmen. Hier kann sich das Unternehmen zunächst an die unterschiedlichen Servicearten des Cloud Computing, Infrastrucuture-as-a-Service (IaaS), Platform-as-a-Service (PaaS) und Software-as-a-Service (SaaS) orientieren, um zu bestimmen welche Dienstgüte für welchen genutzten Service benötigt wird.

Aus diesem Grund ist und kann kein SLA gleich sein. Das betrifft auch die Standard SLAs eines jeweiligen Anbieters. Nutzt ein Unternehmen bspw. eine ERP Anwendung auf Basis von SaaS, interessiert hier u.a. die Verfügbarkeit und eine schnelle Antwortzeit der Anwendung. Die Verfügbarkeit der darunter liegenden virtualisierten Umgebung, auf der sich die Anwendung befindet, ist nicht von Interesse. Wird hingegen Infrastruktur auf Basis von IaaS genutzt, ist die Verfügbarkeit eines virtuellen Servers von besonderer Bedeutung. Ebenfalls die Verfügbarkeit aber vor allem die Zuverlässigkeit bei der Nutzung eines Cloud Storage Service muss betrachtet werden. Die Anforderungen an die jeweiligen Cloud Services unterscheiden sich also grundlegend in ihren Eigenschaften und ihrer Abstraktionsebene.

Die folgenden grundlegenden Bereiche, sollte ein Cloud Computing SLA beinhalten:

  • Überblick: Nennt und beschreibt die Parteien (Kunde, Anbieter), die Gegenstand des SLA sind und erläutert grob den Inhalt und die vereinbarten Services, die bezogen werden sollen.
  • Umfang der Arbeiten: Eine ausführlichere Übersicht über die Services, die dem Kunden bereitgestellt werden.
  • Leistungsmessungen: Definition von Metriken, die regelmäßig gemäß den Vereinbarungen überprüft werden müssen. Dazu gehören z.B. die Betriebszeiten, der Durchsatz und die Anzahl der Benutzer, die parallel versorgt werden können. An dieser Stelle gilt es für das Unternehmen sehr genau die Metriken und Messpunkte festzulegen, die den Unternehmensanforderungen im Detail gerecht werden.
  • Vorgehen im Problemfall: Vom Unternehmen muss fest vorgegeben werden, wie sich der Anbieter im Fehlerfall verhält. Also in welchem Zeitraum er den Fehler dem Unternehmen mitteilt und wie er vorgeht, um das Problem zu lösen.
  • Gebührenstruktur: Legt im Detail die Preise fest, die der Anbieter dem Unternehmen für eine entsprechende Leistung abrechnet.
  • Pflichten des Kunden: Legt fest, wie und mit welchen Umfang das Unternehmen den Anbieter mit Informationen versorgt.
  • Zusicherungen/ Garantien: Der Anbieter muss dem Unternehmen gegenüber garantieren und erklären, wie er sicherstellen wird, die Vereinbarungen einzuhalten.
  • Security: Beschreibt die Sicherheitsfunktionen der Services inkl. den Maßnahmen, die vorgenommen werden, wenn es zu einer Sicherheitsverletzung kommt.
  • Compliance: Viele Unternehmen müssen branchenspezifische und regulatorische Anforderungen erfüllen, wie Informationen ausgetauscht werden müssen und wie dieses im Detail sichergestellt wird. Der Anbieter muss dem Unternehmen gegenüber versichern, dass er sich an diese Regelungen ebenso exakt halten wird und einen Notfallplan vorlegen, was vorgenommen wird, wenn es zu einer Außnahmesituation kommt.
    Vertrauliche Informationen und geistiges Eigentum: Es muss im Detail festgehalten werden, wem welches geistige Eigentum obliegt. Ebenso ist der Umgang mit vertraulichen Informationen für beide Seiten zu klären.
  • Haftungsschutz: In einer Cloud befinden sich die Daten eines Unternehmens über viele Standorte hinweg verteilt und werden ggf. von mehreren anderen Unternehmen weiterverarbeitet. Daher muss an dieser Stelle der Haftungsschutz eindeutig festgelegt werden. Dazu gehört neben dem Spezifizieren der Standorte, an denen die Daten des Unternehmens möglicherweise verarbeitet werden könnten ebenso das Sicherstellen, dass jedes weitere Unternehmen, das an dem Verarbeitungsprozess der Daten beteiligt ist, ebenfalls compliant zu den regulatorischen Anforderungen ist.
  • Regelmäßige Überprüfung: Um sicherzustellen, dass unvorhergesehene Probleme noch während der Vertragslaufzeit aufgedeckt werden, müssen feste Termine für regelmäßige Überprüfungen festgelegt werden.
  • Kündigung: Wie es in jedem Vertrag üblich ist, muss auch in dem SLA festgehalten werden, wie der Vertrag von beiden Seiten gekündigt werden kann. Dazu gehören ebenfalls die Schritte nach der Kündigung inkl. einer Beschreibung, wie die Daten in eine neue Umgebung übertragen werden, zusammen mit einem dazugehörigen Zeitplan.
  • Umsetzung: Es muss ein Zeitplan erstellt werden, auf den sich beide Parteien geeinigt haben. Darin wird festgehalten, wann die Übertragung zu dem neuen Service beginnt, der Zeitpunkt, zu dem der neue Service starten soll sowie die wichtigsten Meilensteine und Ergebnisse für beide Seiten.

Ein SLA ist sehr speziell und sollte daher nur für eine bestimmte Art eines Cloud Computing Services gelten. So liegt bspw. bei der Nutzung einer SaaS Applikation das Bereitstellen der Internetverbindung im Verantwortungsbereich des Unternehmens. Allerdings ist speziell die Leistung wie der Durchsatz und die Antwortzeiten sowie die Verfügbarkeit bei der Nutzung einer SaaS Applikation sehr kritisch. Eine performante und verfügbare Internetverbindung des Kunden kann der Cloud Computing Anbieter jedoch nicht garantieren. Hier muss der Kunde mit seinem Netzanbieter über ein separates SLA eine entsprechende Vereinbarung festlegen und Übergabepunkte definieren.

Kategorien
Analysen

Der Einfluss des Cloud Computing

Cloud Computing steht für den nächsten Paradigmenwechsel in der IT. Jedoch führen der flexible und auf Basis des Verbrauchs abgerechnete Bezug von Ressourcen ebenfalls zu Einflüssen, denen sich Unternehmen stellen müssen.

Cloud Computing bietet Unternehmen eine Vielzahl von Vorteilen in Bezug auf die Art der Nutzung von IT-Ressourcen wie Hard- und Softwaresysteme. So sind Unternehmen im Normalfall für die Wartung der Systeme alleine verantwortlich, was zu hohen Aufwendungen in Zeit und Kapital führt. Durch den Einsatz von Cloud Computing konzentriert sich ein Unternehmen ausschließlich auf den eigentlichen Unternehmenszweck und bezieht die dafür benötigten Ressourcen. So stehen einem Unternehmen quasi unendliche Speicherkapazitäten zur Verfügung, welche Sie auf Grund der hohen Investitionskosten alleine nicht hätten aufbauen können. Dasselbe gilt für das Mitwachsen der IT mit dem Unternehmen. Neue Mitarbeiter erfordern neben der Vergrößerung der Büroflächen ebenfalls die Erweiterung der IT-Infrastruktur, was implizit dazu führt, dass ebenfalls das Wartungspersonal der Infrastruktur im Laufe der Zeit mitwachsen muss.

Wandel von fixen zu variable Kosten

Neben den technischen Vorzügen, die Cloud Computing gegenüber einer eigenen IT-Infrastruktur bietet, stehen auch die finanziellen Vorteile im Vordergrund, die intensive Auswirkungen auf die Kostenstruktur eines Unternehmens mit sich bringen.

Während des Betriebs einer eigenen Infrastruktur oder eines Rechenzentrums befindet sich ein Unternehmen in der Situation während der Anschaffung von Hard- und Softwaresystemen in Vorleistung zu gehen und darüber hinaus weitere Investitionen und Kosten für den Betriebsaufwand zu übernehmen. Die Kostenstruktur des Unternehmens wird damit durch einen enormen Fixkostenblock belastet. Kapital, das fest und auf einen langen Zeitraum hinweg investiert wird.

Cloud Computing Anbieter dagegen investieren gezielt in ihre Infrastruktur, um diese anschließend als Dienstleistung anzubieten. Das Unternehmen reicht seine Kapitalaufwendungen somit an den Cloud Computing Anbieter weiter und bezahlt nur für den Betriebsaufwand, also die tatsächlich genutzten Ressourcen. Das entlastet die Kostenstruktur des Unternehmens, wodurch der Fixkostenblock verkleinert wird und fixe zu variablen Kosten transformiert werden. Die Kapitaldifferenz steht damit für andere Aufwendungen und Projekte zur Verfügung.

Cloud Computing bietet neben der Variabilisierung der Kosten aber deutlich mehr Vorteile und Möglichkeiten. Es ermöglicht Unternehmen den Wandel zu einer flexibleren Organisation und stärkt damit die Agilität.

Erhöhung der Agilität

Mit dem flexiblen Bezug und der bedarfsgerechten Abrechnung der tatsächlich genutzten Ressourcen sind Unternehmen in der Lage agiler auf die aktuellen Anforderungen reagieren zu können. Das betrifft zum einen den Markt, in dem sich das Unternehmen bewegt und zum anderen die eigenen Mitarbeiter, deren Anforderungen an Ressourcen für die Umsetzung neuer Ideen stetig wächst. Eine Studie von CA ergibt, “[…] dass IT-Profis davon ausgehen, dass Cloud Computing die Agilität (63 Prozent), die Innovation (58 Prozent) und die Zusammenarbeit mit dem Geschäftsbereich (57 Prozent) beschleunigen und vorantreiben.”

Dass ebenfalls der Zusammenarbeit mit den Geschäftsbereichen von den IT-Profis ein hoher Stellenwert beigemessen wird, ist nicht verwunderlich. So gilt die Agilität als eine kontinuierliche und enge Abstimmung zwischen den Geschäftsbereichen und der IT.

So ist es nur eine logische Konsequenz, dass die aus der Nutzung des Cloud Computing gewonnene Agilität zur Entwicklung neuer Produkte und Dienstleistungen führt. Das liegt unter anderem darin begründet, dass sich die IT-Mitarbeiter nicht mehr um die tiefgreifenden Details der IT kümmern müssen, die erforderlich sind, wenn ein neues Projekt initiiert wird und dadurch mehr Zeit gewinnen. Dazu gehören bspw. die Beschaffung neuer oder weiterer Serverressourcen oder die Verwaltung des Projektpersonals (Rechtevergabe, Aufnahme in Projektgruppen etc.).

Die Agilität wird zudem dadurch weiter unterstützt, indem mehr ungebundenes Kapital zur Verfügung steht, welches sonst fix und auf eine langen Zeitraum in die IT-Infrastruktur investiert worden wäre. Diese Kapitalressourcen stehen nun neuen Ideen und Projekten zur Verfügung, auf die Mitarbeiter zurückgreifen können um den Status des Unternehmens zu festigen und weiter auszubauen.

Konzentration auf die Kernkompetenzen

Durch die Nutzung des Cloud Computing versetzen sich Unternehmen in die Lage, sich nicht mehr selbst um die Installation, Wartung und Pflege ihrer IT-Infrastruktur kümmern zu müssen. Stattdessen können sie sich auf ihre Kernkompetenzen fokussieren, was vor allem für kleine und mittelständische Unternehmen von besonderem Interesse ist, da diese im Vergleich zu einem großen Unternehmen in der Regel über ein geringes IT-Budget verfügen. Zudem erhöhen Sie ihre Flexibilität im Kerngeschäft, da die benötigten Anforderungen an und durch die IT schneller umgesetzt werden können.

Unternehmen konzentrieren sich somit auf ihren eigentlichen Unternehmenszweck und nutzen die IT lediglich für die Umsetzung ihrer Ziele. Das kommt auch den IT-Abteilungen entgegen, die oft in der Kritik stehen, keinen konkreten Wertbeitrag in das Unternehmen einfließen zu lassen. Auf Basis schnell verfügbarer Ressourcen können die IT-Abteilungen zusammen mit den Fachbereichen neue Anwendungen entwickeln, die bei der Umsetzung der Kernkompetenzen helfen und das Unternehmen damit nachhaltig und messbar unterstützen.

Erzielen von Wettbewerbsvorteilen

Mit dem Einsatz von Cloud Computing müssen sich Unternehmen nicht mehr um den Betrieb und die Wartung der IT-Infrastruktur (Hardware und Software) kümmern. Das führt dazu, dass die Zeit und personellen Ressourcen, die dadurch freigesetzt werden, damit gezielt auf das eigentliche Vorhaben konzentriert werden können. Hinzu kommt, dass Ressourcen deutlich schneller bezogen werden können, wodurch Ideen schneller umgesetzt und die Laufzeit von IT-Projekten verkürzt wird. So wird der Time to Market von IT-basierten Produkten beschleunigt. Mit der flexiblen Anpassung der IT-Ressourcen kann des Weiteren umgehend auf neue Kundenwünsche oder neue Marktverhältnisse reagiert werden.

Einen weiteren Wettbewerbsvorteil erhalten Unternehmen durch die zeit- und ortsunabhängige Zusammenarbeit ihrer Mitarbeiter. Durch den Einsatz bspw. von SaaS über einen Webbrowser oder das Speichern von Dokumenten in der Cloud mittels Storage-as-a-Service ist die Kollaboration nicht mehr auf eine Stadt, ein Land oder einen Kontinent beschränkt. Somit haben Unternehmen nun die Möglichkeit, weltweit die besten Mitarbeiter zu rekrutieren ohne diese aus ihrem gewohnten Umfeld herausreißen zu müssen.

Neustrukturierung von Geschäftsprozessen

In der Cloud steht Unternehmen ein riesiger Marktplatz mit einer Vielzahl von Services zur Verfügung, mit denen ganze Geschäftsprozesse oder nur Teile unterstützt werden können. So ist es durchaus vorstellbar, dass ein Unternehmen seine gesamten Prozesse in die Cloud verlagert und nur dann aktiv nutzt, wenn diese benötigt werden. Das kann sogar soweit führen, dass ein vollständiger Geschäftsprozess innerhalb der Cloud über mehrere Anbieter hinweg verteilt abgebildet wird. Vorstellbar wäre, dass ein Anbieter den Teilprozess A verarbeitet, ein weiterer den Teilprozess B. Ein dritter Anbieter verarbeitet den Teilprozess C und nutzt dabei die Teilprozesse A und B. Oder es wird eine Vielzahl voneinander unabhängiger Services von unterschiedlichen Anbietern verwendet, die zu einem einzigen Service integriert werden. Der Komplexität sind keine Grenzen gesetzt. Ein vermeintlich trivialeres Beispiel hingegen wäre, dass die Daten bei einem Anbieter A gespeichert sind und ein Anbieter B soll diese Daten verarbeiten.

Speziell im Bereich der Logistik werden bereits jetzt viele Teilprozesse unabhängig voneinander integriert. So stehen einem Versandhaus bspw. die Lager vom Unternehmen I und II zur Verfügung, das Schiff von Unternehmen III, die LKWs von den Unternehmen IV, V und VI, die Rechnungsabwicklung von Unternehmen VII sowie die Archivierungsprozesse von Unternehmen VIII.

Das Cloud Computing Konzept kann auf Grund seiner quasi unendlichen Viehlzahl an Services dabei noch deutlich komplexer werden und über den Ansatz des traditionellen IT-Outsourcing weit hinausgehen.

Die Cloud ist daher eine ideale Umgebung, in der Unternehmen die eigenen Geschäftsprozesse bereitstellen können, um diese gezielt spezifischen Märkten und Kunden anzubieten. Dabei stellt das Business Process Management (BPM) die Grundlage für die Bereitstellung dieser Prozesse über die Cloud dar. Mittels BPM erstellen mehrere Unternehmen gemeinsam einen auf eine spezielle Kundengruppe zugeschnittenen Geschäftsprozess. Ein BPM System ist dann für die Überwachung und das Messen der Performanz der unternehmensübergreifenden Geschäftsprozesse zuständig und stellt allen Parteien Echtzeitinformationen zur Verfügung, um den jeweiligen Teilprozess so zu justieren, dass der Gesamtprozess optimal genutzt werden kann.

Die Studie im Auftrag von CA ergab, “[…] dass die IT zunehmend die Form einer Lieferkette (Supply Chain) annimmt. Das traditionelle Supply Chain-Modell kommt aus der Fertigung. Dort werden für die Lieferung von Gütern und Dienstleistungen an die Kunden verschiedene Ressourcen – Technologie, Prozesse, Güter, Services und Personal – in logischer Weise organisiert. Im Rahmen der Migration von Applikationen, Infrastruktur und sogar von Geschäftsprozessen in die Cloud, werden nun auch IT-Abteilungen zu den Managern einer IT-Lieferkette. Dabei nutzen IT-Manager verschiedene interne und externe Ressourcen mit dem Ziel, das Unternehmenswachstum voranzutreiben.”

IT-Abteilungen müssen sich verändern

Der Ansatz und die Konzepte des Cloud Computing beeinflussen auch insbesondere die IT-Abteilungen der Unternehmen, an denen es nun liegt, entsprechende Lösungen in die IT-Strategie des Unternehmens einfließen zu lassen.

Die CA Studie legt offen, dass mehr als die Hälfte der Teilnehmer (54%) der Meinung ist, “[…], dass der aktuelle Wert der IT größtenteils durch ihre Aufgabe als Betreiber der IT-Infrastruktur definiert ist. Die Befragten gehen jedoch davon aus, dass innerhalb der nächsten zwei Jahre die Hauptrolle der IT in der Verwaltung der IT-Supply Chain liegen wird. 50 Prozent gaben an, dass eine Zunahme der cloud-basierten Services – besonders der bisher intern verwalteten – zu dieser Entwicklung beiträgt.”

Nach Christian Wirth wird es in Zukunft Service-Manager geben, die nicht nur zwischen den Geschäftsbereichen und der IT vermitteln müssen, “[…] sondern sich darüber hinaus auch mit verschiedensten Fragen auseinandersetzen, die durch die Einführung von Cloud Computing eine neue Dimension erlangen.“

So ist laut Wirth der Service-Manager neben der Sicherheit der Daten ebenfalls für die Anforderungen an die Compliance, die Einhaltung der SLAs sowie die Zuverlässigkeit und die Performanzsicherstellung des Cloud Service verantwortlich. So muss der Service-Manager, “[…] im Cloud-Zeitalter beim Überprüfen der Performance die Perspektive der Endanwender einnehmen können, um sicherzustellen, dass sie stabilen Zugriff auf Anwendungen haben, die vollständig oder teilweise in die Cloud ausgelagert wurden. Liegt ein Problem außerhalb des Unternehmensnetzes, ist es zudem entscheidend, schnell zu ermitteln, ob es grundsätzlich in bestimmten Regionen oder nur bei bestimmten Internet-Providern auftritt.”
Die oben genannten Veränderungen werden mit der Studie von CA nochmals bekräftigt. „Da die IT-Abteilungen sich von einer Owner- und IT-Betreiber-Infrastruktur zum Manager komplexer interner und externer Services auf mehreren Plattformen wandeln, stehen CIOs vor der Aufgabe, den Wert der IT für das Business neu zu definieren“, […] „Diese Veränderung schafft für IT-Fachkräfte interessante Möglichkeiten, ihre Fähigkeiten zu erweitern und zum strategischen Berater des Unternehmens zu werden.“

Zudem nennt die Studie konkrete Berufsbezeichnung und Rollen für das Zeitalter des Cloud Computing. Dazu gehören:

  • Cloud Architekt
  • Cloud Service Manager
  • Cloud Integrationsspezialist und -Experte
  • Cloud Security Manager und -Ingenieur
  • Director Cloud Infrastructure
  • Executive Vice President of Cloud Technologies

Anwendungen für die Cloud

Greift ein Unternehmen auf Services aus der Cloud zurück, verwendet es in erster Linie das Konzept des Software-as-a-Service, also der Nutzung von Applikationen über einen Webbrowser. Hier gilt es daher die Entscheidung zu treffen, welche Anwendungen aus der Cloud genutzt und welche weiterhin lokal betrieben werden sollen. Im Falle eines Startups ist die Entscheidung nicht so schwierig, da die Software mit dem Unternehmen langsam mitwachsen kann. Zudem werden unnötige Investitionen in Lizenzen, die Wartung, Installation etc. vermieden. Bei einem renommierten Unternehmen mit einer vorhandenen IT-Infrastruktur und zahlreichen lokalen Softwareinstallationen gestaltet sich die Entscheidung etwas schwieriger. So existieren Anwendungen und ihre Eigenschaften, die prädestiniert dafür sind, in eine Cloud Computing Infrastruktur ausgelagert zu werden bzw. über die Cloud genutzt zu werden.

Dazu gehören zum einen Stand-Alone Anwendungen, bei denen das Risiko für das Unternehmen sehr gering ist. Das betrifft den Ausfall des Systems oder den Diebstahl bzw. die Kompromittierung von Daten. Weiterhin sollten Anwendungen in Betracht gezogen werden, die nur schwer zu berechnende und sehr volatile Datenmengen verarbeiten. Dazu gehören ebenfalls genauso Test- und Entwicklungsplattformen wie Anwendungen, bei denen viele externe Unternehmen gemeinsam auf Informationen zugreifen und miteinander in einer Wertschöpfungskette kollaborieren.

Kategorien
Tutorials

HowTo: Einrichtung von Witsbits – Private Cloud Management-as-a-Service

Vor kurzem haben wir Witsbits, einen „Private Cloud Management as a Service“ aus Schweden vorgestellt. Heute geht es darum, wie vorgegangen werden muss, um Witsbits im eigenen Rechenzentrum/ Serverraum nutzen zu können.

Vorbereitung

Zunächst benötigen wir einen oder mehrere „leere“ physikalische Systeme (64bit) als Host für die virtuelle Infrastruktur sowie einen Desktop Computer inkl. Webbrowser, mit dem die webbasierte Management Konsole genutzt werden kann.

Der physikalische Server sollte mindestens über einen 64 bit x86 Prozessor mit Intel VT oder AMD-V Technologie verfügen sowie ein CD-ROM, DVD-ROM oder USB-Ports, um darüber die Installation mittels des Witsbits ISO zu ermöglichen. Der Arbeitsspeicher sollte eine Mindestgröße von 1GB RAM besitzen und die Festplatte sollte nicht zu klein ausfallen, da hier die virtuellen Festplatten und Snapshots der virtuellen Maschinen gespeichert werden.

Weiterhin benötigen wir eine für DHCP konfigurierte Netzwerkumgebung inkl. einer aktiven Internetverbindung. Der DHCP-Server wird IP Adressen für die physikalischen Hosts als auch die virtuellen Maschinen bereitstellen müssen. Jeder physikalische Host benötigt zudem eine Vielzahl an IP Adressen, je nach Anzahl der virtuellen Maschinen, die auf ihm laufen sollen.

Für die Verwaltung der GoCloud Infrastruktur wird ein gewöhnlicher Desktop PC mit Windows, Linux oder Mac Betriebssystem oder ein Smartphone benötigt. Die Managementoberfläche unterstützt derzeit den Internet Explorer 7 und 8, Firefox, Chrome/Chromium und Safari.

Installation und Einrichtung von Go Cloud

Als erstes benötigen wir einen Go Cloud Account. Nach der erfolgreichen Registrierung laden wir uns das ISO Image (ca. 180 MB) herunter und entpacken es.

Nun erstellen wir uns aus dem ISO Image entweder eine bootbare CD/DVD oder einen USB-Stick. Anschließend starten wir den physikalischen Server mit dem ISO Image. Voraussetzung hierfür ist, dass der Server via eines DHCP Servers IP Adressen empfangen kann und das eine aktive Internetverbindung besteht. Der physikalische Host wird sich nun automatisch mit dem Go Cloud Management System verbinden. Nach dem Bootvorgang kann die CD/DVD oder der USB-Stick entfernt werden und dieselbe Prozedur kann mit dem nächsten physikalischen Server erfolgen.

Das zuvor heruntergeladene ISO Image ist mit einer persönlichen Account-ID gekennzeichnet, wodurch alle Server die mit dem ISO Image gebootet werden automatisch an dem Go Cloud Management System dieses Accounts registriert werden. Nachdem das Host System vollständig gebooted wurde, erscheint es auf der Management Konsole in der Weboberfläche. Der physikalische Server ist nun soweit vorbereitet, um virtuelle Maschinen zu starten.

Verwaltung der physikalischen Server und virtuellen Maschinen

Um einen physikalischen Server zu konfigurieren klicken wir in der Web Konsole zunächst auf „Physical Servers“. Hier sollte nun ein neuer Server mit einem Datum sowie einem Timestamp zu sehen sein. Hier wählen wir nun „New Server“ und anschließend „Initiate Disks“. Das kann einen Moment dauern. Das darauf folgende Pop-Up bestätigen wir. Go Cloud sucht nun die größte Festplatte, entfernt von dieser alle Partitionen und erstellt eine Große. Wir müssen nun ein paar Mal aktualisieren (F5) bis der „Update Repo (Repository)“ Button aktiv ist. Nachdem die Festplatte initialisiert ist, sollte auch die Queue leer sein. Wir klicken anschließen den „Update Repo (Repository)“ Button.

Die Public Images von Go Cloud werden nun heruntergeladen und extrahiert. Abhängig von der Internetverbindung kann dieses bis zu 15 Minten dauern. Nach Beendigung wird dieser Job aus der Queue verschwinden.

Um eine erste virtuelle Maschine (VM) auf dem physikalischen Host zu erstellen, geben wir der VM als erstes einen Namen und hinterlegen für das Image ein Passwort. Als nächstes wählen wir ein Image bzw. Gast Betriebssystem und entscheiden uns für die Anzahl an CPUs sowie die Größe des zuzuweisenden Arbeitsspeichers. Mit dem klick auf den Button „Power On“ wird ein neues VM Image erstellt, welches unten angezeigt wird. Der Status des Image sollte grün (OK) sein sowie die VM eine zugewiesene IP Adresse haben.

Per Remote Desktop, dem Administrator Passwort und dem Image Passwort der erstellten VM kann die VM nun gestartet werden. Für die Anmeldung benötigen wir hier das Passwort des VM Image und nicht das Passwort für die Anmeldung an Go Gloud.


Quelle: Witsbits

Kategorien
Analysen

Kostenvergleich: Cloud Computing vs. On-Premise und Managed Services

Neben dem flexibleren Ressourcenbezug hat Cloud Computing vor allem finanzielle Vorteile. Bei dem Aufbau und Betrieb einer eigenen IT-Infrastruktur entstehen hohe Vorlaufkosten (Investitionskapital), welche in die Infrastruktur etc. investiert werden müssen. Dabei handelt es sich um Kapital, das zunächst erst einmal verplant ist und für weitere Projekte nicht mehr zur Verfügung steht, mit denen das Unternehmen weiteren Umsatz generieren könnte. Zudem dauert es eine nicht zu unterschätzende Zeit, bis die neu angeschafften Ressourcen tatsächlich produktiv eingesetzt werden können. Der Kauf eines Serversystems ist dafür ein gutes Beispiel. Die Kosten dafür müssen vorab vollständig entrichtet werden. Der eigentliche Wertbeitrag des Systems macht sich allerdings erst in den nächsten Jahren bemerkbar, während es sich im Einsatz befindet. Dabei verursacht das System natürlich weitere Kosten bzgl. der Wartung, Strom etc.

Das Problem besteht also darin, dass ein System, bzw. das investierte Kapital in das System, nicht umgehend einen direkten Wertbeitrag für das Unternehmen leistet und sogar noch mehr Kapital benötigt, um betrieben zu werden. Unternehmen investieren sehr ungerne in Bereiche, deren eigentlichen Wertbeitrag sie aber erst über einen längeren Zeitraum erhalten. Das Ziel eines Unternehmens besteht darin, in Bereiche zu investieren, die umgehend einen sichtbaren Wertbeitrag für das Unternehmen erzielen.

Das Pay as you Go Modell des Cloud Computing ist für ein Unternehmen somit deutlich billiger, da in diesem Fall nur für die Ressourcen bezahlt wird, die auch tatsächlich genutzt werden und die umgehend einen Wertbeitrag für das Unternehmen leisten.

Die Nutzung der Infrastruktur eines Managed Service Providers oder Services eines Cloud Computing Anbieters führt dazu, dass Unternehmen ihre Investitionskosten und weitere Vorlaufkosten auf ein Minimum reduzieren können. Das Cloud Computing bietet zudem den Vorteil, die entstandenen Kosten mit den Ressourcen zu verknüpfen, die tatsächlich genutzt wurden und somit über eine exakte und detaillierte Abrechnung zu verfügen. Des Weiteren kann damit das Kapital zielgerichtet investiert werden. Es lohnt sich somit ein Blick auf die Kosten, die bei den unterschiedlichen Arten der IT-Nutzung entstehen.

[CHRISTMAN et. al.] haben einen Kostenvergleich zwischen einer Co-Location (Managed Services), einem eigenen Rechenzentrum (On-Premise) und einem Infrastructure-as-a-Service Angebot (Cloud Computing) vorgenommen.

Nicht ganz unerwartet zeigte das Cloud Computing Angebot hier einen deutlichen Kostenvorteil, da, ausschließlich die reinen Betriebskosten betrachtet, in diesem Fall nur Kosten für die genutzten Server sowie den Datenstransfer entstehen, wenn diese auch tatsächlich genutzt wurden. Das Managed Services Angebot landete dabei auf dem zweiten Platz. Das ist auf die einmaligen Investitionen wie die Serverhardware, Netzwerkkomponenten, Betriebssystemlizenzen und die Einrichtung sowie die laufenden Kosten wie die Investitionskosten, Instandhaltungskosten, Miete, Stromkosten, Remoteservices und dem Datentransfer zurückzuführen. Die On-Premise Lösung hingegen war erwartungsgemäß die teuerste und landete damit auf dem dritten Platz. Neben den bereits oben genannten einmaligen Investitionen bei den Managed Services erhöhten vor allem der Aufbau der Infrastruktur und die allgemeinen Baukosten den Gesamtpreis. Dazu kommen bei den laufenden Kosten noch die Bereiche der Administration (Personal) und die Miete für die Datenleitung.

Dennoch sind die Entscheidungsgrundlagen für ein Cloud Computing Angebot individueller Natur. Zunächst gilt es die eigenen Bedürfnisse zu identifizieren, um danach das für sich passende Angebot herauszufiltern und zu schauen, ob und wo Cloud Computing für das Unternehmen einen entscheidenen Vorteil bieten kann. Zudem müssen auch die genutzten virtuellen Instanzen konfiguriert und die Cloud an dieser Stelle mit Intelligenz ausgestattet werden. Hierfür ist daher auch das entsprechende Personal erforderlich, was ebenfalls Zeit und spezifisches Wissen benötigt, um die Infrastruktur den eigenen Bedürfnissen nach aufzubauen.

Quelle

[CHRISTMAN et. al.]
Constantin Christmann, Jürgen Falkner, Dietmar Kopperger, Annette Weisbecker; Schein oder Sein; Kosten und Nutzen von Cloud Computing; iX Special 2/2010 Cloud, Grid, Virtualisierung, S. 6

Kategorien
Analysen

Cloud Computing vs. On-Premise und Managed Services

Arten, wie Unternehmen Informationstechnologie für sich einsetzen, gibt es im Grunde genommen nicht viele. Die eine besteht darin, alles selbst zu machen. Die andere darin, alles zu einem Drittanbieter auszulagern. Die dritte ist, eine hybride Lösung zu nutzen, also bestimmte Dinge selbst zu betreiben und gewisse Bereiche verarbeiten zu lassen.

Grundsätzlich unterscheiden wir also den Betrieb einer eigenen IT-Infrastruktur, auch als On-Premise bezeichnet, und den Ansatz des Outsourcingmodells. Für das Outsourcing wird auch oft der englische Begriff Managed Services verwendet.

On-Premise

Beim On-Premise, also dem Betrieb einer eigenen IT-Infrastruktur, verfügt ein Unternehmen über eine vollständig eigene intern zu verwaltende IT-Umgebung. Das gilt selbst dann, wenn das Unternehmen Server in einer Co-Location eines Rechenzentrums angemietet hat. In diesem Fall müssen also sämtliche Vorabinvestitionen in Hardware und Software sowie Kosten für Strom, Kühlung und Personal geleistet werden. Fällt einer oder mehrere Server aus, entstehen dadurch weitere Kosten sowie der Zwang, diese schnellstmöglich durch funktionsfähige Geräte zu ersetzen.

Managed Services

Bei den Managed Services, also der Auslagerung des Betriebs und der Verwaltung der IT-Aufgaben, wird ein externer Dienstleister mit der Wartung beauftragt. In diesem Fall befinden sich die Server im Eigentum des Dienstleisters. Dieser ist für den reibungslosen Betrieb der Infrastruktur zuständig und hat dafür zu sorgen, dass ein fehlerhafter Server umgehend oder je nach dem vereinbarten Service Level Agreement (SLA) auszutauschen.

Der Dienstleister verfügt somit über die Expertise, dem Unternehmen den einwandfreien Betrieb der Server zu garantieren. Des Weiteren ist er für die Wartung der Betriebssysteme verantwortlich, die auf den Servern installiert sind. Das beinhaltet die Versorgung mit Patches etc. und die Betreuung der gesamten Netzwerkinfrastruktur, in der die Server untergebracht sind. Das Unternehmen hat mit dem Dienstleister in der Regel einen langfristigen Vertrag und zahlt diesem für die erbrachten Leistungen eine monatliche oder jährliche Gebühr.

Der Vergleich

Zu diesen beiden IT-Nutzungsmodellen gesellt sich nun das Cloud Computing. In Diskussionen zum Thema Cloud Computing wird von Skeptikern in der Regel die Meinung vertreten, dass Cloud Computing keine nennenswerten Vorteile birgt und es sich dabei nur um alten Wein in neuen Schläuchen handelt.

IT-Manager stehen immer denselben Situationen gegenüber. Dabei entstehen Fragen hinsichtlich der korrekten Softwarelizensierung, in deren Falle viele Unternehmen tappen, da die Übersicht dabei schnell verloren gehen kann. Auch der Zeitpunkt und die Art und Vorgehensweise beim nächsten unternehmensweiten Softwareupdate darf an dieser Stelle nicht unterschätzt werden. Wie verhält es sich beim Ausfall einer Hardware in der Nacht? Zum einen muss dafür das benötigte Personal verfügbar und zum anderen die entsprechende Ersatzhardware vorhanden sein. Ähnlich verhält es sich bei der grundsätzlichen Verwaltung der bestehenden Serverlandschaft und der Entsorgung ausrangierter Althardware, die ordnungsgemäß beseitigt werden muss. Ein weiterer nicht zu unterschätzender Punkt ist die Erweiterung der IT-Infrastruktur. Von der Planung über die Entscheidung bis hin zur letztendlichen Bestellung, Lieferung, der endgültigen Installation und des Testlaufs können dabei mehrere Monate verstreichen. Aber auch steuerrechtliche Themen wie die Abschreibung der IT-Vermögenswerte sind Bereiche, die bei dem Betrieb einer IT-Infrastruktur mit bedacht werden müssen.

Ein Vergleich soll zeigen, dass dem nicht so ist. George Reese hat zu diesem Thema die oben genannten Nutzungsmodelle, On-Premise und Managed Services dem Cloud Computing gegenübergestellt und die Attribute “Investitionskapital”, “Betriebskosten”, “Bereitstellungszeit”, “Flexibilität”, “Anforderungen an das Mitarbeiter KnowHow” und “Zuverlässigkeit” miteinander verglichen. Hierbei hat er eine Gewichtung bzgl. der Wichtigkeit der jeweiligen Attribute auf die entsprechende IT-Nutzung vorgenommen.

Investitionskapital

  • On-Premise:            signifikant
  • Managed Services:   moderat
  • Cloud Computing:     unerheblich

An dieser Stelle gilt es die Frage zu stellen, wie viel Kapital zur Verfügung steht, um die eigene Infrastruktur aufzubauen bzw. Änderungen an dieser vorzunehmen. Bei dem Betrieb eines Eigenen Rechenzentrums muss bspw. in die dafür benötigte Hardware vorab gezielt investiert werden, selbst dann, wenn die Hardware zu dem Zeitpunkt noch nicht benötigt wird. Somit kommt dem Investitionskapital eine hohe Bedeutung zu. Im Falle der Managed Services entstehen Setup Gebühren für die Einrichtung des Systems, die jedoch als angemessen betrachtet werden können. Beim Cloud Computing entstehen keine Vorabinvestitionen und Verpflichtungen. Das Investitionskapital ist an dieser Stelle daher marginal.

Betriebskosten

  • On-Premise:            moderat
  • Managed Services:   signifikant
  • Cloud Computing:     nutzungsbasiert

Die laufenden Kosten für das eigene Rechenzentrum beziehen sich auf die Kosten für das Personal und/ oder Subunternehmer, die für die Verwaltung und den Betrieb der Infrastruktur zuständig sind. Dazu kommen die Kosten für die Gebäude sowie die Nebenkosten, die während des Betriebs entstehen. Erhebliche Abweichungen der laufenden Kosten entstehen speziell mit Subunternehmern, wenn Notfälle oder andere Probleme eintreten und Sonderzahlungen z.B. durch Mehrarbeit entstehen. Managed Services sind verhältnismäßig teuer, jedoch sind die monatlichen Kosten vertraglich fest geregelt, sodass die Aufwendungen, die aufgebracht werden müssen, planbar sind, da diese sehr selten variieren. Die laufenden Kosten beim Einsatz von Cloud Computing hängen von der Art, Länge und Häufigkeit der jeweiligen Nutzung ab. Jedoch besteht hier der entscheidene Vorteil darin, dass nur dann Kosten entstehen, wenn ein Service genutzt wird. Die Abrechnung erfolgt auf Basis der tatsächlichen Nutzung – nicht mehr und nicht weniger. Im Vergleich zu den Managed Services sind die Personalkosten höher, aber deutlich günstiger als bei dem Betrieb eines eigenen Rechenzentrums.

Bereitstellungszeit

  • On-Premise:            signifikant
  • Managed Services:   moderat
  • Cloud Computing:     keine

Die Bereitstellungszeit ist ein entscheidender Faktor, wenn es darum geht, wie lange es dauert, bis z.B. ein neuer Server der bestehenden Infrastruktur hinzugefügt wird. Im Falle eines eigenen Rechenzentrums oder der Managed Services erfolgt zunächst die Planung gefolgt von der sich anschließenden Bestellung und der damit verbunden Wartezeit, bis die neue Komponente endgültig in Betrieb genommen und zunächst getestet wird, bis sie dann am Ende in den Live-Betrieb gehen kann. Bei der Zusammenarbeit mit einem Managed Services Provider ist die Wartezeit geringer im Vergleich zum eigenen Rechenzentrum, vorausgesetzt der Provider hat die benötigten Komponenten vorrätig. Bei der Nutzung des Cloud Computing vergehen von der Entscheidung für einen neuen Server bis zu seiner vollständigen Bereitstellung hingegen nur wenige Minuten.

Flexibilität

  • On-Premise:            limitiert
  • Managed Services:   moderat
  • Cloud Computing:     flexibel

Infrastrukturen sind heutzutage z.T. extremen Anforderungen und unerwarteten Belastungen ausgesetzt. Aus diesem Grund gilt es darauf zu achten, inwieweit eine Infrastruktur etwaige unvorhergesehene Spitzenlasten beherrschen kann, indem sie bei Bedarf weitere Ressourcen bereitstellt. Ein Beispiel wäre eine beschränkte Speicherplatzgröße. Wie verhält sich die Infrastruktur, wenn das Limit des Speicherplatzes plötzlich erreicht ist. Rechenzentren, die selbst betrieben werden, haben von Natur aus eine sehr feste Kapazität und das Hinzufügen von weiteren Ressourcen kann bei Bedarf nur durch den Einsatz von mehr Kapital vorgenommen werden. Zudem ist der Zeitraum von der Notwendigkeit weiterer Ressourcen bis zur endgültigen Bereitstellung sehr lang. Ein Managed Service Provider kann hier temporär mit weiteren Ressourcen aushelfen, indem bspw. die Bandbreite erhöht oder der kurzfristige Zugriff auf alternative Speichermöglichkeiten gewährt wird. Bei der Verwendung des Cloud Computing hingegen kann die entsprechende Cloud Infrastruktur so eingerichtet werden, dass sie im Falle weiterer benötigter Kapazitäten diese automatisch hinzufügt und wieder entfernt, wenn sie nicht mehr benötigt werden.

Anforderungen an das Mitarbeiter Know How

  • On-Premise:            signifikant
  • Managed Services:   limitiert
  • Cloud Computing:     moderat

Bei diesem Attribut geht es um die Frage, wieviel Know How innerhalb des Unternehmens benötigt wird, um die IT-Umgebung zu betreiben. Beim dem Betrieb eines eigenen Rechenzentrums werden entsprechendes Personal oder Subunternehmer benötigt, die über die notwendigen Kenntnisse der Infrastruktur verfügen. Dazu gehört u.a. das Wissen über die Serverhardware und die Betriebssysteme sowie die Betreuung der Systeme, z.B. das Einspielen von Patches, um die Systeme auf dem aktuellen Stand zu halten. Den Vorteil haben an dieser Stelle die Managed Services Provider, da diese sich um die Wartung der Infrastruktur kümmern. Je nachdem wie die Nutzung von Cloud Computing erfolgt, sind entweder mehr oder weniger Kenntnisse erforderlich. Unterstützung bieten hier bspw. Cloud Infrastruktur Manager (Software), die dabei helfen, die verwendete Cloud Umgebung zu verwalten. Jedoch sind hier trotzdem Kenntnisse bzgl. der Einrichtung und der Konfiguration der virtuellen Maschinen Images notwendig.

Zuverlässigkeit

  • On-Premise:            variiert
  • Managed Services:   hoch
  • Cloud Computing:     moderat bis hoch

Die Zuverlässigkeit der Infrastruktur ist ein weiterer wichtiger Punkt, den es zu beachten gilt. Der Aufbau einer hochverfügbaren Infrastruktur im eigenen Rechenzentrum hängt von dem jeweiligen Personal und des verfügbaren Kapitals ab, das in die Infrastruktur investiert werden soll. Ein Managed Services Provider ist an dieser Stelle die bewährteste Alternative. Jedoch ist hier ein Standortvorteil, den eine Cloud auf Grund ihrer Rendundanz bietet, nicht vorhanden. Einer Cloud Infrastruktur fehlt hingegen (noch) die nachgewiesene Erfolgsbilanz der Stabilität.

Fazit

Der Vergleich zeigt, dass es für den Großteil der Unternehmen keinen Sinn mehr ergibt, eine eigene Infrastruktur von Grund auf neu aufzubauen. Lediglich Unternehmen, die bereits hohe Investitionen in das eigene Rechenzentrum vorgenommen haben oder diejenigen, die auf Grund von rechtlichen Hindernissen oder anderweitiger Regularien ihre Daten nicht bei einem Drittanbieter speichern dürfen, können zunächst davon absehen. Sie sollten sich für zukünftige Investionen aber zumindest Gedanken über den Ansatz eines Hybrid Cloud Modells machen.

Alle anderen Unternehmen sollten schließlich auf einen Managed Service Provider oder einen Cloud Computing Anbieter zurückgreifen. Speziell das Pay as you Go Modell und der flexible Ressourcenbezug des Cloud Computing führt bei jedem Unternehmen zu einer höheren Flexibilität und somit einer besseren Agilität und erhöht die Innovationsfreudigkeit bei den Mitarbeitern.

Kategorien
Grundlagen

Eigenschaften einer Cloud

Neben den bekannten Eigenschaften des Cloud Computing existieren weitere typische Begebenheiten, die eine Cloud auszeichnen. Dazu gehören neben allgemeinen ebenfalls technische Eigenschaften und der Blickwinkel aus der Sicht eines Unternehmens.

Allgemeine Eigenschaften

  • Elastizität
    Die Cloud erlaubt das hoch- und herunterskalieren von Ressourcen je nach Bedarf. Die dafür benötigte Zeit liegt im Bereich von Sekunden oder Minuten jedoch nicht Wochen oder Monaten.
  • Skaleneffekte
    Der Cloud Computing Anbieter ist in der Lage Skaleneffekte auszunutzen und kann die für das Cloud Computing benötigte Infrastruktur wie Strom, Kühlung, Bandbreite und Hardware zum bestmöglichen Preis beschaffen.
  • Pay as you Go
    Dabei handelt es sich mehr um eine allgemeine als um eine geschäftliche Eigenschaft. Techniker werden durch den Einsatz der Cloud Entscheidungen bei der Zuweisung von Ressourcen treffen, die unmittelbare Auswirkungen auf den Ressourcenverbrauch und die Höhe der Gesamtkosten haben. Damit hat in Zukunft jeder die Aufgabe, das Unternehmen effizienter zu führen.

Technische Eigenschaften

  • Schnelle Skalierbarkeit
    Weitere Ressourcen können innerhalb von Minuten on-Demand gekauft werden, um bei Bedarf unerwarteten Situationen gerecht zu werden. Dazu gehören z.B. umfangreiche Berechnungen oder eine unerwartet hohe Besucherzahl auf der Webseite. Werden die Ressourcen nicht länger benötigt, können sie der Cloud zurückgegeben werden.
  • Die Ressourcen sind abstrakt und unkompliziert
    Die Hardware, die für den Betrieb einer Cloud benötigt wird, ändert sich und wird ständig verbessert. Jedoch ist es die Aufgabe des Cloud Computing Anbieters dafür zu sorgen. Ein Cloud Computing Nutzer muss sich mit den Details hinter einer Cloud nicht mehr auseinandersetzen.
  • Eine Cloud besteht aus einzelnen Bausteinen
    Die IT-Ressourcen eines Cloud Computing Anbieters bestehen aus kleinen Bausteinen. Das bedeutet, sie sind einzeln verfügbar und werden jeweils einzeln berechnet. Ein Nutzer hat die Möglichkeit entweder keine, alle oder nur ein paar Ressourcen zu nutzen, welche ihm als Service durch die Cloud bereitgestellt werden.
  • Experimentieren ist kostengünstig
    Cloud Computing entfernt die wirtschaftliche Hürde zum Experimentieren. Dadurch können neue Ideen ausprobiert werden, ohne langfristig in die dafür benötigte Hardware zu investieren, indem auf temporäre Ressourcen zurückgegriffen wird.

Eigenschaften aus der Sicht eines Unternehmens

  • Keine Vorabinvestitionen
    Cloud Computing wurde geschaffen, um Ressourcen bei Bedarf nutzen zu können. Aus diesem Grund sind keine einmaligen und großen Investitionen notwendig, bevor der eigentliche Bedarf auftritt.
  • Aus fixen kosten werden variable Kosten
    Anstatt sich auf eine feste Anzahl von Ressourcen über einen langen Vertragszeitraum (in der Regel ein bis drei Jahre) festzulegen, ermöglicht es Cloud Computing den Ressourcenverbrauch in Echtzeit zu verändern.
  • Investitionen werden zu Betriebskosten
    Investitionen werden in der Regel auf einen langen Zeitraum verteilt und führen damit zu einer mehrjährigen Verpflichtung, eine bestimmte Menge von Ressourcen zu nutzen. Die Betriebskosten hingegen beziehen sich auf die tatsächliche Nutzung des Cloud Service und können in Echtzeit verändert werden.
  • Die Ressourcenzuteilung wird granularer
    Cloud Computing ermöglicht eine minimale Nutzung in Bezug auf die Zeit und Ressourcen, bspw. Servernutzung pro Stunde und einzelne Bytes des genutzen Speichers.
  • Das Unternehmen gewinnt an Flexibilität
    Da ein Unternehmen sich nicht mehr langfristig an Ressourcen bindet, ist es in der Lage, schneller auf Änderungen bzgl. der benötigten Mengen und der Art der Geschäftstätigkeit zu reagieren.
  • Der Anbieter steht mehr unter Beobachtung
    Das Kerngeschäft des Cloud Computing Anbieters besteht darin, seine Cloud für die öffentliche Nutzung bereitzustellen. Somit hat er einen starken Anreiz seine Services so bereitzustellen, dass sie zuverlässig, anwendbar und kostengünstig sind. Die Cloud spiegelt also die Kernkompetenzen eines Anbieters wieder.
  • Die Kosten sind inhaltsorientierter
    Durch das flexible Ressourcenzuweisungsmodell des Cloud Computing ist es genauso leicht 100 Server für eine Stunde zu beziehen und zu betreiben wie einen Server für 100 Stunden. Das fördert das innovative Denken hinsichtlich der Lösungen von Problemen, die nur durch eine große Skalierung ermöglicht werden.
Kategorien
Grundlagen

Schlüsseltechnologien des Cloud Computing

Seit dem Beginn des neuen Jahrhunderts hat die Informationstechnologie viele neue Technologien hervorgebracht, die nun zusammen dafür genutzt werden IT-Ressourcen je nach Bedarf bereitzustellen. Durch die Kombination von Internet-Technologien wie Web-Browser, virtualisierte Server, Parallel-Computing und Open Source Software haben sich für die Bereitstellung von Computer Ressourcen völlig neue Möglichkeiten ergeben. Der Begriff Cloud Computing beschreibt die Kombination dieser genannten Technologien am besten.

IT-Anbieter sind dazu übergegangen aus dem Ergebnis dieser Konsolidierung Pakete zu schnüren und Unternehmen anzubieten, die ihre klassischen IT-Aufgaben auslagern wollen. Dazu gehören bspw. der Betrieb des eigenen Rechenzentrums oder die Anschaffung und Wartung von Unternehmensanwendungen wie Enterprise Resource Planning (ERP), Customer Relationship Management (CRM), Human Resource Information System (HRIS) oder weiteren Anwendungen, die lediglich dazu dienen, den Betrieb des Unternehmens zu unterstützen.

Grid Computing

Beim Grid Computing handelt es sich um eine Form des verteilten Rechnens. Die Idee entstand erstmalig im Jahr 1997 am Argonne National Laboratory. Dabei wird eine Art virtueller Supercomputer auf Basis eines Cluster von lose gekoppelter Computer aufgebaut. Ein Grid ist so konzipiert, dass die Ressourcen nicht einer zentralen Instanz zugeordnet sind. Dabei werden offene und standardisierte Protokolle und Schnittstellen verwendet, um damit Speicher- und Rechenkapazitäten über das Internet zur Verfügung zu stellen. Auf Basis des Grid Computing sollen Rechenleistungen und Daten über Organisationsgrenzen hinweg auf eine sichere und effiziente Art gemeinsam genutzt werden. Damit sollte die Möglichkeit geschaffen werden, rechenintensive Probleme zu lösen, für die nicht ausreichend lokale Ressourcen zur Verfügung stehen. Zu den grundlegenden Konzepten des Grid Computing gehören die Standardisierung, die Automatisierung sowie die Abstraktion von der Hardware. Über standardisierte Schnittstellen erfolgt der Zugriff auf alle verfügbaren Rechnersysteme innerhalb des Grids, die über einen automatisierten Verteilungsalgorithmus ihre Aufgaben erhalten. Auf Basis der Standardisierung findet der Zugriff auf die unterschiedlichen Ressourcen statt.

Das Cloud Computing erbt von dem Grid Computing grundlegende Konzepte und Technologien. So ermöglicht das Grid Computing bspw. der IT-Infrastruktur die Flexibiltät und Elastizität. Das Grid Computing bildet die Grundlage für Infrastructure-as-a-Service, indem es die Basiskonzepte für die standardisierten und hochskalierbaren Systemarchitekturen bereitstellt, die als abstrahierte virtuelle IT-Services verwendet werden können. Zudem ist die Erweiterung des Grid Computing mittels Rechen-, Speicher- und Netzwerkkapazitäten bei Bedarf das Grundkonzept für eine Cloud Computing Infrastruktur. Neben der optimierten Ressourcennutzung, dem Zugriff über das Internet und dem effizienteren Betrieb der Infrastrukturen wurden ebenfalls die Standardisierung, Automatisierung, und die Kosten- und Effizienzgewinne vom Grid Computing übernommen.

Virtualisierung

Virtualisierung wird als eine Emulation oder Simulation von Hardware-Ressourcen, bei der die Hardware vom Betriebsystem entkoppelt wird und sich dadurch der Grad der Flexibilität erhöht, charakterisiert. Ressourcen erhalten damit eine zentrale und einheitliche Sicht unabhängig von dem tatsächlichen physikalischen Ort, an dem sie sich befinden.

Zwei Bereiche sind die treibenden Faktoren der Virtualisierung in der IT. Bei dem einen handelt es sich um die Serverkonsolidierung, womit die Anzahl der physikalischen Serversysteme innerhalb eines Rechenzentrums gesenkt wird. Bei dem zweiten Bereich handelt es sich um die Anwendungsvirtualisierung. Damit wird die Bereitstellung der Anwendungen beschleunigt, wodurch ebenfalls die Flexibilität des Unternehmens steigt. Weiterhin sorgt Virtualisierung für einen optimierten Auslastungsgrad der IT-Ressourcen, der mit Hilfe einer intelligenten Verteilung der Applikationen auf die freien Ressourcen auf 70%-90% gesteigert werden kann. Das führt ebenfalls zu höheren Kosteneinsparungen. Eine Virtualisierungssoftware sorgt für die Aufteilung eines physikalischen Servers in mehrere virtuelle und ermöglicht damit die parallele Bereitstellung der Cloud Services für mehrere Kunden. Damit wird die IT-Infrastruktur eines Cloud Anbieters konsolidiert und kostengünstig betrieben, was zu kostengünstigen Cloud Services führt.

Beim Cloud Computing wird die Virtualisierung genutzt, um dem Nutzer Ressourcen bei Bedarf automatisiert und flexibel bereitzustellen. Ohne diese Technologie und ihre Konzepte wäre Cloud Computing daher nicht möglich.

Software-as-a-Service

Das Konzept des Software-as-a-Service gilt als einer der führenden Treiber des Cloud Computing in den vergangenen Jahren. Dabei stellen Anbieter ihre Software nach Bedarf über das Internet dem Nutzer bereit. Dieser kann über einen Standard Webbrowser darauf zugreifen und muss stattdessen keine Software auf dem üblichen Weg mehr kaufen und auf seinem lokalem System installieren.

Speziell der Gedanke einen Service, in diesem Fall Software, nach Bedarf zu nutzen und nicht im Vorweg darin zu investieren, gehört zu den zentralen Ideen des Cloud Computing.

Service Oriented Architecture

Die Service Oriented Architecture (SOA) hat dazu beigetragen, dass überhaupt (verteilte) Softwarekomponenten entwickelt werden konnten, die für das Cloud Computing benötigt werden. Eine SOA wird dabei auch als ein Paradigma bzw. ein Softwarearchitekturkonzept beschrieben. Dabei werden die Daten und der zur Ausführung notwendige Programmcode so gekapselt, dass diese als Service von einer anderen Anwendung aufgerufen und damit wiederverwendet werden können.

Um mit Cloud Computing mehr als nur Infrastructure-as-a-Service anbieten zu können, ist das Architekturkonzept einer SOA unentbehrlich. Dabei wird eine SOA dafür verwendet, um Anwendungen in einzelne Services aufzuteilen, dass jeder einzelne Service einen eigenen Geschäftsprozess darstellt. Mittels standardisierter Schnittstellen können diese gemeinsam verteilt genutzt werden. Mit einer SOA können diese Services so kombiniert werden, dass die Veränderungen innerhalb der Geschäftsprozesse softwaretechnisch schnell nachvollzogen werden können. Somit kann die IT-Strategie ebenfalls schneller an die geänderte Unternehmensstrategie angepasst werden und führt damit zu einer höheren Flexibilität und Agilität und erhöht die Wettbewerbsfähigkeit.

Open Source Software

Aktuelle Internettechnologien (z.B. Apache, MySQL), Entwicklungsumgebungen, Frameworks (z.B. Ruby, PHP) und Infrastrukturtechnologien (z.B. Linux, XEN) zeigen den Einfluss von Open Source Software auf die heutigen Infrastrukturen. So ist bspw. die Cloud der Amazon Web Services die größte XEN Installation weltweit.

Web Services

Web Services werden sehr oft im gleichen Atemzug mit einer SOA genannt, basieren letztendlich aber nur auf ihrem Architekturkonzept. Bei einem Web Service handelt es sich um eine Softwareapplikation, die mittels einer standardisierten Schnittstelle bei Bedarf aufgerufen werden kann. Web Services sind damit auch die Grundlage von Mashups.

Die Amazon Web Services sind das beste Beispiel dafür, dass Web Services zu den grundlegenden Technologien des Cloud Computing gehören. So handelt es sich um jeden angebotenen Service wie bspw. Amazon EC2 oder Amazon S3 jeweils um einen eigenen Web Service, der separat über eine eigene Schnittstelle unabhängig angesprochen werden kann.

Kategorien
Grundlagen

Die historische Entwicklung des Cloud Computing

Historisch betrachtet reichen die Ideen und Konzepte des Cloud Computing bis in die 1960er Jahre zurück. Bereits damals enstanden die Ideen, IT-Ressourcen wie Rechenleistung und Anwendungen als ein Utility einer breiten Masse gegen eine Nutzungsgebühr zur Verfügung zu stellen. Auf Grund der damals dafür notwendigen, aber noch nicht vorhandenen technischen Voraussetzungen wie schnelle und stabile Internetverbindungen sowie der Mehrbenutzerfähigkeit von IT-Systemen, war der Durchbruch nicht möglich.

Vor ca. 10 Jahren begannen IT-Dienstleister erneut damit, ihren Kunden IT-Ressourcen in Form von Anwendungen anzubieten, welche sie flexibel nach der tatsächlichen Verwendung abrechnen konnten, so wie es von der Nutzung des Strom- und Wassernetzes bekannt ist. Die zu verarbeitenden Daten befinden sich dabei im Rechenzentrum eines Drittanbieters. Der Kunde greift mittels seines Webbrowser über eine Webseite auf diese Daten zu. Ursprünglich hieß diese Art des Geschäftsmodells Application Service Providing (ASP). Heute hat es die Bezeichnung Software-as-a-Service (SaaS), ein Teilbereich des Cloud Computing.

Die bekanntesten Vertreter und Vorreiter der Technologien, Ideen und Konzepte des Cloud Computing sind Google, Salesforce und Amazon.

Google konzentriert sich neben seiner Cloud Office Suite (Google Apps) inkl. E-Mail, Kalender, Textverarbeitung und Tabellenkalkulation auf das Bereitstellen einer Entwicklungsinfrastruktur (Google AppEngine). Salesforce hat sich dagegen auf Unternehmenssoftware wie z.B. dem Customer Relationship Management (CRM) spezialisiert und steht damit in direkter Konkurrenz zu den klassischen Anbietern wie z.B. SAP. Weiterhin steht mit Force.com jedoch auch eine Entwicklungsinfrastruktur in deren Cloud bereit. Google und Salesforce gehören damit zu den Anbietern von SaaS und Platform-as-a-Service (PaaS) Diensten.

Amazon hingegen ist mit seinen Amazon Web Services (AWS) ein Anbieter aus dem Bereich der Infrastructure-as-a-Services (IaaS) sowie PaaS und stellt mit der Amazon Elastic Compute Cloud (EC2) Rechenleistung und den Amazon Simple Storage Services (S3) Speicherplatz in seiner Cloud zur Verfügung.

Um zu verstehen, warum diese drei Anbieter ihre eigenen Infrastrukturen nach den Prinzipien des Cloud Computing einer breiten Masse bereitstellen können, gilt es hinter die Kulissen zu schauen und deren Beweggründe zu verstehen.

Auf Basis dieses Verständnisses, lässt sich sehr gut verdeutlichen, wie es zu der Entwicklung des Cloud Computing gekommen ist.


Beweggründe von Google, Salesforce und Amazon

Um die Beweggründe zu verstehen, muss zunächst die triviale Frage erörtert werden, warum jeder der genannten Anbieter selbst nicht auf den Einsatz der Prinzipien und Technologien des Cloud Computing in seinen Infrastrukturen verzichten kann.

Abgesehen von Salesforce, hatte keiner dieser drei Anbieter das ursprüngliche Ziel gehabt Cloud Computing Dienste anzubieten. Vielmehr ist es aus einer Notwendigkeit entstanden. Um ihre Kerngeschäfte überhaupt effizient betreiben zu können, waren sie gezwungen, Cloud Computing Technologien zu entwickeln und selber einzusetzen.

Warum benötigt Salesforce Cloud Computing?
Wie bereits oben erwähnt, hat Salesforce von Anfang an sein Kerngeschäft darauf ausgerichtet, Unternehmensanwendungen auf Basis von Software-as-a-Service anzubieten. Sie mussten somit eine eigene hochskalierbare und hoch verfügbare IT-Infrastruktur aufbauen, um ihren Kunden die angebotenen Services jederzeit zuverlässig bereitzustellen. Sonst hätte das Geschäftsmodell nicht funktioniert.

Warum benötigt Google Cloud Computing?
Wird das Kerngeschäft von Google genauer betrachtet, steht hier die Suche und die damit zusammenhängende Indizierung des Internets im Vordergrund. Für beides wird eine enorme Rechenleistung benötigt, die nur durch den Aufbau einer entsprechend leistungsfähigen IT-Infrastruktur bereitgestellt werden kann. Zudem möchte Google seinen Nutzern einen zuverlässigen und vor allem schnellen Dienst während der Suche von Informationen im Internet bereitstellen, wodurch auch hier die Aspekte der Hochskalierbarkeit und Hochverfügbarkeit von besonderer Bedeutung sind.

Warum benötigt Amazon Cloud Computing?
Amazons Kerngeschäft ist der Webshop auf Amazon.com. Hierbei handelt es sich um die größte E-Commerce Plattform der Welt mit Millionen Kunden und Transaktionen pro Tag. Auf Grund dessen gilt es für Amazon über eine hochskalierbare und hochverfügbare IT-Infrastruktur zu verfügen, um seinen Kunden einen zuverlässigen Service zu bieten.
Nach Aussage von, CTO von Amazon, liegen Amazons Beweggründe für den Einstieg in das Cloud Computing darin, dass die Infrastuktur innerhalb eines Jahrzehnts immer weiterentwickelt wurde, um die Evolution der Amazon E-Commerce Plattform stetig voranzutreiben. Währenddessen wurden verteilte Software und Vorgehensweisen entwickelt, welche in einem großen Umfang zu hohen Leistungen, Zuverlässigkeit, Betriebsqualität und Sicherheit geführt haben. Zur selben Zeit wurde festgestellt, dass der programmatische Zugriff auf den Amazon Katalog und weitere E-Commerce Dienste zu einer enormen und unerwarteten Innovation durch ein sehr großes Ökosystem von Entwicklern führt. Dadurch entstand schließlich der Gedanke, eine Amazon Kompetenz – der Aufbau von hochskalierbarer Systemsoftware – über eine Service Schnittstelle anzubieten und darüber einfache Infrastrukturbausteine bereitzustellen. Das sollte auf der ganzen Welt zu Innovationen führen, da sich Entwickler somit nicht mehr um den Kauf, Aufbau und die Wartung einer Infrastruktur kümmern müssen. Da aus eigener Erfahrung die Kosten für die Wartung einer zuverlässigen und skalierbaren Infrastruktur in einem traditionellen, redundanten Rechenzentrumsmodell ca. 70% der Zeit und Aufwände betragen und die Investitionen des geistigen Kapitals ebenfalls erhebliche Kosten verursachen, bestanden die ersten Überlegungen darin, Services bereitzustellen, welche die Kosten auf 30% oder weniger reduzieren. Zudem wurde erkannt, dass die generelle Rechnerauslastung sowohl bei großen und mittelständischen Unternehmen als auch bei Startups dramatisch klein (weniger als 20%, oft sogar weniger als 10%) und oft einer erheblichen Periodizität ausgesetzt ist. Die Bereitstellung von Diensten auf Basis eines on-Demand Models unter der Nutzung eines Pay as you Go Preismodells sollte dieses radikal verändern. Die Geschichte über den Verkauf von Überkapazitäten soll demnach ein Mythos sein. Jedoch hätte Amazon zunächst ohne den Aufbau der Infrastruktur seine Amazon Web Services in der Form niemals anbieten können. Die für den Webshop entwickelte Infrastruktur diente dafür als die entscheidende Grundlage.


Gemeinsamkeiten zur Bewältigung der Herausforderungen

Betrachten wir nun die Gemeinsamkeiten bzw. Herausforderungen, die bewältigt werden müssen um das jeweilige Kerngeschäft zu betreiben, wird deutlich, wie es zu der Technologie bzw. dem Geschäftsmodell gekommen ist, das als Cloud Computing bezeichnet wird. Gleichzeitig gelten diese Gemeinsamkeiten als die drei typischen Charakteristika des Cloud Computing. Dazu gehören:

Hohe Skalierbarkeit

  • Salesforce
    Die Unternehmensanwendungen von Salesforce sind auf kleine Startups bis hin zu großen Unternehmen ausgelegt. Die Infrastruktur muss dementsprechend mit großen Anfragemengen umgehen können.
  • Google
    Die Menge an Suchanfragen für einen bestimmten Zeitraum sind nicht exakt vorhersagbar, daher muss die Infrastruktur auch mit einer unerwartet hohen Belastung zurechtkommen. Zudem ist eines von Googles Mottos schließlich, dass schneller besser als langsam ist.
  • Amazon
    Speziell in saisonal bedingten Zeiten wie z.B. Weihnachten steigen die Anfragen an den Webshop exponentiell, wodurch die Infrastruktur stetig mitwachsen muss.

Hohe Verfügbarkeit

  • Salesforce
    Kunden von Salesforce nutzen geschäftskritische Unternehmensanwendungen und speichern ihre Daten in der Cloud von Salesforce, auf die sie jederzeit zugreifen müssen.
  • Google
    Google ist zum Inbegriff der Suche im Internet geworden. Sollte die Webseite mal nicht erreichbar sein, würde das einen enormen Imageverlust bedeuten.
  • Amazon
    Ein Webshop wie Amazon.com ist nicht vergleichbar mit einem gewöhnlichen Einzelhandelsgeschäft. Kunden können hier rund um die Uhr einkaufen, was bedeutet, dass der Shop 24/7 erreichbar sein muss.

Hohe Zuverlässigkeit

  • Salesforce
    Kunden von Salesforce müssen sich auf die einwandfreie Datenhaltung und Funktion der genutzten Anwendungen verlassen können.
  • Google
    Nutzer der Google Suchmaschine müssen sich auf die Suchergebnisse verlassen können. Das impliziert ebenfalls eine zuverlässige Indizierung.
  • Amazon
    Ein Kunde muss sich während eines Bestellvorgangs darauf verlassen können, dass alle Transaktionen die zu dieser Bestellung gehören, zuverlässig abgeschlossen werden.

Fazit

Nur durch die Konzeption und den Aufbau einer hoch skalierbaren sowie äußerst zuverlässigen Infrastruktur, die jederzeit verfügbar ist, können Salesforce, Google und Amazon ihre Kerngeschäfte optimal und einwandfrei betreiben und Ihren Kunden damit den größtmöglichen Nutzen bieten.

Kategorien
Grundlagen

Cloud Computing – Das neue Paradigma

Cloud Computing bezeichnet in erster Linie ein Servicemodell, bei dem auf (theoretisch unbegrenzte) IT-Ressourcen wie Rechenleistung, Speicherplatz, Applikationen und andere Arten von Services on-Demand zugegriffen werden kann. Dabei werden auf Basis des Pay as you Go Konzeptes nur die Ressourcen berechnet, die zu diesem Zeitpunkt auch tatsächlich genutzt werden.

Die eigentliche Verarbeitung findet in den Rechenzentren auf den Servern der Cloud Computing Anbieter statt. Dadurch hat die Relevanz heutiger leistungsfähiger Endgeräte stark abgenommen, wodurch auch mittels Smartphones und Netbooks, die nur über beschränkte Ressourcen verfügen, komplexe Anwendungen genutzt werden können.

Die Umsetzung des On-Demand Modells, die dynamische Zuweisung von Ressourcen nach Bedarf, erfolgt über die Abstrahierung mittels einer weiteren Ebene, der Virtualisierung. Anstatt der Miete eines physikalischen Servers werden virtuelle Maschinen eingesetzt, deren Ressourcen wie Speicherkapazitäten und Rechenleistung je nach den aktuellen Anforderungen dynamisch mitwachsen oder sich verkleinern. Ressourcen wie bspw. der Langzeitspeicher werden dabei bewusst getrennt von den verarbeitenden Ressourcen gehalten und separat angebunden, um die Flexibilität und Verfügbarkeit der Daten zu erhöhen.

Die Ressourcen aus der Cloud eines Anbieters sind somit weitaus skalierbarer als es die klassischen IT-Infrastrukturen sein können. Müssen unerwartete Spitzenlasten über einen unbekannten Zeitraum überbrückt werden, stehen die dafür benötigten Ressourcen umgehend zur Verfügung und können anschließend wieder heruntergefahren werden. Abgerechnet werden hierbei nur die Ressourcen, die auch tatsächlich für diesen Zeitraum genutzt wurden.

Unternehmen sind die Probleme zur Bewältigung von Spitzenlasten bekannt. Um dem gerecht zu werden sind sie klassisch vorgegangen und haben ihre IT-Infrastrukturen überdimensionert, um immer ausreichend Ressourcen vorzuhalten, die nur für wenige Zeiträume im Jahr, wie z.B. Weihnachten oder dem Jahresabschluss, benötigt werden. Dies führt jedoch dazu, dass die Server im Jahresmittel zu 20% genutzt werden und die restlichen 80% dem Unternehmen nicht helfen das eigentliche Geschäftziel zu verfolgen. Im Gegenteil: Durch die hohen Investitionskosten für Hard- und Software sowie Wartung, Personal etc. wurden immense Summen in einen Bereich des Unternehmens investiert, der in den Führungsebenen seit jeher als klassischer Kostenfaktor betrachtet wird.

Im Cloud Computing werden die Ressourcen alle als “… as-a-Service” aus der Cloud angeboten. Dazu gehören Rechnerleistung und Speicher, Programmierungebungen und Software. Diese Bereiche werden weiter unten im Kapitel noch detaillierter beschrieben. Diese Dienste werden bei Bedarf aus der Cloud bezogen.

Das Wort der Cloud abstrahiert sich aus der Illustration der klassischen Netzwerktechnik. Um die Details eines unbekannten Netzwerkes, in der Regel das Internet, nicht genauer beschreiben zu müssen, wird sich hier an der Abbildung einer Wolke (Cloud) bedient. Abgebildet auf das Cloud Computing bedeutet dies für einen Cloud Computing Nutzer, dass er sich um die Details der IT-Infrastruktur bei dem Cloud Computing Anbieter nicht mehr kümmern muss. Er bezieht lediglich die Ressourcen, die er zu einem bestimmten Zeitpunkt benötigt und nur diese werden anschließend abgerechnet.

Kategorien
News

BITKOM Unternehmerdialog in Frankfurt

Am Donnerstag, 15. September 2011 war René Büst mit seinem Vortrag „Anbieter oder Anwender in der Cloud? – Der Kuchen ist groß genug!“ auf dem BITKOM Unternehmerdialog in Frankfurt.

Hier sind die Folien zu seinem Vortrag zu sehen:

Anbieter oder Anwender in der Cloud? – Der Kuchen ist groß genug! from Rene Buest