Kategorien
Kommentar

"Variable Cloud-Verträge" Bitte was?

Ich bin auf der deutschen CIO.de auf ein Interview mit dem Titel „Wir brauchen variable Cloud-Verträge“ gestoßen? Bitte was? Variable Cloud-Verträge? Das sind drei Wörter die so zusammen überhaupt keinen Sinn ergeben und zeigen, dass das Cloud Computing Konzept irgendwie noch nicht angekommen ist oder und das wäre sehr prekär, die Anbieter falsch beraten.

Zerlegt: „Variable Cloud-Verträge“

Nehmen wir dieses Wortgeflecht mal auseinander und bilden es auf die grundsätzlichen Prinzipien des Cloud Computing ab, kommen wir zu dem folgenden Ergebnis:

Variable

Cloud Computing ist per se variable. Sogar variabler als jede Form des Outsourcing, dass wir in der Geschichte der IT gesehen haben. Und das bezogen auf die zeitliche Nutzung als auch bzgl. der Abrechnung. Siehe nächsten Punkt.

Cloud

Kurz und knapp zusammengefasst bedeutet Cloud (Computing) der flexible (variable) Bezug von (IT)-Ressourcen über eine Datenverbindung, bevorzugt das Internet.

Flexible bzw. variable bedeutet, dass man die Ressourcen zu dem Zeitpunkt bezieht, nutzt und wieder „zurückgibt“, wann man es als Kunde möchte (on Demand) und das man nur für die Ressourcen bezahlt, die man innerhalb dieses Zeitraums auch tatsächlich verwendet hat (pay as you go).

Also höchst variable!

Verträge

Im klassischen Gedanken gibt es beim Cloud Computing keine „richtigen“ Verträge, wie wir es normalerweise kennen. In der Public Cloud reicht eine Kreditkarte. Natürlich geht man in einer Form einen Vertrag ein, aber dieser ist bzw. sollte von der Anbieterseite so gestaltet sein, dass man als Kunde das Maximum an Flexibilität erhält. Also die Abrechnung z.B. pro Stunde erfolgt und kein monatlicher oder gar jährlicher Vertrag geschlossen wird. Wird die Infrastruktur des Anbieters ab einem gewissen Zeitpunkt nicht mehr genutzt ist Ende mit der Abrechnung.

Die konkrekte Aussage

Die Aussage in dem Interview liest sich wie folgt:

„Cloud Computing ist ein Trend, den man einfach nutzen muss. Wesentlich für uns ist die vertragliche Umsetzung. Was die Cloud bringt, ist ja die schnelle Nutzbarkeit von IT-Leistungen und die Verfügbarkeit losgelöst vom Unternehmen. Interessant wird es für uns aber erst dann, wenn alle relevanten Sicherheitsanforderungen erfüllt sind, wenn man von einem Anbieter zum andern wechseln kann und sich die Verträge variabel gestalten lassen. Das heißt konkret, die bezogenen Ressourcen müssen sich innerhalb von 24 Stunden sowohl nach oben als auch nach unten anpassen lassen.“

Insbesondere der letzte (fett markierte) Teil ist besorgniserregend!

„… wenn man von einem Anbieter zum andern wechseln kann und sich die Verträge variabel gestalten lassen.“ Das heißt konkret, die bezogenen Ressourcen müssen sich innerhalb von 24 Stunden sowohl nach oben als auch nach unten anpassen lassen.“

Diese Aussage zeigt mir auf der einen Seite, dass der Marktüberblick fehlt. Denn es gibt ausreichend (echte) Cloud Computing Anbieter, bei denen genau diese Forderung möglich ist. Genannt seien z.B. die Amazon Web Services, Microsoft Windows Azure oder auch CloudSigma. Auf der anderen Seite bedeutet dies aber auch, dass so manche Anbieter weiterhin ein falsches Spiel spielen und Cloud Computing nach ihren eigenen Regeln definieren und die Kunden damit verwirren.

Kategorien
Analysis

Traditional webhoster and their fight with real infrastructure-as-a-services

Some days ago I had a briefing with an european webhoster who presented his product line-up and the strategic alignment. I reluctantly would like to use the term cloud-washing. But this call showed me again that traditional webhoster have massive problems to define and build a real infrastructure-as-a-service offering.

Difficulties with modernity

It is what I often see in the portfolio of a „cloud“ services provider. These are mostly classical webhoster, who did not want to miss the cloud hype and jump on the bandwagon by cloud-enabling their offering on the paper. There are exceptions, but these are very rare. At this point, the providers purely and simply jumped on the hype and understand the Internet as the cloud.

The portfolio of the provider I talked to had the same shape. It includes dedicated server und cloud server, which a few months/ years ago had been named virtual server. These „cloud servers“ are offered as five fixed different variety of configurations incl. 1 to 4 cores, storage and ram for a monthly fee of x EUR/ USD. Not to forget: the deployment period is indicated from 1 to 5 workdays. Further questions revealed that there is no on demand offering and for example no API to manage or start and stop additional server. Additional services or software images around the offering also lack just as a pay as you go model.

Internal structure and strategy: check

Upon request the provider acknowledged that, except for the word itself, the server offerings have nothing to do with cloud computing. But he seems to be on the right way. About a year ago he converted the internal infrastructure to CloudStack to benefit from a better provisioning for the customer servers. But, customers can’t take advantage of it so far. Moreover they switched with KVM to a modern, open and widespread hypervisor. Also the issue of network virtualization was implemented a few weeks ago. On his own admission, the provider already do have a cloud strategy which will give the customers the opportunity to get resources on demand plus a pay as you go model. Since he his now self-aware that it is absolutely necessary.

Nevertheless, considering these experiences each user who seriously wants to go to the cloud should be informed in advance intensively.

Kategorien
Services

HP Discover: HP hat nun einen eigenen Private Platform-as-a-Service im Portfolio

Auf der HP Discover ist es zwar leider ein wenig untergegangen, aber wie Ben Kepes über PR-Kanäle erfahren konnte, hat HP ebenfalls nun einen eigenen Private Platform-as-a-Service (PaaS) im Portfolio. Dieser basiert auf Stackato, welches wiederum ein sogenannter Fork von Cloud Foundry ist.

HP Platform-as-a-Service

HP selbst bezeichnet seine neue, auf Unternehmen fokussierte Plattform, als eine Applikations-Plattform zur Entwicklung, Bereitstellung und dem Management von Cloud Applikationen unabhängig von der Programmiersprache und dem dafür benötigten Stack.

Partnerschaft mit ActiveState

Um den eigenen PaaS anzubieten, geht HP eine Partnerschaft mit ActiveState, der treibenden Kraft hinter Stackato ein. Dazu greift HP auf eine OEM Lizenz von Stackato zurück, um den PaaS in die eigene Cloud Infrastruktur zu integrieren.

Für ActiveState bedeutet dies eine Art kleiner Ritterschlag. Normalerweise sollte man davon ausgehen, dass ein so großes Unternehmen wie HP selbst die Expertise besitzt, einen PaaS zu entwickeln. Es zeigt jedoch, wie gut Stackato scheinbar in die Infrastruktur von HP passt.

Was ist Stackato?

Stackato selbst erlaubt es Entwicklern eine Vielzahl von unterschiedlichen Programmiersprachen zu nutzen, darunter Java, Ruby, Python, Perl, Node.js und PHP, halt ein typischer Polyglot PaaS.

Der Platform-as-a-Service Markt

Der PaaS Markt gehört zu den am schnellsten wachsenden Bereichen im Cloud Computing Markt. Glaubt man Gartner, wird dieses Marktsegment in den nächsten fünf Jahren von 1,2 Milliarden US-Dollar in 2012 auf 2,9 Milliarden US-Dollar in 2016 wachsen. Im Vergleich dazu lag der Wert in 2011 noch bei 900 Millionen US-Dollar. Gartner geht zudem davon aus, dass gegen Ende 2013 alle großen Softwareanbieter einen eigenen PaaS im Markt platziert haben werden.

Kategorien
News

HP Discover: HP erweitert das HP CloudSystem um KVM

HP hat sein Converged-Cloud-Portfolio erweitert. Das HP CloudSystem wurde überarbeitet und unterstützt jetzt Kernel-based Virtual Machines (KVMs). Die neue Version 3.1 von HP Cloud Service Automation (CSA) bietet zudem neue Funktionen für die Verwaltung, die Nutzung und das Brokerage von Cloud-Diensten. Diese richten sich an Service Designer, Cloud-Konsumenten sowie -Administratoren. Die neue Version 1.1 von HP Continuous Delivery Automation (CDA) stellt Anwendungen in Cloud-Umgebungen automatisch bereit. Das aktualisierte Converged-Cloud-Portfolio soll Unternehmen dabei helfen, Cloud-Services und -Anwendungen schnell und fehlerfrei zu implementieren.

Die neuen Funktionen des HP CloudSystem

  • Eine offene, erweiterbare Plattform für heterogene IT-Umgebungen. Diese unterstützt neben Virtualisierungstechnologien von HP, Microsoft und VMware jetzt auch Kernel-based Virtual Machines (KVMs), also die Linux-Kernel-Virtualisierung. Um KVMs zu verwalten und bereitzustellen hat HP OpenStack-Technologien direkt in HP CloudSystem integriert. Dadurch erhalten Anwender die Flexibilität einer offenen Lösung, ohne die komplexe Integration in ihre IT-Infrastruktur selbst durchführen zu müssen. Anwender können unterbrechungsfrei und schnell die KVM-Unterstützung/Support zu HP CloudSystemen hinzufügen. Aufgrund der erweiterten Flexibilität können Anwender Cloud-Anforderungen noch besser mit Kosten-, Sicherheits- und Verfügbarkeitsanforderungen abstimmen.
  • Größere Flexibilität in Bezug auf Bursting-Kapazitäten: Die neue Version von HP CloudSystem unterstützt jetzt auch das Bursting von HP CloudSystem zu HP CloudSystem. Damit können Anwender beispielsweise auch innerhalb eines Unternehmens auf weitere Bursting-Kapazitäten zugreifen. Für HPs Cloud-Angebot gibt es bereits Bursting-Verbindungen zu Amazon EC2, Savvis und dem Public-Cloud-Angebot HP Cloud Service.
  • Zugriff auf weitere Cloud-Templates: HP hat das bestehende Angebot an HP Cloud Maps um 50 neue Templates erweitert, unter anderem für HP DataProtector. Das Template für HP DataProtector verbessert die Zuverlässigkeit und Skalierbarkeit von Backups in HP-CloudSystem-Umgebungen. Kunden können jetzt insgesamt auf mehr als 200 Templates zurückgreifen und Anwendungen auf Knopfdruck bereitstellen.

Grundlage von HP CloudSystem sind die HP Converged Infrastructure und die Software HP Cloud Service Automation (CSA). HP CSA bietet Anwendern eine umfassende, einheitliche Cloud-Management-Plattform zur Verwaltung sowie das Brokerage von Anwendungen und Infrastrukturen für Cloud-Services.

HP CSA 3.1 mit integrierten Sicherheitsfunktionen von HP TippingPoint

Neu in Version 3.1 sind Funktionen speziell für drei Nutzergruppen: Service Designer, Cloud-Konsumenten sowie -Administratoren. Die Benutzeroberfläche für Cloud-Konsumenten (Cloud Consumer) bietet ein einheitliches Dashboard und eine grafische Oberfläche, die eine Sicht auf den gesamten Lebenszyklus der Cloud-Services – von Bestellung bis Konsum – ermöglicht. Außerdem können ab sofort Sicherheitslösungen von HP TippingPoint integriert werden. Das gewährleistet die Sicherheit und Hochverfügbarkeit der Cloud-Services. Für Cloud-Administratoren bietet Version 3.1 verbesserte Mehr-Mandanten-Fähigkeit. Administratoren können damit Mandanten schneller aufsetzen und genauer definieren. Service Designer wiederum können durch neue Funktionen im Portal Services genauer definieren, erstellen und flexibler verwalten. Zu den neuen Funktionen zählt beispielsweise die Möglichkeit, Angebote direkt über das Portal in den Service-Katalog aufzunehmen. CSA 3.1 ist in Kombination mit HP CloudSystem und als eigenständige Lösung erhältlich.

HP CDA 1.1 automatisiert den Bereitstellungsprozess von Cloud-Anwendungen

Durch den Wettbewerbsdruck müssen Unternehmen hochwertige Anwendungen in immer kürzeren Zeitabständen auf den Markt bringen. Mit den Automatisierungsfunktionen von HP CDA 1.1 werden der Bereitstellungsprozess von Anwendungen und die Übergaben zwischen verschiedenen Teams innerhalb des Anwendungs-Lebenszyklus vereinfacht. Diese führen typischerweise zu Fehlern und Verzögerungen. Beim Release-Management ermöglicht HP CDA 1.1 Entwicklerteams beispielsweise, den Veröffentlichungs-Prozess exakt zu definieren und Kriterien für jeden Prozess-Schritt sowie die Freigabe zu definieren. HP CDA stellt außerdem automatisch die notwendige Infrastruktur über Provisionierungs-Werkzeuge zur Verfügung und überwacht die Anwendungen über verschiedene Monitoring-Werkzeuge. Für Infrastruktur- und Plattform-Designer stellt CDA 1.1 eine Infrastruktur-Service-Schicht sowie eine grafische Benutzeroberfläche für Rechen-, Speicher- und Netzwerk-Charakteristiken von Infrastruktur-Services zur Verfügung. Diese Services stellen grafisch physische und virtuelle (HP Matrix respektive Public, Private und Hybrid Cloud) Rechenkapazitäten dar. Im Application Designer können App-Designer Standard-Funktionen festlegen und damit beispielsweise Anwendungen starten oder beenden sowie ausrollen. Für Policy Designer bietet CDA 1.1 eine Übersicht über die Abhängigkeit zwischen Cloud-Anwendungen und physischen Ressourcen.

HPs Public Cloud mit neuen Services

Des Weiteren hat HP neue Funktionen für die Public-Cloud-Lösung HP Cloud Service entwickelt. Diese ermöglichen es Unternehmen, Arbeitslasten in die Cloud zu verlagern. Zu den Neuigkeiten zählen:

  • Die allgemeine Verfügbarkeit von HP Cloud Compute. Mit diesem Public-Cloud-Service können Kunden Rechenkapazitäten nach Bedarf beziehen und nach Nutzung bezahlen. Der Service wird mit einem Service Level Agreement angeboten, das eine Verfügbarkeit von 99,95 Prozent garantiert. Das entspricht einer maximalen Ausfallzeit von 30 Minuten pro Monat. Der Preis pro Stunde beginnt bei 0,04 US-Dollar.
  • Die Public-Beta-Phase von HP Cloud Block Storage. Dieser Service ermöglicht Kunden, Daten einfach von einer Recheninstanz zu einer anderen zu verschieben. Er eignet sich besonders für Web-Anwendungen mit hohem Daten-Zugriff. Die Preise beginnen bei 0,10 US-Dollar pro Gigabyte und Monat. In der Public-Beta-Phase erhalten Nutzer von HP Cloud Block Storage einen Rabatt von 50 Prozent.

Außerdem hat HP weitere Services angekündigt:

  • Die Public-Beta-Phase von HP Cloud Application Platform as a Service (PaaS). Dieser Service ermöglicht Unternehmen und Software-Entwicklern, sich auf die App-Entwicklung und deren Implementierung zu fokussieren. Grundlage für diesen Service ist das Projekt Cloud Foundry Open PaaS. Es werden eine Vielzahl von Sprachen, der Aufbau von komplexen App-Infrastrukturen und ad-hoc-Provisionierung und -Bereitstellung unterstützt.
  • Der Service HP Cloud Workload Migration Services hilft Anwendern, Arbeitslasten zu erfassen, zu planen und in HPs Public Cloud zu migrieren. Der Service wird in Zusammenarbeit mit HP-Partnern erbracht und unterstützt Kunden durch geringe oder gar keine Änderungen am Anwendungs-Code. Dadurch können sie von den Vorteilen von Cloud Computing wie Skalierbarkeit, Kostenersparnissen und Flexibilität profitieren.

HP hat darüber hinaus eine Lösung speziell für Telekommunikationsdienstleister veröffentlicht. HP Cloud Solutions for Communication Service Providers (CSPs) ermöglicht CSPs, Cloud-Umgebungen für kleine und mittelgroße Unternehmen sowie große Firmen bereitzustellen. So können sich CSPs als Cloud-Service-Broker etablieren und vom Cloud-Geschäft profitieren. Außerdem können sie ihren Geschäfts- und Endkunden neue und bessere Services bieten.

Kategorien
Management

IT-Abteilungen entscheiden nicht mehr über die Nutzung von Cloud Computing Services

Es ist wie Dietmar Wiedemann und ich es im vergangenen Jahr (Erstveröffentlichung, 16.08.2011) bereits vorausgesagt und darauf hingewiesen haben. Die Schatten-IT hat die Oberhand gewonnen. Das bestätigt ein Bericht von Capgemini, basierend auf einer Umfrage unter 460 Unternehmen weltweit. Kurzum: Die Verantwortung für die Einführung von Cloud Computing Services übernehmen vor allem Mitarbeiter ohne IT-Hintergrund.

45 Prozent der Fachabteilungen entscheiden über Cloud Services

Bereits 45 Prozent der Fachabteilungen entscheiden selbst, welche Arten von Cloud Services sie nutzen wollen. Im Vergleich dazu werden nur 44 Prozent der IT-Abteilungen zur Rate gezogen. Die restlichen 11 Prozent werden als Sonstige angegeben.

Das bedeutet, dass fast die Hälfte aller Entscheidung (Budget, Auswahl und Implementierung) um das Thema Cloud Computing herum von der Business-Seite getroffen werden. Im Umkehrschluss zeigt es, dass die IT-Abteilung sich mehr und mehr mit CMOs, Vorständen, Führungskräften, HR-Mitarbeitern, Mitarbeitern aus dem Procurement, der Finanzabteilung und der Verwaltung auseinandersetzen müssen. IT-Entscheidungen werden somit immer weniger von der IT-Abteilung selbst getroffen.

Cloud Computing startet durch

83 Prozent der befragten Unternehmen verfügen bereits über eine Strategie für die Einführung von Cloud Services. Dabei liegen US-amerikanische Organisationen deutlich vorne. Unternehmen aus Europa hingegen hinken hinterher.

89 Prozent glauben, dass Cloud Computing ein Treiber für ein besseres Wirtschaftsklima ist. Dabei sind neue Wachstumsmärkte erschließen (53 Prozent) und neue Anwendungen ausrollen (23 Prozent) die beiden Top-Gründe für Unternehmen, um in die Cloud zu gehen.

Private Cloud und Software-as-a-Service sind beliebt

45 Prozent der befragten Unternehmen entscheiden sich aktuell für eine durch einen Partner gehostete Private Cloud (Hosted Private Cloud). Weitere 22 Prozent bevorzugen eine selbst betriebene Private Cloud (on-Premise).

Software-as-a-Service gehört zu den derzeit am meisten genutzten Cloud Services (42%). Gefolgt von Infrastructure-as-a-Service (40 Prozent) und Platform-as-a-Service (36 Prozent). Dabei greifen Unternehmen bevorzugt auf CRM-Lösungen, HR-Applikationen, Finanzen- und Verwaltungsservices sowie Lösungen für die gemeinsame Abwicklung von Procurement-Prozessen zurück.

Top 1 Problem: Integration

Der Hauptgrund für Unternehmen, derzeit noch keine Cloud Services einzuführen, sind fehlende Integrationsmöglichkeiten (45 Prozent) gefolgt vom Mangel an Agilität im Unternehmen (35 Prozent), Angst vor Sicherheitslücken (33 Prozent) und eine nicht vorhandene Cloud-Strategie (31 Prozent).

Cloud Computing ist ein durch das Business getriebenes Konzept

Wirklich überrascht hat mich das Ergebnis der Umfrage nicht. Zwar wird Cloud Computing oft als ein rein technologischer Ansatz betrachtet, der nur dafür entwickelt wurde, Unternehmen in Zukunft zu helfen, skalierbarer, flexibler etc. zu agieren. Das ist auf der einen Seite auch richtig, allerdings vertrete ich schon sehr lange die Meinung, dass Cloud Computing in erster Linie durch das Business und nicht durch die Technologien getrieben wird bzw. wurde. Aber warum ist das so?

Das kann hier nachgelesen werden: Cloud Computing ist ein durch das Business getriebenes Konzept

Kategorien
Management

Der Cloud Computing Markt in den USA wird bis 2016 auf 43,2 Mrd. US-Dollar wachsen

Laut einem Bericht der Analysten von IDC, wird der Cloud Computing Markt in den USA bis zum Jahr 2016 auf 43,2 Mrd. US-Dollar wachsen. Im Vergleich zu den Vorhersagen aus dem Jahr 2011 (18.5 Mrd. US-Dollar), ist das Wachstum verhältnismäßig groß.

Der Cloud Computing Markt wird immer umfangreicher

IDC hat in seinem Bericht den US-Markt in fünf Technologie und sechs vertikale Kategorien unterteilt. Zu den Technologie-Kategorien zählen Storage-as-a-Service, Server-as-a-Service, Platform-as-a-Service, Software-as-a-Service und Application-as-a-Service. Zu den vertikalen Kategorien zählt IDC private Nutzer/ Business Nutzer, den öffentlichen Sektor, Infrastruktur-Services, Dienstleistungsbetriebe, Vertriebsdienstleister, das produzierende Gewerbe sowie Finanzdienstleister. Zudem sieht IDC die Bereiche Bau, Bildung und Kommunikation als Teil der aufstrebenden vertikalen Märkte für Cloud Services.

Anmerkung: Mit „Server-as-a-Service“ meint IDC wahrscheinlich „Infrastructure-as-a-Service“. Warum hier eine „eigene neue“ Kategorie aufgemacht wird, keine Ahnung! Auch „Application-as-a-Service“ wird in der Regel nicht verwendet.

IDC ergänzt Gartner

Der IDC Bericht ist eine Ergänzung zu den Vorhersagen, die Gartner kürzlich für 2016 gemacht hat. Demnach wird, laut Gartner, der weltweite Cloud Computing Markt im Jahr 2016 einen Wert von 206,6 Mrd. US-Dollar erreichen.

Kategorien
Management

Jeder fünfte Mitarbeiter nutzt Dropbox im Büro

Ausgehend von Dropbox‘ kürzlicher Ankündigung, über 100 Millionen Nutzer zu haben, ist es keine Überraschung, dass viele Mitarbeiter den Cloud Storage auch im Büro nutzen. Allerdings beunruhigt dieser Trend IT-Abteilungen und sorgt für Probleme in der Unternehmenssicherheit.

Jeder fünfte Mitarbeiter nutzt Dropbox während der Arbeit

Laut einer Umfrage unter 1.300 Arbeitnehmer von Nasuni, nutzt jeder Fünfte Dropbox, um seine Daten zu synchronisieren oder zu teilen. Die Hälfte der Befragten brechen dabei sogar bewusst die Regeln, private Storage-Lösungen nicht nutzen zu dürfen.

Dabei kommen die meisten Täter aus dem direkten Umfeld der Unternehmensspitze. Vice Presidents und Directors nutzen, trotz Sicherheitsrisiken und festgelegten Regelungen, den Cloud Storage Service. Speziell CXOs und andere Führungskräfte bringen dabei gerne ihre privaten iPads und iPhones mit ins Büro und erwarten Unterstützung seitens der IT-Abteilung.

Nichts Neues aber bedenklich

Das Ergebnis dieser Umfrage bringt keine neuen Erkenntnisse. Dropbox ist der zurzeit bekannteste Storage Service und steht wie kein anderer Service für das Problemthema: „Schatten-IT aus der Cloud„.

Dropbox zählt, nach eigenen Angaben, bereits 100 Millionen Nutzer weltweit. Der Bekanntheitsgrad lässt sich insbesondere durch den Smartphone- und Tablet-Boom der letzten Jahre sowie den relativ simplen Möglichkeiten zum Austausch und Synchronisieren von Dateien erklären. Dabei ist Dropbox aber nur ein Teil der Bring your own device (BYOD) Bewegung, die den IT-Abteilungen verstärkt Kopfschmerzen bereitet.

Kategorien
Analysen

Cloud Computing und Big Data – Der ideale Use Case

Ich hatte schon einmal im März die Frage gestellt, ob Infrastructure-as-a-Service (IaaS) die ideale Lösung für die Herausforderungen von Big Data ist. Bereits damals bin ich zu dem Ergebnis gekommen, dass die Verarbeitung und Analyse großer Datenmengen – kurz: Big Data – ein idealer Use Case für das Cloud Computing ist. Unternehmen können die hohen Anforderungen, die Big Data erwartet, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Was ist Big Data

Als Big Data werden besonders große Datenmengen bezeichnet, die mit Hilfe von Standard-Datenbanken und Daten-Management-Tools nicht oder nur unzureichend verarbeitet werden können. Problematisch sind hierbei vor allem die Erfassung, die Speicherung, die Suche, Verteilung, Analyse und Visualisierung von großen Datenmengen. Das Volumen dieser Datenmengen geht in die Terabytes, Petabytes, Exabytes und Zettabytes.

Quelle: Wikipedia.de

Beispiele für Big Data

Für Unternehmen bietet die Analyse von Big Data die Möglichkeit zur Erlangung von Wettbewerbsvorteilen, Generierung von Einsparungspotentialen und zur Schaffung von neuen Geschäftsfeldern. Beispiele hierfür sind:

  • zeitnahe Auswertung von Webstatistiken und Anpassung von Online-Werbemaßnahmen
  • bessere, schnellere Marktforschung
  • Entdeckung von Unregelmäßigkeiten bei Finanztransaktionen (Fraud-Detection)
  • Einführung und Optimierung einer intelligenten Energieverbrauchssteuerung (Smart Metering)
  • Erkennen von Interdependenzen in der medizinischen Behandlung
  • Realtime-Cross- und Upselling im E-Commerce und stationären Vertrieb
  • Aufbau flexibler Billingsysteme in der Telekommunikation

Quelle: Wikipedia.de

Herausforderungen von Big Data

Klassische relationale Datenbanksysteme sowie Statistik- und Visualisierungsprogramme sind oft nicht in der Lage, derart große Datenmengen zu verarbeiten. Für Big Data kommt daher eine neue Art von Software zum Einsatz, die parallel auf bis zu Hunderten oder Tausenden von Prozessoren bzw. Servern arbeitet. Hierbei gibt es folgende Herausforderungen:

  • Verarbeitung vieler Datensätze
  • Verarbeitung vieler Spalten innerhalb eines Datensatzes
  • schneller Import großer Datenmengen
  • sofortige Abfrage importierter Daten (Realtime-Processing)
  • kurze Antwortzeiten auch bei komplexen Abfragen
  • Möglichkeit zur Verarbeitung vieler gleichzeitiger Abfragen (Concurrent Queries)

Die Entwicklung von Software für die Verarbeitung von Big Data befindet sich noch in einer frühen Phase. Prominent ist der MapReduce-Ansatz, der in der Open-Source-Software (Apache Hadoop und MongoDb), sowie in einigen kommerziellen Produkten (Aster Data, Greenplum u. a.) zum Einsatz kommt.

Quelle: Wikipedia.de

Cloud Computing und Big Data: Der perfekte Use Case

Unsere Datenmengen steigen exponentiell. Die parallele Nutzung von Dienstleistungen wie HDTV, Radio, Video on Demand (VOD) und Security as a Service haben immer höhere Anforderungen an Netzwerk-Infrastrukturen. Die Nutzungen von Anwendungen wie Videokonferenzen und neue Kommunikationswege wie Social Media verändern sich ständig, was ebenfalls Einfluss auf die tägliche Nutzung und den Zugriff auf Daten durch Unternehmen hat. Um mit diesen wachsenden Datenmengen umzugehen, wird verstärkt auf externe Rechenzentrumsfunktionen- und kapazitäten zurückgegriffen. Welche Daten dabei wie ausgelagert werden sollten stellen die größten Herausforderungen dar.

Ein allgemeines Problem

Traditionell gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Nutzern von Big Data. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, Wettervorhersage, Regierungen und die Medizinbranche. Alle genannten Bereiche haben seit Jahren mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen. Doch nun wirkt sich die Problematik auch auf weitere “normale” Branchen aus.

Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält.

Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten bzw. Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind.

Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Wettbewerbsfähigkeit steigern

McKinsey’s Report “Big data: The next frontier for innovation, competition, and productivity”, aus dem Jahr 2011 untersucht, wie Daten zu einer wichtigen Grundlage des Wettbewerbs werden sowie ein neues Produktivitätswachstum und Innovationen schaffen.

Wenn Unternehmen heutzutage wettbewerbsfähig bleiben wollen, müssen sie sicherzustellen, dass sie über die entsprechende IT-Infrastruktur verfügen, um mit den heutigen Daten-Anforderungen umzugehen. IaaS bietet damit ein solides Konzept und Fundament, um damit erfolgreich zu bleiben.

Big Data Verarbeitung in der Cloud

Kosteneinsparungen für die interne IT-Infrastruktur, wie Server und Netzwerkkapazitäten, Freisetzen von dadurch nicht mehr benötigtem technischem Personal, um sich somit effizienter auf das Kerngeschäft zu konzentrieren und die Flexibilität neue Lösungen, auf Grund der sich ständig veränderten Datenmengen, besser zu skalieren sind die ersten Schritte um den Anforderungen von Big Data gerecht zu werden.

Cloud Computing Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.

Cloud Ressourcen wachsen mit Big Data

Cloud Computing Infrastrukturen sind darauf ausgelegt, dass sie mit den jeweiligen Anforderungen und Bedürfnissen mitwachsen oder sich reduzieren lassen. Unternehmen können die hohen Anforderungen – wie Hohe Rechenleistung, viel Speicherplatz, hohes I/O, performante Datenbanken usw. – die von Big Data erwartet werden, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Kategorien
Analysis

Checklist: Check a Cloud Computing provider for authenticity

Increasingly the question is asked, how an authentic Cloud Computing offer can be recognized. It is often said: “We let our data processing be dealt with by a service provider in their data center. We are then already using Cloud, right?” Caution! Cloud Computing has recently been abused by the marketing departments of various providers, resulting in a dilution of the concept taking place. What was once for example, a “managed server”, is now simply a “Cloud server”. Eventually however, only the sticker was replaced. This “principle” is also known as Cloud-Washing.

Check a Cloud Computing provider for authenticity

Cloud Computing and its characteristics

Cloud Computing primarily refers to a service model, with which (theoretically unlimited) IT resources such as computational power, disk space, applications and other types of services-on-demand can be accessed. The resources will be charged based only on the pay-as-you-go concept , which is in fact used at present.

In addition to the known characteristics of Cloud Computing, there are other typical occurrences that distinguish a Cloud. Besides general characteristics, these also include technical ones as well as the viewing angle from the perspective of a company.

General Characteristics

Elasticity
Cloud allows you to scale resources up and down as required. The time required is in the range of seconds and minutes, not weeks or months.

Economies of Scale
The Cloud Computing provider is able to exploit economies of scale and can obtain the required infrastructure for Cloud Computing such as power, cooling, bandwidth and hardware at the best possible price.

Pay as you Go
This is more about a general feature rather than a commercial one. Through the use of Cloud, technicians reach decisions regarding the allocation of resources, which have a direct impact on the consumption of resources and the extent of total costs. Therefore in future, everyone has a duty to lead the company more efficiently.

Technical Characteristics

Rapid scalability
Additional resources can be bought on-Demand in a matter of minutes in order to meet the requirements of unexpected situations when needed. These include e.g. complex calculations or an unexpectedly high number of visitors on the website. If the resources are no longer needed, they can be returned to Cloud.

Resources are abstract and uncomplicated
The hardware needed for the operation of a Cloud changes and is constantly being improved. However, it is the Cloud Computing provider’s job to take care of this. A Cloud Computing user no longer has to deal with the details behind a Cloud.

A Cloud consists of individual modules
The IT resources of a Cloud Computing provider consist of small modules. This means they are available separately and are calculated separately. A user has the option of not using any resources, using all of them, or just using a few, which are provided to him as a service via the Cloud.

Experimentation is cost-effective
Cloud Computing removes the economic hurdle for experimenting. This allows new ideas to be tested without long-term investment in the required hardware, in which case one might resort to temporary resources.

Characteristics from the perspective of a company

No upfront investment
Cloud Computing was created to share resources when necessary. For this reason, no one-time or large investments are necessary before the actual need arises.

Variable costs that come from fixed costs
Instead of relying on a fixed number of resources over a long contract period (usually one to three years), Cloud Computing enables the use of resources to be changed in real-time.

Investments become overheads
Investments are usually spread over a long period, leading to a multi-year commitment to using a certain amount of resources. Overheads however, reflect the actual usage of Cloud services and can be modified in real-time.

Resource allocation is more granular
Cloud Computing enables minimal usage in terms of time and resources, for example, server usage per hour and the individual bytes of used memory.

The company gains flexibility
Due to the fact that a company no longer binds itself to resources for the long term, it is able to respond to changes more quickly, with reference to the required amounts and the type of business activity.

The provider remains under observation
The core business of Cloud Computing providers is to provide its Cloud for public use. Therefore, it has a strong incentive to provide its services so that they are reliable, applicable and cost-effective. Cloud therefore reflects the core competencies of a provider once again.

Costs are associative
Due to Cloud Computing’s flexible resource allocation model, it is just as easy to apply and operate 100 servers for an hour as it is to do so with a server for 100 hours. It encourages innovative thinking in terms of solutions to problems that are only made possible by massive scaling.

The Checklist

Let it be understood that as a rule, you cannot and should not look into the interior. In the case of a Cloud, it is a black box which is either controlled via an API (interface) or a web interface. It thus depends on the external values that you can see and observe directly.

Checklist: Check a Cloud Computing provider for authenticity


The checklist can also be viewed and downloaded as a PDF at Checklist: Check a Cloud Computing provider for authenticity.


Bildquelle: ©Claaslietz / PIXELIO

Kategorien
Kommentar

Cloud Computing: Offen oder Geschlossen? Vendor Lock-in ist kein Argument!

Cloud Computing spaltet sich derzeit in zwei Lager. Die Liebhaber eines geschlossenen, proprietären Systems und die Befürworter einer offenen (Open-Source) Cloud. Interessanterweise stellen verstärkt die Open-Source Jünger, allen voran das OpenStack Projekt die größten Lautsprecher dar (Rackspace: Linux der Cloud). Sei es auch nur, um mehr Aufmerksamkeit von den derzeit erfolgreichen geschlossenen Systemen (Amazon Web Services (AWS), Microsoft Windows Azure) auf sich zu lenken. Eines vorweg, pauschal lässt sich nicht sagen, welcher Ansatz der „Bessere“ ist. Es hängt immer von den eigenen Anforderungen und Möglichkeiten ab. Zudem sollte man schauen, wie geschlossen die proprietären Systeme wirklich sind. Man wird zum einen merken, dass viel mehr religiöse Ansichten dahinter stecken als man denkt und das die Argumentation Vendor Lock-in bei Open-Source Clouds nicht zwangsläufig zutrifft. Denn einen Vendor Lock-in hat man immer.

Geschlossene Cloud gleich Lock-in?

Hauptargumentation aus dem Open-Source Lager gegen proprietare Cloud Angebote ist das Risiko eines Lock-in. Um diesen zu umgehen, solle man stattdessen auf Angebote setzen, die auf Open-Source basieren, um sich über eine eigene Private Cloud die Freiheit zu verschaffen, also die Infrastruktur und Daten dann ggf. in die eigene Cloud zu transferieren.

Eines sollte man jedoch nicht vergessen, ohne Open-Source funktioniert derzeit so gut wie kein Cloud Angebot. So besteht die AWS Cloud aus wahrscheinlich der größten XEN (Hypervisor) Installation weltweit. Zudem wird argumentiert, dass mann sich bei AWS in einen Lock-in begibt. Bei der DynamoDB mag dies richtig sein. Aber für alle anderen Services gibt es Lösungen wie Eucalyptus, openQRM oder sogar OpenStack selbst, die entsprechende Schnittstellen bereitstellen. Und auch Microsoft ermöglicht es, zwischen Windows Azure und einer auf Microsoft basierenden Private Cloud mit dem Microsoft Server 2012 und dem System Center 2012 Daten usw. hin und her zu schieben. Man ist hier also auch nicht zwangsläufig auf die Public Cloud angewiesen.

Wo versteckt sich der Lock-in?

Ein Vendor Lockin besteht dann, wenn ein System, Angebot oder Lösung sehr stark abhängig macht.

Ein analoges Beispiel dafür ist Ikea. Das Design der Möbel ist so markant, dass es für einen Innenarchitekten Laien (wie mich) schwierig ist, es mit einem anderen Design zu kombinieren. Also geht man dazu über, weitere Möbel bei Ikea zukaufen. Zudem verfügt Ikea über eigene Maße und proprietäre Techniken z.B. bei den Waschbecken oder auch bei den Küchen, Schrauben und sonstigen Verbindungen.

Das Risiko des Lock-ins in der Cloud befindet sich hauptsächlich bei den Daten und Prozessen, wenn diese dort ebenfalls abgebildet werden. Denn in beiden Fällen befinden sich hier die geschäftskritischen Bereiche, die so beweglich wie möglich in der Cloud liegen sollten.

Die Ressourcen wie virtuelle Maschinen sind nicht, wie möglicherweise vermutet, von dem Lock-in betroffen. Hierzu existieren bereits diverse Import/ Export Tools z.B. von VMware für AWS oder speziell V2V (Virtual to Virtual) oder V2P (Virtual to Physical) Mechanismen von openQRM. Das bedeutet, das sich virtuelle Maschinen und deren Inhalte bequem hin und her schieben lassen.

Die Daten selbst sind in der Cloud in der Regel ebenfalls nicht von einem Lock-in betroffen. Die meisten Anbieter verfügen über entsprechende Schnittstellen, über die sich die Daten bewegen und transferieren lassen. Bei den Prozessen wird es schon schwieriger. Aber, wie viele Unternehmen haben in der Vergangenheit ihre Prozesse in die Hände von SAP Systemen gelegt und damit einen Lock-in verursacht?

Ein Lock-in ist nichts Schlechtes

Ein Lock-in, wenn er denn vorliegt, muss nicht immer etwas Schlechtes sein. Im Gegenteil, er führt zu Innovationen und verringert die Komplexität. Der Anbieter nimmt einem beim Design und der Auswahl Stückweit die Entscheidung ab und sorgt für eine stetige Weiterentwicklung und Verbesserung des Systems.

Zudem sollte man schauen, wer sich einen Lock-in nicht leisten kann. Kleine und mittelständische unternehmen, die ggf. über eine kleine oder keine IT-Abteilung verfügen, nehmen das gerne in Kauf, da sie sich die Implementation einer komplexen Umgebung nicht leisten können bzw. nicht über die Expertise verfügen. Analoges Beispiel, Ikea: Man bekommt relativ günstig gute Möbel und kann alles miteinander gut kombinieren.

Außerdem, schaut man sich Open-Source Projekte wie OpenStack an, wird deutlich, dass es nicht immer einfach ist, alle Interessen unter einen Hut zu bekommen. Open-Source mag zwar offen sein. Auf Grund der vielen beteiligten Unternehmen können so manche Konflikte den Innovationsgrad jedoch verringern. Aus diesem Grund kann ein Vorteil darin bestehen, wenn nur ein Unternehmen an der Spitze des Projekts/ Angebots steht und die Koordination übernimmt. Auch wenn mehrere Teilnehmer mehr Input und Expertise liefern. Hier haben auch geschlossene Anbieter einen Vorteil, da sie alleine verantwortlich sind, und damit schneller handeln. Das kann im Umkehrschluss bedeuten, dass der Lock-in von OpenStack in den potentiellen Konflikten und dem daraus folgenden langsamen Innovationsgrad besteht.

APIs sind entscheidend

Wichtig für jedes Cloud Computing Angebot sind die APIs. Auf diese muss sowohl von Innen als auch von Außen zugegriffen werden können, um auf dieser Basis die Daten in aus der Cloud zu transferieren.

Vorteile vs. Nachteile von Open-Source

Open-Source Cloud-Implementierungen gibt es erst seit ein paar Jahren und haben bis jetzt noch nicht ausreichend Anwendungsfälle im produktiven Betrieb. Obwohl eine Reihe von Early-Adoptern aus dem Telkosektor, Finanzdienstleister und wissenschaftliche Einrichtungen bereits Alternativen in Open-Source Cloud Systeme suchen, ist die Vielzahl an Unternehmen darüber nicht informiert. Es lohnt sich daher mal einen Blick auf die Vor- und Nachteile zu werfen.

Vorteil: Flexibilität

Per Definition bieten Open-Source Clouds ein höheres Maß an Flexibilität als der proprietäre Mitbewerb. Statt sich einfach nur mit dem Lesen von Anleitungen zufrieden zugeben oder an Schulungen teilzunehmen, können Nutzer selbst Änderungen an dem Code vornehmen und sich selbst mit eigenem Code an verschiedenen Projekten beteiligen. Zudem können sie eigene Projekte starten, eigene Dokus zur Verfügung stellen oder Seminare abhalten. Interaktionen mit der Gemeinschaft und der damit verbundenen Weiterbildung ermöglichen dem Anwender mehr Flexibilität bei der Gestaltung ihres Cloud-Designs und fördert innovative interne oder externe Lösungen.

Vorteil: Vendor Lock-In

Ein Argumente der Open-Source Cloud Community ist die Prävention vor einem Vendor Lock-in. Die Argumente sind einfach. Wird eine Cloud auf Basis einer offenen und weit verbreiteten Open-Source Technologien aufgebaut, hat kein Anbieter die Möglichkeit die volle Kontrolle über das Open-Source Framework zu erhalten. Damit können Anwender schneller auf die Entwicklung der Technologien im Rahmen des Open-Cloud Stacks reagieren. Darüber hinaus geben Open-Source Clouds dem Nutzer die Freiheit, seine Cloud an seine individuellen Bedürfnisse und Unternehmensziele anzupassen, statt diese anhand einer einzigen proprietäre Lösung aufzubauen.

Vorteil: Einsparung

Open-Source Software ermöglicht auf Grund seiner Lizenzierung die kostenlose Nutzung und hat damit preislich einen enormen Vorteil gegenüber dem kommerziellen Mitbewerb. Egal ob sich ein Nutzer nun für ein reines Open-Source Angebot oder für eine kommerzielle Open-Source Lösung entscheidet, wird er im Vergleich zu einer proprietären Software Kosten sparen können. In jedem Fall besteht für jedes Unternehmen die Möglichkeit, durch Open-Source Software, bei gleichzeitiger Erhöhung der Flexibilität, die Kosten zu senken, was einen Gewinn für jede Organisation darstellt.

Vorteil: Kontrolle, Offene Standards, APIs

Eine Open-Source Cloud setzt auf offene Standards und APIs und wird nicht von einem einzigen Hersteller kontrolliert. Das erlaubt es Unternehmen, die Kontrolle über die darunter liegende Hardware Infrastruktur und Managementplattform zu behalten, unabhängig davon, um welche Technologie es sich handelt. Des Weiteren ermöglichen offene APIs eine bessere Integration in bestehende offene oder proprietäre Lösungen, womit sichergestellt wird, dass aktuelle IT-Investitionen innerhalb der neuen Architektur weiterhin relevant sind.

Vorteil: Portabilität

Baut man seine Cloud auf Basis von Open-Source auf, sollte man immer schauen, wie es mit der Interoperabilität zu anderen Public, Private oder Hybrid Cloud Lösungen ausschaut. Entscheidet man sich für eine offene Technologie erhält man damit ein höheres Maß an Portabilität innerhalb des großen Cloud Ökosystems. Anstatt ihre eigenen Möglichkeiten auf proprietäre Technologien zu beschränken, können sich Nutzer an unterschiedlichen Open-Source Cloud Technologien bedienen und damit ihre IT-Entscheidungen unterstreichen und die eigenen Bedürfnisse und Unternehmensziele damit unterstützen.

Nachteil: Mangel an Unterstützung

Anwender die sich dafür entscheiden, ihre Cloud auf reiner Open-Source Software aufzubauen, begeben sich bzgl. Support in die Abhängigkeit des Open-Source Projekts. Das kann ganz schön zäh und schmerzhaft werden. Denn der Support kommt hier anhand von Foren, Chats, Q&A Systemen und Bug-Tracking Systemen von der Crowd. Zudem sollte man sich als Nutzer aktiv in der Community beteiligen und etwas dazu beitragen, was in der Welt der kommerziellen Software nicht notwendig ist. Auf der anderen Seite kann man sich für kommerzielle Open-Source Cloud Lösungen entscheiden, die für professionellen Support sorgen.

Nachteil: Kosten

Zwar haben Open-Source Lösungen auf Grund der in der Regel kostenlosen Lizenzen, im Vergleich zu kommerzieller Software, einen Kostenvorteil, allerdings gibt es auch hier Kosten die nicht zu vernachlässigen sind. Zum einen wird für den Aufbau einer Open-Source Cloud ein nicht zu unterschätzendes Wissen für die Entwicklung benötigt. Zum anderen müssen auch die Administratoren für einen einwandfreien Betrieb der Infrastruktur sorgen, wofür intensive Kenntnisse für die Verwaltung und Wartung der Lösung erforderlich sind. Darüber hinaus wird externes Fachwissen in Form von Beratung oder Entwicklung-Ressourcen benötigt.

Nachteil: Reifegrad

Je schneller sich das Open-Source Cloud Ökosystem entwickelt, kann sich ein Anwender nicht zwangsläufig darauf verlassen, das und wie lange ein Open-Source Projekt bestand hat. Wenn sich ein Cloud Architekt während des Designs einer Open-Source heute für eine bestimmte Technologie entscheidet, kann es durchaus passieren, das ihn diese in Zukunft einholen wird, da das Projekt eingestellt und nicht mehr weiterentwickelt wird. Mit den stetig steigenden Open-Source Projekten und unterschiedlichen Ansichten ist es für den Anwender zunehmend schwieriger geworden sich für den „richtigen“ Weg zu entscheiden.

Fazit

Verantwortliche die sich für eine Cloud Infrastruktur entscheiden, wollen diese hochverfügbar, einfach zu bedienen und so agil, dass sie sich mit den Bedürfnissen der Unternehmensziele verändert. Es ist daher entscheidend, dass sich ein Entscheider zunächst über die Unternehmensziele im klaren ist und sich mit seiner bestehenden IT-Infrastruktur auseinandersetzt, bevor er über eine Open-Source oder proprietären Cloud Infrastruktur nachdenkt. Möglicherweise kann man auch zu dem Ergebnis kommen, dass eine Open-Source Cloud für das Unternehmen keinen nennenswerten Vorteil bietet und eine proprietäre Cloud besser für den eigenen Innovationsgrad ist oder auch andere Möglichkeiten evaluiert werden müssen.