Kategorien
Kommentar

"Variable Cloud-Verträge" Bitte was?

Ich bin auf der deutschen CIO.de auf ein Interview mit dem Titel „Wir brauchen variable Cloud-Verträge“ gestoßen? Bitte was? Variable Cloud-Verträge? Das sind drei Wörter die so zusammen überhaupt keinen Sinn ergeben und zeigen, dass das Cloud Computing Konzept irgendwie noch nicht angekommen ist oder und das wäre sehr prekär, die Anbieter falsch beraten.

Zerlegt: „Variable Cloud-Verträge“

Nehmen wir dieses Wortgeflecht mal auseinander und bilden es auf die grundsätzlichen Prinzipien des Cloud Computing ab, kommen wir zu dem folgenden Ergebnis:

Variable

Cloud Computing ist per se variable. Sogar variabler als jede Form des Outsourcing, dass wir in der Geschichte der IT gesehen haben. Und das bezogen auf die zeitliche Nutzung als auch bzgl. der Abrechnung. Siehe nächsten Punkt.

Cloud

Kurz und knapp zusammengefasst bedeutet Cloud (Computing) der flexible (variable) Bezug von (IT)-Ressourcen über eine Datenverbindung, bevorzugt das Internet.

Flexible bzw. variable bedeutet, dass man die Ressourcen zu dem Zeitpunkt bezieht, nutzt und wieder „zurückgibt“, wann man es als Kunde möchte (on Demand) und das man nur für die Ressourcen bezahlt, die man innerhalb dieses Zeitraums auch tatsächlich verwendet hat (pay as you go).

Also höchst variable!

Verträge

Im klassischen Gedanken gibt es beim Cloud Computing keine „richtigen“ Verträge, wie wir es normalerweise kennen. In der Public Cloud reicht eine Kreditkarte. Natürlich geht man in einer Form einen Vertrag ein, aber dieser ist bzw. sollte von der Anbieterseite so gestaltet sein, dass man als Kunde das Maximum an Flexibilität erhält. Also die Abrechnung z.B. pro Stunde erfolgt und kein monatlicher oder gar jährlicher Vertrag geschlossen wird. Wird die Infrastruktur des Anbieters ab einem gewissen Zeitpunkt nicht mehr genutzt ist Ende mit der Abrechnung.

Die konkrekte Aussage

Die Aussage in dem Interview liest sich wie folgt:

„Cloud Computing ist ein Trend, den man einfach nutzen muss. Wesentlich für uns ist die vertragliche Umsetzung. Was die Cloud bringt, ist ja die schnelle Nutzbarkeit von IT-Leistungen und die Verfügbarkeit losgelöst vom Unternehmen. Interessant wird es für uns aber erst dann, wenn alle relevanten Sicherheitsanforderungen erfüllt sind, wenn man von einem Anbieter zum andern wechseln kann und sich die Verträge variabel gestalten lassen. Das heißt konkret, die bezogenen Ressourcen müssen sich innerhalb von 24 Stunden sowohl nach oben als auch nach unten anpassen lassen.“

Insbesondere der letzte (fett markierte) Teil ist besorgniserregend!

„… wenn man von einem Anbieter zum andern wechseln kann und sich die Verträge variabel gestalten lassen.“ Das heißt konkret, die bezogenen Ressourcen müssen sich innerhalb von 24 Stunden sowohl nach oben als auch nach unten anpassen lassen.“

Diese Aussage zeigt mir auf der einen Seite, dass der Marktüberblick fehlt. Denn es gibt ausreichend (echte) Cloud Computing Anbieter, bei denen genau diese Forderung möglich ist. Genannt seien z.B. die Amazon Web Services, Microsoft Windows Azure oder auch CloudSigma. Auf der anderen Seite bedeutet dies aber auch, dass so manche Anbieter weiterhin ein falsches Spiel spielen und Cloud Computing nach ihren eigenen Regeln definieren und die Kunden damit verwirren.

Kategorien
Analysis

Traditional webhoster and their fight with real infrastructure-as-a-services

Some days ago I had a briefing with an european webhoster who presented his product line-up and the strategic alignment. I reluctantly would like to use the term cloud-washing. But this call showed me again that traditional webhoster have massive problems to define and build a real infrastructure-as-a-service offering.

Difficulties with modernity

It is what I often see in the portfolio of a „cloud“ services provider. These are mostly classical webhoster, who did not want to miss the cloud hype and jump on the bandwagon by cloud-enabling their offering on the paper. There are exceptions, but these are very rare. At this point, the providers purely and simply jumped on the hype and understand the Internet as the cloud.

The portfolio of the provider I talked to had the same shape. It includes dedicated server und cloud server, which a few months/ years ago had been named virtual server. These „cloud servers“ are offered as five fixed different variety of configurations incl. 1 to 4 cores, storage and ram for a monthly fee of x EUR/ USD. Not to forget: the deployment period is indicated from 1 to 5 workdays. Further questions revealed that there is no on demand offering and for example no API to manage or start and stop additional server. Additional services or software images around the offering also lack just as a pay as you go model.

Internal structure and strategy: check

Upon request the provider acknowledged that, except for the word itself, the server offerings have nothing to do with cloud computing. But he seems to be on the right way. About a year ago he converted the internal infrastructure to CloudStack to benefit from a better provisioning for the customer servers. But, customers can’t take advantage of it so far. Moreover they switched with KVM to a modern, open and widespread hypervisor. Also the issue of network virtualization was implemented a few weeks ago. On his own admission, the provider already do have a cloud strategy which will give the customers the opportunity to get resources on demand plus a pay as you go model. Since he his now self-aware that it is absolutely necessary.

Nevertheless, considering these experiences each user who seriously wants to go to the cloud should be informed in advance intensively.

Kategorien
Services @en

HP Discover: Stackato based private PaaS extends HPs cloud portfolio

During the HP Discover there was not much coverage about it, but as Ben Kepes found out, HP extends its cloud portfolio with a private platform-as-a-service (PaaS). The platform based on Stackato, which is a fork of Cloud Foundry.

HP Platform-as-a-Service

HP itself describes the new enterprise focused platform as an application platform for the developing, deployment and management of cloud based applications, regardless of the language and stack.

Partnership with ActiveState

To offer the new PaaS, HP partners with ActiveState the driving force behind Stackato. Therefore HP takes an OEM license of Stackato to integrate the PaaS into the own cloud infrastructure.

For ActiveState it looks like a small knightly accolade. Usually, one should assume that a big company like HP has the expertise to develop a PaaS on its own. But it shows, that Stackato apparently fits into HPs infrastructure.

What ist Stackato?

Stackato allows developers to use a wide range of different programming languages including Java, Ruby, Python, Perl, Node.js and PHP. It’s a typical polyglot PaaS.

The Platform-as-a-Service market

PaaS is the fastest growing segment in the cloud computing market. According to Gartner, we will see a steady growth in the next five years from 1.2 billion USD in 2012 to 2.9 billion USD in 2016. By comparison, 900 million USD in 2011. Gartner also expects, that each big software vendor will have its own PaaS in the market until the end of 2013.

Kategorien
Services

HP Discover: HP hat nun einen eigenen Private Platform-as-a-Service im Portfolio

Auf der HP Discover ist es zwar leider ein wenig untergegangen, aber wie Ben Kepes über PR-Kanäle erfahren konnte, hat HP ebenfalls nun einen eigenen Private Platform-as-a-Service (PaaS) im Portfolio. Dieser basiert auf Stackato, welches wiederum ein sogenannter Fork von Cloud Foundry ist.

HP Platform-as-a-Service

HP selbst bezeichnet seine neue, auf Unternehmen fokussierte Plattform, als eine Applikations-Plattform zur Entwicklung, Bereitstellung und dem Management von Cloud Applikationen unabhängig von der Programmiersprache und dem dafür benötigten Stack.

Partnerschaft mit ActiveState

Um den eigenen PaaS anzubieten, geht HP eine Partnerschaft mit ActiveState, der treibenden Kraft hinter Stackato ein. Dazu greift HP auf eine OEM Lizenz von Stackato zurück, um den PaaS in die eigene Cloud Infrastruktur zu integrieren.

Für ActiveState bedeutet dies eine Art kleiner Ritterschlag. Normalerweise sollte man davon ausgehen, dass ein so großes Unternehmen wie HP selbst die Expertise besitzt, einen PaaS zu entwickeln. Es zeigt jedoch, wie gut Stackato scheinbar in die Infrastruktur von HP passt.

Was ist Stackato?

Stackato selbst erlaubt es Entwicklern eine Vielzahl von unterschiedlichen Programmiersprachen zu nutzen, darunter Java, Ruby, Python, Perl, Node.js und PHP, halt ein typischer Polyglot PaaS.

Der Platform-as-a-Service Markt

Der PaaS Markt gehört zu den am schnellsten wachsenden Bereichen im Cloud Computing Markt. Glaubt man Gartner, wird dieses Marktsegment in den nächsten fünf Jahren von 1,2 Milliarden US-Dollar in 2012 auf 2,9 Milliarden US-Dollar in 2016 wachsen. Im Vergleich dazu lag der Wert in 2011 noch bei 900 Millionen US-Dollar. Gartner geht zudem davon aus, dass gegen Ende 2013 alle großen Softwareanbieter einen eigenen PaaS im Markt platziert haben werden.

Kategorien
News

HP Discover: HP erweitert das HP CloudSystem um KVM

HP hat sein Converged-Cloud-Portfolio erweitert. Das HP CloudSystem wurde überarbeitet und unterstützt jetzt Kernel-based Virtual Machines (KVMs). Die neue Version 3.1 von HP Cloud Service Automation (CSA) bietet zudem neue Funktionen für die Verwaltung, die Nutzung und das Brokerage von Cloud-Diensten. Diese richten sich an Service Designer, Cloud-Konsumenten sowie -Administratoren. Die neue Version 1.1 von HP Continuous Delivery Automation (CDA) stellt Anwendungen in Cloud-Umgebungen automatisch bereit. Das aktualisierte Converged-Cloud-Portfolio soll Unternehmen dabei helfen, Cloud-Services und -Anwendungen schnell und fehlerfrei zu implementieren.

Die neuen Funktionen des HP CloudSystem

  • Eine offene, erweiterbare Plattform für heterogene IT-Umgebungen. Diese unterstützt neben Virtualisierungstechnologien von HP, Microsoft und VMware jetzt auch Kernel-based Virtual Machines (KVMs), also die Linux-Kernel-Virtualisierung. Um KVMs zu verwalten und bereitzustellen hat HP OpenStack-Technologien direkt in HP CloudSystem integriert. Dadurch erhalten Anwender die Flexibilität einer offenen Lösung, ohne die komplexe Integration in ihre IT-Infrastruktur selbst durchführen zu müssen. Anwender können unterbrechungsfrei und schnell die KVM-Unterstützung/Support zu HP CloudSystemen hinzufügen. Aufgrund der erweiterten Flexibilität können Anwender Cloud-Anforderungen noch besser mit Kosten-, Sicherheits- und Verfügbarkeitsanforderungen abstimmen.
  • Größere Flexibilität in Bezug auf Bursting-Kapazitäten: Die neue Version von HP CloudSystem unterstützt jetzt auch das Bursting von HP CloudSystem zu HP CloudSystem. Damit können Anwender beispielsweise auch innerhalb eines Unternehmens auf weitere Bursting-Kapazitäten zugreifen. Für HPs Cloud-Angebot gibt es bereits Bursting-Verbindungen zu Amazon EC2, Savvis und dem Public-Cloud-Angebot HP Cloud Service.
  • Zugriff auf weitere Cloud-Templates: HP hat das bestehende Angebot an HP Cloud Maps um 50 neue Templates erweitert, unter anderem für HP DataProtector. Das Template für HP DataProtector verbessert die Zuverlässigkeit und Skalierbarkeit von Backups in HP-CloudSystem-Umgebungen. Kunden können jetzt insgesamt auf mehr als 200 Templates zurückgreifen und Anwendungen auf Knopfdruck bereitstellen.

Grundlage von HP CloudSystem sind die HP Converged Infrastructure und die Software HP Cloud Service Automation (CSA). HP CSA bietet Anwendern eine umfassende, einheitliche Cloud-Management-Plattform zur Verwaltung sowie das Brokerage von Anwendungen und Infrastrukturen für Cloud-Services.

HP CSA 3.1 mit integrierten Sicherheitsfunktionen von HP TippingPoint

Neu in Version 3.1 sind Funktionen speziell für drei Nutzergruppen: Service Designer, Cloud-Konsumenten sowie -Administratoren. Die Benutzeroberfläche für Cloud-Konsumenten (Cloud Consumer) bietet ein einheitliches Dashboard und eine grafische Oberfläche, die eine Sicht auf den gesamten Lebenszyklus der Cloud-Services – von Bestellung bis Konsum – ermöglicht. Außerdem können ab sofort Sicherheitslösungen von HP TippingPoint integriert werden. Das gewährleistet die Sicherheit und Hochverfügbarkeit der Cloud-Services. Für Cloud-Administratoren bietet Version 3.1 verbesserte Mehr-Mandanten-Fähigkeit. Administratoren können damit Mandanten schneller aufsetzen und genauer definieren. Service Designer wiederum können durch neue Funktionen im Portal Services genauer definieren, erstellen und flexibler verwalten. Zu den neuen Funktionen zählt beispielsweise die Möglichkeit, Angebote direkt über das Portal in den Service-Katalog aufzunehmen. CSA 3.1 ist in Kombination mit HP CloudSystem und als eigenständige Lösung erhältlich.

HP CDA 1.1 automatisiert den Bereitstellungsprozess von Cloud-Anwendungen

Durch den Wettbewerbsdruck müssen Unternehmen hochwertige Anwendungen in immer kürzeren Zeitabständen auf den Markt bringen. Mit den Automatisierungsfunktionen von HP CDA 1.1 werden der Bereitstellungsprozess von Anwendungen und die Übergaben zwischen verschiedenen Teams innerhalb des Anwendungs-Lebenszyklus vereinfacht. Diese führen typischerweise zu Fehlern und Verzögerungen. Beim Release-Management ermöglicht HP CDA 1.1 Entwicklerteams beispielsweise, den Veröffentlichungs-Prozess exakt zu definieren und Kriterien für jeden Prozess-Schritt sowie die Freigabe zu definieren. HP CDA stellt außerdem automatisch die notwendige Infrastruktur über Provisionierungs-Werkzeuge zur Verfügung und überwacht die Anwendungen über verschiedene Monitoring-Werkzeuge. Für Infrastruktur- und Plattform-Designer stellt CDA 1.1 eine Infrastruktur-Service-Schicht sowie eine grafische Benutzeroberfläche für Rechen-, Speicher- und Netzwerk-Charakteristiken von Infrastruktur-Services zur Verfügung. Diese Services stellen grafisch physische und virtuelle (HP Matrix respektive Public, Private und Hybrid Cloud) Rechenkapazitäten dar. Im Application Designer können App-Designer Standard-Funktionen festlegen und damit beispielsweise Anwendungen starten oder beenden sowie ausrollen. Für Policy Designer bietet CDA 1.1 eine Übersicht über die Abhängigkeit zwischen Cloud-Anwendungen und physischen Ressourcen.

HPs Public Cloud mit neuen Services

Des Weiteren hat HP neue Funktionen für die Public-Cloud-Lösung HP Cloud Service entwickelt. Diese ermöglichen es Unternehmen, Arbeitslasten in die Cloud zu verlagern. Zu den Neuigkeiten zählen:

  • Die allgemeine Verfügbarkeit von HP Cloud Compute. Mit diesem Public-Cloud-Service können Kunden Rechenkapazitäten nach Bedarf beziehen und nach Nutzung bezahlen. Der Service wird mit einem Service Level Agreement angeboten, das eine Verfügbarkeit von 99,95 Prozent garantiert. Das entspricht einer maximalen Ausfallzeit von 30 Minuten pro Monat. Der Preis pro Stunde beginnt bei 0,04 US-Dollar.
  • Die Public-Beta-Phase von HP Cloud Block Storage. Dieser Service ermöglicht Kunden, Daten einfach von einer Recheninstanz zu einer anderen zu verschieben. Er eignet sich besonders für Web-Anwendungen mit hohem Daten-Zugriff. Die Preise beginnen bei 0,10 US-Dollar pro Gigabyte und Monat. In der Public-Beta-Phase erhalten Nutzer von HP Cloud Block Storage einen Rabatt von 50 Prozent.

Außerdem hat HP weitere Services angekündigt:

  • Die Public-Beta-Phase von HP Cloud Application Platform as a Service (PaaS). Dieser Service ermöglicht Unternehmen und Software-Entwicklern, sich auf die App-Entwicklung und deren Implementierung zu fokussieren. Grundlage für diesen Service ist das Projekt Cloud Foundry Open PaaS. Es werden eine Vielzahl von Sprachen, der Aufbau von komplexen App-Infrastrukturen und ad-hoc-Provisionierung und -Bereitstellung unterstützt.
  • Der Service HP Cloud Workload Migration Services hilft Anwendern, Arbeitslasten zu erfassen, zu planen und in HPs Public Cloud zu migrieren. Der Service wird in Zusammenarbeit mit HP-Partnern erbracht und unterstützt Kunden durch geringe oder gar keine Änderungen am Anwendungs-Code. Dadurch können sie von den Vorteilen von Cloud Computing wie Skalierbarkeit, Kostenersparnissen und Flexibilität profitieren.

HP hat darüber hinaus eine Lösung speziell für Telekommunikationsdienstleister veröffentlicht. HP Cloud Solutions for Communication Service Providers (CSPs) ermöglicht CSPs, Cloud-Umgebungen für kleine und mittelgroße Unternehmen sowie große Firmen bereitzustellen. So können sich CSPs als Cloud-Service-Broker etablieren und vom Cloud-Geschäft profitieren. Außerdem können sie ihren Geschäfts- und Endkunden neue und bessere Services bieten.

Kategorien
Management

IT-Abteilungen entscheiden nicht mehr über die Nutzung von Cloud Computing Services

Es ist wie Dietmar Wiedemann und ich es im vergangenen Jahr (Erstveröffentlichung, 16.08.2011) bereits vorausgesagt und darauf hingewiesen haben. Die Schatten-IT hat die Oberhand gewonnen. Das bestätigt ein Bericht von Capgemini, basierend auf einer Umfrage unter 460 Unternehmen weltweit. Kurzum: Die Verantwortung für die Einführung von Cloud Computing Services übernehmen vor allem Mitarbeiter ohne IT-Hintergrund.

45 Prozent der Fachabteilungen entscheiden über Cloud Services

Bereits 45 Prozent der Fachabteilungen entscheiden selbst, welche Arten von Cloud Services sie nutzen wollen. Im Vergleich dazu werden nur 44 Prozent der IT-Abteilungen zur Rate gezogen. Die restlichen 11 Prozent werden als Sonstige angegeben.

Das bedeutet, dass fast die Hälfte aller Entscheidung (Budget, Auswahl und Implementierung) um das Thema Cloud Computing herum von der Business-Seite getroffen werden. Im Umkehrschluss zeigt es, dass die IT-Abteilung sich mehr und mehr mit CMOs, Vorständen, Führungskräften, HR-Mitarbeitern, Mitarbeitern aus dem Procurement, der Finanzabteilung und der Verwaltung auseinandersetzen müssen. IT-Entscheidungen werden somit immer weniger von der IT-Abteilung selbst getroffen.

Cloud Computing startet durch

83 Prozent der befragten Unternehmen verfügen bereits über eine Strategie für die Einführung von Cloud Services. Dabei liegen US-amerikanische Organisationen deutlich vorne. Unternehmen aus Europa hingegen hinken hinterher.

89 Prozent glauben, dass Cloud Computing ein Treiber für ein besseres Wirtschaftsklima ist. Dabei sind neue Wachstumsmärkte erschließen (53 Prozent) und neue Anwendungen ausrollen (23 Prozent) die beiden Top-Gründe für Unternehmen, um in die Cloud zu gehen.

Private Cloud und Software-as-a-Service sind beliebt

45 Prozent der befragten Unternehmen entscheiden sich aktuell für eine durch einen Partner gehostete Private Cloud (Hosted Private Cloud). Weitere 22 Prozent bevorzugen eine selbst betriebene Private Cloud (on-Premise).

Software-as-a-Service gehört zu den derzeit am meisten genutzten Cloud Services (42%). Gefolgt von Infrastructure-as-a-Service (40 Prozent) und Platform-as-a-Service (36 Prozent). Dabei greifen Unternehmen bevorzugt auf CRM-Lösungen, HR-Applikationen, Finanzen- und Verwaltungsservices sowie Lösungen für die gemeinsame Abwicklung von Procurement-Prozessen zurück.

Top 1 Problem: Integration

Der Hauptgrund für Unternehmen, derzeit noch keine Cloud Services einzuführen, sind fehlende Integrationsmöglichkeiten (45 Prozent) gefolgt vom Mangel an Agilität im Unternehmen (35 Prozent), Angst vor Sicherheitslücken (33 Prozent) und eine nicht vorhandene Cloud-Strategie (31 Prozent).

Cloud Computing ist ein durch das Business getriebenes Konzept

Wirklich überrascht hat mich das Ergebnis der Umfrage nicht. Zwar wird Cloud Computing oft als ein rein technologischer Ansatz betrachtet, der nur dafür entwickelt wurde, Unternehmen in Zukunft zu helfen, skalierbarer, flexibler etc. zu agieren. Das ist auf der einen Seite auch richtig, allerdings vertrete ich schon sehr lange die Meinung, dass Cloud Computing in erster Linie durch das Business und nicht durch die Technologien getrieben wird bzw. wurde. Aber warum ist das so?

Das kann hier nachgelesen werden: Cloud Computing ist ein durch das Business getriebenes Konzept

Kategorien
Management

Der Cloud Computing Markt in den USA wird bis 2016 auf 43,2 Mrd. US-Dollar wachsen

Laut einem Bericht der Analysten von IDC, wird der Cloud Computing Markt in den USA bis zum Jahr 2016 auf 43,2 Mrd. US-Dollar wachsen. Im Vergleich zu den Vorhersagen aus dem Jahr 2011 (18.5 Mrd. US-Dollar), ist das Wachstum verhältnismäßig groß.

Der Cloud Computing Markt wird immer umfangreicher

IDC hat in seinem Bericht den US-Markt in fünf Technologie und sechs vertikale Kategorien unterteilt. Zu den Technologie-Kategorien zählen Storage-as-a-Service, Server-as-a-Service, Platform-as-a-Service, Software-as-a-Service und Application-as-a-Service. Zu den vertikalen Kategorien zählt IDC private Nutzer/ Business Nutzer, den öffentlichen Sektor, Infrastruktur-Services, Dienstleistungsbetriebe, Vertriebsdienstleister, das produzierende Gewerbe sowie Finanzdienstleister. Zudem sieht IDC die Bereiche Bau, Bildung und Kommunikation als Teil der aufstrebenden vertikalen Märkte für Cloud Services.

Anmerkung: Mit „Server-as-a-Service“ meint IDC wahrscheinlich „Infrastructure-as-a-Service“. Warum hier eine „eigene neue“ Kategorie aufgemacht wird, keine Ahnung! Auch „Application-as-a-Service“ wird in der Regel nicht verwendet.

IDC ergänzt Gartner

Der IDC Bericht ist eine Ergänzung zu den Vorhersagen, die Gartner kürzlich für 2016 gemacht hat. Demnach wird, laut Gartner, der weltweite Cloud Computing Markt im Jahr 2016 einen Wert von 206,6 Mrd. US-Dollar erreichen.

Kategorien
Management

Jeder fünfte Mitarbeiter nutzt Dropbox im Büro

Ausgehend von Dropbox‘ kürzlicher Ankündigung, über 100 Millionen Nutzer zu haben, ist es keine Überraschung, dass viele Mitarbeiter den Cloud Storage auch im Büro nutzen. Allerdings beunruhigt dieser Trend IT-Abteilungen und sorgt für Probleme in der Unternehmenssicherheit.

Jeder fünfte Mitarbeiter nutzt Dropbox während der Arbeit

Laut einer Umfrage unter 1.300 Arbeitnehmer von Nasuni, nutzt jeder Fünfte Dropbox, um seine Daten zu synchronisieren oder zu teilen. Die Hälfte der Befragten brechen dabei sogar bewusst die Regeln, private Storage-Lösungen nicht nutzen zu dürfen.

Dabei kommen die meisten Täter aus dem direkten Umfeld der Unternehmensspitze. Vice Presidents und Directors nutzen, trotz Sicherheitsrisiken und festgelegten Regelungen, den Cloud Storage Service. Speziell CXOs und andere Führungskräfte bringen dabei gerne ihre privaten iPads und iPhones mit ins Büro und erwarten Unterstützung seitens der IT-Abteilung.

Nichts Neues aber bedenklich

Das Ergebnis dieser Umfrage bringt keine neuen Erkenntnisse. Dropbox ist der zurzeit bekannteste Storage Service und steht wie kein anderer Service für das Problemthema: „Schatten-IT aus der Cloud„.

Dropbox zählt, nach eigenen Angaben, bereits 100 Millionen Nutzer weltweit. Der Bekanntheitsgrad lässt sich insbesondere durch den Smartphone- und Tablet-Boom der letzten Jahre sowie den relativ simplen Möglichkeiten zum Austausch und Synchronisieren von Dateien erklären. Dabei ist Dropbox aber nur ein Teil der Bring your own device (BYOD) Bewegung, die den IT-Abteilungen verstärkt Kopfschmerzen bereitet.

Kategorien
Analysen

Cloud Computing und Big Data – Der ideale Use Case

Ich hatte schon einmal im März die Frage gestellt, ob Infrastructure-as-a-Service (IaaS) die ideale Lösung für die Herausforderungen von Big Data ist. Bereits damals bin ich zu dem Ergebnis gekommen, dass die Verarbeitung und Analyse großer Datenmengen – kurz: Big Data – ein idealer Use Case für das Cloud Computing ist. Unternehmen können die hohen Anforderungen, die Big Data erwartet, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Was ist Big Data

Als Big Data werden besonders große Datenmengen bezeichnet, die mit Hilfe von Standard-Datenbanken und Daten-Management-Tools nicht oder nur unzureichend verarbeitet werden können. Problematisch sind hierbei vor allem die Erfassung, die Speicherung, die Suche, Verteilung, Analyse und Visualisierung von großen Datenmengen. Das Volumen dieser Datenmengen geht in die Terabytes, Petabytes, Exabytes und Zettabytes.

Quelle: Wikipedia.de

Beispiele für Big Data

Für Unternehmen bietet die Analyse von Big Data die Möglichkeit zur Erlangung von Wettbewerbsvorteilen, Generierung von Einsparungspotentialen und zur Schaffung von neuen Geschäftsfeldern. Beispiele hierfür sind:

  • zeitnahe Auswertung von Webstatistiken und Anpassung von Online-Werbemaßnahmen
  • bessere, schnellere Marktforschung
  • Entdeckung von Unregelmäßigkeiten bei Finanztransaktionen (Fraud-Detection)
  • Einführung und Optimierung einer intelligenten Energieverbrauchssteuerung (Smart Metering)
  • Erkennen von Interdependenzen in der medizinischen Behandlung
  • Realtime-Cross- und Upselling im E-Commerce und stationären Vertrieb
  • Aufbau flexibler Billingsysteme in der Telekommunikation

Quelle: Wikipedia.de

Herausforderungen von Big Data

Klassische relationale Datenbanksysteme sowie Statistik- und Visualisierungsprogramme sind oft nicht in der Lage, derart große Datenmengen zu verarbeiten. Für Big Data kommt daher eine neue Art von Software zum Einsatz, die parallel auf bis zu Hunderten oder Tausenden von Prozessoren bzw. Servern arbeitet. Hierbei gibt es folgende Herausforderungen:

  • Verarbeitung vieler Datensätze
  • Verarbeitung vieler Spalten innerhalb eines Datensatzes
  • schneller Import großer Datenmengen
  • sofortige Abfrage importierter Daten (Realtime-Processing)
  • kurze Antwortzeiten auch bei komplexen Abfragen
  • Möglichkeit zur Verarbeitung vieler gleichzeitiger Abfragen (Concurrent Queries)

Die Entwicklung von Software für die Verarbeitung von Big Data befindet sich noch in einer frühen Phase. Prominent ist der MapReduce-Ansatz, der in der Open-Source-Software (Apache Hadoop und MongoDb), sowie in einigen kommerziellen Produkten (Aster Data, Greenplum u. a.) zum Einsatz kommt.

Quelle: Wikipedia.de

Cloud Computing und Big Data: Der perfekte Use Case

Unsere Datenmengen steigen exponentiell. Die parallele Nutzung von Dienstleistungen wie HDTV, Radio, Video on Demand (VOD) und Security as a Service haben immer höhere Anforderungen an Netzwerk-Infrastrukturen. Die Nutzungen von Anwendungen wie Videokonferenzen und neue Kommunikationswege wie Social Media verändern sich ständig, was ebenfalls Einfluss auf die tägliche Nutzung und den Zugriff auf Daten durch Unternehmen hat. Um mit diesen wachsenden Datenmengen umzugehen, wird verstärkt auf externe Rechenzentrumsfunktionen- und kapazitäten zurückgegriffen. Welche Daten dabei wie ausgelagert werden sollten stellen die größten Herausforderungen dar.

Ein allgemeines Problem

Traditionell gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Nutzern von Big Data. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, Wettervorhersage, Regierungen und die Medizinbranche. Alle genannten Bereiche haben seit Jahren mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen. Doch nun wirkt sich die Problematik auch auf weitere “normale” Branchen aus.

Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält.

Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten bzw. Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind.

Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Wettbewerbsfähigkeit steigern

McKinsey’s Report “Big data: The next frontier for innovation, competition, and productivity”, aus dem Jahr 2011 untersucht, wie Daten zu einer wichtigen Grundlage des Wettbewerbs werden sowie ein neues Produktivitätswachstum und Innovationen schaffen.

Wenn Unternehmen heutzutage wettbewerbsfähig bleiben wollen, müssen sie sicherzustellen, dass sie über die entsprechende IT-Infrastruktur verfügen, um mit den heutigen Daten-Anforderungen umzugehen. IaaS bietet damit ein solides Konzept und Fundament, um damit erfolgreich zu bleiben.

Big Data Verarbeitung in der Cloud

Kosteneinsparungen für die interne IT-Infrastruktur, wie Server und Netzwerkkapazitäten, Freisetzen von dadurch nicht mehr benötigtem technischem Personal, um sich somit effizienter auf das Kerngeschäft zu konzentrieren und die Flexibilität neue Lösungen, auf Grund der sich ständig veränderten Datenmengen, besser zu skalieren sind die ersten Schritte um den Anforderungen von Big Data gerecht zu werden.

Cloud Computing Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.

Cloud Ressourcen wachsen mit Big Data

Cloud Computing Infrastrukturen sind darauf ausgelegt, dass sie mit den jeweiligen Anforderungen und Bedürfnissen mitwachsen oder sich reduzieren lassen. Unternehmen können die hohen Anforderungen – wie Hohe Rechenleistung, viel Speicherplatz, hohes I/O, performante Datenbanken usw. – die von Big Data erwartet werden, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Kategorien
Analysis

Checklist: Check a Cloud Computing provider for authenticity

Increasingly the question is asked, how an authentic Cloud Computing offer can be recognized. It is often said: “We let our data processing be dealt with by a service provider in their data center. We are then already using Cloud, right?” Caution! Cloud Computing has recently been abused by the marketing departments of various providers, resulting in a dilution of the concept taking place. What was once for example, a “managed server”, is now simply a “Cloud server”. Eventually however, only the sticker was replaced. This “principle” is also known as Cloud-Washing.

Check a Cloud Computing provider for authenticity

Cloud Computing and its characteristics

Cloud Computing primarily refers to a service model, with which (theoretically unlimited) IT resources such as computational power, disk space, applications and other types of services-on-demand can be accessed. The resources will be charged based only on the pay-as-you-go concept , which is in fact used at present.

In addition to the known characteristics of Cloud Computing, there are other typical occurrences that distinguish a Cloud. Besides general characteristics, these also include technical ones as well as the viewing angle from the perspective of a company.

General Characteristics

Elasticity
Cloud allows you to scale resources up and down as required. The time required is in the range of seconds and minutes, not weeks or months.

Economies of Scale
The Cloud Computing provider is able to exploit economies of scale and can obtain the required infrastructure for Cloud Computing such as power, cooling, bandwidth and hardware at the best possible price.

Pay as you Go
This is more about a general feature rather than a commercial one. Through the use of Cloud, technicians reach decisions regarding the allocation of resources, which have a direct impact on the consumption of resources and the extent of total costs. Therefore in future, everyone has a duty to lead the company more efficiently.

Technical Characteristics

Rapid scalability
Additional resources can be bought on-Demand in a matter of minutes in order to meet the requirements of unexpected situations when needed. These include e.g. complex calculations or an unexpectedly high number of visitors on the website. If the resources are no longer needed, they can be returned to Cloud.

Resources are abstract and uncomplicated
The hardware needed for the operation of a Cloud changes and is constantly being improved. However, it is the Cloud Computing provider’s job to take care of this. A Cloud Computing user no longer has to deal with the details behind a Cloud.

A Cloud consists of individual modules
The IT resources of a Cloud Computing provider consist of small modules. This means they are available separately and are calculated separately. A user has the option of not using any resources, using all of them, or just using a few, which are provided to him as a service via the Cloud.

Experimentation is cost-effective
Cloud Computing removes the economic hurdle for experimenting. This allows new ideas to be tested without long-term investment in the required hardware, in which case one might resort to temporary resources.

Characteristics from the perspective of a company

No upfront investment
Cloud Computing was created to share resources when necessary. For this reason, no one-time or large investments are necessary before the actual need arises.

Variable costs that come from fixed costs
Instead of relying on a fixed number of resources over a long contract period (usually one to three years), Cloud Computing enables the use of resources to be changed in real-time.

Investments become overheads
Investments are usually spread over a long period, leading to a multi-year commitment to using a certain amount of resources. Overheads however, reflect the actual usage of Cloud services and can be modified in real-time.

Resource allocation is more granular
Cloud Computing enables minimal usage in terms of time and resources, for example, server usage per hour and the individual bytes of used memory.

The company gains flexibility
Due to the fact that a company no longer binds itself to resources for the long term, it is able to respond to changes more quickly, with reference to the required amounts and the type of business activity.

The provider remains under observation
The core business of Cloud Computing providers is to provide its Cloud for public use. Therefore, it has a strong incentive to provide its services so that they are reliable, applicable and cost-effective. Cloud therefore reflects the core competencies of a provider once again.

Costs are associative
Due to Cloud Computing’s flexible resource allocation model, it is just as easy to apply and operate 100 servers for an hour as it is to do so with a server for 100 hours. It encourages innovative thinking in terms of solutions to problems that are only made possible by massive scaling.

The Checklist

Let it be understood that as a rule, you cannot and should not look into the interior. In the case of a Cloud, it is a black box which is either controlled via an API (interface) or a web interface. It thus depends on the external values that you can see and observe directly.

Checklist: Check a Cloud Computing provider for authenticity


The checklist can also be viewed and downloaded as a PDF at Checklist: Check a Cloud Computing provider for authenticity.


Bildquelle: ©Claaslietz / PIXELIO