Kategorien
Analysen

Amazon Web Services: König der Cloud?

Liegen die restlichen Cloud Anbieter den Amazon Web Services zu Füßen? Es scheint fast so. Zumindest setzt Amazon unbeeindruckt von den Grabenkämpfen zwischen den Open Source Clouds OpenStack und CloudStack seine Entwicklung fort und veröffentlicht fleißig immer weiter neue Cloud Services.

OpenStack vs. CloudStack – Amazon der lachende Dritte

Die Kuriosität der Auseinandersetzung zwischen OpenStack und CloudStack besteht insbesondere darin, dass ca. 95% aller IaaS Anbieter von dem Kampf um die Herrschaft um die Open Source Cloud direkt oder indirekt betroffen sind. Nur die Amazon Web Services nicht. Im Gegenteil, das Unternehmen aus Seattle profitiert sogar noch davon, indem es auf Grund seiner APIs EC2 und S3 immer wieder im Gespräch ist.

Und genau um diese APIs geht es im Kern. So gut wie jeder IaaS Anbieter wirbt mit der Kompatibilität zur Amazon Elastic Compute Cloud (Amazon EC2) und Amazon Simple Storage Service (Amazon S3). EC2 erlaubt das Starten und Verwalten von virtuellen Maschinen in der Amazon Cloud. S3 ist für das Speichern und Verwalten von Daten ebenfalls in der Amazon Cloud zuständig.

So ermöglicht es bspw. Terremark seinen Kunden die Daten aus der Private Cloud ggf. per Cloud Bursting in die Amazon Cloud auszulagern. Ein Blick auf mobile Apps für Android oder iOS zeigt eine Vielzahl von Anwendungen, mit denen die Amazon Cloud gesteuert werden kann oder die mit der Unterstützung der AWS APIs werben. Ubuntu springt ebenfalls auf den Zug auf und wird ab der Version 12.04 Funktionen bieten, um OpenStack Installationen mit den Amazon Web Services zu verbinden.

Ein Grund von Citrix, sich aus dem OpenStack Projekt zurückzuziehen, war die angeblich schlechte Unterstützung der Amazon APIs. Was unverständlich ist, da OpenStack von Beginn mit der Kompatibilität von EC2 und S3 wirbt.

Als ein weiterer Gewinner, im Schatten der Schlacht zwischen OpenStack und CloudStack, wird sich Eucalyptus herauskristallisieren. Die Kooperation der Open Source IaaS Software mit Amazon hat sowohl für Eucalyptus als auch Amazon nur Vorteile. Eucalyptus erhält Unterstützung direkt von der Quelle und kann besser als die anderen Open Source Clouds eine perfekte Integration zur Amazon Cloud bieten. Amazon hingegen kann das Hybrid Cloud Geschäft weiter ausbauen und ist somit bereits mit einem Bein in dem hart umkämpften Unternehmensmarkt. Zudem wird durch diese Kooperation eine erste Brücke zwischen den Private Cloud Installation auf Basis von Eucalyptus und der Public Cloud von Amazon geschaffen, um damit insbesondere das Big Data Geschäft auszubauen.

Ich möchte Amazon hiermit keinen Freifahrtsschein für den Thron in der Cloud ausstellen. Dennoch können einzig die wirklich Großen der Branche wie HP, IBM, T-Systems und Microsoft es sich erlauben nicht auf den Zug aufzuspringen und Kompatibilität zu den Amazon APIs bieten. Wobei auch HP bereits OpenStack für sich entdeckt hat.


Bildquelle: http://gigaom2.wordpress.com

Kategorien
News

GoGrid steigt in den Markt für Big Data Lösungen ein

Cloud Computing Anbieter GoGrid steigt in den Big Data Markt ein. Für einen begrenzten Zeitraum erhalten alle Kunden den Zugriff auf die neue Big Data Lösung. Dabei handelt es sich um eine hybride Lösung bestehend aus einer vorkonfigurierten Hardware und einer Cloudera Hadoop Implementierung inkl. Big Data Analytics Tools.

GoGrid steigt in den Markt für Big Data Lösungen ein

Die Big Data Lösung basiert auf einer hybriden Infrastruktur-Architektur, die aus einer Kombination von Cloud Computing Eigenschaften und Single-Tenant Infrastruktur-Komponenten besteht. Die Steuerung und Verwaltung erfolgt über das GoGrid Management Portal.

Die Lösung kostet 3.800 US-Dollar pro Monat und ermöglicht eine High-Performance Analyse von Daten, die innerhalb einer NoSQL Datenbank einer Hadoop Implementation gespeichert werden. Kunden die sich für ein Jahr an GoGrid binden möchten erhalten 20% Rabatt pro Monat auf das Angebot.

Die Lösung besteht aus einem Paket aus einer vorkonfigurierten Hardware (1x Compute Node und 3x Data Nodes) sowie Cloudera Hadoop. Die Single-Tenant Infrastruktur wurde dabei speziell für die Analyse von Big Data designed und entwickelt.

Kategorien
News

Red Hat Storage 2.0 Beta steht bereit

Ab sofort steht eine Betaversion von Red Hat Storage 2.0 bereit. Die reine Softwarelösung bietet Funktionen zur Vereinheitlichung von Datenspeicherung und Infrastrukturen, eine höhere Performance, eine bessere Verfügbarkeit und eine einfachere Verwaltung großer Datenvolumen.

Red Hat Storage 2.0 Beta steht bereit

Red Hat Storage 2.0 ermöglicht eine Zusammenführung von File Storage und Object Storage und ist mit Apache Hadoop kompatibel. Diese Funktionalität sorgt für einen schnelleren Datenzugriff und sie öffnet Hadoop-Implementierungen für datei- oder objektbasierte-Applikationen.

Zum Funktionsumfang der Red Hat Storage 2.0 gehören ein einheitlicher Zugriff auf Dateien und Objekte innerhalb eines zentralen Storage Pools, eine Storage Infrastruktur speziell für Big Data mit einer Apache Hadoop Unterstützung, eine Performance Optimierung auf Basis von NFSv3, Integrationsmöglichkeiten mit der Red Hat Enterprise Virtualization, einen Network Lock Manager (NLM) sowie u.a. proaktive Funktionen zur Selbstheilung, um damit die Zuverlässigkeit zu erhöhen.

Weitere Infos gibt es im Red Hat Blog.

Kategorien
News

Cisco, EMC und VMware bilden Ausbildungs-Initiative für Cloud Computing und Big Data

Wenn Cloud Computing in die Unternehmen einzieht, werden IT-Profis umdenken und ihre Kenntnisse und Fähigkeiten stetig erweitern müssen, um den Nutzen von Cloud Computing, Virtualisierung, Unified Networking und Big Data für das Unternehmen zu erkennen und anzuwenden. Vorbei sind die Zeiten sich großartig mit der Installation von Hard- und Software zu beschäftigen. Es ist dann an der Zeit, dem Unternehmen auf Basis dieser neuen Technologien und Paradigmen einen Wettbewerbsvorteil zu verschaffen.

Weiterbildung in Zeiten von Cloud Computing und Big Data ist für IT-Profis von besonderer Wichtigkeit!

Cisco, EMC und VMware werden in Zukunft in diesem Bereich kooperieren und haben eine Ausbildungs-Initiative gegründet, mit der sich IT-Profis im Bereich Rechenzentrum usw. weiterbilden sollen, um den neuen Job Anforderungen gerecht zu werden. Unternehmen werden mittelfristig auf konvergente Infrastrukturen umsteigen, auf Cloud Architekturen umstellen und sich mit der Verwaltung riesiger Datenmengen (Big Data) konfrontiert sehen. Darauf müssen Unternehmen als auch die Mitarbeiter reagieren.

Eine Frage besteht bspw. darin, wie man aus klassischen Rechenzentren virtuelle macht und auf dieser Basis anschließend Cloud-basierte Rechenzentren aufbaut. Als Systemadministrator, Datenbankadministrator oder Netzwerkadministrator muss man letztendlich verstehen, wie die einzelnen Technologien in einem Cloud Rechenzentrum zusammenspielen.

Die Ausbildungs-Initiative der drei Anbieter wird mit Ressourcen von VMware unterstützt und bietet Kursunterlagen und Zertifizierungen für Cloud Architekturen, Virtualisierung, Storage, Data Center Networking und Data Science. Die einzelnen Bereiche sind nach spezifischen Job Rollen wie Cloud Architekt, Systemadministrator, Backup und Recovery, Rechenzentrum Design und Data Scientist sortiert.

Jeder Kurs des Ausbildungsmodells hat einen vorgegeben Pfad und das Ziel, Experten auszubilden. Zum Beispiel muss ein Systemadministrator folgende Kurse belegen um zu bestehen:

  • Cloud Infrastructure und Services
  • VMware vSphere: Installieren, Konfigurieren, Verwalten
  • Cisco Data Center Unified Computing Implementation (DCUCI)

Für jemanden, der sich als Netzwerk Architekt im Rechenzentrum fortbilden möchte, benötigt die folgenden Kurse:

  • EMC Cloud Infrastructure and Services
  • Cisco Data Center Unified Fabric (DCUFD)
  • Configuring Cisco Nexus Data Center (CCNDC)

Die Kurse können entweder als ein Bundle oder einzeln absolviert werden. Die Kurse können im Frontalunterricht mit einem Kursleiter in einem Trainingszentrum, über Video oder mit einem Lehrer vor Ort beim Kunden belegt werden.

PS: Ein Blick auf die Kurse zeigt natürlich deutlich, dass man hier kein Generalist wird, sondern speziell auf die Technologien von Cisco, EMC und VMware geschult wird!


Bildquelle: http://www.competence-site.de

Kategorien
Analysen

Sorgt die Telekom endlich für den Durchbruch des Cloud Computing in Deutschland?

Die Deutsche Telekom hat vom Tabakkonzern British American Tobacco einen Cloud Computing Auftrag über 160 Millionen Euro mit einer Laufzeit von sieben Jahren erhalten. Dabei geht es um die Abbildung und Verarbeitung der betriebswirtschaftlichen SAP Prozesse in der Cloud.

Die Deutsche Telekom geht steil in die Cloud

Die offensive der Deutschen Telekom im Cloud Computing ist kaum zu übersehen. Die CeBIT war nur ein Indikator für den Willen, in der Cloud etwas bewegen zu wollen. Hinzu kommt die Penetration des Endkundengeschäfts mit massiver Print- und Fernsehwerbung für die Telekom Cloud. Kann die Deutsche Telekom damit aber auch endlich für den Durchbruch der Cloud in Deutschland sorgen?

Neben Virtual Private Cloud Services für Unternehmenskunden und der Telekom Cloud für das Privatsegment hat die Telekom im Rahmen der CeBIT angekündigt, ab Sommer 2012 einen Cloud Services Marktplatz für kleine und mittelständische Unternehmen anzubieten, dessen Cloud Infrastruktur auf OpenStack basiert.

Anders als die (US-amerikanischen) Cloud Anbieter deckt die Telekom somit beide wichtigen Bereiche ab, das Geschäftskunden- als auch das Privatkundensegment. Denn spätestens mit den Telekom Cloud Werbespots und Angeboten sollte der Term Cloud mittlerweile auch bei vielen Deutschen angekommen sein.

Die Cloud ist noch nicht in der Breite angekommen

Im für Skeptiker bekannten Deutschland ist Cloud Computing noch nicht richtig angekommen. Anders als z.B. in den USA, wo der Cloud Computing Markt regelrecht blüht und Milliardenumsätze eingefahren werden, finden sich in den Kommentaren zu Cloud Artikel auf anderen Online IT-Magazinen immer wieder Phrasen wie „Bleibt mir weg mit eurem ****** SaaS, das ist doch alles viel zu teuer.“ oder „Cloud? Meine Daten bekommt ihr nicht!“.

Die Deutschen Nichtnutzer oder Skeptiker sehen in der Cloud also eher eine Gefahr als eine Chance. Eine Chance auch für Startups, in dem weltweiten lukrativen Cloud Computing Markt ein Wort mitreden zu können.

Abgesehen von der doch recht beachtlichen Anzahl von SaaS Startups in Deutschland, ist der Markt für junge Unternehmen in den Bereichen IaaS und PaaS so gut wie nicht vorhanden. ScaleUp Technologies wollte als Spin-off der internet4YOU, bereits 2009 IaaS in Form von Rechenleistung und Speicherplatz aus Deutschland heraus anbieten. Mittlerweile nutzen sie die dafür selbst entwickelte Plattform, um diese großen Telkos zu verkaufen. Im Bereich PaaS halten cloudControl und Scalarium die Fahne hoch.

Wie daran gut zu erkennen ist, es fehlt an Kapital, um Infrastructure Services aufzubauen. Scalarium und cloudControl setzen als Grundlage auf die Amazon Web Services und setzen ihre Plattform für das Cloud Hosting oben drauf. VCs investieren lieber in den Consumer Markt, was auch an der Akzeptanz des Cloud Computing in Deutschland liegen mag.

Dabei zeigen aktuelle Zahlen einen sehr positiven Trend, der auch schon während des Aufkommen des Cloud Computing prognostiziert wurde. So wird der Software-as-a-Service Markt in diesem Jahr um 17,9% auf 14.5 Milliarden US-Dollar wachsen. Alleine in Westeuropa auf 3,2 Milliarden Dollar. Zudem wird der gesamte deutsche Markt für Cloud Computing in diesem Jahr die Umsatzgrenze von 5 Milliarden Euro überschreiten und damit um fast 50 Prozent wachsen.

Die Deutsche Telekom kann Einfluss haben

Die Telekom kann und wird mittelfristig dafür sorgen, dass sich Cloud Computing auch endlich in der Breite in Deutschland etabliert. Ein Signal kann bereits der British American Tobacco Deal sein. Die Studien zeigen darüber hinaus bereits einen deutlichen Trend, der sich nun – z.B. mit der Telekom Cloud – auch auf den Markt für Privatkunden auswirken wird. Zudem existieren neben der Telekom weitere Cloud Computing Anbieter im selben Segment, die zwar nur die Geschäftskunden ansprechen, aber ebenfalls beachtenswerte Angebote haben.

Von besonderer Bedeutung wird weiterhin der Datenschutz im dafür sehr sensiblen Deutschland bleiben, was zu einem Standortvorteil werden kann, es zwangsläufig aber nicht sein muss. Hier muss weiterhin viel Vertrauen und Transparenz aufgebaut werden. Auf der anderen Seite gibt es mittlerweile allerdings viele Nutzer von Apples iCloud sowie Dropbox oder weiteren Cloud Storage Anbietern. Es ist also nur eine Frage der Zeit. Betrachtet man zudem den z.T. sehr lockeren Umgang mit privaten Daten in den sozialen Netzwerken, handelt es sich bei der Cloud Skepsis eher um ein Generationsproblem.

PS: Übrigens Deutschland, Big Data – ein Cloud Computing Use Case – steht auch schon länger vor der Tür! 😉

Kategorien
Services

OpenStack – Ein Überblick

OpenStack ist ein weltweites Gemeinschaftsprojekt von Entwicklern und Cloud Computing Spezialisten, die das Ziel verfolgen eine Open Source Plattform für den Aufbau von Public und Private Clouds zu entwickeln. Das Projekt wurde initial von der Nasa und Rackspace gegründet und will Anbietern von Cloud Infrastrukturen ein Werkzeug in die Hand geben, mit dem sie unterschiedliche Arten von Clouds ohne großen Aufwand auf Standard Hardwarekomponenten aufbauen und bereitstellen können.

Die Kernbereiche von OpenStack

Die Kernbereiche von OpenStack

Der gesamte OpenStack Quellcode ist frei verfügbar und unterliegt der Apache 2.0 Lizenz. Dadurch ist jeder in der Lage auf dieser Basis seine eigene Cloud zu entwickeln und ebenfalls Verbesserungen in das Projekt zurückfließen zu lassen. Der Open Source Ansatz des Projekts soll zudem die Entwicklung von Standards im Bereich des Cloud Computing weiter fördern, Kunden die Angst vor einem Vendor Lock-in nehmen und ein Ecosystem für Cloud Anbieter schaffen.

OpenStack besteht aus insgesamt fünf Kernkompenten. Bei OpenStack Compute, OpenStack Object Storage und OpenStack Image Service handelt es sich um die grundlegenden Kernbereiche, die von Beginn an zu dem Projekt gehören. Mit OpenStack Identity und OpenStack Dashboard wurden in dem Diablo Release zwei weitere Komponenten hinzugefügt, die ab der kommenden Essex Version fest in die Kernbereiche mit aufgenommen werden.

OpenStack Compute

OpenStack Compute dient dem Aufbau, Bereitstellen und Verwalten von großen Virtual Machine Clustern, um auf dieser Basis eine redundante und skalierbare Cloud Computing Plattform zu errichten. Dazu stellt OpenStack Compute diverse Kontrollfunktionen und APIs zur Verfügung, mit denen Instanzen ausgeführt und Netzwerke verwaltet werden sowie die Zugriffe der Nutzer auf die Ressourcen gesteuert werden können. OpenStack Compute unterstützt zudem eine große Anzahl von Hardwarekonfigurationen und sieben Hypervisor.

OpenStack Compute kann bspw. Anbietern dabei helfen Infrastructure Cloud Services bereitzustellen oder IT-Abteilungen ermöglichen ihren internen Kunden und Projekten Ressourcen bei Bedarf zur Verfügung zu stellen. Zudem können große Datenmengen (Big Data) mit Tools wie Hadoop verarbeitet werden oder Web Anwendungen entsprechend ihrer Ressourcenbedürnisse bedient werden.

OpenStack Object Storage

Mit OpenStack Object Storage können auf Basis von standardisierten Servern redundante und skalierbare Object Storage Cluster mit einer Größe von bis zu 1 Petabyte aufgebaut werden. Dabei handelt es sich nicht um ein Dateisystem und ist nicht für das Speichern von Echtzeitdaten ausgelegt, sondern für das langfristige Speichern von statischen Daten gedacht, die bei Bedarf abgerufen oder aktualisiert werden können. Gute Anwendungsbeispiele für OpenStack Object Storage sind das Speichern von Virtual Machine Images, Photos, E-Mails, Backupdaten oder Archivierung. Da der Object Storage dezentral verwaltet wird, verfügt er über eine hohe Skalierbarkeit, Redundanz und Beständigkeit der Daten.

Die OpenStack Software sorgt dafür, dass die Daten auf mehrere Speicherbereiche im Rechenzentrum geschrieben werden, um damit die Datenreplikation und Integrität innerhalb des Clusters sicherzustellen. Die Storage Cluster skalieren dabei horizontal, indem weitere Knoten bei Bedarf hinzugefügt werden. Sollte ein Knoten ausfallen, sorgt OpenStack dafür, dass die Daten von einem aktive Knoten repliziert werden.

OpenStack Object Storage kann von Anbietern genutzt werden, um einen eigenen Cloud Storage bereizustellen oder die Server Images von OpenStack Compute zu speichern. Weitere Anwendungsfälle wären Dokumentenspeicher, eine Back-End Lösung für Microsoft SharePoint, eine Archivierungsplattform für Logdateien oder für Daten mit langen Aufbewahrungsfristen oder einfach nur zum Speichern von Bildern für Webseiten.

OpenStack Image Service

Der OpenStack Image Service hilft bei der Suche, Registrierung und dem Bereitstellen von virtuellen Maschinen Images. Dazu bietet der Image Service eine API mit einer Standard REST Schnittstelle, mit der Informationen über das VM Image abgefragt werden können, welches in unterschiedlichen Back-Ends abgelegt sein kann, darunter OpenStack Object Storage. Clients können über den Service neue VM Images registrieren, Informationen über öffentlich verfügbare Images abfragen und über eine Bibliothek ebenfalls darauf zugreifen.

Der OpenStack Image Service unterstützt eine Vielzahl an VM Formaten für private und öffentliche Images, darunter Raw, Machine (kernel/ramdisk, z.B. AMI), VHD (Hyper-V), VDI (VirtualBox), qcow2 (Qemu/KVM), VMDK (VMWare) und OVF (VMWare).

OpenStack Identity

Der OpenStack Identity Service stellt eine zentrale Authentifizierung über alle OpenStack Projekte bereit und integriert sich in vorhandene Authentifizierungs-Systeme.

OpenStack Dashboard

Das OpenStack Dashboard ermöglicht Administratoren und Anwendern den Zugang und die Bereitstellung von Cloud-basierten Ressourcen durch ein Self-Service Portal.

Kategorien
News

Die Amazon Web Services hosten Katalog für Humangenetik in der Cloud

Die Amazon Web Services (AWS) und das U.S. National Institutes of Health (NIH) haben die komplette Datenbank des 1000 Genomes Project als Public Data Set in die Amazon Cloud migriert. Damit haben Wissenschaftler nun ständigen Zugang zu 200 Terabyte an genetischen Daten zur Erforschung von Krankheiten. Ein weiterer idealer Anwendungsfall für Cloud Computing und Big Data.

Die Kooperation, die offiziell während des White House Big Data Summit angekündigt wurde, ermöglicht es Wissenschaftlern kostenlos auf die weltweit größte Sammlung von Daten zur Humangenetik zuzugreifen Bei dem 1000 Genomes Project handelt es sich um ein internationales Forschungsprojekt, das von einem Konsortium bestehend aus 75 Unternehmen und Organisationen koordiniert wird. Das Ziel des Projekts ist die Erstellung des detailreichsten Katalogs von genetischen Variationen bei Menschen.

Dazu hat das Projekt bereits 200 Terabyte an genetischen Daten inkl. DNS Sequenzen von mehr als 1.700 Personen gesammelt, auf die Wissenschaftler nun kostenlos über die AWS Cloud zugreifen können. Das Projekt verfolgt das Ziel die Gene von weltweit über 2.600 Individuen aus 26 Bevölkerungen bereitzustellen. Das 1000 Genomes Project startete 2008 mit ein paar Terabytes an Daten in seine Pilotphase. Bereits 2010 wurde ein kleiner Teil als Public Data Set auf AWS veröffentlicht.

Bei den Amazon Public Data Sets handelt es sich um ein öffentliches zentrales Repository von unterschiedlichen Daten, die auf Amazon S3 und Amazon EBS gespeichert sind. Auf diese Daten kann direkt zugegriffen werden, z.B. über Amazon EC2 oder Amazon EMR (Elastic MapReduce) ohne diese großen Datenmengen auf lokale Server herunterzuladen.

Amazon hat neben dem 1000 Genomes Project ebenfalls Public Data Sets vom NASA Jet Propulsion Laboratory, Langone Medical Center an der New York University, Unilever, Numerate, Sage Bionetworks oder Ion Flux gespeichert.

Die Nutzung der Public Data Sets ist kostenlos. Kosten entstehen für die Verarbeitung der Daten auf der Amazon Cloud wie z.B. Amazon EC2.

In diesem Zusammenhang sehr interessant: Nach der Cloud, wird Amazon auch der Big Data Gigant?

Weiterführende Informationen


Bildquelle: http://www.ige3.unige.ch

Kategorien
Analysen

Nach der Cloud, wird Amazon auch der Big Data Gigant?

IaaS Cloud Infrastrukturen haben auf Grund ihrer Skalierbarkeit die idealen Voraussetzungen für die Verarbeitungen großer Datenmengen, wodurch Big Data ein idealer Anwendungsfall für Cloud Computing ist. Aber welcher Anbieter wird das Rennen um die Verarbeitung machen?

Big Data ist ein idealer Anwendungsfall für das Cloud Computing

Amazon Web Services

Ein Kandidat ist Amazon. Zum einen hat das Unternehmen auf Grund seines Kerngeschäfts, dem Web-Shop, eine große Expertise bei der Verarbeitung und Analyse großer Datenmengen aufgebaut und diese, betrachtet an der Evolution und dem Funktionsumfang der Webseite, stetig weiterentwickelt. Hinzu kommen aber auch die Amazon Web Services und der darunter liegenden massiv skalierbaren Infrastruktur, die ideal für die Verarbeitung von Big Data ist und die Unternehmen nutzen können, um dort Anwendungen für die Analyse ihrer Daten zu betreiben. Dazu stehen mit Amazon EC2, Amazon S3 und Amazon Elastic MapReduce gut miteinander zu kombinierende Services zur Verfügung. Neben dem Service AWS Import/ Export, mit dem große Datenmengen auf dem Postweg an Amazon geschickt werden können, die von Amazon dann direkt in die Cloud kopiert werden, hat sich Amazon mit der vor kurzem angekündigten Kooperation mit dem Private Cloud Infrastruktur-Software Anbieter Eucalyptus zudem eine gute Ausgangsposition geschaffen, um Unternehmen die Möglichkeit zu geben, über eine Hybrid Cloud Daten aus der Private in die Amazon Cloud übertragen zu lassen.

Google

Google hat ebenfalls viel Erfahrung bei der Verarbeitung großer Datenmengen, was u.a. auf die Indexierung des Internets und die damit verbundene Suche zurückzuführen ist – ebenfalls beides Kerngeschäfte von Google. Hinzu kommt, das Google kürzlich mit Google BigQuery einen neuen Service für Entwickler vorgestellt hat, auf dem Anwendungen entwickelt werden können, um Big Data zu verarbeiten. Dieser befindet sich aktuell aber noch in der geschlossenen Betaphase.

Anders als die Amazon Web Services scheint Google allerdings nicht so konsequent auf das Business getrimmt zu sein. Zudem wirkt Google an vielen Stellen immer noch wie ein großer Spielplatz für die eigenen Entwickler, was natürlich immer wieder gute Innovationen hervorbringt, Google sich aber bereits eingestehen musste, dass einige Services doch einfach mehr Kapital verbrennen als Nutzen ergeben. So wurde die Google App Engine anfangs stark gepushed, hat im Laufe der Zeit aber etwas an Innovation verloren.

Microsoft

Microsofts Kerngeschäft hat im Vergleich zu Amazon oder Google in erster Linie nichts mit der Verarbeitung großer Datenmengen zu tun. Dennoch steht mit Windows Azure ebenfalls eine skalierbare Infrastruktur bereit, auf der Unternehmen Big Data analysieren können.

Im Vergleich zu Google oder Amazon ist Microsoft aber bereits schon dort lange angekommen, wo die beiden erst genannten erst zielstrebig hinwollen, das Business. Microsoft sollte die Herausforderungen und Wünsche, insbesondere bei den renommierten Unternehmen, kennen und gezielt darauf eingehen können.

Erste infrastrukturelle Schritte hat Microsoft bereits mit der Unterstützung von Hadoop auf Azure unternommen und eine Agenda zeigt die weiteren Vorhaben für das Jahr 2012. So wird das Unternehmen mit Hilfe von Hortonworks und einer ODBC Schnittstelle Apache Hadoop an Microsofts Excel anbinden und so Big Data ins Büro bringen. Damit können Business Intelligence (BI) Tools einen direkten Zugang zu einem Hadoop Cluster erhalten und via Excel Pivot-Analysen durchgeführt werden.

Die Anderen

Es existieren eine Vielzahl an Unternehmen, die mit Big Data tagtäglich in ihrem Kerngeschäft konfrontiert werden. Dazu gehören bspw. ebay, Facebook, XING, LinkedIn oder auch Twitter. Allerdings bietet keines dieser genannten Unternehmen einen Public Cloud Service an, mit dem Big Data von Dritten verarbeitet werden könnte. Die Kosten für den Ausbau einer stärker skalierbaren Infrastruktur wären wohl auch zu hoch.

Allerdings sollten auch renommierte Unternehmen wie SAP, IBM oder Oracle im Bereich Big Data nicht aus den Augen gelassen werden. Die Expertise aus dem Kerngeschäft ist zweifelsohne vorhanden.


Bildquelle: https://www.emcforums2011.com, http://www.techweekeurope.es

Kategorien
News

Mobile, Social Media und Big Data sind die Treiber des Cloud Computing

Zwei voneinander unabhängige Studien von Microsoft und SAP zeigen die besondere Bedeutung des Cloud Computing und das die Bereiche Mobile Computing, Social Media und Big Data die Treiber der Cloud sind.

„Mobile Computing, Social Media und Big Data sind die Treiber des Cloud Computing.

Eine neue Studie im Auftrag von SAP lässt Spekulationen aufkommen, das Cloud Computing, unterstützt durch die Bereiche Mobile Computing, Social Networking und Big Data, in den nächsten Jahren viel mehr Möglichkeiten aufzeigen wird, als es das Internet in seinen frühen Jahren geschafft hat.

Die Studie zeigt, das anhand des Cloud Computing bereits heute eine beträchtliche Zahl von Arbeitsplätzen in den USA geschaffen wurde und basierend auf zahlreichen Trends und Indikatoren, ein enormes Potenzial für neue Geschäfte hat und Hunderttausende neuer Arbeitsplätze schafft.

So zeigt die SAP Studie bspw., dass 11 Cloud Computing Anbieter zusammen 80.000 neue Arbeitsplätze im Jahr 2010 geschaffen haben. Zudem war das Beschäftigungswachstum bei diesen Unternehmen fast fünfmal größer als das des gesamten High-Tech-Sektors. Der Bericht zitiert dazu eine Studie der Bank of America Merrill Lynch Global, in der die Gesamtzahl der Mitarbeiter von 11 Cloud Computing Unternehmen (Amazon, Google, Netflix, OpenTable, Salesforce, Taleo, SuccessFactors, RightNow, Intuit, NetSuite und Concur) im Zeitraum von Januar 2010 bis Januar 2011 berechnet wurde. Die Gesamtzahl der Beschäftigten wuchs innerhalb dieses Jahres um 27%. So wuchs das führende Cloud Unternehmen OpenTable in diesem Zeitraum um mehr als 44%. VMware um 41% und Amazon um 31%.

Unternehmen die Cloud-Services anbieten, werden in den nächsten fünf Jahren voraussichtlich einen Umsatz von durchschnittlich 20 Milliarden Dollar pro Jahr erwirtschaften, wodurch in diesem Zeitraum ca. 472.000 Arbeitsplätze in den USA und weltweit geschaffen werden könnten. Darüber hinaus werden Venture Capital-Investitionen in den Cloud Bereich für die kommenden fünf Jahren auf 30 Milliarden Dollar taxiert, die weitere 213.000 neue Arbeitsplätze allein in den USA schaffen sollen.

Eine weitere Studie von IDC im Auftrag von Microsoft kommt zu dem Ergebnis, dass Cloud Computing in den kommenden drei Jahren weltweit 14 Millionen Arbeitsplätze schaffen wird. Diese werden aber auch in Bereichen außerhalb der IT wie Marketing, Vertrieb, Finanzen, Verwaltung, Entwicklung und Dienstleistungen entstehen. Darüber hinaus werden neue Positionen entstehen wie z.B. der „Virtuelle Ressourcen Administrator“ oder der „Kunden-Netzwerk Moderator“.

IDC prognostiziert in den nächsten drei Jahren zudem Einnahmen durch Cloud Innovation in Höhe von 1.1 Billion Dollar pro Jahr.

Mobile Computing, Social Networking und Big Data sind die Treiber

Drei Megatrends Treiben den Bereich der Cloud-Services voran und sorgen für das Wachstum im Arbeitsmarkt.

  • Mobile Computing: Der Markt für Smartphones und Tablets wird weiter stark nachgefragt. Dadurch werden die Anfragen an die Back-Ends wie App-Stores, Datenbanken und Speicherplatz der Cloud-Services durch Mobile Anwendungen massiv steigen. Zudem ermöglichen Cloud Services Tablet und Smartphone Nutzer einen besseren Zugriff auf Informationen und anderen Daten.
  • Social Networking: Ohne Cloud Computing Technologien wäre eine so massive Skalierbarkeit und Elastizität nicht möglich um diese Webseiten zu betreiben.
  • Big Data: Cloud Infrastrukturen und Plattformen werden bei der Verarbeitung und Analyse riesiger Datenmengen auf Grund ihrer Skalierbarkeit eine große Rolle spielen.

Bildquelle: http://www.thenewnewinternet.com, http://www.emptylemon.co.uk

Kategorien
Events

CloudCamp Frankfurt 2012: Die Registrierung ist eröffnet

Nach der Terminankündigung für das CloudCamp Frankfurt 2012, ist die offizielle Webseite nun online und die Registrierung eröffnet.

Termin vormerken! CloudCamp Frankfurt 2012

Das CloudCamp findet am Donnerstag, 24.05.2012 in der Brotfabrik Hausen, Bachmannstr. 2-4, D-60488 Frankfurt am Main statt. Einlass ist ab 17:00 Uhr.

Leitthema und Sprecher

Das Leitthema des diesjährigen CloudCamp Frankfurt lautet „Cloud Computing zwischen Social Business, Mobile Enterprise und Big Data“, wozu sich bereits vier national und international bekannte Cloud Experten angekündigt haben, dazu gehören:

  • Dr. Stefan Ried, Principal Analyst, Forrester Inc.
  • Matthias Rechenburg, CEO, openQRM Enterprise
  • Dr. Michael Pauly, Consultant, T-Systems International GmbH
  • Chris Boos, CEO, arago AG

Der Call for Papers ist derzeit noch offen. Wer Interesse an einem 5 – 6 Minuten Lightning Talk hat, kann seinen Vorschlag in dieses Google Docs Dokument eintragen.

Aktuelle Informationen

Aktuelle Informationen gibt es über die folgenden Kanäle:

Webseite und Registrierung

Die Anmeldung für das CloudCamp Frankfurt 2012 erfolgt über die Webseite http://cloudcamp.org/frankfurt bzw. über http://cloudcamp-frankfurt.eventbrite.com