Kategorien
News

Amazon und Eucalyptus kooperieren – Gemeinsame Allianz gegen OpenStack?

Die Amazon Web Services und der Private Cloud Infrastruktur-Software Anbieter Eucalyptus werden in Zukunft enger zusammenarbeiten, um die Migration von Daten zwischen der Amazon Cloud und Private Clouds besser zu unterstützen.

Amazon und Eucalyptus kooperieren - Gemeinsame Allianz gegen OpenStack?

Amazon und Eucalyptus kooperieren.

Dabei wird die Kooperation unterschiedlich aufgebaut sein. Zunächst sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen.

Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.


Das sieht ganz nach einer Allianz gegen OpenStack aus! Schaut man sich die jüngsten Ankündigungen bzgl. OpenStack an – siehe unten – wäre das von Amazon als auch Eucalyptus ein kluger Schachzug, zumal sich die Eucalyptus Infrastruktur sehr nah an den Basisfunktionen der Amazon Web Services orientiert.

Zudem kann der von Amazon immer wieder geförderte Ansatz der Hybrid Cloud damit verbessert werden. Was sicherlich auch im Hinblick auf das Thema Big Data und der damit verbundenen Verarbeitung großer Datenmengen in der Amazon Cloud für die Amazon Web Services von großem Nutzen sein wird. Nach dem Motto: „Bigger is Better“ bzw. „Data without Limits“.


Bildquelle: http://www.search-internetmarketing.com/, http://www.techweekeurope.co.uk

Kategorien
News

BigQuery: Google bringt Big Data Service in die Cloud

Während viele Experten davon ausgehen, dass Systeme rund um das Thema Big Data On-Premise installiert werden, geht Google den Cloud Weg und hat einen Service entwickelt, mit dem große Mengen an Daten in der Cloud analysiert werden können, ohne dabei in eine eigene kostspielige Infrastruktur wie ein Data-Warehouse zu investieren.

Google bringt mit BigQuery einen Big Data Analytics Service in die Cloud

Der Service nennt sich BigQuery und soll Unternehmen und Organisationen bei der Analyse ihrer Daten helfen ohne die dafür notwendige Infrastruktur zu besitzen. Mit BigQuery soll es möglich sein eigene Anwendungen zu entwickeln und die damit generierten Daten als Service bereitzustellen. Also: „Data-as-a-Service“! BigQuery steht derzeit nur in einem eingeschränkten Vorschau-Modus für eine kleine Anzahl an Test-Nutzern zur Verfügung. Wann der Service im vollem Umfang zur Verfügung steht, ist noch nicht klar.

Da Google auf Grund der Indexierung des Webs auf Systeme für die Analyse riesiger Datenmengen angewiesen ist, wurden entsprechend bereits einige Tools entwickelt, die allerdings nur für den internen Einsatz vorgesehen sind. Aus diesen Tools wurde nun der BigQuery Service quasi abgeleitet.

Ein Test-Nutzer ist We Are Cloud, Anbieter eines Business Intelligence Cloud Service aus Montpellier in Frankreich.

Kategorien
Analysen

Ist IaaS die Lösung für die Herausforderungen von Big Data?

Big Data gehört zu den Trend Themen für das Jahr 2012. Immer mehr Unternehmen suchen in dem Thema Lösungen für die Verarbeitung großer Datenmengen. Dazu gehören neben dem Speichern ebenso die Analysefunktionen auf diesen Daten. Wie aber kann Infrastructure-as-a-Services dabei helfen, mit diesen Problemen umzugehen und Lösungen zu finden?

Big Data ist die größte IT-Herausforderung für Unternehmen

Oracle’s jährlicher Datacentre Index, der im Januar veröffentlicht wurde zeigt, dass Unternehmen in Europa, dem Nahen Osten und Afrika ihre Rechenzentrumsstrategien auf Grund der stetig wachsenden Datenmengen für das Jahr 2012 überdenken müssen. Zudem wird Big Data von vielen als die größte IT-Herausforderung für Unternehmen in den nächsten zwei Jahren gesehen.

Datenflut

Unsere Datenmengen steigen exponentiell. Die parallele Nutzung von Dienstleistungen wie HDTV, Radio, Video on Demand (VOD) und Security as a Service haben immer höhere Anforderungen an Netzwerk-Infrastrukturen. Die Nutzungen von Anwendungen wie Videokonferenzen und neue Kommunikationswege wie Social Media verändern sich ständig, was ebenfalls Einfluss auf die tägliche Nutzung und den Zugriff auf Daten durch Unternehmen hat. Um mit diesen wachsenden Datenmengen umzugehen, wird verstärkt auf externe Rechenzentrumsfunktionen- und kapazitäten zurückgegriffen. Welche Daten dabei wie ausgelagert werden sollten stellen die größten Herausforderungen dar.

Ein allgemeines Problem

Traditionell gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Nutzern von Big Data. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, Wettervorhersage, Regierungen und die Medizinbranche. Alle genannten Bereiche haben seit Jahren mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen. Doch nun wirkt sich die Problematik auch auf weitere „normale“ Branchen aus.

Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält.

Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten bzw. Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind.

Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Welcher Weg ist der Richtige?

Die Öl-und Gasindustrie hat dies durch den Einsatz von eher traditionellen Storage-Lösungen (SANs und NASs) gelöst. Forschungsorientierte Organisationen oder Unternehmen wie Google, die mit der Analyse von Massendaten zu tun haben, neigen eher dazu den Grid Ansatz zu verfolgen, um die nicht benötigten Ressourcen in die Software-Entwicklung zu investieren.

IaaS (Infrastructure-as-a-Service), vereint beide Welten und nimmt dadurch eine einzigartige Position ein. Für diejenigen, die das SANs/NAS Konzept verstehen, werden die Ressourcen ebenfalls nutzen können, um massiv-parallele Systeme zu entwerfen. Wobei der Grid-Ansatz wahrscheinlich besser funktioniert. Für Unternehmen denen es schwer fällt sich mit den genannten Technologien auseinanderzusetzen oder diese zu verstehen, bieten IaaS Anbieter entsprechende Lösungen, um die Komplexität der Speichertechnologien zu umgehen und sich auf die Herausforderungen des Unternehmens zu konzentrieren.

Wettbewerbsfähig bleiben

McKinsey’s Report „Big data: The next frontier for innovation, competition, and productivity“, aus dem Jahr 2011 untersucht, wie Daten zu einer wichtigen Grundlage des Wettbewerbs werden sowie ein neues Produktivitätswachstum und Innovationen schaffen.

Wenn Unternehmen heutzutage wettbewerbsfähig bleiben wollen, müssen sie sicherzustellen, dass sie über die entsprechende IT-Infrastruktur verfügen, um mit den heutigen Daten-Anforderungen umzugehen. IaaS bietet damit ein solides Konzept und Fundament, um damit erfolgreich zu bleiben.

Kosteneinsparung für die interne IT-Infrastruktur, wie Server und Netzwerkkapazitäten, Freisetzen von dadurch nicht mehr benötigtem technischem Personal, um sich somit effizienter auf das Kerngeschäft zu konzentrieren und die Flexibilität neue Lösungen, auf Grund der sich ständig veränderten Datenmengen, besser zu skalieren sind die ersten Schritte um den Anforderungen von Big Data gerecht zu werden.

IaaS Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.


Bildquelle: http://collaborationforgood.org, http://futurezone.at