Big Data gehört zu den Trend Themen für das Jahr 2012. Immer mehr Unternehmen suchen in dem Thema Lösungen für die Verarbeitung großer Datenmengen. Dazu gehören neben dem Speichern ebenso die Analysefunktionen auf diesen Daten. Wie aber kann Infrastructure-as-a-Services dabei helfen, mit diesen Problemen umzugehen und Lösungen zu finden?
Big Data ist die größte IT-Herausforderung für Unternehmen
Oracle’s jährlicher Datacentre Index, der im Januar veröffentlicht wurde zeigt, dass Unternehmen in Europa, dem Nahen Osten und Afrika ihre Rechenzentrumsstrategien auf Grund der stetig wachsenden Datenmengen für das Jahr 2012 überdenken müssen. Zudem wird Big Data von vielen als die größte IT-Herausforderung für Unternehmen in den nächsten zwei Jahren gesehen.
Datenflut
Unsere Datenmengen steigen exponentiell. Die parallele Nutzung von Dienstleistungen wie HDTV, Radio, Video on Demand (VOD) und Security as a Service haben immer höhere Anforderungen an Netzwerk-Infrastrukturen. Die Nutzungen von Anwendungen wie Videokonferenzen und neue Kommunikationswege wie Social Media verändern sich ständig, was ebenfalls Einfluss auf die tägliche Nutzung und den Zugriff auf Daten durch Unternehmen hat. Um mit diesen wachsenden Datenmengen umzugehen, wird verstärkt auf externe Rechenzentrumsfunktionen- und kapazitäten zurückgegriffen. Welche Daten dabei wie ausgelagert werden sollten stellen die größten Herausforderungen dar.
Ein allgemeines Problem
Traditionell gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Nutzern von Big Data. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, Wettervorhersage, Regierungen und die Medizinbranche. Alle genannten Bereiche haben seit Jahren mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen. Doch nun wirkt sich die Problematik auch auf weitere „normale“ Branchen aus.
Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält.
Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten bzw. Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind.
Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.
Welcher Weg ist der Richtige?
Die Öl-und Gasindustrie hat dies durch den Einsatz von eher traditionellen Storage-Lösungen (SANs und NASs) gelöst. Forschungsorientierte Organisationen oder Unternehmen wie Google, die mit der Analyse von Massendaten zu tun haben, neigen eher dazu den Grid Ansatz zu verfolgen, um die nicht benötigten Ressourcen in die Software-Entwicklung zu investieren.
IaaS (Infrastructure-as-a-Service), vereint beide Welten und nimmt dadurch eine einzigartige Position ein. Für diejenigen, die das SANs/NAS Konzept verstehen, werden die Ressourcen ebenfalls nutzen können, um massiv-parallele Systeme zu entwerfen. Wobei der Grid-Ansatz wahrscheinlich besser funktioniert. Für Unternehmen denen es schwer fällt sich mit den genannten Technologien auseinanderzusetzen oder diese zu verstehen, bieten IaaS Anbieter entsprechende Lösungen, um die Komplexität der Speichertechnologien zu umgehen und sich auf die Herausforderungen des Unternehmens zu konzentrieren.
Wettbewerbsfähig bleiben
McKinsey’s Report „Big data: The next frontier for innovation, competition, and productivity“, aus dem Jahr 2011 untersucht, wie Daten zu einer wichtigen Grundlage des Wettbewerbs werden sowie ein neues Produktivitätswachstum und Innovationen schaffen.
Wenn Unternehmen heutzutage wettbewerbsfähig bleiben wollen, müssen sie sicherzustellen, dass sie über die entsprechende IT-Infrastruktur verfügen, um mit den heutigen Daten-Anforderungen umzugehen. IaaS bietet damit ein solides Konzept und Fundament, um damit erfolgreich zu bleiben.
Kosteneinsparung für die interne IT-Infrastruktur, wie Server und Netzwerkkapazitäten, Freisetzen von dadurch nicht mehr benötigtem technischem Personal, um sich somit effizienter auf das Kerngeschäft zu konzentrieren und die Flexibilität neue Lösungen, auf Grund der sich ständig veränderten Datenmengen, besser zu skalieren sind die ersten Schritte um den Anforderungen von Big Data gerecht zu werden.
IaaS Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.
Bildquelle: http://collaborationforgood.org, http://futurezone.at