Kategorien
News

Big Data Nutzer in Unternehmen sind vorwiegend Anwendungsentwickler

Big Data Lösungsanbieter Jaspersoft hat die Ergebnisse einer kürzlich durchgeführten Umfrage zum frühen Einsatz von Hadoop in Unternehmen veröffentlicht. Über 600 Mitglieder der Jaspersoft-Community hatten an der Big Data-Umfrage teilgenommen. Unter den Teilnehmern, die Hadoop für Big Data im Unternehmen verwenden, haben 59 Prozent bereits eine Hadoop-basierte Big Data-Lösung im Einsatz bzw. implementieren sie gerade, während 77 Prozent der Hadoop-Anwender die Big Data-Lösungen innerhalb der nächsten sechs Monate bereitstellen werden.

Ergebnisse der Umfrage

  • 63 Prozent der Hadoop-Benutzer in Unternehmen sind Anwendungsentwickler, 15 Prozent BI-Berichtsentwickler und 10 Prozent BI-Administratoren oder Gelegenheitsnutzer.
  • Nur 37 Prozent der Hadoop-Benutzer arbeiten in der Software- oder Internet-Branche. Hadoop wird in den unterschiedlichsten Branchen eingesetzt, von der Finanzbranche bis zum Bildungssektor.
  • 57 Prozent setzen Big Data mit Hadoop lokal ein, während 43 Prozent die Lösung in der Cloud bereitstellen.
  • Der beliebteste Big Data-Speicher war Hadoop HDFS (82 %), gefolgt von HBase (34 %), relationalen Datenbanken (31 %), MongoDB (30 %), Hive (25 %) und Cassandra (14 %).
  • 38 Prozent benötigen Analysen in Echtzeit bzw. nahezu Echtzeit für ihre Big Data-Anwendung mit Hadoop.
Kategorien
News

Google verbindet BigQuery mit Microsoft Excel

Googles BigQuery ist ein Cloud Service und Teil der Google Cloud Plattform, mit dem SQL-Anfragen gegen große Datenmengen (Big Data) gestartet werden können, um auf deren Basis Analysen durchzuführen. Google geht nun einen kleines Stück aus der Cloud zurück und bietet Unternehmen, die nicht auf sehr schnelle Analysen angewiesen sind, ganz gewöhnliche Batch-Abfragen und die Verbindung über Microsoft Excel.

Google verbindet BigQuery mit Microsoft Excel

BigQuery für Big Data

Google BigQuery hilft bei der Analyse großer Datenmengen und erfreut sich bereits großer Beliebtheit. Mit zwei neuen Funktionen hat Google den Service nun erweitert und damit attraktiver für noch nicht so Cloud-affine Nutzer gemacht. Ab sofort lassen sich Zeit unkritische Batchprozesse verarbeiten. Also solche, die gerne mehr Zeit benötigen dürfen und keine hohe Priorität besitzen. Mit einem Connector for Microsoft Excel lässt sich der BigQuery Service zudem nun mit Microsofts Tabellenkalkulation verknüpfen.

Google passt BigQuery den Anforderungen an

Google konzentriert sich mit den neuen Funktionen insbesondere auf normale Use Cases wie Standard Abfragen oder dem Erstellen von nächtlichen Auswertungen, die Unternehmen zwar weiterhin benötigen aber nicht zeitkritisch abgearbeitet werden müssen. Das merkt man auch am Preis. Die bisherigen Abfragen mit einer hohen Performance kosten 3,4 Cent pro GB. Die neuen langsameren Abfragen kosten hingegen nur 2 Cent pro GB.

Neben den normalen Use Cases adressiert Google mit dem Excel Connector vor allem die traditionellen Nutzer und wird diese damit näher an die Cloud und vor allem an BigQuery heranbringen. Viele Analysten, Buchhalter, Finanzberater usw. arbeiten noch klassisch mit ihren Excel Tabellen. Diese wissen nicht, was ein Hadoop Cluster ist und wollen bzw. müssen dies auch nicht wissen. Der Excel Connector kann ein richtiger Schritt sein, diese Zielgruppe zu gewinnen, ihre Daten zwar weiter per Excel zu pflegen die Auswertungen aber von BigQuery durchführen zu lassen. Aus Erfahrung ist es leichter, den Anwendern ihre bekannten Applikationen weiter nutzen zu lassen und diese stattdessen mit weiteren Services im Hintergrund aufzuwerten.

Kategorien
Analysen

Trends und Fakten rund um den Cloud Computing Markt

Auch wenn die Meinungen und Reaktionen rund um die Cloud immer sehr „vielfältig“ ausfallen, ist die generelle Meinung, dass Cloud Computing rasant wächst und weiter stark wachsen wird. Während die Marktforscher von Market Research Media dem Cloud Markt bis 2020 ein Wachstum von 270 Milliarden US-Dollar voraussagen, ist Forrester ein wenig vorsichtiger und vermutet bis 2014 ein Wachstum von ca. 55 Milliarden US-Dollar.

Aktuelle Fakten und Trends im Cloud Computing Markt

Aber wie wird sich der Cloud Markt in Zukunft verhalten und welche Trends erwarten uns? In das Orakel zu schauen, was in der Zukunft passieren wird und wie sich das genau in Zahlen niederschlägt ist sehr schwierig. Umsonst müssen sich die Marktforscher nicht immer mal wieder nach unten korrigieren. Dennoch sind die Zahlen gute Richtwerte und anhand der aktuellen Marktentwicklung lassen sich gut neue Trends und Bedürfnisse erkennen.

Software-as-a-Service (SaaS)

Der SaaS-Markt bietet auf Grund seiner Vielfalt und Möglichkeiten das größte Marktsegment in der Cloud und wird damit auch der größte Bereich im Cloud Computing Markt bleiben. Gartner hat hier verschiedene Kategorien von SaaS Applikationen differenziert. Dazu gehören aktuell CRM, ERP, Web Conferencing, Kollaborationsplattformen und Social Software Suites.

Infrastructure-as-a-Service (IaaS)

IaaS wird in den kommenden Jahren ein stetiges Wachstum behalten. Allerdings sieht Forrester in Dynamic Infrastructure Services auf lange Sicht mehr Potential als in IaaS. Dennoch sollte man nicht vernachlässigen, dass IaaS die Lösung für die Herausforderungen von Big Data ist.

Platform-as-a-Service (PaaS)

Nach einer Gartner Studie hat PaaS das schnellste Wachstum von allen Services in der Cloud. Die Wachstumsraten in den jeweiligen PaaS Teilsegmenten gliedern sich dabei wie folgt auf: Anwendungsentwicklung (22%), Datenbankmanagementsysteme (48.5%), Business Intelligence Plattformen (38.9%) und Anwendungsinfrastruktur und Middleware (26.5%).

Business Process Management

Der Cloud BPM (bpmPaaS) Markt soll von Jahr zu Jahr um ca. 25% wachsen. 40% der Unternehmen die bereits BPM einsetzen, nutzen BPM aus der Cloud. Gartner hat mehr als 30 bpmPaaS Anwendungen und Plattformen identifiziert und hat diese als Model-Driven BPM-Plattform in der Cloud kategorisiert, mit denen Prozess-orientierte Anwendungen der nächsten Generation entwickelt werden sollen, die für Differenzierung und Innovation sorgen werden.

Big Data

Big Data wird, laut Gartner, den Unternehmen in den nächsten 2 bis 5 Jahren entscheidende Vorteile bringen. Bis 2015 soll Big Data den Unternehmen dabei helfen einen strategischen Vorteil gegenüber des Mitbewerbs zu erhalten. Gartner definiert Big Data dabei als Methode um große Datenmengen, zusätzlich zur Batch-Verarbeitung, fließend zu verarbeiten. Integraler Bestandteil von Big Data ist ein erweiterbares Framework, dass Daten direkt verarbeitet oder diese an einen Prozess-Workflow weiterleitet. Gartner unterscheidet Big Data dabei zusätzlich in strukturierte und unstrukturierte Daten.

Cloud Business Marketplaces

Cloud Marketplaces gehören zu der logischen Entwicklung des Cloud Computing, um Unternehmen und Entwicklern den einfachen Zugriff auf IT-Ressourcen zu ermöglichen. Neben einer gut dokumentierten API gehören ebenfalls übersichtliche und umfangreiche Web-Oberflächen zu einem guten Cloud Angebot, die es dem Nutzer ermöglichen sich „auch mal eben“ eine Cloud Infrastruktur „zusammenzuklicken“, um z.B. ein paar Tests durchzuführen. Bereits viele Anbieter sind auf diesen Zug aufgesprungen und ermöglichen über einen eigenen Cloud Marktplatz den Zugriff auf ihre IaaS-Ressourcen. Zudem reichern sie ihre Infrastruktur-Angebote über den Marktplatz mit Betriebssystem-Images oder weiteren Software-Lösungen an, um den virtuellen Ressourcen damit einen echten Nutzen zu geben.

Cloud Brokerage Services

Das Cloud Services Brokerage Modell bietet ein architektonisches-, business-, und IT-Betriebs-Modell, mit dem verschiedene Cloud Services bereitgestellt, verwaltet und adaptiert werden können. Und das sich innerhalb eines föderierten und konsistenten Bereitstellung-, Abrechnung-, Sicherheit-, Administration- und Support-Framework befindet.

Unternehmen werden damit in die Lage versetzt, ihr Cloud-Services Management zu vereinheitlichen, um damit den Innovationsgrad zu erhöhen, die globale Zusammenarbeit zu verbessern, die Betriebskosten zu senken und insgesamt besser zu wachsen. Cloud Computing Anbieter erhalten damit die Möglichkeit die Bereitstellung ihrer Cloud Services zu vereinheitlichen und ihr eigenes Services Netzwerk zu differenzieren und damit eine umfangreiche Cloud Computing Plattform bereitzustellen. Technologie-Anbieter können damit ein Ökosystem von Mehrwertdiensten aufbauen, um ihre wichtigsten Angebote zu differenzieren, die Kundenbindung erhöhen und neue Vertriebswege erschließen.

Ein Cloud Service Broker ist ein Drittanbieter, der im Auftrag seiner Kunden Cloud Services mit Mehrwerten anreichert und dafür sorgt, dass der Service die spezifischen Erwartungen eines Unternehmens erfüllt. Darüber hinaus hilft er bei der Integration und Aggregation der Services, um ihre Sicherheit zu erhöhen oder den originalen Service mit bestimmten Eigenschaften zu erweitern.

Master Data Management (MDM)

Master Data Management (MDM) Lösungen aus der Cloud und hybride IT Konzepte sind das erste Mal im Hype Cycle vertreten. Gartner erwartet, dass MDM Lösungen aus der Cloud ein steigendes Interesse in Unternehmen erhält, da das allgemeine Interesse an MDM stetig steigt. Als führende Anbieter in diesem Bereich sieht Gartner Cognizant, Data Scout, IBM, Informatica, Oracle und Orchestra Networks.

Private Cloud

Die Private Cloud gehört zu den beliebtesten Cloud Deployment Modellen. Laut einer Gartner Umfrage planen 75% der Befragten bis 2014 eine Strategie in diesem Bereich. Bereits viele unterschiedliche Unternehmen haben Private Cloud Lösungen in Pilot-Projekten und im produktiven Betrieb im Einsatz. Dabei ist das Hauptziel, für sich den größten Nutzen aus der Virtualisierung zu ziehen.

Fazit

Unabhängig von den oben getroffenen Annahmen werden alle Segmente des Cloud Computing Markt durch den Zustand unserer Wirtschaft und die weltweite Nachfrage nach IT-Dienstleistungen beeinflusst werden. Cloud Computing ist ein attraktiver Wachstumsmarkt besonders für kleine- und mittelständische Unternehmen, aber bietet ebenfalls ein erhebliches Potenzial für Unternehmen jeder Größe.


Bildquelle: http://www.moeller-horcher.de

Kategorien
News

SAP wächst und profitiert von der Cloud

Mit dem Verkauf von Software erzielte die SAP AG im zweiten Quartal 2012 einen Rekordumsatz von mehr als 1 Milliarde EUR. Zudem wiesen alle Regionen ein zweistelliges Wachstum bei den Softwareerlösen aus. Das Cloud-Wachstum setzte sich für SuccessFactors (auf Stand-alone-Basis) mit einem Anstieg der durch Neu- und Erweiterungsgeschäft generierten 12-Monats-Abrechnungsvolumina um 112 % im Vorjahresvergleich fort. Insbesondere SuccessFactors sei für SAP der Treiber für die Strategie, führender Anbieter im Cloud-Bereich zu werden. Die Big Data Lösung SAP HANA sorgte für einen Umsatz von 85 Millionen EUR. Der Bereich Mobile bescherte SAP einen Umsatz von 54 Millionen EUR.

Cloud, Mobile und In-Memory-Computing sind auf Kurs

Die Innovationsstrategie sei laut SAP klar auf die Bedürfnisse der eigenen Kunden ausgerichtet und soll den Kunden einen Mehrwert bringen. Insbesondere durch innovative Lösungen in den Bereichen Cloud, Mobile und In-Memory-Computing möchte SAP seinen Kunden neben den bestehenden Kernanwendungen weitere Lösungen liefern und sieht sich auf einem guten Weg bis 2015 die gesteckten Ziele zu erreichen.

Positive Vorzeichen für das Gesamtjahr 2012

SAP erwartet, dass die Software- und softwarebezogenen Serviceerlöse (Non-IFRS) für das Geschäftsjahr 2012 ohne Berücksichtigung der Wechselkurse um 10 % bis 12 % steigen werden (2011: 11,35 Mrd. €). Dies beinhaltet einen Beitrag ihres Cloud Stars SuccessFactors von bis zu 2 Prozent-punkten. Zudem wird erwartet dass das Betriebsergebnis (Non-IFRS) für das Geschäftsjahr 2012 ohne Berücksichtigung der Wechselkurse in einer Spanne von 5,05 Mrd. € bis 5,25 Mrd. € (2011: 4,71 Mrd. €) liegen wird. Das Betriebsergebnis (Non-IFRS) ohne den Beitrag von SuccessFactors soll in einer ähnlichen Spanne liegen.

Kategorien
News

Jaspersoft wird Teil des Google Cloud Platform-Partnerprogramm – Big Data Analyse mit Google BigQuery

Business Intelligence-(BI)-Plattform Anbieter Jaspersoft wird Teil des Google Cloud Platform-Partnerprogramm. Über dieses Programm stellt das Unternehmen als Technologiepartner seinen Open Source-Konnektor für Google BigQuery-Kunden bereit, mit dem Business Intelligence-Berichte und Analysen auf der Google Cloud Platform durchgeführt werden können. Mit diesem Konnektor lassen sich die BI-Tools von Jaspersoft in die Google Cloud Platform integrieren. Auf diese Weise wird der Zugriff auf Reporting- und BI-Analyse-Anwendungen über ein integriertes Tool ermöglicht.

Jaspersoft wird Teil des Google Cloud Platform-Partnerprogramm

Das Google Cloud Platform-Partnerprogramm

Dem Google Cloud Platform-Partnerprogramm sind bereits Technologiepartner wie Internetdienst- und SaaS-Anbieter, Plattformunternehmen, Anbieter von Management- und Entwicklungstools, Anbieter von Analyse-, BI- und ETL-Lösungen sowie Speicherspezialisten beigetreten. Diese Partner tragen Zusatztechnologien bei, die bereits in die Plattform integriert wurden, um den Kunden leistungsfähige neue Lösungen auf der Basis der Google Cloud Platform anbieten zu können.

Die Google Cloud Plattform im Detail

Die einzelnen Services der Cloud Platform von Google ermöglichen die Implementierung der folgender Lösungen:

  • Cloud Apps wie mobile Anwendungen, Social Media-Anwendungen, Geschäftsprozess-Anwendungen und Websites mit der Google App Engine und Google Cloud SQL.
  • Cloud Storage Lösungen wie High-End-Backup und -Recovery, aktive Archivierung, globales File Sharing/Zusammenarbeit und primäres SAN/NAS mit Google Cloud Storage.
  • Lösungen für die Verarbeitung umfangreicher Datenmengen wie Batch- und Datenverarbeitung sowie High Performance Computing mit der Google Compute Engine.
  • Big Data-Lösungen wie interaktive Tools, Trenderkennung und BI-Dashboards mit Google BigQuery und der Google Prediction-API.

Jaspersoft setzt auf Google BigQuery

Jaspersoft will die Möglichkeit nutzen, seine Business Intelligence-Produkte mit der Leistungsfähigkeit von Googles Cloud Platform zu vereinen. Zudem stellt sie eine breite Palette von Funktionen für die Anwendungsentwicklung, Cloud Storage sowie für die Verarbeitung umfangreicher Datenmengen und die Big Data-Verarbeitung bereit und bietet unseren Kunden Big Data-Reporting- und -Analysefunktionen für beliebige Datentypen.

Dazu fokussiert sich Jaspersoft mit seinem Konnektor auf Google BigQuery, um damit weitere Funktionen bereitzustellen:

  • Sicherheit. Jaspersoft nutzt die OAuth-Token-Authentifizierung von Google für die Bereitstellung einer sicheren Verbindung.
  • Schnelligkeit. Mit dem Konnektor soll die Skalierbarkeit von BigQuery voll ausgenutzt werden können um auf diese Weise Millionen oder sogar Milliarden von Zeilen zu verarbeiten.
  • Flexibilität. Der Konnektor unterstützt die unbeschränkte Verwendung der gesamten BigQuery-SQL-Abfragesyntax.
  • Nahtlose Integration. Mit dem Konnektor lassen sich die Leistungsfähigkeit von BigQuery und die Stabilität der Dashboards, interaktiven Berichte und Ad-hoc-Analysen von Jaspersoft kombinieren.
  • Offenheit. Der Konnektor steht als Open Source-Komponente unter www.jasperforge.com kostenlos zur Verfügung. Der Quellcode steht unter http://code.google.com/p/jaspersoft-bigquery-datasource unter der AGPL-Lizenz zur freien Verwendung für Entwickler bereit.
Kategorien
News

Big Data: Nodeable Cloud Service StreamReduce analysiert Datenströme in Echtzeit

Apache Hadoop gilt als der letzte Schrei in Unternehmen wenn es darum geht, Systeme zur Verarbeitung und Analyse großer Datenmengen (Big Data) zu installieren. Allerdings hat die beliebte Batch-Processing Lösung auch seine Schwächen. Eine davon ist, dass Hadoop eher träge ist und Zeit benötigt, um in Betrieb genommen zu werden. Zudem existiert keine gute Benutzeroberfläche, die man nur von Cloudera, Greenplum, Hortonworks usw. erhält. Zu guter Letzt ist Hadoop nicht in der Lage Daten in Echtzeit zu verarbeiten.

Big Data: Nodeable Cloud Service analysiert Datenströme in Echtzeit

Nodeable ändert Unternehmensstrategie

Nodeable begann im Jahr 2011 als Twitter ähnlicher Benachrichtigungsdienst für das Systemmanagement, hat nun aber seine Unternehmensstrategie geändert, da das Unternehmen erkannt haben mag, dass Hadoop nicht benutzerfreundlich genug sei und dafür eine Lösung benötigt wird. Dazu hat Nodeable sein Produkt neu definiert und bietet nun einen neuen Cloud Service für die Verarbeitung und Analyse von Datenströmen in Echtzeit.

StreamReduce verarbeitet Big Data Ströme in Echtzeit

Der Service nennt sich StreamReduce, läuft auf Twitters Open Source Framework und ist nach eigenen Angaben deutlich schneller als das herkömmliche Hadoop Front-End. Darüber hinaus arbeitet es mit anderen Batch-Processing Systemen wie bspw. Amazon Elastic Map Reduce zusammen.

Fast ein Jahr arbeitete Nodeable mit 400 Beta Nutzern eng zusammen, die das Team immer wieder daran erinnert haben, dass die Echtzeit-Analyse von Daten höchste Priorität hat. Batch-Workflows sind zu langsam, um aus den gesammelten Daten schnell nützliche Informationen zu gewinnen.

StreamReduce hilft bei einer Vielzahl von Use Cases, darunter die Analyse von Log-Strömen und das Klickverhalten in Echtzeit sowie das Erkennen von Anomalien in Amazon EC2 Instanzen, Sicherheitslücken und Betrugsversuche, das Auswerten von mobilen- und Geo-Daten und kann für gezielte Werbe- und Marketing-Aktivitäten eingesetzt werden. Dazu lässt sich StreamReduce mit verschiedenen externen Anbietern und Systemen integrieren, darunter die Amazon Web Services, Salesforce, Twitter, Google Analytics, Github und Puppet.

StreamReduce kann für 99 US-Dollar pro Monat genutzt werden.

Kategorien
News

Assure Analytics: BT veröffentlicht Big Data Lösung zur Analyse von Sicherheitsrisiken

Netzwerk- und IT-Dienstleister BT bringt mit Assure Analytics einen neuen Service für die Analyse von „Big Data“ auf den Markt. Dieser ermöglicht es Unternehmen, große strukturierte und unstrukturierte Datenbestände zusammenzuführen, aufzubereiten und diese auszuwerten. Die Daten werden visuell aufbereitet, damit Entscheidungen sehr zeitnah und dennoch im Detail getroffen werden sollen. Im Vordergrund steht dabei die Analyse komplexer sicherheitsrelevanter Daten.

Assure Analytics: BT veröffentlicht Big Data Lösung zur Analyse von Sicherheitsrisiken

Big Data Analysen in Echtzeit

BT Assure Analytics ist in der Lage – fast in Echtzeit – strukturierte und unstrukturierte Daten aus verschiedenen Quellen – wie E-Mails, Reporting-Systemen, Datenbanken und News Feeds – zusammenzuführen und erzeugt aus den extrahierten Informationen grafische Darstellungen für die Anwender in Unternehmen. Dargestellt werden die Angriffs-Muster, Bedrohungen, Abhängigkeiten und möglichen Folgen für das Unternehmen in geografischen Karten und Diagrammen. Die Ergebnisse ermöglichen es, Richtlinien für den Einsatz von Ressourcen und den Umgang mit Bedrohungen und Sicherheitsrisiken zu entwickeln.

Eat your own dog food

BT setzt Assure Analytics bereits selbst ein, um sein Telefonnetz in Großbritannien vor Kabeldiebstahl zu schützen. Der Service hilft dem Unternehmen, Kriminalitätsstatistiken, Fehlermeldungen und geografische Informationen zu analysieren. So lassen sich Regelmäßigkeiten erkennen und die Regionen identifizieren, in denen besonders häufig Kabel gestohlen werden. Diese Informationen fließen in die Strategie zur Vorbeugung und Reaktion auf solche Vorfälle ein. Zudem besteht die Möglichkeit, die Anwendung in die unternehmenseigene Lösung „Rabit“ zu integrieren. Sie alarmiert bei einem Kabeldiebstahl frühzeitig BT und die Polizei.

Kooperation mit Cisco

BT Assure Analytics setzt via SecureLogix auf den Cisco UC Gateway Services API, dessen Richtlinien für den Einsatz der Voice-Technologie sowie Sicherheitsanwendungen in den Voice Gateway integriert sind. Da der Service auf die Secure Logix- und Cisco-Lösungen aufbaut, kann er auf Daten- oder Voice-Pakete zugreifen – sowohl auf Basis von SIP (Session-Initiation-Protocol) als auch TDM (Time-Division-Multiplex). Er liefert somit Sicherheitsservices integriert und zentral auf einer Plattform, der Cisco ISR G2.

Kategorien
News

Cloud Computing und Collaboration treibt Big Data in die deutschen Unternehmen

Die Menge der Daten, die in deutschen Unternehmen verarbeitet werden, steigt explosionsartig an. Im Schnitt erwarten IT-Entscheider einen Zuwachs von mehr als 40 Prozent in den kommenden zwei Jahren, wie eine aktuelle Studie im Auftrag von BT Germany ergeben hat. Die IT-Verantwortlichen haben die strategische Relevanz von „Big Data“ erkannt und erwarten erhebliche Auswirkungen auf die Unternehmens-IT. Vor allem bei Bandbreitenkapazität, Server- und Storage-Infrastrukturen besteht noch erheblicher Handlungsbedarf.

Cloud Computing und Collaboration treibt Big Data in die Unternehmen

Big Data ist kein Buzz Word mehr

Die Ergebnisse der Studie „Datenexplosion in der Unternehmens-IT“ zeigen: „Big Data“ ist längst mehr als ein reiner Trendbegriff. So geht ein Viertel der befragten Entscheider sogar davon aus, dass das Datenvolumen in ihrem Unternehmen bis Ende 2014 um mehr als 60 Prozent ansteigen wird, im Durchschnitt aller Befragten wird immerhin ein Wachstum um 42 Prozent erwartet. Für die strategische Relevanz des Themas spricht, dass sich knapp über die Hälfte der Unternehmen bereits mit dem Thema „Big Data“ beschäftigt hat. Ein weiteres Viertel der Befragten plant, sich künftig mit dem Thema zu befassen. Konkret haben jedoch lediglich acht Prozent der Unternehmen entsprechende Lösungen schon in ihre Prozesse integriert.

Wie schnell wachsen die Daten?

Die Entscheider treibt vor allem die Frage um, mit welcher Geschwindigkeit sich das Datenwachstum vollzieht und wie sich darauf reagieren lässt. Dabei zeigt sich: Das Datenwachstum hat aus Sicht der Befragten vor allem immense Auswirkungen auf die unternehmenseigene Infrastruktur.

So erwarten drei Viertel der Entscheider (76 Prozent) erhebliche Auswirkungen im Bereich der Storage-Systeme durch das Big-Data-Phänomen. Zwei Drittel (64 Prozent) sehen einen großen Handlungsbedarf bei der Server- und Netzwerkinfrastruktur sowie der Bandbreitenkapazität auf sich zukommen, während nur rund die Hälfte (55 Prozent) große Auswirkungen bei den Analyse- und Reporting-Systemen vorhersieht.

Als zentrale Treiber für das globale Datenwachstum sehen die Befragten vor allem die mobile Internetnutzung (59 Prozent), Cloud Computing (53 Prozent) sowie die internetbasierte Kommunikation via VoIP, Video, Chat und Unified Communications (47 Prozent) an. Auch die Nutzung von Social Media (44 Prozent) gilt als wesentlicher Faktor, sorgt sie doch für eine virale Verbreitung von Inhalten über eine Vielzahl von Plattformen. Die Digitalisierung von Geschäftsmodellen (34 Prozent), z.B. in Form von eCommerce und Online-Werbung, trägt nach Ansicht der IT-Verantwortlichen ebenfalls maßgeblich zur wachsenden Datenmenge bei.

Cloud Computing ist Treiber für Big Data

Innerhalb der Unternehmen ist Cloud Computing der wichtigste Treiber für das Datenwachstum – 42 Prozent der Befragten gaben dies als Grund an, gefolgt von Collaboration (34 Prozent) und der Digitalisierung von Geschäftsmodellen (32 Prozent). Die Nutzung von Social Media und Video Streaming spielt innerhalb der Unternehmen nur eine untergeordnete Rolle (12 bzw. 9 Prozent).

Die Unternehmen haben wiederum große Erwartungen an Big Data: Wenn sich der immer größere Datenbestand in Zukunft systematisch verarbeiten und auswerten lässt, erhoffen sie sich positive Auswirkungen auf ihr Geschäft.

Unternehmen mit mehr als 1.000 Mitarbeitern erwarten dabei vor allem eine bessere Aussteuerung von Vertriebs- und Marketingkampagnen (41 Prozent) und geringere Kosten durch optimierte Logistikprozesse (41 Prozent). Bei den Unternehmen mit 500 bis 1.000 Mitarbeitern geht es den Verantwortlichen vor allem um bessere Informationen über das Informations- und Konsumverhalten ihrer Kunden (46 Prozent) und um eine bessere Einschätzung von Marktpotenzialen und Business Cases (38 Prozent).

Kategorien
News

Big Data: MapR integriert seine Hadoop Distribution mit der Google Compute Engine

MapR Technologies, Softwareanbieter für die Analyse großer Datenmengen, wird in Zukunft seine eigene Apache Hadoop Distribution für Googles Infrastructure-as-a-Service Google Compute Engine bereitstellen. MapR für die Google Compute Engine wird zunächst kostenlos als Private Beta für eine ausgewählte Anzahl von Benutzern zur Verfügung stehen. Wer Interesse an der Big Data Analyse hat, kann sich hier dafür bewerben.

Big Data: MapR integriert seine Hadoop Distribution mit der Google Compute Engine

Big Data Analyse auf der Google Compute Engine

Mit der Kombination von Googles neuen IaaS und MapRs Hadoop sind Nutzer damit in der Lage große Implementierungen von MapR Cluster on-Demand bereitzustellen und sich damit ein Cloud-basiertes System für die Analyse großer Datenmengen aufzubauen. Google hatte MapReduce ursprünglich für sein interes Such-Framework entwickelt.

Ein Meilenstein für die Big Data Analyse

Während der Google I/O demonstrierte MapR bereits, zu was seine Hadoop Implementierung in der Lage ist. Ein 1TB TeraSort Job wurde innerhalb von 1 Minute und 20 Sekunden verarbeitet. Dabei nutzte MapR einen Google Compute Engine Cluster bestehend aus 1.256 Nodes, 1.256 Platten und 5.024 Cores für gerade einmal 16 US-Dollar.

Zum Vergleich: Der aktuelle Weltrekord für den TeraSort liegt bei 1 Minute und 2 Sekunden. Dazu wurde ein physikalischer Cluster mit mehr als vier Mal so vielen Festplatten, doppelt so vielen Cores und weitere 200 Server benötigt. Kosten: Mehr als 5.000.000 US-Dollar.

Integration

Für die Integration von MapR mit der Google Compute Engine stehen mehrere Standard MapR Konfigurationen zur Verfügung. Nutzer können die Google Compute Engine je nach Bedarf nutzen und können, wenn nötig, mehr als 1.000 Node Cluster starten.

Kategorien
News

Big Data: Red Hat veröffentlicht seinen Storage Server 2.0

Auf der Suche nach einem on-Premise Cloud Storage oder Probleme mit Big Data? Dann hat RedHat da etwas neues im Portfolio, den Red Hat Storage Server 2.0. Die Open-Source-Storage-Lösung hilft beim Management unstrukturierter Daten und setzt nach Angaben des Open Source Giganten neue Standards im Enterprise- und Cloud-Storage-Markt. So soll die Lösung die Innovationen aus der Open-Source-Community zusammen mit der Leistungsfähigkeit standardbasierter x86-Server kombinieren und ermöglicht vielfältige Storage-Lösungen in den Rechenzentren vor Ort, in der Cloud und in hybriden Umgebungen.

Biiiig Data

Dank Social Media, Dokumenten, E-Mails, Bildern, Video- und Audio-Daten explodieren branchenweit die Mengen an unstrukturierten Daten. Das Wachstum der Daten übertrifft bei Weitem das der strukturierten Daten. Bis zum Jahr 2020 sollen laut Cisco 50 Milliarden Geräte mit dem Internet verbunden sein. Diese Prognose wird von einer IDC Studie unterstützt, nach der das digitale Ungetüm um das 50-Fache anwachsen wird – wobei wir hier von 90 Prozent an unstrukturierten Daten sprechen, die 2011 bereits 1,8 Zetabyte umfassten. Mit diesen Hintergrundinformationen stehen Unternehmen vor erheblichen Herausforderungen, die Daten zu verarbeiten und zu speichern. Proprietäre, monolithische Hardwarelösungen sind nicht dafür ausgerüstet und bieten den Unternehmen keine dafür geeigneten kostengünstigen Möglichkeiten.

RedHat hat dafür was im Portfolio

Die Storage-Lösung von Red Hat greift auf die Innovationen aus der Open-Source-Community zurück, um dieses riesige Wachstum zu bewältigen. Der Red Hat Storage Server 2.0 ermöglicht dazu eine Zusammenführung von File Storage und Object Storage. Dazu können Unternehmen sehr große Datenmengen in einem einzigen Storage-Pool gemeinsam speichern. Die Kombination von File und Object Storage soll die Verwaltung unterschiedlichster Daten vereinfachen und Unternehmen eine höhere Speicher- und Informationsflexibilität bieten, um das rasante Wachstum unstrukturierter Daten zu bewältigen und schneller sowie kostengünstiger auf die Daten zugreifen zu können.

Anhand des Red Hat Enterprise Linux soll der Red Hat Storage Server für mehr Wahlfreiheit sorgen und Unternehmen helfen leistungsfähige, skalierbare und verfügbare Speicherlösungen aufzubauen. Der Red Hat Storage Server adressiert das eigene Rechenzentrum, Private oder Public Cloud sowie hybride Umgebungen und eignet sich für das Speichern großer Datenmengen in den Bereichen High Performance Computing, arbeitsplatznahe Archivierung und die Ablage von Medieninhalten.

Die Funktionen des Red Hat Storage Server 2.0

  • Kompatibel mit mehr als 50 Dual-Socket-x86-Servern unterschiedlicher Hardwarehersteller
  • Unterstützt verschiedene Dateizugriffsprotokolle wie Common Internet File System (CIFS), Network File System (NFS), HTTP und OpenStack
  • Hohe Sicherheit ohne Kompromisse bei der Zugänglichkeit und Verfügbarkeit der Daten, einschließlich Georeplikation. Damit lassen sich selbst anspruchsvollste Speicherlösungen aufbauen.

Big Data und Hadoop

Die Software unterstützt Big Data Infrastrukturen und ist mit Apache Hadoop kompatibel. Dazu lässt sich der Red Hat Storage Server entweder zusammen mit dem Hadoop Distributed File System (HDFS) oder alleine nutzen. Er soll für einen schnellen Datenzugriff sorgen und öffnet Hadoop-Implementierungen für datei- oder objektbasierte-Applikationen. Die Managementkonsole des Red Hat Storage Server basiert auf dem oVirt-Projekt – einer Open-Source-Infrastruktur- und Virtualisierungsmanagementplattform – und bietet Administratoren von einem Punkt aus einen vollständigen Überblick über die Storage-Cluster.


Bildquelle: http://www.hostingtecnews.com