Kategorien
News

Big Data: Jaspersoft geht in die GoGrid Cloud

Business Intelligence Anbieter Jaspersoft und Cloud Anbieter GoGrid gehen in Zukunft gemeinsame Wege. Die Open Source BI Plattform von Jaspersoft wird dazu auf dem GoGrid Exchange Ökosystem zur Verfügung gestellt. Mit GoGrid Exchange können Kunden Cloud-basierte Software als Teil ihrer IT-Infrastruktur einsetzen. Unter Einsatz der GoGrid Server Image (GSI) Technologie sind Unternehmen und Entwickler jetzt in der Lage die BI-Reporting-Funktionalitäten von Jaspersoft nutzen.

Big Data treibt Reporting und Analysen

Reporting und Analysen werden in aufkommenden Zeiten von Big Data immer wichtiger für die Entwicklung und den Einsatz von datengetriebenen Anwendungen. Cloud Angebote ermöglichen es, solche Lösungen überall performant und skalierbar verfügbar zu machen, um Unternehmen bspw. einen einfachen Zugriff auf BI-Technologie mit einer eine robusten Reporting-Lösung zu ermöglichen.

Jaspersoft und GoGrid auf einem Blick

Kunden sollen von der Partnerschaft wie folgt profitieren:

  • Zugang zu webbasierter Business Analytics – über jeden Browser, auch von mobilen Endgeräten aus
  • Umfassende Unterstützung für Mandantenfähigkeit bei dem Einsatz komplexer Anwendungen
  • Datenintegration aus jeglichen Datenquellen: aus der Cloud oder von on-Premise, einschließlich Jaspersoft BI for Big Data oder GoGrid Big Data Solution.

Infrastructure-as-a-Service ist Grundlage für Big Data

Infrastructure-as-a-Service (IaaS) gehört zu einer zentralen Cloud Strategie, wenn Unternehmen BI-Anwendungen einsetzen, aber nicht direkt für den operativen Ablauf, Storage, Hardware und Netzwerkkomponenten verantwortlich sein wollen. Zudem stellt IaaS auf Grund der massiven Skalierbarkeit der Infrastruktur die ideale Grundlage für Anwendungen und Analysen rund um das Thema Big Data dar.


Bildquelle: http://www.newelements.de

Kategorien
News

Big Data Index: MongoDB führt dicht gefolgt von Cassandra

Im Rahmen des ersten branchenweiten Big Data Index, hat der Business Intelligence Anbieter Jaspersoft für das zweite Quartal 2012 die Nachfrage nach den beliebtesten Datenquellen für das Speichern, Analysieren und Darstellen von Big Data gemessen. Dabei basiert der Index auf auf der Gesamtanzahl der heruntergeladenen nativen Konnektoren von der Open Source Community Webseite Jasperforge.

Neben Hadoop Hive, Hadoop HBase, MongoDB, DataStax Cassandra, Riak, Red Hat Infinispan, Neo4J, Redis, CouchDB und VoltDB erfasst der Big Data Index eine breite Palette von NoSQL- und Big Data-Umgebungen. Aus den im Zeitraum von Januar 2011 bis Mai 2012 erfassten Daten wurden die Wachstumstrends für Big Data-Auswertungen ermittelt und eine Rangfolge der einzelnen Datenquellen erstellt.

Zu den wichtigsten Merkmalen des Big Data Index zählen:

  • Im Vergleich zu 2011 sind Big Data-Downloads derzeit dabei um 92 Prozent zu wachsen.
  • Mehr als 10.000 Big Data-Konnektoren wurden in 2012 heruntergeladen.
  • Mit 58 Prozent der Downloads konzentriert sich seit Januar 2011 der Großteil der
    Nachfrage auf Datenspeicher. Mit jeweils 20 Prozent und 19 Prozent der Nachfrage
    belegen Key-Value-Stores und Big Table Clones die Plätze zwei und drei.
  • In 2012 vereinen Datenspeicher mehr als 70 Prozent der Nachfrage auf sich. MongoDB
    von 10gen bleibt weiterhin Spitzenreiter in dieser Gruppe.
  • Allein im Mai 2012 verzeichnet Cassandra von DataStax ein Nachfragezuwachs von
    knapp 100 Prozent.
  • Die Downloadrate von Hadoop Hive ist konstant, d.h. eine stabile Nachfrage von 2011
    bis 2012.

Seitdem Analysten damit beginnen, Log-Dateien, Social Media, Gaming Websites usw. auszuwerten, zeigt sich deutlich, wie wertvoll Big Data in den kommenden Jahren werden wird.

Kategorien
News

Kommt aus euren Schubladen! Neue User Group CloudHafen.org für Cloud, Big Data und Technologien in Hamburg formiert.

User Groups sind eine tolle Gelegenheit coole Leute zu treffen und sich untereinander auf Augenhöhe zu einem bestimmten Themengebiet auszutauschen. Deutschland zählt eine Vielzahl an unterschiedlichen User Groups zu verschiedenen Themen, die sich mehr oder weniger regelmäßig treffen, um sich über ihre speziellen Bereich auszutauschen. Und genau hier liegt das Problem. Die meisten User Groups agieren in ihrem Mikrokosmos. Ich habe es sogar schon persönlich erlebt, dass Leute die sonst zu einer User Group gehören, an einem Treffen nicht teilgenommen haben, da außer der Reihe mal über eine Integrationsmöglichkeit einer Technologie eines bei ihnen nicht so beliebten Anbieters gesprochen wurde. Interdisziplinarität: Fehlanzeige! Verrückt oder?

Kommt aus euren Schubladen! Neue User Group CloudHafen.org für Cloud, Big Data und Technologien in Hamburg formiert.

Eine kürzlich neu formierte User Group in Hamburg möchte mit diesem beliebten Schubladendenken aufhören. Der CloudHafen ist ein Zusammenschluss bestehender Hamburger User Groups, darunter die Amazon Web Services User Group, die Windows Azure User Group, der Big Data Roundtable sowie die Google Technology User Group. Gemeinsam verfolgt die „Uber Group“ die Themen Cloud Computing, Big Data, Future Trends, Web, Technologien und die Forschung.

Um den Bereich Forschung voranzutreiben, wurde bereits ein erstes Projekt initiiert. Dabei geht es um das Thema „noSQL in der Cloud“, genauer um MongoDB und Amazon DynamoDB. Der Hintergrund des Projekts ist ein Vergleich, um u.a. die Performance für unterschiedliche Use Cases zu bestimmen und etwaige Einsatzmöglichkeiten aufzuzeigen.

Alle weiteren Informationen zu künftigen Treffen der User Group gibt es unter http://cloudhafen.org.

Kategorien
News

HP steigt in den Big Data Markt ein

Im Rahmen seiner HP Discover in Las Vegas stellt HP neue Lösungen zur Information Optimization vor. Diese basieren auf den Technologien Autonomy, Vertica und der HP Converged Infrastructure und umfassen Services von HP Information Management & Analytics. Unternehmen sollen damit ihre stetig wachsenden Datenmengen verwalten, verstehen und nutzbar machen. Die Lösungen beziehen strukturierte, unstrukturierte und semi-strukturierte Daten ein, egal ob sie aus betrieblichen Abläufen, Anwendungen oder von Sensoren stammen. So können beispielsweise auch Statements auf Internet-Plattformen wie Twitter und YouTube, oder die von Sensoren erfassten Pfade, die Kunden in Geschäften zurücklegen, für Marktforschungszwecke ausgewertet werden.

So soll bspw. das HP AppSystem for Apache Hadoop es ermöglichen, Hadoop-Umgebungen schneller einzurichten und ihre Leistungsfähigkeit bei der Speicherung, Verwaltung und Verarbeitung der riesigen Datenmengen zu steigern. Mit Vertica 6 sollen Anwender in die Lage versetzt werden auf sämtliche Informationen zuzugreifen, diese zu analysieren und zu verwalten – unabhängig von ihrer Art, dem Speicherort oder dem verwendeten Zugriff. Die Integration der Datenanalyse-Plattform Autonomy Intelligent Operating Layer (IDOL) 10 in Hadoop-Nodes soll zudem das Verständnis der Inhalte durch Kategorisierungen, Clustering und Verknüpfungen steigern.

Big Data in Hadoop-Umgebungen besser nutzen

Mit HP AppSystem for Hadoop bietet HP eine Appliance für Hadoop-Umgebungen. Diese ist voraussichtlich ab dem vierten Quartal 2012 verfügbar und vereint die HP Converged Infrastructure, ein übergreifendes Management mit der Software HP Insight Cluster Manager sowie eine weitreichende Integration mit Vertica 6. Unternehmen nutzen Hadoop zunehmend für die Speicherung und Verwaltung von Petabytes an Informationen. Mit der Appliance von HP können sie Hadoop-Infrastrukturen zunächst in Testumgebungen aufbauen und später einfach in den Produktivbetrieb übernehmen. Dies soll die Implementierung von Hadoop vereinfachen und beschleunigen. Als erster Anbieter bietet HP zudem Referenzarchitekturen, Werkzeuge und Whitepaper für die wichtigsten Hadoop-Lösungen Cloudera, Hotronworks und MapR. Darüber hinaus erwartet das Unternehmen, das mit dem HP AppSystem die Qualität und Geschwindigkeit von Analyseprozessen in Hadoop durch die Integration von Vertica 6 verbessert wird. So war im Rahmen des standardisierten Tests Apache Hadoop Terasort Benchmark die HP-Lösung in der Lage, 10 Terabyte in rund 1,5 Stunden zu verarbeiten. Sie war damit 3,8 respektive 2,6 Mal schneller als vergleichbare Lösungen von Oracle und SGI. Durch Technologien zur 3D-Überwachung erkennt die Appliance Engpässe in den Abläufen und identifiziert das ursächliche Problem in Echtzeit. Dadurch sollen Administratoren Fehler schneller beheben und die Leistungsfähigkeit des Systems sofort wiederherstellen.

Weiterhin hat HP neue Services entwickelt, um Unternehmen auf den Umgang mit Big Data vorzubereiten: den HP Big Data Strategy Workshop und den HP Roadmap Service for Hadoop. Im HP Big Data Strategy Workshop vermittelt HP Unternehmen ein umfassendes Verständnis der Herausforderungen im Umgang mit Big Data und der bestehenden Lösungen. So können Unternehmen Risiken besser einschätzen. Zudem haben sie eine bessere Grundlage für die Entscheidung, wie sie aus der bestehenden Unternehmens-IT und den Geschäftszielen kritische Erfolgskriterien für die Einführung von Big Data ableiten und welche Methoden sie dabei verwenden können. Der HP Roadmap Service for Hadoop wiederum liefert das Wissen, um eine Hadoop-Umgebung zu planen und zu dimensionieren. Mithilfe von Best Practices, Erfahrungen und organisatorischen Überlegungen wird eine Roadmap erstellt, die eine erfolgreiche Planung, Implementierung und Unterstützung von Hadoop ermöglicht. Darüber hinaus unterstützen die HP Always On Support Services die Appliance HP AppSystem for Apache Hadoop sowie die HP-Komponenten der Referenzarchitekturen.

Vertica 6: Alle Informationen verstehen – an jedem Ort und wie es gerade erforderlich ist

Die Version 6 der HP Vertica Analytics Platform versetzt Unternehmen in die Lage, auf jede Information zuzugreifen, sie zu analysieren und zu verwalten. Die Daten können dort gespeichert werden, wo es aus betrieblicher Sicht am sinnvollsten ist, und dennoch in die Vertica-Plattform integriert werden. Auch der Zugriff kann je nach Bedarf über verschiedene Schnittstellen wie Standard Structured Query Language (SQL), Business Intelligence Anwendungen oder Analytics-Programmiersprachen wie R erfolgen. Die Architektur Vertica FlexStore bietet einen flexiblen Rahmen für Big Data Analytics. Dazu gehört die Integration oder Verbindung mit Autonomy und Hadoop-Technologie oder jeder anderen Quelle an strukturierten, unstrukturierten oder semi-strukturierten Daten. Das Framework für Distributed Computing wird erweitert um eine native Funktion zur parallelen Ausführung von R-Anwendungen in Vertica. Die neue Version unterstützt Cloud- und SaaS-Implementierungen sowie gemischte Arbeitsumgebungen. Damit ist Vertica die derzeit umfassendste Plattform für Big Data Analytics.

Autonomy IDOL 10 macht Big Data cleverer

Mit Autonomy IDOL verfügen Unternehmen über eine Analytics-Plattform, die bislang isolierte Datensilos zusammenführt. Über 400 Unternehmen nutzen Autonomy IDOL als OEM-Lösung in ihren Produkten. Nun erweitert Autonomy die Einsatzmöglichkeiten durch die Einbindung in Hadoop-Umgebungen. Das Hadoop-File-System wird damit um über 500 Funktionen erweitert, um die Daten besser zu verstehen, zu kategorisieren, zu clustern und zu verknüpfen. Darüber hinaus unterstützt Autonomy IDOL 10 mehr als 1.000 Dateitypen und über 400 Connectors, um Informationen aus externen Quellen einzubinden. Ermöglicht wird dies durch die Integration von Autonomy IDOL 10 in HP AppSystem for Hadoop. So kann in jedem Node von HP AppSystem eine IDOL-Engine eingebunden werden.

Effektivität von Marketing-Investitionen mit Autonomy steigern

Mit Autonomy Optimost Clickstream Analytics erweitert HP seine Digital-Marketing-Plattform Autonomy Optimost. Die Lösung nutzt die Vertica Analytics Platform und Autonomy IDOL für die Erstellung von granularen Clickstream-Daten. So können die Marketing-Verantwortlichen die Informationen nach Bedarf aggregieren, kombinieren und analysieren. Sie erhalten eine einheitliche und konsistente Sicht auf Kundenbesuche, Kaufentscheidungen und Kundenbindung durch E-Commerce. Sie können diese Daten auch mit unstrukturierten Daten, dem Wissen von Personen und anderen externen Datenquellen kombinieren, um umfassende und verwertbare Erkenntnisse über das Interesse, Interaktionen und das Kaufverhalten der Kunden zu gewinnen.

Die Social Intelligence Services von HP ergänzen Autonomy Optimost um eine 360-Grad-Sicht auf Kundendaten im Netz oder im Unternehmen. Die Berater von HP haben auf der Grundlage von unterschiedlichen Anwendungsszenarien ein ganzheitliches Social Intelligence Framework entwickelt. Das Framework unterstützt Unternehmen dabei, die für sie relevanten digitalen Prozesse zu identifizieren und zu bewerten. Um die Umsetzung zu vereinfachen, zeigt HP in der HP Social Intelligence Reference Architecture auf, welche Komponenten benötigt werden und wie die Autonomy-Lösungen integriert werden müssen.

Services rund um Information Management & Analytics

Die HP Information Management & Analytics (IM&A) Services unterstützen Unternehmen bei Business Intelligence und Information Management, insbesondere in extrem großen und komplexen Informationsinfrastrukturen. HP bietet ein umfassendes Lösungs- und Service-Portfolio für Produkte von HP und seinen Partnern. Dazu gehören vorbereitende Beratungsleistungen für die Planung von Business-Intelligence- und Information-Management-Projekten, bei denen die Sicht auf Unternehmensinformationen sowie Geschäftsstrategien zusammengeführt werden. Hierbei werden beispielsweise funktionale Anforderungen und der Wert für geschäftliche Abläufe ermittelt, die Organisationsstruktur angepasst, Richtlinien für Information Governance vorbereitet, ein Business-Intelligence-Kompetenzzentrum geschaffen sowie geeignete Werkzeuge und Plattformen ausgewählt. Die IM&A-Services helfen Unternehmen dabei, Prozesse, Organisationen und technische Architekturen zu entwickeln, um Informations-Silos aufzubrechen und eine umfassende Umgebung zu schaffen. Auf dieser Grundlage werden Informationen zentral erfasst, verwaltet und bereitgestellt. Dies steigert die Agilität über sämtliche Initiativen hinweg und ermöglicht eine einheitliche, konsistente Sicht auf das Geschäft sowohl intern wie extern.

Kategorien
News

BigQuery: Big Data Analyse mit Google

Google BigQuery, ein Cloud basierter Service für die Analyse sehr großer Datenmengen, kann nach einer geschlossenen Testphase mittlerweile von allen genutzt werden.

BigQuery ist ein Online Analytical Processing (OLAP) System, um Datensätze mit Milliarden von Zeilen und Terabytes an Daten zu verarbeiten und zielt auf Unternehmen und Entwickler in Unternehmen ab, die mit riesigen Datenmengen (Big Data) balancieren müssen.

BigQuery kann auf unterschiedliche Arten genutzt werden. Entweder mit einer Web-Oberfläche, einer REST API oder via Kommandozeile. Die Daten können zur Verarbeitung per CSV Format auf die Google Server hochgeladen werden.

Die Preise orientieren sich an der Menge der gespeicherten Daten und der Anzahl der Anfragen. Für den Speicherplatz berechnet Google 0,12 Dollar pro GB pro Monat bis zu einer maximalen Speichermenge von 2TB. Für die Anfragen werden 0,035 Dollar pro verarbeitetes GB berechnet. Die Limits liegen hier bei 1000 Anfragen pro Tag sowie 20TB zu verarbeitende Daten pro Tag. Für die ersten 100GB an verarbeitenden Daten pro Monat entstehen keine Kosten. Weitere Informationen stehen hier.

BigQuery ist nicht für die OLTP (Online Transaction Processing) Verarbeitung geeignet. Genauso wenig können Änderungen an den auf BigQuery gespeicherten Daten vorgenommen werden. Unternehmen, die eher eine klassische relationale Datenbank für OLTP benötigen, empfiehlt Google seine Cloud basierte Datenbank Google Cloud SQL, welche die volle SQL-Syntax unterstützt.

Mit seiner Portfolio Erweiterung um BigQuery präsentiert Google einen weiteren Service in dem mittlerweile stark umkämpften Markt von Cloud basierten Produkten für Unternehmen, in dem sich bereits namhafte Unternehmen wie Amazon, Oracle, IBM, Microsoft und viele weitere tummeln.

Kategorien
News

SAP – Der Cloud-Antrieb aus Deutschland?!

Ich war gestern zur SAPPHIRENOW @ Walldorf, einem deutschen Parallel Event von SAP zur großen SAPPHIRENOW in Orlando, eingeladen. SAP kündigte hier seine zukünftige Cloud Strategie an und stellte in diesem Zusammenhang mehrere neue Services vor. Was ich jedoch viel spannender finde ist, ob SAP deutsche Unternehmen dazu bewegen kann, endlich die Skepsis gegenüber der Cloud abzulegen. Neben der Telekom bzw. T-Systems, die allerdings überwiegend im Infrastructure-as-a-Services Bereich tätig sind, sehe ich kein Unternehmen, dass die Marktmacht und den Einfluss besitzt, um die deutschen Unternehmen mitzureißen und damit für den Durchbruch der Cloud in Deutschland zu sorgen.

Den Cloud Gedanken hat sich SAP extern durch die Akquisiton von SuccessFactors bzw. dessen Gründer und CEO Lars Dalgaard einverleibt. Der Däne wurde nach der Übernahme als Verantwortlicher für den SAP Cloud Bereich zur treibenden Kraft hinter den SAP Cloud Services. Und diesen Job macht er augenscheinlich gut. In seiner Key Note, während der er die neue Cloud Strategie von SAP vorstellte, präsentierte Dalgaard sich als explosiver Unternehmer, der seine Startup Gene bei weitem nicht abgelegt hat. Im Gegenteil, mit seiner Motivation bringt er frischen Wind in den etablierten Konzern aus Walldorf. Es bleibt für Dalgaard und vor allem für SAP zu hoffen, dass er seine Cloud Vision verwirklichen darf und das er mit seinem Startup Charakter auf offene Türen hoffen darf. Denn SAP ist weit weg von dem, was man logischerweise als ein Startup bezeichnen kann.

Die SAP Cloud Strategie

Das SAP Cloud Portfolio konzentriert sich auf vier Bereiche, die sogenannten Line-of-Business-Lösungen, welche die Verwaltung von Mitarbeiter-, Finanz-, Kunden- und Lieferantenprozesse fokussieren und sich nahtlos in Enterprise-Resource-Planning Software einbinden lassen.

Insbesondere der bereits oben genannte Lars Dalgaard hat einen starken Einfluss auf die Cloud Neuausrichtung von SAP und hat sich und seinen Mitarbeitern das Ziel gesetzt, kreative und innovative Lösungen auf den Markt zu bringen, die mit ihrer Benutzeroberfläche begeistern sollen. Dabei will SAP die On-Premise Lösungen nicht sterben lassen, sondern die verfügbaren Inhalte in den Cloud Lösungen mit der On-Premise Unternehmenssoftware verzahnen, was SAP Co-CEO Jim Hagemann Snabe während der Pressekonferenz noch einmal herausstellte. In Zukunft wird zwar alles in der Cloud landen, jedoch wird hier zwischen der Private Cloud und den Cloud Lösungen die von SAP gehostet werden unterschieden.

Weiterhin wird SAP seine mandantenfähigen Cloud Services zerlegen und als einzeln verfügbare Lösungen anbieten, um den Kunden es zu ermöglichen, je nach den eigenen Anforderungen und nach einem eigenen Zeitplan die Anwendungen einzuführen. Trotz dieser Zerlegung wird SAP mit SAP Business ByDesign und SAP Business One OnDemand weiterhin vollständig integrierte Suites für die Cloud anbieten.

SAP NetWeaver Cloud: Platform-as-a-Service von SAP

Eine weitere Neuigkeit in der SAP Cloud Strategie ist ein eigenes Platform-as-a-Service-Angebot, das als SAP NetWeaver Cloud angekündigt wurde. Basierend auf SAP HANA stellt der Services Entwicklern eine Umgebung mit Anwendungsentwicklungs- und Laufzeitfunktionalitäten zur Verfügung. Zudem wurde eine Partnerschaft mit weiteren Drittanbietern von PaaS-Angeboten vorgestellt, darunter VMware Cloud Foundry. Das Ziel soll es sein, Kunden die Möglichkeit zu bieten, externe PaaS Lösungen zusammen mit den Plattform-Services von SAP NetWeaver Cloud zu nutzen, um damit ihre SAP-Lösungen zu erweitern.

SAP öffnet sich nach Außen

Um seinen Kunden die größtmögliche Freiheiten beim Umgang mit den Cloud Produkten zu bieten, öffnet sich SAP nach Außen. Mit einem Integration-as-a-Service Ansatz soll damit die Verknüpfung hybrider-IT-Landschaften, also die Kombination von Cloud und On-Premise Implementierungen, unterstützt werden. Neben Prozessintegration beinhaltet das Integrationsangebot weiterhin Daten-Services, um lose Cloud-Lösungen mit anderen SAP-Anwendungen zu verbinden, unabhängig davon, ob diese sich in der Cloud oder On-Premise befinden. Dazu plant SAP, eigene Cloud-basierte Integrationstechnologien anzubieten und hat strategische Kooperationen mit CloudFoundry, Dell Boomi, IBM Cast Iron und Mulesoft bekanntgegeben.

SAP konzentriert sich auf Cloud, Mobile, Social und Big Data

Neben der Cloud stellt sich SAP ebenfalls in den Bereichen Mobile, Social und Big Data auf. Allerdings nimmt die Cloud hier eine zentrale Rolle ein, da die Kommunikation, Kollaboration und der Zugriff auf Daten über sie effektiver abgewickelt werden kann. Mit integrierte Social-Collaboration Tools will SAP seinen Kunden zudem helfen, ihre Geschäftsziele schneller im Team zu erreichen, unabhängig davon ob es um die Zusammenarbeit mit global verteilten Kollegen oder mit dem Büro nebenan geht. Eine zentrale Komponente nimmt SAP HANA ein. Über die Plattform, die gleichzeitig als SAPs Technologie für die Verwaltung, Analyse und Bereitstellung großer Datenmengen (Big Data) gilt, erhalten Nutzer die Informationen, die sie benötigen, um schnelle und angemessene Entscheidungen zu treffen.

SAP: Treiber der Cloud in Deutschland?

Der größte deutsche Softwarekonzern hat die Cloud nun auch für sich entdeckt und sich das Ziel gesteckt, bis 2015 der führende Cloud-Anbieter weltweit zu werden. Zudem soll dieser Geschäftsbereich einen Umsatz von zwei Milliarden Euro erzielen.

Die spannende Frage bleibt jedoch, lassen sich auch die der Cloud eher skeptisch gegenüber stehenden deutschen Unternehmen, insbesondere die Mittelständler, von SAP in die Cloud mitreißen? Gute Gründe würde es geben. SAP verfügt in Deutschland über einen hohen Marktanteil und eine breite Kundenbasis. Insbesondere beim viel diskutierten Thema Datenschutz können die Walldorfer auftrumpfen. Die Cloud Lösungen SAP Business ByDesign und SAP Business One OnDemand werden in Rechenzentren in Deutschland, genauer St. Leon-Rot, betrieben, SuccessFactors in Amsterdam, also ebenfalls im europäischen Rechtsraum. SAP nennt seine Cloud auch „Controlled Cloud“, da nach eigenen Angaben, nicht einmal die eigenen Mitarbeiter Zugriff auf die Daten der Kunden hätten.

Ein weiterer Faktor kann das Angebot von einzeln zu beziehenden Cloud Services sein, die dennoch vollständig ineinander integriert werden können. Das Anbieten von einzelnen Services, wird auch „Building Blocks“ genannt und zeichnet eine Vielzahl von Cloud Services auf dem Markt aus. Ob SAP Bestandskunden dieses dankbar annehmen werden, wird sich zeigen, allerdings würde der Wechsel in dem ein oder anderen Fall sicherlich Sinn machen, denn warum soll man für Dinge bezahlen, die eigentlich nicht benötigt werden. Zudem erhalten damit auch noch nicht SAP-Kunden die Chance, einzelne Services für ihre Anforderungen zu selektieren, ohne ein umfangreiches Softwarepaket zu kaufen.


Bildquelle: http://www.wiwo.de

Kategorien
News

Die US-Army marschiert in die Cloud – Big Data Analytics in Krisenregion

Um die Analyse ihrer Geheimdienst-Informationen in Afghanistan zu verbessern, setzt die US-Army mit einigen Partnerfirmen aus Wisconsin, auf Services aus der Cloud. Dazu wurde mit dem US-amerikanischen Rüstungs- und Technologiekonzern Lockheed Martin Corp. ein Deal über 19,5 Mio. US-Dollar abgeschlossen. Die Cloud wird dazu genutzt, um die dabei anfallenden Daten zu verarbeiten, zu verwalten und zu speichern.

IEA Inc. und Silicon Graphics werden das Projekt mit 4 Cloud Nodes unterstützen, die als Verbindungspunkte dienen. Einer dieser Nodes wird in Afghanistan eingesetzt und den Kommandeuren die Möglichkeit geben, Echtzeit-Analysen über sämtliche Geheimdienst-Berichte aus aller Welt vorzunehmen. Die Army erhofft sich dadurch mehr Leben retten zu können, da die Datenbasis der Geheimdienst-Berichte bis auf das Jahr 2003 zurückzuführen ist und den Streitkräften nun über das Cloud Computing bereitgestellt wird.

Die Entscheidung für den Einsatz des Cloud Computing in Afghanistan wurde bereits in einem Memo aus dem Juli 2010 diskutiert, in dem kritisiert wurde, wie die Armee mit solchen wichtigen Informationen umgeht. Ein Prototyp des Cloud Nodes wurde im April 2011 in der Bagram Air Base gestartet, um zu untersuchen wie die neue Technologie den Analysten dabei hilft, besser an die Informationen zu gelangen. Für den Produktiveinsatz wird ein System entwickelt, dass über eine bessere Konnektivität, schnellere Hardware, mehr Speicher und mehr Rechenleistung verfügt.

Jeder Node arbeitet mit 228 Servern mit mindestens 1.800 CPU-Kernen, 14 Terabyte RAM und mindestens 1 Petrabyte bzw. 1.000 Terabyte Festplattenspeicher. Jeder Node ermöglicht die sofortige Analyse von Geheimdienst-Nachrichten und kann mehr Daten speichern als die Bibliothek des Kongresses.


Bildquelle: http://luckybogey.wordpress.com

Kategorien
News

Cloudera und IBM kooperieren im Big Data Bereich

IBM und Hadoop Pionier Cloudera werden im zukunftsträchtigen Big Data Markt strategisch kooperieren. Für IBM handelt es sich eher um eine weitere Partnerschaft. Cloudera hingegen könnte das weiter beflügeln. Werden die Hadoop Profis damit sogar zum Top-Influencer für Big Data?

Cloudera ist die wichtigste Kraft hinter dem Apache Hadoop Projekt und verfügt mit seiner “Cloudera Distribution including Apache Hadoop” (CDH) über die am meisten eingesetzte Hadoop Distribution weltweit.

Das Interessante an dieser Kooperation ist, das IBM bereits über eine eigene Hadoop Distribution verfügt. Warum also diese zusätzliche Partnerschaft. Der wahrscheinlichste Grund ist die aktuelle Marktsituation, in der Clouderas CDH dominiert. Der eigentliche Gewinner dieser Partnerschaft ist jedoch Cloudera, für die sich mit einem so starken Partner wie IBM viele weitere Türen öffnen werden und der Kundenstamm demnächst rasant ansteigen wird.


Bildquelle: Wired

Kategorien
News

Fujitsu steigt in den Markt für Big Data ein

Mit einer Reihe von Tools wird Fujitsu in den attraktiven Markt für Big Data Lösungen einsteigen. Das hat das Unternehmen zu Beginn dieser Woche mitgeteilt. Die Japaner wollen im Laufe des kommenden Jahres zudem dedizierte Big Data Server auf den Markt bringen und spezielle Hardware für die neuen Softwarepakete entwickeln.

Mit einer neuen Serversoftware hat Fujitsu eine Lösung angekündigt, die für den Umgang mit großen Datenmengen und unterschiedlichen Dateisystemen entwickelt wurde. Zudem soll diese in der Lage sein, schnell große Datenmengen zu scannen und diese ebenfalls sehr schnell aus Datenbanken lesen und darin speichern kann. Ende März wird darüber hinaus Hardware auf dem Markt erhältlich sein, die speziell auf die Software abgestimmt ist.

Fujitsu ist zwar ein Neuling im Big Data Markt, erwartet in diesem Bereich aber einen Jahresumsatz von 100 Milliarden ¥, umgerechnet 1,23 Milliarden US-Dollar.

Die Big Data Suite beinhaltet mit dem „Interstage Big Data Parallel Processing Server“ eine Lösung, bei der es sich um eine Erweiterung der Apache Hadoop Plattform handelt und die für den Aufbau von verteilten Dateisystemen genutzt wird. Nach Angaben von Fujitsu sollen die Verbesserungen die Software fünfmal schneller machen als den originalen Hadoop. Die Lösung wird zum Ende diesen Monats verfügbar sein und pro Prozessor abgerechnet. Die Kosten dafür starten bei 600.000 ¥.

Zudem wird Fujitsu demnächst seinen „Complex Event Processing Server“ veröffentlichen, der in der Lage ist, schnell große Datenmengen mit einem Satz von Masterdaten zu vergleichen. Der Server kann bspw. für die Analyse großer Datenmengen eingesetzt werden. Die Abrechnung erfolgt hier ebenfalls pro Prozessor und startet bei 6.000.000 ¥.


Bildquelle: http://www.bigdatabytes.com

Kategorien
News

T-Systems wird Gold Sponsor des CloudCamp Frankfurt 2012 und unterstreicht damit erneut sein Engagement in der Cloud

Das CloudCamp Frankfurt 2012 freut sich über seinen ersten Sponsor. Die Deutsche Telekom Tochter T-Systems wird die Un-Konferenz mit einem nicht unerheblichen Betrag finanziell unterstützen und somit die Durchführung am 24. Mai 2012 absichern.

T-Systems wird Gold Sponsor des CloudCamp Frankfurt 2012 und unterstreicht damit erneut sein Engagement in der Cloud

Im Vergleich zu anderen kommerziellen Veranstaltungen verfolgt das CloudCamp keine finanziellen Interessen. Es geht einzig und allein darum, das Thema Cloud Computing voranzutreiben und die Community zu fördern. Weiterhin steht auch das Generieren von sogenannten „Leads“ (Kundenkontakte) nicht im Vordergrund. „Das hat T-Systems eindrucksvoll verstanden. Beim CloudCamp geht es mehr als nur um das Geld verdienen und wir freuen uns über die große Unterstützung, um das CloudCamp damit durchführen zu können.“, sagt Roland Judas einer der beiden Organisatoren des CloudCamp Frankfurt 2012. Das Gold Sponsorship ist die größte Beteiligung, mit der ein Unternehmen das CloudCamp Frankfurt unterstützen kann.

T-Systems ist in der Cloud breit aufgestellt

Das Engagement der Bonner am CloudCamp Frankfurt 2012 unterstreicht erneut, dass das Unternehmen die Bedeutung des Cloud Computing verstanden hat. Mit einem sehr umfangreichen Portfolio ist T-Systems im stetig wachsenden Cloud Markt breit aufgestellt. Neben Beratungsdienstleistungen bietet das Unternehmen zudem eine Virtual Private Cloud, Lösungen für die Kollaboration in der Cloud sowie Unternehmensanwendung on Demand und die Unterstützung von mobilen Cloud Lösungen.

Alle Informationen zum CloudCamp Frankfurt 2012

Das Leitthema des diesjährigen CloudCamp Frankfurt lautet “Cloud Computing zwischen Social Business, Mobile Enterprise und Big Data” und beschreibt einen der wichtigsten Trends für 2012.

Es haben sich bereits viele national und international bekannte und anerkannte Experten angekündigt. Darunter:

  • Dr. Stefan Ried, Principal Analyst, Forrester Inc.
  • Matthias Rechenburg, CEO, openQRM Enterprise
  • Dr. Michael Pauly, Consultant, T-Systems International GmbH
  • Chris Boos, CEO, arago AG
  • Patric Boscolo, Developer Evangelist, Microsoft
  • Sascha Dittmann, Developer & Solution Architect, Ernst & Young GmbH
  • Björn Böttcher, CEO, GoingCloud UG

Das CloudCamp findet am Donnerstag, 24.05.2012 in der Brotfabrik Hausen, Bachmannstr. 2-4, D-60488 Frankfurt am Main statt. Einlass ist ab 17:00 Uhr.

Alle CloudCamp Interessierten sollten dem offiziellen Twitter Account @CloudCampFRA oder Fan auf Facebook werden bzw. den Twitter Accounts der Organisatoren @RolandJudas und @ReneBuest folgen, um über alle Neuigkeiten direkt informiert zu sein.

Die Anmeldung für das CloudCamp Frankfurt 2012 erfolgt über die Webseite http://cloudcamp.org/frankfurt bzw. über http://cloudcamp-frankfurt.eventbrite.com