Kategorien
Kommentar

Disruptive Welt der IT: Neue Technologien verändern ständig den Status quo der Unternehmen #tsy13

Zero Distance klingt im ersten Moment wie eine dieser neumodischen Marketingphrasen, mit denen uns Anbieter tagtäglich erzählen, wie sie die Welt verbessern wollen. Nun, es handelt sich dabei auch um genau eine von diesen Marketingphrasen. Aber eine, in der viel Wahrheit steckt. Betrachtet man die Use Cases, die auf dem T-Systems Symposium 2013 gezeigt wurden und viele weitere weltweit, dann wird deutlich, was für Potentiale uns die moderne Informationstechnologie ermöglicht. Die Cloud bzw. Cloud Computing sind dabei nur ein Mittel zum Zweck und dienen als Enabler für neue Geschäftsmodelle und helfen bei der Veränderung unserer Welt.

Wer nicht handelt der stirbt aus!

Fakt ist, dass traditionelle Unternehmen dem Untergang geweiht sind, wenn sie sich nicht verändern. An alten Werten festzuhalten ist nicht immer die beste Strategie – insbesondere im Zeitalter des Digital Business. Startups tauchen wie aus dem nichts auf und überrennen Marktführer in ihrem Bereich, die gar keine Chance haben so schnell zu reagieren. Es ist der Vorteil der grünen Wiese, den die Startups ausnutzen und sich nicht mit lästigen Altlasten in der IT und anderweitigen Bereichen auseinandersetzen müssen. Aber es gibt auch die Unternehmen, die schon eine geraume Zeit erfolgreich auf dem Markt verweilen und die Zeichen der Zeit erkannt haben. Neue Technologien und Konzepte haben immer irgendeinen Einfluss auf das Business. Einige Unternehmen haben es verstanden sich neu zu erfinden und Cloud Computing, Big Data, Mobile und Collaboration gewinnbringend für die eigene Zwecke zu nutzen, um sich dadurch zu verändern. Andere hingegen können oder wollen es nicht verstehen und bleiben lieber ihrem Status quo treu.

Hey Bauer, wo bleibt der Bulle?

Es ist immer wieder erstaunlich in welchen Bereichen der Industrie die Informationstechnologie einen massiven Einfluss nimmt und dabei für mehr Effizienz sorgt. Nehmen wir das Beispiel der Landwirtschaft. Konkreter das Paarungsverhalten der Kühe. Das ist wichtig, denn eine Kuh gibt nur dann Milch, wenn sie gekalbt hat. Es ist für den Bauer daher von besonderem Interesse, das hier alles reibungslos abläuft.

Die Lösung: Ist eine Kuh brünstig, macht sie währenddessen typische Kopfbewegungen. Daher bekommt jede Kuh ein Halsband inkl. einem Mobilfunkchip. Der Bauer erhält darüber die Information, dass er den Bullen startklar machen kann. Auch beim Kalben hilft die Lösung. Dazu überträgt das Tool die Werte eines Thermometers mit integrierter SIM Karte. Etwa 48 Stunden vor der Geburt verändert sich die Körpertemperatur der Kuh. Der Bauer erhält zwei Stunden vor der Geburt eine SMS, um rechtzeitig vor Ort zu sein.

IT-Abteilungen müssen proaktiver werden

IT-Abteilungen sind und waren schon immer die Prügelknaben im Unternehmen. Zu recht? Nun, einige ja, andere wiederum nicht. Aber sind es die IT-Abteilungen alleine, die für die Transformation des Business zuständig sind? Jein. In erster Linie ist die Geschäftsführung für die Ausrichtung der Unternehmensstrategie verantwortlich. Sie muss sagen, welchen Weg das Unternehmen gehen soll, schließlich hat sie die Visionen. Das große Aber besteht allerdings in der Art wie die IT-Abteilung sich in diesem Kontext verhält. Ist sie einfach nur die unterstützende Kraft, die je nach Bedarf auf die Wünsche der Geschäftsführung und der Kollegen reagiert oder agiert sie lieber proaktiv?

Angriff ist die beste Verteidigung. IT-Abteilungen sollten heute am technischen und innovativen Puls der Zeit sitzen und über die Veränderungen im Markt informiert sein. Über eine ständige interne oder externe Markt- und Trendforschung müssen sie wissen, was auf sie und ggf. auf ihr Unternehmen zukommt und darauf schnellstmöglich und proaktiv reagieren, um nicht zu viel Zeit zu verlieren und im besten Fall einen Wettbewerbsvorteil zu schaffen. Je nach Trend müssen sie nicht auf jeden Zug aufspringen, aber sie sollten sich damit zumindest auseinandersetzen und verstanden haben, welcher Einfluss dadurch entsteht und ob sie oder ihr Unternehmen davon betroffen sind. Wenn sie Potential für neue Geschäftsmodelle erkennen, sollten sie diese in die Geschäftsführung tragen, die auch verstehen muss, dass IT heute Enabler und nicht nur Instandhalter ist. Das bedeutet, dass die IT-Abteilung im Unternehmen heute einen viel größeren Stellenwert hat als noch vor zehn Jahren.

Hierzu muss die Geschäftsführung der IT-Abteilung jedoch unter die Arme greifen und die IT-Abteilung von ihren Routineaufgaben befreien. In etwa 80 Prozent der IT-Ausgaben werden heute in den IT-Betrieb investiert und das nur, um die Dinge am Laufen zu erhalten. Es handelt sich also um Investitionen in den Status quo, die zu keinen Innovationen führen. Hingegen werden lediglich nur 20 Prozent der Ausgaben in Verbesserungen oder Weiterentwicklungen investiert. Dieses Verhältnis muss sich drehen, und die Geschäftsführung zusammen mit dem CIO haben die Aufgabe, diesen Wandel vorzunehmen, damit ein Unternehmen auch in Zukunft innovativ und wettbewerbsfähig bleibt.

Hören Sie auf den Status quo zu umarmen.

Kategorien
Comment

Big data and cloud computing not only help Obama

In my guest post on the automation experts blog two weeks ago, I discussed the topic of big bata and how companies should learn from the U.S. election of Barack Obama in 2012, to convert real-time information in the lead. In addition to cloud computing, mobile and social media, big data is one to the current top issues in the IT business environment. This is by far not only a trend but a reality. With a far-reaching influence on business, its strategic direction and IT. Known technologies and methods on the analysis of big data have reached its limits. And only the company that manages to obtain an information advantage from the data silos is one step ahead to the competition in the future.

Big Data: No new wine in old wineskins

Basically the idea behind big data is nothing new. From the early to mid 1990s, there was already the term „business intelligence“ about using procedures to systematically analyze data. The results are used to gain new insights that will help in achieving the objectives of a company better and to make strategic decisions. However, the data base, which had to be analyzed, was much smaller than today and only analyzes on data from the past could made, leading to uncertain forecasts for the future. Today everyday objects collect data with massive amounts of information every second. This includes smartphones, tablets, cars, electricity meters or cameras. There are also areas that are not located in the immediate vicinity of a person, such as fully automated manufacturing lines, distribution warehouse, measuring instruments, aircraft and other means of transport. And of course it is we humans who nurture big data with our habits. Tweets on Twitter, comments on Facebook, Google search queries, browsing with Amazon and even the vital signs during a jogging session provide modern companies vast amounts of data today which can turn in valuable information.

Structured and unstructured data

Large data sets are not a new phenomenon. For decades, retail chains, oil companies, insurance companies or banks collect solid information on inventories, drilling data and transactions. This also includes projects for parallel processing of large data sets, data mining grids, distributed file systems and databases, distributed to the typical areas of what is now known as big data. These include the biotech sector, projects of interdisciplinary scientific research, weather forecasting and the medical industry. All of the above areas and industries are struggling with the management and processing of large data volumes.

But now the problem has also affected the „normal“ industries. Today’s challenges are that data arise from many different sources and sometimes fast, unpredictable and, lest unstructured. Big data is to help in places where a lot of different data sources may be combined. Examples are tweeting on Twitter, browsing behavior or information about clearance sales and to this understanding to develop new products and services. New regulations in the financial sector lead to higher volumes of data and require better analysis. In addition, web portals like Google, Yahoo and Facebook collect an enormous amount of daily data which they also associate with users to understand how the user moves to the side and behaves. Big data becomes a general problem. According to Gartner, enterprise data could grow in the next five years by up to 650%. 80% of those will be unstructured data or big data that have already shown that they are difficult to manage. In addition, IDC estimates that the average company has to manage 50 times more information by 2020, while the number of IT staff will increase by only 1.5%. A challenge companies must respond to in an efficient manner if they try to remain competitive.

Why companies choose big data

But where do these huge amounts of data come from and what motivates a business to deal with the issue. Market researchers of Experton Group tried to clarify the questions in their „Big Data 2012 – 2015“ client study in October 2012. Accordingly, the main driver for the use of big data technologies and concepts is the rapid growth of data, including the appropriate quality management and automation of analysis and reporting. The topics of loyalty and marketing take about a third of the companies as an opportunity to renew the analysis of their databases. New database technologies give companies 27 percent of respondents as a motivation for new methods of data analysis. Furthermore almost all the features of big data matter the reasons for the expansion of strategic data management. This shows that big data is already reality, even though in many cases it is not known by this term. The big data drivers themselves are the same across all industries and company sizes across. The only difference is in the meaning and intensity. One big difference is the size of the company and the distribution of data and information to the right people in the company. Here companies see their biggest challenges. Whereas smaller companies classify the issue as uncritical.

Big data: An use case for the cloud

The oil and gas industry has solved the processing of large amounts of data through the use of traditional storage solutions (SAN and NAS). Research-oriented organizations or companies like Google, which have to do with the analysis of mass data are more likely to keep track of the Grid approach to invest the unused resources in software development.

Big data processing belongs to the cloud

Cloud infrastructures help to reduce costs for the IT infrastructure. This alows company to be able to focus more effectively on their core business and gain greater flexibility and agility for the implementation of new solutions. Thus a foundation is laid, to adapt to the ever-changing amounts of data and to provide the necessary scalability. Cloud computing providers are capable based on investments in their infrastructure, to develop a big data usable and friendly environment and maintain these. Whereas a single company can’t provide the adequate resources for scalability and also does not have the necessary expertise.

Cloud resources increasing with the amount of data

Cloud computing infrastructures are designed to grow or reduce with the demands and needs. Companies can meet the high requirements – such as high processing power, amount of memory, high I / O, high-performance databases, etc. – that are expected from big data, easily face through the use of cloud computing infrastructure without investing heavily in their own resources.

Cloud concepts such as infrastructure-as-a-service (IaaS) combine both worlds and take in a unique position. For those who understand the SAN / NAS approach, resources can also be use to design massively parallel systems. For companies who find it difficult to deal with the above technologies or understand this, IaaS providers offer appropriate solutions to avoid the complexity of storage technologies and to focus on the challenges facing the company.

An acceptable solution comes from cloud computing pioneer Amazon Web Services. With the AWS Data Pipeline (still in beta) Amazon offers a service which move and handle data automatically between different systems. The systems are to be either directly in the Amazon cloud or on an other system outside. Amazon makes the handling of the growing amounts of data to distributed system with different formats easier. To this number of pipelines, in which the different data sources, conditions, objectives, instructions and schedules are defined can be created. In short, it’s about what data is loaded from which system based on which conditions, then be processed, and afterall where the results should be save. The pipeline will be started as needed, hourly, daily or weekly. The processing can take place either directly in the Amazon cloud or on the systems in the company’s own data center.

Big Data = Big Opportunities?

Not only the Obama example shows how profitable the operation of structured and unstructured data from mobile devices, social media channels, the cloud, and many other different sources of a company can be. However, one has to be clear about one point regarding big data. It is ultimately not the mass of the data that is collected, but the quality and for which the data is to be ultimately used in general.

It is therefore crucial whether and how a company manages the masses of data generated by human and machine interactions and to analyze the highest-quality of information and thus secures a leading position in the market. Qualified data is the new oil and provides companies that recognize their own advantage therein, the lucrative drive.

Kategorien
Kommentar

Big Data und Cloud Computing helfen nicht nur Obama

In meinem Gastbeitrag bei den Automatisierungs-Experten von arago bin ich vor zwei Wochen auf das Thema Big Data eingegangen und das Unternehmen aus dem US-Wahlkampf 2012 von Barack Obama lernen sollten, wie sie Echtzeit-Informationen in einen Vorsprung umwandeln. Neben Cloud Computing, Mobile und Social Media gehört Big Data zu den aktuellen Top-Themen im IT-Unternehmensumfeld. Dabei handelt es sich bei weitem nicht mehr nur um einen Trend sondern um die Realität. Und das mit einem weitreichenden Einfluss auf Unternehmen, ihre strategische Ausrichtung und der IT. Bekannte Technologien und Methoden haben mit der Analyse von Big Data ihre Grenzen erreicht und nur das Unternehmen, welches es schafft, aus den Datensilos einen Informationsvorsprung zu erzielen, wird dem Wettbewerb in Zukunft einen Schritt voraus sein.

Big Data: Kein Alter Wein in Schläuchen

Grundsätzlich ist die Idee hinter Big Data nichts Neues. Von Anfang bis Mitte der 1990er Jahre ging es bereits unter dem Begriff „Business Intelligence“ darum, anhand von Verfahren eine systematische Analysen von Daten vorzunehmen. Die Ergebnisse werden dazu verwendet, um neue Erkenntnisse zu gewinnen, die dabei helfen, die Ziele eines Unternehmens besser zu erreichen und strategische Entscheidungen zu treffen. Allerdings war die Datenbasis, die es zu analysieren galt, deutlich kleiner als heute und lies nur Analysen auf Daten aus der Vergangenheit zu, was zu unsicheren Prognosen für die Zukunft führte. Heute sammeln sämtliche Alltagsgegenstände jede Sekunde massive Datenmengen an Informationen. Dazu gehören Smartphones, Tablets, Autos, Stromzähler oder auch Kameras. Hinzu kommen Bereiche, die sich nicht in der unmittelbaren Umgebung eines Menschen befinden, wie vollautomatisierte Produktionslinien, Distributionslager, Messinstrumente, Flugzeuge und anderen Fortbewegungsmitteln. Und natürlich sind es wir Menschen, die Big Data mit unseren Verhalten im Internet nähren. Tweets auf Twitter, Kommentare auf Facebook, Suchanfragen mit Google, Stöbern mit Amazon und sogar die Vitalwerte während einer Jogging-Session liefern modernen Unternehmen heute unmengen an Daten, aus denen sich wiederum wertvolle Informationen gewinnen lassen.

Strukturierte und unstrukturierte Daten

Große Datensätze sind keine neue Erscheinung. Bereits seit Jahrzenten sammeln Handelsketten, Ölfirmen, Versicherungen oder Banken massiv Informationen über Warenbestände, Bohrdaten und Transaktionen. Weiterhin gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Bereichen von dem, was heute als Big Data bezeichnet wird. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, die Wettervorhersage und die Medizinbranche. Alle genannten Bereiche und Branchen haben mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen.

Doch nun wirkt sich die Problematik auch auf die „normalen“ Branchen aus. Die heutigen Herausforderungen bestehen darin, dass Daten aus vielen unterschiedlichen Quellen stammen und zum Teil schnell, unverhersagbar und damit unstrukturiert aufkommen. Big Data soll daher insbesondere an den Stellen helfen, wo viele unterschiedliche Datenquellen miteinander kombiniert werden. Beispiele sind Tweets auf Twitter, das Surfverhalten oder Informationen über Abverkäufe, um auf dieser Basis neue Produkte und Dienstleistungen zu entwickeln. Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält. Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten beziehungsweise Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind. Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Warum Unternehmen sich für Big Data entscheiden

Doch wo kommen diese riesigen Datenmengen tatsächlich her und welche Motivation haben Unternehmen, sich mit der Thematik zu beschäftigen. Die Marktforscher der Experton Group haben versucht, die Fragen in Ihrer „Big Data 2012 – 2015“ Client-Studie im Oktober 2012 zu klären. Demnach ist der wichtigste Treiber für den Einsatz von Big Data Technologien und Konzepten das rasante Datenwachstum inklusive dem dazugehörigen Qualitätsmanagement und der Automatisierung der Analysen und Reports. Die Themen Kundenbindung und Marketing nehmen circa ein Drittel der Unternehmen zum Anlass, um die Anaysen ihrer Datenbestände zu erneuern. Neue Datenbanktechnologien nennen 27 Prozent der Befragten Unternehmen als Motivation für neue Verfahren zur Datenalyse. Weiterhin zählen nahezu alle Eigenschaften von Big Data zu den Gründen für die Erweiterung des strategischen Datenmanagements. Das zeigt, dass Big Data bereits Realität ist, auch wenn es in vielen Fällen nicht unter diesem Begriff bekannt ist. Die Big Data Treiber selbst sind über alle Branchen und Unternehmensgrößen hinweg gleich. Der einzige Unterschied besteht in der Bedeutung und Intensität. Ein großer Unterschied bei der Unternehmensgröße besteht in der Verteilung der Daten und Informationen an die richtigen Mitarbeiter im Unternehmen. Hier sehen große Unternehmen ihre größten Herausforderungen. Wohingegen kleinere Unternehmen das Thema als sehr unkritisch einstufen.

Big Data: Ein Anwendungsfall für die Cloud

Die Öl-und Gasindustrie hat die Verarbeitung großer Datenmengen durch den Einsatz von traditionellen Storage-Lösungen (SAN und NAS) gelöst. Forschungsorientierte Organisationen oder Unternehmen wie Google, die mit der Analyse von Massendaten zu tun haben, neigen eher dazu den Grid Ansatz zu verfolgen, um die nicht benötigten Ressourcen in die Software-Entwicklung zu investieren.

Big Data Verarbeitung gehört in die Cloud

Cloud Infrastrukturen helfen bei der Kostenreduzierung für die IT-Infrastruktur. Dadurch werden Unternehmen in die Lage versetzt, sich effizienter auf ihr Kerngeschäft zu konzentrieren und erhalten mehr Flexibilität und Agilität für den Einsatz neuer Lösungen. Damit wird ein Grundstein gelegt, sich auf die ständig verändernden Datenmengen einzustellen und für die notwendige Skalierbarkeit zu sorgen. Cloud Computing Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.

Cloud Ressourcen wachsen mit der Datenmenge

Cloud Computing Infrastrukturen sind darauf ausgelegt, dass sie mit den jeweiligen Anforderungen und Bedürfnissen mitwachsen oder sich reduzieren lassen. Unternehmen können die hohen Anforderungen – wie Hohe Rechenleistung, viel Speicherplatz, hohes I/O, performante Datenbanken usw. – die von Big Data erwartet werden, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Cloud Konzepte wie Infrastructure-as-a-Service (IaaS), vereinen beide Welten und nehmen dadurch eine einzigartige Position ein. Für diejenigen, die das SAN/NAS Konzept verstehen, werden die Ressourcen ebenfalls nutzen können, um massiv-parallele Systeme zu entwerfen. Für Unternehmen denen es schwer fällt sich mit den genannten Technologien auseinanderzusetzen oder diese zu verstehen, bieten IaaS Anbieter entsprechende Lösungen, um die Komplexität der Speichertechnologien zu umgehen und sich auf die Herausforderungen des Unternehmens zu konzentrieren.

Eine passable Lösung kommt von Cloud Computing Pionier Amazon Web Services. Mit der AWS Data Pipeline steht bei Amazon ein Service (noch in der Betaphase) bereit, mit dem sich Daten automatisch zwischen verschiedenen Systemen verschieben und verarbeiten lassen. Die Systeme können sich dazu entweder direkt in der Amazon Cloud oder auf einem anderen System außerhalb befinden. Amazon macht damit die Handhabung der wachsenden Datenmengen auf verteilten System mit unterschiedlichen Formaten einfacher. Dazu lassen sich beliebig viele Pipelines erstellen, in denen die unterschiedlichen Datenquellen, Bedingungen, Ziele, Anweisungen und Zeitpläne definiert sind. Kurzum geht es darum, welche Daten von welchem System auf Basis welcher Bedingungen geladen, verarbeitet und die Ergebnisse anschließend wieder gespeichert werden. Die Pipelines selbst werden je nach Bedarf stündlich, täglich oder wöchentlich gestartet. Die Verarbeitung kann entweder direkt in der Amazon Cloud oder auf den Systemen im unternehmenseigenen Rechenezentrum stattfinden.

Big Data = Big Opportunities?

Nicht nur das Obama Beispiel zeigt, wie gewinnbringend die Verknüpfung von strukturierten und unstrukturierten Daten aus mobilen Endgeräten, Social Media Kanälen, der Cloud und vielen weiteren unterschiedlichen Quellen für ein Unternehmen sein kann. Allerdings muss man sich bei Big Data über eines im Klaren sein. Es geht letztendlich nicht um die Masse der Daten die gesammelt wird, sondern um deren Qualität und wofür die Daten letztendlich überhaupt genutzt werden sollen.

Entscheidend ist daher, ob und wie ein Unternehmen es schafft, aus den Massen an Daten, die durch menschliche und maschinelle Interaktionen entstehen, die qualitativ hochwertigsten Informationen zu analysieren und sich damit eine führende Position am Markt sichert. Qualifizierte Daten sind das neue Öl und werden in den Unternehmen, die den eigenen Vorteil darin erkennen, für den gewinnbringenden Antrieb sorgen.

Kategorien
Services

Big Data in der Cloud: AWS Data Pipeline und Amazon Redshift

Amazon rüstet seine Cloud-Infrastruktur für Big Data mächtig auf. Mit der AWS Data Pipeline steht nun ein Dienst (zur Zeit in der Betaphase) zur Verfügung, mit sich Daten über verschiedene Systeme automatisch verschieben und verarbeiten lassen. Amazon Redshift stellt ein Datawarehouse in der Cloud dar, welches zehnmal schneller sein soll als bisher verfügbare Lösungen.

AWS Data Pipeline

Mit der AWS Data Pipeline sollen die stetig wachsenden Daten, welche auf verschiedenen Systemen und in unterschiedlichen Formaten vorhanden sind, einfacher zugänglich gemacht werden. Der Service lädt zum Beispiel Textdateien von Amazon EC2, verarbeitet sie und speichert diese in Amazon S3. Dreh und Angelpunkt ist dabei die AWS Management Console. Hier werden Pipelines definiert, die aus unterschiedlichen Quellen, Bedingungen, Zielen und Anweisungen bestehen. Über Zeitpläne wird festgelegt, wann welcher Job ausgeführt wird. Die AWS Data Pipeline legt fest, von welchem System welche Daten auf Basis von bestimmten Bedingungen geladen werden, unter welchen Bedingungen sie zu verarbeiten sind und wo diese am Ende gespeichert werden.

Die Verarbeitung der Daten kann entweder direkt in der Amazon Cloud auf EC2-Instanzen oder im eigenen Rechenzentrum durchgeführt werden. Dafür steht mit dem Task Runner ein Open-Source Tool bereit, dass mit der AWS Data Pipeline kommuniziert. Der Task Runner muss dafür auf den jeweiligen datenverarbeitenden Systemen gestartet sein.

Amazon Redshift

Amazons Cloud-Datawarehouse Amazon Redshift soll dabei helfen, große Datenmengen innerhalb kürzester Zeit zu analysieren. Darin lassen sich bis zu 1,6 Petabyte Daten speichern und per SQL abfragen. Zwar wird der Service, wie üblich, nach Verbrauch abgerechnet. Kunden, die allerdings einen Dreijahresvertrag unterschreiben und volle Last auf ihre virtuelle Infrastruktur bringen, zahlen ab 1.000 US-Dollar pro Terabyte pro Jahr. Amazon stellt dazu einen Vergleich mit Zahlen von IBM an. IBM berechnet für ein Datawarehouse zwischen 19.000 US-Dollar und 25.000 US-Dollar pro Terabyte pro Jahr,
Erste Beta-Tester von Amazon Redshift sind Netflix, JPL und Flipboard, deren Abfragen 10- bis 150-mal schneller waren als auf dem derzeit genutzten System.

Amazon Redshift kann als Single-Node-Cluster mit einem Server und maximal 2 TByte Speicherplatz oder als Multi-Node-Cluster, der aus mindestens zwei Compute-Nodes und einem Leader-Node besteht, genutzt werden. Der Leader-Node ist dabei für die Verwaltung der Verbindungen, das Parsen der Anfragen, das Erzeugen der Ausführungspläne und der Verwaltung der Anfragen auf den einzelnen Compute-Nodes zuständig. Die Berechnung findet auf den Compute-Nodes statt. Die Compute-Nodes stehen als hs1.xlarge mit 2 TByte Speicherkapazität und hs1.8xlarge mit 16 TByte Speicherkapazität zu Verfügung. Ein Cluster darf dabei maximal aus 32 hs1.xlarge und 100 hs1.8xlarge Compute-Nodes bestehen. Das ergibt eine maximale Speicherkapazität von 64 Terabyte beziehungsweise 1,6 Petabyte. Die Compute-Nodes sind über ein separates 10 Gigabit/s Backbone miteinander verbunden.

Kommentar

Amazon baut ungeachtet vom Mitbewerb sein Cloud Services Portfolio weiter aus. Dadurch kann man manchmal den Eindruck bekommen, dass alle anderen IaaS-Anbieter auf der Stelle treten – angesichts der Innovationskraft der Amazon Web Services. Ich kann es an dieser Stelle nur noch einmal betonen, Mehrwert-Services sind die Zukunft von Infrastructure-as-a-Service bzw. Wer als IaaS-Anbieter zu Amazon konkurrenzfähig sein will muss mehr als nur Infrastruktur im Portfolio haben.

Schauen wir uns die aktuellen Entwicklungen an, steigt der Bedarf an Lösungen für die Verarbeitung großer strukturierter und unstrukturierter Datenmengen stetig an. Barack Obamas Wahlkampf ist dafür nur ein Use Case, der zeigt, wie wichtig der Besitz qualitativ hochwertiger Informationen ist, um sich für die Zukunft Wettbewerbsvorteile zu verschaffen. Und auch wenn viele in den Amazon Web Services „nur“ einen reinen Infrastructure-as-a-Services Anbieter sehen (ich tue das nicht), wird Amazon – mehr als jeder andere (IaaS)-Anbieter – im Kampf um Big Data Lösungen weit oben mitspielen – was letztendlich nicht nur an dem Wissen auf Grund des Betriebs von Amazon.com liegt.

Kategorien
Events

Webmontag Frankfurt 46 – Call for Cloud Computing und Big Data Talks

Für den Webmontag #46 am 11.3.2013 in Frankfurt sind wir noch auf der Suche nach Sprechern zu den Themen Cloud Computing und Big Data. Dabei geht es um Use Cases und hands-on Vorträge. Werbeformate sind selbstverständlich nicht erwünscht. Es geht darum, mit seinem Fachwissen zu überzeugen und damit Werbung für sich zu machen.

Beginn der Veranstaltung ist 19:00 Uhr und die Länge der Talks sollte max. 20 Minuten sein. Weitere Fragen beantworte ich gerne unter ping at clouduser dot org oder auf Twitter: @ReneBuest

Die Bewerbung für einen Vortrag findet über dieses Google Docs Dokument statt. Die Bewerbungsfrist ist der 15.02.2013.

Kategorien
Analysen

Meine fünf Cloud Computing, Mobile und Big Data Vorhersagen für 2013 und ein Wunsch

Ich wollte mich dieses Jahr eigentlich nicht an den Spekulationen beteiligen. Eine Anfrage von CloudExpos Jeremy Geelan konnte ich allerdings nicht ausschlagen und hab für ihn meine ganz persönlichen Vorhersagen für den Cloud Computing, Mobile und Big Data Markt für 2013 niedergeschrieben. Diese möchten ich dann natürlich auch hier veröffentlichen und ebenfalls einen persönlichen Wunsch äußern.

1. Big Data ist das neue Öl

Im Jahr 2012 haben wir ein enormes Wachstum des Big Data Marktes inkl. neuen Lösungen für die Analyse von großen Mengen an Informationen gesehen. Das wird sich im Jahr 2013 fortsetzen. Denn das Unternehmen, das es schafft, die qualitativ hochwertigsten Daten zu sammeln, darauf die für sich besten Analysen vornimmt und damit die hochwertigsten Informationen erhält, wird sich am Markt an eine führende Position begeben.

Allerdings sollten wir hier nicht den Endnutzer vernachlässigen. Heute sprechen wir über die Backend-Systeme, wenn wir von Big Data sprechen. Dabei wird jedoch vergessen, dass auch wir als Nutzer extrem beeinflusst werden. Betrachten wir die Viehlzahl an sozialen Netzwerken, e-mail und weitere online und offline Anwendungen, sind wir einer Daten- bzw. Informationsüberlast ausgesetzt, die ebenfalls in irgendeiner Form verwaltet werden muss, um uns zu helfen die Informationstechnologie bzw. unser Leben bequemer zu gestalten.

2. Die Bedeutung der Mobile Cloud nimmt zu

Tatsächlich existiert die sogenannte Mobile Cloud bereits seit mehreren Jahren, da es sich beim Cloud Computing um das Rückgrat der mobilen Welt handelt. Bei genauerer Betrachtung wird deutlich, dass Cloud Computing ein Erfolgsgarant für den Markt mobiler Technologien und Angebote ist. Die Cloud ermöglicht es Anbietern ihren Kunden den für sie tatsächlich einen Mehrwert bringenden Content wie Bücher, Musik ,Apps etc. an jedem Ort und geräteübergreifend bereitzustellen. Smartphones, Tablets und andere neue mobile Endgeräte werden diesen Trend in 2013 weiter verstärken. Insbesondere das Potential in Afrika und der dort stark wachsende Markt mobiler Angebote wird die Mobile Cloud zu einem der wichtigsten Ansätze in der Zukunft machen.

3. Mobile Big Data

Als ein weiteres Resultat der wachsenden mobilen Märkte in den Schwellenländern, wird das Thema Big Data neben der Mobile Cloud für Unternehmen immer wichtiger werden, um neue Kunden weltweit und insbesondere in den Schwellenländern zu erreichen. Unternehmen müssen verstehen, wie Kunden dort Technologien, Services und das Internet nutzen und wie grundsätzlich konsumiert wird. Das wird sowohl einen großen Einfluss auf die alten Märkte als auch die Neuen haben und ebenfalls die neuen Kunden beeinflussen.

4. Hybrid Cloud macht das Rennen

Sind wir ehrlich. Die Public Cloud ist die einzig wahre Cloud! Auf Grund von Bedenken hinsichtlich der Sicherheit und des Datenschutzes plus neuen Gesetzen, die es Regierungen erlauben auf Daten in der Cloud zuzugreifen, werden immer mehr Unternehmen ihre Private Cloud Strategie planen. Das bedeutet nicht, dass die Public Cloud tod ist. Wir werden weiterhin neue Services in der Public Cloud sehen und auch Unternehmen werden sie u.a. zur Skalierung nutzen. Aber am Ende wird die Hybrid Cloud das Rennen machen. Unternehmen sind angehalten, ihre Daten zu klassifizieren, bevor sie in die Cloud übertragen werden. Das bedeutet, dass sensible Daten in der Private Cloud bzw. im nur virtualisierten Rechenzentrum bleiben und unkritische Daten wie Marketingkampagnen und weitere nicht so sensible Daten wandern in die Public Cloud. Dafür wird selbstverständlich eine Verbindung sowie eine sichere Kombination aus Private und Public Cloud benötigt, die Hybrid Cloud.

5. Hybrid Tablets ziehen in die Unternehmen ein

Tablets helfen uns dabei, die IT, das Internet und weitere Dinge bequemer zu nutzen. Jedoch sind sie für den vollständigen Einsatz im Unternehmen nicht geeignet. Auf Konferenzen und Reisen sehe ich regelmäßig Nutzer, die sich zu ihrem Tablet eine externe Tastatur gekauft haben. Hybrid Tablets sind das beste aus beiden Welten. Das Tablet mit seinem Touchscreen und einer einfach zu bedienenden Benutzeroberfläche plus den klassischen Laptops und ihren Tastaturen. Lange Texte auf einem Tablet mit der virtuellen Tastatur zu schreiben macht kein Spaß und ist anstrengend, was auch die Reaktionen von Business-Anwendern sind. Darüber hinaus werden Hybrid Tablets die heutigen gewöhnlichen Laptops ersetzen.

Mein Wunsch für 2013

Mein Wunsch für 2013 geht an alle Cloud Computing Anbieter: Hört bitte mit euren nebulösen Marketing-Phrasen auf und bietet einfach nur gute Cloud Services an, die stabil sind und dem Kunden einen echten Mehrwert bieten.

Kategorien
Analysen

Cloud Computing und Big Data – Der ideale Use Case

Ich hatte schon einmal im März die Frage gestellt, ob Infrastructure-as-a-Service (IaaS) die ideale Lösung für die Herausforderungen von Big Data ist. Bereits damals bin ich zu dem Ergebnis gekommen, dass die Verarbeitung und Analyse großer Datenmengen – kurz: Big Data – ein idealer Use Case für das Cloud Computing ist. Unternehmen können die hohen Anforderungen, die Big Data erwartet, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Was ist Big Data

Als Big Data werden besonders große Datenmengen bezeichnet, die mit Hilfe von Standard-Datenbanken und Daten-Management-Tools nicht oder nur unzureichend verarbeitet werden können. Problematisch sind hierbei vor allem die Erfassung, die Speicherung, die Suche, Verteilung, Analyse und Visualisierung von großen Datenmengen. Das Volumen dieser Datenmengen geht in die Terabytes, Petabytes, Exabytes und Zettabytes.

Quelle: Wikipedia.de

Beispiele für Big Data

Für Unternehmen bietet die Analyse von Big Data die Möglichkeit zur Erlangung von Wettbewerbsvorteilen, Generierung von Einsparungspotentialen und zur Schaffung von neuen Geschäftsfeldern. Beispiele hierfür sind:

  • zeitnahe Auswertung von Webstatistiken und Anpassung von Online-Werbemaßnahmen
  • bessere, schnellere Marktforschung
  • Entdeckung von Unregelmäßigkeiten bei Finanztransaktionen (Fraud-Detection)
  • Einführung und Optimierung einer intelligenten Energieverbrauchssteuerung (Smart Metering)
  • Erkennen von Interdependenzen in der medizinischen Behandlung
  • Realtime-Cross- und Upselling im E-Commerce und stationären Vertrieb
  • Aufbau flexibler Billingsysteme in der Telekommunikation

Quelle: Wikipedia.de

Herausforderungen von Big Data

Klassische relationale Datenbanksysteme sowie Statistik- und Visualisierungsprogramme sind oft nicht in der Lage, derart große Datenmengen zu verarbeiten. Für Big Data kommt daher eine neue Art von Software zum Einsatz, die parallel auf bis zu Hunderten oder Tausenden von Prozessoren bzw. Servern arbeitet. Hierbei gibt es folgende Herausforderungen:

  • Verarbeitung vieler Datensätze
  • Verarbeitung vieler Spalten innerhalb eines Datensatzes
  • schneller Import großer Datenmengen
  • sofortige Abfrage importierter Daten (Realtime-Processing)
  • kurze Antwortzeiten auch bei komplexen Abfragen
  • Möglichkeit zur Verarbeitung vieler gleichzeitiger Abfragen (Concurrent Queries)

Die Entwicklung von Software für die Verarbeitung von Big Data befindet sich noch in einer frühen Phase. Prominent ist der MapReduce-Ansatz, der in der Open-Source-Software (Apache Hadoop und MongoDb), sowie in einigen kommerziellen Produkten (Aster Data, Greenplum u. a.) zum Einsatz kommt.

Quelle: Wikipedia.de

Cloud Computing und Big Data: Der perfekte Use Case

Unsere Datenmengen steigen exponentiell. Die parallele Nutzung von Dienstleistungen wie HDTV, Radio, Video on Demand (VOD) und Security as a Service haben immer höhere Anforderungen an Netzwerk-Infrastrukturen. Die Nutzungen von Anwendungen wie Videokonferenzen und neue Kommunikationswege wie Social Media verändern sich ständig, was ebenfalls Einfluss auf die tägliche Nutzung und den Zugriff auf Daten durch Unternehmen hat. Um mit diesen wachsenden Datenmengen umzugehen, wird verstärkt auf externe Rechenzentrumsfunktionen- und kapazitäten zurückgegriffen. Welche Daten dabei wie ausgelagert werden sollten stellen die größten Herausforderungen dar.

Ein allgemeines Problem

Traditionell gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Nutzern von Big Data. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, Wettervorhersage, Regierungen und die Medizinbranche. Alle genannten Bereiche haben seit Jahren mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen. Doch nun wirkt sich die Problematik auch auf weitere “normale” Branchen aus.

Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält.

Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten bzw. Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind.

Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Wettbewerbsfähigkeit steigern

McKinsey’s Report “Big data: The next frontier for innovation, competition, and productivity”, aus dem Jahr 2011 untersucht, wie Daten zu einer wichtigen Grundlage des Wettbewerbs werden sowie ein neues Produktivitätswachstum und Innovationen schaffen.

Wenn Unternehmen heutzutage wettbewerbsfähig bleiben wollen, müssen sie sicherzustellen, dass sie über die entsprechende IT-Infrastruktur verfügen, um mit den heutigen Daten-Anforderungen umzugehen. IaaS bietet damit ein solides Konzept und Fundament, um damit erfolgreich zu bleiben.

Big Data Verarbeitung in der Cloud

Kosteneinsparungen für die interne IT-Infrastruktur, wie Server und Netzwerkkapazitäten, Freisetzen von dadurch nicht mehr benötigtem technischem Personal, um sich somit effizienter auf das Kerngeschäft zu konzentrieren und die Flexibilität neue Lösungen, auf Grund der sich ständig veränderten Datenmengen, besser zu skalieren sind die ersten Schritte um den Anforderungen von Big Data gerecht zu werden.

Cloud Computing Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.

Cloud Ressourcen wachsen mit Big Data

Cloud Computing Infrastrukturen sind darauf ausgelegt, dass sie mit den jeweiligen Anforderungen und Bedürfnissen mitwachsen oder sich reduzieren lassen. Unternehmen können die hohen Anforderungen – wie Hohe Rechenleistung, viel Speicherplatz, hohes I/O, performante Datenbanken usw. – die von Big Data erwartet werden, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Kategorien
News

HP zeigt ersten Server speziell für Big Data

HP hat die erste Server-Reihe angekündigt, die speziell für Big Data entwickelt wurde: Der HP ProLiant SL4500 Gen8 ist ab sofort als Ein- und Zwei-Knoten-System erhältlich. Das Ein-Knoten-System eignet sich durch seine Konfiguration mit bis zu 60 Festplatten vor allem als Object-Storage-Device für OpenStack-Cloud-Anwendungen, Redhat Enterprise Linux, SUSE Enterprise Linux oder Microsoft Windows Server. Das Zwei-Knoten-System mit 25 Festplatten pro Knoten eignet sich für Big-Data-Analytics und für Datenbanken wie MongoDB. Voraussichtlich Anfang 2013 wird HP das Portfolio durch ein Drei-Knoten-System nach oben abrunden. Mit dieser Konfiguration können Kunden unter anderem Parallel-Processing- und Big-Data-Anwendungen wie beispielsweise verschiedene Distributionen von Apache Hadoop nutzen.

HP Scaleable Line

Die neuen SL4500-Server (SL = Scaleable Line) sind speziell für Big-Data-Anwendungen entwickelt. Sie bieten je nach Konfiguration bis zu 240 Terabyte Speicherplatz pro Server. Außerdem nutzen sie die RAID-Controller HP Smart Array mit der Technologie Predictive Spare Activation. Diese Technologie erkennt fehlerhafte Laufwerke bevor diese ausfallen und verschiebt die Daten automatisch auf ein freies Laufwerk. So wird die RAID-Initialisierung umgangen, die ansonsten bei einem Plattenausfall entsteht und während der kein Schutz der Daten besteht. Die SL4500-Server befinden sich in einem 4,3 Höheneinheiten großen Chassis. Damit passen bis zu neun Server in ein Standard-Rack. In dem Ein-Knoten-System lassen sich bis zu 2,16 Petabyte Daten speichern. Das entspricht etwa 20 Jahren HD-Filmmaterial. Die Zwei- und Drei-Knotensysteme fassen bis zu 25 respektive 15 3,5-Zoll-Festplatten pro Knoten. Kunden können bei allen drei Konfigurationen zwischen SAS-, SATA- und SSD-Festplatten wählen. Beim Management größerer Umgebungen steht Unternehmen neben dem Server-Management-Werkzeug HP Integrated Lights-Out (iLO) für die Fernüberwachung auch das Werkzeug HP Insight Cluster Management Utility (HP Insight CMU) zur Verfügung. Mit diesem Werkzeug lassen sich große Server-Cluster anhand von Parametern steuern und die Lastverteilung optimieren.

HP bietet die SL4500-Server wahlweise mit Prozessoren von Intel (Xeon E5-2400) und AMD (Opteron 4200). Die Intel-Server nutzen die Server-Architektur der HP ProLiant Gen8, die AMD-Systeme greifen auf die Architektur der Generation 7 zurück. Im Vergleich zu konventionellen Rack-Servern mit JBODs benötigen die SL4500-Server bis zu 50 Prozent weniger Stellplatz, 61 Prozent weniger Energie, 63 Prozent weniger Kabel und sind 31 Prozent günstiger. Das modulare Design ermöglicht eine Vielzahl an Kombinationen von Rechenleistung und Speicherkapazität. Dadurch können Kunden die Server entsprechend ihren Anwendungen anpassen.

Die SL4500-Gen8-Server bieten außerdem bis zu sieben Mal mehr IOPS (Input/Output Operations per Second) als bestehende Architekturen. Die Lösung HP SmartCache verbessert den Speicher-Datenverkehr und verringert dadurch Latenzzeiten. Außerdem greifen die SL4500-Server auf die ProActive Insight Architecture zurück. Diese soll Kunden ermöglichen:

  • Ausfallzeiten zu reduzieren und Daten durch automatische Sicherheits-Funktionen zu sichern.
  • Die Produktivität der Server durch HP Active Health zu maximieren. Dieses Diagnose-Werkzeug erfasst alle Veränderungen an den Servern und der System-Konfiguration. Damit hilft es bei der Fehlerdiagnose und Lösungssuche. HP Smart Update spielt außerdem Firmware-Updates automatisch ein.
  • Die Kosten im Rechenzentrum durch die Technologie HP Intelligent Infrastructure zu senken und die Rechenleistung pro Watt um bis zu 70 Prozent zu steigern.
  • Selbstüberwachung, Selbstdiagnose und proaktiven Support für die Server durch HP Insight Online.

Preise und Verfügbarkeit

Der HP ProLiant SL4500 als Ein-Knoten-System ist ab sofort erhältlich. Der weltweite Listenpreis startet bei 5.925 Euro für die Basiskonfiguration.

Kategorien
Management

Mainframe: Grundpfeiler von Wachstum und Innovation?

CA Technologies, Anbieter von IT-Management-Software und -Lösungen, veröffentlicht die Ergebnisse seiner weltweiten Studie „The Mainframe as a Mainstay of the Enterprise 2012“. Aus ihr geht hervor, dass sich der Großrechner in einer zunehmend komplexer werdenden IT-Landschaft zu einem Grundpfeiler von Wachstum und Innovation in der Unternehmensinfrastruktur entwickelt. Die im August 2012 durchgeführte Studie untersuchte die Rolle des Großrechners in der heutigen und künftigen IT-Strategie. Für die Studie wurden weltweit 623 IT-Experten aus elf Ländern befragt. Dabei die Studienergebnisse drei Haupttrends: Der Mainframe spielt eine immer größere strategische Rolle beim Managen der wachsenden Anforderungen von Unternehmen. Im Zeitalter von Big Data und Cloud Computing helfen Großrechner, die Innovationsfähigkeit eines Unternehmens zu erhalten. Die Unternehmen suchen für das Mainframe-Management nach Fachkräften mit fachübergreifenden Kompetenzen.

Großrechner als strategische IT-Investition

Laut Studienergebnissen nimmt der Mainframe eine immer stärkere Position im Unternehmen ein und wird vermehrt als ein strategischer Bestandteil der IT-Infrastruktur wahrgenommen. In diesem Zusammenhang bestätigen 33 bzw. 56 Prozent der Befragten aus Deutschland und über 80 Prozent der weltweiten Teilnehmer, dass Großrechner eine strategische bzw. eine wichtige strategische Komponente ihrer gegenwärtigen und künftigen IT-Strategie sind. Knapp ein Drittel der deutschen Befragten (31 Prozent) und 46 Prozent der weltweiten Umfrageteilnehmer gaben an, dass sie in den nächsten zwölf bis 18 Monaten beabsichtigen, in Mainframe-Software zu investieren. In Großrechner-Hardware wollen in diesem Zeitraum gut zwei Fünftel der deutschen Befragten (44 Prozent) vermehrt investieren. Weltweit steht das bei 36 Prozent der Befragten auf der Agenda. Zudem sehen 52 Prozent der deutschen sowie 44 Prozent der international Befragten vor, ihre Investitionen in Mainframe-bezogene Services (NET) zu erhöhen.

Mainframe als Innovationstreiber

Mit dem zunehmenden Anstieg von Cloud Computing, Big Data und Enterprise Mobility wird der Mainframe die notwendige Rechenleistung liefern, das heißt, er wird in den nächsten Jahren vielen technischen Neuentwicklungen den Weg bereiten. 75 Prozent der deutschen Teilnehmer der Studie und 58 Prozent der international Befragten sind der Meinung, dass der Großrechner eine zentrale strategische Plattform in ihrer Cloud Computing-Strategie ist bzw. sein wird. Insgesamt sehen die Befragten die flexible Bereitstellung neuer Services, Skalierbarkeit und Sicherheit als „wichtige“ Vorteile des Mainframe-Einsatzes, die den Weg in die Cloud ebnen. So evaluieren oder planen gegenwärtig 63 Prozent der weltweit und 69 Prozent der deutschen Befragten in den nächsten zwölf bis 36 Monaten neue Werkzeuge einzusetzen, mit denen sie schnell private und hybride Cloud-Services auf dem Großrechner einführen und kostensparend provisionieren können.

Angesichts der zunehmenden Mobilität, die sich zu einer Triebkraft von IT-Innovationen entwickelt, belegt die Studie schließlich, dass Unternehmen auch das Thema Mobilität in ihre Großrechnerumgebung integrieren. 86 Prozent der Studienteilnehmer aus Deutschland und 74 weltweit gaben an, dass sie bereits ein mobiles Management des Mainframes befürwortet haben oder dies innerhalb der nächsten 18 Monate realisieren werden.

Wandel in der Mainframe-Belegschaft

Obwohl oft von einer Verknappung der Belegschafts-Ressourcen die Rede ist, identifizierte die Studie „The Mainframe as a Mainstay of the Enterprise 2012“ auch positive Entwicklungen. Zwar gehen 76 Prozent der internationalen sowie 79 Prozent der deutschen Befragten davon aus, dass ihr Unternehmen künftig über weniger Großrechnerexpertise verfügen wird. Jedoch sind sich fast alle Befragten (98 Prozent global sowie 98 Prozent aus Deutschland) darin einig, dass ihre Unternehmen angemessen oder sehr gut darauf vorbereitet sind, die Kontinuität der Mainframe-Belegschaft sicherzustellen.

Weltweit gaben nur 7 Prozent und in Deutschland lediglich 8 Prozent der Teilnehmer an, dass sie „sehr große Schwierigkeiten“ bei der Suche nach Mainframe-Nachwuchs hätten. Dagegen berichteten 65 Prozent der deutschen Befragten von „einigen Schwierigkeiten“ in dieser Sache. Damit liegt Deutschland vier Prozent über dem internationalen Durchschnitt mit 61 Prozent. Generell lässt sich Folgendes beobachten: Trotz der weiterhin bestehenden Herausforderung, geeignetes Personal für den Großrechner zu rekrutieren, fühlen sich viele Unternehmen für die Übergangsphase gewappnet – auch wenn die Rekrutierung von geeigneten Fachkräften länger als angenommen dauert.

Die Studie belegt, dass sich die Mainframe-Belegschaft im Wandel befindet. Der Grund dafür ist die tragende Rolle, die der Großrechner im Kontext von Cloud Computing einnimmt. Umso mehr werden interdisziplinäre Fähigkeiten zum zentralen Kriterium bei der Suche nach geeigneten Bewerbern. So planen im nächsten Jahr 89 Prozent der weltweiten sowie 96 Prozent der deutschen Teilnehmer der Studie ein hybrides, Plattform-übergreifendes Management einzuführen – inklusive Design-Teams sowie übergreifender Budgets, Teams und Orgaisationsleitung. Vor diesem Hintergrund meint mehr als die Hälfte der weltweiten Befragten (56 Prozent), dass es für einen Bewerber essentiell sei, sowohl über Mainframe- als auch über übergreifende Kompetenzen zu verfügen. In Deutschland vertreten 58 Prozent diese Meinung.


Bildquelle: http://ethernetfabric.com

Kategorien
News

BT: Höhere Cloud Performance für die Life-Science-Branche

Der Netzwerk- und IT-Dienstleister BT und die Aspera Inc., Anbieter von Lösungen für Hochgeschwindigkeits-Datenübertragung, werden in Zukunft kooperieren und Asperas Datentransfer-Technologie in „BT for Life Sciences R&D“ integrieren. Dieser speziell für die Pharma Industrie entwickelte Cloud-Service ermöglicht die übergreifende Zusammenarbeit und soll helfen, die Produktivität bei Forschung und Entwicklung zu steigern.

Big Data in der Life-Science-Branche

Unternehmen aus der Life-Science-Branche müssen derzeit eine gewaltige Datenflut, die bei ihren Versuchsreihen entsteht, in den Griff bekommen. Sie müssen diese Datenmengen optimieren, managen, übertragen, speichern und sichern. Um den Datenfluss zu verbessern, nutzt BT for Life Sciences R&D Connect das globale Netzwerk von BT und verwendet künftig fasp von Aspera, eine Technologie für den Hochgeschwindigkeitstransfer. Diese ermöglicht die sichere, berechenbare und skalierbare Übermittlung ungeachtet der Datenmenge, der Entfernung zwischen den Endpunkten sowie den Netzwerkbedingungen.

fasp-Protokoll ersetzt herkömmliche Transfertechnologien

Das fasp-Protokoll von Aspera soll, nach eigenen Angaben, die üblichen Engpässe herkömmlicher Transfertechnologien beseitigen. Es bietet einen schnellen und zuverlässigen Ende-zu-Ende-Transport über öffentliche und private Netzwerke, nutzt dabei die verfügbare Bandbreite voll aus, ist unabhängig von Netzwerkverzögerungen und funktioniert auch bei starkem Paketverlust. Die Aspera-Software, die auf dem Protokoll aufbaut, ermöglicht Datenübertragungen, die bis zu 1.000 Mal schneller als die herkömmlicher Technologien sein sollen. Angewendet wird sie über eine Benutzeroberfläche, die ein grafisches Monitoring in Echtzeit, Anzeige der Bandbreitennutzung sowie Zugriffskontrolle ermöglicht. Für Sicherheit wird durch eine Authentifizierung, Datenverschlüsselung und eine Überprüfung der Datenintegrität gesorgt.


Bildquelle: http://www.semcon.com