Kategorien
Comment

Big data and cloud computing not only help Obama

In my guest post on the automation experts blog two weeks ago, I discussed the topic of big bata and how companies should learn from the U.S. election of Barack Obama in 2012, to convert real-time information in the lead. In addition to cloud computing, mobile and social media, big data is one to the current top issues in the IT business environment. This is by far not only a trend but a reality. With a far-reaching influence on business, its strategic direction and IT. Known technologies and methods on the analysis of big data have reached its limits. And only the company that manages to obtain an information advantage from the data silos is one step ahead to the competition in the future.

Big Data: No new wine in old wineskins

Basically the idea behind big data is nothing new. From the early to mid 1990s, there was already the term „business intelligence“ about using procedures to systematically analyze data. The results are used to gain new insights that will help in achieving the objectives of a company better and to make strategic decisions. However, the data base, which had to be analyzed, was much smaller than today and only analyzes on data from the past could made, leading to uncertain forecasts for the future. Today everyday objects collect data with massive amounts of information every second. This includes smartphones, tablets, cars, electricity meters or cameras. There are also areas that are not located in the immediate vicinity of a person, such as fully automated manufacturing lines, distribution warehouse, measuring instruments, aircraft and other means of transport. And of course it is we humans who nurture big data with our habits. Tweets on Twitter, comments on Facebook, Google search queries, browsing with Amazon and even the vital signs during a jogging session provide modern companies vast amounts of data today which can turn in valuable information.

Structured and unstructured data

Large data sets are not a new phenomenon. For decades, retail chains, oil companies, insurance companies or banks collect solid information on inventories, drilling data and transactions. This also includes projects for parallel processing of large data sets, data mining grids, distributed file systems and databases, distributed to the typical areas of what is now known as big data. These include the biotech sector, projects of interdisciplinary scientific research, weather forecasting and the medical industry. All of the above areas and industries are struggling with the management and processing of large data volumes.

But now the problem has also affected the „normal“ industries. Today’s challenges are that data arise from many different sources and sometimes fast, unpredictable and, lest unstructured. Big data is to help in places where a lot of different data sources may be combined. Examples are tweeting on Twitter, browsing behavior or information about clearance sales and to this understanding to develop new products and services. New regulations in the financial sector lead to higher volumes of data and require better analysis. In addition, web portals like Google, Yahoo and Facebook collect an enormous amount of daily data which they also associate with users to understand how the user moves to the side and behaves. Big data becomes a general problem. According to Gartner, enterprise data could grow in the next five years by up to 650%. 80% of those will be unstructured data or big data that have already shown that they are difficult to manage. In addition, IDC estimates that the average company has to manage 50 times more information by 2020, while the number of IT staff will increase by only 1.5%. A challenge companies must respond to in an efficient manner if they try to remain competitive.

Why companies choose big data

But where do these huge amounts of data come from and what motivates a business to deal with the issue. Market researchers of Experton Group tried to clarify the questions in their „Big Data 2012 – 2015“ client study in October 2012. Accordingly, the main driver for the use of big data technologies and concepts is the rapid growth of data, including the appropriate quality management and automation of analysis and reporting. The topics of loyalty and marketing take about a third of the companies as an opportunity to renew the analysis of their databases. New database technologies give companies 27 percent of respondents as a motivation for new methods of data analysis. Furthermore almost all the features of big data matter the reasons for the expansion of strategic data management. This shows that big data is already reality, even though in many cases it is not known by this term. The big data drivers themselves are the same across all industries and company sizes across. The only difference is in the meaning and intensity. One big difference is the size of the company and the distribution of data and information to the right people in the company. Here companies see their biggest challenges. Whereas smaller companies classify the issue as uncritical.

Big data: An use case for the cloud

The oil and gas industry has solved the processing of large amounts of data through the use of traditional storage solutions (SAN and NAS). Research-oriented organizations or companies like Google, which have to do with the analysis of mass data are more likely to keep track of the Grid approach to invest the unused resources in software development.

Big data processing belongs to the cloud

Cloud infrastructures help to reduce costs for the IT infrastructure. This alows company to be able to focus more effectively on their core business and gain greater flexibility and agility for the implementation of new solutions. Thus a foundation is laid, to adapt to the ever-changing amounts of data and to provide the necessary scalability. Cloud computing providers are capable based on investments in their infrastructure, to develop a big data usable and friendly environment and maintain these. Whereas a single company can’t provide the adequate resources for scalability and also does not have the necessary expertise.

Cloud resources increasing with the amount of data

Cloud computing infrastructures are designed to grow or reduce with the demands and needs. Companies can meet the high requirements – such as high processing power, amount of memory, high I / O, high-performance databases, etc. – that are expected from big data, easily face through the use of cloud computing infrastructure without investing heavily in their own resources.

Cloud concepts such as infrastructure-as-a-service (IaaS) combine both worlds and take in a unique position. For those who understand the SAN / NAS approach, resources can also be use to design massively parallel systems. For companies who find it difficult to deal with the above technologies or understand this, IaaS providers offer appropriate solutions to avoid the complexity of storage technologies and to focus on the challenges facing the company.

An acceptable solution comes from cloud computing pioneer Amazon Web Services. With the AWS Data Pipeline (still in beta) Amazon offers a service which move and handle data automatically between different systems. The systems are to be either directly in the Amazon cloud or on an other system outside. Amazon makes the handling of the growing amounts of data to distributed system with different formats easier. To this number of pipelines, in which the different data sources, conditions, objectives, instructions and schedules are defined can be created. In short, it’s about what data is loaded from which system based on which conditions, then be processed, and afterall where the results should be save. The pipeline will be started as needed, hourly, daily or weekly. The processing can take place either directly in the Amazon cloud or on the systems in the company’s own data center.

Big Data = Big Opportunities?

Not only the Obama example shows how profitable the operation of structured and unstructured data from mobile devices, social media channels, the cloud, and many other different sources of a company can be. However, one has to be clear about one point regarding big data. It is ultimately not the mass of the data that is collected, but the quality and for which the data is to be ultimately used in general.

It is therefore crucial whether and how a company manages the masses of data generated by human and machine interactions and to analyze the highest-quality of information and thus secures a leading position in the market. Qualified data is the new oil and provides companies that recognize their own advantage therein, the lucrative drive.

Kategorien
Kommentar

Der Windows Azure Storage Ausfall zeigt: Siegerkronen haben keine Bedeutung

Der weltweite Ausfall von Windows Azure Storage auf Grund eines abgelaufenen SSL-Zertifikat hat auf Twitter erneut große Wellen geschlagen. Der ironische Beigeschmack kommt insbesondere dadurch zustande, dass Windows Azure erst vor kurzem durch Nasuni zum „Leader in Cloud Storage“ gewählt wurde. Besonders durch Performance, Verfügbarkeit und Schreibfehler konnte Azure glänzen.

Zurück zum Tagesgeschäft

Natürlich wurde das Test-Ergebnis auf dem Team eigenen Windows Azure Blog zurecht gefeiert.

„In einer Untersuchung der Nasuni Corporation wurden verschiedene Anbieter von Cloud Storage wie Microsoft, Amazon, HP, Rackspace, Google vergliechen. Das Ergebnis: Windows Azure konnte in nahezu allen Kategorien (unter anderem Performance, Verfügbarkeit, Schreibfehler) die Siegerkrone einheimsen. Windows Azure geht dort klar als „Leader in Cloud Storage“ hervor. Eine Infografik mit den wichtigsten Ergebnissen gibt es hier, den gesamten Report hier.“

Allerdings wurde das Azure Team durch den wirklich schweren Ausfall, der weltweit zu spüren war, wieder auf den Boden der Tatsachen zurückgeholt und sollte sich nun lieber wieder dem Tagesgeschäft widmen und dafür sorgen, dass ein ABGELAUFENES SSL-ZERTIFIKAT nicht wieder zu so einem Ausfall führt. Denn dieser hat das Test-Ergebnis somit relativiert und zeigt, dass Siegerkronen überhaupt keine Bedeutung haben. Sehr verwunderlich ist, dass bei Microsoft immer vermeidbare Fehler zu solchen schweren Ausfällen führen. Ein weiteres Beispiel ist das Problem mit dem Schaltjahr 2012.

Kategorien
News @en

Microsoft Windows Azure Storage experienced a global(!) outage due to an expired SSL certificate

Since Friday, 22. February, 12:44 PM PST Microsoft Windows Azure Storage suffers massive problems worldwide(!). This happened due to an expired SSL certificate. The outage has also affected Azure Storage dependent services (see screenshot). Currently, Microsoft is working to restore all services. First test deployments seem to show success. More to find on the Windows Azure Service Dashboard.

Microsoft Windows Azure Storage experienced a global(!) outage due to an expired SSL certificate

Pity, since Windows Azure Storage has recently won a Nasuni performance competition against Amazon S3.

Humor on

Humor off

Kategorien
News

Ein abgelaufenes SSL-Zertifikat zwingt Microsoft Windows Azure Storage weltweit(!) in die Knie

Seit Freitag, dem 22. Februar, 12:44 PM PST leidet Microsoft Windows Azure Storage weltweit(!) unter massiven Problemen. Grund hierfür ist ein abgelaufenes SSL-Zertifikat. Der Ausfall hat ebenfalls von Azure Storage abhängige Services in Mitleidenschaft gezogen (siehe Screenshot). Derzeit arbeitet Microsoft an der Wiederherstellung aller Services. Erste Test Deployments zeigen anscheinend Erfolg. Mehr unter dem Windows Azure Service Dashboard.

Ein abgelaufenes SSL-Zertifikat zwingt Microsoft Windows Azure Storage weltweit(!) in die Knie

Schade, wo Windows Azure Storage erst kürzlich einen Nasuni Performance Wettkampf gegen Amazon S3 gewonnen hat.

Humor an

Humor aus

Kategorien
Management @en

Google makes first serious steps into the enterprise

In a post on the Google Enterprise Blog, Google has announced support plans for its cloud platform solutions App Engine, Compute Engine, Cloud Storage, Cloud SQL and BigQuery. Google says, they understand that Google Groups or StackOverflow does not always provide the right answers, and sometimes the support by phone is required. That’s right, Google!

Support plans for the Google Cloud Platform

Google divides its support in four categories: Bronze, Silver, Gold and Platinum, with the following services:

  • Bronze
    Price: free
    Service: Access to the online documentation and forums, contact regarding questions about billing.
  • Silver
    Price: $150 per month
    Service: All benefits of Bronze. Plus: E-mail support regarding product features, best practices, and error messages.
  • Gold
    Price: from $400 per month
    Service: All benefits of Silver. Plus: 24×7 telephone support and consulting for application development and best practices and architecture support for a particular use case.
  • Platinum
    Price: Upon request.
    Service: All benefits of Gold. Plus: Very individual support. Direct access to a Technical Account Manager.

Comment

Google seems more and more to understand that the „old world“ would be supported not only by boards and communities. In particular, enterprises expect a high quality and personal support. That Google also wants to make bigger steps into the business environment, I already had experienced personally. Following a request form to a Google Apps problem a few minutes later I received a call from a German Google employee who helped me out. That was a positive wow factor and a key experience. As a very early Google Apps user, I was used to times, where support pages were running on error pages and a telephone contact even to the United States was not possible.

Nevertheless, today Google is not on a par with the Amazon Web Services (AWS) or Microsoft Windows Azure and is likely to be found at number three. Indeed Google, in addition to the two mentioned plus Salesforce, belongs to the current cloud players in the market, however, the portfolio of Google’s cloud platform compared to AWS and Azure is very thin. With App Engine, Compute Engine, Cloud Storage, Cloud SQL, BigQuery, the Prediction API, and the Translation API at least seven encapsulated services are available, but which not nearly provide the scope of AWS. In addition, you should know that the Google Compute Engine is still in a closed beta and therefore not in active competition.

For Google I still see a problem of acceptance in terms of credibility and above all, the trust. In the core Google is and remains a search engine, which is financed by advertising. Therefore Google is not without a reason named as data kraken, what underpins numerous actions and decisions by Google’s executives even further. At this point Google must be much more open and show what happens to the data that companies but also ordinary users give in trust to Google.

Kategorien
Management

Google macht erste ernsthafte Schritte ins Enterprise Umfeld

In einem Beitrag auf dem Google Enterprise Blog hat Google Support Pläne für seine Cloud Plattform Lösungen App Engine, Compute Engine, Cloud Storage, Cloud SQL und BigQuery angekündigt. Auch Google habe nach eigener Aussage mittlerweile verstanden, dass Google Groups oder Stack Overflow nicht immer die passenden Antworten liefern und die Unterstützung durch einen telefonischen Ansprechpartner erfordert. Ja, so schauts aus Google!

Support Pläne für die Google Cloud Platform

Google unterteilt seinen Support in vier Kategorien: Bronze, Silver, Gold und Platinum, die je folgende Leistungen beinhalten:

  • Bronze
    Preis: Kostenlos
    Leistung: Zugriff auf die Online-Dokumentation und Foren sowie Kontakt bzgl. Fragen zur Abrechnung.
  • Silver
    Preis: $150 pro Monat
    Leistung: Alle Leistungen von Bronze. Plus: E-Mail Support bzgl. Produkt-Funktionen, Best Practice und Fehlermeldungen.
  • Gold
    Preis: ab $400 pro Monat
    Leistung: Alle Leistungen von Silver. Plus: 24×7 Telefon-Support und Beratung zur Applikationsentwicklung sowie Best Practices oder Architekturunterstützung für einen bestimmten Use Case.
  • Platinum
    Preis: Auf Anfrage.
    Leistung: Alle Leistungen von Gold. Plus: Sehr individuelle Unterstützung. Direkter Kontakt zu einem Technical Account Manager.

Kommentar

Google scheint immer mehr zu verstehen, dass die „Alte Welt“ nicht nur durch Foren und Communities unterstützt werden möchte. Insbesondere Unternehmen erwarten einen hochwertigen und persönlichen Support. Dass Google auch im Unternehmensumfeld weiter ankommen möchte, durfte ich bereits persönlich erfahren. Nach einer Formularanfrage zu einem Google Apps Problem erhielt ich wenige Minuten später einen Anruf von einem deutschen Google Mitarbeiter, der sich mit mir auseinandersetze. Das war ein positiver Aha-Effekt und ein Schlüsselerlebnis. Als ein sehr früher Google Apps Nutzer war ich noch Zeiten gewohnt, wo Support-Seiten auf Fehlerseiten liefen und ein telefonischer Kontakt nicht einmal in die USA möglich war.

Dennoch, Google ist derzeit nicht auf Augenhöhe mit den Amazon Web Services (AWS) oder Microsoft Windows Azure zu sehen und ist eher auf Platz drei zu finden. Zwar gehört Google neben den beiden genannten plus Salesforce zu den aktuellen Cloud Playern am Markt, allerdings ist das Portfolio der Google Cloud Platform im Vergleich zu AWS und Azure sehr dünn. Mit der App Engine, Compute Engine, Cloud Storage, Cloud SQL, BigQuery, der Prediction API sowie der Translation API stehen immerhin insgesamt sieben für sich gekapselte Services zur Verfügung, die aber bei weitem nicht den Umfang von AWS bieten. Zudem sollte man wissen, dass sich die Google Compute Engine weiterhin in einer geschlossen Beta befindet und somit nicht zur aktiven Konkurrenz zählt.

Ich sehe bei Google weiterhin ein Akzeptanzproblem in Bezug auf die Glaubwürdigkeit und vor allem der Vertrauenswürdigkeit. Google ist und bleibt im Kern eine Suchmaschine, die sich über Werbung finanziert. Daher gilt Google nicht ohne Grund als Datenkrake, was zahlreiche Aktionen und Entscheidungen durch Googles Führungsetage selbst weiter untermauert. Google muss an dieser Stelle deutlich offener werden und zeigen, was mit den Daten passiert, die Unternehmen aber auch gewöhnliche Nutzer Google anvertrauen.

Kategorien
Kommentar

Big Data und Cloud Computing helfen nicht nur Obama

In meinem Gastbeitrag bei den Automatisierungs-Experten von arago bin ich vor zwei Wochen auf das Thema Big Data eingegangen und das Unternehmen aus dem US-Wahlkampf 2012 von Barack Obama lernen sollten, wie sie Echtzeit-Informationen in einen Vorsprung umwandeln. Neben Cloud Computing, Mobile und Social Media gehört Big Data zu den aktuellen Top-Themen im IT-Unternehmensumfeld. Dabei handelt es sich bei weitem nicht mehr nur um einen Trend sondern um die Realität. Und das mit einem weitreichenden Einfluss auf Unternehmen, ihre strategische Ausrichtung und der IT. Bekannte Technologien und Methoden haben mit der Analyse von Big Data ihre Grenzen erreicht und nur das Unternehmen, welches es schafft, aus den Datensilos einen Informationsvorsprung zu erzielen, wird dem Wettbewerb in Zukunft einen Schritt voraus sein.

Big Data: Kein Alter Wein in Schläuchen

Grundsätzlich ist die Idee hinter Big Data nichts Neues. Von Anfang bis Mitte der 1990er Jahre ging es bereits unter dem Begriff „Business Intelligence“ darum, anhand von Verfahren eine systematische Analysen von Daten vorzunehmen. Die Ergebnisse werden dazu verwendet, um neue Erkenntnisse zu gewinnen, die dabei helfen, die Ziele eines Unternehmens besser zu erreichen und strategische Entscheidungen zu treffen. Allerdings war die Datenbasis, die es zu analysieren galt, deutlich kleiner als heute und lies nur Analysen auf Daten aus der Vergangenheit zu, was zu unsicheren Prognosen für die Zukunft führte. Heute sammeln sämtliche Alltagsgegenstände jede Sekunde massive Datenmengen an Informationen. Dazu gehören Smartphones, Tablets, Autos, Stromzähler oder auch Kameras. Hinzu kommen Bereiche, die sich nicht in der unmittelbaren Umgebung eines Menschen befinden, wie vollautomatisierte Produktionslinien, Distributionslager, Messinstrumente, Flugzeuge und anderen Fortbewegungsmitteln. Und natürlich sind es wir Menschen, die Big Data mit unseren Verhalten im Internet nähren. Tweets auf Twitter, Kommentare auf Facebook, Suchanfragen mit Google, Stöbern mit Amazon und sogar die Vitalwerte während einer Jogging-Session liefern modernen Unternehmen heute unmengen an Daten, aus denen sich wiederum wertvolle Informationen gewinnen lassen.

Strukturierte und unstrukturierte Daten

Große Datensätze sind keine neue Erscheinung. Bereits seit Jahrzenten sammeln Handelsketten, Ölfirmen, Versicherungen oder Banken massiv Informationen über Warenbestände, Bohrdaten und Transaktionen. Weiterhin gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Bereichen von dem, was heute als Big Data bezeichnet wird. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, die Wettervorhersage und die Medizinbranche. Alle genannten Bereiche und Branchen haben mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen.

Doch nun wirkt sich die Problematik auch auf die „normalen“ Branchen aus. Die heutigen Herausforderungen bestehen darin, dass Daten aus vielen unterschiedlichen Quellen stammen und zum Teil schnell, unverhersagbar und damit unstrukturiert aufkommen. Big Data soll daher insbesondere an den Stellen helfen, wo viele unterschiedliche Datenquellen miteinander kombiniert werden. Beispiele sind Tweets auf Twitter, das Surfverhalten oder Informationen über Abverkäufe, um auf dieser Basis neue Produkte und Dienstleistungen zu entwickeln. Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält. Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten beziehungsweise Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind. Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Warum Unternehmen sich für Big Data entscheiden

Doch wo kommen diese riesigen Datenmengen tatsächlich her und welche Motivation haben Unternehmen, sich mit der Thematik zu beschäftigen. Die Marktforscher der Experton Group haben versucht, die Fragen in Ihrer „Big Data 2012 – 2015“ Client-Studie im Oktober 2012 zu klären. Demnach ist der wichtigste Treiber für den Einsatz von Big Data Technologien und Konzepten das rasante Datenwachstum inklusive dem dazugehörigen Qualitätsmanagement und der Automatisierung der Analysen und Reports. Die Themen Kundenbindung und Marketing nehmen circa ein Drittel der Unternehmen zum Anlass, um die Anaysen ihrer Datenbestände zu erneuern. Neue Datenbanktechnologien nennen 27 Prozent der Befragten Unternehmen als Motivation für neue Verfahren zur Datenalyse. Weiterhin zählen nahezu alle Eigenschaften von Big Data zu den Gründen für die Erweiterung des strategischen Datenmanagements. Das zeigt, dass Big Data bereits Realität ist, auch wenn es in vielen Fällen nicht unter diesem Begriff bekannt ist. Die Big Data Treiber selbst sind über alle Branchen und Unternehmensgrößen hinweg gleich. Der einzige Unterschied besteht in der Bedeutung und Intensität. Ein großer Unterschied bei der Unternehmensgröße besteht in der Verteilung der Daten und Informationen an die richtigen Mitarbeiter im Unternehmen. Hier sehen große Unternehmen ihre größten Herausforderungen. Wohingegen kleinere Unternehmen das Thema als sehr unkritisch einstufen.

Big Data: Ein Anwendungsfall für die Cloud

Die Öl-und Gasindustrie hat die Verarbeitung großer Datenmengen durch den Einsatz von traditionellen Storage-Lösungen (SAN und NAS) gelöst. Forschungsorientierte Organisationen oder Unternehmen wie Google, die mit der Analyse von Massendaten zu tun haben, neigen eher dazu den Grid Ansatz zu verfolgen, um die nicht benötigten Ressourcen in die Software-Entwicklung zu investieren.

Big Data Verarbeitung gehört in die Cloud

Cloud Infrastrukturen helfen bei der Kostenreduzierung für die IT-Infrastruktur. Dadurch werden Unternehmen in die Lage versetzt, sich effizienter auf ihr Kerngeschäft zu konzentrieren und erhalten mehr Flexibilität und Agilität für den Einsatz neuer Lösungen. Damit wird ein Grundstein gelegt, sich auf die ständig verändernden Datenmengen einzustellen und für die notwendige Skalierbarkeit zu sorgen. Cloud Computing Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.

Cloud Ressourcen wachsen mit der Datenmenge

Cloud Computing Infrastrukturen sind darauf ausgelegt, dass sie mit den jeweiligen Anforderungen und Bedürfnissen mitwachsen oder sich reduzieren lassen. Unternehmen können die hohen Anforderungen – wie Hohe Rechenleistung, viel Speicherplatz, hohes I/O, performante Datenbanken usw. – die von Big Data erwartet werden, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Cloud Konzepte wie Infrastructure-as-a-Service (IaaS), vereinen beide Welten und nehmen dadurch eine einzigartige Position ein. Für diejenigen, die das SAN/NAS Konzept verstehen, werden die Ressourcen ebenfalls nutzen können, um massiv-parallele Systeme zu entwerfen. Für Unternehmen denen es schwer fällt sich mit den genannten Technologien auseinanderzusetzen oder diese zu verstehen, bieten IaaS Anbieter entsprechende Lösungen, um die Komplexität der Speichertechnologien zu umgehen und sich auf die Herausforderungen des Unternehmens zu konzentrieren.

Eine passable Lösung kommt von Cloud Computing Pionier Amazon Web Services. Mit der AWS Data Pipeline steht bei Amazon ein Service (noch in der Betaphase) bereit, mit dem sich Daten automatisch zwischen verschiedenen Systemen verschieben und verarbeiten lassen. Die Systeme können sich dazu entweder direkt in der Amazon Cloud oder auf einem anderen System außerhalb befinden. Amazon macht damit die Handhabung der wachsenden Datenmengen auf verteilten System mit unterschiedlichen Formaten einfacher. Dazu lassen sich beliebig viele Pipelines erstellen, in denen die unterschiedlichen Datenquellen, Bedingungen, Ziele, Anweisungen und Zeitpläne definiert sind. Kurzum geht es darum, welche Daten von welchem System auf Basis welcher Bedingungen geladen, verarbeitet und die Ergebnisse anschließend wieder gespeichert werden. Die Pipelines selbst werden je nach Bedarf stündlich, täglich oder wöchentlich gestartet. Die Verarbeitung kann entweder direkt in der Amazon Cloud oder auf den Systemen im unternehmenseigenen Rechenezentrum stattfinden.

Big Data = Big Opportunities?

Nicht nur das Obama Beispiel zeigt, wie gewinnbringend die Verknüpfung von strukturierten und unstrukturierten Daten aus mobilen Endgeräten, Social Media Kanälen, der Cloud und vielen weiteren unterschiedlichen Quellen für ein Unternehmen sein kann. Allerdings muss man sich bei Big Data über eines im Klaren sein. Es geht letztendlich nicht um die Masse der Daten die gesammelt wird, sondern um deren Qualität und wofür die Daten letztendlich überhaupt genutzt werden sollen.

Entscheidend ist daher, ob und wie ein Unternehmen es schafft, aus den Massen an Daten, die durch menschliche und maschinelle Interaktionen entstehen, die qualitativ hochwertigsten Informationen zu analysieren und sich damit eine führende Position am Markt sichert. Qualifizierte Daten sind das neue Öl und werden in den Unternehmen, die den eigenen Vorteil darin erkennen, für den gewinnbringenden Antrieb sorgen.

Kategorien
Events

In eigener Sache: CeBIT 2013

Ich werde diese Jahr drei Tage, vom Dienstag 05.03 bis einschließlich Donnerstag 07.03, auf der CeBIT sein. Wie bereits im letzten Jahr werde ich eine Panel-Moderation zum Thema Public/ Private Cloud auf der Webciety übernehmen und zusätzlich einen Impulsvortrag halten. Weiterhin moderiere ich als kritische Stimme einen Workshop bei Microsoft zum Thema Shareconomy. Zeit für ein persönliches Treffen bleibt ebenfalls, wofür noch ein paar Termine offen sind.

Vortrag & Moderation Webciety – „Private & Public Cloud“ Panel

Wann
05.03.2013 / 11:40 – 12:20 Uhr / Halle 6, Stand H32

Hintergrund
Die Nutzung von Cloud-Lösung in den Unternehmen ist auch in 2012 nachhaltig gewachsen. Dennoch gibt es weiterhin Unklarheiten, die das Panel diskutieren wird. Hierzu gehört – sind die Public-Cloud-Angebote beim Thema Datenschutzrichtlinien ausreichend? Welche zusätzlichen Maßnahmen sind vorzunehmen? Ab wann machen Private Cloud Ansätze Sinn?

Teilnehmer

  • René Büst [Impulsvortrag & Moderation], Cloud Computing & Technologie Analyst, renebuest research
  • Thomas Uhl, Initiator der Deutschen Wolke, Deutsche Wolke
  • Holger Dyroff, VP Sales & Marketing, Co-Founder, ownCloud
  • Kurt Rindle, Cloud Portfolio Leader, IBM Deutschland
  • Jürgen Spieß, Senior Account Manager, SHE Informationstechnologie

Weitere Informationen unter Webciety Private & Public Cloud.

Microsoft Workshop Moderation: Shareconomy

Wann
06.03.2013 / 10:00 – 11:00 Uhr / Halle 4, Stand A26, Treffpunkt: Pressetheke

Hintergrund
„Workshop mit René Büst und digitalSTROM: Wie die Idee hinter Shareconomy auch Microsoft treibt: Die Mauern müssen weg!“

Können IT Player noch länger Offenheit vom User fordern und selber dicht machen? Bedeutet teilen, dass der einzelne Nutzer seine Daten ungefragt preisgeben muss? Die Idee hinter Shareconomy treibt auch Microsoft: Wenn Technologie zunehmend Grenzen überwindet, dann geht es darum, dass sie sich dem Individuum öffnet. Shareconomy ist für denjenigen ein Wettbewerbsvorteil, der frei zwischen Plattformen von PC bis iPad, zwischen Programmiersprachen von C# und PHP, zwischen On Premise und Cloud, zwischen Open und Closed Source wählen kann. – Und Shareconomy ist ein Wettbewerbsvorteil für digitalSTROM, weil es die Microsoft Cloud als zentrale Zugriffs- und Verwaltungsplattform für die Linux-basierten digitalSTROM Server in den Sicherungskästen nutzt. Hat Microsoft seine Geschlossenheit von einst gegen einen entwaffnend offenen Ansatz eingetauscht? – Diskutieren Sie mit Heike Ritter, Technical Evangelist Microsoft, Stephan Jacquemot, Leiter der Gründerinitiative von Microsoft, Martin Vesper, CEO digitalSTROM und Rene Büst, CloudUser.de, wie sich IT Player für die Idee hinter Shareconomy verändern sollen.

Weitere Informationen unter „Workshop mit René Büst und digitalSTROM: Wie die Idee hinter Shareconomy auch Microsoft treibt. – Die Mauern müssen weg!

Teilnehmer

  • René Büst (Moderator), Cloud Computing & Technologie Analyst, renebuest research
  • Heike Ritter, Technical Evangelist, Microsoft Deutschland GmbH
  • Stephan Jacquemot, Emerging Business Team Lead Germany, Microsoft Deutschland GmbH
  • Martin Vesper, CEO digitalSTROM

Persönliches Treffen vereinbaren

Neben den oben genannten festen Terminen bin ich auf der CeBIT ansonsten soweit frei verfügbar und somit für ein persönliches Treffen greifbar. Wer mir in einem 1:1 Gespräch etwas erzählen möchte oder mich einfach nur mal persönlich kennenlernen möchte, sollte am besten eine E-Mail an „ping at clouduser dot org“ schicken. Ein paar Zeitfenster sind derzeit noch offen.

Kategorien
Management @en

AWS OpsWorks: More PaaS functionality in Amazon's cloud portfolio

Correctly, we name the Amazon Web Services (AWS) as an infrastructure-as-a-service (IaaS). AWS Elastic Beanstalk splits the stock, whether the service should be counted as a platform-as-a-service (PaaS). Anyway, AWS provides various PaaS functionality in its cloud portfolio for some time and extends it now with AWS OpsWorks (still in beta).

What is AWS OpsWorks?

AWS OpsWorks is a solution for the flexible and automated application management. It addresses IT administrators and DevOps developers, who can use it to manage the complete lifecycle of an application, including resource provisioning, configuration management, software updates, monitoring and access control. AWS OpsWorks can be used for free. Costs emerge for the deployed virtual AWS infrastructure resources.

OpsWorks allows you to create a logical architecture, the provisioning of the required resources based on the architecture and providing the application and the necessary software packages for a specific configuration. OpsWorks then cares about the operation of the application and supports the life cycle including autoscaling and software updates.

AWS OpsWorks details

AWS OpsWorks supports different application architectures and works with any software whose installation is script-based. Based on the Chef framework you can use your own ready recipes or those from the community. An event-based configuration system helps during the application lifecycle management. These include customizable deployments, rollbacks, patch management, auto-scaling and auto healing. With that an update can be rolled out just by updating a single configuration file. Moreover OpsWorks has the ability to host AWS instances based on a precisely self specified configuration. This also includes the scale of an application based on the application load, or a time-based auto scaling as well as monitoring the application and the replacement of faulty instances.

With OpsWorks applications can be build in so-called „Layers“. A Layer defines how a set of together managed resources are configured. An example could be a web layer. This includes EC2 instances, EBS volumes including a RAID configuration and mount points and Elastic IP addresses. In addition for each layer, a software configuration can be created. This includes installation scripts and steps for initialization. Is an instance added to a layer, OpsWorks ensures that it will receive the corresponding configurations. OpsWorks provides pre-defined layers of technologies such as Ruby, PHP, HAProxy, Memcached and MySQL. These can be customized and extended.

Technology from Germany

OpsWorks was invented in Germany and is based on the technology Scalarium of the Berlin company Peritor. Scalarium was bought in 2012 by Amazon.

Comment

Indeed, AWS OpsWorks is not a concrete PaaS offering. This is due to the building blocks philosophy of the Amazon Web Services. This means that the offered services will be made ​​available as granular as possible. The customer then has the option to integrate the services for its use case and how it needs them. For that, of course, a lot of personal contribution and knowledge is required, which for the infrastructure of a typical PaaS is not required. However, AWS OpsWorks closes in terms of convenience the gap to the PaaS market and offers more and more PaaS functionality in the Amazon Cloud.

About one thing a customer should be aware of. And that applies not only to AWS OpsWorks but for the use of each AWS service. The lock-in in the AWS infrastructure becomes bigger and bigger with each service Amazon is releasing. This need not be a bad thing. A lock-in is necessarily anything negative and may even be beneficial, on the contrary, as long as the own needs are met, and not too large compromises have to be made ​​by the customer himself.

As a customer you just have to keep this in mind before the way into the AWS cloud, as well as in any other cloud, and consider possible exit strategies or multi-cloud approaches.

Kategorien
Management

AWS OpsWorks: Mehr PaaS-Funktionalität im Cloud-Portfolio von Amazon

Korrekterweise spricht man bei den Amazon Web Services (AWS) von einem Infrastructure-as-a-Service (IaaS). Bei AWS Elastic Beanstalk spalten sich die Lager, ob der Service zu den Platform-as-a-Services (PaaS) gezählt werden dürfe. Zumindest bietet AWS seit längerer Zeit diverse PaaS-Funktionalität in seinem Cloud-Portfolio und erweitert diese nun mit „AWS OpsWorks“ (noch in der Beta).

Was ist AWS OpsWorks?

AWS OpsWorks ist eine Lösung für das flexible und automatisierte Applikationsmanagement. Es richtet sich an IT-Administratoren und DevOps Entwickler, die damit den vollständigen Lebenszyklus einer Anwendung inkl. Ressourcen-Provisionierung, Konfigurationsmanagement, Softwareupdates, Monitoring und Zugriffskontrolle verwalten können. AWS OpsWorks kann kostenlos genutzt werden. Kosten entstehen für die darunter eingesetzten virtuellen AWS Infrastrukturressourcen.

OpsWorks ermöglicht das Erstellen einer logischen Architektur, die Provisionierung der benötigten Ressourcen basierend auf der Architektur sowie das Bereitstellen der Applikation und die dafür benötigte Software und Pakete für eine bestimmte Konfiguration. OpsWorks sorgt dann für den Betrieb der Applikation und unterstützt deren Lebenszyklus inkl. Autoscaling und Softwareupdates.

AWS OpsWorks Details

AWS OpsWorks unterstützt unterschiedliche Applikations-Architekturen und arbeitet mit jeder Software zusammen, deren Installation skript-basiert verläuft. Basierend auf dem Chef Framework können bereits fertige eigene Rezepte oder welche aus der Community genutzt werden, um OpsWorks einzusetzen.

Ein Event-basiertes Konfigurationssystem hilft beim Lebenszyklus-Management einer Applikation. Dazu gehören anpassbare Deployments, Rollbacks, Patchmanagement, Autoscaling sowie Autohealing. So lässt sich z.B. ein Update über das Aktualisieren einer einzigen Konfigurationsdatei ausrollen. Zudem ist OpsWorks in der Lage, AWS Instanzen basierend auf einer selbst exakt spezifizierten Konfiguration zu hosten. Dazu gehört ebenfalls die Skalierung dieser Applikation anhand der jeweiligen Last auf der Anwendung oder einer zeitbasierten automatischen Skalierung sowie der Überwachung der Applikation und dem Austausch fehlerhafter Instanzen.

Mit OpsWorks lassen sich Applikationen in sogenannte „Layer“ aufbauen. Layer definieren, wie ein Teil von Ressourcen, die zusammen verwaltet werden, konfiguriert werden sollen. Ein Beispiel könnte ein Web-Layer sein. Dieser beinhaltet EC2 Instanzen, EBS Volumes inkl. einer RAID Konfiguration und Mount Points sowie Elastic IP-Adressen. Für jeden Layer kann zudem eine Software-Konfiguration erstellt werden. Darin sind Installations-Skripte und Schritte für die Initialisierung enthalten. Wird nun eine Instanz zu einem Layer hinzugefügt, sorgt OpsWorks dafür, dass diese die entsprechenden Konfigurationen erhält. OpsWorks stellt vor-definierte Layer für Technologien wie Ruby, PHP, HAProxy, Memcached und MySQL bereit. Diese können angepasst und erweitert werden.

Technologie aus Deutschland

OpsWorks ist eine Erfindung aus Deutschland und basiert auf der Scalarium Technologie des Berliner Unternehmens Peritor. Scalarium wurde bereits 2012 von Amazon gekauft.

Kommentar

Bei AWS OpsWorks handelt es sich zwar um kein konkretes PaaS Angebot. Dieses liegt allerdings an der Building Blocks Philosophie der Amazon Web Services. Das bedeutet, dass die angebotenen Services so granular wie möglich bereitgestellt werden. Der Kunde hat anschließend die Möglichkeit, die Services für seinen Use Case so zu integrieren, wie er sie benötigt. Dafür wird natürlich dementsprechend viel Eigenleistung und Wissen benötigt, welches bei einem typischen PaaS für die Infrastruktur nicht erforderlich ist. Jedoch schließt AWS OpsWorks hinsichtlich der Convenience zu den PaaS am Markt immer weiter auf und bietet immer mehr PaaS-Funktionalität in der Amazon Cloud.

Über eines sollte man sich als Kunde dennoch bewusst sein. Und das gilt nicht nur für AWS OpsWorks, sondern für die Nutzung jedes AWS Service. Der Lock-in in die AWS-Infastruktur wird mit jedem Service den Amazon veröffentlicht immer größer. Das muss nichts Schlechtes bedeuten. Ein Lock-in ist zwangsläufig nichts Negatives und kann im Gegenteil sogar von Vorteil sein, solange die eigenen Anforderungen erfüllt werden und nicht zu große Kompromisse durch den Kunden selbst gemacht werden müssen.

Man muss sich als Kunde dies nur vor Augen halten und bereits vor dem Weg in die AWS Cloud, als auch in jede andere Cloud, über mögliche Exit-Strategien oder einen Multi-Cloud Ansatz nachdenken.