Kategorien
Management @en

Google makes first serious steps into the enterprise

In a post on the Google Enterprise Blog, Google has announced support plans for its cloud platform solutions App Engine, Compute Engine, Cloud Storage, Cloud SQL and BigQuery. Google says, they understand that Google Groups or StackOverflow does not always provide the right answers, and sometimes the support by phone is required. That’s right, Google!

Support plans for the Google Cloud Platform

Google divides its support in four categories: Bronze, Silver, Gold and Platinum, with the following services:

  • Bronze
    Price: free
    Service: Access to the online documentation and forums, contact regarding questions about billing.
  • Silver
    Price: $150 per month
    Service: All benefits of Bronze. Plus: E-mail support regarding product features, best practices, and error messages.
  • Gold
    Price: from $400 per month
    Service: All benefits of Silver. Plus: 24×7 telephone support and consulting for application development and best practices and architecture support for a particular use case.
  • Platinum
    Price: Upon request.
    Service: All benefits of Gold. Plus: Very individual support. Direct access to a Technical Account Manager.

Comment

Google seems more and more to understand that the „old world“ would be supported not only by boards and communities. In particular, enterprises expect a high quality and personal support. That Google also wants to make bigger steps into the business environment, I already had experienced personally. Following a request form to a Google Apps problem a few minutes later I received a call from a German Google employee who helped me out. That was a positive wow factor and a key experience. As a very early Google Apps user, I was used to times, where support pages were running on error pages and a telephone contact even to the United States was not possible.

Nevertheless, today Google is not on a par with the Amazon Web Services (AWS) or Microsoft Windows Azure and is likely to be found at number three. Indeed Google, in addition to the two mentioned plus Salesforce, belongs to the current cloud players in the market, however, the portfolio of Google’s cloud platform compared to AWS and Azure is very thin. With App Engine, Compute Engine, Cloud Storage, Cloud SQL, BigQuery, the Prediction API, and the Translation API at least seven encapsulated services are available, but which not nearly provide the scope of AWS. In addition, you should know that the Google Compute Engine is still in a closed beta and therefore not in active competition.

For Google I still see a problem of acceptance in terms of credibility and above all, the trust. In the core Google is and remains a search engine, which is financed by advertising. Therefore Google is not without a reason named as data kraken, what underpins numerous actions and decisions by Google’s executives even further. At this point Google must be much more open and show what happens to the data that companies but also ordinary users give in trust to Google.

Kategorien
Management

Google macht erste ernsthafte Schritte ins Enterprise Umfeld

In einem Beitrag auf dem Google Enterprise Blog hat Google Support Pläne für seine Cloud Plattform Lösungen App Engine, Compute Engine, Cloud Storage, Cloud SQL und BigQuery angekündigt. Auch Google habe nach eigener Aussage mittlerweile verstanden, dass Google Groups oder Stack Overflow nicht immer die passenden Antworten liefern und die Unterstützung durch einen telefonischen Ansprechpartner erfordert. Ja, so schauts aus Google!

Support Pläne für die Google Cloud Platform

Google unterteilt seinen Support in vier Kategorien: Bronze, Silver, Gold und Platinum, die je folgende Leistungen beinhalten:

  • Bronze
    Preis: Kostenlos
    Leistung: Zugriff auf die Online-Dokumentation und Foren sowie Kontakt bzgl. Fragen zur Abrechnung.
  • Silver
    Preis: $150 pro Monat
    Leistung: Alle Leistungen von Bronze. Plus: E-Mail Support bzgl. Produkt-Funktionen, Best Practice und Fehlermeldungen.
  • Gold
    Preis: ab $400 pro Monat
    Leistung: Alle Leistungen von Silver. Plus: 24×7 Telefon-Support und Beratung zur Applikationsentwicklung sowie Best Practices oder Architekturunterstützung für einen bestimmten Use Case.
  • Platinum
    Preis: Auf Anfrage.
    Leistung: Alle Leistungen von Gold. Plus: Sehr individuelle Unterstützung. Direkter Kontakt zu einem Technical Account Manager.

Kommentar

Google scheint immer mehr zu verstehen, dass die „Alte Welt“ nicht nur durch Foren und Communities unterstützt werden möchte. Insbesondere Unternehmen erwarten einen hochwertigen und persönlichen Support. Dass Google auch im Unternehmensumfeld weiter ankommen möchte, durfte ich bereits persönlich erfahren. Nach einer Formularanfrage zu einem Google Apps Problem erhielt ich wenige Minuten später einen Anruf von einem deutschen Google Mitarbeiter, der sich mit mir auseinandersetze. Das war ein positiver Aha-Effekt und ein Schlüsselerlebnis. Als ein sehr früher Google Apps Nutzer war ich noch Zeiten gewohnt, wo Support-Seiten auf Fehlerseiten liefen und ein telefonischer Kontakt nicht einmal in die USA möglich war.

Dennoch, Google ist derzeit nicht auf Augenhöhe mit den Amazon Web Services (AWS) oder Microsoft Windows Azure zu sehen und ist eher auf Platz drei zu finden. Zwar gehört Google neben den beiden genannten plus Salesforce zu den aktuellen Cloud Playern am Markt, allerdings ist das Portfolio der Google Cloud Platform im Vergleich zu AWS und Azure sehr dünn. Mit der App Engine, Compute Engine, Cloud Storage, Cloud SQL, BigQuery, der Prediction API sowie der Translation API stehen immerhin insgesamt sieben für sich gekapselte Services zur Verfügung, die aber bei weitem nicht den Umfang von AWS bieten. Zudem sollte man wissen, dass sich die Google Compute Engine weiterhin in einer geschlossen Beta befindet und somit nicht zur aktiven Konkurrenz zählt.

Ich sehe bei Google weiterhin ein Akzeptanzproblem in Bezug auf die Glaubwürdigkeit und vor allem der Vertrauenswürdigkeit. Google ist und bleibt im Kern eine Suchmaschine, die sich über Werbung finanziert. Daher gilt Google nicht ohne Grund als Datenkrake, was zahlreiche Aktionen und Entscheidungen durch Googles Führungsetage selbst weiter untermauert. Google muss an dieser Stelle deutlich offener werden und zeigen, was mit den Daten passiert, die Unternehmen aber auch gewöhnliche Nutzer Google anvertrauen.

Kategorien
Kommentar

Big Data und Cloud Computing helfen nicht nur Obama

In meinem Gastbeitrag bei den Automatisierungs-Experten von arago bin ich vor zwei Wochen auf das Thema Big Data eingegangen und das Unternehmen aus dem US-Wahlkampf 2012 von Barack Obama lernen sollten, wie sie Echtzeit-Informationen in einen Vorsprung umwandeln. Neben Cloud Computing, Mobile und Social Media gehört Big Data zu den aktuellen Top-Themen im IT-Unternehmensumfeld. Dabei handelt es sich bei weitem nicht mehr nur um einen Trend sondern um die Realität. Und das mit einem weitreichenden Einfluss auf Unternehmen, ihre strategische Ausrichtung und der IT. Bekannte Technologien und Methoden haben mit der Analyse von Big Data ihre Grenzen erreicht und nur das Unternehmen, welches es schafft, aus den Datensilos einen Informationsvorsprung zu erzielen, wird dem Wettbewerb in Zukunft einen Schritt voraus sein.

Big Data: Kein Alter Wein in Schläuchen

Grundsätzlich ist die Idee hinter Big Data nichts Neues. Von Anfang bis Mitte der 1990er Jahre ging es bereits unter dem Begriff „Business Intelligence“ darum, anhand von Verfahren eine systematische Analysen von Daten vorzunehmen. Die Ergebnisse werden dazu verwendet, um neue Erkenntnisse zu gewinnen, die dabei helfen, die Ziele eines Unternehmens besser zu erreichen und strategische Entscheidungen zu treffen. Allerdings war die Datenbasis, die es zu analysieren galt, deutlich kleiner als heute und lies nur Analysen auf Daten aus der Vergangenheit zu, was zu unsicheren Prognosen für die Zukunft führte. Heute sammeln sämtliche Alltagsgegenstände jede Sekunde massive Datenmengen an Informationen. Dazu gehören Smartphones, Tablets, Autos, Stromzähler oder auch Kameras. Hinzu kommen Bereiche, die sich nicht in der unmittelbaren Umgebung eines Menschen befinden, wie vollautomatisierte Produktionslinien, Distributionslager, Messinstrumente, Flugzeuge und anderen Fortbewegungsmitteln. Und natürlich sind es wir Menschen, die Big Data mit unseren Verhalten im Internet nähren. Tweets auf Twitter, Kommentare auf Facebook, Suchanfragen mit Google, Stöbern mit Amazon und sogar die Vitalwerte während einer Jogging-Session liefern modernen Unternehmen heute unmengen an Daten, aus denen sich wiederum wertvolle Informationen gewinnen lassen.

Strukturierte und unstrukturierte Daten

Große Datensätze sind keine neue Erscheinung. Bereits seit Jahrzenten sammeln Handelsketten, Ölfirmen, Versicherungen oder Banken massiv Informationen über Warenbestände, Bohrdaten und Transaktionen. Weiterhin gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Bereichen von dem, was heute als Big Data bezeichnet wird. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, die Wettervorhersage und die Medizinbranche. Alle genannten Bereiche und Branchen haben mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen.

Doch nun wirkt sich die Problematik auch auf die „normalen“ Branchen aus. Die heutigen Herausforderungen bestehen darin, dass Daten aus vielen unterschiedlichen Quellen stammen und zum Teil schnell, unverhersagbar und damit unstrukturiert aufkommen. Big Data soll daher insbesondere an den Stellen helfen, wo viele unterschiedliche Datenquellen miteinander kombiniert werden. Beispiele sind Tweets auf Twitter, das Surfverhalten oder Informationen über Abverkäufe, um auf dieser Basis neue Produkte und Dienstleistungen zu entwickeln. Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält. Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten beziehungsweise Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind. Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Warum Unternehmen sich für Big Data entscheiden

Doch wo kommen diese riesigen Datenmengen tatsächlich her und welche Motivation haben Unternehmen, sich mit der Thematik zu beschäftigen. Die Marktforscher der Experton Group haben versucht, die Fragen in Ihrer „Big Data 2012 – 2015“ Client-Studie im Oktober 2012 zu klären. Demnach ist der wichtigste Treiber für den Einsatz von Big Data Technologien und Konzepten das rasante Datenwachstum inklusive dem dazugehörigen Qualitätsmanagement und der Automatisierung der Analysen und Reports. Die Themen Kundenbindung und Marketing nehmen circa ein Drittel der Unternehmen zum Anlass, um die Anaysen ihrer Datenbestände zu erneuern. Neue Datenbanktechnologien nennen 27 Prozent der Befragten Unternehmen als Motivation für neue Verfahren zur Datenalyse. Weiterhin zählen nahezu alle Eigenschaften von Big Data zu den Gründen für die Erweiterung des strategischen Datenmanagements. Das zeigt, dass Big Data bereits Realität ist, auch wenn es in vielen Fällen nicht unter diesem Begriff bekannt ist. Die Big Data Treiber selbst sind über alle Branchen und Unternehmensgrößen hinweg gleich. Der einzige Unterschied besteht in der Bedeutung und Intensität. Ein großer Unterschied bei der Unternehmensgröße besteht in der Verteilung der Daten und Informationen an die richtigen Mitarbeiter im Unternehmen. Hier sehen große Unternehmen ihre größten Herausforderungen. Wohingegen kleinere Unternehmen das Thema als sehr unkritisch einstufen.

Big Data: Ein Anwendungsfall für die Cloud

Die Öl-und Gasindustrie hat die Verarbeitung großer Datenmengen durch den Einsatz von traditionellen Storage-Lösungen (SAN und NAS) gelöst. Forschungsorientierte Organisationen oder Unternehmen wie Google, die mit der Analyse von Massendaten zu tun haben, neigen eher dazu den Grid Ansatz zu verfolgen, um die nicht benötigten Ressourcen in die Software-Entwicklung zu investieren.

Big Data Verarbeitung gehört in die Cloud

Cloud Infrastrukturen helfen bei der Kostenreduzierung für die IT-Infrastruktur. Dadurch werden Unternehmen in die Lage versetzt, sich effizienter auf ihr Kerngeschäft zu konzentrieren und erhalten mehr Flexibilität und Agilität für den Einsatz neuer Lösungen. Damit wird ein Grundstein gelegt, sich auf die ständig verändernden Datenmengen einzustellen und für die notwendige Skalierbarkeit zu sorgen. Cloud Computing Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.

Cloud Ressourcen wachsen mit der Datenmenge

Cloud Computing Infrastrukturen sind darauf ausgelegt, dass sie mit den jeweiligen Anforderungen und Bedürfnissen mitwachsen oder sich reduzieren lassen. Unternehmen können die hohen Anforderungen – wie Hohe Rechenleistung, viel Speicherplatz, hohes I/O, performante Datenbanken usw. – die von Big Data erwartet werden, bequem durch die Nutzung von Cloud Computing Infrastrukturen begegnen ohne selbst massiv in eigene Ressourcen zu investieren.

Cloud Konzepte wie Infrastructure-as-a-Service (IaaS), vereinen beide Welten und nehmen dadurch eine einzigartige Position ein. Für diejenigen, die das SAN/NAS Konzept verstehen, werden die Ressourcen ebenfalls nutzen können, um massiv-parallele Systeme zu entwerfen. Für Unternehmen denen es schwer fällt sich mit den genannten Technologien auseinanderzusetzen oder diese zu verstehen, bieten IaaS Anbieter entsprechende Lösungen, um die Komplexität der Speichertechnologien zu umgehen und sich auf die Herausforderungen des Unternehmens zu konzentrieren.

Eine passable Lösung kommt von Cloud Computing Pionier Amazon Web Services. Mit der AWS Data Pipeline steht bei Amazon ein Service (noch in der Betaphase) bereit, mit dem sich Daten automatisch zwischen verschiedenen Systemen verschieben und verarbeiten lassen. Die Systeme können sich dazu entweder direkt in der Amazon Cloud oder auf einem anderen System außerhalb befinden. Amazon macht damit die Handhabung der wachsenden Datenmengen auf verteilten System mit unterschiedlichen Formaten einfacher. Dazu lassen sich beliebig viele Pipelines erstellen, in denen die unterschiedlichen Datenquellen, Bedingungen, Ziele, Anweisungen und Zeitpläne definiert sind. Kurzum geht es darum, welche Daten von welchem System auf Basis welcher Bedingungen geladen, verarbeitet und die Ergebnisse anschließend wieder gespeichert werden. Die Pipelines selbst werden je nach Bedarf stündlich, täglich oder wöchentlich gestartet. Die Verarbeitung kann entweder direkt in der Amazon Cloud oder auf den Systemen im unternehmenseigenen Rechenezentrum stattfinden.

Big Data = Big Opportunities?

Nicht nur das Obama Beispiel zeigt, wie gewinnbringend die Verknüpfung von strukturierten und unstrukturierten Daten aus mobilen Endgeräten, Social Media Kanälen, der Cloud und vielen weiteren unterschiedlichen Quellen für ein Unternehmen sein kann. Allerdings muss man sich bei Big Data über eines im Klaren sein. Es geht letztendlich nicht um die Masse der Daten die gesammelt wird, sondern um deren Qualität und wofür die Daten letztendlich überhaupt genutzt werden sollen.

Entscheidend ist daher, ob und wie ein Unternehmen es schafft, aus den Massen an Daten, die durch menschliche und maschinelle Interaktionen entstehen, die qualitativ hochwertigsten Informationen zu analysieren und sich damit eine führende Position am Markt sichert. Qualifizierte Daten sind das neue Öl und werden in den Unternehmen, die den eigenen Vorteil darin erkennen, für den gewinnbringenden Antrieb sorgen.

Kategorien
Events

In eigener Sache: CeBIT 2013

Ich werde diese Jahr drei Tage, vom Dienstag 05.03 bis einschließlich Donnerstag 07.03, auf der CeBIT sein. Wie bereits im letzten Jahr werde ich eine Panel-Moderation zum Thema Public/ Private Cloud auf der Webciety übernehmen und zusätzlich einen Impulsvortrag halten. Weiterhin moderiere ich als kritische Stimme einen Workshop bei Microsoft zum Thema Shareconomy. Zeit für ein persönliches Treffen bleibt ebenfalls, wofür noch ein paar Termine offen sind.

Vortrag & Moderation Webciety – „Private & Public Cloud“ Panel

Wann
05.03.2013 / 11:40 – 12:20 Uhr / Halle 6, Stand H32

Hintergrund
Die Nutzung von Cloud-Lösung in den Unternehmen ist auch in 2012 nachhaltig gewachsen. Dennoch gibt es weiterhin Unklarheiten, die das Panel diskutieren wird. Hierzu gehört – sind die Public-Cloud-Angebote beim Thema Datenschutzrichtlinien ausreichend? Welche zusätzlichen Maßnahmen sind vorzunehmen? Ab wann machen Private Cloud Ansätze Sinn?

Teilnehmer

  • René Büst [Impulsvortrag & Moderation], Cloud Computing & Technologie Analyst, renebuest research
  • Thomas Uhl, Initiator der Deutschen Wolke, Deutsche Wolke
  • Holger Dyroff, VP Sales & Marketing, Co-Founder, ownCloud
  • Kurt Rindle, Cloud Portfolio Leader, IBM Deutschland
  • Jürgen Spieß, Senior Account Manager, SHE Informationstechnologie

Weitere Informationen unter Webciety Private & Public Cloud.

Microsoft Workshop Moderation: Shareconomy

Wann
06.03.2013 / 10:00 – 11:00 Uhr / Halle 4, Stand A26, Treffpunkt: Pressetheke

Hintergrund
„Workshop mit René Büst und digitalSTROM: Wie die Idee hinter Shareconomy auch Microsoft treibt: Die Mauern müssen weg!“

Können IT Player noch länger Offenheit vom User fordern und selber dicht machen? Bedeutet teilen, dass der einzelne Nutzer seine Daten ungefragt preisgeben muss? Die Idee hinter Shareconomy treibt auch Microsoft: Wenn Technologie zunehmend Grenzen überwindet, dann geht es darum, dass sie sich dem Individuum öffnet. Shareconomy ist für denjenigen ein Wettbewerbsvorteil, der frei zwischen Plattformen von PC bis iPad, zwischen Programmiersprachen von C# und PHP, zwischen On Premise und Cloud, zwischen Open und Closed Source wählen kann. – Und Shareconomy ist ein Wettbewerbsvorteil für digitalSTROM, weil es die Microsoft Cloud als zentrale Zugriffs- und Verwaltungsplattform für die Linux-basierten digitalSTROM Server in den Sicherungskästen nutzt. Hat Microsoft seine Geschlossenheit von einst gegen einen entwaffnend offenen Ansatz eingetauscht? – Diskutieren Sie mit Heike Ritter, Technical Evangelist Microsoft, Stephan Jacquemot, Leiter der Gründerinitiative von Microsoft, Martin Vesper, CEO digitalSTROM und Rene Büst, CloudUser.de, wie sich IT Player für die Idee hinter Shareconomy verändern sollen.

Weitere Informationen unter „Workshop mit René Büst und digitalSTROM: Wie die Idee hinter Shareconomy auch Microsoft treibt. – Die Mauern müssen weg!

Teilnehmer

  • René Büst (Moderator), Cloud Computing & Technologie Analyst, renebuest research
  • Heike Ritter, Technical Evangelist, Microsoft Deutschland GmbH
  • Stephan Jacquemot, Emerging Business Team Lead Germany, Microsoft Deutschland GmbH
  • Martin Vesper, CEO digitalSTROM

Persönliches Treffen vereinbaren

Neben den oben genannten festen Terminen bin ich auf der CeBIT ansonsten soweit frei verfügbar und somit für ein persönliches Treffen greifbar. Wer mir in einem 1:1 Gespräch etwas erzählen möchte oder mich einfach nur mal persönlich kennenlernen möchte, sollte am besten eine E-Mail an „ping at clouduser dot org“ schicken. Ein paar Zeitfenster sind derzeit noch offen.

Kategorien
Management @en

AWS OpsWorks: More PaaS functionality in Amazon's cloud portfolio

Correctly, we name the Amazon Web Services (AWS) as an infrastructure-as-a-service (IaaS). AWS Elastic Beanstalk splits the stock, whether the service should be counted as a platform-as-a-service (PaaS). Anyway, AWS provides various PaaS functionality in its cloud portfolio for some time and extends it now with AWS OpsWorks (still in beta).

What is AWS OpsWorks?

AWS OpsWorks is a solution for the flexible and automated application management. It addresses IT administrators and DevOps developers, who can use it to manage the complete lifecycle of an application, including resource provisioning, configuration management, software updates, monitoring and access control. AWS OpsWorks can be used for free. Costs emerge for the deployed virtual AWS infrastructure resources.

OpsWorks allows you to create a logical architecture, the provisioning of the required resources based on the architecture and providing the application and the necessary software packages for a specific configuration. OpsWorks then cares about the operation of the application and supports the life cycle including autoscaling and software updates.

AWS OpsWorks details

AWS OpsWorks supports different application architectures and works with any software whose installation is script-based. Based on the Chef framework you can use your own ready recipes or those from the community. An event-based configuration system helps during the application lifecycle management. These include customizable deployments, rollbacks, patch management, auto-scaling and auto healing. With that an update can be rolled out just by updating a single configuration file. Moreover OpsWorks has the ability to host AWS instances based on a precisely self specified configuration. This also includes the scale of an application based on the application load, or a time-based auto scaling as well as monitoring the application and the replacement of faulty instances.

With OpsWorks applications can be build in so-called „Layers“. A Layer defines how a set of together managed resources are configured. An example could be a web layer. This includes EC2 instances, EBS volumes including a RAID configuration and mount points and Elastic IP addresses. In addition for each layer, a software configuration can be created. This includes installation scripts and steps for initialization. Is an instance added to a layer, OpsWorks ensures that it will receive the corresponding configurations. OpsWorks provides pre-defined layers of technologies such as Ruby, PHP, HAProxy, Memcached and MySQL. These can be customized and extended.

Technology from Germany

OpsWorks was invented in Germany and is based on the technology Scalarium of the Berlin company Peritor. Scalarium was bought in 2012 by Amazon.

Comment

Indeed, AWS OpsWorks is not a concrete PaaS offering. This is due to the building blocks philosophy of the Amazon Web Services. This means that the offered services will be made ​​available as granular as possible. The customer then has the option to integrate the services for its use case and how it needs them. For that, of course, a lot of personal contribution and knowledge is required, which for the infrastructure of a typical PaaS is not required. However, AWS OpsWorks closes in terms of convenience the gap to the PaaS market and offers more and more PaaS functionality in the Amazon Cloud.

About one thing a customer should be aware of. And that applies not only to AWS OpsWorks but for the use of each AWS service. The lock-in in the AWS infrastructure becomes bigger and bigger with each service Amazon is releasing. This need not be a bad thing. A lock-in is necessarily anything negative and may even be beneficial, on the contrary, as long as the own needs are met, and not too large compromises have to be made ​​by the customer himself.

As a customer you just have to keep this in mind before the way into the AWS cloud, as well as in any other cloud, and consider possible exit strategies or multi-cloud approaches.

Kategorien
Management

AWS OpsWorks: Mehr PaaS-Funktionalität im Cloud-Portfolio von Amazon

Korrekterweise spricht man bei den Amazon Web Services (AWS) von einem Infrastructure-as-a-Service (IaaS). Bei AWS Elastic Beanstalk spalten sich die Lager, ob der Service zu den Platform-as-a-Services (PaaS) gezählt werden dürfe. Zumindest bietet AWS seit längerer Zeit diverse PaaS-Funktionalität in seinem Cloud-Portfolio und erweitert diese nun mit „AWS OpsWorks“ (noch in der Beta).

Was ist AWS OpsWorks?

AWS OpsWorks ist eine Lösung für das flexible und automatisierte Applikationsmanagement. Es richtet sich an IT-Administratoren und DevOps Entwickler, die damit den vollständigen Lebenszyklus einer Anwendung inkl. Ressourcen-Provisionierung, Konfigurationsmanagement, Softwareupdates, Monitoring und Zugriffskontrolle verwalten können. AWS OpsWorks kann kostenlos genutzt werden. Kosten entstehen für die darunter eingesetzten virtuellen AWS Infrastrukturressourcen.

OpsWorks ermöglicht das Erstellen einer logischen Architektur, die Provisionierung der benötigten Ressourcen basierend auf der Architektur sowie das Bereitstellen der Applikation und die dafür benötigte Software und Pakete für eine bestimmte Konfiguration. OpsWorks sorgt dann für den Betrieb der Applikation und unterstützt deren Lebenszyklus inkl. Autoscaling und Softwareupdates.

AWS OpsWorks Details

AWS OpsWorks unterstützt unterschiedliche Applikations-Architekturen und arbeitet mit jeder Software zusammen, deren Installation skript-basiert verläuft. Basierend auf dem Chef Framework können bereits fertige eigene Rezepte oder welche aus der Community genutzt werden, um OpsWorks einzusetzen.

Ein Event-basiertes Konfigurationssystem hilft beim Lebenszyklus-Management einer Applikation. Dazu gehören anpassbare Deployments, Rollbacks, Patchmanagement, Autoscaling sowie Autohealing. So lässt sich z.B. ein Update über das Aktualisieren einer einzigen Konfigurationsdatei ausrollen. Zudem ist OpsWorks in der Lage, AWS Instanzen basierend auf einer selbst exakt spezifizierten Konfiguration zu hosten. Dazu gehört ebenfalls die Skalierung dieser Applikation anhand der jeweiligen Last auf der Anwendung oder einer zeitbasierten automatischen Skalierung sowie der Überwachung der Applikation und dem Austausch fehlerhafter Instanzen.

Mit OpsWorks lassen sich Applikationen in sogenannte „Layer“ aufbauen. Layer definieren, wie ein Teil von Ressourcen, die zusammen verwaltet werden, konfiguriert werden sollen. Ein Beispiel könnte ein Web-Layer sein. Dieser beinhaltet EC2 Instanzen, EBS Volumes inkl. einer RAID Konfiguration und Mount Points sowie Elastic IP-Adressen. Für jeden Layer kann zudem eine Software-Konfiguration erstellt werden. Darin sind Installations-Skripte und Schritte für die Initialisierung enthalten. Wird nun eine Instanz zu einem Layer hinzugefügt, sorgt OpsWorks dafür, dass diese die entsprechenden Konfigurationen erhält. OpsWorks stellt vor-definierte Layer für Technologien wie Ruby, PHP, HAProxy, Memcached und MySQL bereit. Diese können angepasst und erweitert werden.

Technologie aus Deutschland

OpsWorks ist eine Erfindung aus Deutschland und basiert auf der Scalarium Technologie des Berliner Unternehmens Peritor. Scalarium wurde bereits 2012 von Amazon gekauft.

Kommentar

Bei AWS OpsWorks handelt es sich zwar um kein konkretes PaaS Angebot. Dieses liegt allerdings an der Building Blocks Philosophie der Amazon Web Services. Das bedeutet, dass die angebotenen Services so granular wie möglich bereitgestellt werden. Der Kunde hat anschließend die Möglichkeit, die Services für seinen Use Case so zu integrieren, wie er sie benötigt. Dafür wird natürlich dementsprechend viel Eigenleistung und Wissen benötigt, welches bei einem typischen PaaS für die Infrastruktur nicht erforderlich ist. Jedoch schließt AWS OpsWorks hinsichtlich der Convenience zu den PaaS am Markt immer weiter auf und bietet immer mehr PaaS-Funktionalität in der Amazon Cloud.

Über eines sollte man sich als Kunde dennoch bewusst sein. Und das gilt nicht nur für AWS OpsWorks, sondern für die Nutzung jedes AWS Service. Der Lock-in in die AWS-Infastruktur wird mit jedem Service den Amazon veröffentlicht immer größer. Das muss nichts Schlechtes bedeuten. Ein Lock-in ist zwangsläufig nichts Negatives und kann im Gegenteil sogar von Vorteil sein, solange die eigenen Anforderungen erfüllt werden und nicht zu große Kompromisse durch den Kunden selbst gemacht werden müssen.

Man muss sich als Kunde dies nur vor Augen halten und bereits vor dem Weg in die AWS Cloud, als auch in jede andere Cloud, über mögliche Exit-Strategien oder einen Multi-Cloud Ansatz nachdenken.

Kategorien
Analysis

ProfitBricks under the hood: IaaS from Germany – be curious

Last week I had a briefing with ProfitBricks to get a better understanding of the infrastructure-as-a-service (IaaS) offering from Germany and to ask specific questions. I examined ProfitBricks critically with two articles in the past, number one here and number two here. First, because I don’t like marketing phrases that just promise much more than really is behind it and secondly because even the technical promises must be kept.

ProfitBricks details

ProfitBricks presents itself as a typical infrastructure-as-a-service providers. A graphical web interface is used to form customized servers to an entire data center. A complex network structure shall ensure a real isolation of the customer’s network in the virtual datacenter. A meshed network with a redundant Infiniband connection and a highly redundant storage (including automatic backup) provides the performance and availability of data.

In addition, ProfitBricks has its own security team and highly experienced system administrators that provide a round the clock support.

Locations

ProfitBricks has data centers or co-locations in Germany (Karlsruhe) and the USA (Las Vegas). However, both data centers are not connected with each other – physical nor virtual. So no data exchange between Germany and the United States can take place in this way.

The infrastructure components

At ProfitBricks servers can be equip from 1 to 48 cores, and between 1 GB and 196 GB of RAM. The maximum is currently at 60 cores and 250 GB of RAM per server, which can be enabled through a support contact. Storage is available between 1 GB and 5000 GB. However, this can only be assigned to one server directly. So there is no central storage. To realize this, one has to build its own central storage appliance and distribute the storage over it.

Within a self-designed data center (see below), two zones (similar to Amazon Availability Zones) are available. This allows to configure two servers, whereby one of them will not notice about problems in the area of the second server.

There is no centralized firewall. Instead, each of all NICs in a server can be configured with their own rules. A central firewall can achieved by creating a dedicated firewall appliance (Linux + IPTables or a prepared commercial firewall as an ISO image).

Although a load balancer is available, ProfitBricks recommends to build an own one based on an appliance because among others the ProfitBricks one has no monitoring included.

ProfitBricks do not offer additional own value-added services. And on their own admission, this will never happen. Instead, the provider relies on a network of partners that will provide appropriate services for the infrastructure platform.

Currently unique: The Data Center Designer

What really convinced me at ProfitBricks is the „Data Center Design (DCD)“. Such a one no IaaS provider worldwide has it in this format.

Based on these graphical web interface one is able to create a complete virtual data center individually and activate the configuration or modify it with a mouse click – whether it’s about servers, storage, load balancers, firewalls, or the corresponding network.

Is a data center design ready, it can be saved and deployed. Previously the user obtained more information about a check through the system. Here is determined whether everything is configured correctly – e.g. that all servers have a boot drive with the corresponding image. Then the total cost per month for this virtual data center is itemized.

However, the DCD has still a weak point. Is a data center deployed, no single server can be removed from the design or stopped via the web interface. Therefore the entire data center must be un-deployed. Then the server is removed and the data center must be re-deployed. Using the proprietary SOAP API that supports, among other things Java and C #, a single server should be removed. This web feature is to follow, as well as a REST API, in the future.

The customer is mostly left on its own

ProfitBricks offers a German support, which has either worked for years as an administrator, or was involved in the development of the system. Support is included for free. Even if one evaluates the platform only with a test account.

Otherwise ProfitBricks is a common self-service like all the other IaaS providers. This means that a customer is self-responsible for the design of its virtual infrastructure and how an application on the infrastructure can scale and provided highly available.

With additional questions and approaches, for example for configuring a separate firewall appliance or a dedicated load balancer, external partners should help.

Prices

The billing follows exact to the minute per hour. The cost break down on this as follows:

  • 1 Core = 0,04 EUR per hour
  • (Windows Server plus 0,01 EUR per hour)
  • 1 GB RAM = 0,09 EUR per hour
  • 1 GB storage = 0,09 EUR per 30 days
  • 1 GB traffic = 0,06 EUR per GB traffic

For the US market:

  • 1 Core = 0,05 USD per hour
  • (Windows Server plus 0,02 USD per hour)
  • 1 GB RAM = 0,015 USD per hour
  • 1 GB storage = 0,09 USD per 30 days
  • 1 GB traffic = 0,08 USD per GB traffic

Live Vertical Scaling

ProfitBricks supports the so-called Live Vertical Scaling. This means that further resources such as CPU and RAM can be add to a virtual server during operation. This feature must be enabled separately for each server, and the server must then be restarted once.

However, what I have noted here and what has be confirmed by ProfitBricks during the briefing, the operating system, database, software and the own application must support it. The systems need to realize that suddenly more cores and RAM are available and use it. And in the opposite case also deal with, when the resources scale down again.

ProfitBricks is interesting

ProfitBricks is an interesting infrastructure-as-a-service offering. Especially in the very cloud-sparse (IaaS) Germany with a data center in Germany. Particularly noteworthy is the Data Center Designer (the only USP), which is currently unique in the world and provides convenience features, that the other IaaS providers are neglecting. Admittedly the designer rakes at one point or another (Example: removing server), but that will certainly change in a next version.

At the end of the day ProfitBricks is a pure infrastructure-as-a-service provider that has its strengths in infrastructure operations. This also showed the briefing. Therefore an interview with CEO Achim Weiss confuses me, which I had read a few weeks ago. Besides enterprises he called Internet startups as ProfitBricks target customers. Today, I consider this as an utopia. Without a services portfolio like the offering of the Amazon Web Services, this target group can not be achieved. The service gap can and should be closed by service partners. Another but quite legitimate approach if the strengths are in a different area.

Kategorien
Comment

Disgusting: Amazon treats people like virtual machines – the human cloud

This article is not directly about cloud computing, but if I look at the whole issue I see many similarities with the concept of the Amazon Web Services. Beyond that it makes me very angry, how a company like Amazon treats its employees – notabene HUMANS.

Background

A recently published documentary by the ARD (video) has revealed the inhuman machinations of the world’s biggest retailer Amazon with temporary workers in Germany. That the working conditions in the Amazon logistics centers are generally described as very poor is no secret, there have been several reports about it. But what this report reveals is among all human dignity, for which all stakeholders including Amazon itself must be held publicly accountable.

The report reveals that the success of Amazon is generated on the back of temporary workers that must „live“ under worst conditions, and this here in the middle of Germany. Therefore the corporation collects Europe-wide contract workers and accommodate them in unused holiday villages. Amazon uses subcontractors e.g. for the recruitment and the „security“ of the temporary workers. In totally overcrowded buses, employees are brought into the distribution centers. If they come to late to the shiftwork – even without their own fault – they paid less. The documentary shows how a company like Amazon „… must bring along 5,000 people for three months and then get rid of.

Amazon treats contract workers like virtual machines

In order to get a little curve to the cloud, I see so many parallels between the disregard of human dignity through Amazon and the cloud computing concept as it operates by the Amazon Web Services. Simply swap the term „virtual machine“ to the word „human„.

Amazon requires, as the report good describes, „humans on demand“ and let them work through 15 days in a row. Amazon transfers the concept of the cloud, so the principles of „on demand“ and „pay per use“ in its retail business and in the logistics centers, and thus creates its „human cloud“. It is a very good analog example for the technical situation of the webshop during the Christmas season. Meanwhile, excessive resources for computing power are needed to keep the shop stable because of the high requests. The situation is similar in the logistics centers. If the requests at the webshop increase, the commissions are need to approved, accepted and prepared for shipment. If the requests decline, even in the warehouses less is going on. Accordingly, fewer people are needed, which are then no longer need to be paid. An example of an Amazon headman of the logistics center in Koblenz: „3300 employees work here, 3100 of them are temporary.“

Theoretically a nice idea Amazon, but that does not work! You can not boot up humans like virtual machines and then dispose them when they are no longer needed!

Kategorien
Kommentar

Ekelhaft: Amazon behandelt Menschen wie virtuelle Maschinen – Die menschliche Cloud

Bei diesem Artikel handelt es sich zwar nicht direkt um das Thema Cloud Computing, aber ich sehe bei der gesamten Problematik so manche Ähnlichkeiten zu dem Konzept der Amazon Web Services und es macht mich einfach nur außerordentlich wütend, wie ein Unternehmen wie Amazon mit seinen Mitarbeitern wohlgemerkt MENSCHEN umgeht.

Hintergrund

Eine kürzlich von der ARD veröffentlichte Dokumentation (Video) hat die menschenverachtenden Machenschaften des weltgrößten Einzelhändlers Amazon mit Leiharbeitern in Deutschland aufgedeckt. Das die Arbeitsbedingungen bei Amazon in den Logistikzentren grundsätzlich als sehr schlecht zu bezeichnen sind ist kein Geheimnis, darüber gab es bereits mehrere Berichte. Aber was dieser Bericht aufdeckt ist unter jeder menschlichen Würde, wofür sämtliche Beteiligte inkl. Amazon selbst öffentlich zur Verantwortung gezogen werden müssen.

Der Bericht deckt auf, das der Erfolg von Amazon auf dem Rücken von Leiharbeitern erwirtschaftet wird, die unter übelsten Bedingungen „leben“ müssen und das hier Mitten in Deutschland. Dazu sammelt der Konzern europaweit Leiharbeiter ein und bringt diese in Feriendörfern unter. Dazu setzt Amazon auf Subunternehmen z.B. für das Rekrutieren und die „Sicherheit“ der Leiharbeiter. In total überfüllten Bussen werden die Mitarbeiter in die Logistikzentren gebracht. Kommen Sie zu spät zur Schicht – auch ohne eigene Schuld – erhalten sie weniger Lohn. Die Dokumentation veranschaulicht, wie ein Unternehmen wie Amazon „… 5000 Menschen für drei Monate heranschaffen und dann wieder loswerden muss„.

Amazon behandelt Leiharbeiter wie virtuelle Maschinen

Um nun doch ein klein wenig die Kurve zur Cloud zu bekommen, sehe ich so manche Parallelen zwischen der Missachtung der menschlichen Würde durch Amazon und dem Cloud Computing Konzept wie es die Amazon Web Services betreiben. Man tausche einfach den Begriff „virtuelle Maschine“ gegen das Wort „Mensch„.

Amazon benötigt, wie es der Bericht auch gut beschreibt, „Menschen bei Bedarf“ und lässt diese gerne mal 15 Tage am Stück durcharbeiten. Amazon überträgt das Konzept der Cloud also die Prinzipien „on Demand“ und „Pay per use“ auf sein Einzelhandelsgeschäft in die Logistikzentren und schafft sich damit seine „Menschen Cloud“. Es ist ein sehr gutes analoges Beispiel zur technischen Situation des Webshops während der Weihnachtszeit. Währenddessen werden übermäßig viele Ressourcen an Rechenleistung benötigt, um den Webshop durch die hohen Anfragen stabil zu halten. Ähnlich verhält es sich in den Logistikzentren. Steigen die Anfragen beim Webshop, müssen die Aufträge schließlich auch kommissioniert und für den Versand fertig gemacht werden. Sinken die Anfragen, ist auch in den Lagern weniger los. Dementsprechend werden weniger Menschen benötigt, die dann auch nicht mehr bezahlt werden müssen. Ein Beispiel von einem Amazon-Vorabeiter des Logistikzentrum bei Koblenz: „Hier arbeiten 3300 Mitarbeiter, und davon sind 3100 befristet.“

Theoretisch eine schöne Idee Amazon, aber so geht das nicht! Ihr könnt Menschen nicht hochfahren wie virtuelle Maschine und wieder entsorgen wenn ihr sie nicht mehr benötigt!

Kategorien
Analysen

ProfitBricks unter der Haube: IaaS aus Deutschland – man darf gespannt sein

In der vergangenen Woche hatte ich ein Briefing mit ProfitBricks, um das Infrastructure-as-a-Service (IaaS) Angebot aus Deutschland besser kennenzulernen und konkrete Fragen zu stellen. Ich habe ProfitBricks in zwei Artikeln Nummer eins hier und Nummer zwei hier in der Vergangenheit bereits kritisch begutachtet. Zum einen, weil ich einfach nicht auf Marketingphrasen stehe, die viel mehr versprechen als eigentlich dahinter steckt und zum anderen, weil auch technische Versprechen eingehalten werden müssen.

Details zu ProfitBricks

ProfitBricks stellt sich als typischer Infrastructure-as-a-Service Anbieter auf. Über eine graphische Weboberfläche lassen sich maßgeschneiderte Server zu einem Rechenzentrum formen. Anhand von komplexen Vernetzungsstrukturen soll eine echte Isolation des Kundennetzwerks im virtuellen Rechenzentrum sichergestellt werden. Für Performance sorgt eine vermaschte redundante Vernetzung mit Infiniband sowie ein hochredundanter Storage (inkl. automatischem Backup) für die Verfügbarkeit der Daten.

Zudem verfügt ProfitBricks über ein eigenes Security-Team sowie langjährig erfahrene Systemadministratoren, die einen rund um die Uhr Support liefern.

Standorte

Rechenzentren bzw. Co-Location besitzt ProfitBricks in Deutschland (Karlsruhe) und in den USA (Las Vegas). Allerdings sind beide Rechenzentren in keinster Weise physikalisch oder virtuell miteinander verbunden, wodurch kein Datenaustausch zwischen Deutschland und den USA auf diesem Weg stattfinden kann.

Die Infrastruktur-Komponenten

Server lassen sich bei ProfitBricks mit Cores zwischen 1 und 48 Cores sowie 1 GB und 196 GB RAM ausstatten. Das Maximum liegt hier derzeit allerdings bei 60 Cores und 250 GB RAM pro Server, was man sich über den Support freischalten lassen kann. Storage gibt es zwischen 1 und 5000 GB. Allerdings kann dieser immer nur direkt einem Server zugewiesen werden. Es gibt somit keinen zentralen Speicher. Um dieses zu realisieren, muss man sich eine eigene zentrale Storage-Appliance bauen und den Speicher darüber verteilen.

Innerhalb eines selbst gestalteten Rechenzentrum (siehe unten) stehen zwei Zonen (ähnlich der Availability Zones von Amazon) zur Verfügung. Damit lassen sich z.B. zwei Server so konfigurieren, dass der eine von den Problemen in der Zone des zweiten Servers nichts mitbekommt.

Es gibt keine zentrale Firewall. Stattdessen können jeweils alle Netzwerkkarten eines Servers mit eigenen Regeln konfiguriert werden. Eine zentrale Firewall lässt sich hier z.B. durch den Aufbau einer eigenen Firewall-Appliance (Linux + IPTables oder eine fertige kommerzielle Firewall als ISO-Image) realisieren.

Ein Load Balancer steht zwar zur Verfügung, allerdings empfiehlt ProfitBricks an dieser Stelle lieber einen eigenen anhand einer Appliance zu bauen, da der ProfitBricks eigene u.a. über kein Monitoring verfügt.

Weitere eigene Mehrwertservices bietet ProfitBricks nicht an. Dies soll nach eigener Aussage auch nicht passieren. Stattdessen setzt der Anbieter auf ein Partnernetzwerk, das für die Infrastrukturplattform entsprechende Services anbieten soll.

Derzeit einmalig: Der Data Center Designer

Was mich bei ProfitBricks wirklich überzeugt hat ist der „Data Center Designer (DCD)“. So einen hat in dieser Form derzeit noch kein IaaS Anbieter weltweit.

Anhand dieser graphischen Weboberfläche ist man in der Lage ein komplettes virtuelles Rechenzentrum individuell zusammenzustellen und per Mausklick die Konfiguration zu aktivieren oder beliebig zu ändern – egal ob es sich um Server, Storage, Loadbalancer, Firewalls oder die entsprechende Vernetzung handelt.

Ist ein Rechenzentrum fertig designed, lässt es sich speichern und deployen. Zuvor erhält man noch Informationen über einen Check durch das System. Hier wird geschaut, ob alles korrekt konfiguriert wurde – z.B. ob alle Server auch ein Bootlaufwerk mit entsprechenden Image haben. Anschließend werden die Gesamtkosten pro Monat für dieses virtuelle Rechenzentrum aufgeschlüsselt.

Allerdings hat der DCD derzeit noch eine Schwachstelle. Ist ein Rechenzentrum deployed, lässt sich über die Weboberfläche kein einzelner Server mehr aus dem Design entfernen bzw. diesen darüber stoppen. Dazu muss zunächst das vollständige Rechenzentrum wieder un-deployed werden. Dann wird der Server entfernt und das Rechenzentrum anschließend wieder deployed. Mittels der proprietären SOAP API, die unter anderem Java und C# unterstützt, soll ein einzelner Server jedoch entfernt werden können. Diese Web-Funktion soll, ebenso wie eine REST API, in Zukunft folgen.

Der Kunde ist größtenteils auf sich alleine gestellt

Zunächst bietet ProfitBricks einen deutschsprachigen Support, der entweder selbst jahrelang als Administrator gearbeitet hat oder an der Entwicklung des Systems beteiligt war. Der Support ist darüber hinaus kostenlos enthalten. Auch dann, wenn man die Plattform nur mit einem Testaccount evaluiert.

Ansonsten ist ProfitBricks ein gewöhnlicher Self-Service wie ihn andere IaaS Anbieter auch bieten. Das bedeutet, dass man sich über das Design seiner virtuellen Infrastruktur und wie eine Applikation auf der Infrastruktur skaliert und hochverfügbar bereitgestellt wird, selbst kümmern.

Bei weitere Fragen und Lösungsansätze, z.B. bei der Konfiguration einer separaten Firewall-Appliance oder eines eigenen Loadbalancer, helfen Partner.

Preise

Die Abrechnung erfolgt minutengenau pro Stunde. Die Kosten schlüsseln sich dabei wie folgt auf:

  • 1 Core = 0,04 EUR pro Stunde
  • (Windows Server plus 0,01 EUR pro Stunde)
  • 1 GB RAM = 0,09 EUR pro Stunde
  • 1 GB Speicher = 0,09 EUR pro 30 Tage
  • 1 GB Traffic = 0,06 EUR pro GB Traffic

Das Live Vertical Scaling

ProfitBricks unterstützt das sogenannte Live Vertical Scaling. Das bedeutet, dass sich weitere Ressourcen wie CPU und RAM im laufenden Betrieb zu einem virtuellen Server hinzufügen lassen. Diese Funktion muss für jeden Server separat aktiviert und der Server anschließend einmal neu gestartet werden.

Allerdings, und das habe ich hier angemerkt und hat mir ProfitBricks während des Briefings bestätigt, muss das Betriebssystem, die Datenbank, Software und die eigene Applikation das auch unterstützen. Die Systeme müssen erkennen, dass plötzlich mehr Kerne und RAM zur Verfügung stehen und diese nutzen. Und im umgekehrten Fall ebenfalls damit umgehen können, wenn die Ressourcen wieder herunterskalieren.

ProfitBricks ist interessant

ProfitBricks ist ein interessantes Infrastructure-as-a-Service Angebot. Insbesondere im sehr Cloud-kargen (IaaS) Deutschland mit einem Rechenzentrum in Deutschland. Besonders hervorzuheben ist der Data Center Designer (einziger USP), der derzeit weltweit einmalig ist und die entsprechende Convenience bietet, die andere IaaS-Anbieter vernachlässigen. Zwar harkt der Designer an der einen oder anderen Stelle noch (Bsp.: Server entfernen), aber das wird sich in einer zeitnahen neuen Version sicherlich ändern.

Unterm Strich ist ProfitBricks ein reiner Infrastructure-as-a-Service Anbieter, der seine Stärken im Infrastrukturbetrieb hat. Das ergab auch das Briefing. Daher irritiert mich ein Interview mit CEO Achim Weiß, welches ich vor ein paar Wochen gelesen hatte. Darin gab er als Zielkunden neben Unternehmen, ebenfalls Internet-Startups an. Das erachte ich derzeit jedoch als eine Utopie. Ohne ein Service-Portfolio wie es die Amazon Web Services bieten ist diese Zielgruppe nicht zu erreichen. Die Service Lücke kann und soll durch Service Partner geschlossen werden. Ein anderer aber durchaus legitimer Ansatz, wenn die Stärken in einem anderen Bereich liegen.