Kategorien
Analysen

Rackspace differenziert sein IaaS Cloud Angebot mit einem höherwertigen Support

Rackspace setzt derzeit alles daran, um im Kampf um Marktanteile im Infrastructure-as-a-Services (IaaS) Bereich gegen die Amazon Web Services zu Punkten. Nach den schlechten Ergebnissen im Q1/2013 kein leichtes Unterfangen. Als der Antreiber hinter der OpenStack Bewegung, versucht der ehemalige Managed-Hosting Anbieter das Thema Open-Source in der Cloud zu verankern und vermarktet OpenStack als das Linux der Cloud. Rackspace Herausforderung besteht jedoch nicht nur darin, sich gut gegen Amazon aufzustellen. Auch aus den eigenen OpenStack Reihen wachsen nach und nach mehr Mitbewerber, die alle dieselbe Technologie, API und Services auf Basis von OpenStack anbieten. Genannt seien hier nur große Namen wie HP, IBM oder Red Hat. Auf Grund dieses doch zum Teil sehr ähnlichen Angebots von Services – wobei es sich um ein hausgemachtes Problem handelt – ist es für Rackspace schwierig sich von dem Mitbewerb, auf der einen Seite die scheinbar übermächtigen Amazon Web Services aber auch Windows Azure und Google, auf der anderen Seite das eigene OpenStack Lager, zu differenzieren. Rackspace scheint sich nun auf seine altbewährten Stärken, dem „Fanatical Support“, zu konzentrieren und möchte Unternehmen und Entwicklern intensiver bei der Nutzung der Rackspace Cloud Services helfen.

Hilfe auf dem Weg in die Cloud

Bereits als einfacher Managed-Hosting Anbieter hat Rackspace seine Kunden beim Infrastrukturmanagement unterstützt. Für seine OpenStack basierte Cloud Plattform wurde der Standard Support nun erweitert. Kunden sollen ab sofort auch Unterstützung auf Applikationsebene inkl. Debugging der Anwendung erhalten, die auf der Rackspace Cloud betrieben wird. Das bedeutet, dass die Interaktion mit den Kunden deutlich verstärkt werden soll, indem nicht nur die Grundlagen, sondern spezifisches Entwickler Know How vermittelt wird. Das geht sogar soweit, dass Rackspace Ingenieure bei Wunsch den Quellcode der Applikation analysieren und Verbesserungsvorschläge für eine effektivere Nutzung auf der Rackspace Cloud und insbesondere mit den Rackspace APIs und SDKs machen oder sogar bei der vollständigen Entwicklung helfen. Entwicklern soll es damit einfacher gemacht werden, zu verstehen, wie ihre eigene native Applikation auf der Rackspace Cloud bzw. OpenStack funktioniert.

Support zur Differenzierung

Nun mag man denken: Support zur Differenzierung? In Zeiten des Self-Service und der Automatisierung in der Cloud? Ja genau, das ist gar nicht so abwegig und ein gar nicht so unkluger Schachzug. Die Not macht erfinderisch. Rackspace hat schon immer viel Wert auf seinen Support gelegt und genießt hier einen guten Ruf.

Weiterhin sollte man bedenken, dass, trotz des Self-Service und dem damit einhergehenden einfachen Bezug von Ressourcen für den Aufbau einer virtuellen Infrastruktur respektive dem darauf entwickeln einer eigenen Cloud-fähigen Applikation, Cloud Computing nicht einfach ist! Ich habe das erst kürzlich in dem Artikel „Cloud Computing ist nicht einfach!“ beschrieben und Netflix als sehr positives Beispiel genannt. Es gibt nur wenige Nutzer-Unternehmen, die Cloud Computing so durchdrungen haben wie Netflix, die sich mit ihrer Simian Army wie dem Chaos Monkey oder dem Chaos Gorilla Test-Software für einen skalierbaren und hochverfügbaren Betrieb in der Cloud geschrieben haben. Wenn man jedoch schaut, was für einen Aufwand Netflix dafür betreibt, mit dem auch Kosten verbunden sind, ist Cloud Computing nicht auf die leichte Schulter zu nehmen, wenn man es ernsthaft einsetzen möchte.

Aus diesem Grund ist es nur ein logischer und für mich richtiger Schritt von Rackspace, seinen Support weiter auszubauen und dort zu unterstützen, wo es bei der Cloud ankommt, der skalierbaren und verfügbaren Entwicklung von Applikationen, die auch die Eigenschaften der Cloud berücksichtigen. Ob das nun reicht, um gegenüber Amazon mit großen Schritten aufzuholen wage ich zu bezweifeln. Aber innerhalb der Anbieter, die ebenfalls auf OpenStack setzen, ist es eine gute Möglichkeit sich von diesem Wettbewerb zu differenzieren.

Kategorien
News

Moderation: Cloud Track auf dem iico 2013

Am 13.05. und 14.05.2013 hat René Büst den Cloud Track auf dem iico 2013 moderiert. Sprecher und Teilnehmer waren u.a. Thomas Witt (Infopark), Heinrich Vaske (Computerwoche), Steffen Krause (Amazon Web Services), Nikolai Longolius (schnee von morgen) und Carl-Christian Buhr (Europäische Komission).

Kategorien
Analysis

Enterprise Cloud Portal: T-Systems consolidates its cloud portfolio

With its Enterprise Cloud Portal German Telekom subsidiary T-Systems presents its first cloud service-wide offering for corporate customers. On the portal, companies can inform about the cloud solutions from T-Systems, test them and order directly. The currently offered services include solutions for mobile device management, Dynamic Services for Infrastructure and the Enterprise Marketplace. A look at the site shows that great emphasis was placed on the compatibility with tablets.

Past the IT department

With its cloud portal T-Systems want to enable also non-technical users in large companies to access specific cloud solutions. The cloud provider refers to a study by Gartner, which says that up to 2015, about 35 percent of IT spending are selected and managed outside the IT department. Be mentioned here, for example, marketing, purchasing and accounting.

Mobile Device Management

The mobile device management from the cloud should help businesses in the administration of mobile devices with different operating systems, such as iOS and Android via a standardized web platform. In addition to security settings, control access rights to functions and applications can be made. In case of loss of the device, the data can be deleted remotely. A test of the mobile device management is free for the first four weeks for up to three mobile devices.

Dynamic Services for Infrastructure

For infrastructure-as-a-service (IaaS) two offerings are ready: On the one hand, the „Dynamic Services for Infrastructure“ (DSI) from a hosted private cloud. Secondly, the „DSI with vCloud Datacenter Services“ as a hybrid variant. The management of the resources does the client itself via a web-based portal or using its own VMware management software. Clear pricing models to make the cost of the infrastructure transparent. Thus, for example, a server from the hosted private cloud costs from 9 cents per hour in the package „Small“. For the hybrid solution the package price for a virtual data center in the smallest version is exactly at 999,84€ per month.

Enterprise Marketplace

The Enterprise Market Place includes, among other things, further IaaS solutions including operating systems for Linux and Windows Server, platform-as-a-service (PaaS) solutions, including Tomcat and Microsoft SQL Server as well as a growing number of software-as-a-service (SaaS) offerings like Doculife, CA Nimsoft TAXOR, TIS, WeSustain, Metasonic, ARAS, Tibco Tibbr, Sugar CRM, Microsoft Enterprise Search and Microsoft Lync. In addition, companies should therefore be given the opportunity to apply a variety of applications highly safe in need-based formats, but also can migrate to host their own applications. The full availability of the Enterprise Market Place is planned for this summer. Currently, there is already a preview on the cloud portal.

Comment

With the Enterprise Cloud Portal T-Systems summarizes his entire cloud portfolio together under one umbrella. I had analyzed „The cloud portfolio of T-Systems“ in an article for the German Computerwoche in 2011. At that time the offering was made of single and independent services. However, already at that time I came to the conclusion that T-Systems has a very well sophisticated and well-rounded cloud portfolio. This can be seen now in the consolidated Enterprise Cloud Portal. From SaaS over PaaS to IaaS and other solutions for mobile devices can be found. With it T-Systems is one of the few providers that have a full cloud stack and which is now even bundled into a single portal.

Especially in the Enterprise Marketplace is a lot potential. At this year’s CeBIT, I could take a first look at it which was in my opinion at this time still in an alpha state. Some basic and necessary essential functions for an IaaS offering, automatic scalability and high-availability may be mentioned only, were still missing. But that was in March and I’m assuming that T-Systems has already made ​​more progress here. In addition, I have already heard from a reputable source, that T-Systems/ Telekom will gradually change their cloud infrastructure to OpenStack, which will also give the Enterprise Market Place another boost in compatibility.

Where T-Systems sees an advantage for non-technical users in enterprises, should cause worry lines for IT managers. Indeed, I am also of the opinion that the IT department will become and even need to be a service broker. However, I think it is quite questionable if each department can simply run off and buy IT services externally as desired. Certainly, the blame lies with the IT departments themselves because they have built up a bad reputation over the years and are considered as slow and not innovative. I have philosophized about it here two years ago in detail (cloud computing and the shadow IT).

A certain supervisory authority in the form of a service broker is still necessary, because otherwise it is an uncontrolled proliferation of external services about which one will lose track. This can be controlled, of course, if one obtains the services from a single provider. And that is exactly the goal of T-Systems and its extensive Enterprise Cloud Portal. A customer should explicitly and across departments, refer the services from the T-Systems Cloud in order to avoid sprawl and to keep track. The question is whether this can be set internally by the customers that way. Because there are plenty of other services in the sea.

In the end I would like to address a topic that is currently causing a stir in the end customer market, but offers corporate customers a great advantage. The end-to-end offering of services. T-Systems is due to its situation, to be a subsidiary of Deutsche Telekom, one of the few cloud providers who can offer a service level from the services at application level or even virtual machine level in the data center, including the data line. This enables customers to maintain a continuous Quality-of-Service (QoS) and a comprehensive Service Level Agreement (SLA), which many other cloud providers can not afford.

Kategorien
Comment

Cloud Computing ist not simple!

Cloud computing promises to be simple. Starting here and there a virtual server and the own virtual cloud infrastructure is ready. Those who think that I’m right with the statement are totally wrong. Virtual servers are only a small component of a virtual infrastructure at a cloud provider. A few virtual machines aren’t a cloud. The complexity sticks in the architecture of the application. And thus in the intelligence that the architect and the software developer included. That this is sometimes not implemented, the one or the other cloud user have showed us more than once impressively. Regularly the same suspects fail when their cloud provider is struggling with himself. Cloud computing ist not simple! I do not mean simple software-as-a-service (SaaS). I am talking about infrastructure-as-a-service (IaaS) and platform-as-a-service (PaaS), and here even granularity about the premier class named scalability and high-availability. And that’s what you should understand and fully take into account if you want to use cloud computing successfully, away from the marketing of the cloud providers.

Software-defined Scalability and Software-defined High-Availability

Currently new terms circulating through the IT stratosphere. Software-Defined Networking (SDN) and Software-Defined Data Center (SDD). A SDN introduces another level of abstraction above the network components. Typically, each router and switch has its own local software through which it is supplied with intelligence by programming. The network administrator tells the router, for example, under what conditions which packet should be routed or not. Within a SDN the task of incorporating a local intelligence for each component is eliminated. The intelligence moves one level up into a management layer in which the entire network is designed and each rule is defined centrally for each component. If the design is completed, it will be rolled out across the network components and the network is configured. With a SDN it should be possible to change a complete network design by „push the button“ directly without having to touch each individual component.

The idea of ​​the SDN concept must also be taken into account mandatory when using a cloud infrastructure. Because the use of a PaaS, but much more of an IaaS means a lot of self-responsibility. More than you might think at first glance. To start one or two virtual machines does not mean that one uses a virtual cloud infrastructure. There are and will remain two virtual servers. An IaaS provider only provides the components, such as the aforementioned virtual machines, storage, and other services plus APIs with which the infrastructure can be used. Bottom line, to put it simply, an IaaS provider only supplies its customers with the appropriate resources and tools in order to build their own virtual infrastructure respectively own virtual data center on the providers cloud infrastructure.

One must therefore ensure with software (the own application) that the cloud infrastructure scaled if necessary (Software-Defined Scalability, SDS) and in the event of a failure of a cloud infrastructure component a replacement component (eg, virtual machine) is started and is thus replaced (Software-Defined High-Availability, SDHA). The software therefore provides the scalability and high-availability of the virtual cloud infrastructure so that the web application itself is scaled and fail-safe, and uses the character of each cloud provider.

How a cloud computing infrastructure is used almost to perfection shows Netflix impressively.

Cloud Computing ist not simple!

Source: Adrian Cockcroft

Netflix the supreme example

Netflix is the world’s largest cloud service ​​by far. The video streaming service has become responsible for a third of all Internet traffic during peak periods. This user requests must be answered, of course, performant and at any time. Since its launch in 2009 Netflix sets on cloud technologies and has shifted its complete technology stack including the resulting infrastructure to the cloud of the Amazon Web Services in November 2012. Here about 1,000 virtual Linux-based Tomcat Java server and NGINX web server are running. There are also other services such as Amazon Simple Storage Service (S3) and the NoSQL database Cassandra in conjunction with memcached and a distributed memory object caching.

However, this is only one side of the coin. More important is the use of multiple Availability Zones in the Amazon Cloud. Netflix uses a total of three Availability Zones to increase the availability and speed of the own service. Occurs a problem in an Availability Zone, the architecture of the Netflix application is designed that the service can continue to run through the other two. Here Netflix has not relied on the pure marketing promises from Amazon, but developed with the Chaos Gorilla its own software that is testing the stability of the virtual servers Amazon Elastic Compute Cloud (EC2). In short, the failure of a complete EC2 Region or Availability Zone is simulated to ensure that the Netflix service continues to function in an emergency. One of the biggest challenges is in the fact that in the event of an error in an Amazon region, the Domain Name System (DNS) is automatically reconfigured so that Netflix customers do not notice the failure. The different DNS providers APIs make this task not easier. In addition, most have been developed that the settings have to be done manually, which does not make it easier to automate this.

Bottom line, it is to say that Netflix plans ahead for the error case and does not rely on the cloud. Because sometimes something goes wrong in the cloud, as in any ordinary data center. You only need to be prepared for it. Who is more interested in what Netflix makes to reach this state should read „Netflix: The Chaos Monkey and the Simian Army – The model for a good cloud system architecture“ (only in German).

Simplicity counts

Maybe I’m asking too much. Finally, cloud computing is a relatively new concept. Nevertheless, Netflix shows impressively that it works. However, when you consider what huge efforts Netflix makes to be successful in the cloud, you just have to say that cloud computing is not simple, and a cloud infrastructure, no matter at which provider, needs to be built with the corresponding architecture. This means, conversely, that the use of the cloud must be more simply in order to achieve the promised cost advantages. Because if one uses cloud computing the right way, it is necessarily not cheaper. In addition to savings in infrastructure costs which are always reckoned up, the other costs as may for the staff with the appropriate skills and the costs for the development of scalable and fault-tolerant applications in the cloud should never be neglected.

The positive sign is that I see first startups on the horizon, who take care of this problem and have set the simple demand of finished cloud resources to their task, without worrying about scalability and high-availability as a user.

Kategorien
Analysen

Enterprise Cloud Portal: T-Systems konsolidiert sein Cloud-Portfolio

Mit seinem Enterprise Cloud Portal präsentiert die Deutsche Telekom Tochter T-Systems sein erstes Cloud-Service übergreifendes Angebot für Großkunden. Auf dem Portal können sich Unternehmen über die Cloud-Lösungen von T-Systems informieren, diese testen und direkt bestellen. Zu den derzeit angebotenen Services gehören Lösungen für das Mobile Device Management, Dynamic Services for Infrastructure und der Enterprise Marketplace. Ein Blick auf das Portal zeigt, dass auf die Kompatibilität mit Tablets großer Wert gelegt wurde.

An der IT-Abteilung vorbei

T-Systems möchte mit seinem Cloud-Portal auch nicht-technischen Nutzern in Großunternehmen den Zugang zu speziellen Cloud-Lösungen ermöglichen. Der Cloud-Anbieter bezieht sich dabei auf eine Studie von Gartner, die besagt, dass bis zum Jahr 2015 in etwa 35 Prozent der IT-Ausgaben, außerhalb der IT-Abteilungen ausgewählt und verwaltet werden. Genannt seien hier zum Beispiel die Bereiche Marketing, Einkauf und das Rechnungswesen.

Mobile Device Management

Das Mobile Device Management aus der Cloud soll Unternehmen bei der Administration mobiler Endgeräte mit unterschiedlichen Betriebssystemen, z.B. iOS und Android, über eine standardisierte Web-Plattform helfen. Darüber lassen sich etwa Sicherheitseinstellungen vornehmen, Zugriffsrechte auf Funktionen sowie Applikationen regeln oder bei Verlust des Endgeräts die Daten per Fernzugriff löschen. Ein Test des Mobile Device Management ist in den ersten vier Wochen für bis zu drei mobile Endgeräte kostenlos.

Dynamic Services for Infrastructure

Für Infrastructure-as-a-Service (IaaS) stehen zwei Angebote bereit: Zum einen die „Dynamic Services for Infrastructure“ (DSI) aus einer Hosted Private Cloud. Zum anderen die „DSI with vCloud Datacenter Services“ als eine hybride Variante. Das Management der Ressourcen übernimmt der Kunde selbst über ein web-basiertes Portal beziehungsweise über seine eigene VMware Management Software. Übersichtliche Preismodelle sollen die Kosten für die Infrastruktur transparent machen. So kostet z.B. im Paket „Small“ ein Server aus der Hosted Private Cloud ab 9 Cent pro Stunde. Bei der hybriden Lösung liegt der Paketpreis für ein Virtual Datacenter in der kleinsten Ausführung bei genau 999,84 Euro pro Monat.

Enterprise Marketplace

Der Enterprise Marketplace umfasst unter anderem weitere IaaS-Lösungen inkl. Betriebssysteme für Linux und Windows Server, Platform-as-a-Service (PaaS) Lösungen, u.a. Tomcat und Microsoft SQL Server sowie eine stetig steigende Zahl von Software-as-a-Service (SaaS) Angeboten wie Doculife, CA Nimsoft, TAXOR, TIS, WeSustain, Metasonic, ARAS, Tibco Tibbr, Sugar CRM, Microsoft Enterprise Search und Microsoft Lync. Darüber hinaus sollen Unternehmen damit die Möglichkeit erhalten, nicht nur eine Vielfalt an Anwendungen hochsicher in bedarfsgerechten Formaten zu beziehen, sondern auch eigene Anwendungen migrieren und hosten zu lassen. Die volle Verfügbarkeit des Enterprise Marketplace ist für diesen Sommer geplant. Derzeit steht auf dem Cloud Portal bereits eine Vorschau zur Verfügung.

Kommentar

Mit dem Enterprise Cloud Portal fasst T-Systems sein gesamtes Cloud-Portfolio unter einem einzigen Dach zusammen. Ich hatte in einem Artikel für die Computerwoche: „Das Cloud-Portfolio von T-Systems“ im Jahr 2011 analysiert. Zu dem Zeitpunkt bestand das Angebot jedoch noch aus einzelnen unabhängigen Services. Allerdings bin ich bereits damals schon zu dem Ergebnis gekommen, dass T-Systems über ein sehr gut durchdachtes und abgerundetes Cloud-Portfolio verfügt.

Das zeigt sich nun auch im konsolidierten Enterprise Cloud Portal. Von SaaS über PaaS bis IaaS und weiteren Lösungen für mobile Endgeräte ist alles dabei. T-Systems verfügt damit als einer der wenigen Anbieter über einen vollständigen Cloud-Stack und das nun sogar noch gebündelt in einem einzigen Portal.

Insbesondere in dem Enterprise Marketplace steckt viel Potential. Auf der diesjährigen CeBIT konnte ich einen ersten Blick darauf werfen, der sich meiner Einschätzung nach zu diesem Zeitpunkt noch in einem Alpha-Status befand. Einige grundlegende und zwingend notwendige Funktionen für ein IaaS Angebot, genannt seien nur automatische Skalierbarkeit und Hochverfügbarkeit, fehlten noch. Aber das war im März und ich gehe davon aus, dass T-Systems hier schon weitere Fortschritte gemacht hat. Zudem habe ich bereits aus einer sicheren Quelle erfahren, dass T-Systems/ Telekom ihre Cloud-Infrastruktur sukzessive auf OpenStack umstellen wird, was auch dem Enterprise Marketplace einen weiteren Schub hinsichtlich Kompatibilität geben wird.

Was T-Systems als Vorteil für nicht-technische Nutzer in Unternehmen sieht, sollte bei IT-Verantwortlichen Sorgenfalten verursachen. Zwar bin ich auch auf dem Standpunkt, dass sich die IT-Abteilungen zu einem Service-Broker entwickeln werden und sogar müssen. Allerdings halte ich es für recht bedenklich, wenn jede Abteilung einfach loslaufen darf und sich nach belieben IT-Services extern einkauft. Die Schuld liegt natürlich bei den IT-Abteilungen selbst, da diese sich über die Jahre hinweg einen schlechten Ruf aufgebaut haben und als langsam und nicht innovativ gelten. Darüber habe ich hier bereits vor zwei Jahren ausführlich philosophiert (Cloud Computing und die Schatten-IT).

Eine gewisse Kontrollinstanz in der Form eines Service-Broker ist weiterhin notwendig, denn sonst kommt es zu einem unkontrollierten Wildwuchs von externen Services, über die man den Überblick verlieren wird. Das lässt sich selbstverständlich kontrollieren, wenn man die Services über einen einzigen Anbieter bezieht. Und das ist genau das Ziel von T-Systems und seinem umfangreichen Enterprise Cloud Portal. Ein Kunde soll explizit und abteilungsübergreifend die Services aus der T-Systems Cloud beziehen, um damit den Wildwuchs zu vermeiden und den Überblick behalten. Die Frage ist, ob sich das bei den Kunden intern auch so durchsetzen lässt. Denn auch andere Anbieter haben hübsche Services.

Am Ende möchte ich noch auf ein Thema eingehen, was im Endkunden-Umfeld derzeit für Aufregung sorgt, Unternehmenskunden aber einen großen Vorteil bietet. Das End-to-End Angebot von Services. T-Systems ist auf Grund seiner Situation, Tochter von der Deutschen Telekom zu sein, einer der wenigen Cloud-Anbieter, der ein Service-Level von den Services auf Applikations- oder sogar virtueller Maschinen Ebene im Rechenzentrum, inkl. der Datenleitung anbieten kann. Das ermöglicht es den Kunden einen ununterbrochenen Quality-of-Service (QoS) sowie ein umfangreiches Service Level Agreement (SLA) zu erhalten, was viele andere Cloud-Anbieter nicht leisten können.

Kategorien
Kommentar

Cloud Computing ist nicht einfach!

Cloud Computing verspricht vermeintlich einfach zu sein. Hier und da einen virtuellen Server starten und fertig ist die eigene virtuelle Cloud Infrastruktur. Wer nun meint, dass ich mit der Aussage recht habe, der liegt dermaßen falsch. Virtuelle Server sind nur ein kleiner Bestandteil einer virtuellen Infrastruktur bei einem Cloud Anbieter. Ein paar virtuelle Maschinen machen noch lange keine Cloud. Die Komplexität liegt in dem, wie die Architektur der Applikation geschaffen ist. Und somit in der Intelligenz, die der Architekt und der Softwareentwickler ihr vereinleibt. Das dies manchmal nicht so umgesetzt wird, haben uns die einen oder anderen Cloud Nutzer nicht nur einmal eindrucksvoll gezeigt. Regelmäßig fallen immer die selben Verdächtigen aus, wenn deren Cloud Anbieter mal wieder mit sich selbst zu kämpfen hat. Cloud Computing ist nicht einfach! Ich meine hiermit nicht simples Software-as-a-Service (SaaS). Ich spreche von Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (PaaS) und hier sogar noch granular von der Königsklasse namentlich Skalierbarkeit und Hochverfügbarkeit. Und genau das sollte man Abseits des Marketing der Cloud Anbieter verstehen und uneingeschränkt berücksichtigen, wenn man Cloud Computing erfolgreich einsetzen möchte.

Software-defined Scalability und Software-defined High-Availability

Derzeit kursieren wieder neue Begriffe durch die IT-Stratosphäre. Software-defined Networking (SDN) und auch Software-defined Datacenter (SDD). Ein SDN führt eine weitere Abstraktionsebene oberhalb der Netzwerkkomponenten ein. Typischerweise besitzt jeder Router und Switch seine eigene lokale Software, über die er per Programmierung mit Intelligenz versorgt wird. Der Netzwerkadministrator sagt dem Router somit bspw. welches Paket unter welchen Bedingungen wohin geleitet werden soll oder auch nicht. Innerhalb eines SDN entfällt die Aufgabe jeder einzelnen Komponente für sich eine lokale Intelligenz einzuverleiben. Die Intelligenz wandert eine Ebene höher in eine Managementschicht, in der das gesamte Netzwerk designed wird und die einzelnen Regeln für jede Komponente zentral festgelegt wird. Ist das Design fertiggestellt, wird es über die Netzwerkkomponenten ausgerollt und das Netzwerk ist konfiguriert. Mit SDN soll es daher möglich sein ein vollständiges Netzwerkdesign „per Knopfdruck“ zu verändern, ohne jede einzelne Komponente direkt anfassen zu müssen.

Die Idee des SDN Konzepts muss bei der Nutzung einer Cloud-Infrastruktur ebenfalls zwingend in Betracht gezogen werden. Denn der Einsatz eines PaaS aber noch viel mehr eines IaaS bedeutet sehr viel Eigenverantwortung. Mehr als man auf dem ersten Blick denken mag. Eine oder zwei virtuelle Maschinen zu starten bedeutet nicht, dass man eine virtuelle Cloud Infrastruktur nutzt. Es sind und bleiben zwei virtuelle Server. Ein IaaS Anbieter stellt darüber hinaus nur die Komponenten, wie die genannten virtuellen Maschinen, Speicherplatz, weitere Services und zusätzlich APIs bereit, mit denen die Infrastruktur genutzt werden kann. Unterm Strich lässt sich vereinfacht sagen, dass ein IaaS Anbieter seinen Kunden nur die Ressourcen und entsprechenden Werkzeuge zur Verfügung stellt, um damit auf seiner Cloud Infrastruktur eine eigene virtuelle Infrastruktur respektive ein eigenes virtuelles Rechenzentrum aufzubauen.

Man muss daher per Software (die eigene Applikation) selbst dafür sorgen, dass die Cloud Infrastruktur bei Bedarf skaliert (Software-defined Scalability, SDS) und im Falle eines Ausfalls einer Cloud Infrastruktur-Komponente berücksichtigen, dass entsprechend eine Ersatzkomponente (z.B. virtuelle Maschine) gestartet wird und die Ausgefallene damit ersetzt wird (Software-defined High-Availability, SDHA). Die Software sorgt also für die Skalierbarkeit und Hochverfügbarkeit der genutzten virtuellen Cloud Infrastruktur, damit die Web-Applikation selbst skaliert und ausfallsicher ist und den Charakter der jeweiligen Cloud eines Anbieters nutzt und das Maximum aus ihr schöpft.

Wie eine Cloud Computing Infrastruktur quasi in Perfektion genutzt wird zeigt Netflix eindrucksvoll.

Cloud Computing ist nicht einfach! Begreif's doch endlich, ...

Quelle: Adrian Cockcroft

Netflix das Paradebeispiel

Netflix ist mit Abstand der größte Cloud Service weltweit. Der Video-Streaming Dienst ist während Spitzenzeiten mittlerweile für ein Drittel des gesamten Internetverkehrs verantwortlich. Diese Nutzeranfragen gilt es selbstverständlich performant und zu jedem Zeitpunkt zu beantworten. Dazu setzt Netflix schon seit seinem Start im Jahr 2009 auf Cloud Technologien und hat im November 2012 seinen vollständigen Technologie-Stack und die darauf basierende Infrastruktur in die Cloud zu den Amazon Web Services verlagert. Hier laufen rund 1.000 virtuelle auf Linux basierende Tomcat Java Server und NGINX Web-Server. Hinzu kommen weitere Services wie Amazon Simple Storage Service (S3) und die NoSQL Datenbank Cassandra in Verbindung mit Memcached sowie ein verteiltes Memory Object Caching.

Das ist jedoch nur die eine Seite der Medaille. Viel wichtiger ist die Nutzung mehrerer Availability Zones in der Amazon Cloud. Netflix nutzt insgesamt drei Availability Zones, um die Verfügbarkeit und Geschwindigkeit des eigenen Service zu erhöhen. Tritt in einer Availability Zone ein Problem auf, ist die Architektur der Netflix-Applikation so ausgelegt, dass der Service durch die anderen beiden weiterlaufen kann. Dabei hat Netflix sich nicht auf die reinen Marketing-Versprechen von Amazon verlassen, sondern mit dem Chaos Gorilla selbst eine eigene Software entwickelt, mit der die Stabilität der virtuellen Server Amazon Elastic Compute Cloud (EC2) getestet wird. Kurzum wird dabei der Ausfall einer kompletten EC2 Region bzw. Availability Zone simuliert, um sicherzustellen, dass der Netflix-Service im Ernstfall weiterhin funktioniert. Eine der größten Herausforderungen besteht dabei darin, dass im Falle eines Fehlers in einer Amazon Zone, das Domain Name System (DNS) automatisch neu konfiguriert wird, damit die Netflix Kunden von dem Ausfall nichts mitbekommen. Die unterschiedlichen APIs der DNS-Anbieter machen die Aufgabe hier allerdings nicht einfacher. Zudem sind die meisten so entwickelt worden, dass die Einstellungen noch manuell vorgenommen werden müssen, was es nicht einfacher macht, dies zu automatisieren.

Unterm Strich ist zu sagen, dass Netflix für den Fehlerfall vorausschauend plant und sich nicht auf die Cloud verlässt. Denn irgendwas läuft auch mal in der Cloud schief, wie in jedem gewöhnlichen Rechenzentrum auch. Mann muss nur darauf vorbereitet sein. Wer sich mehr dafür interessiert, was Netflix macht um diesen Zustand zu erreichen sollte „Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur“ lesen.

Die Einfachheit zählt

Vielleicht verlange ich noch zu viel. Schließlich ist Cloud Computing in seiner Form ein relativ junges Konzept. Dennoch zeigt Netflix eindrucksvoll das es funktioniert. Wenn man jedoch bedenkt, was für einen Aufwand Netflix betreibt, um in der Cloud erfolgreich zu sein, muss man einfach sagen, dass Cloud Computing nicht einfach ist und eine Cloud Infrastruktur, egal bei welchem Anbieter, mit der entsprechenden Architektur aufgebaut werden muss. Das bedeutet im Umkehrschluss, dass die Nutzung der Cloud simpler werden muss, um auch die versprochenen Kostenvorteile zu erzielen. Denn wenn man Cloud Computing richtig nutzt, ist es zwangsläufig nicht günstiger. Neben den Einsparungen der Infrastrukturkosten die immer vorgerechnet werden, dürfen niemals die weiteren Kosten z.B. für das Personal mit den notwendigen Kenntnissen und die Kosten für die Entwicklung der skalierbaren und ausfallsicheren Applikation in der Cloud vernachlässigt werden.

Das erfreuliche ist, dass ich erste Startups am Horizont sehe, die sich der Problematik annehmen und den einfachen Bezug von fertigen Cloud Ressourcen, ohne als Nutzer selbst auf Skalierbarkeit und Hochverfügbarkeit achten zu müssen, zu ihrer Aufgabe gemacht haben.

Kategorien
Analysis

Eucalyptus Cloud 3.3 approaches more and more to Amazon AWS and integrates open source tools from Netflix

I already had written about it, after Netflix announced they will provide some of their tools as open source. Now it happened. In its new 3.3 release Eucalyptus has integrated exactly these Netflix tools and offers more functionality for the first time in terms of availability and management for applications within a private cloud infrastructure. Furthermore, new Amazon Web Services (AWS) related functions are provided.

New features in Eucalyptus 3.3

Eucalyptus 3.3 was extended in addition to the Netflix tools with AWS-compatible features such as auto scaling, load balancing, and CloudWatch. With Auto Scaling rules can be created to support workloads with additional virtual machines automatically when a certain load limit is reached. Here, the mechanism is supposed to be exactly the same as on the public cloud infrastructure of the Amazon Web Services. Furthermore, it is now possible to scale workloads automatically to AWS.

Chaos Monkey, Asgard and Edda

The Chaos Monkey is a service running on the Amazon Web Services searching for Auto Scaling Groups (ASG) and randomly kills instances (virtual machines) per group. The software has been developed flexible enough that it also works on platforms other cloud providers. The service is fully configurable, but by default runs on ordinary weekdays from 09.00 clock until 15.00 clock. In most cases, Netflix has written its applications so that they continue to function when an instance suddenly having problems. In special cases this does not happen consciously, so that their own people have to fix the problem in order to learn from it. The Chaos Monkey only runs a few hours a day so that the developers can not 100% rely on it.

Asgard is a web interface that allows to control the deployment of applications and a manage a cloud. Netflix itself uses Asgard to control its virtual infrastructure on Amazon Web Services.

Edda is a service that Netflix uses to continuously retrieve its needed AWS resources via the AWS APIs. Edda can search through the active resources and find out the status. The background of Edda is that virtual instances in the cloud are constantly in motion. This means that they can fail and new ones need to be started. It’s the same with IP addresses that can be re-used by different applications. Here it is important to keep track of where Edda supported.

Netflix originally wrote these tools for the AWS cloud infrastructure. Through the open source release, and Eucalyptus adaptation, they can now also be used in a private cloud.

Cooperation: Eucalyptus and Amazon Web Services

In March 2012, the Amazon Web Services and Eucalyptus had announced a collaboration to better support the migration of data between the Amazon cloud and private clouds. The collaboration is structured differently. First, developers from both companies should focus on creating solutions to help enterprise customers to migrate existing data between data centers and the AWS cloud. Furthermore, and more importantly, however, is that customers should be able to use the same management tools and their knowledge of both platforms. In addition, Amazon Web Services will provide Eucalyptus with further information in order to improve compatibility with the AWS APIs.

The first fruits of this cooperation with the Eucalyptus Release 3.3 can now be carried. Eucalyptus approaches ever closer to the functions of Amazon Web Services. My theory, that the Amazon Web Services may use Eucalyptus to build CIAs private cloud, is not entirely unjustified.

Acquisition not unlikely

CEO Marten Mickos seems to come a little closer to his goal. During a conversation in June 2012, he told me that his first act as the new CEO of Eucalyptus was to pick up the phone, call Amazon and to express an interest in working together.

As I already wrote it in the article „Netflix releases more Monkeys as open source – Eucalyptus Cloud will be pleased“ Netflix has played strong in the arms of Eucalyptus with the publication of its Monkeys. This will not least to strengthen the cooperation of Amazon Web Services and Eucalyptus, but make Eucalyptus for Amazon more attractive as takeover target.

Why I am of this opinion, I have described in detail in „Amazon acquires Eucalyptus cloud – It’s merely a matter of time„.

Kategorien
Analysen

Eucalyptus Cloud 3.3 nähert sich immer weiter an Amazon AWS an und integriert Open-Source Tools von Netflix

Ich hatte es bereits nach der Bekanntmachung von Netflix, einige seiner Tools als Open-Source zur Verfügung zu stellen, geschrieben. Nun ist es passiert. Eucalyptus hat in seinem neuen 3.3 Release genau diese Netflix Tools integriert und bietet damit nun erstmalig mehr Funktionalität hinsichtlich Verfügbarkeit und Management für Applikationen innerhalb einer Private Cloud-Infrastruktur an. Weiterhin stehen neue Amazon Web Services (AWS) nahe Funktionen bereit.

Neue Funktionen in Eucalyptus 3.3

Eucalyptus 3.3 wurde neben den Netflix Tools um AWS-kompatible Funktionen wie Auto Scaling, Load Balancing und CloudWatch erweitert. Mit Auto Scaling lassen sich Regeln erstellen, um Workloads automatisch mit weiteren virtuellen Maschinen zu unterstützen, wenn eine bestimmte Lastgrenze erreicht ist. Dabei soll der Mechanismus exakt derselbe sein wie auf der Public Cloud Infrastruktur der Amazon Web Services. Weiterhin ist es nun möglich, Workloads automatisch zu AWS zu sklarieren

Chaos Monkey, Asgard und Edda

Der Chaos Monkey ist ein Service der auf den Amazon Web Services läuft, nach Auto Scaling Groups (ASGs) sucht Instanzen (virtuelle Maschinen) pro Guppe wahllos beendet. Dabei ist die Software flexibel genug entwickelt worden, dass sie ebenfalls auf den Plattformen anderer Cloud Anbieter funktioniert. Der Service ist voll konfigurierbar, läuft standardmäßig aber an gewöhnlichen Werktagen von 09.00 Uhr bis 15.00 Uhr. In den meisten Fällen hat Netflix seine Anwendungen so geschrieben, dass diese weiterhin funktionieren, wenn eine Instanz plötzlich Probleme hat. In speziellen Fällen passiert das bewusst nicht, damit die eigenen Leute das Problem beheben müssen, um daraus zu lernen. Der Chaos Monkey läuft also nur ein paar Stunden am Tag, damit sich die Entwickler nicht zu 100% auf ihn verlassen.

Bei Asgard handelt es sich um eine Web-Oberfläche, mit der das Deployment von Applikationen gesteuert und eine Cloud verwaltet werden kann. Netflix selbst nutzt Asgard, um seine virtuelle Infrastruktur auf den Amazon Web Services zu steuern.

Edda ist ein Service, den Netflix nutzt, um kontinuierlich seine benötigten AWS Ressourcen über die AWS APIs abzufragen. Mit Edda lässt sich über die aktiven Ressourcen suchen und der Status herausfinden. Der Hintergrund für Edda ist, dass virtuelle Instanzen in der Cloud ständig in Bewegung sind. Das bedeutet, dass sie ausfallen können und dafür neue gestartet werden müssen. Ebenso verhält es sich mit IP-Adressen, die von unterschiedlichen Anwendungen wiederwendet werden können. Hier gilt es den Überblick zu behalten, wobei Edda unterstützt.

Ursprünglich hat Netflix diese Tools für die AWS Cloud-Infrastruktur geschrieben. Durch das Open-Source Release und die Eucalyptus Adaption, können sie nun ebenfalls in einer Private Cloud genutzt werden.

Kooperation: Eucalyptus und Amazon Web Services

Im März 2012 hatten die Amazon Web Services und Eucalyptus eine Kooperation angekündigt, um die Migration von Daten zwischen der Amazon Cloud und Private Clouds besser zu unterstützen. Dabei ist die Kooperation unterschiedlich aufgebaut. Zunächst sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.

Die ersten Früchte hat diese Kooperation mit dem Eucalyptus Release 3.3 nun getragen. Eucalyptus nähert sich stetig immer näher an die Funktionen der Amazon Web Services an. Meine Theorie, dass Amazon für den Bau der CIA Private Cloud möglicherweise Eucalyptus nutzt, ist daher nicht ganz unberechtigt.

Übernahme nicht unwahrscheinlich

CEO Marten Mickos scheint seinem Ziel ein Stück näher zu kommen. Während eines Gespräches im Juni 2012 erzählte er mir, dass seine erste Amtshandlung als neuer Eucalyptus CEO darin bestand, zum Telefonhörer zu greifen, Amazon anzurufen und das Interesse an einer Zusammenarbeit zu bekunden.

Wie ich es bereits in dem Artikel „Netflix veröffentlicht weitere Monkeys als Open-Source – Eucalyptus Cloud wird es freuen“ geschrieben habe, hat Netflix mit der Veröffentlichung seiner Monkeys Eucalyptus damit kräftig in die Arme gespielt. Dies wird nicht zuletzt die Kooperation der Amazon Web Services und Eucalyptus weiter stärken, sondern Eucalyptus für Amazon als Übernahmeobjekt immer attraktiver machen.

Warum ich dieser Meinung bin, habe ich ausführlich unter „Amazon kauft Eucalyptus Cloud – Es ist nur eine Frage der Zeit“ beschrieben.

Kategorien
Analysis

Microsoft probably builds a cloud computing data center in Germany

First, I have this information not from a Microsoft employee, so it is not a confirmed report. However, three people have told me, independently from each other, the fact that Microsoft plans to build at least one data center for its cloud services, including Windows Azure and Microsoft Office 365, in Germany. Therefore, one should assume that a little truth is behind this information. If Microsoft would confirm this, you should just say chapeau Microsoft! This is exactly the right way.

It fits into their strategy

Microsoft’s current strategy is „CLOUD First“. This is no secret and was confirmed to me several times by Microsoft’s side. Among others from the business division Dynamics CRM that is constantly growing through the cloud. At Microsoft since the launch of Dynamics CRM Online in 2011 the approach is „cloud first!“ and this seems to prove themselves. The cloud solution has reached a high level of customer acceptance, which was able to win 30% more customers for Microsoft Dynamics CRM. While 60% of all new customers rely on the cloud solution.

The situation is similar in many other areas of the company. Be mentioned only Windows Azure, which is constantly being expanded, or Office 365. For this reason, the construction of at least one data center in Germany is and and would be the next logical step to meet us Germans with regard to confidence.

Data center in Germany: An enormous competitive advantage

Microsoft supplies the European market currently over its data centers in Ireland (Dublin) and the Netherlands (Amsterdam). This comes with many Germans, especially privacy officers and medium-sized enterprises, to discomfort. Storing data outside of Germany and a contract after a maximum of European law is not welcome. However, Germany should not be neglected as a business location. For U.S. companies Germany may indeed be a small country, but to underestimate the economic power would be fatal.

If the fact is true, that Microsoft is building a cloud data center in Germany, it would be an enormous competitive advantage over other providers such as Amazon Web Services or Google. Especially in the highly competitive market for corporate customers, where Amazon AWS and Google struggle and where Microsoft already has the best starting position, due to an existing broad customer base, Microsoft would make a big step forward.

Beyond – If the data center will be built, as I believe strategically, Amazon and Google will each no longer come around to build their own data center in Germany. Indeed both and in particular Amazon is the technologically leader in the cloud computing market, but the location advantage is not negligible with a data center in Germany to actively begin to take the concerns of the German companies.

After all, cloud computing is the future! Only the legal and data privacy issues need to be adapted to the level of countries plus the customer needs which must be considered. Technologies and services are allowed to and even have to be standardized! But contracts and organizational issues have to be lead at eye level.

Kategorien
Analysen

Microsoft baut wahrscheinlich ein Cloud Computing Rechenzentrum in Deutschland

Zunächst, ich habe diese Information von keinem Microsoft Mitarbeiter, wodurch es sich nicht um eine bestätigte Meldung handelt. Allerdings haben mir drei Personen unabhängig voneinander davon berichtet, dass Microsoft plant, mindestens ein Rechenzentrum für seine Cloud Services u.a. Windows Azure und Microsoft Office 365 in Deutschland zu bauen. Daher sollte man davon ausgehen, dass ein wenig Wahrheit hinter dieser Information steckt. Wenn Microsoft dies bestätigen würde, dürfte man nur sagen Chapeau Microsoft! Das ist genau der richtige Weg.

Es passt in die Strategie

Microsofts aktuelle Strategie lautet „CLOUD First“, das ist kein Geheimnis und wurde mir von Microsofts Seite mehrfach bestätigt. Unter anderem aus dem Bereich Dynamics CRM, das durch die Cloud stetig wächst. Bei Microsoft gilt seit der Einführung von Dynamics CRM Online im Jahr 2011 „Cloud first!“ und das scheint sich zu bewähren. Die Cloud Lösung hat bei den Kunden mittlerweile eine hohe Akzeptanz erreicht, wodurch Microsoft 30% mehr Kunden für Dynamics CRM gewinnen konnte. Dabei setzen 60% aller Neukunden auf die Cloud Lösung.

Ähnlich sieht es in vielen anderen Unternehmensbereichen aus. Genannt seien nur Windows Azure, das stetig ausgebaut wird, oder Office 365. Aus diesem Grund ist und wäre der Bau mindestens eines Rechenzentrums in Deutschland der nächste logische Schritt, um auch uns Deutschen hinsichtlich Vertrauen weiter entgegen zu kommen.

Rechenzentrum in Deutschland: Ein enormer Wettbewerbsvorteil

Microsoft versorgt den europäischen Markt derzeit über Rechenzentren in Irland (Dublin) und den Niederlanden (Amsterdam). Das stößt bei vielen Deutschen, vornehmlich Datenschützern und mittelständischen Unternehmen, auf Unbehagen. Das Speichern von Daten außerhalb von Deutschland und ein Vertrag nach maximal europäischen Recht wird nicht gerne gesehen. Jedoch sollte und darf der Wirtschaftsstandort Deutschland nicht vernachlässigt werden. Für die US-amerikanischen Unternehmen mag Deutschland zwar ein kleines Land sein, aber die Wirtschaftskraft zu unterschätzen wäre fatal.

Trifft die Information also tatsächlich zu, dass Microsoft ein Cloud Rechenzentrum in Deutschland baut, wäre das ein enormer Wettbewerbsvorteil gegenüber anderen Anbietern wie den Amazon Web Services oder Google. Insbesondere im stark umkämpften Markt für Unternehmenskunden, in denen Amazon AWS und Google sich schwer tun und wo Microsoft bereits die beste Ausgangslage, auf Grund einer bestehenden breiten Kundenbasis, hat, würde Microsoft damit einen großen Schritt nach Vorne machen.

Darüber hinaus – sollte das Rechenzentrum gebaut werden, wovon ich strategisch gesehen sehr stark ausgehe, werden Amazon und Google nicht mehr drum herum kommen, jeweils ein eigenes Rechenzentrum in Deutschland zu bauen. Wenn auch beide und insbesondere Amazon technologisch weiterhin die Vorreiter im Cloud Computing Markt sind, ist der Standortvorteil mit einem Rechenzentrum in Deutschland nicht zu vernachlässigen, um aktiv damit zu beginnen, die Bedenken den deutschen Unternehmen zu nehmen.

Denn, Cloud Computing ist die Zukunft! Es müssen nur die rechtlichen und datenschutztechnischen Themen dem jeweiligen Länderniveau angepasst und die Bedürfnisse der Kunden berücksichtigt werden. Technologien und Services dürfen und müssen sogar standardisiert werden! Aber Verträge und organisatorische Themen gehören auf Augenhöhe geführt.