Kategorien
Analysis

ProfitBricks under the hood: IaaS from Germany – be curious

Last week I had a briefing with ProfitBricks to get a better understanding of the infrastructure-as-a-service (IaaS) offering from Germany and to ask specific questions. I examined ProfitBricks critically with two articles in the past, number one here and number two here. First, because I don’t like marketing phrases that just promise much more than really is behind it and secondly because even the technical promises must be kept.

ProfitBricks details

ProfitBricks presents itself as a typical infrastructure-as-a-service providers. A graphical web interface is used to form customized servers to an entire data center. A complex network structure shall ensure a real isolation of the customer’s network in the virtual datacenter. A meshed network with a redundant Infiniband connection and a highly redundant storage (including automatic backup) provides the performance and availability of data.

In addition, ProfitBricks has its own security team and highly experienced system administrators that provide a round the clock support.

Locations

ProfitBricks has data centers or co-locations in Germany (Karlsruhe) and the USA (Las Vegas). However, both data centers are not connected with each other – physical nor virtual. So no data exchange between Germany and the United States can take place in this way.

The infrastructure components

At ProfitBricks servers can be equip from 1 to 48 cores, and between 1 GB and 196 GB of RAM. The maximum is currently at 60 cores and 250 GB of RAM per server, which can be enabled through a support contact. Storage is available between 1 GB and 5000 GB. However, this can only be assigned to one server directly. So there is no central storage. To realize this, one has to build its own central storage appliance and distribute the storage over it.

Within a self-designed data center (see below), two zones (similar to Amazon Availability Zones) are available. This allows to configure two servers, whereby one of them will not notice about problems in the area of the second server.

There is no centralized firewall. Instead, each of all NICs in a server can be configured with their own rules. A central firewall can achieved by creating a dedicated firewall appliance (Linux + IPTables or a prepared commercial firewall as an ISO image).

Although a load balancer is available, ProfitBricks recommends to build an own one based on an appliance because among others the ProfitBricks one has no monitoring included.

ProfitBricks do not offer additional own value-added services. And on their own admission, this will never happen. Instead, the provider relies on a network of partners that will provide appropriate services for the infrastructure platform.

Currently unique: The Data Center Designer

What really convinced me at ProfitBricks is the „Data Center Design (DCD)“. Such a one no IaaS provider worldwide has it in this format.

Based on these graphical web interface one is able to create a complete virtual data center individually and activate the configuration or modify it with a mouse click – whether it’s about servers, storage, load balancers, firewalls, or the corresponding network.

Is a data center design ready, it can be saved and deployed. Previously the user obtained more information about a check through the system. Here is determined whether everything is configured correctly – e.g. that all servers have a boot drive with the corresponding image. Then the total cost per month for this virtual data center is itemized.

However, the DCD has still a weak point. Is a data center deployed, no single server can be removed from the design or stopped via the web interface. Therefore the entire data center must be un-deployed. Then the server is removed and the data center must be re-deployed. Using the proprietary SOAP API that supports, among other things Java and C #, a single server should be removed. This web feature is to follow, as well as a REST API, in the future.

The customer is mostly left on its own

ProfitBricks offers a German support, which has either worked for years as an administrator, or was involved in the development of the system. Support is included for free. Even if one evaluates the platform only with a test account.

Otherwise ProfitBricks is a common self-service like all the other IaaS providers. This means that a customer is self-responsible for the design of its virtual infrastructure and how an application on the infrastructure can scale and provided highly available.

With additional questions and approaches, for example for configuring a separate firewall appliance or a dedicated load balancer, external partners should help.

Prices

The billing follows exact to the minute per hour. The cost break down on this as follows:

  • 1 Core = 0,04 EUR per hour
  • (Windows Server plus 0,01 EUR per hour)
  • 1 GB RAM = 0,09 EUR per hour
  • 1 GB storage = 0,09 EUR per 30 days
  • 1 GB traffic = 0,06 EUR per GB traffic

For the US market:

  • 1 Core = 0,05 USD per hour
  • (Windows Server plus 0,02 USD per hour)
  • 1 GB RAM = 0,015 USD per hour
  • 1 GB storage = 0,09 USD per 30 days
  • 1 GB traffic = 0,08 USD per GB traffic

Live Vertical Scaling

ProfitBricks supports the so-called Live Vertical Scaling. This means that further resources such as CPU and RAM can be add to a virtual server during operation. This feature must be enabled separately for each server, and the server must then be restarted once.

However, what I have noted here and what has be confirmed by ProfitBricks during the briefing, the operating system, database, software and the own application must support it. The systems need to realize that suddenly more cores and RAM are available and use it. And in the opposite case also deal with, when the resources scale down again.

ProfitBricks is interesting

ProfitBricks is an interesting infrastructure-as-a-service offering. Especially in the very cloud-sparse (IaaS) Germany with a data center in Germany. Particularly noteworthy is the Data Center Designer (the only USP), which is currently unique in the world and provides convenience features, that the other IaaS providers are neglecting. Admittedly the designer rakes at one point or another (Example: removing server), but that will certainly change in a next version.

At the end of the day ProfitBricks is a pure infrastructure-as-a-service provider that has its strengths in infrastructure operations. This also showed the briefing. Therefore an interview with CEO Achim Weiss confuses me, which I had read a few weeks ago. Besides enterprises he called Internet startups as ProfitBricks target customers. Today, I consider this as an utopia. Without a services portfolio like the offering of the Amazon Web Services, this target group can not be achieved. The service gap can and should be closed by service partners. Another but quite legitimate approach if the strengths are in a different area.

Kategorien
Comment

Disgusting: Amazon treats people like virtual machines – the human cloud

This article is not directly about cloud computing, but if I look at the whole issue I see many similarities with the concept of the Amazon Web Services. Beyond that it makes me very angry, how a company like Amazon treats its employees – notabene HUMANS.

Background

A recently published documentary by the ARD (video) has revealed the inhuman machinations of the world’s biggest retailer Amazon with temporary workers in Germany. That the working conditions in the Amazon logistics centers are generally described as very poor is no secret, there have been several reports about it. But what this report reveals is among all human dignity, for which all stakeholders including Amazon itself must be held publicly accountable.

The report reveals that the success of Amazon is generated on the back of temporary workers that must „live“ under worst conditions, and this here in the middle of Germany. Therefore the corporation collects Europe-wide contract workers and accommodate them in unused holiday villages. Amazon uses subcontractors e.g. for the recruitment and the „security“ of the temporary workers. In totally overcrowded buses, employees are brought into the distribution centers. If they come to late to the shiftwork – even without their own fault – they paid less. The documentary shows how a company like Amazon „… must bring along 5,000 people for three months and then get rid of.

Amazon treats contract workers like virtual machines

In order to get a little curve to the cloud, I see so many parallels between the disregard of human dignity through Amazon and the cloud computing concept as it operates by the Amazon Web Services. Simply swap the term „virtual machine“ to the word „human„.

Amazon requires, as the report good describes, „humans on demand“ and let them work through 15 days in a row. Amazon transfers the concept of the cloud, so the principles of „on demand“ and „pay per use“ in its retail business and in the logistics centers, and thus creates its „human cloud“. It is a very good analog example for the technical situation of the webshop during the Christmas season. Meanwhile, excessive resources for computing power are needed to keep the shop stable because of the high requests. The situation is similar in the logistics centers. If the requests at the webshop increase, the commissions are need to approved, accepted and prepared for shipment. If the requests decline, even in the warehouses less is going on. Accordingly, fewer people are needed, which are then no longer need to be paid. An example of an Amazon headman of the logistics center in Koblenz: „3300 employees work here, 3100 of them are temporary.“

Theoretically a nice idea Amazon, but that does not work! You can not boot up humans like virtual machines and then dispose them when they are no longer needed!

Kategorien
Kommentar

Ekelhaft: Amazon behandelt Menschen wie virtuelle Maschinen – Die menschliche Cloud

Bei diesem Artikel handelt es sich zwar nicht direkt um das Thema Cloud Computing, aber ich sehe bei der gesamten Problematik so manche Ähnlichkeiten zu dem Konzept der Amazon Web Services und es macht mich einfach nur außerordentlich wütend, wie ein Unternehmen wie Amazon mit seinen Mitarbeitern wohlgemerkt MENSCHEN umgeht.

Hintergrund

Eine kürzlich von der ARD veröffentlichte Dokumentation (Video) hat die menschenverachtenden Machenschaften des weltgrößten Einzelhändlers Amazon mit Leiharbeitern in Deutschland aufgedeckt. Das die Arbeitsbedingungen bei Amazon in den Logistikzentren grundsätzlich als sehr schlecht zu bezeichnen sind ist kein Geheimnis, darüber gab es bereits mehrere Berichte. Aber was dieser Bericht aufdeckt ist unter jeder menschlichen Würde, wofür sämtliche Beteiligte inkl. Amazon selbst öffentlich zur Verantwortung gezogen werden müssen.

Der Bericht deckt auf, das der Erfolg von Amazon auf dem Rücken von Leiharbeitern erwirtschaftet wird, die unter übelsten Bedingungen „leben“ müssen und das hier Mitten in Deutschland. Dazu sammelt der Konzern europaweit Leiharbeiter ein und bringt diese in Feriendörfern unter. Dazu setzt Amazon auf Subunternehmen z.B. für das Rekrutieren und die „Sicherheit“ der Leiharbeiter. In total überfüllten Bussen werden die Mitarbeiter in die Logistikzentren gebracht. Kommen Sie zu spät zur Schicht – auch ohne eigene Schuld – erhalten sie weniger Lohn. Die Dokumentation veranschaulicht, wie ein Unternehmen wie Amazon „… 5000 Menschen für drei Monate heranschaffen und dann wieder loswerden muss„.

Amazon behandelt Leiharbeiter wie virtuelle Maschinen

Um nun doch ein klein wenig die Kurve zur Cloud zu bekommen, sehe ich so manche Parallelen zwischen der Missachtung der menschlichen Würde durch Amazon und dem Cloud Computing Konzept wie es die Amazon Web Services betreiben. Man tausche einfach den Begriff „virtuelle Maschine“ gegen das Wort „Mensch„.

Amazon benötigt, wie es der Bericht auch gut beschreibt, „Menschen bei Bedarf“ und lässt diese gerne mal 15 Tage am Stück durcharbeiten. Amazon überträgt das Konzept der Cloud also die Prinzipien „on Demand“ und „Pay per use“ auf sein Einzelhandelsgeschäft in die Logistikzentren und schafft sich damit seine „Menschen Cloud“. Es ist ein sehr gutes analoges Beispiel zur technischen Situation des Webshops während der Weihnachtszeit. Währenddessen werden übermäßig viele Ressourcen an Rechenleistung benötigt, um den Webshop durch die hohen Anfragen stabil zu halten. Ähnlich verhält es sich in den Logistikzentren. Steigen die Anfragen beim Webshop, müssen die Aufträge schließlich auch kommissioniert und für den Versand fertig gemacht werden. Sinken die Anfragen, ist auch in den Lagern weniger los. Dementsprechend werden weniger Menschen benötigt, die dann auch nicht mehr bezahlt werden müssen. Ein Beispiel von einem Amazon-Vorabeiter des Logistikzentrum bei Koblenz: „Hier arbeiten 3300 Mitarbeiter, und davon sind 3100 befristet.“

Theoretisch eine schöne Idee Amazon, aber so geht das nicht! Ihr könnt Menschen nicht hochfahren wie virtuelle Maschine und wieder entsorgen wenn ihr sie nicht mehr benötigt!

Kategorien
Analysen

ProfitBricks unter der Haube: IaaS aus Deutschland – man darf gespannt sein

In der vergangenen Woche hatte ich ein Briefing mit ProfitBricks, um das Infrastructure-as-a-Service (IaaS) Angebot aus Deutschland besser kennenzulernen und konkrete Fragen zu stellen. Ich habe ProfitBricks in zwei Artikeln Nummer eins hier und Nummer zwei hier in der Vergangenheit bereits kritisch begutachtet. Zum einen, weil ich einfach nicht auf Marketingphrasen stehe, die viel mehr versprechen als eigentlich dahinter steckt und zum anderen, weil auch technische Versprechen eingehalten werden müssen.

Details zu ProfitBricks

ProfitBricks stellt sich als typischer Infrastructure-as-a-Service Anbieter auf. Über eine graphische Weboberfläche lassen sich maßgeschneiderte Server zu einem Rechenzentrum formen. Anhand von komplexen Vernetzungsstrukturen soll eine echte Isolation des Kundennetzwerks im virtuellen Rechenzentrum sichergestellt werden. Für Performance sorgt eine vermaschte redundante Vernetzung mit Infiniband sowie ein hochredundanter Storage (inkl. automatischem Backup) für die Verfügbarkeit der Daten.

Zudem verfügt ProfitBricks über ein eigenes Security-Team sowie langjährig erfahrene Systemadministratoren, die einen rund um die Uhr Support liefern.

Standorte

Rechenzentren bzw. Co-Location besitzt ProfitBricks in Deutschland (Karlsruhe) und in den USA (Las Vegas). Allerdings sind beide Rechenzentren in keinster Weise physikalisch oder virtuell miteinander verbunden, wodurch kein Datenaustausch zwischen Deutschland und den USA auf diesem Weg stattfinden kann.

Die Infrastruktur-Komponenten

Server lassen sich bei ProfitBricks mit Cores zwischen 1 und 48 Cores sowie 1 GB und 196 GB RAM ausstatten. Das Maximum liegt hier derzeit allerdings bei 60 Cores und 250 GB RAM pro Server, was man sich über den Support freischalten lassen kann. Storage gibt es zwischen 1 und 5000 GB. Allerdings kann dieser immer nur direkt einem Server zugewiesen werden. Es gibt somit keinen zentralen Speicher. Um dieses zu realisieren, muss man sich eine eigene zentrale Storage-Appliance bauen und den Speicher darüber verteilen.

Innerhalb eines selbst gestalteten Rechenzentrum (siehe unten) stehen zwei Zonen (ähnlich der Availability Zones von Amazon) zur Verfügung. Damit lassen sich z.B. zwei Server so konfigurieren, dass der eine von den Problemen in der Zone des zweiten Servers nichts mitbekommt.

Es gibt keine zentrale Firewall. Stattdessen können jeweils alle Netzwerkkarten eines Servers mit eigenen Regeln konfiguriert werden. Eine zentrale Firewall lässt sich hier z.B. durch den Aufbau einer eigenen Firewall-Appliance (Linux + IPTables oder eine fertige kommerzielle Firewall als ISO-Image) realisieren.

Ein Load Balancer steht zwar zur Verfügung, allerdings empfiehlt ProfitBricks an dieser Stelle lieber einen eigenen anhand einer Appliance zu bauen, da der ProfitBricks eigene u.a. über kein Monitoring verfügt.

Weitere eigene Mehrwertservices bietet ProfitBricks nicht an. Dies soll nach eigener Aussage auch nicht passieren. Stattdessen setzt der Anbieter auf ein Partnernetzwerk, das für die Infrastrukturplattform entsprechende Services anbieten soll.

Derzeit einmalig: Der Data Center Designer

Was mich bei ProfitBricks wirklich überzeugt hat ist der „Data Center Designer (DCD)“. So einen hat in dieser Form derzeit noch kein IaaS Anbieter weltweit.

Anhand dieser graphischen Weboberfläche ist man in der Lage ein komplettes virtuelles Rechenzentrum individuell zusammenzustellen und per Mausklick die Konfiguration zu aktivieren oder beliebig zu ändern – egal ob es sich um Server, Storage, Loadbalancer, Firewalls oder die entsprechende Vernetzung handelt.

Ist ein Rechenzentrum fertig designed, lässt es sich speichern und deployen. Zuvor erhält man noch Informationen über einen Check durch das System. Hier wird geschaut, ob alles korrekt konfiguriert wurde – z.B. ob alle Server auch ein Bootlaufwerk mit entsprechenden Image haben. Anschließend werden die Gesamtkosten pro Monat für dieses virtuelle Rechenzentrum aufgeschlüsselt.

Allerdings hat der DCD derzeit noch eine Schwachstelle. Ist ein Rechenzentrum deployed, lässt sich über die Weboberfläche kein einzelner Server mehr aus dem Design entfernen bzw. diesen darüber stoppen. Dazu muss zunächst das vollständige Rechenzentrum wieder un-deployed werden. Dann wird der Server entfernt und das Rechenzentrum anschließend wieder deployed. Mittels der proprietären SOAP API, die unter anderem Java und C# unterstützt, soll ein einzelner Server jedoch entfernt werden können. Diese Web-Funktion soll, ebenso wie eine REST API, in Zukunft folgen.

Der Kunde ist größtenteils auf sich alleine gestellt

Zunächst bietet ProfitBricks einen deutschsprachigen Support, der entweder selbst jahrelang als Administrator gearbeitet hat oder an der Entwicklung des Systems beteiligt war. Der Support ist darüber hinaus kostenlos enthalten. Auch dann, wenn man die Plattform nur mit einem Testaccount evaluiert.

Ansonsten ist ProfitBricks ein gewöhnlicher Self-Service wie ihn andere IaaS Anbieter auch bieten. Das bedeutet, dass man sich über das Design seiner virtuellen Infrastruktur und wie eine Applikation auf der Infrastruktur skaliert und hochverfügbar bereitgestellt wird, selbst kümmern.

Bei weitere Fragen und Lösungsansätze, z.B. bei der Konfiguration einer separaten Firewall-Appliance oder eines eigenen Loadbalancer, helfen Partner.

Preise

Die Abrechnung erfolgt minutengenau pro Stunde. Die Kosten schlüsseln sich dabei wie folgt auf:

  • 1 Core = 0,04 EUR pro Stunde
  • (Windows Server plus 0,01 EUR pro Stunde)
  • 1 GB RAM = 0,09 EUR pro Stunde
  • 1 GB Speicher = 0,09 EUR pro 30 Tage
  • 1 GB Traffic = 0,06 EUR pro GB Traffic

Das Live Vertical Scaling

ProfitBricks unterstützt das sogenannte Live Vertical Scaling. Das bedeutet, dass sich weitere Ressourcen wie CPU und RAM im laufenden Betrieb zu einem virtuellen Server hinzufügen lassen. Diese Funktion muss für jeden Server separat aktiviert und der Server anschließend einmal neu gestartet werden.

Allerdings, und das habe ich hier angemerkt und hat mir ProfitBricks während des Briefings bestätigt, muss das Betriebssystem, die Datenbank, Software und die eigene Applikation das auch unterstützen. Die Systeme müssen erkennen, dass plötzlich mehr Kerne und RAM zur Verfügung stehen und diese nutzen. Und im umgekehrten Fall ebenfalls damit umgehen können, wenn die Ressourcen wieder herunterskalieren.

ProfitBricks ist interessant

ProfitBricks ist ein interessantes Infrastructure-as-a-Service Angebot. Insbesondere im sehr Cloud-kargen (IaaS) Deutschland mit einem Rechenzentrum in Deutschland. Besonders hervorzuheben ist der Data Center Designer (einziger USP), der derzeit weltweit einmalig ist und die entsprechende Convenience bietet, die andere IaaS-Anbieter vernachlässigen. Zwar harkt der Designer an der einen oder anderen Stelle noch (Bsp.: Server entfernen), aber das wird sich in einer zeitnahen neuen Version sicherlich ändern.

Unterm Strich ist ProfitBricks ein reiner Infrastructure-as-a-Service Anbieter, der seine Stärken im Infrastrukturbetrieb hat. Das ergab auch das Briefing. Daher irritiert mich ein Interview mit CEO Achim Weiß, welches ich vor ein paar Wochen gelesen hatte. Darin gab er als Zielkunden neben Unternehmen, ebenfalls Internet-Startups an. Das erachte ich derzeit jedoch als eine Utopie. Ohne ein Service-Portfolio wie es die Amazon Web Services bieten ist diese Zielgruppe nicht zu erreichen. Die Service Lücke kann und soll durch Service Partner geschlossen werden. Ein anderer aber durchaus legitimer Ansatz, wenn die Stärken in einem anderen Bereich liegen.

Kategorien
Kommentar

Wettbewerb: Schule und Cloud Computing – Weil sich die Zeiten endlich ändern müssen

Wer kennt das Dilemma nicht – Schule und Informationstechnologie? Ich kann gar nicht beschreiben, wie sehr meine Mitschüler und ich damals unter schlecht ausgestatten Laboren und Lehrkräften, die sich als wahre IT-Muffel ausgezeichnet haben, leiden durften. Wer nicht ein wenig Eigeninitiative zeigte, ist dabei kläglich auf der Strecke geblieben. Aber es war damals ja auch nicht abzusehen, wohin sich unsere Gesellschaft entwickeln wird…

Zurück in die Zukunft

Ich selbst habe (damals) vor dem Studium eine Ausbildung zum Fachinformatiker Systemintegration gemacht. Man hätte meinen können, das man auch mit dementsprechenden Systemen ausgebildet(!) wird. Denn Schlosser usw. haben schließlich auch – meiner Einschätzung nach – sehr gut ausgestattete Werkstätten mit teuren Anlagen zum Fräsen, Bohren und Drehen. Also all das, was sie für ihr Handwerkszeug(!) benötigen!

Was ist denn das Handwerkszeug eines Fachinformatiker? Genau, Computer! Hardware, Software und Programmierkenntnisse. An ersten Beiden hat es an meiner Berufsschule sehr stark gemangelt, $$$. Letzteres war je nach Lehrkraft zu bewerten. Mein Schlüsselerlebnis war jedoch, als es im zweiten Lehrjahr dann endlich neue PCs gab. Die wurden als quasi Bausatz angeliefert. Bedeutete, den Schülern wurde ein „Projekt“ verkauft, um das zusammenbauen eines Rechnersystems zu „lernen“. Fakt war, dass die Lehrkraft die Fragen an die Schüler weitergereicht hat, die ihre Ausbildungen in einem IT-Betrieb gemacht haben, dessen Kerngeschäft es war, PCs zu bauen. Wohlgemerkt geht es hier nicht um das ob sondern um das wie.

Fassen wir zusammen. IT in der Schule hat mit $$$ und den entsprechenden Kenntnissen der Lehrkräfte zu tun. Und nach ein paar Gesprächen scheint es an beiden weiterhin zu mangeln.

Cloud Computing bringt Schulen den notwendigen IT-Segen

Anhand von Cloud-Lösungen erhalten Schulen den flexiblen Zugriff auf die benötigten IT-Ressourcen. Seien es Software-as-a-Service Applikationen für bestimmte Anwendungsfälle in einem Unterrichtsfach oder für die gemeinsame aber verteilte Zusammenarbeit (auch nach der Schule) an einer Facharbeit oder sonstigen Projekten. Mittels Platform-as-a-Service aber auch Infrastructure-as-a-Service lassen sich Programmieraufgaben oder auch kleine IT-Gruppenprojekte zeitnah und kostengünstig umsetzen. Kombiniert mit Thin-Clients können auch die Hardwarekosten gering gehalten und die entsprechende physikalische Sicherheit der Systeme sichergestellt werden.

Wettbewerb: Schule und Cloud

Eine Initiative unter der Federführung der fat IT solutions GmbH zusammen mit Prof. Dr. Gunter Dueck von BlueForge, den Amazon Web Services und der Igel Technology GmbH will das nun ändern. Der Schulwettbewerb „Schule und Cloud“ hat das Ziel, Berufsschulen den Nutzen von IT-Lösungen während des Unterrichts näher zu bringen. Die Idee besteht darin, den „… am besten gestalteten Cloudcomputer Deutschlands.. “ zu finden. Dazu sollen Lehrer in Gruppenprojekten oder AGs pädagogisch wertvolle Software auf kostenlos zur Verfügung gestellten Computern in der Cloud installieren. Dabei kann es sich z.B. um Bildbetrachter, Textverarbeitung oder Lernprogramme handeln. Anschließend soll das System so konfiguriert werden, wie es später weiter benutzt werden soll.

Der Wettbewerb richtet sich an Berufsschulen und hier nicht nur an Klassen der IT-Ausbildungsberufe. Die besten drei Projekte werden im Anschluss von einer Jury prämiert. Mehr Informationen zur Teilnahme gibt es unter http://schule-und-cloud.de/requirements.html.

Kategorien
Management @en

Data lines: the backbone of the cloud

During cloud talks there are always a lot of discussions about the providers, their availability, reliability and service level agreements (SLA). What is often not discussed is the main dependence number one: The backbone of the Internet carriers. The Submarine Cable Map 2013 nicely illustrates where which cables run worldwide, which are responsible for the data transfer between the different continents.

Data lines: the backbone of the cloud

Submarine Cable Map 2013 – The global backbone under the sea

The „Submarine Cable Map 2013“ shows the backbone of the global submarine cable in the ocean. It shows where most of the data transfer takes place and which countries have the best interconnection.

Overall, the map illustrates 244 lines. Among those who were laid between the period 1992 to 2012, or those which are taken up in 2014. Existing lines are color-coded, gray cable are planned. Another twelve lines to be laid in the next two years.

At the bottom of the card it can also be seen how quick the respective connections between the different countries and continents are and how much the workload is. It can be seen, for example, that the available data connections from the United States to Colombia and Venezuela are fast, but to France and the UK, they are slower. The weakest data line, the U.S. has to South Africa and India.

Kategorien
Management

Netflix veröffentlicht weitere "Monkeys" als Open-Source – Eucalyptus Cloud wird es freuen

Wie GigaOM berichtet, wird Netflix in naher Zukunft weitere Services ähnlich zu seinem Chaos Monkey und der Simian-Army unter der Open-Source Lizenz auf Github veröffentlichen.

Der Chaos Monkey

Der Chaos Monkey ist ein Service der auf den Amazon Web Services läuft, nach Auto Scaling Groups (ASGs) sucht und Instanzen (virtuelle Maschinen) pro Gruppe wahllos beendet. Dabei ist die Software flexibel genug entwickelt worden, dass sie ebenfalls auf den Plattformen anderer Cloud Anbieter funktioniert. Der Service ist voll konfigurierbar, läuft standardmäßig aber an gewöhnlichen Werktagen von 09.00 Uhr bis 15.00 Uhr. In den meisten Fällen hat Netflix seine Anwendungen so geschrieben, dass diese weiterhin funktionieren, wenn eine Instanz plötzlich Probleme hat. In speziellen Fällen passiert das bewusst nicht, damit die eigenen Leute das Problem beheben müssen, um daraus zu lernen. Der Chaos Monkey läuft also nur ein paar Stunden am Tag, damit sich die Entwickler nicht zu 100% auf ihn verlassen.

Weitere Informationen zum Chaos Monkey und der Simian Army gibt es unter „Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur„.

Weitere Services aus Netflix Monkey Portfolio

  • Denominator: Ein Tool für die Verwaltung mehrerer DNS-Provider.
  • Odin: Eine Orchestration API, die von Jenkins und Asgard, dem Netflix Deployment Tool, aufgerufen werden kann. Sie soll Entwicklern helfen bequemer zu deployen.
  • Recipes: Dabei handelt es sich um Blaupausen (blueprints), mit denen sich mehrere Netflix Komponenten zusammen einfacher ausrollen lassen.
  • Launcher: Soll per Knopfdruck die fertigen Blaupausen ausrollen.
  • Mehr Monkeys: Zu den weiteren Netflix Monkeys die noch in diesem Jahr folgen sollen, gehören der Conformity Monkey, der Latency Monkey und der Latency Howler Monkey. Der Conformity Monkey stellt sicher, dass alle relevanten Instanzen äquivalent aufgesetzt sind. Der Latency Monkey simuliert Latenzen und weitere Fehler. Der Latency Howler Monkey überwacht, ob ein Workload auf mögliche AWS Limitierungen trifft und meldet dies.

Der Chaos Gorilla, der wahllos den Absturz einer vollständigen AWS Availability Zone simuliert sowie der Chaos Kong, der eine ganze AWS Region simuliert abschießt, sollen ebenfalls bald folgen.

Kommentar

Zwar möchte Netflix seine „Monkeys“ Cloud übergreifend anbieten, so dass z.B. auch OpenStack Nutzer darauf zurückgreifen können. Allerdings spielt Netflix mit der stetigen Veröffentlichung seiner HA-Testsuite Eucalyptus damit immer mehr in die Arme.

Eucalyptus Cloud ermöglicht den Aufbau einer Private Cloud auf Basis der grundlegenden Funktionen der Amazon Cloud Infrastruktur. Was Amazon bei sich z.B. als AWS Availiablty Zone bezeichnet, repräsentiert bei Eucalyptus ein „Cluster“. Die Netflix Tools ermöglichen somit auch ähnliche HA-Funktionalität Prüfung in der Private/ Hybrid Cloud, wie Netflix sie selbst bereits in der Amazon Public Cloud nutzt. Darüber hinaus wird Eucalyptus die Netflix Tools mittelfristig ganz sicher in die eigene Cloud Lösung integrieren, um eine eigene HA-Prüfung im Portfolio zu haben.

Die Veröffentlichung der Netflix Tools unter der Open-Source Lizenz wird nicht zuletzt die Kooperation der Amazon Web Services und Eucalyptus weiter stärken, sondern Eucalyptus für Amazon als Übernahmeobjekt immer attraktiver machen.

Kategorien
Management

Die Datenleitungen: Das Rückgrat der Cloud

Im Cloud Umfeld wird immer viel über die Anbieter, ihre Verfügbarkeit, Ausfallsicherheit und Service Level Agreements (SLA) gesprochen. Was sehr oft gar nicht angesprochen wird ist die Hauptabhängigkeit Nummer eins: Die Backbones der Internet Carrier. Die „Submarine Cable Map 2013“ illustriert sehr schön, wo welche Kabel weltweit verlaufen, die für den Datentransfer zwischen den einzelnen Kontinenten verantwortlich sind.

Die Datenleitungen: Das Rückgrat des Cloud Computing

Submarine Cable Map 2013 – Das weltweite Backbone unter dem Meer

Die „Submarine Cable Map 2013“ zeigt das weltweite Backbone der Unterwasserkabel im Meer. Sie zeigt, wo der meiste Datentransfer stattfindet und welche Länder über die beste Vernetzung verfügen.

Insgesamt illustriert die Karte 244 Leitungen. Darunter diejenigen die zwischen dem Zeitraum von 1992 bis 2012 verlegt wurden oder die, welche bis 2014 in Betrieb genommen werden. Bereits bestehende Leitungen sind farbig markiert, geplante sind Grau. Weitere zwölf Leitungen sollen in den kommenden zwei Jahren neu verlegt werden.

Am unteren Rand der Karte lässt sich zudem ablesen, wie schnell die jeweiligen Verbindungen zwischen den verschiedenen Ländern und Kontinenten sind und wie stark die Auslastung ist. Zu erkennen ist z.B., dass die USA nach Kolumbien und Venezuela über schnelle Datenverbindungen verfügen, nach Frankreich und Großbritannien ist es jedoch langsamer. Die schwächste Datenleitung haben die USA demnach nach Südafrika und Indien.

Kategorien
Comment

Is the channel in the cloud computing age still relevant?

During the Cloud EcoSystem Winter Meeting a panel discussed which relevants the channel still has in the cloud. Since the majority of the participants were part of the channel less critics were made. And even things about changes were not discussed, because some already delivered software over ASP and so they are since 1998 in the cloud.

ASP is not cloud computing

I will not discuss ASP (Application Service Providing) vs. SaaS (cloud). That ASP has nothing todo with SaaS (software-as-a-service) respectively cloud computing is not just propagade by me but also by other publications. (Btw, I was very thankful, that Stefan Ried cleaned up all the „cloud myths“ during his talk and showed all attendees the true characteristics and benefits of the cloud, thanks Stefan!)

The channel have to change

Let’s come to the channel. It will be worse to say that it dies. On the one hand „something“ is to sale everytime and the lobby behind that will do their best to keep this business model alive. But it will be worse to close the eyes and making things going on as they have been made for years. Sure, „You’ll always need hardware!“ but even this amount? And are countless suppliers able to live just from selling hardware?

In my opinion, software reselling, a big part of the whole market, is dead. Just think about which type of software is shipped by media, I spontaneously just have operating systems in mind. Although it’s possible to download it from the website of the vendor as well. Just like other software which is not available as SaaS today. For example, Microsoft ships the new Office 365 Home Premium in a box with just a small card with a code on it. The software is downloaded or streamed afterwards from a Microsoft website.

From reseller to integrator

In my opinion the typical channel for software reseller is too late to save. Companies in this area should as soon as possible think about other options. One possibility is a partnership program with software vendors, to help customers migrate and integrate with consultation-intensive solutions (actually SaaS applications are intuitv to configure and use). That means, a software reseller needs to have more expertise than just sell software and become a systems integrator.

A further idea is to build an own marketplace for SaaS applications. Here the differentiation with existing offerings is necessary and besides offering solutions from different categories even integrate them (by standard) in order to have a central data management and no isolated solutions. Here you can see, that the reseller also becomes an integrator. Leaving just reselling software.

Sure, there are software reseller who even integrate. The classical systems houses. But even these needs to change, thanks to the cloud.

Kategorien
Kommentar

Hat der Channel in Zeiten des Cloud Computing noch eine Bedeutung?

Auf dem Cloud EcoSystem Winter Meeting wurde in einem Panel diskutiert, welche Bedeutung der Channel in der Cloud überhaupt noch hat. Da die Mehrzahl der Protagonisten jedoch ein Teil dieses Channels waren, gab es natürlich wenig Kritik. Allerdings war auch wenig von Veränderungen zu hören, da man ja auf Grund des ASP Modells schon selbst seit 1998 quasi in der Cloud sei.

ASP ist kein Cloud Computing

Auf die Diskussion ASP (Application Service Providing) vs. SaaS (Cloud) gehe ich hier nicht ein. Das ASP mit SaaS (Software-as-a-Service) respektive Cloud Computing nichts zu tun hat, wird nicht nur von mir, sondern vielen weiteren Publikationen propagiert. (Ich war übrigens sehr froh, dass Stefan Ried während seines Vortrags mit den „Cloud Mythen“ noch einmal aufgeräumt hat und allen Beteiligten die echten Eigenschaften und Vorteile der Cloud präsentiert hat, danke Stefan!)

Der Channel muss sich verändern

Kommen wir zum Channel. Es wäre falsch zu sagen, dass er stirbt. Zum einen gibt es auch weiterhin „Dinge“ für den Vertrieb und die Lobby dahinter wird auch alles menschenmögliche tun, um ihr Geschäftsmodell zu verteidigen. Aber es wäre vermessen, die Augen zu verschließen und so weiter zu machen wie bisher. Natürlich, „Hardware wird immer benötigt!“, aber auch in dieser Stückzahl? Und können zig Anbieter nur vom Vertrieb von Hardware leben?

Meiner Ansicht nach ist der Software-Vertrieb, ein sehr großer Teil vom gesamten Markt, tod. Überlegen wir uns, welche Art von Software in Zukunft noch auf Datenträger verschickt wird, fallen mir spontan nur die Betriebssysteme ein. Obwohl sich diese mittlerweile auch über die Webseiten der Hersteller herunterladen lassen, wie andere Softwarelösungen übrigens auch, die noch nicht als SaaS zur Verfügung stehen. Zum Beispiel liefert Microsoft für Office365 Home Premium trotz Verpackung nur noch einen Code aus, mit dem die Software von einer Microsoft Webseite heruntergeladen oder gestreamed wird.

Vom Reseller zum Integrator

Der typische Channel für Software-Reseller ist meiner Ansicht nach daher nicht mehr zu retten. Unternehmen aus diesem Bereich sollten sich möglichst schnell Gedanken über alternative Wege machen. Mögliche Ansätze bestehen in Partnerprogrammen mit den Softwareherstellern, um z.B. bei beratungsintensiven Lösungen (eigentlich sollten SaaS Anwendungen intuitiv zu konfigurieren und bedienen sein) dem Kunden zur Seite zu stehen und bei der Migration und Integration zu helfen. Ergo: Software-Reseller müssen sich mehr Expertise als das reine wiederverkaufen aneignen und zu Sytemintegratoren werden.

Eine weitere Möglichkeit besteht in dem Aufbau eines eigenen Marktplatz für SaaS-Applikationen. Hier gilt es jedoch sich direkt von den bestehenden Angeboten zu differenzieren und neben einer Vielzahl von Lösungen aus den unterschiedlichen Bereichen, ebenfalls dafür zu sorgen, dass die von dem Kunden genutzten Lösungen miteinander integriert sind und über eine zentrale Datenhaltung verfügen und somit keine Insellösungen entstehen. Gut zu erkennen: auch hier muss der Reseller wieder zum Integrator werden. Weg von dem reinen Zwischenhandel mit Software.

Selbstverständlich existieren Software-Reseller, die ebenfalls Integrationen vornehmen. Das sind die klassischen Systemhäuser. Aber auch diese müssen sich auf Grund der Cloud verändern.