Kategorien
Analysis

GigaOM Analyst Webinar – The Future of Cloud in Europe [Recording]

On July 9 Jo Maitland, Jon Collins, George Anadiotis and I talked about the opportunities and challenges of the cloud in Europe and countries such as Germany or the UK, and gave an insight into the cloud computing market in Europe. The recording of the international GigaOM analyst webinar „The Future of Cloud in Europe“ is online now.

Background of the webinar

The European Commission unveiled its “pro cloud” strategy a year ago, hoping to reignite the stagnant economy through innovation. The Commissioner proclaimed boldly that the cloud must “happen not to Europe, but with Europe”. And rightly so. A year later, three GigaOM Research analysts from Europe Jo Collins (Inter Orbis), George Anadiotis (Linked Data Orchestration) and Rene Buest (New Age Disruption) – moderated by Jo Maitland (GigaOM Research) – looked at who the emerging cloud players are in the region and their edge over U.S. providers. They digged into the issues for cloud buyers in Europe and the untapped opportunities for providers. Can Europe build a vibrant cloud computing ecosystem? That’s a tough question today as U.S. cloud providers still dominant the industry.

Questions which were answered

  • What’s driving cloud opportunities and adoption in Europe?
  • What are the inhibitors to adoption of cloud in Europe?
  • Are there trends and opportunities within specific countries (UK, Germany, peripheral EU countries?)
  • Which European providers show promise and why?
  • What are the untapped opportunities for cloud in Europe?
  • Predictions for the future of cloud in Europe.

The recording of the analyst webinar

Kategorien
Analysen

Cloud Computing benötigt professionelle, unabhängige und vertrauenswürdige Zertifizierungen

Ich hatte vor über einem Jahr bereits über denn Sinn und Unsinn von Cloud Siegeln, Zertifikaten, Verbänden und Initiativen geschrieben. Ich bin damals schon zu dem Ergebnis gekommen, dass wir vertrauenswürdige Zertifizierungen benötigen. Allerdings sah der deutsche Markt eher schwach aus und wurde neben EuroCloud von weiteren Interessenvertretung wie der „Initiative Cloud Services Made in Germany“ oder „Deutsche Wolke“ vertreten. Aber es gibt mittlerweile einen vielversprechenden unabhängigen Neuling.

Ergebnisse aus dem letzten Jahr

„Cloud Services Made in Germany“ und „Deutsche Wolke“

Was Initiativen im Allgemeinen gemeinsam haben ist, dass Sie mit diversen Versprechen versuchen, so viele Anbieter von Cloud Computing Services wie möglich in die eigenen Reihen zu lotsen. Vor allem „Cloud Services Made in Germany“ springt auf das vermeintliche Qualitätsmerkmal Made in Germany auf und verspricht dabei „Mehr Rechtssicherheit bei der Auswahl von Cloud-basierten Diensten…“.

Und exakt so positionieren sich „Cloud Services Made in Germany“ und „Deutsche Wolke“. Mit schwachen Bewertungskriterien machen sich beide sehr attraktiv für Anbieter aus Deutschland, die mit dem „Aufkleber“ wiederum auf ihren Webseiten Werbung machen können. Jedoch wird in den Kriterien in keinster Weise auf die wirkliche Qualität eines Service eingegangen. Darf sich der Service wirklich Cloud Service nennen? Wie ist das Abrechnungsmodell? Sorgt der Anbieter für eine Cloud Computing konforme Skalierbarkeit und Hochverfügbarkeit? Und viele weitere Fragen, die essentiell wichtig sind, um die Qualität eines Cloud Service zu bewerten!

Beide Initiativen haben in Ihrer Form auf jeden Fall eine Berechtigung. Sollten allerdings nicht als ein Qualitätskriterium für einen guten Cloud-Service genutzt werden. Stattdessen gehören Sie in die Kategorie „Patriotismus: Hallo Welt, schaut mal wir Deutschen können auch Cloud.“

EuroCloud und Cloud-EcoSystem

Neben beiden Initiativen gibt es noch die Vereine EuroCloud und Cloud-EcoSystem, welche beide mit Gütesiegel und Zertifikat werben. EuroCloud hat dafür seinen SaaS Star Audit im Angebot. Der SaaS Star Audit richtet sich, wie der Name schon sagt, ausschließlich an Software-as-a-Service Anbieter. Je nach Wunsch und Geldbeutel kann sich dieser vom EuroCloud Verband mit einem bis fünf Sternen auszeichnen lassen, wobei der Anbieter ebenfalls Mitglied des EuroCloud sein muss. Die Anzahl der Sterne sagt wiederum auch etwas über den Umfang der Prüfung aus. Werden bei einem Stern lediglich „Vertrag & Compliance“ und ein bisschen „Betrieb Infrastruktur“ überprüft, werden bei fünf Sternen ebenfalls, Prozesse und Sicherheit intensiver überprüft.

Das Cloud-EcoSystem hingegen hat mit „Cloud-Experte“ sein Qualitäts-Zertifikat für Saas & Cloud Computing Berater sowie sein „Trust in Cloud“ für Cloud Computing Anbieter. Ein „Cloud-Experte“ nach dem Cloud-EcoSystem e.V. soll Anbietern wie auch Anwendern eine Entscheidungshilfe bieten können. Dabei kann ein Experte neben dem Schreiben und Erstellen von Fachartikeln und Checklisten ebenfalls Qualitätskontrollen vornehmen. Außerdem soll sich ein Kunde darauf verlassen können, dass der Berater über bestimmte Eigenschaften eines Kriterienkatalogs für “Cloud-Experten” verfügt. So soll jeder “Cloud-Experte” über tiefes Fachwissen und Basis Qualifikationen sowie vorhandene Referenzen verfügen und auf Wunsch seine selbst erstellten Unterlagen bereitstellen. Im Grunde geht es laut dem Cloud-EcoSystem e.V. also darum, das Cloud-EcoSystem zu gestalten und zu präsentieren.
Das „Trust in Cloud“-Zertifikat soll als Entscheidungshilfe für Unternehmen und Anwender dienen und sich als ein Qualitäts-Zertifikat für SaaS und Cloud-Lösungen etablieren. Auf Basis des Zertifikats sollen Nutzer die Möglichkeit erhalten Cloud-Lösungen objektiv zu vergleichen und an Hand aufbereiteter Informationen zu einer sicheren Entscheidung kommen. Die Zertifizierung basiert auf einem Katalog mit 30 Fragen, der in 6 Kategorien á 5 Fragen unterteilt ist. Die Fragen müssen durch den Prüfling mit Ja oder Nein beantwortet werden und zudem nachgewiesen werden. Beantwortet der Cloud Anbieter eine Frage mit Ja, erhält er dafür eine “Cloud”. Die Checkliste umfasst die Kategorien Referenzen, Datensicherheit, Qualität der Bereitstellung, Entscheidungssicherheit, Vertragsbedingungen, Serviceorientierung und Cloud-Architektur.

Sowohl EuroCloud als auch das Cloud-EcoSystem gehen den richtigen Weg und versuchen Anbieter anhand selbst aufgestellter Kriterien zu bewerten. Zwei Punkte gilt es dabei jedoch zu hinterfragen. Zunächst handelt es sich um Vereine, das bedeutet, man muss als Anbieter Mitglied werden. Es sei berechtigterweise gefragt, welcher Verein sein Mitglied durch eine Prüfung durchfallen lässt – Unabhängigkeit? Weiterhin stellen beide ihre eigenen Anforderungskataloge auf, die nicht miteinander vergleichbar sind. Nur weil ein Anbieter von zwei verschiedenen Vereinen ein „Gütesiegel“ hat, das nach unterschiedlichen Kriterien bewertet, bedeutet das noch lange nicht, dass der Cloud-Service auch echte Qualität liefert – Vertraulichkeit.

Die Profis steigen in den Ring: TÜV Rheinland

Unbeachtet von allen Organisationen, die sich extra für die Cloud zusammengefunden haben, hat der TÜV Rheinland eine Cloud-Zertifizierung gestartet. Der TÜV selbst ist den meisten eher von der Prüfung und Abnahme von Krananlagen, Fahrgeschäften oder der Hauptuntersuchung beim Auto bekannt. Hat aber auch in der IT seit über 15 Jahren Erfahrungen in den Bereichen der Beratung und Zertifizierung im Hinblick auf Compliance, Risikomanagement und Informationssicherheit.

Der Cloud-Zertifizierungsprozess ist sehr umfangreich und hat seinen Preis. Ein erster Blick auf den Prüfungsprozess und den Anforderungskatalog zeigt jedoch, dass der TÜV Rheinland damit ein sehr mächtiges Werkzeug für die Prüfung von Cloud-Services und -Infrastrukturen entwickelt hat.

Beginnend mit einem „Cloud-Readiness Check“ werden zunächst Sicherheit, Interoperabilität, Compliance und Datenschutz auf ihre Cloud-Tauglichkeit überprüft und darauf basierend ein Aktionsplan erstellt. Im Anschluss folgt die Überprüfung des „Cloud-Designs“, bei dem das Konzept und die Lösung selbst unter die Lupe genommen werden. Hier werden unter anderem Themen wie die Architektur aber auch die Netzwerksicherheit, Zugriffskontrollen usw. überprüft. Anschließend wird die eigentliche Umsetzung der Cloud-Lösung betrachtet und Qualitätschecks vorgenommen. Danach erfolgt die Vorbereitung zur Zertifizierung und später die eigentliche Zertifizierung.

Der Cloud-Anforderungskatalog des TÜV-Rheinland umfasst fünf Hauptbereiche, die wiederum in zahlreiche Teilbausteine untergliedert sind. Dazu gehören Prozessorganisation, Aufbauorganisation, Datensicherheit, Compliance / Datenschutz und Prozesse. Alles in allem ein sehr tiefgehender Anforderungskatalog.

In einem genannten Referenzprojekt hat der TÜV Rheinland acht Wochen für die Zertifizierung eines international tätigen Infrastructure-as-a-Service Anbieter benötigt.

Unabhängige und vertrauenswürdige Cloud Zertifizierungen sind zwingend erforderlich

Die Qualität und der Nutzen von Zertifikaten und Gütesiegeln stehen und fallen mit den Unternehmen, die mit der Prüfung beauftragt sind sowie deren definierten Prüfkriterien. Schwache Anforderungskataloge treffen weder eine ehrliche Aussage, noch helfen Sie, die Qualitätsunterschiede von Cloud-Lösungen für den Nutzer klar darzustellen. Im Gegenteil, IT-Entscheider verlassen sich im Zweifelsfall auf diese vermeintlich geprüften Services, deren Qualität auf einem anderen Blatt steht. Hinzu kommt, dass es im Cloud Computing nicht mehr darum geht, eine Software oder einen Service einzusetzen, geschweige denn zu installieren. Es wird am Ende nur noch konsumiert und der Anbieter ist für alle anderen Prozesse verantwortlich, die der Kunde sonst selbst übernommen hätte.

Aus diesem Grund sind unabhängige, vertrauenswürdige, aber vor allem professionelle Zertifizierungen notwendig, um eine ehrliche Aussage über die Qualität und Eigenschaft eines Cloud-Service, seines Anbieters und aller nachgelagerten Prozesse wie Sicherheit, Infrastruktur, Verfügbarkeit usw. zu gewährleisten. Als Anbieter sollte man daher ehrlich zu sich selbst sein und sich am Ende für eine Zertifizierung entscheiden, die auf professionelle Kriterienkataloge setzt, welche nicht nur an der Oberfläche kratzen sondern tief in die Lösung eintauchen und damit eine glaubwürdige Aussage über die eigene Lösung treffen.

Kategorien
Analysen

GigaOM Analyst Webinar – The Future of Cloud in Europe [Aufzeichnung]

Am 9. Juli 2013 haben Jo Maitland, Jon Collins, George Anadiotis und ich über die Chancen und Herausforderungen der Cloud in Europa und einzelnen Ländern wie Deutschland oder Großbritannien gesprochen und einen kleinen Einblick in den Cloud Computing Markt in Europa gegeben. Die Aufzeichnung dieses internationalen GigaOM Analyst Webinar „The Future of Cloud in Europe“ ist nun online.

Hintergrund des Webinar

Vor circa einem Jahr hat die europäische Kommission ihre „Pro Cloud“ Strategie bekanntgegeben, um damit die stagnierende Wirtschaft durch Innovationen anzukurbeln. Die Kommissare vertreten die Meinung, dass die Cloud nicht in Europa aber mit Europa stattfinden muss. Aus diesem Grund haben die drei GigaOM Research Analysten Jo Collins (Inter Orbis), George Anadiotis (Linked Data Orchestration) und René Büst (New Age Disruption) unter der Moderation von Jo Maitland (GigaOM Research) einen Blick auf die aufstrebenden Cloud Anbieter in Europa und ihr Abschneiden zu US-amerikanischen Anbietern geworfen. Dabei sind sie auf die Probleme eingegangen, denen sich Einkäufer von Cloud Services in Europa ausgesetzt sehen und die noch nicht betrachteten Möglichkeiten von europäischen Cloud Anbietern diskutiert. Ist Europa beispielsweise in der Lage ein lebendiges Cloud Computing Ökosystem aufzubauen? Das ist derzeit eine schwierige Frage, da US-amerikanische Cloud Anbieter in diesem Markt dominieren.

Fragen die beantwortet wurden

  • Was sind die größten Treiber hinter den Möglichkeiten der Cloud in Europa und dem Einsatz?
  • Was sind die Hemmnisse für die Nutzung von Cloud Computing in Europa?
  • Existieren bestimmte Trends und Möglichkeiten innerhalb bestimmter Länder (Großbritannien, Deutschland, andere EU Staaten?)
  • Welche europäischen Cloud Computing Anbieter sind die Hoffnungsträger und warum?
  • Was sind die noch nicht erschlossenen Möglichkeiten für Cloud Computing in Europa?
  • Vorhersagen für die Zukunft des Cloud Computing in Europa.

Die Aufzeichnung des Analyst Webinar

Kategorien
News @en

Recording: GigaOM Analyst Webinar – The Future of Cloud in Europe

On July 9 Jo Maitland, Jon Collins, George Anadiotis and New Age Disruption analyst Rene Buest talked about the opportunities and challenges of the cloud in Europe and countries such as Germany or the UK, and gave an insight into the cloud computing market in Europe.

The recording of the international GigaOM analyst webinar „The Future of Cloud in Europe“ is online now.

Kategorien
News

Aufzeichnung: GigaOM Analyst Webinar – The Future of Cloud in Europe

Am 9. Juli 2013 haben Jo Maitland, Jon Collins, George Anadiotis und New Age Disruption Analyst René Büst über die Chancen und Herausforderungen der Cloud in Europa und einzelnen Ländern wie Deutschland oder Großbritannien gesprochen und einen kleinen Einblick in den Cloud Computing Markt in Europa gegeben.

Die Aufzeichnung des internationalen GigaOM Analyst Webinar „The Future of Cloud in Europe“ ist nun online.

Kategorien
Comment

Caught in a gilded cage. OpenStack provider are trapped.

OpenStack is on the rise. The number of announcements increase that more and more companies and vendors rely on the more than three years old open source project to provide scalable solutions and own infrastructure-as-a-service (IaaS) offerings. However, in my view, the OpenStack community is in a dilemma – diversification. In addition, unnecessary disturbances from the outside carried indoors, which do not consider exactly this issue. Thus, for example, the discussions on the Amazon API compatibility by Randy Bias are as little conducive as Simon Wardley’s demand OpenStack should be like the Amazon Web Services (virtually a clone). OpenStack has to find its own way. However, OpenStack itself is not the problem, it is the provider who use OpenStack. These are 100% responsible to present meaningful offers and deploy OpenStack profitably for themselves.

Amazon API compatibility is a means to an end

I think it is important that OpenStack is implementing the Amazon API in order to offer the possibility, if necessary, to span a hybrid cloud to the Amazon Web Services. At least OpenStack service providers should offer their customers the option, to not only theoretically promise no vendor lock-in, but actually allow this.

But that’s it. Amazon should not have more influence on the OpenStack community. To get the curve to the „Linux of the cloud.“ Has Linux orientated at Microsoft Windows? No. And it has become successful. In my view, the problem lies also in the fact that Linux was developed from an ideology by a single person and then was driven forward by a large community. OpenStack, however, has been launched to meet 100% of a commercial purpose for the OpenStack community. For this reason, OpenStack is nothing more than a big marketing machine of all participating providers. The OpenStack community must find its own way, create innovation itself and should not be influenced by what Amazon is doing.

Amazon Web Services are NOT the biggest competitor

What I still do not understand about the Amazon Web Services vs. OpenStack discussion is, that constantly apples and oranges are compared. How can one compare a public cloud provider with a software for the development of public/private clouds? If you really want to compare Amazon Web Services and OpenStack you’ve to match each single OpenStack provider with AWS! Everything else is meaningless. Only then you can make a real statement!

However, one will then realize very quickly that the by the OpenStack community self-proclaimed competitor Amazon Web Services is not the competitor! This sounds hard, but it’s the truth. There is currently no single OpenStack service provider who rudimentarily can hold a candle to the Amazon Web Services. The Amazon Web Services are the imaginary competitor, the desired competitor in the minds of the providers.

Just compare the services of the two top OpenStack public cloud provider Rackspace and HP to the Amazon Web Services.

Amazon Web Services

Rackspace

HP

Amazon EC2 Cloud Servers Compute
Auto Scaling
Elastic Load Balancing Cloud Load Balancers Load Balancer
Amazon EMR
Amazon VPC
Amazon Route 53 Cloud DNS DNS
AWS Direct Connect
Amazon S3 Cloud Files Object Storage
Amazon Glacier Cloud Backup
Amazon EBS Cloud Block Storage Block Storage
AWS Import/Export
AWS Storage Gateway
Amazon CloudFront CDN
Amazon RDS Cloud Databases Relational Database
Amazon DynamoDB
Amazon ElastiCache
Amazon Redshift
Amazon CloudSearch
Amazon SWF
Amazon SQS Messaging
Amazon SES
Amazon SNS
Amazon FPS
Amazon Elastic Transcoder
AWS Management Console Management Console
AWS Identity and Access Management (IAM)
Amazon CloudWatch Cloud Monitoring Monitoring
AWS Elastic Beanstalk Application Platform as a Service
AWS CloudFormation
AWS Data Pipeline
AWS OpsWorks
AWS CloudHSM
AWS Marketplace
Cloud Sites
Managed Cloud
Mobile Stacks

This comparison shows that the Amazon Web Services are not the biggest competition, but the danger comes from the own camp. Where is the diversification, if the two big OpenStack public cloud provider offer up to 90% of exactly the same services? The service portfolio of both Rackspace and HP is not able to represent a competition to the Amazon Web Services, by far. On the contrary, both take market share away from each other by offering almost identical.

Caught in a gilded cage

The OpenStack providers are in a dilemma, which I regard as the gilded cage. In addition, all providers basically cannibalize each other, which shows the comparison of the services of Rackspace and HP by the portfolios are hardly different.

But why do all OpenStack provider sitting in a gilded cage. Well, they benefit from each other by everyone make new ideas and solutions available to the project, and all benefit equally from a common code base to put it together to an own offering. But that also means in reverse that no one can draw a real competitive advantage of it by all sitting in this cage using the same means. The cage includes basically something valuable and offers its possibilities with the available services. However, each provider has limited freedoms by all have the same basic supplies.

Rackspace is trying to differentiate with an extended support. Piston Cloud to completely keep out of the public cloud competition and offers only private or hosted private clouds.

I have already followed discussions on Twitter, where it came up to duel with Amazon over a hybrid OpenStack cloud. However, many not bargain on Eucalyptus, which formed an exclusive partnership with Amazon and has developed more and more services lately to close the service gap to Amazon.

Furthermore, one must not be ignored. The comparison to Linux seems to be correct in its approach. However, most Linux distributions are free of charge. OpenStack provider have to sell their services to be profitable. This also means that OpenStack providers are doomed to make as much profit as possible from their service offering to cover the running costs of the infrastructure, etc..

Differentiation over an attractive service portfolio only

OpenStack provider have to accept being in the gilded cage. But that does not mean that one therefore must be just one of many vendors. At first one should refrain from seeing infrastructure-as-a-service as a bearing business model, at least as a small vendor. Infrastructure is commodity. Furthermore, one should not continue, or even begin to imitate the Amazon Web Services, the train has left the station. Instead, attempt should be made to develop the wheel further and become – on innovation – the next Amazon Web Services.

Rather, it is about that every OpenStack provider must make the most out of the OpenStack project and not forget to be disruptive and neglect innovations. In the future, only the cloud providers will be successful who offer services, giving customer an added value. Here OpenStack can and will play a very important role, however, not occupy center stage, but serve as a means to an end.

The OpenStack providers must begin to change the marketing machine OpenStack to the innovation machine OpenStack. Then the admiration comes naturally.

Kategorien
Comment

ProfitBricks opens price war with Amazon Web Services for infrastructure-as-a-service

ProfitBricks takes the gloves off. The Berlin-based infrastructure-as-a-service (IaaS) startup acts with a hard edge against the Amazon Web Services and reduced its prices in both U.S. and Europe by 50 percent. Furthermore, the IaaS provider has presented a comparison which shows that its own virtual server should have at least twice as high as the performance of Amazon Web Services and Rackspace. Thus ProfitBricks is trying to diversify on the price and the performance of the U.S. top providers.

The prices for infrastructure-as-a-service are still too high

Along with the announcement, CMO Andreas Gauger shows correspondingly aggressive. „We have the impression that the dominant occurring cloud companies from the U.S. are abusing their market power to exploit high prices. They expect deliberately opaque pricing models of companies and regularly announce punctual price cuts to awaken the impression of a price reduction.“, says Gauger (translated from German).

ProfitBricks has therefore the goal to attack the IaaS market from the rear on the price and let their customer directly and noticeably participate from technical innovations resulting in cost savings.

Up to 45 percent cheaper than Amazon AWS

ProfitBricks positioned very clearly against Amazon AWS and shows a price comparison. For example, an Amazon M1 Medium instance with 1 core, 3.75GB of RAM and 250GB of block storage is $0.155 per hour or $111.40 per month. A similar instance on ProfitBricks costs $0.0856 per hour or $61.65 per month. A saving of 45 percent.

Diversification just on the price is difficult

To diversify as IaaS provider just on price is difficult. We remember, Infrastructure is commodity! Vertical services are the future of the cloud, with which the customer receives an added value.

To defy the IaaS top dog this way is brave and foolhardy. However, one should not forget something. As hosting experts of the first hour Andreas Gauger and Achim Weiss have validated the numbers around their infrastructure and seek with this action certainly not the brief glory. It remains to be seen how Amazon AWS and other IaaS providers will react to this stroke. Because with this price reduction ProfitBricks shows that customer can actually get much cheaper infrastructure resources as is currently the case.

As an IaaS user there is something you should certainly do not lose sight of during this price discussion. In addition to the price of computing power and storage – which are held up again and again – there are more factors to take into account, that determine the price and which are actually just call to mind at the end of the month. This includes the cost of transferring data in and out of the cloud as well as costs for other services offered around the infrastructure that are charged per API call. In some respects there is a lack of transparency. Furthermore, a comparison of the various IaaS providers is difficult to represent as many operate with different units, configurations and/or packages.

Kategorien
Kommentar

ProfitBricks eröffnet Preiskampf mit den Amazon Web Services für Infrastructure-as-a-Service

ProfitBricks macht ernst. Das Berliner Infrastructure-as-a-Service (IaaS) Startup geht mit einer harten Kante gegen die Amazon Web Services vor und reduziert seine Preise sowohl in den USA als auch in Europa um 50 Prozent. Weiterhin hat der IaaS-Anbieter einen Vergleich vorgelegt, der zeigt, dass die eigenen virtuellen Server eine mindestens doppelt so hohe Performance haben sollen als die der Amazon Web Services und Rackspace. Damit versucht sich ProfitBricks über den Preis als auch über die Leistung von den US-amerikanischen Top Anbietern zu diversifizieren.

Die Preise für Infrastructure-as-a-Services sind noch viel zu hoch

Einhergehend mit der Ankündigung zeigt sich CMO Andreas Gauger entsprechend angriffslustig. „Wir haben den Eindruck, dass die regelrecht als Marktbeherrscher auftretenden Cloud Unternehmen aus den USA ihre Marktmacht für zu hohe Preise missbrauchen. Sie muten den Unternehmen bewusst undurchsichtige Tarifmodelle zu und verkünden regelmäßig punktuelle Preissenkungen, um den Eindruck einer Preisdegression zu wecken“, so Gauger.

ProfitBricks hat sich daher das Ziel gesetzt, den IaaS-Markt über den Preis von hinten aufzurollen und technische Innovationen und damit für einen Anbieter enstehende Kosteneinsparungen auch direkt und merkbar an den Kunden durchzureichen.

Bis zu 45 Prozent günstiger als Amazon AWS

ProfitBricks positioniert sich sehr deutlich gegen Amazon AWS und zeigt zwei Preisvergleiche. Kostet eine M1 Medium Instanz mit 1 Core, 3,75 GB RAM und 250 GB Block Storage bei Amazon AWS 0,1291 Euro pro Stunde bzw. 93,15 Euro pro Monat, enstehen bei ProfitBricks hierfür Kosten von 0,0694 EUR pro Stunde bzw. 49,95 Euro pro Monat. Eine Einsparung von 45 Prozent.

Werden 1 Core, 8 GB RAM und 1.000 GB redundanter Storage benötigt, ist der Unterschied noch größer. Die Kosten für eine M1 XLarge Instanz mit 4 Cores, 15 GB RAM und 1.680 GB temporärem Storage inkl. 1.000 GB Block Storage belaufen sich bei Amazon pro Monat auf 372,62 Euro. Bei ProfitBricks würden für die exakt geforderten Anforderungen 130,22 Euro pro Monat entstehen. Dabei handelt es sich um eine Einsparung von 65 Prozent pro Server.

Diversifikation allein über den Preis ist schwierig

Sich als IaaS-Anbieter alleine über den Preis zu diversifizieren ist schwierig. Wir erinnern uns, Infrastruktur ist Commodity und vertikale Services sind die Zukunft der Cloud, mit denen der Kunde einen Mehrwert erhält.

Auf diesem Weg dem IaaS Platzhirsch die Stirn zu bieten ist mutig und wirkt sehr tollkühn. Allerdings sollte man eines nicht vergessen. Als Hosting-Experten der ersten Stunde werden Andreas Gauger und Achim Weiß die Zahlen rund um ihre Infrastruktur validiert haben und suchen mit dieser Aktion sicherlich nicht den kurzen Ruhm. Es bleibt daher abzuwarten wie Amazon AWS und die anderen IaaS-Anbieter auf diesen Schlag reagieren werden. Denn ProfitBricks zeigt mit dieser Preisreduzierung, dass Kunden Infrastruktur tatsächlich deutlich günstiger bekommen können, als es derzeit der Fall ist.

Etwas sollte man als IaaS-Nutzer bei dieser Preisdiskussion allerdings nicht aus den Augen verlieren. Neben den Preisen für Rechenleistung und Speicherplatz – die immer wieder hochgehalten werden – gibt es weitere Faktoren zu berücksichtigen, die den Preis bestimmen und welche immer erst am Ende des Monats wirklich in Erinnerung gerufen werden. Dazu gehören die Kosten für den Datentransfer in die Cloud hinein und aus der Cloud heraus sowie Kosten für anderweitige Services die um die Infrastruktur herum angeboten und pro API Aufruf berechnet werden. Da fehlt in mancher Hinsicht die Transparenz. Weiterhin ist ein Vergleich der unterschiedlichen IaaS-Anbieter nur schwierig darzustellen, da viele mit unterschiedlichen Einheiten, Konfigurationen und/oder Paketen arbeiten.

Kategorien
Kommentar

Gefangen im goldenen Käfig. OpenStack Provider sitzen in der Falle.

OpenStack ist als Cloud-Software auf dem Vormarsch. Reihenweise mehren sich die Ankündigungen, dass immer mehr Unternehmen und Anbieter auf das nun mehr drei Jahre alte Open-Source Projekt zurückgreifen, um skalierbare Lösungen und eigene Infrastructure-as-a-Service (IaaS) Angebote zu präsentieren. Allerdings steckt die OpenStack-Gemeinde meiner Ansicht nach in einem großen Dilemma – Diversifizierung. Hinzu kommt, dass von Außen immer wieder unnötige Unruhen hinein getragen werden, die genau diese Problematik nicht betrachten. So sind zum Beispiel die Diskussionen über die Amazon API Kompatibilität durch Randy Bias genau so wenig förderlich wie Simon Wardleys Forderung, OpenStack müsse so sein wie die Amazon Web Services (quasi ein Klon). OpenStack muss seinen eigenen Weg finden. Allerdings ist OpenStack selbst nicht das Problem, es sind die Provider die OpenStack einsetzen. Diese stehen zu 100% in der Verantwortung sinnvolle Angebote zu präsentieren und OpenStack für sich gewinnbringend einzusetzen.

Amazon API Kompatibilität ist ein Mittel zum Zweck

Ich halte es für wichtig, dass OpenStack die Amazon API implementiert, um die Möglichkeit zu bieten, ggf. eine Hybrid Cloud zu den Amazon Web Services aufspannen zu können. OpenStack Service Provider sollten ihren Kunden zumindest die Option anbieten, um nicht nur theoretisch keinen Vendor lock-in zu versprechen, sondern diesen tatsächlich zu ermöglichen.

Das war es aber auch schon. Mehr Einfluss sollte Amazon auf die OpenStack-Gemeinde nicht haben dürfen. Um mal die Kurve zur „Linux der Cloud“ zu bekommen. Hat Linux sich an Microsoft Windows orientiert? Nein. Und es ist trotzdem erfolgreich geworden. Meiner Ansicht liegt das Problem auch darin begründet, dass Linux aus einer Ideologie heraus von einer einzelnen Person entwickelt und dann von einer großen Community voran getrieben wurde. OpenStack hingegen wurde ins Leben gerufen um zu 100% einen kommerziellen Zweck für die OpenStack-Gemeinde zu erfüllen. Aus diesem Grund ist OpenStack nichts anderes als eine große Marketingmaschine aller beteiligten Provider. Die OpenStack-Gemeinschaft muss ihren eigenen Weg finden, selbst für Innovationen sorgen und sich von dem was Amazon macht nicht beeinflussen lassen.

Amazon Web Services sind NICHT der größte Konkurrent

Was ich in der ganzen Amazon Web Services vs. OpenStack Diskussion weiterhin nicht verstehe ist, dass hier ständig Äpfel mit Birnen verglichen werden. Wie kann man einen Public Cloud Anbieter mit einer Software für den Aufbau von Public/ Private Clouds vergleichen? Es muss viel mehr darum gehen, dass man die OpenStack Provider – und zwar jeden einzelnen – mit den Amazon Web Services vergleicht. Erst dann kann man eine echte Aussage treffen!

Allerdings wird man dann sehr schnell merken, dass der durch die OpenStack-Gemeinde selbst ernannte Konkurrent Amazon Web Services überhaupt nicht der Konkurrent ist! Das hört sich jetzt hart an, ist aber die Wahrheit. Es gibt derzeit keinen einzigen OpenStack Service Provider der den Amazon Web Services ansatzweise das Wasser reichen kann. Die Amazon Web Services sind der imaginäre Konkurrent, der Wunsch-Konkurrent in den Köpfen der Anbieter. Ich stelle dazu mal das Service-Angebot der beiden Top Public Cloud OpenStack Provider Rackspace und HP den Amazon Web Services gegenüber.

Amazon Web Services

Rackspace

HP

Amazon EC2 Cloud Servers Compute
Auto Scaling
Elastic Load Balancing Cloud Load Balancers Load Balancer
Amazon EMR
Amazon VPC
Amazon Route 53 Cloud DNS DNS
AWS Direct Connect
Amazon S3 Cloud Files Object Storage
Amazon Glacier Cloud Backup
Amazon EBS Cloud Block Storage Block Storage
AWS Import/Export
AWS Storage Gateway
Amazon CloudFront CDN
Amazon RDS Cloud Databases Relational Database
Amazon DynamoDB
Amazon ElastiCache
Amazon Redshift
Amazon CloudSearch
Amazon SWF
Amazon SQS Messaging
Amazon SES
Amazon SNS
Amazon FPS
Amazon Elastic Transcoder
AWS Management Console Management Console
AWS Identity and Access Management (IAM)
Amazon CloudWatch Cloud Monitoring Monitoring
AWS Elastic Beanstalk Application Platform as a Service
AWS CloudFormation
AWS Data Pipeline
AWS OpsWorks
AWS CloudHSM
AWS Marketplace
Cloud Sites
Managed Cloud
Mobile Stacks

Diese Gegenüberstellung zeigt, dass nicht die Amazon Web Services der größte Konkurrenz sind, sondern die Gefahr aus dem eigenen Lager kommt. Wo ist die Diversifizierung, wenn schon die beiden großen OpenStack Public Cloud Provider zu 90% exakt dieselben Services anbieten? Das Service-Portfolio sowohl von Rackspace als auch von HP ist bei weitem nicht in der Lage, eine Konkurrenz zu den Amazon Web Services darzustellen. Im Gegenteil, beide nehmen sich gegenseitig Marktanteile weg, indem das Angebot nahezu identisch ist.

Gefangen im goldenen Käfig

Die OpenStack Provider stecken in einem Dilemma, das ich als den goldenen Käfig betrachte. Hinzu kommt, dass sich alle Anbieter im Grunde genommen gegenseitig kannibalisieren, das zeigt die Gegenüberstellung der Services von Rackspace und HP, indem die Portfolios sich kaum unterscheiden.

Aber warum sitzen alle OpenStack Provider nun im goldenen Käfig. Nun, sie profitieren voneinander, indem jeder neue Ideen und Lösungen dem Projekt zur Verfügung stellt und alle gleichermaßen von einer gemeinsamen Code-Basis profitieren, um daraus ihr eigenes Angebot schnüren zu können. Das bedeutet im Umkehrschluss aber auch, dass niemand einen echten Wettbewerbsvorteil daraus ziehen kann, indem alle mit den selben Mitteln in diesem Käfig sitzen. Der Käfig selbst beinhaltet grundsätzlich etwas Wertvolles und bietet über die vorhanden Services seine Möglichkeiten. Allerdings hat jeder Anbieter nur eingeschränkte Freiheiten, indem alle über dieselbe Grundversorgung verfügen.

Rackspace versucht sich über einen erweiterten Support zu differenzieren. Piston Cloud hält sich ganz aus dem Public Cloud Wettbewerb heraus und bietet nur Private bzw. Hosted Private Clouds an.

Ich habe auf Twitter schon Diskussionen verfolgt, in denen es darum ging, sich mit Amazon mit einer OpenStack Hybrid Cloud zu duellieren. Da vergessen so manche allerdings Eucalyptus auf ihrer Rechnung, die eine exklusive Partnerschaft mit Amazon haben und in letzter Zeit immer mehr Services entwickelt haben, um die Service-Lücke zu Amazon zu schließen.

Weiterhin darf eines nicht außer Acht gelassen werden. Der Vergleich mit Linux scheint vom Ansatz her richtig zu sein. Allerdings können die meisten Linux Distributionen kostenlos genutzt werden. OpenStack Provider hingegen müssen ihre Services verkaufen, um rentabel zu sein. Das bedeutet ebenfalls, dass OpenStack Provider dazu verdammt sind, so viel Profit wie möglich aus ihrem Service-Angebot zu machen, um die laufenden Kosten für die Infrastruktur usw. zu decken.

Differenzierung geht nur über ein attraktives Service-Portfolio

Mit dem goldenen Käfig muss man sich als OpenStack Provider abfinden. Aber das bedeutet nicht, dass man deswegen nur einer von vielen Anbietern bleiben muss. Zum einen sollte man davon Abstand nehmen, Infrastructure-as-a-Services als tragendes Geschäftsmodell zu sehen, zumindest als kleiner Anbieter. Infrastruktur ist Commodity. Weiterhin sollte man nicht damit weitermachen oder gar damit anfangen, die Amazon Web Services nachzuahmen, der Zug ist abgefahren. Stattdessen sollte versucht werden, das Rad weiter zu entwickeln und über Innovationen die nächsten Amazon Web Services zu werden.

Vielmehr geht es allerdings darum, dass jeder OpenStack Provider das Beste für sich aus dem OpenStack Projekt machen muss und dabei die Innovationen nicht vergessen darf. In Zukunft wird nur derjenige Cloud-Anbieter erfolgreich sein, der Services anbietet, die den Kunden einen echten Mehrwert bieten. Dabei kann und wird OpenStack eine sehr große Rolle spielen, allerdings nicht im Mittelpunkt stehen sondern nur als Mittel zum Zweck dienen.

Die OpenStack Provider müssen damit anfangen, aus der Marketingmaschine OpenStack die Innovationsmaschine OpenStack zu machen. Dann kommt die Bewunderung von ganz alleine.

Kategorien
Services @en

Exclusive: openQRM 5.1 to be extended with hybrid cloud functionality and integrates Amazon AWS and Eucalyptus as a plugin

It’s happening soon. This summer openQRM 5.1 will be released. Project manager and openQRM-Enterprise CEO Matt Rechenburg already has told me some very interesting new features. In addition to a completely redesigned backend design the open source cloud infrastructure software from Cologne, Germany will be expanded with hybrid cloud functionality by integrating Amazon EC2, Amazon S3, and their clone Eucalyptus as a plugin.

New hybrid cloud features in openQRM 5.1

A short overview of the new hybrid cloud features in the next version of openQRM 5.1:

  • openQRM Cloud works transparently with Amazon EC2 and Eucalyptus.
  • Via a self-service end-user within a private openQRM Cloud can order by an administrator selected instance types or AMI’s which are then used by openQRM Cloud to automatically provision to Amazon EC2 (or Amazon compatible clouds).
  • User-friendly password login for the end-user of the cloud via WebSSHTerm directly in the openQRM Cloud portal.
  • Automatic applications deployment using Puppet.
  • Automatic cost accounting via the openQRM cloud billing system.
  • Automatic service monitoring via Nagios for Amazon EC2 instances.
  • openQRM high-availability at infrastructure-level for Amazon EC2 (or compatible private clouds). This means: If an EC2 instance fails or an error occurs in an Amazon Availability Zone (AZ) an exact copy of this instance is restarted. In case of a failure of an entire AZ, the instance starts up again in another AZ of the same Amazon region.
  • Integration of Amazon S3. Data can be stored directly on Amazon S3 via openQRM. When creating an EC2 instance a script that is stored on S3 can be specified, for example, that executes other commands during the start of the instance.

Comment: openQRM recognizes the trend at the right time

With its extension also openQRM-Enterprise shows that the hybrid cloud is becoming a serious factor in the development of cloud infrastructures and comes with the new features just at the right time. The Cologne based company are not surprisingly orientate at the current public cloud leader Amazon Web Services. Thus, in combination with Eucalyptus or other Amazon compatible cloud infrastructures, openQRM can also be used to build massively scalable hybrid cloud infrastructures. For this purpose openQRM focuses on its proven plugin-concept and integrates Amazon EC2, S3 and Eucalyptus exactly this way. Besides its own resources from a private openQRM Cloud, Amazon and Eucalyptus are used as further resource providers to get more computing power quickly and easily.

In my opinion, the absolute killer features include the automatic applications deployment using Puppet, with which the end-user to conveniently and automatically can provide EC2 instances with a complete software stack itself, as well as the consideration of the Amazon AZ-wide high-availability functionality, which is neglected by many cloud users again and again due to ignorance.

Much attention the team has also given the optics and the interface of the openQRM backend. The completely redesigned user interface looks tidier and easier in the handling and will positively surprise the existing customers.