Kategorien
News

internet4YOU eröffnet Cloud Marketplace für Business-Anwender und Web-Entwickler

Neben einem kompletten Relaunch seiner Webseite hat der Managed Hosting Provider internet4YOU heute seinen Cloud Marketplace eröffnet. Über das neue Web-Portal unter www.internet4you.de, erhalten Unternehmen und Web-Entwickler Zugriff auf Cloud Ressourcen, die sie nach Bedarf aus dem Infrastructure-as-a-Service (IaaS) Angebot von internet4YOU beziehen können. Neben virtuellen Servern lassen sich ebenfalls komplette Business-Applikationen über den Marktplatz nutzen, die in wenigen Minuten zur Verfügung stehen und pro Stunde abgerechnet werden.

internet4YOU eröffnet Cloud Marketplace für Business-Anwender und Web-Entwickler

Infrastruktur und Business-Applikationen

Neben einzelnen Cloud Servern, lassen sich über den Cloud Marketplace komplette Serverinfrastrukturen für komplexe Anwendungen inkl. Firewall, Load-Balancer und automatischer Skalierung erstellen. internet4YOU geht zudem davon aus, dass speziell Web-Entwickler die angebotenen Möglichkeiten des Marktplatz nutzen werden. Weiterhin steht eine Auswahl von Open-Source Business-Applikationen bereit. Insbesondere hier ist internet4YOU offen für Kooperationen mit Softwareherstellern, die ihre Lösungen auf dem Cloud Marketplace anbieten können. Der erste große Fisch heißt Microsoft. Neben Linux-Servern, wird der Marketplace in Zukunft auch Windows Server anbieten.

Pay-as-you-go. Wie es sich gehört!

Bei der Abrechnung der Ressourcen setzt internet4YOU, lobenswerter Weise, auf das Pay-as-you-go Modell. Das bedeutet, dass nur die Ressourcen – pro Stunde – berechnet wurden, die ein Kunde auch tatsächlich in diesem Zeitraum genutzt hat. Gezahlt wird Public Cloud typisch per Kreditkarte. 1 CPU Core und 1 GB RAM kosten jeweils 6 Cent pro Stunde. 1 GB Festplattenspeicherplatz kann für 13 Cent pro Monat genutzt werden.

Rechenzentren mit deutschen Standorten

Gute Nachrichten für alle Datenschutzbesorgten unter uns. Die Server, die sich hinter dem Cloud Marketplace befinden, stehen in den vier deutschen Rechenzentren von internet4YOU. Um das Vertrauen in die Cloud zu stärken hat das Unternehmen, nach eigenen Angaben, sich maximale Transparenz auf die Fahnen geschrieben. Geschäftsführer Gihan Behrmann: „Wer unsere Cloud genauer unter die Lupe nehmen möchte ist herzlich zu einer Rechenzentrumsbesichtigung eingeladen. Für viele Kunden ist es beeindruckend zu sehen, welchen Aufwand wir betreiben, um sicheres Cloud Computing zu ermöglichen.“ Na, das Angebot nehmen wir doch gerne an!

Cloud Business Marktplätze sind ein logischer Trend

Cloud Marketplaces gehören zu der logischen Entwicklung des Cloud Computing, um Unternehmen und Entwicklern den einfachen Zugriff auf IT-Ressourcen zu ermöglichen. Neben einer gut dokumentierten API gehören ebenfalls übersichtliche und umfangreiche Web-Oberflächen zu einem guten Cloud Angebot, die es dem Nutzer ermöglichen sich „auch mal eben“ eine Cloud Infrastruktur „zusammenzuklicken“, um z.B. ein paar Tests durchzuführen. Bereits viele Anbieter sind auf diesen Zug aufgesprungen und ermöglichen über einen eigenen Cloud Marktplatz den Zugriff auf ihre IaaS-Ressourcen. Zudem reichern sie ihre Infrastruktur-Angebote über den Marktplatz mit Betriebssystem-Images oder weiteren Software-Lösungen an, um den virtuellen Ressourcen damit einen echten Nutzen zu geben.

Unternehmen können sich einen Cloud Marketplace vorstellen wie mehrere Regal in einen quasi unendlich großen Supermarkt. Und genau so sollten sie ihn auch nutzen, um sich ihre Infrastruktur beliebig zusammenzubauen. Spannend wird es, wenn wir einen Schritt weitergehen und die Ressourcen und Lösungen nicht mehr nur von einem einzigen Anbieter beziehen, sondern über mehrere Anbieter und ihre Marktplätze, wo wir uns dann beim Thema Cloud Brokerage Services befinden.

Kategorien
News

Microsoft erklärt den Grund für den Ausfall von Windows Azure in der Region "West Europe"

Microsoft hat gestern weitere Informationen zu dem 2-stündigen Ausfall von Windows Azure in Europa in der letzten Woche bekanntgegeben. In einer ersten Stellungnahme am Tag nach dem Ausfall berichtete Microsoft von einer fehlerhaften Netzwerkkonfiguration, die zu den Problemen geführt haben soll.

Fehlkonfiguration und Nachrichtenflut

In einem weiteren Blogbeitrag erklärt Windows Azure General Manager Mike Neil, dass Microsoft weitere Rechenkapazitäten hinzufügen wollte, um die steigende Nachfrage in der Sub-Region „West Europa“ zu befriedigen. Allerdings wurde das Limit der für die neuen Kapazitäten benötigten „Devices“ nicht angepasst. Da die Last auf diesen Cluster plötzlich stark Anstieg, wurde der Grenzwert schnell überschritten, was zu einer großen Anzahl von Netzwerkmanagement-Nachrichten führte. Die erhöhten Managementdaten lösten wiederum Fehler in der Hardware des Clusters aus, wodurch die CPU-Auslastung auf 100% anstieg.

Cloud Computing ist eine Frage des Vertrauens und der Transparenz

Mit dem Stand heute haben wir für das Jahr 2012 zwei Spitzenreiter bei den Public Cloud Ausfällen. Platz eins teilen sich Amazon (3) und Salesforce (3), gefolgt von Microsoft (2). Das Ausfälle immer mal wieder vorkommen werden, daran sollte man sich höchstwahrscheinlich gewöhnen. Denn eine 100% Verfügbarkeit gibt es nun einmal nicht. Und jeder Anbieter, der eine 100% Verfügbarkeit verkauft, DER LÜGT! Warum? Ganz einfach, wie bei einigen Amazon Ausfällen, als auch dem letzten Microsoft Ausfall ist u.a. menschliches Versagen Schuld an dem Ausfall. Menschen machen Fehler.

Cloud Computing Anbieter müssen daher dafür sorgen, dass ihre Dienstleistungen und vor allem die Art wie sie arbeiten transparent ist. Das schließt die zeitnahe und umfangreiche Analyse aber vor allem die uneingeschränkte öffentliche Kommunikation während eines Ausfalls ein. Transparenz ist im Cloud Computing enorm wichtig für ein Unternehmen, dass seine Daten einem Anbieter anvertraut und bei dem die Daten vermeintlich auf dem selben physikalischen System gespeichert sind wie die eines Mitbewerbers. Denn Transparenz schafft Vertrauen!


Bildquelle: http://haymarket.net.au

Kategorien
News

openQRM 5.0 erscheint mit überarbeiteter Benutzeroberfläche und neuem Dual-Lizenzmodell

Wie bereits Anfang Juni hier auf CloudUser angekündigt, hat die openQRM Enterprise GmbH mit openQRM 5.0 die nächste Generation ihrer Infrastructure-as-a-Service- (IaaS) und Cloud Computing Management Lösung veröffentlicht. Zudem wird ein neues duales Lizenzmodell präsentiert, das es Unternehmen ermöglicht, professionellen Support aus erster Hand zu erhalten und damit ihre Investitionen in eine Open-Source Datacenter-Management-Plattform langfristig zu sichern.

openQRM 5.0 erscheint mit überarbeiteter Benutzeroberfläche und neuem Dual-Lizenzmodell

Komplett neue Benutzeroberfläche

openQRM 5.0 wurde weitgehend umgeschrieben, wobei nicht nur äußerliche Änderungen an dem IaaS- und Cloud-Builder vorgenommen wurden. Neben der Umstellung der graphischen Benutzeroberfläche auf das Model-View-Controller-Konzept wurden zudem alle openQRM-Plugins neu geschrieben und mit weiteren Funktionen ausgestattet. Als weitere Erneuerung steht nun ein komplett neues Cloud-Portal zur Verfügung, sowie Postgres als weitere Backend-Datenbank neben MySQL.

openQRM 5.0 wurde darüber hinaus so erweitert, dass alle weltweit möglichen Sprachen unterstützt werden können. Als Standardsprachen unterstützt openQRM 5.0 ab sofort Englisch und Deutsch, das Cloud-Portal zusätzlich noch Spanisch, Niederländisch, Französisch und Italienisch.

Um den Administrator zu zeigen, welche Aktionen das System aktuell im Hintergrund durchführt, hat openQRM 5.0 eine Statusanzeige für „Active Events“ erhalten, die der Admin jederzeit einsehen kann.

Neben der webbasierten Benutzeroberfläche bietet openQRM 5.0 dem Nutzer nun auch einen vollwertigen Kommandozeilen-Client, mit dem die Management-Plattform innerhalb einer Terminal-Sitzung kontrolliert oder mit weiteren Anwendungen integriert werden kann.

Alle weiteren Erneuerungen befinden sich im Change-Log zu openQRM 5.0 unter http://www.openqrm-enterprise.com/de/ueber-openqrm/changlog-50.html.

Dual-Lizenzmodell für professionellen Support

Mit openQRM 5.0 ändert sich aufgrund verstärkter Nachfrage der Kunden das Lizenzmodell. Neben der bereits vorhandenen Open-Source-Version (GPL 2.0) können Unternehmen zusätzlich eine Enterprise-Version erwerben. Diese bietet neben erweiterten, unternehmensrelevanten Funktionen, ebenfalls professionellen Support durch die openQRM Enterprise GmbH.

In den letzten Jahren vermehrten sich die Anfragen von Kunden nach professionellem Support und Enterprise-Lizenzen, aber vor allem nach weiteren Feature-Wünschen. Darüber hinaus ist die Anzahl der Support-Anfragen angestiegen. Aus diesem Grund hat sich die openQRM Enterprise GmbH dafür entschieden das Lizenzmodell zu ändern, um diesen Anfragen weiterhin professionell gerecht zu werden. Professionelle Anwender erhalten mit der neuen Enterprise-Version somit ein kommerziell lizensiertes Produkt, inklusive der damit einhergehenden Investitions- und Updatesicherheit, Produktgewährleistung und professionellem Support. Kunden mit bestehenden Serviceverträgen (SLA) werden automatisch von der neuen Version profitieren und erhalten alle nötigen Lizenzen für openQRM Enterprise 5.0.

Die Community-Version von openQRM 5.0 wird von der Änderungen ebenfalls profitieren. Die freie Version von openQRM 5.0 erscheint wie bislang auch unter der GPLv2-Lizenz und wird weiterhin stetig verbessert werden. Zudem will die openQRM Enterprise GmbH die Qualität der Dokumentation, HowTos und Videos – auf welche die Community kostenlos Zugriff erhalten wird – fortlaufend steigern.

Weitere Informationen zur Community- und Enterprise-Version von openQRM 5.0 und deren Unterschiede sind auf http://openqrm-enterprise.com/products-service/version-comparison.html zu finden.

Kategorien
News

Ausfall: Salesforce erneut mit Performance-Problemen

Nach den beiden Ausfällen im Juni und Juli, startet der CRM Anbieter Salesforce erneut mit Problemen in den August. Dieses Mal traf es weltweit den eigenen E-Mail Service, der – laut der Statusseite – mit einem Leistungsabfall („performance degradation“) zu kämpfen hatte.

Leistungsabfall und keine konkreten Informationen

Die Probleme begannen um 2:18 AM PDT, wo die Statusseite einen Leistungsabfall des E-Mail Service anzeigte. Halbstündlich fügte Salesforce ein Update zu der Seite hinzu, allerdings ohne nennenswerten Informationswert. Es wurde lediglich immer von

The salesforce.com Technology Team is actively working on resolving the performance degradation issue affecting the Email services. At this point, customers may experience slowness with Email services. Please check the status of trust.salesforce.com frequently for updates regarding this issue.

berichtet. Weitere Informationen wurden nicht bekanntgegeben.

Das führte Salesforce bis 6:30 am PDT weiter fort und berichtete dann:

The salesforce.com Technology Team has resolved the performance degradation issue affecting the Email Services. The problem began at 6:45am and was resolved as of 1:30pm UTC.

Um 11:46 am PDT folgte ein weiteres Problem mit der Instanz CS6, bei der ebenfalls von einem Leistungsabfall berichtet wurde.

The salesforce.com Technology Team is working to isolate a performance degradation issue on the CS6 instance. Some customers might be experiencing intermittent errors.

Um 12:01 pm PDT wurde das Problem dann scheinbar gelöst:

The salesforce.com Technology Team has resolved the performance degradation issue on the CS6 instance. The problem began at 17:47 UTC and was resolved as of 18:36 UTC.

Salesforce wird zum Problemfall

Der Ausfall des E-Mail Systems ist nun nicht so gravierend wie die letzten Ausfälle. Hier zeigten die Salesforce Systeme ebenfalls Leistungsabfälle. Insbesondere der Ausfall im Juli offenbarte schwerwiegende Probleme, bei dem mehrere Instanzen nicht erreichbar waren und von dem ebenfalls die sogenannten “Sandbox” Instanzen betroffen waren, welche die Salesforce Kunden für die Entwicklung und Test neuer Funktionen nutzen. Den Ausfall im Juni begründete Salesforce mit einer Fehlfunktion zwischen dem Storage und der Datenbank.

Kategorien
News

Rackspace präsentiert sein OpenStack Portfolio

Rackspace hat heute offiziell seine Cloud Services – Cloud Databases und Cloud Servers – auf seine neue Cloud Plattform auf Basis von OpenStack ausgerollt. Neue Nutzer dürfen sofort die OpenStack Cloud nutzen. Bestehende Kunden werden in bestimmten Zeitfenstern auf die neue Plattform migriert. Mit diesem Wandel gehört Rackspace, neben HP, nun eine der größten OpenStack Umgebungen weltweit.

Rackspace präsentiert sein OpenStack Portfolio

Das Rackspace OpenStack Portfolio

Das Rackspace Portfolio auf Basis von OpenStack umfasst die Angebote Cloud Servers, Databases, Cloud Files und Cloud Sites, ein Platform-as-a.Service für .Net, PHP und Monitoring-Funktionen.

Nach eigenen Angaben werden Kunden die größten Unterschiede in den OpenStack APIs erkennen, die Serveranfragen 25 Mal schneller erstellen können.

Um seine bestehenden Kunden auf die neue Plattform zu migrieren, wird es in den nächsten Monaten Zeitfenster geben, wann das stattfinden soll. Zudem will Rackspace ein Tool entwickeln, um den Prozess zu beschleunigen.

Kategorien
News

ownCloud veröffentlicht Apps für Android und iOS

ownCloud hat native Apps für Android und iOS veröffentlicht, mit denen auf die File-Sharing- und File-Synchronisierungssoftware nun auch mobil zugegriffen werden kann. Die jeweiligen Apps sind auf Google Play bzw. im Apple App Store für jeweils 79 Cents erhältlich.

Der private Cloud Storage

Bei ownCloud handelt es sich um die Private Cloud Variante zu Cloud Storage Services wie Dropbox oder Box.net. Mit der OpenSource Software können Privatanwender und Unternehmen Adressen, Termine, Bilder, Office-, Video- und Audio-Dateien teilen und synchronisieren, die sie auf der „eigenen Festplatte“ oder bei einem Hosting-Anbieter speichern (Anmerkung). Damit können sie diese jederzeit, überall und mit jedem Endgerät nutzen – und behalten dennoch die volle Verantwortung über ihre Systeme.

Mobile Cloud Lösung

Bisher konnten die Nutzer auf ihre Daten entweder mit dem plattformunabhängigen Webclient oder dem ownCloud-Client, den es für Windows, Mac OS und Linux gibt, zugreifen. Die neuen Apps für Android und iOS ermöglichen nun auch die mobile Nutzung auf gängigen Smartphones und Tablet-PCs. Eine Übersicht der Funktionen der beiden ownCloud Apps sind unter https://owncloud.com/de/overview/mobileapps zu finden.

Kategorien
News

Netflix veröffentlicht seinen Chaos Monkey

Netflix hat den Quellcode für seinen Chaos Monkey veröffentlicht. Das schreiben Cory Bennett und Ariel Tseitlin auf dem Netflix-Blog. Unternehmen die ernsthaft Systemarchitekturen in der Cloud der Amazon Web Services (AWS) betreiben wollen und sich auf Ausfälle von AWS vorbereiten möchten, sollten auf den Chaos Monkey zurückgreifen, um das eigene System zu stabilisieren.

Der Chaos Monkey

Der Chaos Monkey ist ein Service der auf den Amazon Web Services läuft, nach Auto Scaling Groups (ASGs) sucht Instanzen (virtuelle Maschinen) pro Guppe wahllos beendet. Dabei ist die Software flexibel genug entwickelt worden, dass sie ebenfalls auf den Plattformen anderer Cloud Anbieter funktioniert. Der Service ist voll konfigurierbar, läuft standardmäßig aber an gewöhnlichen Werktagen von 09.00 Uhr bis 15.00 Uhr. In den meisten Fällen hat Netflix seine Anwendungen so geschrieben, dass diese weiterhin funktionieren, wenn eine Instanz plötzlich Probleme hat. In speziellen Fällen passiert das bewusst nicht, damit die eigenen Leute das Problem beheben müssen, um daraus zu lernen. Der Chaos Monkey läuft also nur ein paar Stunden am Tag, damit sich die Entwickler nicht zu 100% auf ihn verlassen.

Weitere Informationen zum Chaos Monkey und der Simian Army gibt es unter „Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur„.

Chaos Monkey Quellen

Kategorien
News

Cloud Computing erhöht die Innovationsfähigkeit der IT-Abteilung

Cloud Computing erhöht die Innovationsfähigkeit innerhalb der IT-Abteilung. Das ist das Ergebnis einer IBM Umfrage unter 119 IT-Verantwortlichen in Neuseeland. Auch wenn diese Studie nur die Rückmeldung aus Neuseeland berücksichtigt, kann das Ergebnis weltweit hochgerechnet werden und zeigt, dass in den IT-Abteilungen noch eine Menge Potential steckt, die durch das Cloud Computing geweckt wird.

Cloud Computing erhöht die Innovation in der IT

Cloud Computing verschafft IT-Abteilungen mehr Weitblick

75% der 119 befragten IT-Verantwortlichen sind der Meinung, dass Cloud Computing ihren IT-Abteilungen einen besseren Weitblick verschaffen wird um den Bereich damit zu verbessern. Zwei Drittel glauben, dass es in den Cloud-basierten Umgebungen mehr strategische Partnerschaften zwischen den IT-Anbietern geben wird, was zu einer höhen Adaption von nicht IT-relevanten Eigenschaften führt und die Abhängigkeit von klassischen IT-Kenntnissen abnehmen wird.

Die Manager gehen zudem davon aus, dass in Zukunft mehr Fähigkeiten für das Design von Architekturen für Applikationen, Storage und Daten benötigt werden und Enterprise Architekten gute Chancen haben.

Die Mehrheit der Befragten glauben darüber hinaus, das sich die Nachfrage nach IT-Services innerhalb der Unternehmen konstant (38%) bleiben bzw. erhöhen (44%) wird. Dabei sei für größere Unternehmen der Hauptvorteil von Cloud Computing die bessere Flexibilität der IT-Infrastruktur. Für alle Befragten war der größte Vorteil der Cloud der bessere Zugriffe der Mitarbeiter auf IT-Ressourcen.

Weitere Ergebnisse der Studie

Weitere wichtige Erkenntnisse aus der Studie sind:

  • Über 70% der Befragten planen Cloud Lösungen in den nächsten fünf Jahren in der eigenen IT-Abteilung einzuführen.
  • 47% denken, dass die IT-Abteilung darauf vorbereitet ist die veränderten Erwartungen zu erfüllen. Wo Cloud derzeit noch nicht eingesetzt wird sank das Ergebnis auf 33%.
  • 44% glauben, dass es mehr Nachfrage nach IT-Services geben wird. 38% denken, dass die Nachfrage stabil bleibt. 13% sind der Meinung, dass die Nachfrage sinken wird, 5% sind unentschlossen.
Kategorien
News

Public Cloud is out: Unternehmen bevorzugen die Private Cloud

Das Interesse von Unternehmen an Cloud Computing Lösungen und Technologien, um damit die eigenen IT-Infrastrukturen zu dynamisieren und mehr Agilität zu schaffen steigt weiter an. Allerdings scheuen Sie das Risiko, Services aus der Public Cloud zu beziehen und ihre Daten dort zu speichern. Mehr als die Hälfte der Unternehmen die mit Cloud Anbieter zusammenarbeiten entscheiden sich für Private Clouds. Etwa ein Drittel wählt die Public Cloud. Zu diesem Ergebnis kommt die “Service Providers Put Their Heads in the Cloud” Studie von CA Technologies.

Sicherheitsbedenken der Kunden ist groß

Für die Studie befragte CA mehrere Cloud Anbieter bzgl. ihrer Kunden und dem laufenden Geschäft. Im Schnitt gehen die Anbieter davon aus, dass sie für dieses Jahr mit einem Wachstum von 30% rechnen können. Die Frage zu den größten Herausforderungen führte zu dem folgendem Ergebnis:

  • 47% – Sicherheitsbedenken der Kunden.
  • 39% – Wie sollen die Services mit dem Kunden abgerechnet werden.
  • 27% – Sicherstellung der Kundenzufriedenheit.
  • 26% – Wartung des Mix aus Cloud und nicht Cloud Services.
  • 22% – Kunden von den Vorteilen von Cloud Computing überzeugen.
  • 21% – Marketing-und Vertriebs-Ressourcen.
  • 21% – Betriebskosten der Rechenzentren.
  • 20% – Wettbewerb mit größeren Cloud Anbietern.
  • 20% – Generierung hochwertiger Leads.
  • 17% – Die Suche nach einer Marktnische, in der man sich spezialisieren kann.
  • 17% – Durchsetzung von Richtlinien für die Kunden.
  • 13% – Aufbringen von Kapital um in diesem Bereich Wettbewerbsfähig zu sein.
  • 12% – Die Verwaltung der Beziehungen mit Technologie-Lieferanten.
  • 12% – Kapitalkosten des Rechenzentrums.

Public Cloud is out

Insbesondere die Sicherheitsbedenken der Kunden zeigen, wie schwer es Public Cloud Anbieter haben werden, Kunden von diesem Schritt zu überzeugen. Eine erst kürzlich durchgeführte KPMG Studie unter deutschen Unternehmen hat ebenfalls zu dem Ergebnis geführt, dass sich ca. 90% der Unternehmen nicht(!) für die Public Cloud entscheiden.

Kategorien
News

Fehlerhafte Netzwerkkonfiguration war Schuld am Windows Azure Ausfall für die Region "West Europe"

Grund für den ca. 2,5-stündigen Ausfall von Microsoft Cloud Service Windows Azure Compute am vergangenen Donnerstag (26.07.12) war offenbar eine fehlerhafte Netzwerkkonfiguration. Das schreibt Windows Azure General Manager Mike Neil in einem Blogbeitrag.

Fehlerhafte Netzwerkkonfiguration war Schuld an Windows Azure Ausfall für die Region

Fehlerhaft konfiguriertes Netzwerk-Device

Wie Neil schreibt, war nur Azure Compute in der Region „West Europe“ von dem Ausfall betroffen. Das Problem sei auf ein falsch konfiguriertes Netzwerk-Device zurückzuführen, was dafür gesorgt hat, dass der Datenverkehr nicht mehr zu einem zuständigen Cluster in dieser Region übertragen wurde. Als die Grenze für ausgehende Verbindungen erreicht wurde, führte dies zu weiteren Problemen in einem anderen Netzwerk-Device innerhalb dieses Clusters, was das Netzwerkmanagement und die Wiederherstellung erschwerte.

Microsoft will in der kommenden Woche weitere detaillierte Informationen zu dem Ausfall veröffentlichen.

Microsoft holt gegenüber Amazon auf – Salesforce spielt auch mit

Es handelt sich bereits um den zweiten schweren Ausfall von Windows Azure in den letzten Monaten. Erst am 29. Februar 2012 wurde die Microsoft Azure Cloud Opfer des diesjährigen Schaltjahres und war damit für 12 Stunden nicht erreichbar.

Ausfall-Könige bleiben in diesem Jahr jedoch (noch) die Amazon Web Services, die das negative Duell mit einem Vorsprung von einem Ausfall anführen. Zwischenstand 3 (AWS) zu 2 (Microsoft). Aber auch Salesforce spielt langsam in der Liga mit und bietet bereits zwei Ausfälle.