Kategorien
News

Microsoft ändert die Datenschutzbestimmungen und Dienstnamen für Windows Azure

Mit einer E-Mail hat Microsoft seine Kunden über Änderungen im Cloud Services Portfolio informiert. Genauer geht es um Windows Azure, bei dem Microsoft in den kommenden Wochen die einzelnen Dienstnamen ändern wird. Weiterhin wurden Änderungen an den Datenschutzbestimmungen des PaaS vorgenommen.

Microsoft ändert die Datenschutzbestimmungen und Dienstnamen für Windows Azure

Die Änderungen an den jeweiligen Services beziehen sich nur auf den Namen. Alle Preise für Windows Azure werden davon nicht betroffen sein. Welche Services genau davon betroffen sind und welche Auswirkungen das hat, kann der unteren Tabelle entnommen werden.

Vorheriger Dienstname Neuer Dienstname
Windows Azure Compute Cloud Services
Windows Azure Platform – All Services All Services
Windows Azure CDN CDN
Windows Azure Storage Storage
Windows Azure Traffic Manager Traffic Manager
Windows Azure Virtual Network Virtual Network
AppFabric Cache Cache
AppFabric Service Bus Service Bus
AppFabric Access Control Access Control
SQL Azure SQL Database
SQL Azure Reporting Service SQL Reporting

Neben den Namensänderungen weist Microsoft ebenfalls daraufhin, das vor kurzem die Datenschutzbestimmungen für Windows Azure aktualisiert wurden, um den Kunden zusätzliche Informationen zu wichtigen Themen zur Verfügung zu stellen.

Die neue Version enthält dieselben bekannten Inhalte und wurde um die folgenden detaillierteren Informationen ergänzt:

  • Ausführlichere Informationen nicht nur dazu, wie wir die personenbezogenen Daten behandeln, die Sie in Windows Azure speichern, sondern auch alle Ihre Kundendaten, einschließlich der Inhalte und Anwendungen, die Sie in Windows Azure hochladen.
  • Ausführlichere Informationen zu den geografischen Standorten, an denen Ihre Kundendaten gespeichert und verarbeitet werden, einschließlich Hinweisen zum Festlegen von Rechenzentrenregionen sowie Informationen zu den wenigen Fällen, in denen wir Ihre Kundendaten aus dieser Region in eine andere übertragen.
  • Erläuterungen dazu, wie wir auf Anfragen im Rahmen der Gesetzesvollstreckung oder andere Anfragen von Dritten bezüglich Ihrer Kundendaten reagieren.
  • Ausführlichere Informationen dazu, wie wir Cookies, Webbeacons und andere Informationen von Ihrem Computer verwenden.
  • Informationen zu den ergänzenden oder abweichenden Bedingungen, die für Vorversionen gelten (d. h. technische Previews und Betaversionen) und die bisher für jede Vorversion in einer separaten Datenschutzerklärung berücksichtigt wurden.

Eine weitere Erneuerung ist das Windows Azure Trust Center (Englisch), in dem weitere Informationen zu Microsofts Praktiken in Bezug auf Sicherheit, Datenschutz und Konformität zu finden sind.

Kategorien
News

SOASTA bietet CloudTest auf VMware Cloud Foundry

SOASTA hat seine Funktions- und Performance Test Plattform CloudTest als Service auf VMWares Platform-as-a-Service Cloud Foundry veröffentlicht. Dabei wird es sich nach Angaben von SOASTA um den ersten und ebenfalls einzigen automatisierten Test Service innerhalb des Cloud Foundry Ökoysystems handeln. Das gab das Unternehmen während der Feierlichkeiten zum einjährigen Bestehen von Cloud Foundry bekannt.

Mit CloudTest können Entwickler auf der Cloud Foundry Plattform oder einem Cloud Foundry basiertem Service nun Tests in Echtzeit durchführen und sogleich mögliche Fehlerquellen identifizieren und Lösungsmöglichkeiten finden.

In Zeiten von stetig wachsenden Anforderungen und dem Wunsch nach immer neuen Funktionen sind Entwickler von Web- und mobilen Anwendungen darauf angewiesen, sich auf Echtzeit Funktionstests verlassen zu können, die ebenfalls die Skalierbarkeit und weitere Performance Eigenschaften einer Anwendung überprüfen. Der einzige Weg dieses zu gewährleisten ist die Automatisierung von Testfunktionen, um den Entwickler bei seiner eigentlichen Arbeit zu entlasten.

CloudTest steht im Beta Status auf Cloud Foundry bereit und kann mit jedem CloudFoundry.com Account genutzt werden.

Kategorien
News

OpenStack schlägt zurück – Citrix Entscheidung sei nur Marketing

Nachdem Citrix gestern bekannt gegeben hat, seine Unterstützung für OpenStack weitestgehend einzustellen und sein CloudStack Projekt unter die Apache License zu stellen, haben heute führende Verantwortliche des OpenStack Projekts reagiert. Einige externe Beobachter sprechen bereits von einem Krieg der Open Source Clouds, wie Gartner Analystin Lydia Leong.

Hat der Krieg um DIE Open Source Cloud begonnen?

Joshua McKenty, einer der Mitbegründer der OpenStack Bewegung und Gründer von Piston Cloud Computing hält Citrix Entscheidung für eine Marketingaktion. Nachdem Citrix im vergangenen Jahr Cloud.com für 200 Millionen US-Dollar übernommen hat, steht das Unternehmen, laut McKenty, unter Druck und muss etwas bewegen, um Einnahmen zu generieren. Zudem hat McKenty die Ankündigung von Citrix nicht besonders überrascht, da Citrix seit der Akquisition von Cloud.com und dem Verlassen des ehemaligen CTOs, Simon Crosby, die Unterstützung des OpenStack Projekts doch stark eingeschränkt habe.

McKenty sieht das Problem eher in den unterschiedlichen Philosophien beider Projekte. So hat Citrix gestern während einer Telefonkonferenz sich für eine Plattform ausgesprochen, die über eine umfangreiche Unterstützung der Amazon Web Services verfügt. Citrix sei davon überzeugt, dass OpenStack das nicht machen würde.

Jonathan Bryce, ein weiterer OpenStack Mitbegründer von Rackspace verteigt OpenStack dahingehend. Das Projekt unterstützt AWS und ist kompatible zu der Amazon EC2 und S3 API. Das er damit recht hat, stimmt vor allem insoweit, dass OpenStack damit auf seiner Webseite wirbt und Anbieter, die auf OpenStack setzen, ebenfalls eine EC2 und S3 Unterstützung angeben. Zudem, Bryce weiter, beinhaltet das am Donnerstag erscheinende Essex Release über 140 Erweiterungen von mehr als zwei Dutzend Entwicklern, darunter zur Verbesserung der OpenStack Integrationen zwischen Hypervisorn und anderen Plattformen wie AWS. Bryce hält Kompatibilität für sehr wichtig, aber OpenStack hat nicht den Anspruch ein Amazon Clone zu sein.

McKenty führt weitere philosophische Differenzen beider Projekte an. Er ist der Meinung, dass Citrix versuchen will eine Community um das eigene XenServer Hypervisor System aufzubauen. OpenStack wird hingegen weiterhin eine Vielzahl von Hypervisorn unterstützen. Hinzu kommen technische Unterschiede wie die jeweils eingesetzten Programmiersprachen. CloudStack basiert auf Java, OpenStack hingegen auf Python.

Bryce und McKenty sehen zwar einen Wettbewerb zwischen beiden Open Source Projekten aufkommen, glauben jedoch fest an OpenStack und seine Community, die McKenty als wichtigstes Differenzierungsmerkmal zu CloudStack sieht.


Bildquelle: http://perilousmemories.wordpress.com

Kategorien
News

cloudControl erweitert seinen Marktplatz um den E-Mail Service Mailgun

cloudControl hat seinen Add-on Marktplatz um den Cloud-basierten E-Mail Service Mailgun erweitert. Das berichtet das Berliner PaaS auf seinem Blog.

Neben dem Nachrichtenversand und Echtzeit Analysen, unterstützt Mailgun zudem eine automatische Push-Funktion eingehender E-Mails direkt in eine Anwendung, die auf cloudControl gehostet wird. Nach Angaben von cloudControl soll es sich bei Mailgun um den derzeit einzigen Cloud-basierten E-Mail Service handeln, der eine komplette E-Mail-Funktionalität bietet.

Über ein Dashboard können innerhalb von Mailgun die eingehenden E-Mails überwacht, Echtzeitanalysen von E-Mails vorgenommen und mehrere E-Mail Domains pro Account verwaltet werden. Nach dem Hinzufügen von Mailgun wird automatisch ein Mailgun Link in die Web Konsole von cloudControl hinzugefügt.

Weitere Informationen zur Nutzung gibt es direkt bei cloudControl.


Bildquelle: http://mailgun.de

Kategorien
News

Ehemaliger CTO von VMware plant anscheinend einen neuen Cloud Foundry PaaS

Wie Quellen von ZDNet berichten, plant Derek Collison, ehemaliger CTO, Chief Software Architect der VMware Cloud Plattformen und Lead Developer des Cloud Foundry PaaS, in den kommenden sechs Monaten seine eigene kommerzielle Version von Cloud Foundry zu veröffentlichen.

Plant Derek Collison eine Kopie von Cloud Foundry?

Plant Derek Collison eine Kopie von Cloud Foundry?

Laut der ZDNet Quelle ist er bei der Entwicklung einer kommerziellen Cloud Foundry Version, unabhängig von VMware. Mehr ist derzeit nicht bekannt.

Bei Cloud Foundry handelt es sich um ein offenes Platform-as-a-Service Projekt, das im vergangenen Jahr von VMware gestartet wurde.

Die Quellen behaupten, dass von dem ehemaligen Google Mitarbeiter, der von 2009 bis Februar 2012 bei VMware tätig war, in den kommenden sechs Monaten etwas zu erwarten sei. Dabei sollen ActiveState (Python), AppFog (PHP) und Joyent (Node.JS) zu den Top Unterstützern des Projekts gehören. Zudem ist Collison derzeit als Berater für AppFog tätig.


Bildquelle: http://www.flickr.com

Kategorien
Analysen

Sorgt die Telekom endlich für den Durchbruch des Cloud Computing in Deutschland?

Die Deutsche Telekom hat vom Tabakkonzern British American Tobacco einen Cloud Computing Auftrag über 160 Millionen Euro mit einer Laufzeit von sieben Jahren erhalten. Dabei geht es um die Abbildung und Verarbeitung der betriebswirtschaftlichen SAP Prozesse in der Cloud.

Die Deutsche Telekom geht steil in die Cloud

Die offensive der Deutschen Telekom im Cloud Computing ist kaum zu übersehen. Die CeBIT war nur ein Indikator für den Willen, in der Cloud etwas bewegen zu wollen. Hinzu kommt die Penetration des Endkundengeschäfts mit massiver Print- und Fernsehwerbung für die Telekom Cloud. Kann die Deutsche Telekom damit aber auch endlich für den Durchbruch der Cloud in Deutschland sorgen?

Neben Virtual Private Cloud Services für Unternehmenskunden und der Telekom Cloud für das Privatsegment hat die Telekom im Rahmen der CeBIT angekündigt, ab Sommer 2012 einen Cloud Services Marktplatz für kleine und mittelständische Unternehmen anzubieten, dessen Cloud Infrastruktur auf OpenStack basiert.

Anders als die (US-amerikanischen) Cloud Anbieter deckt die Telekom somit beide wichtigen Bereiche ab, das Geschäftskunden- als auch das Privatkundensegment. Denn spätestens mit den Telekom Cloud Werbespots und Angeboten sollte der Term Cloud mittlerweile auch bei vielen Deutschen angekommen sein.

Die Cloud ist noch nicht in der Breite angekommen

Im für Skeptiker bekannten Deutschland ist Cloud Computing noch nicht richtig angekommen. Anders als z.B. in den USA, wo der Cloud Computing Markt regelrecht blüht und Milliardenumsätze eingefahren werden, finden sich in den Kommentaren zu Cloud Artikel auf anderen Online IT-Magazinen immer wieder Phrasen wie „Bleibt mir weg mit eurem ****** SaaS, das ist doch alles viel zu teuer.“ oder „Cloud? Meine Daten bekommt ihr nicht!“.

Die Deutschen Nichtnutzer oder Skeptiker sehen in der Cloud also eher eine Gefahr als eine Chance. Eine Chance auch für Startups, in dem weltweiten lukrativen Cloud Computing Markt ein Wort mitreden zu können.

Abgesehen von der doch recht beachtlichen Anzahl von SaaS Startups in Deutschland, ist der Markt für junge Unternehmen in den Bereichen IaaS und PaaS so gut wie nicht vorhanden. ScaleUp Technologies wollte als Spin-off der internet4YOU, bereits 2009 IaaS in Form von Rechenleistung und Speicherplatz aus Deutschland heraus anbieten. Mittlerweile nutzen sie die dafür selbst entwickelte Plattform, um diese großen Telkos zu verkaufen. Im Bereich PaaS halten cloudControl und Scalarium die Fahne hoch.

Wie daran gut zu erkennen ist, es fehlt an Kapital, um Infrastructure Services aufzubauen. Scalarium und cloudControl setzen als Grundlage auf die Amazon Web Services und setzen ihre Plattform für das Cloud Hosting oben drauf. VCs investieren lieber in den Consumer Markt, was auch an der Akzeptanz des Cloud Computing in Deutschland liegen mag.

Dabei zeigen aktuelle Zahlen einen sehr positiven Trend, der auch schon während des Aufkommen des Cloud Computing prognostiziert wurde. So wird der Software-as-a-Service Markt in diesem Jahr um 17,9% auf 14.5 Milliarden US-Dollar wachsen. Alleine in Westeuropa auf 3,2 Milliarden Dollar. Zudem wird der gesamte deutsche Markt für Cloud Computing in diesem Jahr die Umsatzgrenze von 5 Milliarden Euro überschreiten und damit um fast 50 Prozent wachsen.

Die Deutsche Telekom kann Einfluss haben

Die Telekom kann und wird mittelfristig dafür sorgen, dass sich Cloud Computing auch endlich in der Breite in Deutschland etabliert. Ein Signal kann bereits der British American Tobacco Deal sein. Die Studien zeigen darüber hinaus bereits einen deutlichen Trend, der sich nun – z.B. mit der Telekom Cloud – auch auf den Markt für Privatkunden auswirken wird. Zudem existieren neben der Telekom weitere Cloud Computing Anbieter im selben Segment, die zwar nur die Geschäftskunden ansprechen, aber ebenfalls beachtenswerte Angebote haben.

Von besonderer Bedeutung wird weiterhin der Datenschutz im dafür sehr sensiblen Deutschland bleiben, was zu einem Standortvorteil werden kann, es zwangsläufig aber nicht sein muss. Hier muss weiterhin viel Vertrauen und Transparenz aufgebaut werden. Auf der anderen Seite gibt es mittlerweile allerdings viele Nutzer von Apples iCloud sowie Dropbox oder weiteren Cloud Storage Anbietern. Es ist also nur eine Frage der Zeit. Betrachtet man zudem den z.T. sehr lockeren Umgang mit privaten Daten in den sozialen Netzwerken, handelt es sich bei der Cloud Skepsis eher um ein Generationsproblem.

PS: Übrigens Deutschland, Big Data – ein Cloud Computing Use Case – steht auch schon länger vor der Tür! 😉

Kategorien
Analysen

Analyse: Die Platform-as-a-Service Umgebung von VMware Cloud Foundry

Ursprünglich startete Cloud Foundry als Plattform für das Deployment von Java Spring Anwendungen auf die Amazon Web Services. Im April 2011 folgte dann die Übernahme durch VMware, wodurch Cloud Foundry zu einem Open Source und Multi-Framework Platform-as-a-Service Angebot wurde, das eine Vielzahl von unterschiedlichen Sprachen und Laufzeitumgebungen unterstützt. Dazu gehören u.a. Java, Spring, Ruby, Scala und Node.js. VMware bezeichnet Cloud Foundry auch als ein Open PaaS, da die Plattform vom gewöhnlichen Notebook, über einen PC bis hin zu einer Public Cloud auf unterschiedlichen Systemen und Umgebungen genutzt werden kann.

Cloud Foundry ermöglicht das Multi-Cloud Deployment

Die Cloud Foundry Plattform setzt sich aus drei Bereichen zusammen. Der Erste bezieht sich auf die Wahl des Frameworks, der Zweite auf die Serviceunterstützung der Anwendung und die Dritte auf das Deployment.

Die Wahl des Frameworks

Cloud Foundry unterstützt neben Spring for Java, Rails und Sinatra for Ruby und Node.js ebenfalls JVM Sprachen wie Groovy, Grails und Scala. Hinzu kommt die Unterstützung für das Microsoft .NET Framework wodurch Cloud Foundry zur ersten nicht Microsoft Plattform gehörte, auf der .NET Anwendungen ausgerollt werden konnten. Alles zusammen macht Cloud Foundry zu einem der ersten mehrsprachigen PaaS.

Services für die Anwendung

In der Cloud sind Entwickler auf zuverlässige Messaging-Systeme, NoSQL Datenbanken zusammen mit relationalen Datenbanken angewiesen. Cloud Foundry unterstützt dafür neben RabbitMQ als Messaging-System sowie MongoDB und Redis als NoSQL Datenbanken, MySQL als relationale Datenbank. Die Liste der unterstützten Dienste wächst, so hat die Plattform zuletzt eine PostgreSQL-Unterstützung erhalten.

Das Deployment

Anhand von „Micro Cloud Foundry“ kann Cloud Foundry auf gewöhnlichen Notebooks oder Computer genutzt werden. Dazu beinhaltet die Micro Cloud Foundry den vollständigen Cloud Foundry Stack, mit dem virtuelle Maschinen auf einem PC oder Mac gestartet werden können. Cloud Foundry kann zudem in Private Cloud oder Public Cloud Umgebungen wie den Amazon Web Services betrieben werden. Das macht Cloud Foundry zu einem äußerst flexiblen PaaS.

Ausrollen von Anwendungen auf Cloud Foundry

Entwickler können Anwendungen entweder mit der SpringSource Tool Suite (STS) oder VMC, einer Ruby Gem Kommandozeile deployen.

Das Messaging System ist das Rückgrat von Cloud Foundry. Es handelt sich dabei um das zentrale Kommunikationssystem, über das alle Komponenten miteinander sprechen. Der HTTP Verkehr zu den einzelnen Anwendungen wird von Routern gesteuert. Diese routen die URLs zu den jeweiligen Anwendungen und übernehmen ebenfalls das Load Balancing des Verkehrs über die Instanzen.

Cloud Controller sind die Schlüsselkomponenten, die für die Verwaltung der Anwendungen zuständig sind. Sie verknüpfen die verschiedenen Services mit einer Anwendung und ermöglichen den Zugriff durch die externe REST API.

Ein Health Manager überwacht den Zustand aller ausgeführten Anwendungen. Fällt eine Anwendung aus, informiert er den Cloud Controller. Dieser ergreift die weiteren Maßnahmen.

Der ausführbare Code wird in Cloud Foundry zu Einheiten zusammengefasst und wiederum zu einem Droplet verpackt. Ein Droplet abstrahiert den zugrunde liegenden Code und stellt eine generische ausführbaren Code Einheit dar. Ein Droplet Execution Agent ist für die Ausführung des Codes innerhalb jedes Droplets verantwortlich und stellt das Betriebssystem und die Laufzeitumgebung bereit.

Fazit

Cloud Foundry ist ein schnell gewachsener und offener PaaS. Viele Hersteller haben ihre Unterstützung angekündigt und werden mit weiteren Plattformen und Services den Stack erweitern, was Cloud Foundry zu einer echten Alternative zu kommerziellen PaaS Angeboten wie Microsoft Windows Azure oder der Google App Engine werden lässt.

Kategorien
News

DotCloud erweitert sein PaaS um vertikale Skalierung

Der Platform-as-a-Service Anbieter DotCloud erweitert sein PaaS Angebot um eine typische Infrastructure-as-a-Service Eigenschaft, der vertikalen Skalierung.

Im Normalfall skalieren PaaS Anbieter nur horizontal. In diesem Fall können die Nutzer ihren Code und den Traffic über mehrere Server verteilen und weitere Server hinzufügen, wenn die Last es erfordert.

Jedoch sind nicht alle Bereiche einer Anwendung in der Lage auf diesem Weg zu skalieren. So müssen z.B. Datenbanken vertikal skalieren wenn die Datenmenge steigt. Um vertikal zu skalieren, werden die Systeme mit mehr Arbeitsspeicher und Rechenleistung erweitert und nicht mit Servern.

Nicht jeder PaaS Anbieter unterstützt Datenbanken, daher ist die vertikale Skalierung für sie nicht von besonderer Bedeutung. Jedoch werden auch diese Anbieter in Zukunft nicht mehr um dieses Thema herumkommen. Kunden verlangen immer mehr Kontrolle wie sie es von IaaS Angeboten gewohnt sind. So kann ein AWS Nutzer z.B. eigenständig mehr RAM und Rechenleistung hinzufügen und sich zudem Bibliotheken und Softwareversionen selbst aussuchen, die er einsetzen möchte. Ein gewöhnliches PaaS Angebot bietet diese granulare Kontrolle nicht, muss es zwangsläufig aber auch nicht! Jedoch entwickelt sich auch der PaaS Markt stetig fort.


Bildquelle: http://www.cisco.com

Kategorien
Analysen

Eine Analyse der Microsoft Windows Azure Plattform

Neben Platform-as-a-Services wie Cloud Foundry, Force.com, Google App Engine oder Red Hat OpenShift sollte man einen Service nicht vergessen: Windows Azure. Microsoft verfügt historisch bedingt über eine weltweit riesige Entwicklergemeinde, die nicht unterschätzt werden sollte. Die Microsoft Windows Azure Plattform wurde 2008 angekündigt und 2010 veröffentlicht. Seitdem hat Microsoft sein PaaS Angebot stetig um neue Funktionen erweitert.

Die Windows Azure Referenzarchitektur

Die Windows Azure Plattform wurde speziell für Entwickler konzipiert, um Anwendungen auf Basis von Microsoft Technologien wie bspw. .NET zu entwickeln. Dennoch können auch Java, PHP oder Node.js Entwickler die Umgebung für ihre Zwecke nutzen. Dazu bietet Microsoft ausreichend Tools und Plugins für Eclipse und anderer bekannter Entwicklungsumgebungen, um dieses zu ermöglichen.

Zunächst werden die einzelnen Komponenten der Windows Azure Platform betrachtet. Im Anschluss folgen dann ein paar Szenarien, wofür Azure genutzt werden kann.

Windows Azure

Bei Windows Azure handelt es sich um Herz und Seele der gesamten Azure Plattform. Es ist das Betriebssystem, dass auf jedem Server innerhalb der weltweit verteilten Rechenzentren der Azure Cloud läuft. Anders als die anderen Windows Versionen kann Windows Azure nicht käuflich erworben werden und ist speziell auf die Bedürfnisse der Cloud Infrastrukturen von Microsoft abgestimmt. Windows Azure abstrahiert dabei die darunterliegende Hardware und suggeriert somit, dass es sich dabei um lediglich eine Instanz des Betriebssystems handelt. Da das Betriebssystem über mehrere physikalische Server hinweg operiert, sorgt eine spezielle Schicht für die Koordination und Ausführung der jeweiligen Prozesse. Diese Schicht wird auch Fabric bezeichnet. Zwischen der Fabric und dem Windows Azure Betriebssystem befinden sich die virtuellen Maschinen (VM), auf denen der eigentliche Quellcode und die Anwendungen ausgeführt werden. Entwickler sehen jedoch nur zwei Services dieses Stacks, Windows Azure Compute und Windows Azure Storage.

Windows Azure Compute

Windows Azure Compute wird bspw. genutzt, wenn eine Anwendung auf Windows Azure ausgerollt werden soll. Dazu werden Anwendungen in drei möglichen Rollen ausgeführt, Web Role, Worker Role oder VM Role. Die Web Role wird genutzt um typische ASP.NET Web Anwendungen oder jede andere Art von CGI Web Anwendungen zu betreiben. Die Worker Role wird benötigt um langlaufende Prozesse, die über keine Benutzeroberfläche verfügen, auszuführen. Eine Web Role könnte in diesem Zusammenhang z.B. ein IIS Container und eine Worker Role ein Windows Service sein. Beide können auf mehreren Wegen miteinander kommunizieren, wobei der Quellcode innerhalb der Worker Role jedoch unabhängig von der Web Role läuft. Über die Worker Role können dann sowohl .NET Anwendungen als auch native COM Anwendungen auf Windows Azure portiert werden. Über die Worker Role unterstützt Windows Azure zudem Microsoft fremde Umgebungen wie PHP, Java und Node.js. Die VM Role ermöglicht es schlussendlich, Anwendungen innerhalb eines angepassten Windows Server 2008 Image auszuführen. Damit sind Unternehmen in der Lage Anwendungen auf Windows Azure zu portieren, die z.B. Abhängigkeiten zu Komponenten von Drittanbietern haben.

Windows Azure Storage

Um eine Anwendung ausführen zu lassen wird auf jedenfall Speicherplatz für die Konfiguration und weiterer Daten benötigt. Windows Azure Storage bietet hier drei unterschiedliche Möglichkeiten: Blobs, Tables und Queues.

Blobs sind dafür geeignet, um große binäre Objekte wie Bilder und Videos, Dokumente usw. zu speichern. Tables bietet einen skalierbaren Key/ Value basierten Speicher. Queues werden genutzt, um Nachrichten zuverlässig zwischen einzelnen Anwendungen zu übertragen. Daher sind Queues die beste Lösung, um eine Web Role und Worker Role miteinander kommunizieren zu lassen. Der Zugriff auf die Daten in Windows Azure Storage erfolgt per HTTP und REST.

Windows Azure Service Bus

Der Windows Azure Service Bus sorgt für eine nahtlose Integration von Services die sich innerhalb eines Unternehmens hinter einer Firewall und einem Service in der Cloud befinden. Damit wird quasi eine sicherer Brücke zwischen den klassischen on-Premise Anwendungen im Unternehmen und den Cloud Services hergestellt. Dazu werden die Services die sich hinter der Firewall oder dem NAT befinden bei dem Service Bus registriert, wodurch ein Cloud Service diese anschließend aufrufen kann. Der Service Bus abstrahiert den physikalischen Ort des Service, indem er eine URI bereitstellt, die jeder für den Aufruf nutzen kann.

Access Control Service

Bei dem Access Control Service handelt es sich um einen Mechanismus, der für die Absicherung der Cloud Services und Anwendungen genutzt wird. Dazu können auf eine sehr deklarative Art und Weise Regeln definiert werden, mit denen bestimmt wird, wie ein Cloud Service aufgerufen werden darf. Dabei werden eine Vielfalt von unterschiedlichen Identity-Management Infrastrukturen unterstützt. Der Access Control Service ermöglicht es bspw. Unternehmen ihre on-Premise Sicherheitsmechanismen der Active Directory mit den Cloud basierten Authentifizierung zu integrieren.

Windows Azure Caching

Windows Azure Caching stellt Anwendungen, die auf Windows Azure gehosted werden, einen In-Memory Caching Service zur Verfügung. Dieser vermeidet die Schreib/- und Lesezugriffe auf die Festplatte und ermöglicht den Anwendungen einen schnellen Zugriff auf die Daten aus einem High-Speed Cache. Der Cache kann mehrere Arten von Daten speichern, darunter XML, Binärdaten oder serialisierte CLR Objekte. Web Anwendungen die häufig nur lesende Zugriffe benötigen, können den Cache nutzen, um die Geschwindigkeit zu erhöhen.

SQL Azure

SQL Azure ist der Microsoft SQL Server in der Cloud. Anders als Azure Storage, das für das Speichern von unstrukturierten Daten genutzt wird, handelt es sich bei SQL Azure um eine vollständige Relationale Datenbank Engine. Sie basiert auf der selben Datenbank Engine wie der MS SQL Server und kann per T-SQL abgefragt werden. Auf Grund der Nähe zu MS SQL können on-Premise Anwendungen ohne weiteres auf SQL Azure zurückgreifen. Entwickler können mit ADO.NET oder ODBC API auf SQL Azure zugreifen. PHP Entwickler nutzen dazu die PHP API. Mit Microsoft SQL Azure Data Sync können Daten zwischen dem on-Premise SQL Server und SQL Azure synchronisiert werden. Dabei handelt es sich um eine sehr mächtige Funktion, um Datenknoten innerhalb der Cloud aufzubauen, die ständig mit den lokalen on-Premise Datenbanken synchronisiert werden. SQL Azure kann zudem exakt so behandelt werden wie ein gewöhnlicher Datenbank Server im eigenen Rechenzentrum. Da Microsoft hier allerdings für die Installation, Wartung und Verfügbarkeit des Datenbank Service zuständig ist, können sich Unternehmen darauf konzentrieren, den Service einfach nur zu nutzen.

Nun folgen ein paar Szenarien, die Ideal für die Nutzung der Microsoft Windows Azure Plattform sind.

Skalierbare Web Anwendungen

Da die Windows Azure Plattform auf den bekannten .NET und ASP.NET Plattformen basiert, ist es für Entwickler dieser Technologien einfach zu wechseln und Web Anwendungen kostengünstig auf Windows Azure zu betreiben. Damit erhalten Sie die Möglichkeit die Skalierbarkeit ihrer Web Anwendungen deutlich zu erhöhen ohne sich Gedanken über die dafür
notwendige Infrastruktur zu machen. Selbst PHP, Java oder Node.js Entwickler können von Azure profitieren.

Rechenintensive Anwendungen

Die Windows Azure Plattform kann für sehr prozess- und rechenintensive Anwendungen genutzt werden die gelegentlich eine große Menge an Rechenressourcen benötigen. Durch die Nutzung der Worker Role können Entwickler ihren Quellcode über mehrere Instanzen parallel ausführen lassen. Die entweder durch die Web Role oder der on-Premise Anwendung generierten Daten können anschließend der Worker Role via Azure Storage zugeteilt werden.

Zentraler Zugriff auf Daten

Wenn Daten für eine Vielzahl von Anwendungen, den Zugriff durch mehrere Browser, Computer und mobile Endgeräte zugänglich gemacht werden sollen, macht es Sinn, diese an einem zentralen Ort zu speichern. Windows Azure Storage ist hier eine gute Lösung, um Daten zentral zu speichern und zu pflegen sowie Desktop Anwendungen, Silverlight, Flash und AJAX basierten Web Anwendungen oder mobilen Applikationen bereitzustellen.

Hybride Anwendungen – verteilt in der Cloud und on-Premise

Es kann Bedingungen für die Erweiterung eines Teils einer Anwendung für die Cloud oder den Aufbau einer Cloud-Oberfläche für eine bestehende Anwendung geben. Durch die Nutzung des Service Bus und Access Control können on-Premise Anwendungen nathlos und sicher um bzw. in die Cloud erweitert werden. Dazu kann der Service Bus sowie eine weitere Technologie – Azure Direct Connect – dabei helfen, ein hybrides Cloud Szenario aufzubauen.

Cloud basierte Datenknoten

Mit Hilfe von SQL Azure können Unternehmen Datenknoten aufbauen, die den Zugriff durch externe Partner oder mobile Mitarbeiter ermöglichen. So könnte bspw. ein Unternehmen einen Teil seiner Daten in der Cloud bereitstellen, die ständig mit der lokalen Datenbank synchronisiert werden. Die Datenbank in der Cloud wird dann für B2B Partner für Abfragen und Bestellungen geöffnet. Hier helfen SQL Azure und SQL Azure Data Sync bei der Umsetzung so eines Szenarios.

Kategorien
Analysen

Red Hat OpenShift – Ein Blick hinter die Kulissen

Red Hat gehört zweifelsohne zu den bekannten Unternehmen die Plattformen in ihrem Portfolio haben. Zudem haben sie es geschafft das Open Source Konzept in ein rentables Business Model zu überführen. Mit der damaligen Akquisition von JBoss wurde der Weg in den lukrativen Markt der Middleware und Application-Server geebnet. In der Szene gilt der JBoss darüber hinaus zu den Entwickler freundlichen J2EE Application-Server.

RedHat: Von Open-Source zur Open-Cloud

Red Hats Cloud Strategie hat sich mit der Zeit entwickelt. Begonnen hat alles mit der klassischen Virtualisierung basierend auf KVM gefolgt von Red Hat MRG, mit dem Messaging-, Realtime- und Grid-Technologien für Unternehmen angeboten werden. Mit CloudForms erschien dann der erste vollständige IaaS Stack zum Aufbau einer Private Cloud, die im direkten Wettbewerb zu VMware und Microsoft Hyper-V steht. Somit hatet RedHat alle notwendigen Komponenten zusammen, um eine PaaS Angebot zu veröffentlichen: Virtualisierung auf Basis von KVM, Self Service und Private Cloud Möglichkeiten anhand von CloudForms sowie Application Services via JBoss.

Red Hat hat erkannt, dass wenn es im PaaS Bereich erfolgreich sein will, ein mehrsprachiges Angebot in den Markt bringen muss. Die Stärke von Red Hat besteht, unterstützt durch JBoss, in der Java EE Plattform. Durch die Akquisition von Makara wurde ein PaaS Anbieter gekauft, der sich auf PHP und Python Umgebungen spezialisiert hat. Ein kluger Schachzug, da Makara um Java EE erweitert werden konnte, um damit ein PaaS Angebot für Unternehmen anzubieten. Im May 2011 wurde mit OpenShift dann endgültig ein PaaS für Unternehmen veröffentlicht.

OpenShift gibt es in zwei unterschiedlichen Varianten: Express und Flex.

OpenShift Express ist ein kostenloses Angebot für Entwickler, dass zwar über keine graphische Managementoberfläche verfügt, aber eine Reihe von Sprachen wie Java, Perl, PHP, Python und Ruby unterstützt. Die Anwendungen werden in einer Shared-Umgebung betrieben und können über diverse Kommandozeilentools deployed werden. Die Möglichkeiten die einem Entwickler zur Verfügung stehen sind recht umfangreich. OpenShift Express unterstützt neben GIT Deployments eine gute Auswahl an Sprachen und Datenbanken.

OpenShift Flex läuft auf Amazon EC2 und benötigt die AWS Anmeldedaten, um Deployments von Anwendungen vorzunehmen. Während der 30 tägigen Probezeit werden die AWS Anmeldaten nicht benötigt und ermöglichen für diesen Zeitraum die kostenlosen Nutzung. OpenShift Flex ist für Unternehmen und Anwendungen mit einer Hochverfügbarkeit gedacht. Dazu werden neben dem JBoss Application Server ebenfalls der Apache Web Server, Apache Tomcat, MySQL, PHP, Zend Framework, Java, Memcached, Membase, Infinispan, MRG Messaging und MongoDB unterstützt. Die Architektur von OpenShift Flex wurde für Cloud Skeptiker entwickelt. Das bedeutet, das Flex technisch auf mehreren Public Cloud Anbietern und ebenfalls innerhalb eines eigenen Private PaaS eingesetzt werden kann.