Kategorien
News

ByteAction wird IBM City-Cloud-Partner [Pressemitteilung]

IT-Leistungen aus der Private Cloud, die Unternehmen ähnlich wie Strom aus einer Steckdose beziehen: Neben großen Konzernen sollen nun auch gerade mittelständische Firmen von dieser Technologie profitieren. Mit dem Lösungsansatz, jede Region mit Rechenzentren zu bestücken, ist IBM im Rahmen ihrer City-Cloud-Initiative auf Full-Service-Anbieter ByteAction zugegangen und hat ihn zum offiziellen IBM City-Cloud-Partner zertifiziert. Clou des City-Cloud-Konzepts ist der bedarfsorientierte und lokal verfügbare IT-Service für den Mittelstand.

ByteAction als Geschäftspartner bietet diese Dienste in seinen Rechenzentren vor Ort an. Sie reichen von der Datenspeicherung vor Ort bis hin zum kompletten Anwendungsmanagement. Die IBM City-Cloud-Initiative hat es sich zum Ziel gesetzt, für jede Region in Deutschland eine oder mehrere City-Clouds aufzubauen, die ganz auf die IT-Bedürfnisse des Mittelstands ausgerichtet sind. Die Services reichen von Betrieb und Support über Hardware- und Softwareleistungen bis hin zu individueller Beratung und Konzeption. Eine lokale Datenspeicherung erfolgt rechtskonform nach deutschen Datenschutzrichtlinien. Basis der City-Cloud ist ein hochverfügbares Rechenzentrum auf IBM-Technologie, das vor Ort in der entsprechenden Stadt nach deutschen Sicherheitsstandards betrieben wird.

IT mit ByteAction bedarfsorientiert verwalten
ByteAction betreibt alle virtuellen und dedizierten Server in deutschen Rechenzentren. Daher passt das Unternehmen zum Konzept der IBM-Initiative, denn mittelständische Firmen können ihre IT an das lokale ByteAction-Rechenzentrum auslagern und dadurch die anfallenden Kosten für Hardware, Software und Services senken. Auf Basis dieses Private-Cloud-Ansatzes werden Rechnerkapazitäten, Datenspeicherungen und Anwendungen bedarfsorientiert bezogen und bezahlt. Zusätzlich gewährleistet ByteAction, dass die geschäftskritischen Daten der Firmen rechtssicher vor Ort gespeichert werden.

Daten souverän transferieren und speichern
Den Sicherheitsaspekt findet man auch in den Softwarelösungen von ByteAction wieder. BytStorMail und MAV2 beispielsweise ermöglichen Firmen ein professionelles E-Mail- bzw. Workflow-Management. Die Modullösungen ByteActionBill, ByteActionMail und ByteActionPay bieten einen umfangreichen Schutz beim Dokumentenversand per E-Mail. Ebenso sicher können nun auch die firmeninternen Daten des Mittelstands in die lokale ByteAction-City-Cloud transferiert werden.

Kategorien
News

Amazon erweitert CloudFront mit Live-Streaming Funktion für iOS und Silverlight

Amazon hat seinen Content Delivery Network (CDN) Services um Live-Streaming Funktionen für Apples iOS und Microsofts Silverlight erweitert. Das wurde gestern im offiziellen Unternehmensblog angekündigt.

Mit Amazon CloudFront können Inhalte wie Bilder, Videos andere Mediadaten und Software so verteilt werden, dass auf sie schnell und performant zugegriffen werden kann. Dazu nutzt CloudFront, typisch für ein CDN, unterschiedliche Edge Locations in Asien, Europa, Südamerika und den USA, um die Inhalte möglichst nah an den Nutzer auszuliefern und damit die Zugriffszeit zu verkürzen.

Mit der neuen Funktion „Live Smooth Streaming for Amazon CloudFront“ können Inhalte nun zusätzlich live auf Microsoft Silverlight Clients und Apple iOS Endgeräte wie iPhone, iPod Touch oder iPad streamen. Dazu werden Microsofts Live Smooth Streaming und Apples HTTP Live Streaming (HLS) Formate genutzt.

Amazon erweitert CloudFront mit Live-Streaming Funktion für iOS und Silverlight

Live Smooth Streaming Inhalte werden fragmentiert an die Clients übertragen, so dass die CloudFront Edge Server die Daten zwischenspeichern (cachen) können.

Die Clients selbst haben die Möglichkeit den aktuellen Netzwerk- und lokalen Systems-Status dynamisch zu überwachen. Sollte sich z.B. die Netzwerkleistung verschlechtern, kann der Client umgehend kommunizieren, dass das nächste Fragment mit einer niedrigeren Bitrate gesendet werden soll, um sich damit an die ändernden Bedingungen anzupassen. Laut Amazon sollen damit das Stottern, Puffern und Einfrieren des Streamings verhindert werden.

Der Stream kann über eine Amazon EC2 Instanz mit Windows IIS Media Services bereitgestellt werden. Wird der Live Stream von einem Client angefragt, lädt CloudFront den Inhalt automatisch von der EC2 Instanz, cached ihn in der Edge Location zwischen und liefert ihn an den Client aus. Um Inhalte mit Apples HLS Format zu streamen, wird auf der Amazon EC2 Instanz ein Adobe Flash Media Server 4.5 benötigt. Laut Amazon handelt es sich bei beiden Formaten aber um dieselbe Grundkonfiguration. Um die Nutzung von „Live Smooth Streaming for Amazon CloudFront“ zu vereinfachen, hat Amazon ein CloudFormation Template erstellt, dass die notwendigen Ressourcen für ein Live Event bereitstellt.

Die CloudFront Preise orientieren sich an den regionalen Datentransferkosten für die jeweiligen Amazon Edge Locations, die Anzahl an HTTP-Anfragen und die Anzahl an ungültigen Anfragen. Letzteres wird verwendet, um ein Objekt aus der CloudFront Edge Location vor dem angegebenen Ablaufdatum zu entfernen.

Bspw. kosten in Europa und in den USA die ersten 10TB 0,12 US-Dollar pro Gigabyte und die weiteren 40TB 0,08 US-Dollar pro Gigabyte. Die Menge an verbrauchten Traffic wird dabei monatlich zurückgesetzt.


Bildquelle: http://www.ewdisonthen.com

Kategorien
Services

OpenStack – Ein Überblick

OpenStack ist ein weltweites Gemeinschaftsprojekt von Entwicklern und Cloud Computing Spezialisten, die das Ziel verfolgen eine Open Source Plattform für den Aufbau von Public und Private Clouds zu entwickeln. Das Projekt wurde initial von der Nasa und Rackspace gegründet und will Anbietern von Cloud Infrastrukturen ein Werkzeug in die Hand geben, mit dem sie unterschiedliche Arten von Clouds ohne großen Aufwand auf Standard Hardwarekomponenten aufbauen und bereitstellen können.

Die Kernbereiche von OpenStack

Die Kernbereiche von OpenStack

Der gesamte OpenStack Quellcode ist frei verfügbar und unterliegt der Apache 2.0 Lizenz. Dadurch ist jeder in der Lage auf dieser Basis seine eigene Cloud zu entwickeln und ebenfalls Verbesserungen in das Projekt zurückfließen zu lassen. Der Open Source Ansatz des Projekts soll zudem die Entwicklung von Standards im Bereich des Cloud Computing weiter fördern, Kunden die Angst vor einem Vendor Lock-in nehmen und ein Ecosystem für Cloud Anbieter schaffen.

OpenStack besteht aus insgesamt fünf Kernkompenten. Bei OpenStack Compute, OpenStack Object Storage und OpenStack Image Service handelt es sich um die grundlegenden Kernbereiche, die von Beginn an zu dem Projekt gehören. Mit OpenStack Identity und OpenStack Dashboard wurden in dem Diablo Release zwei weitere Komponenten hinzugefügt, die ab der kommenden Essex Version fest in die Kernbereiche mit aufgenommen werden.

OpenStack Compute

OpenStack Compute dient dem Aufbau, Bereitstellen und Verwalten von großen Virtual Machine Clustern, um auf dieser Basis eine redundante und skalierbare Cloud Computing Plattform zu errichten. Dazu stellt OpenStack Compute diverse Kontrollfunktionen und APIs zur Verfügung, mit denen Instanzen ausgeführt und Netzwerke verwaltet werden sowie die Zugriffe der Nutzer auf die Ressourcen gesteuert werden können. OpenStack Compute unterstützt zudem eine große Anzahl von Hardwarekonfigurationen und sieben Hypervisor.

OpenStack Compute kann bspw. Anbietern dabei helfen Infrastructure Cloud Services bereitzustellen oder IT-Abteilungen ermöglichen ihren internen Kunden und Projekten Ressourcen bei Bedarf zur Verfügung zu stellen. Zudem können große Datenmengen (Big Data) mit Tools wie Hadoop verarbeitet werden oder Web Anwendungen entsprechend ihrer Ressourcenbedürnisse bedient werden.

OpenStack Object Storage

Mit OpenStack Object Storage können auf Basis von standardisierten Servern redundante und skalierbare Object Storage Cluster mit einer Größe von bis zu 1 Petabyte aufgebaut werden. Dabei handelt es sich nicht um ein Dateisystem und ist nicht für das Speichern von Echtzeitdaten ausgelegt, sondern für das langfristige Speichern von statischen Daten gedacht, die bei Bedarf abgerufen oder aktualisiert werden können. Gute Anwendungsbeispiele für OpenStack Object Storage sind das Speichern von Virtual Machine Images, Photos, E-Mails, Backupdaten oder Archivierung. Da der Object Storage dezentral verwaltet wird, verfügt er über eine hohe Skalierbarkeit, Redundanz und Beständigkeit der Daten.

Die OpenStack Software sorgt dafür, dass die Daten auf mehrere Speicherbereiche im Rechenzentrum geschrieben werden, um damit die Datenreplikation und Integrität innerhalb des Clusters sicherzustellen. Die Storage Cluster skalieren dabei horizontal, indem weitere Knoten bei Bedarf hinzugefügt werden. Sollte ein Knoten ausfallen, sorgt OpenStack dafür, dass die Daten von einem aktive Knoten repliziert werden.

OpenStack Object Storage kann von Anbietern genutzt werden, um einen eigenen Cloud Storage bereizustellen oder die Server Images von OpenStack Compute zu speichern. Weitere Anwendungsfälle wären Dokumentenspeicher, eine Back-End Lösung für Microsoft SharePoint, eine Archivierungsplattform für Logdateien oder für Daten mit langen Aufbewahrungsfristen oder einfach nur zum Speichern von Bildern für Webseiten.

OpenStack Image Service

Der OpenStack Image Service hilft bei der Suche, Registrierung und dem Bereitstellen von virtuellen Maschinen Images. Dazu bietet der Image Service eine API mit einer Standard REST Schnittstelle, mit der Informationen über das VM Image abgefragt werden können, welches in unterschiedlichen Back-Ends abgelegt sein kann, darunter OpenStack Object Storage. Clients können über den Service neue VM Images registrieren, Informationen über öffentlich verfügbare Images abfragen und über eine Bibliothek ebenfalls darauf zugreifen.

Der OpenStack Image Service unterstützt eine Vielzahl an VM Formaten für private und öffentliche Images, darunter Raw, Machine (kernel/ramdisk, z.B. AMI), VHD (Hyper-V), VDI (VirtualBox), qcow2 (Qemu/KVM), VMDK (VMWare) und OVF (VMWare).

OpenStack Identity

Der OpenStack Identity Service stellt eine zentrale Authentifizierung über alle OpenStack Projekte bereit und integriert sich in vorhandene Authentifizierungs-Systeme.

OpenStack Dashboard

Das OpenStack Dashboard ermöglicht Administratoren und Anwendern den Zugang und die Bereitstellung von Cloud-basierten Ressourcen durch ein Self-Service Portal.

Kategorien
News

DotCloud erweitert sein PaaS um vertikale Skalierung

Der Platform-as-a-Service Anbieter DotCloud erweitert sein PaaS Angebot um eine typische Infrastructure-as-a-Service Eigenschaft, der vertikalen Skalierung.

Im Normalfall skalieren PaaS Anbieter nur horizontal. In diesem Fall können die Nutzer ihren Code und den Traffic über mehrere Server verteilen und weitere Server hinzufügen, wenn die Last es erfordert.

Jedoch sind nicht alle Bereiche einer Anwendung in der Lage auf diesem Weg zu skalieren. So müssen z.B. Datenbanken vertikal skalieren wenn die Datenmenge steigt. Um vertikal zu skalieren, werden die Systeme mit mehr Arbeitsspeicher und Rechenleistung erweitert und nicht mit Servern.

Nicht jeder PaaS Anbieter unterstützt Datenbanken, daher ist die vertikale Skalierung für sie nicht von besonderer Bedeutung. Jedoch werden auch diese Anbieter in Zukunft nicht mehr um dieses Thema herumkommen. Kunden verlangen immer mehr Kontrolle wie sie es von IaaS Angeboten gewohnt sind. So kann ein AWS Nutzer z.B. eigenständig mehr RAM und Rechenleistung hinzufügen und sich zudem Bibliotheken und Softwareversionen selbst aussuchen, die er einsetzen möchte. Ein gewöhnliches PaaS Angebot bietet diese granulare Kontrolle nicht, muss es zwangsläufig aber auch nicht! Jedoch entwickelt sich auch der PaaS Markt stetig fort.


Bildquelle: http://www.cisco.com

Kategorien
Services

Protonet ist keine Private Cloud!

Auf der CeBIT bin ich dem Team von Protonet über den Weg gelaufen. Aufgefallen sind sie mir, da am Stand eine Private Cloud beworben wurde, im Zentrum jedoch eine kleine(!) orange Box stand. Cloudifizierung?

Das Startup aus Hamburg wirbt auf der Internetseite damit, die “ … soziale IT-Infrastruktur für kleine und mittelständische Unternehmen …“ zu sein. Diese Aussage passt recht gut, erinnert die Web-Oberfläche doch stark an Salesforce Chatter. Der Flyer der mir vorliegt preist Protonet zusätzlich als Private Cloud Lösung an.

Die Funktionen

Bei den grundlegenden Funktionen handelt es sich um eine Kollaborationslösung für kleine Teams. Wie bereits oben erwähnt, erinnert die Benutzeroberfläche ein wenig an Chatter bzw. an die typischen Timelines der sozialen Netzwerke. Kommuniziert wird ausschließlich über den Chat. Per Drag and Drop können zudem Dateien den Mitarbeitern zugänglich gemacht werden. Dazu werden diese sogenannten Channels zugeordnet, in denen die Rechtevergabe erfolgt. Der Chatverlauf eines Channels wird kontinuierlich und automatisch archiviert und kann über eine Volltextsuche durchsucht werden.

Die Box ist in erster Linie für die interne Zusammenarbeit gedacht. Jeder Mitarbeiter hat allerdings die Möglichkeit, seine Daten für den Zugriff über das Internet zugänglich zu machen (Publish to Web). Diese Funktion muss ebenfalls aktiviert sein, um den Remote Zugriff und das Hardware-Monitoring durch Protonet zu erlauben, Updates zu erhalten und Backups im Rechenzentrum von Protonet vorzunehmen.

Mit Cloud wenig zu tun! Aber Interessant.

Mit Cloud Computing, gar Private Cloud, hat die Lösung nichts zu tun. Selbst wenn die Box über ein RAID-Verbund von zwei Festplatten verfügt, kann hier auch nicht von einem Cloud Charakter gesprochen werden. Es fehlt die Hochverfügbarkeit der Infrastruktur. Was ist, wenn das Netzteil ausfällt oder gar ein Stromausfall auftritt? Was wenn die CPU oder Mainboard ein Problem haben oder das Betriebssystem? Ein aufgebohrtes NAS mit einer intelligenten Steuerung und sozialen Komponente für die Kollaboration trifft es besser.

Dennoch ist das Konzept mit der sozialen Infrastruktur sehr interessant, wäre als Public Cloud oder Virtual Private Cloud Service jedoch besser aufgehoben, als in so einer kleinen Box.

Auch wenn hier das Argument des Datenschutzes aufkommen sollte: „… it’s yours.“, die Daten werden in das Rechenzentrum von Protonet übertragen, um dort das Backup vorzunehmen. An dieser Stelle ist es dann nicht mehr direkt „… yours.“, auch wenn die Daten verschlüsselt werden. Keine Frage, das Backup ist sehr wichtig. Auf die kleine Box würde ich mich nicht alleine verlassen. Es stellt sich aber trotzdem die Frage, ob diese lokale Komponente sinnvoll ist, da sich die Daten dann eh schon im RZ befinden.

Denn, die Box kostet natürlich auch:

  • Monatlich 149 EUR (zzgl. MwSt.: 177,31 Euro)
  • plus eine einmalige Einrichtungsgebühr 599 Euro (zzgl. MwSt.:712,81 Euro)

Darin enthalten sind E-Mail Support, Software Updates mit neuen Features, Antivirenschutz, Hardwareüberwachung und Remotezugriff bei Problemen. Die Vertragslaufzeit beträgt 12 Monate und ist anschließend monatlich kündbar.

Dabei sollten aber ebenfalls nicht die Kosten für die Internetverbindung zur Anbindung der Box vernachlässigt werden. Mit einer Standard DSL-Leitung ist der Zugriff von Aussen sowie das Backup in das Protonet RZ auf Grund der Uploadgeschwindigkeit nicht performant zu lösen. Das kann allerdings nur ein Test zeigen.

Fazit

Die Lösung ist wirklich interessant und der Markt ist definitiv da. Vor allem im Datenschutz sensiblen Deutschland. Allerdings würde ich auf die lokale Komponente vollständig verzichten und Protonet als echten Cloud Service anbieten. Über eine Virtual Private Cloud kann bspw. ein ebenso hohes Datenschutzniveau erreicht werden, siehe z.B. Anbieter wie T-Systems.

Update: Der Name dieses Beitrags war ursprünglich: „Protonet – Die Private Cloud für das SoHo?“. Um die eigentliche Aussagekraft des Inhalts hervorzuheben, wurde der Name auf den Aktuellen angepasst.


Bildquelle: http://www.flickr.com/photos/jankrutisch, http://dennisreimann.de

Kategorien
News

Cloudwurm: Amazon Web Services und Rackspace Images sind anfällig für Windows RDP Exploit

Wie sicher sind Cloud Server wirklich? Diese Frage stellt The Hacker News und berichtet von einem RDP Windows Exploit (MS12-020), von dem scheinbar Windows Images der Amazon und Rackspace Cloud betroffen sind.

Tests mit dem Nmap NSE Script „rdp-ms12-020.nse“ haben demnach ergeben, dass alle Rackspace Cloud Images davon standardmäßig betroffen sind. Auf Amazon EC2 sind aktuell alle ungepatchten Windows AMIs und EBS Images vor der Version „2012.03.13“ betroffen, die über die AWS Management Konsole mit den Standard Firewall-Regeln gestartet werden.

Laut The Hacker News haben die Cloud Anbieter zwar Schritte unternommen, um dem MS12-020 Exploit entgegenzuwirken, jedoch soll das nicht ausreichen, um die Kunden zu schützen, was daran liegen soll, dass AWS als auch Rackspace auf Grund ihrer Standard-Sicherheitseinstellungen an dieser Stelle Lücken aufweisen.

So verfügt Amazon EC2 über eine globale Standard „allow RDP“ Firewall-Regel (Port 3389) für alle Kunden, die ihre EC2 Instanzen über die AWS Management Konsole starten. Rackspace hingegen hat für alle seine Cloud Server ein ungesichertes Servicenetz – ein LAN, dass mit keiner Firewall geschützt wird.

Wenn ein weiterer Exploit nun den MS12-020 Exploit ausnutzen würden, könnte es dazu kommen, dass sich die Sicherheitslücke über eine Vielzahl von Servern in der Cloud verteilt.

Nutzer können sich selbst dagegen schützen, indem sie ihre Cloud Server patchen und darauf achten die RDP Firewall-Regeln sicher zu gestalten und alle nicht notwendigen Ports schließen.


Weiterführende Links


Bildquelle: thehackernews.com, ibnlive.in.com

Kategorien
News

Dell plant Desktop-as-a-Service Angebot in der Cloud

Dell wird seine Angebote rund um das Thema Virtual Desktop erweitern und per Desktop-as-a-Service (DaaS) in die Cloud verlagern. Dabei arbeitet Dell mit Desktone zusammen, die bereits seiner längerer Zeit ein eigenes DaaS Angebot im Markt haben. Die Lösung soll noch im ersten Quartal 2012 fertig sein. Preise wurden hingegen noch nicht genannt.

Desktop-as-a-Service gibt den Mitarbeitern mehr Freiheiten in Bezug auf ihren Arbeitsort.

Das Desktop-as-a-Service Angebot soll Dells on-Premise Virtual Desktops Lösungen erweitern und für Unternehmen jeder größer verfügbar sein.

Virtuelle Desktops haben für Unternehmen grundsätzlich den Vorteil, eine Vielzahl von Rechnerinstanzen an einer zentralen Stelle zu verwalten und zudem neue Desktops schneller auszurollen und so z.B. auf saisonale und personelle Einflüsse zu reagieren.

Bei Dells DaaS Konzept handelt es sich um ein Cloud basiertes Model, bei dem sich die Infrastruktur in den Rechenzentren von Dell befindet. Der Zugriff durch den Anwender erfolgt über eine Software von Desktone. Der Cloud Desktop unterstützt Windows und Linux als Betriebssystem und kann mit unterschiedlichen Endgeräten wie klassischen Desktops, Laptops, Tablets und auch Smartphones genutzt werden.


Bildquelle: http://www.companycloud.de, http://alchemysys.net

Kategorien
News

Google Drive mit 5 GB kostenlosen Speicherplatz

Nach ersten Gerüchten, dass Google Drive im April mit 1 GB kostenlosen Speicherplatz erscheinen wird, sind auf Talk Android nun neue Informationen und ein Screenshot veröffentlicht worden.

Google Drive wird 5 GB kostenlosen Speicherplatz bereitstellen

Hingegen der ersten Gerüchte, dass Google Drive nur 1 GB kostenlosen Speicher anbietet, zeigt ein Screenshot (siehe oben) auf dem Android Blog, dass Nutzer sich anscheinend auf 5 GB kostenlosen Speicher freuen können, welchen Sie gegen eine Gebühr erweitern können. Zudem zeigt der Screenshot die Ankündigung, dass man durch das Speichern seiner Daten in Google Drive über unterschiedliche Endgeräte wie Smartphones, Tablets, Desktop Rechner oder auch über die Seite drive.google.com darauf zugreifen kann.

5 GB kostenloser Speicher sind nun keine Sensation, dennoch wären 1 GB im Vergleich zum Mitbewerb deutlich zu wenig gewesen. So bietet Dropbox 2 GB und Box ebenfalls 5 GB kostenlosen Speicher.

Kategorien
Analysen

Eine Analyse der Microsoft Windows Azure Plattform

Neben Platform-as-a-Services wie Cloud Foundry, Force.com, Google App Engine oder Red Hat OpenShift sollte man einen Service nicht vergessen: Windows Azure. Microsoft verfügt historisch bedingt über eine weltweit riesige Entwicklergemeinde, die nicht unterschätzt werden sollte. Die Microsoft Windows Azure Plattform wurde 2008 angekündigt und 2010 veröffentlicht. Seitdem hat Microsoft sein PaaS Angebot stetig um neue Funktionen erweitert.

Die Windows Azure Referenzarchitektur

Die Windows Azure Plattform wurde speziell für Entwickler konzipiert, um Anwendungen auf Basis von Microsoft Technologien wie bspw. .NET zu entwickeln. Dennoch können auch Java, PHP oder Node.js Entwickler die Umgebung für ihre Zwecke nutzen. Dazu bietet Microsoft ausreichend Tools und Plugins für Eclipse und anderer bekannter Entwicklungsumgebungen, um dieses zu ermöglichen.

Zunächst werden die einzelnen Komponenten der Windows Azure Platform betrachtet. Im Anschluss folgen dann ein paar Szenarien, wofür Azure genutzt werden kann.

Windows Azure

Bei Windows Azure handelt es sich um Herz und Seele der gesamten Azure Plattform. Es ist das Betriebssystem, dass auf jedem Server innerhalb der weltweit verteilten Rechenzentren der Azure Cloud läuft. Anders als die anderen Windows Versionen kann Windows Azure nicht käuflich erworben werden und ist speziell auf die Bedürfnisse der Cloud Infrastrukturen von Microsoft abgestimmt. Windows Azure abstrahiert dabei die darunterliegende Hardware und suggeriert somit, dass es sich dabei um lediglich eine Instanz des Betriebssystems handelt. Da das Betriebssystem über mehrere physikalische Server hinweg operiert, sorgt eine spezielle Schicht für die Koordination und Ausführung der jeweiligen Prozesse. Diese Schicht wird auch Fabric bezeichnet. Zwischen der Fabric und dem Windows Azure Betriebssystem befinden sich die virtuellen Maschinen (VM), auf denen der eigentliche Quellcode und die Anwendungen ausgeführt werden. Entwickler sehen jedoch nur zwei Services dieses Stacks, Windows Azure Compute und Windows Azure Storage.

Windows Azure Compute

Windows Azure Compute wird bspw. genutzt, wenn eine Anwendung auf Windows Azure ausgerollt werden soll. Dazu werden Anwendungen in drei möglichen Rollen ausgeführt, Web Role, Worker Role oder VM Role. Die Web Role wird genutzt um typische ASP.NET Web Anwendungen oder jede andere Art von CGI Web Anwendungen zu betreiben. Die Worker Role wird benötigt um langlaufende Prozesse, die über keine Benutzeroberfläche verfügen, auszuführen. Eine Web Role könnte in diesem Zusammenhang z.B. ein IIS Container und eine Worker Role ein Windows Service sein. Beide können auf mehreren Wegen miteinander kommunizieren, wobei der Quellcode innerhalb der Worker Role jedoch unabhängig von der Web Role läuft. Über die Worker Role können dann sowohl .NET Anwendungen als auch native COM Anwendungen auf Windows Azure portiert werden. Über die Worker Role unterstützt Windows Azure zudem Microsoft fremde Umgebungen wie PHP, Java und Node.js. Die VM Role ermöglicht es schlussendlich, Anwendungen innerhalb eines angepassten Windows Server 2008 Image auszuführen. Damit sind Unternehmen in der Lage Anwendungen auf Windows Azure zu portieren, die z.B. Abhängigkeiten zu Komponenten von Drittanbietern haben.

Windows Azure Storage

Um eine Anwendung ausführen zu lassen wird auf jedenfall Speicherplatz für die Konfiguration und weiterer Daten benötigt. Windows Azure Storage bietet hier drei unterschiedliche Möglichkeiten: Blobs, Tables und Queues.

Blobs sind dafür geeignet, um große binäre Objekte wie Bilder und Videos, Dokumente usw. zu speichern. Tables bietet einen skalierbaren Key/ Value basierten Speicher. Queues werden genutzt, um Nachrichten zuverlässig zwischen einzelnen Anwendungen zu übertragen. Daher sind Queues die beste Lösung, um eine Web Role und Worker Role miteinander kommunizieren zu lassen. Der Zugriff auf die Daten in Windows Azure Storage erfolgt per HTTP und REST.

Windows Azure Service Bus

Der Windows Azure Service Bus sorgt für eine nahtlose Integration von Services die sich innerhalb eines Unternehmens hinter einer Firewall und einem Service in der Cloud befinden. Damit wird quasi eine sicherer Brücke zwischen den klassischen on-Premise Anwendungen im Unternehmen und den Cloud Services hergestellt. Dazu werden die Services die sich hinter der Firewall oder dem NAT befinden bei dem Service Bus registriert, wodurch ein Cloud Service diese anschließend aufrufen kann. Der Service Bus abstrahiert den physikalischen Ort des Service, indem er eine URI bereitstellt, die jeder für den Aufruf nutzen kann.

Access Control Service

Bei dem Access Control Service handelt es sich um einen Mechanismus, der für die Absicherung der Cloud Services und Anwendungen genutzt wird. Dazu können auf eine sehr deklarative Art und Weise Regeln definiert werden, mit denen bestimmt wird, wie ein Cloud Service aufgerufen werden darf. Dabei werden eine Vielfalt von unterschiedlichen Identity-Management Infrastrukturen unterstützt. Der Access Control Service ermöglicht es bspw. Unternehmen ihre on-Premise Sicherheitsmechanismen der Active Directory mit den Cloud basierten Authentifizierung zu integrieren.

Windows Azure Caching

Windows Azure Caching stellt Anwendungen, die auf Windows Azure gehosted werden, einen In-Memory Caching Service zur Verfügung. Dieser vermeidet die Schreib/- und Lesezugriffe auf die Festplatte und ermöglicht den Anwendungen einen schnellen Zugriff auf die Daten aus einem High-Speed Cache. Der Cache kann mehrere Arten von Daten speichern, darunter XML, Binärdaten oder serialisierte CLR Objekte. Web Anwendungen die häufig nur lesende Zugriffe benötigen, können den Cache nutzen, um die Geschwindigkeit zu erhöhen.

SQL Azure

SQL Azure ist der Microsoft SQL Server in der Cloud. Anders als Azure Storage, das für das Speichern von unstrukturierten Daten genutzt wird, handelt es sich bei SQL Azure um eine vollständige Relationale Datenbank Engine. Sie basiert auf der selben Datenbank Engine wie der MS SQL Server und kann per T-SQL abgefragt werden. Auf Grund der Nähe zu MS SQL können on-Premise Anwendungen ohne weiteres auf SQL Azure zurückgreifen. Entwickler können mit ADO.NET oder ODBC API auf SQL Azure zugreifen. PHP Entwickler nutzen dazu die PHP API. Mit Microsoft SQL Azure Data Sync können Daten zwischen dem on-Premise SQL Server und SQL Azure synchronisiert werden. Dabei handelt es sich um eine sehr mächtige Funktion, um Datenknoten innerhalb der Cloud aufzubauen, die ständig mit den lokalen on-Premise Datenbanken synchronisiert werden. SQL Azure kann zudem exakt so behandelt werden wie ein gewöhnlicher Datenbank Server im eigenen Rechenzentrum. Da Microsoft hier allerdings für die Installation, Wartung und Verfügbarkeit des Datenbank Service zuständig ist, können sich Unternehmen darauf konzentrieren, den Service einfach nur zu nutzen.

Nun folgen ein paar Szenarien, die Ideal für die Nutzung der Microsoft Windows Azure Plattform sind.

Skalierbare Web Anwendungen

Da die Windows Azure Plattform auf den bekannten .NET und ASP.NET Plattformen basiert, ist es für Entwickler dieser Technologien einfach zu wechseln und Web Anwendungen kostengünstig auf Windows Azure zu betreiben. Damit erhalten Sie die Möglichkeit die Skalierbarkeit ihrer Web Anwendungen deutlich zu erhöhen ohne sich Gedanken über die dafür
notwendige Infrastruktur zu machen. Selbst PHP, Java oder Node.js Entwickler können von Azure profitieren.

Rechenintensive Anwendungen

Die Windows Azure Plattform kann für sehr prozess- und rechenintensive Anwendungen genutzt werden die gelegentlich eine große Menge an Rechenressourcen benötigen. Durch die Nutzung der Worker Role können Entwickler ihren Quellcode über mehrere Instanzen parallel ausführen lassen. Die entweder durch die Web Role oder der on-Premise Anwendung generierten Daten können anschließend der Worker Role via Azure Storage zugeteilt werden.

Zentraler Zugriff auf Daten

Wenn Daten für eine Vielzahl von Anwendungen, den Zugriff durch mehrere Browser, Computer und mobile Endgeräte zugänglich gemacht werden sollen, macht es Sinn, diese an einem zentralen Ort zu speichern. Windows Azure Storage ist hier eine gute Lösung, um Daten zentral zu speichern und zu pflegen sowie Desktop Anwendungen, Silverlight, Flash und AJAX basierten Web Anwendungen oder mobilen Applikationen bereitzustellen.

Hybride Anwendungen – verteilt in der Cloud und on-Premise

Es kann Bedingungen für die Erweiterung eines Teils einer Anwendung für die Cloud oder den Aufbau einer Cloud-Oberfläche für eine bestehende Anwendung geben. Durch die Nutzung des Service Bus und Access Control können on-Premise Anwendungen nathlos und sicher um bzw. in die Cloud erweitert werden. Dazu kann der Service Bus sowie eine weitere Technologie – Azure Direct Connect – dabei helfen, ein hybrides Cloud Szenario aufzubauen.

Cloud basierte Datenknoten

Mit Hilfe von SQL Azure können Unternehmen Datenknoten aufbauen, die den Zugriff durch externe Partner oder mobile Mitarbeiter ermöglichen. So könnte bspw. ein Unternehmen einen Teil seiner Daten in der Cloud bereitstellen, die ständig mit der lokalen Datenbank synchronisiert werden. Die Datenbank in der Cloud wird dann für B2B Partner für Abfragen und Bestellungen geöffnet. Hier helfen SQL Azure und SQL Azure Data Sync bei der Umsetzung so eines Szenarios.

Kategorien
News

Die Amazon Web Services hosten Katalog für Humangenetik in der Cloud

Die Amazon Web Services (AWS) und das U.S. National Institutes of Health (NIH) haben die komplette Datenbank des 1000 Genomes Project als Public Data Set in die Amazon Cloud migriert. Damit haben Wissenschaftler nun ständigen Zugang zu 200 Terabyte an genetischen Daten zur Erforschung von Krankheiten. Ein weiterer idealer Anwendungsfall für Cloud Computing und Big Data.

Die Kooperation, die offiziell während des White House Big Data Summit angekündigt wurde, ermöglicht es Wissenschaftlern kostenlos auf die weltweit größte Sammlung von Daten zur Humangenetik zuzugreifen Bei dem 1000 Genomes Project handelt es sich um ein internationales Forschungsprojekt, das von einem Konsortium bestehend aus 75 Unternehmen und Organisationen koordiniert wird. Das Ziel des Projekts ist die Erstellung des detailreichsten Katalogs von genetischen Variationen bei Menschen.

Dazu hat das Projekt bereits 200 Terabyte an genetischen Daten inkl. DNS Sequenzen von mehr als 1.700 Personen gesammelt, auf die Wissenschaftler nun kostenlos über die AWS Cloud zugreifen können. Das Projekt verfolgt das Ziel die Gene von weltweit über 2.600 Individuen aus 26 Bevölkerungen bereitzustellen. Das 1000 Genomes Project startete 2008 mit ein paar Terabytes an Daten in seine Pilotphase. Bereits 2010 wurde ein kleiner Teil als Public Data Set auf AWS veröffentlicht.

Bei den Amazon Public Data Sets handelt es sich um ein öffentliches zentrales Repository von unterschiedlichen Daten, die auf Amazon S3 und Amazon EBS gespeichert sind. Auf diese Daten kann direkt zugegriffen werden, z.B. über Amazon EC2 oder Amazon EMR (Elastic MapReduce) ohne diese großen Datenmengen auf lokale Server herunterzuladen.

Amazon hat neben dem 1000 Genomes Project ebenfalls Public Data Sets vom NASA Jet Propulsion Laboratory, Langone Medical Center an der New York University, Unilever, Numerate, Sage Bionetworks oder Ion Flux gespeichert.

Die Nutzung der Public Data Sets ist kostenlos. Kosten entstehen für die Verarbeitung der Daten auf der Amazon Cloud wie z.B. Amazon EC2.

In diesem Zusammenhang sehr interessant: Nach der Cloud, wird Amazon auch der Big Data Gigant?

Weiterführende Informationen


Bildquelle: http://www.ige3.unige.ch