Kategorien
News

T-Systems wird Gold Sponsor des CloudCamp Frankfurt 2012 und unterstreicht damit erneut sein Engagement in der Cloud

Das CloudCamp Frankfurt 2012 freut sich über seinen ersten Sponsor. Die Deutsche Telekom Tochter T-Systems wird die Un-Konferenz mit einem nicht unerheblichen Betrag finanziell unterstützen und somit die Durchführung am 24. Mai 2012 absichern.

T-Systems wird Gold Sponsor des CloudCamp Frankfurt 2012 und unterstreicht damit erneut sein Engagement in der Cloud

Im Vergleich zu anderen kommerziellen Veranstaltungen verfolgt das CloudCamp keine finanziellen Interessen. Es geht einzig und allein darum, das Thema Cloud Computing voranzutreiben und die Community zu fördern. Weiterhin steht auch das Generieren von sogenannten „Leads“ (Kundenkontakte) nicht im Vordergrund. „Das hat T-Systems eindrucksvoll verstanden. Beim CloudCamp geht es mehr als nur um das Geld verdienen und wir freuen uns über die große Unterstützung, um das CloudCamp damit durchführen zu können.“, sagt Roland Judas einer der beiden Organisatoren des CloudCamp Frankfurt 2012. Das Gold Sponsorship ist die größte Beteiligung, mit der ein Unternehmen das CloudCamp Frankfurt unterstützen kann.

T-Systems ist in der Cloud breit aufgestellt

Das Engagement der Bonner am CloudCamp Frankfurt 2012 unterstreicht erneut, dass das Unternehmen die Bedeutung des Cloud Computing verstanden hat. Mit einem sehr umfangreichen Portfolio ist T-Systems im stetig wachsenden Cloud Markt breit aufgestellt. Neben Beratungsdienstleistungen bietet das Unternehmen zudem eine Virtual Private Cloud, Lösungen für die Kollaboration in der Cloud sowie Unternehmensanwendung on Demand und die Unterstützung von mobilen Cloud Lösungen.

Alle Informationen zum CloudCamp Frankfurt 2012

Das Leitthema des diesjährigen CloudCamp Frankfurt lautet “Cloud Computing zwischen Social Business, Mobile Enterprise und Big Data” und beschreibt einen der wichtigsten Trends für 2012.

Es haben sich bereits viele national und international bekannte und anerkannte Experten angekündigt. Darunter:

  • Dr. Stefan Ried, Principal Analyst, Forrester Inc.
  • Matthias Rechenburg, CEO, openQRM Enterprise
  • Dr. Michael Pauly, Consultant, T-Systems International GmbH
  • Chris Boos, CEO, arago AG
  • Patric Boscolo, Developer Evangelist, Microsoft
  • Sascha Dittmann, Developer & Solution Architect, Ernst & Young GmbH
  • Björn Böttcher, CEO, GoingCloud UG

Das CloudCamp findet am Donnerstag, 24.05.2012 in der Brotfabrik Hausen, Bachmannstr. 2-4, D-60488 Frankfurt am Main statt. Einlass ist ab 17:00 Uhr.

Alle CloudCamp Interessierten sollten dem offiziellen Twitter Account @CloudCampFRA oder Fan auf Facebook werden bzw. den Twitter Accounts der Organisatoren @RolandJudas und @ReneBuest folgen, um über alle Neuigkeiten direkt informiert zu sein.

Die Anmeldung für das CloudCamp Frankfurt 2012 erfolgt über die Webseite http://cloudcamp.org/frankfurt bzw. über http://cloudcamp-frankfurt.eventbrite.com

Kategorien
News

Puppet unterstützt OpenStack

Die Open Source Cloud Konfigurations- und Management-Suite Puppet hat seine Software um zahlreiche Module erweitert, um auf OpenStack basierte Cloud Computing Umgebung damit steuern zu können. Damit erhält OpenStack nun endlich auch eine Benutzeroberfläche.

Puppet unterstützt OpenStack

Die neuen Modulen helfen Administratoren dabei, OpenStack Cloud Umgebungen automatisiert aufzubauen sowie diese zu überwachen und zu warten. Der primäre Zugriff auf OpenStack erfolgt über eine API, mit der die Steuerung vorgenommen wird. Graphische Benutzeroberflächen hingegen sind bisher zu kurz gekommen. Rackspace bietet eine graphische Oberfläche, allerdings nur für die Verwaltung von OpenStack Umgebungen die auf Rackspace selbst gehostet werden. Dell hat mit Crowbar kürzlich eine Konsole für den Zugriff auf die Grundfunktionen veröffentlicht.

Mit Puppet steht nun eine dritte Variante bereit. Die ersten verfügbaren Module decken dabei die grundlegenden Bereiche von OpenStack ab, also Compute, Object Store und Image Store. Puppets Funktionsumfang ist jedoch viel größer und kann neben dem Aufbau von OpenStack Umgebungen diese ebenfalls Überwachen und z.B. das Patch-Management übernehmen. Die Module selbst werden aktualisiert wenn Puppet ein Update erhält.

Die jeweiligen Module wurden von Puppet zusammen mit Cisco, Red Hat und den Cloud Service Anbietern Morphlabs und eNovance entwickelt. Unter PuppetForge, dem Puppet Repository, können bereits die ersten Module heruntergeladen werden. Diese bieten die Steuerung der Grundfunktionen von OpenStack. Weitere Module werden in den kommenden Monaten bereitgestellt.

Bei dem OpenStack Engagement handelt es sich allerdings nicht um die erste Kooperation. Es stehen bereits weitere Puppet Module zur Verfügung, mit denen Cloud Services auf Basis von VMware oder Amazon Web Services Umgebungen verwaltet werden können.

Kategorien
News

Microsoft veröffentlicht System Center 2012 zum Aufbau von Private Clouds

Ab sofort ist System Center 2012 von Microsoft verfügbar. Das hat Microsoft jetzt auf dem alljährlichen Management Summit, der Konferenz für System Management in Las Vegas (Nevada, USA), bekannt gegeben. Die Management-Lösung soll die Administration von IT-Infrastrukturen, sowohl in komplexen Rechenzentren als auch bei der Einbindung von Desktop-PCs und mobilen Endgeräten in die Unternehmens-IT vereinfachen. Zudem sind auch die Realisierung einer serviceorientierten Infrastruktur und der Aufbau von Private Clouds auf Basis von System Center möglich.
Eine weitere Neuheit des Management Summit: Das kommende Server-Betriebssystem, das bisher unter dem Codenamen Windows Server 8 bekannt ist, wird Windows Server 2012 heißen.

Microsoft veröffentlicht System Center 2012 zum Aufbau von Private Clouds

Das System Center 2012 unterstützt die Arbeit der IT-Administratoren in Bereichen wie Softwareverteilung, Inventarisierung, Patch Management, Monitoring, Datensicherung sowie Service Management und Prozessautomatisierung. Diese werden mit den acht Produkten der System Center-Familie integriert umgesetzt. Unternehmen steuern damit heterogene IT-Landschaften und können Private Clouds sehr einfach bereitstellen und verwalten.

System Center 2012 ist flexibel aufgebaut und bietet Unternehmen damit die Option, die Lösung an ihre spezifischen Bedürfnisse anzupassen: Anwender können sowohl virtuelle als auch physische Infrastrukturen, Applikationen und Lösungen verschiedener Anbieter verwalten und steuern – vorhandene IT-Landschaften und -Investitionen bleiben damit geschützt.

Rechenzentrumsressourcen lassen sich logisch zu einem sogenannten Pool zusammenfassen. Dadurch ergibt sich die Möglichkeit, die Infrastruktur als Service zu standardisieren und Rechenkapazitäten beispielsweise für spezifische Anforderungen einzelner Fachbereiche individuell zuzuteilen, zu verwalten und zu optimieren.

Auch die Benutzeroberfläche wurde mit der neuen Version von System Center 2012 optimiert. Die Management-Lösung verfügt nun über die gleiche Bedien- und Menüstruktur, die dem Anwender durch die Office-Anwendungen vertraut ist (Ribbon User Interface). Flexible Delegations- und Kontrollfunktionen vereinfachen die Verwaltung und Administration der IT über verschiedene Umgebungen hinweg.

Die acht System Center 2012 Module im Überblick

  • System Center Virtual Machine Manager 2012 ermöglicht die Verwaltung und Bereitstellung von virtuellen Maschinen auch in heterogenen Umgebungen für Private Cloud.
  • System Center Configuration Manager 2012 bietet eine umfassende Konfigurationsverwaltung für die Microsoft-Plattform und steigert die Kontrollierbarkeit unter Einhaltung von Corporate Compliance-Richtlinien.
  • System Center Endpoint Protection 2012 erkennt Bedrohungen wie Viren und Malware, basierend auf System Center Configuration Manager. Der Endgeräteschutz ist Teil der Endgeräteverwaltung, sodass Komplexität und Kosten reduziert werden.
  • System Center App Controller 2012 bietet eine gemeinsame Oberfläche über Private und Public Cloud-Infrastrukturen, mit der neue Dienste für Anwendungen einfach erstellt, konfiguriert, bereitgestellt und verwaltet werden können.
  • System Center Service Manager 2012 unterstützt flexible Self-Service-Modelle und ermöglicht die Standardisierung von Datacenter-Prozessen, die Benutzer, Workflows und Informationen über die Unternehmens-Infrastruktur und Anwendungen hinweg integrieren.
  • System Center Orchestrator 2012 orchestriert und integriert die Definition von Abläufen (sogenannte Runbooks), auch Prozesse werden automatisiert unterstützt.
  • System Center Operations Manager 2012 stellt eine Diagnose von Anwendungen und Infrastrukturüberwachung bereit, mit der Leistung und Verfügbarkeit wichtiger Anwendungen gewährleistet werden können. SCOM bietet zudem einen umfassenden Überblick über die Rechenzentren und Private oder Public Cloud-Infrastrukturen.
  • System Center Data Protection Manager 2012 ermöglicht die skalierbare, verwaltbare und kosteneffiziente Datensicherung und unterstützt unterschiedliche Sicherungssysteme wie Festplatte und Band für Windows Server und Clients.
Kategorien
News

Terremark startet Private Cloud Service

Terremark startet einen neuen Private Cloud Services, der es Unternehmen ermöglicht die Last via Cloud Bursting in Public Clouds inkl. den Amazon Web Services auszulagern. Der Service richtet sich in erster Linie an Branchen wie Finanzdienstleistungen oder Regierungsbehörden, die zwar an Cloud Services interessiert sind, aber Public Clouds nicht nutzen können bzw. dürfen.

Der Private Cloud Service wird auf der Infrastruktur von Terremark gehostet und stellt dem Nutzer dedizierte und skalierbare Rechenleistung und Speicherplatz bereit. Zudem kann die Last auf Public Clouds wie z.B. den Amazon Web Services ausgelagert werden.

In diesem Fall wird auch vom sogenannten Cloud Bursting gesprochen, wodurch sich automatisch eine Hybrid Cloud aufspannt. Zum Beispiel sind E-Commerce Anbieter zwar daran interessiert die Verarbeitung der Daten in einer Public Cloud vorzunehmen, die Daten selbst aber in der Private Cloud gespeichert werden sollen.

Die Terremark Cloud basiert auf einem VMware Hypervisor und beinhaltet weitere Technologien von Cisco, Citrix und weiteren Herstellern.


Bildquelle: http://www.cnmeonline.com

Kategorien
Services

OpenStack – Ein Überblick

OpenStack ist ein weltweites Gemeinschaftsprojekt von Entwicklern und Cloud Computing Spezialisten, die das Ziel verfolgen eine Open Source Plattform für den Aufbau von Public und Private Clouds zu entwickeln. Das Projekt wurde initial von der Nasa und Rackspace gegründet und will Anbietern von Cloud Infrastrukturen ein Werkzeug in die Hand geben, mit dem sie unterschiedliche Arten von Clouds ohne großen Aufwand auf Standard Hardwarekomponenten aufbauen und bereitstellen können.

Die Kernbereiche von OpenStack

Die Kernbereiche von OpenStack

Der gesamte OpenStack Quellcode ist frei verfügbar und unterliegt der Apache 2.0 Lizenz. Dadurch ist jeder in der Lage auf dieser Basis seine eigene Cloud zu entwickeln und ebenfalls Verbesserungen in das Projekt zurückfließen zu lassen. Der Open Source Ansatz des Projekts soll zudem die Entwicklung von Standards im Bereich des Cloud Computing weiter fördern, Kunden die Angst vor einem Vendor Lock-in nehmen und ein Ecosystem für Cloud Anbieter schaffen.

OpenStack besteht aus insgesamt fünf Kernkompenten. Bei OpenStack Compute, OpenStack Object Storage und OpenStack Image Service handelt es sich um die grundlegenden Kernbereiche, die von Beginn an zu dem Projekt gehören. Mit OpenStack Identity und OpenStack Dashboard wurden in dem Diablo Release zwei weitere Komponenten hinzugefügt, die ab der kommenden Essex Version fest in die Kernbereiche mit aufgenommen werden.

OpenStack Compute

OpenStack Compute dient dem Aufbau, Bereitstellen und Verwalten von großen Virtual Machine Clustern, um auf dieser Basis eine redundante und skalierbare Cloud Computing Plattform zu errichten. Dazu stellt OpenStack Compute diverse Kontrollfunktionen und APIs zur Verfügung, mit denen Instanzen ausgeführt und Netzwerke verwaltet werden sowie die Zugriffe der Nutzer auf die Ressourcen gesteuert werden können. OpenStack Compute unterstützt zudem eine große Anzahl von Hardwarekonfigurationen und sieben Hypervisor.

OpenStack Compute kann bspw. Anbietern dabei helfen Infrastructure Cloud Services bereitzustellen oder IT-Abteilungen ermöglichen ihren internen Kunden und Projekten Ressourcen bei Bedarf zur Verfügung zu stellen. Zudem können große Datenmengen (Big Data) mit Tools wie Hadoop verarbeitet werden oder Web Anwendungen entsprechend ihrer Ressourcenbedürnisse bedient werden.

OpenStack Object Storage

Mit OpenStack Object Storage können auf Basis von standardisierten Servern redundante und skalierbare Object Storage Cluster mit einer Größe von bis zu 1 Petabyte aufgebaut werden. Dabei handelt es sich nicht um ein Dateisystem und ist nicht für das Speichern von Echtzeitdaten ausgelegt, sondern für das langfristige Speichern von statischen Daten gedacht, die bei Bedarf abgerufen oder aktualisiert werden können. Gute Anwendungsbeispiele für OpenStack Object Storage sind das Speichern von Virtual Machine Images, Photos, E-Mails, Backupdaten oder Archivierung. Da der Object Storage dezentral verwaltet wird, verfügt er über eine hohe Skalierbarkeit, Redundanz und Beständigkeit der Daten.

Die OpenStack Software sorgt dafür, dass die Daten auf mehrere Speicherbereiche im Rechenzentrum geschrieben werden, um damit die Datenreplikation und Integrität innerhalb des Clusters sicherzustellen. Die Storage Cluster skalieren dabei horizontal, indem weitere Knoten bei Bedarf hinzugefügt werden. Sollte ein Knoten ausfallen, sorgt OpenStack dafür, dass die Daten von einem aktive Knoten repliziert werden.

OpenStack Object Storage kann von Anbietern genutzt werden, um einen eigenen Cloud Storage bereizustellen oder die Server Images von OpenStack Compute zu speichern. Weitere Anwendungsfälle wären Dokumentenspeicher, eine Back-End Lösung für Microsoft SharePoint, eine Archivierungsplattform für Logdateien oder für Daten mit langen Aufbewahrungsfristen oder einfach nur zum Speichern von Bildern für Webseiten.

OpenStack Image Service

Der OpenStack Image Service hilft bei der Suche, Registrierung und dem Bereitstellen von virtuellen Maschinen Images. Dazu bietet der Image Service eine API mit einer Standard REST Schnittstelle, mit der Informationen über das VM Image abgefragt werden können, welches in unterschiedlichen Back-Ends abgelegt sein kann, darunter OpenStack Object Storage. Clients können über den Service neue VM Images registrieren, Informationen über öffentlich verfügbare Images abfragen und über eine Bibliothek ebenfalls darauf zugreifen.

Der OpenStack Image Service unterstützt eine Vielzahl an VM Formaten für private und öffentliche Images, darunter Raw, Machine (kernel/ramdisk, z.B. AMI), VHD (Hyper-V), VDI (VirtualBox), qcow2 (Qemu/KVM), VMDK (VMWare) und OVF (VMWare).

OpenStack Identity

Der OpenStack Identity Service stellt eine zentrale Authentifizierung über alle OpenStack Projekte bereit und integriert sich in vorhandene Authentifizierungs-Systeme.

OpenStack Dashboard

Das OpenStack Dashboard ermöglicht Administratoren und Anwendern den Zugang und die Bereitstellung von Cloud-basierten Ressourcen durch ein Self-Service Portal.

Kategorien
Services

Protonet ist keine Private Cloud!

Auf der CeBIT bin ich dem Team von Protonet über den Weg gelaufen. Aufgefallen sind sie mir, da am Stand eine Private Cloud beworben wurde, im Zentrum jedoch eine kleine(!) orange Box stand. Cloudifizierung?

Das Startup aus Hamburg wirbt auf der Internetseite damit, die “ … soziale IT-Infrastruktur für kleine und mittelständische Unternehmen …“ zu sein. Diese Aussage passt recht gut, erinnert die Web-Oberfläche doch stark an Salesforce Chatter. Der Flyer der mir vorliegt preist Protonet zusätzlich als Private Cloud Lösung an.

Die Funktionen

Bei den grundlegenden Funktionen handelt es sich um eine Kollaborationslösung für kleine Teams. Wie bereits oben erwähnt, erinnert die Benutzeroberfläche ein wenig an Chatter bzw. an die typischen Timelines der sozialen Netzwerke. Kommuniziert wird ausschließlich über den Chat. Per Drag and Drop können zudem Dateien den Mitarbeitern zugänglich gemacht werden. Dazu werden diese sogenannten Channels zugeordnet, in denen die Rechtevergabe erfolgt. Der Chatverlauf eines Channels wird kontinuierlich und automatisch archiviert und kann über eine Volltextsuche durchsucht werden.

Die Box ist in erster Linie für die interne Zusammenarbeit gedacht. Jeder Mitarbeiter hat allerdings die Möglichkeit, seine Daten für den Zugriff über das Internet zugänglich zu machen (Publish to Web). Diese Funktion muss ebenfalls aktiviert sein, um den Remote Zugriff und das Hardware-Monitoring durch Protonet zu erlauben, Updates zu erhalten und Backups im Rechenzentrum von Protonet vorzunehmen.

Mit Cloud wenig zu tun! Aber Interessant.

Mit Cloud Computing, gar Private Cloud, hat die Lösung nichts zu tun. Selbst wenn die Box über ein RAID-Verbund von zwei Festplatten verfügt, kann hier auch nicht von einem Cloud Charakter gesprochen werden. Es fehlt die Hochverfügbarkeit der Infrastruktur. Was ist, wenn das Netzteil ausfällt oder gar ein Stromausfall auftritt? Was wenn die CPU oder Mainboard ein Problem haben oder das Betriebssystem? Ein aufgebohrtes NAS mit einer intelligenten Steuerung und sozialen Komponente für die Kollaboration trifft es besser.

Dennoch ist das Konzept mit der sozialen Infrastruktur sehr interessant, wäre als Public Cloud oder Virtual Private Cloud Service jedoch besser aufgehoben, als in so einer kleinen Box.

Auch wenn hier das Argument des Datenschutzes aufkommen sollte: „… it’s yours.“, die Daten werden in das Rechenzentrum von Protonet übertragen, um dort das Backup vorzunehmen. An dieser Stelle ist es dann nicht mehr direkt „… yours.“, auch wenn die Daten verschlüsselt werden. Keine Frage, das Backup ist sehr wichtig. Auf die kleine Box würde ich mich nicht alleine verlassen. Es stellt sich aber trotzdem die Frage, ob diese lokale Komponente sinnvoll ist, da sich die Daten dann eh schon im RZ befinden.

Denn, die Box kostet natürlich auch:

  • Monatlich 149 EUR (zzgl. MwSt.: 177,31 Euro)
  • plus eine einmalige Einrichtungsgebühr 599 Euro (zzgl. MwSt.:712,81 Euro)

Darin enthalten sind E-Mail Support, Software Updates mit neuen Features, Antivirenschutz, Hardwareüberwachung und Remotezugriff bei Problemen. Die Vertragslaufzeit beträgt 12 Monate und ist anschließend monatlich kündbar.

Dabei sollten aber ebenfalls nicht die Kosten für die Internetverbindung zur Anbindung der Box vernachlässigt werden. Mit einer Standard DSL-Leitung ist der Zugriff von Aussen sowie das Backup in das Protonet RZ auf Grund der Uploadgeschwindigkeit nicht performant zu lösen. Das kann allerdings nur ein Test zeigen.

Fazit

Die Lösung ist wirklich interessant und der Markt ist definitiv da. Vor allem im Datenschutz sensiblen Deutschland. Allerdings würde ich auf die lokale Komponente vollständig verzichten und Protonet als echten Cloud Service anbieten. Über eine Virtual Private Cloud kann bspw. ein ebenso hohes Datenschutzniveau erreicht werden, siehe z.B. Anbieter wie T-Systems.

Update: Der Name dieses Beitrags war ursprünglich: „Protonet – Die Private Cloud für das SoHo?“. Um die eigentliche Aussagekraft des Inhalts hervorzuheben, wurde der Name auf den Aktuellen angepasst.


Bildquelle: http://www.flickr.com/photos/jankrutisch, http://dennisreimann.de

Kategorien
Analysen

Red Hat OpenShift – Ein Blick hinter die Kulissen

Red Hat gehört zweifelsohne zu den bekannten Unternehmen die Plattformen in ihrem Portfolio haben. Zudem haben sie es geschafft das Open Source Konzept in ein rentables Business Model zu überführen. Mit der damaligen Akquisition von JBoss wurde der Weg in den lukrativen Markt der Middleware und Application-Server geebnet. In der Szene gilt der JBoss darüber hinaus zu den Entwickler freundlichen J2EE Application-Server.

RedHat: Von Open-Source zur Open-Cloud

Red Hats Cloud Strategie hat sich mit der Zeit entwickelt. Begonnen hat alles mit der klassischen Virtualisierung basierend auf KVM gefolgt von Red Hat MRG, mit dem Messaging-, Realtime- und Grid-Technologien für Unternehmen angeboten werden. Mit CloudForms erschien dann der erste vollständige IaaS Stack zum Aufbau einer Private Cloud, die im direkten Wettbewerb zu VMware und Microsoft Hyper-V steht. Somit hatet RedHat alle notwendigen Komponenten zusammen, um eine PaaS Angebot zu veröffentlichen: Virtualisierung auf Basis von KVM, Self Service und Private Cloud Möglichkeiten anhand von CloudForms sowie Application Services via JBoss.

Red Hat hat erkannt, dass wenn es im PaaS Bereich erfolgreich sein will, ein mehrsprachiges Angebot in den Markt bringen muss. Die Stärke von Red Hat besteht, unterstützt durch JBoss, in der Java EE Plattform. Durch die Akquisition von Makara wurde ein PaaS Anbieter gekauft, der sich auf PHP und Python Umgebungen spezialisiert hat. Ein kluger Schachzug, da Makara um Java EE erweitert werden konnte, um damit ein PaaS Angebot für Unternehmen anzubieten. Im May 2011 wurde mit OpenShift dann endgültig ein PaaS für Unternehmen veröffentlicht.

OpenShift gibt es in zwei unterschiedlichen Varianten: Express und Flex.

OpenShift Express ist ein kostenloses Angebot für Entwickler, dass zwar über keine graphische Managementoberfläche verfügt, aber eine Reihe von Sprachen wie Java, Perl, PHP, Python und Ruby unterstützt. Die Anwendungen werden in einer Shared-Umgebung betrieben und können über diverse Kommandozeilentools deployed werden. Die Möglichkeiten die einem Entwickler zur Verfügung stehen sind recht umfangreich. OpenShift Express unterstützt neben GIT Deployments eine gute Auswahl an Sprachen und Datenbanken.

OpenShift Flex läuft auf Amazon EC2 und benötigt die AWS Anmeldedaten, um Deployments von Anwendungen vorzunehmen. Während der 30 tägigen Probezeit werden die AWS Anmeldaten nicht benötigt und ermöglichen für diesen Zeitraum die kostenlosen Nutzung. OpenShift Flex ist für Unternehmen und Anwendungen mit einer Hochverfügbarkeit gedacht. Dazu werden neben dem JBoss Application Server ebenfalls der Apache Web Server, Apache Tomcat, MySQL, PHP, Zend Framework, Java, Memcached, Membase, Infinispan, MRG Messaging und MongoDB unterstützt. Die Architektur von OpenShift Flex wurde für Cloud Skeptiker entwickelt. Das bedeutet, das Flex technisch auf mehreren Public Cloud Anbietern und ebenfalls innerhalb eines eigenen Private PaaS eingesetzt werden kann.

Kategorien
News

Microsoft arbeitet an einer neuen Hosting Plattform für Web Applikationen

Unter dem Codenamen Antares arbeitet Microsoft anscheinend an einer neuen Hosting Plattform für Web Applikationen, das berichtet ZDNet als Reaktion auf einen Tweet und Aussagen von Microsoft Verantwortlichen während des Microsoft Hosting Summit 2012.

Microsofts Azure App Plattform Team, unter der Leitung von Corporate Vice President Scott Guthrie, arbeitet demnach an einem Hosting Framework für Web Anwendungen, das sowohl für Windows Azure als auch für Private Clouds eingesetzt werden kann. Der aktuelle Arbeitstitel lautet noch „Antares“, wurde in Tweets während des Microsoft Hosting Summits 2012 aber scheinbar als offizielles Microsoft Web Hosting Framework angekündigt.

ZDNet war der Codename „Antares“ bereits vor einiger Zeit in einer Stellenbeschreibung von Microsoft aufgefallen, in der von einem symmetrischen Azure und On-Premise Framework gesprochen wurde:

“The Antares team is changing the game by introducing a symmetrical Azure and on-prem hosting framework for many web applications created in many languages and stacks. We are poised to offer developers a quick and painless Azure onramp experience as well as enable our partner to quickly setup a fully managed, secure, multi-tenant hosting environment on public or private clouds. If this is intriguing, talk to us in the Azure Application Platform team. We are building the Microsoft Web Hosting Framework, a world class offering allowing for massive scale website lifecycle management on the Microsoft platform.”

Während des Summits sollen zudem eine Reihe von Tweets von Teilnehmern darauf hinweisen, dass die neuen Produkte wie Windows Server 8 und System Center 2012 auf die Nutzung in Public und Private Cloud Umgebungen ausgelegt sind. Dabei soll es sich um offizielle Aussagen Seitens Microsoft handeln.

Darüber hinaus gab Microsofts Chief Marketing Officer Chris Capossela eine Liste mit aktuellen Herausforderungen für Microsoft bekannt:

  1. cloud
  2. new hardware
  3. natural interface
  4. enterprise and consumer
  5. first party
  6. Windows

Bildquelle: http://zdnet.com

Kategorien
News

Morphlabs veröffentlicht erste auf SSD basierende Private Cloud

Morphlabs scheint die Performance Erwartungen von Netflix schneller erfüllen zu können als Amazon. Zumindest hat das Unternehmen heute die weltweit erste Solid-State Drive (SSD) Private Cloud Plattform vorgestellt.

Morphlabs veröffentlicht erste auf SSD basierende Virtual Private Cloud

Morphlabs mCloud ist auf SSD ausgelegt.

Mit der neuen mCloud Data Center Unit (DCU) veröffentlicht Morphlabs eine auf SSD skalierende Private Cloud. Diese kann entweder als Virtual Private Cloud von einem Web-Hoster oder Service-Provider angeboten werden und Unternehmen somit den Service bieten, zwar eine Private Cloud zu nutzen, aber nicht in die dafür notwendige Hardware bzw. Infrastruktur zu investieren. Die mCloud kann aber ebenfalls in das unternehmenseigene Rechenzentrum integriert und dort als echte Private Cloud eingesetzt werden.

Auf Grund der SSD Architektur verspricht Morphlabs 10-mal schnellere Input/ Output-Operationen pro Sekunde. Ob das zutrifft müssen jedoch erst unabhängige Tests, wie der von Nasuni beweisen. Der Speicherhersteller hatte erst kürzlich die Datentransferraten zwischen Amazon, Azure und Rackspace gemessen.

Kategorien
News

Amazon und Eucalyptus kooperieren – Gemeinsame Allianz gegen OpenStack?

Die Amazon Web Services und der Private Cloud Infrastruktur-Software Anbieter Eucalyptus werden in Zukunft enger zusammenarbeiten, um die Migration von Daten zwischen der Amazon Cloud und Private Clouds besser zu unterstützen.

Amazon und Eucalyptus kooperieren - Gemeinsame Allianz gegen OpenStack?

Amazon und Eucalyptus kooperieren.

Dabei wird die Kooperation unterschiedlich aufgebaut sein. Zunächst sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen.

Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.


Das sieht ganz nach einer Allianz gegen OpenStack aus! Schaut man sich die jüngsten Ankündigungen bzgl. OpenStack an – siehe unten – wäre das von Amazon als auch Eucalyptus ein kluger Schachzug, zumal sich die Eucalyptus Infrastruktur sehr nah an den Basisfunktionen der Amazon Web Services orientiert.

Zudem kann der von Amazon immer wieder geförderte Ansatz der Hybrid Cloud damit verbessert werden. Was sicherlich auch im Hinblick auf das Thema Big Data und der damit verbundenen Verarbeitung großer Datenmengen in der Amazon Cloud für die Amazon Web Services von großem Nutzen sein wird. Nach dem Motto: „Bigger is Better“ bzw. „Data without Limits“.


Bildquelle: http://www.search-internetmarketing.com/, http://www.techweekeurope.co.uk