Kategorien
Insights

INSIGHTS: fortrabbit veröffentlicht PaaS für PHP-Profis

Mit fortrabbit startet der zweite Platform-as-a-Service (PaaS) aus Deutschland, genauer aus Berlin. Die drei Gründer kommen aus der PHP Szene und konzentrieren sich mit ihrem Angebot auf professionelle beziehungsweise fortgeschrittene PHP Entwickler. Auf Grund der eigenen Expertise ermöglichen sie Profi PHP-Entwicklern mehr Freiheiten im Umgang mit der Programmiersprache. Zu erwähnen ist, dass fortrabbit vollständig mit privaten Mitteln (bootstrapped) geründet wurde, ohne die Hilfe von Venture Capital.

INSIGHTS: cloudControl wird zum multi-language Platform-as-a-Service

Die fortrabbit Plattform

fortrabbit selbst gibt es schon seit ein paar Jahren. Eine erste Version des selbst entwickelten PaaS lief in einer ersten Version auf eigenen Servern in einem Berliner Rechenzentrum. Um das Angebot für die Masse zu skalieren, erfolgte der Wechsel auf die Infrastruktur der Amazon Web Services (AWS), genauer in die Region Irland. Wobei die benötigten Instanzen und der Storage auf zwei Availibilty Zones verteilt ist. Für den Wechsel auf AWS wurde die PaaS-Software vollständig neu geschrieben und den Bedingungen auf der Amazon Infrastruktur angepasst.

Zielkunden von fortrabbit sind in erster Linie fortgeschrittene PHP-Entwickler, die sich bereits gut auskennen und mehr Freiheiten beim Umgang mit der Programmiersprache benötigen. Als Zielmarkt wurde zunächst Europa festgelegt, wobei eine Expansion, genau wie ein eigenes Partnernetzwerk nicht ausgeschlossen sind.

PHP Renaissance

Die eigene PHP-Expertise, aber auch die eigenen Anforderungen an einen Profi-PHP PaaS, haben fortrabbit dazu bewegt, den Entwicklern mehr Freiheiten auf ihrer Plattform zu geben. Dazu bietet der auf PHP 5.4 und LAMP basierende PaaS eine tiefere Unterstützung, die andere PaaS-Angebote in dieser Form nicht ermöglichen. Dazu gehören Funktionen wie einen beschreibbaren Speicher (native writeable storage), SFTP, Domain-Routing, SSL, SSH-Zugriff (keine Root-Rechte aber u.a. wget und Zugriff auf Error Logs) und Monitoring-Funktionen (Status der Applikation, PHP-Requests, Cache Hits, Miss, inkl. graphischer Darstellung). Hinzu kommt mit dem Composer ein Package Management für PHP, das dafür sorgt, das sämtliche Abhängigkeiten (Dependency Manager) serverseitig erfüllt werden.

INSIGHTS


Im ersten Moment ist die Frage gerechtfertigt ob der Markt noch einen weiteren PaaS benötigt. Mit der Google App Engine, AppFog, Cloud Foundry, Heroku, Engine Yard, OpenShift, Stackato, Windows Azure oder auch cloudControl existieren bereits viele, mittlerweile etablierte PaaS. Dennoch müssen hier zwei Dinge beachtet werden. PaaS hat das schnellste Wachstum von allen Services in der Cloud. Alleine für den Bereich der reinen Anwendungsentwicklung, in dem sich fortrabbit bewegt, sind jährliche Wachstumsraten von 22% zu erwarten. Darüber hinaus hat fortrabbit ein sehr spezielles Angebot, was sich auf eine bestimmte Zielgruppe fokussiert. Wo andere PaaS-Anbieter sich zu einem Polyglot entwickeln, also mehrere Programmiersprachen parallel unterstützen, konzentriert sich fortrabbit auf seine eigenen Stärken und diese liegen im Bereich PHP.

Der Service adressiert fortgeschrittene beziehungsweise professionelle PHP-Entwickler, die mehr Freiheiten bei der Konfiguration ihrer Umgebung benötigen. Hier wird die eigene PHP-Erfahrung fortrabbit einen Vorteil gegenüber anderen PaaS bieten, um den Service mit weiteren Mehrwerten auszubauen.

Download

Der INSIGHTS Bericht kann ebenfalls unter „fortrabbit veröffentlicht PaaS für PHP-Profis“ betrachtet und als PDF heruntergeladen werden.


INSIGHTS analysiert und kommentiert aktuelle Meldungen und Ereignisse von Anbietern. Sie sind auch an der Publikation von INSIGHTS Berichten interessiert, dann finden Sie hier weitere Informationen.

Kategorien
Management

Professionelle Open-Source Lösungen für die eigene Cloud

Ich hatte vor längerer Zeit in dem Artikel „Die eigene Cloud bauen mit… – CloudWashing par excellence!“ die leichtfertige Aussage eines Journalisten kritisiert, dass man auf einfache Weise eine eigene Cloud Umgebung aufbauen kann. Das dem so nicht ist und worauf zu achten ist, habe ich in dem Artikel ebenfalls erläutert. Dennoch existieren natürlich Lösungen, die dabei helfen, eine eigene Cloud aufzubauen. Tatsächlich gibt es derzeit aber nur fünf Open-Source Lösungen, die für den professionellen Aufbau von Cloud Computing Umgebungen eingesetzt werden sollten. Dazu gehören openQRM, Eucalyptus, OpenStack, CloudStack und OpenNebula.

Grundlegendes! Bitte lesen!

Viele Unternehmen entscheiden sich vermehrt für den Aufbau einer eigenen (Private) Cloud, um die Kontrolle über Ressourcen, Daten, Sicherheit usw. zu behalten. Richtig ist, dass eine eigene Cloud die Agilität eines Unternehmens verbessert und die Systeme bis zu einem gewissen Grad skalieren können. Allerdings sollte sich ein Unternehmen immer bewusst machen, das die Skalierbarkeit einer eigenen Cloud einem manuellen Prozess gleicht. Bei diesem muss in Echtzeit auf Ressourcenengpässe durch das eigene Personal reagiert werden, indem weitere Hardwarekomponenten in Form von Speicherplatz, Arbeitsspeicher oder Rechenleistung nachgerüstet werden. Für jede virtuelle Instanz wird schließlich auch die physikalische Hardware benötigt. Neben Hardware- und Softwareressourcen sind Tools zum Echtzeit-Monitoring der Umgebung daher unerlässlich.

Hardware, Hardware, Hardware

Eine eigene Cloud bedarf also Unmengen an physikalischen Ressourcen um den Wunsch nach Flexibilität und quasi unendlichen virtuellen Ressourcen zu befriedigen. Heißt im Umkehrschluß daher für Unternehmen mit einer eigenen Cloud: Investieren, das eigene Rechenzentrum umbauen und Cloud-fähig zu machen.

Es ist ein Irrglaube, wenn man denkt, dass der Aufbau einer eigenen Cloud impliziert, sich anschließend nicht mehr um die Hochverfügbarkeit der eigenen Infrastruktur (physikalische Maschinen, virtuelle Maschinen, Master-Slave-Replikation, Hot-Standby, etc.) kümmern zu müssen. Das macht dann ja schließlich die Cloud alleine.

Konfigurieren, Skripte, Intelligenz

Eine Cloud funktioniert nicht von alleine. Sie muss entwickelt und mit Intelligenz ausgestattet werden. Das gilt für den Aufbau einer Private Cloud genau so wie für die Nutzung eines Public Cloud Angebots (im Falle von IaaS). Dazu müssen Skripte geschrieben, womöglich Software neu entwickelt werden, die auf der Cloud verteilt läuft. Weiterhin ist es wichtig, die Whitepaper des Anbieter zu lesen, KnowHow(!) aufzubauen und zu verstehen, wie die Cloud arbeitet, um sie für die eigenen Bedürfnisse nutzen zu können. Eine weitere Möglichkeit besteht natürlich darin, sich (zusätzlich) von Profis beraten zu lassen. Das ist bei der Nutzung einer eigenen Cloud nicht anders. Wenn eine virtuelle Maschine A ein Problem hat, dann kann sie plötzlich nicht mehr erreichbar sein, wie jeder normale physikalische Server nun einmal auch. Nun könnte man denken: “Dann nehme ich als Backup für virtuelle Maschine A halt noch eine virtuelle Maschine B dazu!” Und dann? Man könnte nun denken, dass die virtuelle Maschine B automatisch die Aufgaben der virtuelle Maschine A übernimmt. So einfach ist das aber nicht! Skripte müssen vorab dafür sorgen, dass die virtuelle Maschine B die Aufgaben von virtuelle Maschine A übernehmen soll, wenn diese plötzlich nicht mehr erreichbar ist. Auch die virtuelle Maschine B muss dafür zunächst vorbereitet werden. Dazu kann z.B. der eigentliche (wichtige) Inhalt der virtuelle Maschine A inkl. aller Konfigurationen etc. in einem zentralen Speicher und nicht auf dem lokalen Speicher abgelegt werden. Anschließend muss ein Skript dafür sorgen, dass die virtuelle Maschine B automatisch mit den Konfigurationen und allen Daten aus dem lokalen Speicher hochgefahren wird, wenn die virtuelle Maschine A nicht mehr verfügbar ist.

Virtuelles Rechenzentrum

Die Cloud gibt uns im Bereich Infrastructure as a Service letztendlich nur die Möglichkeit, aus einem quasi unendlich großen Pool von Ressourcen die (unendliche) Anzahl an Ressourcen zu dem Zeitpunkt zu bekommen, wenn wir sie benötigen. Wir erhalten von der Cloud somit ein eigenes hochskalierbares virtuelles Rechenzentrum. Das bedeutet aber im Umkehrschluss für den Betreiber einer Cloud (Private, Public), dass er ebenfalls die Menge an physikalischen Ressourcen vorhalten muss, damit die angefragten virtuellen Ressourcen jederzeit bereitgestellt werden können und damit immer ausreichend Ressourcen für die Nutzer zur Verfügung stehen.


Open-Source Lösungen für den Aufbau einer eigenen Cloud


openQRM

openQRM ist eine Open Source Cloud Computing Plattform für die Verwaltung von Rechenzentren und skalierbaren IT-Infrastrukturen und ist aktuell in der Version 5.0 verfügbar. Mittels einer zentralen Managementkonsole kann die Administration von physikalischen Servern ebenso vorgenommen werden wie von virtuellen Maschinen, wodurch Rechenzentren voll automatisiert und höchst skalierbar betrieben werden können. Neben einer offenen API und einem SOAP Web Service für die nahtlose Integration der eigenen Geschäftsprozesse, unterstützt openQRM alle bekannten Virtualisierungstechnologien und bietet die Möglichkeit für transparente Migrationen von „P-to-V“, „V-to-P“ und „V-to-V“.

openQRM verfügt des Weiteren über ein integriertes Storage-Management, mit dem anhand des Snapshot-Verfahrens Serversysteme dupliziert werden können. Die Snapshots ermöglichen eine dynamische Anpassung des Speicherplatzes, bieten einen persistenten Cloud-Speicher und erlauben ein Backup/Restore der Server sowie deren Versionierung.

Mit der „N-zu-1“ Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Dabei spielt es keine Rolle, ob physikalische oder virtuelle Maschinen eingesetzt werden!

Benefits auf einem Blick

Virtualisierung

openQRM unterstützt alle gängigen Virtualisierungstechnologien darunter VMWare, Citrix XenServer und KVM und bietet die Möglichkeit der Migration von P-to-V-, V-to-P- und V-to-V für physikalische Server als auch virtuelle Maschinen.

Storage

openQRM verfügt über ein zentralisiertes Speichersystem mit integriertem Storage Management, welches alle bekannten Storage-Technologien unterstützt. Dazu gehören u.a. Netapp, Equallogic, NFS, iSCSI ZFS und proprietäre auf LVM basierende Storage-Typen, für eine flexible und schnelle Duplizierung von Serversystemen.

Zentrales Management

openQRM verschmilzt die Welt von Open Source mit der von kommerziellen Produkten. Mit einer zentralen Managementkonsole sind alle Funktionen zur Administration von Rechenzentren, System- und Service-Überwachung, Hochverfügbarkeit und automatisierter Bereitstellung vorhanden.

Funktionen

Hardware/Software Isolation

openQRM isoliert die Hardware (physikalische Server, virtuelle Maschinen) vollständig von der Software (Server Images). Dabei ist die eigentliche Hardware eine „Computing Resource“ und kann dadurch jederzeit durch eine andere Hardware ersetzt werden, ohne dass die Software (Server Image) neu konfiguriert werden muss.

Unterstützung für verschiedene Virtualisierungs-Technologien

Mit VMWare, Xen, KVM und dem Citrix XenServer unterstützt openQRM eine viehlzahl an virtuellen Maschinen und kann dieses transparent verwalten und migrieren. Neben der System-Migration von physikalischen Servern zu virtuellen Maschinen (P-to-V) können Systeme ebenfalls von virtuellen Maschinen zu physikalischen Servern (V-to-P) migriert werden. Darüber hinaus besteht die Möglichkeit ein System von einer Virtualisierungstechnologie zu einer anderen Virtualisierungstechnologie (V-to-V) zu verschieben.

Vollautomatische Nagios-Konfiguration

openQRM unterstützt die vollautomatische Konfiguration von Nagios mittels „nmap2nagios-ng“. Damit wird das gesamte openQRM Netzwerk analysiert und auf Basis der Informationen eine Nagios-Konfiguration erstellt. Anschließend werden alle Services auf allen Systemen überwacht.

Integriertes Storage-Management

openQRM organisiert die Serversysteme wie Dateien und nutzt zur Verwaltung moderne Storagesysteme anstatt lokaler Festplatten. Mittels Logical Volume Managern (LVM) und deren Snapshot-Verfahren können Server-Templates auf schnellen Wege dupliziert werden.

„Sollen z.B. 10 neue Server ausgerollt werden, kann so einfach ein bestehendes Server-Image 10 mal dupliziert und die „Clone“ direkt zum Deployment bereitgestellt werden.“

Mit diesem Konzept steht ein zentrales Backup/Restore sowie die Möglichkeit von Hot-Backups ohne Downtime zur Verfügung.

openQRM unterstützt folgende Storage-Typen:

  • NFS (NAS)
  • iSCSI (iSCSI SAN)
  • Aoe/Coraid (AOE SAN)
  • NetApp (iSCSI SAN)
  • Local-disk (Übertragung von Server-Images auf lokale Festplatten)
  • LVM-Nfs (NFS auf LVM2, erlaubt schnelles Cloning)
  • LVM-iSCSI (iSCSI auf LVM2, erlaubt schnelles Cloning)
  • LVM-Aoe (Aoe auf LVM2, erlaubt schnelles Cloning)
  • Equallogic (iSCSI SAN)
  • ZFS (iSCSI SAN)

Hochverfügbarkeit und „N-to-1“-Fail-Over!

Mit der „N-zu-1“ Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Unabhängig davon, ob physikalische oder virtuelle Maschinen eingesetzt werden.

„Um zum Beispiel 10 hochverfügbare Spezialsysteme zu betreiben benötigt man normalerweise weitere 10 „Stand-By“-Systeme. Mit openQRM jedoch benötigt man nur einen einzigen „Stand-By“-Server, der im Fehlerfall eines der 10 Spezialsysteme benutzt wird. Das heißt, man kann 9 „stromfressende“, nicht ausgelastete Server einsparen. Perfekt für „Green IT“.

Des Weiteren können physikalische Server virtuelle Maschinen als „Hot Stand-By“ nutzen und lassen sich im Notfall in eine virtuelle Maschine migrieren.

Fertige Server-Templates

Mittels dem „Image-Shelf“-Plugin stellt openQRM bereits fertige Server Templates zur Verfügung. Dazu gehören Linux Distributionen wie Debian, Ubuntu, CentOS und openSuse. Des Weiteren können mit dem Plugin eigene Server Templates auf unterschiedliche Weise (lokal, http, https, ftp) bereitgestellt werden.

Unterstützung verschiedenster Deployment-Methoden

Mit openQRM können Server von jeder Art von Storage gestartet werden. Zusätzlich können die Server Templates von einem Storage-Typ zu einem anderen übertragen werden, dabei kann noch entschieden werden, ob die Server Templates auf einem physikalischen Server oder in einer virtuellen Maschine gestartet werden sollen.

Unterstützung verschiedener OS-Distributionen

Es stehen bereits vor-konfigurierte openQRM-Server Pakete für Debian, Ubuntu und CentOS zur Verfügung. Ein openQRM-Server kann aber alle gängigen Linux Distributionen verwalten.

Cloud-Selector

Mit dem Cloud-Selector kann der Cloud Administrator seine Cloud Produkte wie z.B. Prozessoren, Speicher, Festplattengröße oder den Typ der virtuellen Maschine auswählen und deren Preise festlegen.

Kostenrechner im Cloud-Portal

Die Cloud-Computing-Unit (CCU) kann einer regulären Währung (z.b. USD oder Euro) zugewiesen werden. Mit dem Kostenrechner werden die stündlichen, täglichen und monatlichen verbrauchten Kosten für eine Cloud Appliance berechnet.

Private Cloud Images

Mit der „Private Cloud Image“-Funktion können Cloud Benutzer eigene Server Templates anlegen und verwalten.

Volle SSL-Unterstützung

Der openQRM-Server arbeitet in einem vollständig SSL-verschlüsselten Bereich und unterstützt verschiedene Serverarchitekturen wie i386 und x86_64.

Ich möchte hier noch anmerken, dass es sich bei der openQRM Enterprise um einen deutschen Anbieter aus dem Bereich des Cloud Computing handelt!


Eucalyptus

Beim Elastic Utility Computing Architecture for Linking Your Programs To Useful Systems (Eucalyptus) handelt es sich um eine Open Source Software Infrastruktur zum Aufbau von skalierbaren Utility Computing bzw. Cloud Computing Umgebungen für spezielle Clustersysteme oder einfachen miteinander verbundenen Arbeitsplatzrechnern.

Eucalyptus wurde als ein Forschungsprojekt am Computer Science department an der University of California Santa Barbara entwickelt und wird mittlerweile von der Eucalyptus Systems Inc. vermarktet. Die Software wird aber weiterhin als Open Source Projekt gepflegt und weiterentwickelt. Die Eucalyptus Systems Inc. bietet darüber hinaus lediglich weitere Dienstleitungen und Produkte sowie einen professionellen Support rund um Eucalyptus an.

Folgende Funktionen stellt Eucalyptus bereit:

  • Kompatibilität mit den Schnittstellen zu Amazon EC2 und S3 (SOAP und REST).
  • Unterstützung aller Virtual Machines die auf einem Xen Hypervisor oder einer KVM ausgeführt werden.
  • Administrationstools für die System- und Benutzerverwaltung.
  • Die Möglichkeit mehrere Cluster für eine Cloud zu konfigurieren, wobei jeder einzelne Cluster über eine private interne IP-Adresse verfügt.

Architektur

Eucalyptus besteht aus fünf zusammenarbeitenden Hauptkomponenten um den angeforderten Cloud Service bereit zu stellen. Die Kommunikation zwischen den Komponenten erfolgt über gesicherte SOAP Nachrichten mittels WS-Security.

Cloud Controller (CLC)

Der Cloud Controller dient innerhalb einer Eucalyptus Cloud als Hauptkomponente für die Verwaltung des gesamten Systems und stellt den Administratoren und Benutzern einen zentralen Zugriffspunkt bereit. Die Kommunikation aller Clients mit dem Eucalyptus System erfolgt ausschließlich nur über den Cloud Controller anhand der auf SOAP oder REST basierenden API. Der Cloud Controller ist dafür zuständig, alle Anfragen zu der richtigen Komponente weiterzuleiten, diese zu sammeln und die Antwort der Komponente anschließend wieder zu dem Client zurück zu senden. Der Cloud Controller ist somit die öffentliche Schnittstelle einer Eucalyptus Cloud.

Cluster Controller (CC)

Der Cluster Controller ist innerhalb des Eucalyptus Systems für die Verwaltung des virtuellen Netzwerks zuständig. Der Cloud Controller erhält alle Anfragen auf Basis seiner SOAP oder REST Schnittstellen. Der Cloud Controller erhält alle Informationen über die vorhandenen Node Controllers des Eucalyptus Systems und ist für die Kontrolle des Lebenszyklus jedes einzelnen verantwortlich. Er leitet alle Anfragen an die Node Controller mit verfügbaren Ressourcen weiter um damit virtuelle Instanzen zu starten.

Node Controller (NC)

Ein Node Controller steuert das Betriebssystem und den zugehörigen Hypervisor eines Rechners (Node) im Eucalyptus System. Auf jeder physikalischen Maschine die eine durch den Cluster Controller instantiierte virtuelle Instanz auf Grund einer Anfrage beherbergt, muss eine Instanz eines Node Controller vorhanden sein.

Walrus (W)

Walrus ist für die Zugriffsverwaltung auf den Speicherdienst innerhalb eines Eucalyptus Systems zuständig. Walrus erhält die Anfragen über seine SOAP oder REST Schnittstelle.

Storage Controller (SC)

Der Storage Controller verwaltet den Speicherdienst innerhalb eines Eucalyptus Systems und verfügt über eine Schnittstelle zu Amazon’s S3 Dienst. Der Storage Controller arbeit in Verbindung mit Walrus und wird für die Speicherung und den Zugriff auf die Images der Virtual Machines, die Kernel Images, die RAM Disk Images und die Daten der Benutzer verwendet. Die Images der Virtual Machines können rein privat oder öffentlich zugänglich gemacht werden und können dabei komprimiert und verschlüsselt gespeichert werden. Die Images werden lediglich entschlüsselt, wenn ein Node eine neue virtuelle Instanz starten muss und dazu einen Zugriff auf das Image benötigt.

Das Clustersystem

Ein Eucalyptus System vereint und verwaltet Ressourcen von Single-Cluster als auch Multi-Cluster Systemen. Dabei besteht ein Cluster aus einer Gruppe von Rechnern, die alle mit dem selben LAN verbunden sind. Zu jedem Cluster kann wiederum einer aber auch mehrere Node Controller gehören, die für die Verwaltung der Instantiierung und Beendigung der virtuellen Instanzen verantwortlich sind.

Ein Single-Cluster besteht aus mindestens zwei Maschinen. Auf dem einen werden der Cluster Controller, der Storage Controller und der Cloud Controller ausgeführt, auf dem anderen der Node Controller. Diese Art der Konfiguration ist vor allem für Experimente und schnelle Konfigurationen geeignet. Die dargestellte Konfiguration könnte ebenfalls auf einer einzigen Maschine implementiert werden. Allerdings ist dafür eine äußerst leistungsstarke Hardware notwendig!

Bei einem Multi-Cluster wird jede Komponente (CC, SC, NC, und CLC) auf einer separaten Maschine ausgeführt. Dies sollte die bevorzugte Art und Weise sein das Eucalyptus System zu konfigurieren, wenn damit ernsthaft gearbeitet werden soll. Mit einem Multi-Cluster kann zudem die Performance erhöht werden, indem einem Controller die passende Maschine zugewiesen wird. Zum Beispiel sollte der Cloud Controller auf einer Maschine mit einer schnellen CPU ausgeführt werden. Im Allgemeinen bringt die Entscheidung für einen Multi-Cluster eine höhere Verfügbarkeit, sowie eine bessere Lastverteilung und eine optimierte Verteilung der Ressourcen über alle Cluster. Das Clusterkonzept ist vergleichbar mit dem Konzept der Verfügbarkeitszonen der Amazon EC2. Dabei werden die Ressourcen über mehrere Verfügbarkeitszonen hinweg verteilt, damit ein Fehler in einer Zone nicht die Anwendung beeinträchtigt.

Eucalyptus und die Ubuntu Enterprise Cloud

Bei der Ubuntu Enterprise Cloud (UEC) handelt es sich um eine Open Source Initiative von Ubuntu, um auf eine einfachere Art und Weise skalierbare Cloud Infrastrukturen auf Basis von Eucalyptus bereitzustellen und diese zu konfigurieren.

Mit der Ubuntu Enterprise Cloud können Public Clouds erstellt werden, welche Amazon’s EC2 infrastructure nutzen. Es können damit aber genau so gut Private Clouds entwickelt werden, die auf der eigenen Infrastruktur im eigenen Rechenzentrum hinter der eigenen Firewall gehostet werden.

Vorteile von Eucalyptus

Bei Eucalyptus handelt es sich um eine Umgebung für Cloud Services, mit der Public Clouds auf Amazon’s EC2 Infrastruktur bzw. Private Clouds im hauseigenen Rechenzentrum erstellt werden können. Die grundlegenden Vorteile sollen hier noch einmal kurz aufgeführt werden:

  • Open Source und Entwicklung
    Eucalyptus wurde geschaffen, um die Kommunikation und Forschung von Cloud Computing Plattformen zu fördern. Der Quellcode ist frei verfügbar, was es ermöglicht die Plattform so zu erweitern, damit sie den eigenen Anforderungen entspricht. Eucalyptus wird zunehmend weiterentwickelt. Darüber hinaus ist die Aufnahme und Integration von Funktionswünschen und Verbesserungsvorschlägen sehr schnell.
  • Community
    Eucalyptus verfügt über eine große Community die gerne bereit ist einander zu helfen. Über die Foren kann schnell Kontakt zu anderen Benutzern aufgenommen und Hilfe bezogen werden.
  • Public Cloud
    Eucalyptus funktioniert einwandfrei auf Amazon’s EC2 Framework und kann damit als Public Cloud eingesetzt werden.
  • Private Cloud
    Eucalyptus kann auf der eigenen Infrastruktur im eigenen Rechenzentrum hinter der eigenen Firewall als Private Cloud eingesetzt werden. Dadurch ist die Kontrolle bzgl. der Sicherheit und der gesamten Umgebung in der eigenen Hand.
  • Portabilität
    Auf Grund der Kompatibilität von Eucalyptus mit Amazon’s EC2 API sowie der Flexibilität von Eucalyptus, können Anwendungen ohne großen Aufwand von einer Cloud in die andere migriert werden. Darüber hinaus besteht die Möglichkeit des Aufbaus von Hybrid Clouds, indem eine Private Cloud mit einer Public Cloud erweitert bzw. kombiniert wird.
  • Qualitativ durch Tests
    Durch den Einsatz von Eucalyptus in Ubuntu’s Enterprise Cloud findet tagtäglich ein weltweiter realer Test auf Basis von mehr als tausend Server-Instanzen statt.
  • Kommerzieller Support
    Neben den Foren der Eucalyptus Community kann natürlich auch auf einen kommerziellen Support zurückgegriffen werden.

Open Nebula

OpenNebula ist ein Open Source Virtual Infrastructure Manager mit dem aus vorhandenen Rechenzentren jede Art von Cloud Computing Umgebung aufgebaut und bereitgestellt werden kann. In erster Linie dient OpenNebula als Tool zur Verwaltung der virtualisierten Infrastruktur des eigenen Rechenzentrums bzw. der eigenen Cluster, also der eigenen Private Cloud.

Darüber hinaus ist OpenNebula in der Lage Hybrid Clouds aufzubauen, also die eigene lokale Infrastruktur mit einer Public Cloud Infrastruktur zu verbinden/kombinieren, um die Skalierbarkeit der eigenen Umgebung noch weiter zu erhöhen. OpenNebula verfügt zusätzlich über spezielle Schnittstellen für die Verwaltung von virtuellen Maschinen, Speicherplatz und des Netzwerks von Public Clouds.

Funktionen

Private Cloud Computing

  • Internal Interfaces for Administrators and Users
    Mit einer Unix ähnlichen Kommandozeile und einer XML-RPC API kann der Lebenszyklus der virtuellen Maschinen und physikalischen Server verwaltet werden. Weitere Administrationsmöglichkeiten bietet die libvirt API.
  • Steuerung
    Die Verwaltung der Arbeitslast und Zuweisung der Ressourcen kann nach bestimmten Regeln wie z.B. der aktuellen Auslastung automatisch vorgenommen werden. Des Weiteren wird der Haizea VM-based lease manager unterstützt
  • Virtualisierungsmanagement
    Es existieren Konnektoren für Xen, KVM und VMware, sowie einem generischen libvirt Konnektor für weitere Virtual Machine Manager. Die Unterstützung von Virtual Box ist in Planung.
  • Image Management
    Es sind Funktionen für den Transfer und das Clonen von Virtual Machine Images vorhanden.
  • Netzwerk Management
    Es lassen sich isolierte virtuelle Netze festlegen um virtuelle Maschinen miteinander zu verbinden.
  • Service Management
    Unterstützung von Multi Tier Services bestehend aus Gruppen von miteinander verbundenen virtuellen Maschinen und deren Auto Konfiguration während des Boot Vorgangs.
  • Sicherheit
    Die Verwaltung der Benutzer wird durch den Administrator der Infrastruktur vorgenommen.
  • Fehlertoleranz
    Eine persistente Datenbank dient zum Speichern aller Informationen der Hosts und virtuellen Maschinen.
  • Skalierbarkeit
    Tests zeigten bisher, das OpenNebula mehrere hundert Server und virtuelle Maschinen verwalten kann.
  • Installation
    Die Installation erfolgt auf einem UNIX Cluster Front-End ohne das weitere Services benötigt werden. OpenNebula wird mit Ubuntu 9.04 (Jaunty Jackalope) ausgeliefert.
  • Flexibilität und Erweiterbarkeit
    Die Architektur, Schnittstellen und Komponenten sind offen, flexibel und erweiterbar. Dadurch kann OpenNebula mit jedem aktuellen Produkt aus dem Bereich Virtualisierung, Cloud Computing oder Management Tool für Rechenzentren integriert werden.

Hybrid Cloud Computing

  • Cloud Plugins
    Konnektoren für Amazon EC2 und ElasticHosts.
  • Zusammenschluss
    Unterstützung für den gleichzeitigen Zugriff auf mehrere Remote-Clouds.
  • Erweiterbarkeit
    Modulare Konzepte für die Entwicklung neuer Konnektoren.

Public Cloud Computing

  • Cloud Schnittstellen für Benutzer
    Implementierung einer Teilmenge der Amazon EC2 Query API und der OGF OCCI API
  • Erweiterbarkeit
    Die OpenNebula Cloud API ermöglicht die Implementierung neuer/weiterer Cloud Schnittstellen.

OpenStack

OpenStack ist ein weltweites Gemeinschaftsprojekt von Entwicklern und Cloud Computing Spezialisten, die das Ziel verfolgen eine Open Source Plattform für den Aufbau von Public und Private Clouds zu entwickeln. Das Projekt wurde initial von der Nasa und Rackspace gegründet und will Anbietern von Cloud Infrastrukturen ein Werkzeug in die Hand geben, mit dem sie unterschiedliche Arten von Clouds ohne großen Aufwand auf Standard Hardwarekomponenten aufbauen und bereitstellen können.

Der gesamte OpenStack Quellcode ist frei verfügbar und unterliegt der Apache 2.0 Lizenz. Dadurch ist jeder in der Lage auf dieser Basis seine eigene Cloud zu entwickeln und ebenfalls Verbesserungen in das Projekt zurückfließen zu lassen. Der Open Source Ansatz des Projekts soll zudem die Entwicklung von Standards im Bereich des Cloud Computing weiter fördern, Kunden die Angst vor einem Vendor Lock-in nehmen und ein Ecosystem für Cloud Anbieter schaffen.

OpenStack besteht derzeit aus insgesamt sechs Kernkompenten und wird stetig weiterentwickelt. OpenStack Compute, OpenStack Object Storage und OpenStack Image Service, OpenStack Identity, OpenStack Dashboard und OpenStack Networking.

Man muss sich allerdings darüber im Klaren sein, dass es sich bei OpenStack um kein fertiges Produkt handelt, das sofort einsatzfähig ist, sondern um einzelne Teilprojekte die selbst ineinander integriert und für die eigenen Bedürfnisse angepasst werden müssen. Es gibt aber mittlerweile fertige OpenStack Installationsroutinen von Mitgliedern des OpenStack Projekts.

OpenStack Compute

OpenStack Compute dient dem Aufbau, Bereitstellen und Verwalten von großen Virtual Machine Clustern, um auf dieser Basis eine redundante und skalierbare Cloud Computing Plattform zu errichten. Dazu stellt OpenStack Compute diverse Kontrollfunktionen und APIs zur Verfügung, mit denen Instanzen ausgeführt und Netzwerke verwaltet werden sowie die Zugriffe der Nutzer auf die Ressourcen gesteuert werden können. OpenStack Compute unterstützt zudem eine große Anzahl von Hardwarekonfigurationen und sieben Hypervisor.

OpenStack Compute kann bspw. Anbietern dabei helfen Infrastructure Cloud Services bereitzustellen oder IT-Abteilungen ermöglichen ihren internen Kunden und Projekten Ressourcen bei Bedarf zur Verfügung zu stellen. Zudem können große Datenmengen (Big Data) mit Tools wie Hadoop verarbeitet werden oder Web Anwendungen entsprechend ihrer Ressourcenbedürnisse bedient werden.

OpenStack Object Storage

Mit OpenStack Object Storage können auf Basis von standardisierten Servern redundante und skalierbare Object Storage Cluster mit einer Größe von bis zu 1 Petabyte aufgebaut werden. Dabei handelt es sich nicht um ein Dateisystem und ist nicht für das Speichern von Echtzeitdaten ausgelegt, sondern für das langfristige Speichern von statischen Daten gedacht, die bei Bedarf abgerufen oder aktualisiert werden können. Gute Anwendungsbeispiele für OpenStack Object Storage sind das Speichern von Virtual Machine Images, Photos, E-Mails, Backupdaten oder Archivierung. Da der Object Storage dezentral verwaltet wird, verfügt er über eine hohe Skalierbarkeit, Redundanz und Beständigkeit der Daten.

Die OpenStack Software sorgt dafür, dass die Daten auf mehrere Speicherbereiche im Rechenzentrum geschrieben werden, um damit die Datenreplikation und Integrität innerhalb des Clusters sicherzustellen. Die Storage Cluster skalieren dabei horizontal, indem weitere Knoten bei Bedarf hinzugefügt werden. Sollte ein Knoten ausfallen, sorgt OpenStack dafür, dass die Daten von einem aktive Knoten repliziert werden.

OpenStack Object Storage kann von Anbietern genutzt werden, um einen eigenen Cloud Storage bereizustellen oder die Server Images von OpenStack Compute zu speichern. Weitere Anwendungsfälle wären Dokumentenspeicher, eine Back-End Lösung für Microsoft SharePoint, eine Archivierungsplattform für Logdateien oder für Daten mit langen Aufbewahrungsfristen oder einfach nur zum Speichern von Bildern für Webseiten.

OpenStack Image Service

Der OpenStack Image Service hilft bei der Suche, Registrierung und dem Bereitstellen von virtuellen Maschinen Images. Dazu bietet der Image Service eine API mit einer Standard REST Schnittstelle, mit der Informationen über das VM Image abgefragt werden können, welches in unterschiedlichen Back-Ends abgelegt sein kann, darunter OpenStack Object Storage. Clients können über den Service neue VM Images registrieren, Informationen über öffentlich verfügbare Images abfragen und über eine Bibliothek ebenfalls darauf zugreifen.

Der OpenStack Image Service unterstützt eine Vielzahl an VM Formaten für private und öffentliche Images, darunter Raw, Machine (kernel/ramdisk, z.B. AMI), VHD (Hyper-V), VDI (VirtualBox), qcow2 (Qemu/KVM), VMDK (VMWare) und OVF (VMWare).

OpenStack Identity

Der OpenStack Identity Service stellt eine zentrale Authentifizierung über alle OpenStack Projekte bereit und integriert sich in vorhandene Authentifizierungs-Systeme.

OpenStack Dashboard

Das OpenStack Dashboard ermöglicht Administratoren und Anwendern den Zugang und die Bereitstellung von Cloud-basierten Ressourcen durch ein Self-Service Portal.

OpenStack Networking

OpenStack Networking ist ein skalierbares und API basierendes System für die Verwaltung von Netzwerken und IP-Adressen.


CloudStack

CloudStack wurde ursprünglich von Cloud.com entwickelt. Nach der Übernahme durch Citrix Systems im Jahr 2011 wurde Citrix zum Hauptsponsor von CloudStack. Die Open-Source Cloud Plattform basiert auf Java und hilft beim Aufbau und der Verwaltung von skalierbaren Infrastrukturen. Zu den aktuell unterstützten Hypervisorn gehören VMware, Oracle VM, KVM, XenServer und die Xen Cloud Platform. Neben einer eigenen RESTful API implementiert CloudStack ebenfalls die Amazon EC2 und S3 APIs sowie VMwares vCloud API. Die Cloud-Infrastruktur kann entweder über die Web-Oberfläche, einer Kommandozeile oder die API konfiguriert und verwaltet werden.

CloudStack besteht aus fünf Kernkomponenten. Der Compute Controller verwaltet die Rechenleistung, der Network Controller steuert das virtuelle Netzwerk und der Storage Controller ist für die Speicherverwaltung des BlockStorage zuständig. Alle drei Komponenten haben direkten Kontakt mit der physikalische Hardware. Auf diesen Komponenten setzt die CloudStack Orchestration Engine auf, die für den Aufbau, die Steuerung und Verwaltung der CloudStack Infrastruktur verantwortlich ist. Über der Orchestration Engine befindet sich als letzte Komponente die CloudStack API, die mit der Web-Oberfläche, Kommandozeile oder über REST interagiert und die Befehle an die Orchestration Engine weitergibt.

Citrix Systems ist nicht das einzige bekannte Unternehmen, was CloudStack unterstützt. Weitere Supporter des CloudStack Projekts sind RightScale, PuppetLabs, Juniper Networks, Enstratus, TrendMicro, Intel und Equinix.


Bildquelle: ©Gerd Altmann / PIXELIO

Kategorien
Management

Die Architektur skalierbarer Applikationen in der Cloud

Das Applikationen für die Cloud neu entwickelt werden müssen ist kein Geheimnis. Dennoch zeigen Ausfälle bei populären Anbietern, dass so manche Architekturen nicht das wirkliche Potential von Cloud Infrastrukturen ausnutzen. Cloud Management Plattform Anbieter Rightscale hat hierzu eine Blogserie veröffentlicht, die zeigt, worauf man achten sollte, wenn eine Anwendung in der Cloud betrieben wird.

Applikationen müssen für die Cloud entwickelt werden

Man muss verstehen, dass Cloud Computing viel mehr bedeutet, als nur ein paar Server zu nutzen und miteinander zu verbinden. Es geht um die gesamte Architektur des eigenen Systems bzw. der eigenen Anwendung, die auf der virtuellen Infrastruktur (IaaS) aufgebaut wird. Wie ich schon in einem Artikel für die Computerwoche geschrieben habe:

Viele Unternehmen entwickeln ihre Cloud-Applikation „daheim“ in den eigenen vier Wänden. Erst nach der Fertigstellung soll der Rollout auf eine Cloud-Infrastruktur oder Cloud-Plattform erfolgen. Das ist ein Fehler.

Inbesondere IaaS-Umgebungen (Infrastructur as a Service) wie die Amazon Web Services oder Microsoft Windows Azure vermitteln den Eindruck, nur eine Vielzahl von virtuellen Maschine bereitzustellen. Den Rest übernehme die „Cloud automatisch“. Das ist fatalerweise auch der Tenor, der von vielen Medien verbreitet wird und damit ein völlig falscher Eindruck von einer Cloud entsteht.

Eine Cloud-Anwendung ist nur so viel wert wie die Architektur, auf der sie basiert. Eine Anwendung muss direkt für die Cloudentwickelt werden – Skalierbarkeit und Hochverfügbarkeit sind von Beginn an mit zu bedenken. Eine Anwendung sollte eigenständig weitere virtuelle Maschinen hochfahren können, wenn mehr Leistung benötigt wird (Skalierbarkeit) bzw. die nicht mehr benötigten virtuellen Maschinen auch selbstständig wieder herunterfahren. Genauso verhält es sich, wenn eine virtuelle Maschine in einen fehlerhaften Zustand gerät. Auch hier muss die Anwendung selbst dafür sorgen, dass entsprechend eine virtuelle Maschine als Ersatz hochgefahren wird und die defekte Maschine aus dem System verschwindet (Hochverfügbarkeit).

Die Anwendung muss daher in der Lage sein, auf jeder beliebigen virtuellen Maschine (VM) einer Cloud-Infrastruktur zu funktionieren. Das liegt unter anderem daran, dass jederzeit eine VM ausfallen kann und eine andere neu hochgefahren werden muss. Und auch die Daten, auf die eine Anwendung operiert, befinden sich zwangsläufig nicht mehr an einem einzigen Ort, sondern sind über die Cloud verteilt gespeichert.

Mehr…

Rightscale: Architektur skalierbarer Applikationen in der Cloud

Rightscales Services Architect Brian Adler hat eine Blogserie (vier Beiträge) veröffentlicht, in der er recht detailliert beschreibt, wie die Architektur einer Applikation in der Cloud aussehen sollte.

  1. Architecting Scalable Applications in the Cloud
  2. Architecting Scalable Applications in the Cloud: The Application Tier
  3. Architecting Scalable Applications in the Cloud: The Caching Tier
  4. Architecting Scalable Applications in the Cloud: The Database Tier
Kategorien
News

Build 2012: Microsoft baut Windows Azure weiter aus

Während seiner Entwicklerkonferenz Build 2012 auf seinem Campus in Redmond hat Microsoft weitere Erneuerung für seine Cloud Computing Plattform Windows Azure vorgestellt. Mit Windows Azure steht Entwicklern u.a. ein Backend für Windows 8 und Windows Phone 8 Apps zur Verfügung, mit dem sie auch geschäftskritische Anwendungen entwickeln, bereitstellen, verwalten und je nach Bedarf und Aufkommen skalieren können.

build 2012: Microsoft baut Windows Azure weiter aus

Windows Azure Neuigkeiten auf einem Blick

Windows Azure als Back-End für das PC-Game Halo 4

Der Mehrspieler Modus des PC-Games Halo 4 basiert künftig auf Windows Azure, so dass die Spieler weltweit eine robuste und kosteneffiziente Plattform zur Skalierung ihres online-games erhalten. Sie können ihre Spiel dann beliebig erweitern oder begrenzen.

Erweiterter Support für Windows Azure Mobile Service

Windows Azure Mobile Services wird künftig auch Windows Phone 8 unterstützen, ergänzend zu den bereits vorhandenen Optionen für Windows 8 Clients und iOS. Entwickler können so künftig leicht Windows 8 Mobile Apps über Windows Azure verbinden.

Erweiterung der Programmiersprachen für Windows Azure

Windows Azure Web Sites unterstützt nun auch Python und bietet Anwendern damit die Wahlfreiheit, Apps in der von ihnen favorisierten Programmiersprache zu entwickeln.

Vorschau auf den Windows Azure Store

Die Vorschau auf den Windows Azure Store bietet einen ersten Einblick in die verschiedenen App Services, dazu zählt das Monitoring ebenso wie Skalierbarkeit oder eMailing und Datenbanken. Unter folgendem Link gibt es weitere Informationen: www.windowsazure.com/store.

Team Foundation Service Availability

Team Foundation Service, eine Lifecycle Management Lösung ist nun offiziell verfügbar. Team Foundation Service umfasst moderne Tools für die flexible und agile Projektplanung und das Projektmanagement, wie die Versionsverwaltung, automatisierte Entwicklungsumgebung und Tools für die automatisieret Bereitstellung der Lösung.

Kategorien
Kommentar

BYOD und BYOA. Es gibt mehr Vorteile als Risiken.

Die Trends Bring-your-own-device (BYOD) und Bring-your-own-application (BYOA) haben dazu geführt, das Mitarbeiter ihre privaten Endgeräte und (mobilen) Anwendungen mit ins Büro bringen, mit denen sie am Produktivsten sind. Doch anstatt sich gegen den Trend zu wehren, sollten Unternehmen die Vorteile für sich nutzen.

BYOA entwickelt sich zum Trend

Einer Fortinet Umfrage zufolge zeigten sich 69 Prozent der Befragten daran interessiert eigene Anwendungen im Büro zu nutzen. 30 Prozent würden sich dabei sogar gegen Regeln hinweg setzen und trotz eines Verbots eigene Anwendungen einsetzen.

Kontrollverlust wird größer

Der Kontrollverlust in IT-Abteilungen schreitet durch BYOD und BYOA stetig voran. Um sicherzustellen, dass das Unternehmensnetzwerk vor den Endgeräten (BYOD) geschützt ist, können Sicherheitsmaßnahmen eingeführt werden, mit denen der Zugriff je nach Situation beschränkt wird. Bei BYOA sieht es jedoch ein wenig anders aus. Die Daten werden hier in der Regel z.T. auf den lokalen Gerät und in einem Cloud Service oder vollständig in der Cloud gespeichert. Es kann also durchaus vorkommen, dass Unternehmensdaten verloren gehen, sollte der Anbieter des Cloud Service Ausfallen oder gar insolvent werden.

Das bedeutet im Umkehrschluss, dass sich die Unternehmensdaten ebenfalls über mehrere mobile Endgeräte hinweg repliziert befinden. Die IT-Abteilung verliert damit den Überblick wo und in welchem Stand die Daten gespeichert sind. Das kann zu Compliance-Problemen usw. führen.

Es gibt mehr Vorteile als Risiken

Dennoch sollten Unternehmen die Vorteile genau verstehen und anschließend gegen die Risiken abwiegen, bevor eine überhastete Entscheidung gegen BYOD/ BYOA getroffen wird. Denn mobile Anwendungen sind ein wertvolles Gut, was Unternehmen für sich nutzen können. Mit diesen können Mitarbeiter einfacher miteinander zusammenarbeiten, indem sie Dokumente, Videos usw. teilen und gleichzeitig an Dokumenten arbeiten.

Externe oder selbst entwickelte Anwendungen sind zudem eine ideale Quelle, um daraus eigene neue Ideen und Ansätze zu finden, die dem eigenem Unternehmen einen Vorteil verschaffen können. Würde man den Mitarbeitern die Nutzung dieser Anwendungen flächendeckend verbieten, heißt es nicht, dass diese auch tatsächlich darauf verzichten werden. Entweder sie finden einen Weg die App zu nutzen oder man verliert möglicherweise seine besten Mitarbeiter.

Eine Möglichkeit BYOA zu unterstützen besteht darin, die Anwendungen in kontrollierten Umgebungen zu integrieren, um die IT-Infrastruktur aber auch die Nutzer selbst zu schützen. Zudem gibt es einige App-Anbieter, die selbst für Consumer-Apps hohe Sicherheitsstandards in ihren Umgebungen haben. Dazu gehört z.B. Evernote. Der Cloud-basierte Notizblock bietet die Möglichkeit die Nutzerdaten zu verschlüsseln. Damit verfügen die Daten zumindest über ein gewisses Sicherheitsniveau, wenn der Service angegriffen wird.

Entscheider und IT-Abteilungen sollten zudem von den unerwünschten Anwendungen lernen, die durch die eigenen Mitarbeiter in die Unternehmen getragen werden. Anstatt diese zu verbieten, sollte aus diesen gelernt werden, um die eigene Sicherheit zu erhöhen und den eigenen Innovationsgrad zu erhöhen.


Bildquelle: ©Tony Hegewald / PIXELIO

Kategorien
Kommentar

Windows 8: Cloud, Mobile, CoIT und mehr…

Windows 8 ist da und wie bereits viele andere Anbieter stellt auch Microsoft vieles ins Zentrum der Cloud, wenn auch nicht zu 100 Prozent ins Zentrum ihrer zukünftigen Strategie. Denn Microsoft geht den hybriden Weg. Das bedeutet, Windows 8/RT sind auch nutzbar, wenn keine Datenverbindung besteht. Auch wenn ich ein großer Fan des reinen Cloud Ansatzes bin, zeigt die Praxis, dass es derzeit einfach noch nicht (mobil) funktioniert. Und insbesondere dieses mobile Dilemma ist meiner Ansicht derzeit die größte Schwachstelle u.a. der Google Chromebooks.

Es geht um den Account

Wie man es von Android kennt, ist nun auch für Windows 8 ein zentraler Microsoft-Account erforderlich, um das gesamte Potential von Windows 8 auszuschöpfen. Dabei kann es sich um ein Live-, Hotmail- oder Outlook.com-Konto handeln. Über diesen Account lassen sich Einstellungen, Apps aus dem Marketplace und Daten geräteübergreifend synchronisieren. Produktiv- und Mediendaten lassen sich über SkyDrive in das System einbinden. Office 365 und Office 2013 stehen zudem als lokale und reine Cloud-Lösungen bereit.

Hier zeigt sich auch die strategische Ausrichtung der letzten Monate, indem angefangen wurde u.a. SkyDrive mit sehr attraktiven Preisen zu vermarkten und ebenfalls die SkyDrive APIs für Entwickler zu öffnen. Ein weiterer bedeutender Schritt war zudem die Fokussierung der Office Suites auf die Cloud.

Windows 8: Vielfalt für die Post-PC Ära

Windows 8 erweitert die technologische Benutzererfahrung mit einer neuen Gerätevielfalt. Microsoft bringt zusammen mit den Hardware-Partnern eine Vielfalt neuer Geräte mit den unterschiedlichsten Modellen in den Handel. Acer, Asus, Dell, HP, Lenovo, Samsung, Sony und Toshiba bieten mit Start von Windows 8 neben klassischen PCs eine große Bandbreite an neuen Windows 8 Tablets, Convertibles, Smart Devices, All-In-Ones und Laptops. Windows 8 wird neben Maus- und Tastatureingabe auch per Touch-Steuerung bedienbar und damit auch auf Tablets optimal nutzbar sein.

Bereits im Juni stellte Microsoft mit Surface eigene, speziell für Windows entwickelte Tablets vor. Seit dem 26.10.2012 ist das Surface Tablet mit Windows RT mit wahlweise 32 GB oder 64 GB Speicherkapazität in Deutschland online verfügbar. Die Touch Cover mit integrierter druckempfindlicher Tastatur für eine schnelle Eingabe sind in Deutschland in weiß, schwarz und cyan erhältlich. Das Type Cover verfügt über bewegliche Tasten für ein authentisches Schreibgefühl wie auf einem klassischen Keyboard.

Windows 8 fühlt sich gut an

Windows 8 hat bei mir einen ersten guten Eindruck hinterlassen. Das System hat sich während der Bedienung einfach gut angefühlt. Natürlich ist das neue Bedienkonzept Geschmackssache. Allerdings hat niemand großartig die Bedienung des iPhone/ iPad in Frage gestellt. Es wurde einfach als innovativ dargestellt. Und jeder der die Microsoft/ Windows „Hass-Brille“ mal ablegt, wird sehen, dass das neue Bedienkonzept von Windows 8 ebenfalls innovativ ist.

Die klassische Windows Desktop-Oberfläche ist weiterhin vorhanden. Jedoch muss ich gestehen, dass mir diese nach längerem Rumspielen mit der neuen Windows Oberfläche sehr ungewohnt und unkomfortabel vorkam. Es mag daran gelegen haben, dass ich Windows 8 mit einem Tablet-Hybriden (Tablet + abnehmbarer Tastatur) ausprobiert habe. Außerdem ist die alte Desktop-Oberfläche nicht so richtig touch-tauglich.

Was weiterhin überzeugt ist die neue Plattformstrategie. Windows 8 bzw. der abgespeckte Ableger Windows RT sind auf jedem Endgerät, von Desktop-PC über Notebook und Tablet bis hin zum Smartphone vorhanden. Das macht es dem gemeinen Windows Nutzer einfacher sich in seinem „Leben auf einer einzigen Plattform“ besser zurechtzufinden. Hier hat Microsoft insbesondere das Thema „Consumerization of IT (CoIT)“ verstanden und umgesetzt. Dies hatte ich vor längerer Zeit bereits in dem Artikel „Microsoft schafft den Spagat zwischen Cloud Computing und Mobile Computing. Die Mobile Cloud wird Realität!“ thematisiert.

Microsoft ist mit Windows 8 auf dem richtigen Weg

Microsoft hat mit Windows 8, der Cloud Integration sowie der neuen (mobilen) Plattformstrategie den Trend der CoIT verstanden und ein Produkt geliefert, mit dem der Arbeitsalltag und das Privatleben mit einem Gerät bewältigt werden kann. Bei Bedarf können auch mehrere Geräte (mindestens ein Smartphone) zum Einsatz kommen. Hier hilft die Synchronisation über den Microsoft Account bzw. Lösungen wie der Cloud Storage SkyDrive.

In einem Artikel auf bizruption.de hatte ich kurz nach der Ankündigung von „Microsoft Surface“ provokativ geschrieben, dass Android Tablets und das iPad nicht für den Einsatz im Unternehmen taugen.

Andere mögen an dieser Stelle vielleicht anderer Meinung sein und Erfahrungen gemacht haben, aber Android Tablets als auch das iPad sind für den Unternehmenseinsatz nicht geeignet. Google als auch Apple fokussieren sich auf das Endkundensegment, und genau das merkt man. Es fängt bereits bei der Integration der Geräte in die bestehenden Infrastrukturen an. Eines ist klar, wenn man auf Google Apps setzt, hat man die beste Integration auf Android Tablets, die man sich vorstellen kann. Aber wer kann und möchte schon zu 100% den Google Weg gehen? Hinzu kommt, dass es zwar Office Suites für das iPad gibt und sogar Microsoft plant sein Office auf das iPad zu portieren, aber dennoch existieren Medienbrüche und Unbequemlichkeiten, die das “Büro Feeling” auf aktuellen Tablets einfach nicht wiedergeben. Wenn es darum geht Filme zu schauen, Musik zu hören oder eine E-Mail zu schreiben sieht es anders aus, aber Android Tablets oder iPad im Büroalltag?

Kategorien
Management

Mainframe: Grundpfeiler von Wachstum und Innovation?

CA Technologies, Anbieter von IT-Management-Software und -Lösungen, veröffentlicht die Ergebnisse seiner weltweiten Studie „The Mainframe as a Mainstay of the Enterprise 2012“. Aus ihr geht hervor, dass sich der Großrechner in einer zunehmend komplexer werdenden IT-Landschaft zu einem Grundpfeiler von Wachstum und Innovation in der Unternehmensinfrastruktur entwickelt. Die im August 2012 durchgeführte Studie untersuchte die Rolle des Großrechners in der heutigen und künftigen IT-Strategie. Für die Studie wurden weltweit 623 IT-Experten aus elf Ländern befragt. Dabei die Studienergebnisse drei Haupttrends: Der Mainframe spielt eine immer größere strategische Rolle beim Managen der wachsenden Anforderungen von Unternehmen. Im Zeitalter von Big Data und Cloud Computing helfen Großrechner, die Innovationsfähigkeit eines Unternehmens zu erhalten. Die Unternehmen suchen für das Mainframe-Management nach Fachkräften mit fachübergreifenden Kompetenzen.

Großrechner als strategische IT-Investition

Laut Studienergebnissen nimmt der Mainframe eine immer stärkere Position im Unternehmen ein und wird vermehrt als ein strategischer Bestandteil der IT-Infrastruktur wahrgenommen. In diesem Zusammenhang bestätigen 33 bzw. 56 Prozent der Befragten aus Deutschland und über 80 Prozent der weltweiten Teilnehmer, dass Großrechner eine strategische bzw. eine wichtige strategische Komponente ihrer gegenwärtigen und künftigen IT-Strategie sind. Knapp ein Drittel der deutschen Befragten (31 Prozent) und 46 Prozent der weltweiten Umfrageteilnehmer gaben an, dass sie in den nächsten zwölf bis 18 Monaten beabsichtigen, in Mainframe-Software zu investieren. In Großrechner-Hardware wollen in diesem Zeitraum gut zwei Fünftel der deutschen Befragten (44 Prozent) vermehrt investieren. Weltweit steht das bei 36 Prozent der Befragten auf der Agenda. Zudem sehen 52 Prozent der deutschen sowie 44 Prozent der international Befragten vor, ihre Investitionen in Mainframe-bezogene Services (NET) zu erhöhen.

Mainframe als Innovationstreiber

Mit dem zunehmenden Anstieg von Cloud Computing, Big Data und Enterprise Mobility wird der Mainframe die notwendige Rechenleistung liefern, das heißt, er wird in den nächsten Jahren vielen technischen Neuentwicklungen den Weg bereiten. 75 Prozent der deutschen Teilnehmer der Studie und 58 Prozent der international Befragten sind der Meinung, dass der Großrechner eine zentrale strategische Plattform in ihrer Cloud Computing-Strategie ist bzw. sein wird. Insgesamt sehen die Befragten die flexible Bereitstellung neuer Services, Skalierbarkeit und Sicherheit als „wichtige“ Vorteile des Mainframe-Einsatzes, die den Weg in die Cloud ebnen. So evaluieren oder planen gegenwärtig 63 Prozent der weltweit und 69 Prozent der deutschen Befragten in den nächsten zwölf bis 36 Monaten neue Werkzeuge einzusetzen, mit denen sie schnell private und hybride Cloud-Services auf dem Großrechner einführen und kostensparend provisionieren können.

Angesichts der zunehmenden Mobilität, die sich zu einer Triebkraft von IT-Innovationen entwickelt, belegt die Studie schließlich, dass Unternehmen auch das Thema Mobilität in ihre Großrechnerumgebung integrieren. 86 Prozent der Studienteilnehmer aus Deutschland und 74 weltweit gaben an, dass sie bereits ein mobiles Management des Mainframes befürwortet haben oder dies innerhalb der nächsten 18 Monate realisieren werden.

Wandel in der Mainframe-Belegschaft

Obwohl oft von einer Verknappung der Belegschafts-Ressourcen die Rede ist, identifizierte die Studie „The Mainframe as a Mainstay of the Enterprise 2012“ auch positive Entwicklungen. Zwar gehen 76 Prozent der internationalen sowie 79 Prozent der deutschen Befragten davon aus, dass ihr Unternehmen künftig über weniger Großrechnerexpertise verfügen wird. Jedoch sind sich fast alle Befragten (98 Prozent global sowie 98 Prozent aus Deutschland) darin einig, dass ihre Unternehmen angemessen oder sehr gut darauf vorbereitet sind, die Kontinuität der Mainframe-Belegschaft sicherzustellen.

Weltweit gaben nur 7 Prozent und in Deutschland lediglich 8 Prozent der Teilnehmer an, dass sie „sehr große Schwierigkeiten“ bei der Suche nach Mainframe-Nachwuchs hätten. Dagegen berichteten 65 Prozent der deutschen Befragten von „einigen Schwierigkeiten“ in dieser Sache. Damit liegt Deutschland vier Prozent über dem internationalen Durchschnitt mit 61 Prozent. Generell lässt sich Folgendes beobachten: Trotz der weiterhin bestehenden Herausforderung, geeignetes Personal für den Großrechner zu rekrutieren, fühlen sich viele Unternehmen für die Übergangsphase gewappnet – auch wenn die Rekrutierung von geeigneten Fachkräften länger als angenommen dauert.

Die Studie belegt, dass sich die Mainframe-Belegschaft im Wandel befindet. Der Grund dafür ist die tragende Rolle, die der Großrechner im Kontext von Cloud Computing einnimmt. Umso mehr werden interdisziplinäre Fähigkeiten zum zentralen Kriterium bei der Suche nach geeigneten Bewerbern. So planen im nächsten Jahr 89 Prozent der weltweiten sowie 96 Prozent der deutschen Teilnehmer der Studie ein hybrides, Plattform-übergreifendes Management einzuführen – inklusive Design-Teams sowie übergreifender Budgets, Teams und Orgaisationsleitung. Vor diesem Hintergrund meint mehr als die Hälfte der weltweiten Befragten (56 Prozent), dass es für einen Bewerber essentiell sei, sowohl über Mainframe- als auch über übergreifende Kompetenzen zu verfügen. In Deutschland vertreten 58 Prozent diese Meinung.


Bildquelle: http://ethernetfabric.com

Kategorien
News

Telonic bietet Cloud-Collaboration-Plattform mit Soonr Workplace

Mobile Zusammenarbeit ermöglicht die Cloud-basierende Plattform Workplace aus dem Portfolio des Systemhauses Telonic. Entwickelt wurde die Lösung vom Technologiepartner Soonr. Auf die professionelle Dateien- und Dokumenten-Arbeitsplattform für Unternehmen können sowohl registrierte Team-Mitglieder sowie externe Partner oder Lieferanten zugreifen.

Telonic bietet Cloud-Collaboration-Plattform mit Soonr Workplace

Geräteunabhängig und Mobilität

Mit der lokalen Cloud-Infrastruktur ist Workplace geräteunabhängig und kann stationär über PCs sowie mobil über Tablets, Laptops und Smartphones aufgerufen werden. Auf diese Weise können Teams von jedem beliebigen Endgerät aus gemeinsam digitale Dateien austauschen sowie Inhalte bearbeiten. Die Soonr-Lösung ist neben Windows und MacOS auch mit den mobilen Betriebssystemen Apple iOS, Android und dem RIM Blackberry kompatibel. Workplace ist das Basis-Tool, um alle Informationen über das Internet zur Verfügung zu stellen. Eine hochsichere verschlüsselte Verbindung überträgt die Daten, die alle in Europa gespeichert sind. Außerdem gelten die europäischen Datenschutzbestimmungen.

Unterschiedliche Rechteprofile für Nutzer

Die Teammitglieder eines Accounts sind in mehrere Gruppen eingeteilt: „Members“, „Connections“ und „Public Links“. Bei den Members handelt es sich um interne Mitarbeiter aus dem Unternehmen, wohingegen Connections externe Kontakte sind, mit denen via Workplace gemeinsam gearbeitet wird. Der Administrator ist in der Lage, jedem Teammitglied unterschiedliche Berechtigungen zuzuweisen, z.B. auf welche Dateien Zugriff gewährt wird, ob Dokumente geändert werden dürfen etc. Des Weiteren können auch anonyme Benutzer einen Zugriff erhalten, beispielsweise für einen beschränkten Zeitraum auf einzelne Dateien sowie mit Passwortschutz.

Chronik zeigt Änderungen zum Nachvollziehen

Das Dashboard zeigt allen registrierten Projektteilnehmern in chronologischer Reihenfolge Kommentare an sowie, wann Dateien von wem verändert oder hinzugefügt wurden. Bei Kommentaren und Änderungen lassen sich Benachrichtigungen aller Teilnehmer per E-Mail oder SMS einrichten, damit Betroffene kurzfristig reagieren können. Des Weiteren können autorisierte Mitglieder dank integrierter Datei-Versionsverwaltung Daten retten, die versehentlich gelöscht wurden.

Hinsichtlich der Gestaltung haben Unternehmen die Möglichkeit, als Pro- und Pro Custom-Nutzer die Oberfläche von Workplace an ihr Corporate Design anzupassen. Zusätzlich zum Hinzufügen des Firmenlogos können Verantwortliche das verwendete Farbschema einstellen sowie eine benutzerdefinierte Login-Seite einrichten.

Kategorien
News

BT bietet mit One Cloud for Microsoft Lync Unified Communication aus der Cloud

Der Netzwerk- und IT-Dienstleister BT bietet mit BT One Cloud for Microsoft Lync einen Unified-Communications-Service aus der Cloud auf Basis von Microsoft Lync 2010 an. Dieser umfasst Instant Messaging, Verfügbarkeits-Informationen (Presence), Audio-, Video- und Webkonferenzen sowie Sprachtelefonie. Der neue Service erfordert keine wesentlichen Investitionen, da er als „Pay-per-User“-Modell monatlich pro Anwender abgerechnet wird.

BT bietet mit One Cloud for Microsoft Lync Unified Communications aus der Cloud

Führungskräfte erwarten Unified Communication Lösung

Laut einer aktuellen internationalen Umfrage von BT wünschen sich 62 Prozent der Führungskräfte eine Lösung, die Instant Messaging und E-Mail miteinander verbindet. 68 Prozent fordern einen Cloud-basierten Daten- und Dokumentenaustausch, der es ihnen ermöglicht, einfacher mit Mitarbeitern, Partnern und Kunden zusammenzuarbeiten.

Microsoft Lync Hybrid

Das neue Cloud-Angebot von BT stellt Anwendern den vollen Funktionsumfang wie bei einer hausinternen Installation von Microsoft Lync zur Verfügung, realisiert dies jedoch als wirtschaftlich attraktiven Cloud-Service. BT arbeitet mit führenden Audio-, Video- und Gateway-Anbietern zusammen, um einen umfassenden Ende-zu-Ende-Service anzubieten. Da BT in seinem Portfolio Microsoft Lync sowohl als On-Premise-Lösung als auch in der Cloud-Variante anbietet, stehen den Kunden mehrere Auswahlmöglichkeiten zur Verfügung. Außerdem kann BT bei Bedarf unterschiedliche hybride Service-Modelle installieren. Für Kunden, die bereits Telefon-, Video- und andere Unified-Communications-Infrastrukturen von unterschiedlichen Anbietern einsetzen, bietet BT „Hybrid Architecture Services“. Im Rahmen dieser Consulting-Leistung wird die Migrations- und Installations-Roadmap für Microsoft Lync erstellt. Zusätzlich können Kunden die hochwertigen Sprachtelefonie-Dienste von BT nutzen, um den vollen Funktionsumfang von Microsoft Lync auszuschöpfen; oder sie starten mit einer einfacheren Variante und behalten sich vor, Sprachtelefonie zu einem späteren Zeitpunkt mit in die Gesamtlösung zu integrieren.

Erster Referenzkunde vorhanden

BT hat bereits einen internationalen Energieversorger als Kunden für BT One Cloud gewonnen und plant, installiert und integriert den Service dort für 10.000 Anwender. Der Service umfasst neben Instant Messaging und Presence auch Audio-, Video- und Webkonferenzen. Weiterhin bietet der Service die komplette Sprachtelefonie-Funktionalität für alle Anwender – zu Beginn in den USA, später auch international, inklusive der vollständigen Ablösung der bestehenden Telefonanlage.

Kategorien
Analysen

Klassische Webhoster und ihr Kampf mit Infrastructure-as-a-Service

Vor ein paar Tagen hatte ich ein Briefing mit einem europäischen Webhoster, der mir seine Produktlinie, strategische Ausrichtung usw. vorgestellt hat. Ich möchte das Wort Cloudwashing dabei ungerne wieder in den Mund nehmen. Allerdings hat mir das Gespräch erneut gezeigt, dass typische Webhostinganbieter massive Probleme haben, ein echtes Infrastructure-as-a-Service (IaaS) Angebot aufzubauen.

Schwierigkeiten mit der Moderne

Es ist genau das, was ich bei so manchen Anbietern von „Cloud“ Lösungen feststellen muss. Dabei handelt es sich überwiegend um klassische Webhoster, die den Cloud Zug nicht verpassen wollten und schnell ihr Portfolio AUF DEM PAPIER Cloud-fähig gemacht haben. Es gibt wohlgemerkt Ausnahmen, diese sind aber äußerst selten. An dieser Stelle wird schlicht und einfach auf den Hype aufgesprungen und das Internet als Cloud verstanden.

Genau so zeigte sich auch das Portfolio des Anbieters, mit dem ich gesprochen habe. Es gibt Dedicated Server und Cloud Server, die vor ein paar Monaten/ Jahren noch Virtual Server hießen. Diese „Cloud Server“ gibt es als fünf unterschiedliche fixe Konfigurationsstufen mit entsprechendem 1 bis 4 Cores, Speicherplatz und RAM zu einem monatlichen Preis von x EUR. Nicht zu vergessen, dass die Bereitstellungszeit mit 1 bis 5 Werktagen angegeben wird. Weitere Nachfragen ergaben dann, dass kein on-Demand Bezug möglich ist und keine API zum Verwalten bzw. Starten und Stoppen weiterer Server zur Verfügung steht. Ebenfalls existieren keine weiteren Services oder Software Images die um das Angebot herum bestehen und die Ressourcen nicht pro Verbrauch abgerechnet werden können.

Wie die Eigenschaften eines Cloud Angebots ausschauen sollte steht hier.

Interne Struktur und Strategie vorhanden

Man muss dem Anbieter zugestehen, dass er auf Nachfrage eingestehen musste, dass bis auf das Wort selbst in den Serverangeboten, nicht sehr viel Cloud steckt. Allerdings befindet er sich auf dem richtigen Weg. Vor ca. einem Jahr wurde die interne Infrastruktur auf CloudStack umgestellt, um für sich selbst die Provisionierung der Kunden-Server zu optimieren. Davon können die Kunden bisher jedoch nicht profitieren. Zudem wurde mit KVM auf einen modernen, offenen und weit verbreiteten Hypervisor gesetzt und ebenfalls das Thema Netzwerkvirtualisierung wurde vor ein paar Wochen umgesetzt. Nach eigener Aussage sei ebenfalls eine Strategie vorhanden, in Kürze den Kunden einen on-Demand Bezug einzelner Ressourcen sowie Pay per use als Bezahlmodell anzubieten, da man sich mittlerweile selbst im Klaren darüber sei, dass dies zwingend erforderlich ist.

Dennoch, angesichts dieser Erfahrungen sollte sich jeder Nutzer, der ernsthaft in die Cloud gehen möchte, vorab intensiv informieren.


Bildquelle: ©Harald Fischer / PIXELIO