Kategorien
Management

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing

Mit dem IT-Cloud-Index präsentieren techconsult und HP Deutschland eine Langzeituntersuchung zum Stellenwert von Cloud Computing in mittelständischen Anwenderunternehmen. Der Cloud-Einsatzgrad hat sich innerhalb eines Jahres nahezu verdoppelt. Software-as-a-Service (SaaS) dominiert zwar noch innerhalb der Cloud-Dienste, die Nachfrage nach Infrastructure-as-a-Service-Angeboten (IaaS) hat jedoch insbesondere im dritten Quartal gegenüber dem zweiten deutlich zugelegt und befindet sich auf der Überholspur. Die Cloud-Thematik manifestiert sich zunehmend im Mittelstand. Fast jedes zweite Unternehmen hat sich bereits intensiv mit diesem Thema auseinandergesetzt.

Cloud Computing Nutzung hat sich innerhalb eines Jahres verdoppelt

Im deutschen Mittelstand setzt jedes fünfte Unternehmen bereits auf Cloud-Lösungen. Mit einem Anteil von 22 Prozent der Unternehmen im dritten Quartal 2012 hat sich der Einsatzgrad gegenüber dem Vorjahresquartal nahezu verdoppelt. Allerdings zeigt sich eine etwas abgemilderte Wachstumsdynamik in den letzten Monaten. Im Vergleich zum Vorquartal hat sich der Einsatzgrad um einen Prozentpunkt erhöht. Für das vierte Quartal dürfte dieser zunächst verhaltene Entwicklungstrend anhalten. So wird ein Zuwachs von einem Prozent prognostiziert.

Innerhalb der Cloud-Dienste wird dem Software-as-a-Service-Modell weiter die bedeutendste Rolle zugesprochen. So setzen 15 Prozent der mittelständischen Unternehmen entsprechende Produkte ein. Die Steigerungsraten über die letzten Quartale zeigen sich indes sehr konstant, wenn auch auf einem immer noch ausbaufähigem Niveau. Dagegen steigt der Bedarf an Infrastrukturleistungen im Rahmen des as-a-Service-Modells seit dem zweiten Quartal deutlich an.

Was die SaaS-Angebote betrifft, stehen die klassischen, horizontal einsetzbaren Software-Lösungen im Fokus des Interesses. So baut der Mittelstand neben den Office- und CRM-Lösungen vor allem auf E-Mail- und Collaboration-Dienste.

Die Nachfragesteigerung für Cloud-Infrastrukturleistungen liegt gegenüber dem Vorquartal bei drei Prozentpunkten. Inwieweit hier saisonale Aspekte eine Rolle spielen, wird das vierte Quartal dieses Jahres zeigen. Den Prognosen der Befragten zufolge dürfte jedoch der positive Trend anhalten. Damit gilt es für den Mittelstand nicht nur die kurzfristige Auslastung von Kapazitätsspitzen sicherzustellen, sondern auch langfristig in das IaaS-Modell einzusteigen. Die Treiber waren in erster Linie der Bedarf an Server- und Speicherkapazitäten. Der anhaltende Trend ist auch Indiz dafür, dass die mittelständischen Unternehmen zunehmend Vertrauen in die IaaS-Cloud entwickeln und sie als adäquate Option sehen, ihren Bedarf an Infrastruktur-Ressourcen kostenoptimal zu decken.

Plattform-as-a-Service Angebote konnten sich im Jahresverlauf ebenfalls als ein konstant nachgefragter Service entwickeln, wenn auch mit noch verhaltenen Wachstumsraten. Vornehmlich tragen die Datenbanken als Service auf der Anwendungs-Infrastrukturebene zu dem aktuellen Einsatzgrad von sechs Prozent bei, der sich um einen Prozentpunkt im Vergleich zum Vorquartal erhöht hat.

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing

Jedes zweite Unternehmen hat Interesse am Cloud Computing

Das Thema Cloud Computing manifestiert sich im Mittelstand. Mittlerweile hat sich fast jedes zweite Unternehmen (47 Prozent) mit Cloud Computing sehr intensiv bzw. intensiv auseinandergesetzt. Weitere 30 Prozent haben sich zumindest grundsätzlich schon einmal mit der Thematik beschäftigt. Im Vergleich zum Vorjahr hat sich allein der Anteil derjenigen verdoppelt, die sich sehr intensiv mit Cloud-Lösungen beschäftigt haben.

Nur jedes fünfte Unternehmen hat sich bislang gar nicht mit der Thematik auseinandergesetzt. Hier ist davon auszugehen, dass sich diese Unternehmen zum einen skeptisch gegenüber einem grundlegenden Eingriff in die Strukturen der bestehenden und laufenden IT-Infrastruktur zeigen. Zum anderen spielt das Thema Virtualisierung in diesen, zum Teil auch kleineren Unternehmen, nach wie vor eine weniger stark ausgeprägte Rolle. Zu berücksichtigen ist auch, dass auf Grund des operativen Alltagsgeschäftes häufig Ressourcen fehlen, sich Zeit zu nehmen und sich über neue Technologien zu informieren und sich damit auseinanderzusetzen. Insbesondere in kleineren mittelständischen Unternehmen wird in erster Linie die Nutzung von Cloud Computing aus der Geschäftsleitung (50 Prozent) heraus angeregt.

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing

Geschäftsführung forciert Cloud Computing Themen

Treiber für Cloud Computing ist meist die unternehmenseigene IT, oftmals auch in Abstimmung mit der Fachabteilung. In erster Linie kommt der Impuls für den Einsatz von Cloud Computing daher vom IT-Verantwortlichen des Unternehmens (72 Prozent). Diese drängen darauf, ihre IT-Kapazitäten zu flexibilisieren und von den Vorteilen des Cloud Computing zu profitieren. Das wird möglich durch den kostengünstigen Bezug von Speicherkapazitäten, Software oder Rechenleistungen aus der „Wolke“.

14 Prozent der Befragten gaben an, dass Cloud Computing von der Geschäftsleitung angestoßen werde. Dies sind vor allem überdurchschnittlich viele kleinere mittelständische Unternehmen. Noch im Herbst 2011 waren es gerade neun Prozent. Hier wird deutlich, dass das Thema mehr als noch vor einem Jahr auch in die Chefetagen gelangt ist. Aktuell spielen Fachabteilungen eine weniger relevante Rolle, nur acht Prozent der Befragten gaben an, dass der Cloud-Einsatz ausschließlich aus der Fachabteilung heraus angeregt wurde.

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing

Public Cloud ist im Mittelstand angekommen

Anwender geben auch im dritten Quartal der Private Cloud grundsätzlich den Vorzug. Hier verbleibt die IT im Haus bzw. wird beim Dienstleister in einer dedizierten Umgebung betrieben. Immerhin zieht mit 46 Prozent der aktuellen Cloud-Nutzer fast jeder Zweite dieses Modell der Public und der Hybrid Cloud vor. Dennoch wurde der Public Cloud über die letzten Quartale die zunehmend höhere Akzeptanz erneut bestätigt. Jedes dritte Unternehmen kann sich mit diesem Modell anfreunden. Eine ähnliche Kontinuität ist in der Bewertung der hybriden Form festzustellen, die jeder Fünfte als adäquate Lösung bestätigt.

Im Durchschnitt hatte von den Cloud Usern im dritten Quartal jedes zweite Unternehmen Dienste aus der Private Cloud bezogen. Hierbei wurden vor allem PaaS- und IaaS-Angebote in Anspruch genommen. Was SaaS-Dienste betrifft, so werden diese zwar noch immer mehrheitlich aus der Private Cloud bezogen. Allerdings ist hier im Verlauf des letzten Jahres eine deutliche Tendenz zu Lösungen aus der Public Cloud zu verzeichnen, deren Nutzung im Vergleich zum dritten Quartal 2011 um zehn Prozent zulegte. Im Jahresvergleich konnte die Hybrid-Cloud um zwei Prozent zulegen. Durch die Parallel-Nutzung von Private und Public Cloud werden die eigenen Ressourcen mit den Vorteilen der Public Cloud kombiniert und stellen so eine ideale Ergänzung zu eigenen Private-Cloud-Ressourcen dar. Bei Engpässen können skalierbare Public-Cloud-Dienste ergänzt werden, ohne im Regelbetrieb ungenutzte Infrastruktur bereithalten zu müssen. Virtualisierung als Grundstein für hybride Cloud-Lösungen ist in vielen Unternehmen zwar gegeben, die Herausforderung ist jedoch, einen geeigneten Dienstleister bzw. Cloud-Anbieter zu finden, mit dessen Lösungen die unternehmenseigene Infrastruktur kompatibel ist.

Jedes zweite deutsche Unternehmen hat Interesse am Cloud Computing


Quelle: techconsult

Kategorien
Services

Microsoft Lösungen für die Private Cloud

Angesichts aktueller politischer Entwicklungen in Deutschland, die es deutschen Behörden ermöglichen sollen, Daten in der Cloud abzugreifen, wird sich der Trend in Unternehmen verstärken, eine eigene Private Cloud aufzubauen. Ein Grund, aktuelle Lösungen zu evaluieren. Nachdem ich vor kurzem mit openQRM, Eucalyptus, OpenStack, CloudStack und OpenNebula einige Open-Source Kandidaten vorgestellt habe, sind heute die Lösungen von Microsoft an der Reihe. Insbesondere der neue Microsoft Windows Server 2012 und Hyper-V bringen interessante Microsoft Cloud Ansätze in das eigene Rechenzentrum.

Microsoft in der Private Cloud

Eine Private Cloud bedeutet, die Konzepte einer Public Cloud – u.a. Flexibilität, Skalierbarkeit und Self-Service – in das eigene Rechenzentrum zu übertragen. Hier sei noch einmal angemerkt, dass eine einfache Virtualisierung NICHT einer Private Cloud entspricht. Zu einer Cloud gehören u.a. die drei oben genannten Eigenschaften, die von der gewöhnlichen Virtualisierung so nicht erfüllt werden.

Microsoft ermöglicht mit seinen Lösungen das Abbilden von Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (PaaS) sowohl in der Private als auch in der Public Cloud. Dieses hat den Vorteil Daten und Anwendungen bspw. primär lokal im eigenen Rechenzentrum zu speichern und im Bedarfsfall in die Public Cloud zu skalieren.

IaaS stellt dabei Infrastrukturressourcen wie Rechenleistung, Speicherplatz und Netzwerkkapazitäten als Service bereit, PaaS hingegen Anwendungsplattformen als Service.

Was wird für eine Private Cloud à la Microsoft benötigt?

Für den Aufbau einer Microsoft Private IaaS-Umgebung wird der Windows Server Hyper-V, das Microsoft System Center sowie das Microsoft System Center Virtual Machine Manager Self-Service Portal benötigt, wodurch sich eine dedizierte Cloud-Umgebung inkl. Self-Service Möglichkeiten bereitstellen lässt.

Darüber hinaus ermöglichen die Private Cloud Services die nahtlose Anbindung an Microsoft Public Cloud Infrastruktur Windows Azure. Somit lassen sich neben einer Ressourcenskalierung ebenfalls Applikationsframeworks und Identitymanagement-Tools nutzen, um die Private mit der Public auf Basis einer Hybrid Cloud zu integrieren.

Hyper-V

Hyper-V ist Microsofts Technologie für die Servervirtualisierung. Er setzt auf dem Windows Server 2012 auf und bildet die Grundlage einer Microsoft Private Cloud. Damit lassen sich mehrere Server als virtuelle Maschinen (VMS) auf einer physikalischen Hardware betreiben. Hierzu unterstützt Hyper-V parallel unterschiedliche Betriebssysteme, darunter u.a. Windows und Linux auf x64-Hardware.

System Center

Das System Center ist der Dreh- und Angelpunkt der Private Cloud und unterstützt bei der Verwaltung der physikalischen, virtuellen als auch Cloud-Infrastruktur. Dazu gehören neben dem Management der skalierbaren Rechenzentrumsinfrastruktur und geschäftskritischer Workloads ebenfalls die Steuerung standardisierter Prozesse für die Verwaltung des Rechenzentrums und der Verwaltungs-Workflows. Weiterhin bietet das System Center Self-Service-Funktionen, mit denen Nutzer die benötigten IT-Ressourcen konsumieren können.

Virtual Machine Manager SSP 2.0

Das Virtual Machine Manager Self-Service Portal setzt auf den Windows Server Hyper-V und das System Center auf. Es handelt sich dabei um eine kostenlose und fertige Lösung, mit der sich Ressourcen in einem Rechenzentrum dynamisch zu Gruppen zusammenfassen lassen, um damit die Private Cloud mit den notwendigen Ressourcen zu versorgen. Weiterhin lassen sich einzelne oder Gruppen von Ressourcen unterschiedlichen Abteilungen zuordnen und z.B. virtuelle Maschinen über ein Self-Service-Portal bereitstellen.

Kombination mit der Microsoft Public Cloud

Auch wenn der Artikel zu Beginn die politischen Einflüsse auf die Public Cloud sensibilisiert hat, gibt es dennoch Szenarien, bei denen eine Public Cloud weiterhin in Frage kommen kann. Es kommt auf die Sensibilität der Daten an und wie ein Unternehmen damit selbst umgehen möchte.

Die Microsoft Private Cloud Services lassen sich ebenfalls mit Microsofts Public Cloud verbinden, um evtl. Lastspitzen auszugleichen oder die Zusammenarbeit in unterschiedlichen Regionen zu verbessern. Hier ein paar Einsatzmöglichkeiten.

SharePoint Online & Office 365

Wollen sich Unternehmen weltweit vergrößern, muss auch die IT mitwachsen. Das stellt bei on-Premise Lösungen finanzielle und zeitliche Herausforderungen dar. Einfacher ist es, neue Standorte über Cloud Lösungen anzubinden und den Mitarbeitern damit denselben Zugriff auf Dokumente und Applikationen zu ermöglichen wie den Mitarbeitern in der zentralen Niederlassung.

Hier können SharePoint Online und Office 365 helfen. Beide ermöglichen die standortübergreifende Zusammenarbeit und den Datenaustausch zwischen Mitarbeitern an geographisch unterschiedlichen Orten.

Exchange Online

Wie beim Austausch von Daten und der globalen Zusammenarbeit verhält es sich beim Thema E-Mail. Vergrößert sich ein Unternehmen überregional oder gar global stehen IT-Entscheider vor denselben Herausforderungen. Eine Private Cloud auf Basis von Microsoft lässt sich zum einen mit Exchange Online erweitern, um den wachsenden Speicherbedarf gerecht zu werden. Darüber hinaus können Mitarbeiter über eine simple URL auf die Exchange-Dienste in der Private oder Public Cloud zugreifen.

SQL

Wer an Microsoft und Datenbanken denkt, dem fällt zunächst Microsoft Access ein. Für Leute, die mehr Performance benötigen der Microsoft SQL-Server. Wohlgemerkt verschlingt, insbesondere ein Datenbankserver, massiv an Hardware und benötigt eine Menge Performance um die heutigen Anforderungen zu erfüllen.

Eine Microsoft Alternative aus der Cloud heißt SQL Azure. Dabei handelt es sich um einen vollständig verwalteten SQL-Server in Microsofts Public Cloud, der weltweit zur Verfügung steht.

Applikationsskalierung

In Zeiten globaler Vernetzung und des Internets lassen sich die benötigten Ressourcen für eine Applikation nur noch schwer einschätzen. Eine einzige Marketingaktion kann entscheidend für den Erfolg oder Misserfolg (Applikationen bricht unter der Last zusammen.) eines neuen Service sein. Gegensteuern lässt sich nur mit hohen Investitionen in die eigene Infrastruktur, ohne genau zu wissen, ob die Ressourcen tatsächlich benötigt oder ob sie gar überhaupt ausreichen werden.

Public Cloud Infrastrukturen sind dynamischer, da hier grundsätzlich mehr Ressourcen zur Verfügung stehen als es ein Unternehmen in der Regel im eigenen Rechenzentrum kann. So lassen sich Applikationen in der Cloud ebenfalls während Spitzenlasten ausfallsicher und skalierbar betreiben. Nehmen die Zugriffe zu, werden weitere Ressourcen automatisch hinzugefügt und wieder entfernt, wenn der Ansturm vorbei ist. Dabei kann die Applikation entweder direkt in der Public Cloud betrieben werden oder zunächst in der Private Cloud laufen und bei Bedarf weitere Ressourcen aus der Public Cloud anfordern (Hybrid Cloud).

Zu beachten ist hier jedoch, dass Applikationen, seien sie lokal oder bereits direkt für die Cloud gedacht, auch für die Cloud entwickelt werden müssen.

Kategorien
News

Hitachi und Infosys starten Initiative für Private Clouds

Hitachi Data Systems (HDS) und Infosys unterstützen Unternehmen künftig gemeinsam bei der Einführung von Private Clouds für geschäftskritische Anwendungen. Als technologische Basis wird hierbei insbesondere die vorvalidierte Hitachi Unified Computer Plattform (UCP) Select für Microsoft Exchange Server 2012 dienen, die Server, Storage und Netzwerkkomponenten enthält. Anwender können die konvergente Infrastruktur auch für den Einsatz mit Microsoft-SharePoint-Anwendungen nutzen. HDS und Infosys werden hierzu gemeinsam Architekturen entwickeln und technische Trainings sowie Zertifizierungsprogramme anbieten.

Konvergente Infrastruktur mit 99,999 Prozent Verfügbarkeit

Die jüngst vorgestellten konvergenten Infrastrukturen von HDS bieten Anwendern die notwendige Leistungsfähigkeit und Skalierbarkeit für den Einsatz in privaten Cloud-Umgebungen. Die Verfügbarkeit von Anwendungen und Services liegt bei 99,999 Prozent. Durch die gemeinsame Nutzung der UCP können Infosys und HDS Vor-Ort-Cloud-Lösungen und Rechenzentrums-Hosting für Dritte bei extremer Skalierbarkeit anbieten: Bis zu 96.000 Mailboxen lassen sich – unterstützt durch Mailbox Availability Group (DAG) – hochverfügbar erstellen und betreiben. Außerdem sind ein N+1 Server Failover sowie RAID-Schutz auf Enterprise-Level möglich.

Im Zuge der weltweiten Partnerschaft unterstützt HDS auch das Infosys Cloud Ecosystem Hub, das im August 2012 vorgestellt wurde. Der Hub bietet umfangreiche Lösungen, mit deren Hilfe Unternehmen Cloud-Services über verschiedene Umgebungen hinweg erstellen, einführen und betreiben können.

Kernpunkte der Partnerschaft von HDS und Infosys

Beide Unternehmen arbeiten seit über zehn Jahren zusammen. Die jetzt erweiterte Kooperation enthält:

  • Solution Development: Gemeinsames Entwerfen von konvergenten Infrastrukturen für den Einsatz in Cloud-Umgebungen, unter anderem für Microsoft Lync, Exchange und SharePoint sowie Cisco UCS-Migrationen. Hitachi Data Systems und Infosys planen den Ausbau des Angebots an konvergenten Infrastrukturen, um künftig auch Big Data und Content Management abbilden zu können.
  • Schulungen und Zertifizierungsprogramme: Neue Schulungen und technologische Zertifizierungsprogramme für HDS-Speichertechnologie.
  • Gemeinsame Sales-Ansätze: Enterprise-Anwender auf breiter Front mit führenden Storage- und IT-Lösungen versorgen durch gemeinsame Sales- und Marketing-Programme.
Kategorien
News

HP Discover: HP erweitert das HP CloudSystem um KVM

HP hat sein Converged-Cloud-Portfolio erweitert. Das HP CloudSystem wurde überarbeitet und unterstützt jetzt Kernel-based Virtual Machines (KVMs). Die neue Version 3.1 von HP Cloud Service Automation (CSA) bietet zudem neue Funktionen für die Verwaltung, die Nutzung und das Brokerage von Cloud-Diensten. Diese richten sich an Service Designer, Cloud-Konsumenten sowie -Administratoren. Die neue Version 1.1 von HP Continuous Delivery Automation (CDA) stellt Anwendungen in Cloud-Umgebungen automatisch bereit. Das aktualisierte Converged-Cloud-Portfolio soll Unternehmen dabei helfen, Cloud-Services und -Anwendungen schnell und fehlerfrei zu implementieren.

Die neuen Funktionen des HP CloudSystem

  • Eine offene, erweiterbare Plattform für heterogene IT-Umgebungen. Diese unterstützt neben Virtualisierungstechnologien von HP, Microsoft und VMware jetzt auch Kernel-based Virtual Machines (KVMs), also die Linux-Kernel-Virtualisierung. Um KVMs zu verwalten und bereitzustellen hat HP OpenStack-Technologien direkt in HP CloudSystem integriert. Dadurch erhalten Anwender die Flexibilität einer offenen Lösung, ohne die komplexe Integration in ihre IT-Infrastruktur selbst durchführen zu müssen. Anwender können unterbrechungsfrei und schnell die KVM-Unterstützung/Support zu HP CloudSystemen hinzufügen. Aufgrund der erweiterten Flexibilität können Anwender Cloud-Anforderungen noch besser mit Kosten-, Sicherheits- und Verfügbarkeitsanforderungen abstimmen.
  • Größere Flexibilität in Bezug auf Bursting-Kapazitäten: Die neue Version von HP CloudSystem unterstützt jetzt auch das Bursting von HP CloudSystem zu HP CloudSystem. Damit können Anwender beispielsweise auch innerhalb eines Unternehmens auf weitere Bursting-Kapazitäten zugreifen. Für HPs Cloud-Angebot gibt es bereits Bursting-Verbindungen zu Amazon EC2, Savvis und dem Public-Cloud-Angebot HP Cloud Service.
  • Zugriff auf weitere Cloud-Templates: HP hat das bestehende Angebot an HP Cloud Maps um 50 neue Templates erweitert, unter anderem für HP DataProtector. Das Template für HP DataProtector verbessert die Zuverlässigkeit und Skalierbarkeit von Backups in HP-CloudSystem-Umgebungen. Kunden können jetzt insgesamt auf mehr als 200 Templates zurückgreifen und Anwendungen auf Knopfdruck bereitstellen.

Grundlage von HP CloudSystem sind die HP Converged Infrastructure und die Software HP Cloud Service Automation (CSA). HP CSA bietet Anwendern eine umfassende, einheitliche Cloud-Management-Plattform zur Verwaltung sowie das Brokerage von Anwendungen und Infrastrukturen für Cloud-Services.

HP CSA 3.1 mit integrierten Sicherheitsfunktionen von HP TippingPoint

Neu in Version 3.1 sind Funktionen speziell für drei Nutzergruppen: Service Designer, Cloud-Konsumenten sowie -Administratoren. Die Benutzeroberfläche für Cloud-Konsumenten (Cloud Consumer) bietet ein einheitliches Dashboard und eine grafische Oberfläche, die eine Sicht auf den gesamten Lebenszyklus der Cloud-Services – von Bestellung bis Konsum – ermöglicht. Außerdem können ab sofort Sicherheitslösungen von HP TippingPoint integriert werden. Das gewährleistet die Sicherheit und Hochverfügbarkeit der Cloud-Services. Für Cloud-Administratoren bietet Version 3.1 verbesserte Mehr-Mandanten-Fähigkeit. Administratoren können damit Mandanten schneller aufsetzen und genauer definieren. Service Designer wiederum können durch neue Funktionen im Portal Services genauer definieren, erstellen und flexibler verwalten. Zu den neuen Funktionen zählt beispielsweise die Möglichkeit, Angebote direkt über das Portal in den Service-Katalog aufzunehmen. CSA 3.1 ist in Kombination mit HP CloudSystem und als eigenständige Lösung erhältlich.

HP CDA 1.1 automatisiert den Bereitstellungsprozess von Cloud-Anwendungen

Durch den Wettbewerbsdruck müssen Unternehmen hochwertige Anwendungen in immer kürzeren Zeitabständen auf den Markt bringen. Mit den Automatisierungsfunktionen von HP CDA 1.1 werden der Bereitstellungsprozess von Anwendungen und die Übergaben zwischen verschiedenen Teams innerhalb des Anwendungs-Lebenszyklus vereinfacht. Diese führen typischerweise zu Fehlern und Verzögerungen. Beim Release-Management ermöglicht HP CDA 1.1 Entwicklerteams beispielsweise, den Veröffentlichungs-Prozess exakt zu definieren und Kriterien für jeden Prozess-Schritt sowie die Freigabe zu definieren. HP CDA stellt außerdem automatisch die notwendige Infrastruktur über Provisionierungs-Werkzeuge zur Verfügung und überwacht die Anwendungen über verschiedene Monitoring-Werkzeuge. Für Infrastruktur- und Plattform-Designer stellt CDA 1.1 eine Infrastruktur-Service-Schicht sowie eine grafische Benutzeroberfläche für Rechen-, Speicher- und Netzwerk-Charakteristiken von Infrastruktur-Services zur Verfügung. Diese Services stellen grafisch physische und virtuelle (HP Matrix respektive Public, Private und Hybrid Cloud) Rechenkapazitäten dar. Im Application Designer können App-Designer Standard-Funktionen festlegen und damit beispielsweise Anwendungen starten oder beenden sowie ausrollen. Für Policy Designer bietet CDA 1.1 eine Übersicht über die Abhängigkeit zwischen Cloud-Anwendungen und physischen Ressourcen.

HPs Public Cloud mit neuen Services

Des Weiteren hat HP neue Funktionen für die Public-Cloud-Lösung HP Cloud Service entwickelt. Diese ermöglichen es Unternehmen, Arbeitslasten in die Cloud zu verlagern. Zu den Neuigkeiten zählen:

  • Die allgemeine Verfügbarkeit von HP Cloud Compute. Mit diesem Public-Cloud-Service können Kunden Rechenkapazitäten nach Bedarf beziehen und nach Nutzung bezahlen. Der Service wird mit einem Service Level Agreement angeboten, das eine Verfügbarkeit von 99,95 Prozent garantiert. Das entspricht einer maximalen Ausfallzeit von 30 Minuten pro Monat. Der Preis pro Stunde beginnt bei 0,04 US-Dollar.
  • Die Public-Beta-Phase von HP Cloud Block Storage. Dieser Service ermöglicht Kunden, Daten einfach von einer Recheninstanz zu einer anderen zu verschieben. Er eignet sich besonders für Web-Anwendungen mit hohem Daten-Zugriff. Die Preise beginnen bei 0,10 US-Dollar pro Gigabyte und Monat. In der Public-Beta-Phase erhalten Nutzer von HP Cloud Block Storage einen Rabatt von 50 Prozent.

Außerdem hat HP weitere Services angekündigt:

  • Die Public-Beta-Phase von HP Cloud Application Platform as a Service (PaaS). Dieser Service ermöglicht Unternehmen und Software-Entwicklern, sich auf die App-Entwicklung und deren Implementierung zu fokussieren. Grundlage für diesen Service ist das Projekt Cloud Foundry Open PaaS. Es werden eine Vielzahl von Sprachen, der Aufbau von komplexen App-Infrastrukturen und ad-hoc-Provisionierung und -Bereitstellung unterstützt.
  • Der Service HP Cloud Workload Migration Services hilft Anwendern, Arbeitslasten zu erfassen, zu planen und in HPs Public Cloud zu migrieren. Der Service wird in Zusammenarbeit mit HP-Partnern erbracht und unterstützt Kunden durch geringe oder gar keine Änderungen am Anwendungs-Code. Dadurch können sie von den Vorteilen von Cloud Computing wie Skalierbarkeit, Kostenersparnissen und Flexibilität profitieren.

HP hat darüber hinaus eine Lösung speziell für Telekommunikationsdienstleister veröffentlicht. HP Cloud Solutions for Communication Service Providers (CSPs) ermöglicht CSPs, Cloud-Umgebungen für kleine und mittelgroße Unternehmen sowie große Firmen bereitzustellen. So können sich CSPs als Cloud-Service-Broker etablieren und vom Cloud-Geschäft profitieren. Außerdem können sie ihren Geschäfts- und Endkunden neue und bessere Services bieten.

Kategorien
News

40 Prozent der Unternehmen setzen auf hybride Cloud-Plattformen

Laut einer Studie von IDC und Infosys setzen über 40 Prozent der Befragten mittlerweile auf hybride Cloud-Plattformen. Viele der interviewten Unternehmen wiesen zudem auf die wichtige Zusammenarbeit mit einem verlässlichen externen Dienstleister hin. Nur erfahrene Service Provider könnten Unternehmen beim komplexen Umzug in die Cloud umfassend unterstützen. Die Ergebnisse der IDC-Studie erscheinen in Zusammenarbeit mit Infosys in dem White Paper „Adoption of Cloud: Private Cloud is Current Flavor but Hybrid Cloud is Fast Becoming a Reality“. Im Rahmen der Erhebung, die von IDC durchgeführt wurde und seit September 2012 erhältlich ist, wurden IT-Entscheider in Führungspositionen befragt. Die Umfrageteilnehmer sind bei 326 großen Unternehmen in den USA, Großbritannien, Frankreich und Deutschland beschäftigt.

Die Komplexität des Cloud Ecosystem steigt

Das Cloud Ecosystem wird aufgrund einer Vielzahl verschiedener öffentlicher, privater und Vor-Ort-Informationstechnologien immer komplexer. Die für die Studie Befragten erklärten, dass es außerdem immer schwieriger werde, diese komplexen Umgebungen umfassend zu verstehen, zu überschauen und ganzheitlich zu verwalten.

56 Prozent der Umfrageteilnehmer arbeiten bereits mit einem externen Dienstleister zusammen oder spielen mit dem Gedanken, einen Service Provider zu engagieren. Hierdurch möchten sie erfahren, wie sie ihre Cloud-Strategie verbessern, eine Roadmap entwickeln und die neue Technologie effizient implementieren können. Die befragten Unternehmen hoben die Notwendigkeit hervor, durch die Zusammenarbeit mit den externen Dienstleistern die komplexen Herausforderungen anzusprechen, die sich durch die Entwicklung und Verwaltung zusammengeführter hybrider Cloud-Umgebungen ergeben.

Die IDC-Studie zeigt darüber hinaus, dass Cloud-Ansätze sowie die Einführung hybrider Clouds je nach Industrie variieren. So verfügen beispielsweise 53 Prozent der Unternehmen in der Telekommunikationsindustrie über formalisierte Cloud-Strategien und Roadmaps. Im Bereich der Finanzdienstleistungen sind es lediglich 38 Prozent. Geht es jedoch um hybride Cloud-Einführungen, liegen die Finanzdienstleister mit 64 Prozent vorne. Es folgen die Bereiche Gesundheitswesen mit 47 Prozent, Industrie mit 40 Prozent und Handel mit 37 Prozent.

Die Suche nach dem „besten Cloud-Anbieter“

52 Prozent der Befragten erklärten außerdem, dass es sehr wichtig sei, „die besten Cloud-Anbieter auszuwählen und eine reibungslose Integration zwischen den einzelnen Providern sicherzustellen“, 14 Prozent finden es sogar extrem wichtig. 48 Prozent der Unternehmen messen zudem „Datensicherheit und Integration, Automatisierung sowie dem Zusammenspiel von Anwendungen in privaten, öffentlichen und Vor-Ort-IT-Umgebungen“ eine große Bedeutung bei.

Private Cloud hat höchsten Stellenwert

Die private Cloud ist nach wie vor am beliebtesten: 69 Prozent der Umfrageteilnehmer bevorzugen diese Cloud-Option. Produktivitätsgewinne und Kosteneinsparungen – 37 Prozent sowie 25 Prozent – sind die Hauptgründe, warum sich Unternehmen für die Cloud entscheiden.


Bildquelle: ©Gerd Altmann / PIXELIO

Kategorien
Management

Professionelle Open-Source Lösungen für die eigene Cloud

Ich hatte vor längerer Zeit in dem Artikel „Die eigene Cloud bauen mit… – CloudWashing par excellence!“ die leichtfertige Aussage eines Journalisten kritisiert, dass man auf einfache Weise eine eigene Cloud Umgebung aufbauen kann. Das dem so nicht ist und worauf zu achten ist, habe ich in dem Artikel ebenfalls erläutert. Dennoch existieren natürlich Lösungen, die dabei helfen, eine eigene Cloud aufzubauen. Tatsächlich gibt es derzeit aber nur fünf Open-Source Lösungen, die für den professionellen Aufbau von Cloud Computing Umgebungen eingesetzt werden sollten. Dazu gehören openQRM, Eucalyptus, OpenStack, CloudStack und OpenNebula.

Grundlegendes! Bitte lesen!

Viele Unternehmen entscheiden sich vermehrt für den Aufbau einer eigenen (Private) Cloud, um die Kontrolle über Ressourcen, Daten, Sicherheit usw. zu behalten. Richtig ist, dass eine eigene Cloud die Agilität eines Unternehmens verbessert und die Systeme bis zu einem gewissen Grad skalieren können. Allerdings sollte sich ein Unternehmen immer bewusst machen, das die Skalierbarkeit einer eigenen Cloud einem manuellen Prozess gleicht. Bei diesem muss in Echtzeit auf Ressourcenengpässe durch das eigene Personal reagiert werden, indem weitere Hardwarekomponenten in Form von Speicherplatz, Arbeitsspeicher oder Rechenleistung nachgerüstet werden. Für jede virtuelle Instanz wird schließlich auch die physikalische Hardware benötigt. Neben Hardware- und Softwareressourcen sind Tools zum Echtzeit-Monitoring der Umgebung daher unerlässlich.

Hardware, Hardware, Hardware

Eine eigene Cloud bedarf also Unmengen an physikalischen Ressourcen um den Wunsch nach Flexibilität und quasi unendlichen virtuellen Ressourcen zu befriedigen. Heißt im Umkehrschluß daher für Unternehmen mit einer eigenen Cloud: Investieren, das eigene Rechenzentrum umbauen und Cloud-fähig zu machen.

Es ist ein Irrglaube, wenn man denkt, dass der Aufbau einer eigenen Cloud impliziert, sich anschließend nicht mehr um die Hochverfügbarkeit der eigenen Infrastruktur (physikalische Maschinen, virtuelle Maschinen, Master-Slave-Replikation, Hot-Standby, etc.) kümmern zu müssen. Das macht dann ja schließlich die Cloud alleine.

Konfigurieren, Skripte, Intelligenz

Eine Cloud funktioniert nicht von alleine. Sie muss entwickelt und mit Intelligenz ausgestattet werden. Das gilt für den Aufbau einer Private Cloud genau so wie für die Nutzung eines Public Cloud Angebots (im Falle von IaaS). Dazu müssen Skripte geschrieben, womöglich Software neu entwickelt werden, die auf der Cloud verteilt läuft. Weiterhin ist es wichtig, die Whitepaper des Anbieter zu lesen, KnowHow(!) aufzubauen und zu verstehen, wie die Cloud arbeitet, um sie für die eigenen Bedürfnisse nutzen zu können. Eine weitere Möglichkeit besteht natürlich darin, sich (zusätzlich) von Profis beraten zu lassen. Das ist bei der Nutzung einer eigenen Cloud nicht anders. Wenn eine virtuelle Maschine A ein Problem hat, dann kann sie plötzlich nicht mehr erreichbar sein, wie jeder normale physikalische Server nun einmal auch. Nun könnte man denken: “Dann nehme ich als Backup für virtuelle Maschine A halt noch eine virtuelle Maschine B dazu!” Und dann? Man könnte nun denken, dass die virtuelle Maschine B automatisch die Aufgaben der virtuelle Maschine A übernimmt. So einfach ist das aber nicht! Skripte müssen vorab dafür sorgen, dass die virtuelle Maschine B die Aufgaben von virtuelle Maschine A übernehmen soll, wenn diese plötzlich nicht mehr erreichbar ist. Auch die virtuelle Maschine B muss dafür zunächst vorbereitet werden. Dazu kann z.B. der eigentliche (wichtige) Inhalt der virtuelle Maschine A inkl. aller Konfigurationen etc. in einem zentralen Speicher und nicht auf dem lokalen Speicher abgelegt werden. Anschließend muss ein Skript dafür sorgen, dass die virtuelle Maschine B automatisch mit den Konfigurationen und allen Daten aus dem lokalen Speicher hochgefahren wird, wenn die virtuelle Maschine A nicht mehr verfügbar ist.

Virtuelles Rechenzentrum

Die Cloud gibt uns im Bereich Infrastructure as a Service letztendlich nur die Möglichkeit, aus einem quasi unendlich großen Pool von Ressourcen die (unendliche) Anzahl an Ressourcen zu dem Zeitpunkt zu bekommen, wenn wir sie benötigen. Wir erhalten von der Cloud somit ein eigenes hochskalierbares virtuelles Rechenzentrum. Das bedeutet aber im Umkehrschluss für den Betreiber einer Cloud (Private, Public), dass er ebenfalls die Menge an physikalischen Ressourcen vorhalten muss, damit die angefragten virtuellen Ressourcen jederzeit bereitgestellt werden können und damit immer ausreichend Ressourcen für die Nutzer zur Verfügung stehen.


Open-Source Lösungen für den Aufbau einer eigenen Cloud


openQRM

openQRM ist eine Open Source Cloud Computing Plattform für die Verwaltung von Rechenzentren und skalierbaren IT-Infrastrukturen und ist aktuell in der Version 5.0 verfügbar. Mittels einer zentralen Managementkonsole kann die Administration von physikalischen Servern ebenso vorgenommen werden wie von virtuellen Maschinen, wodurch Rechenzentren voll automatisiert und höchst skalierbar betrieben werden können. Neben einer offenen API und einem SOAP Web Service für die nahtlose Integration der eigenen Geschäftsprozesse, unterstützt openQRM alle bekannten Virtualisierungstechnologien und bietet die Möglichkeit für transparente Migrationen von „P-to-V“, „V-to-P“ und „V-to-V“.

openQRM verfügt des Weiteren über ein integriertes Storage-Management, mit dem anhand des Snapshot-Verfahrens Serversysteme dupliziert werden können. Die Snapshots ermöglichen eine dynamische Anpassung des Speicherplatzes, bieten einen persistenten Cloud-Speicher und erlauben ein Backup/Restore der Server sowie deren Versionierung.

Mit der „N-zu-1“ Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Dabei spielt es keine Rolle, ob physikalische oder virtuelle Maschinen eingesetzt werden!

Benefits auf einem Blick

Virtualisierung

openQRM unterstützt alle gängigen Virtualisierungstechnologien darunter VMWare, Citrix XenServer und KVM und bietet die Möglichkeit der Migration von P-to-V-, V-to-P- und V-to-V für physikalische Server als auch virtuelle Maschinen.

Storage

openQRM verfügt über ein zentralisiertes Speichersystem mit integriertem Storage Management, welches alle bekannten Storage-Technologien unterstützt. Dazu gehören u.a. Netapp, Equallogic, NFS, iSCSI ZFS und proprietäre auf LVM basierende Storage-Typen, für eine flexible und schnelle Duplizierung von Serversystemen.

Zentrales Management

openQRM verschmilzt die Welt von Open Source mit der von kommerziellen Produkten. Mit einer zentralen Managementkonsole sind alle Funktionen zur Administration von Rechenzentren, System- und Service-Überwachung, Hochverfügbarkeit und automatisierter Bereitstellung vorhanden.

Funktionen

Hardware/Software Isolation

openQRM isoliert die Hardware (physikalische Server, virtuelle Maschinen) vollständig von der Software (Server Images). Dabei ist die eigentliche Hardware eine „Computing Resource“ und kann dadurch jederzeit durch eine andere Hardware ersetzt werden, ohne dass die Software (Server Image) neu konfiguriert werden muss.

Unterstützung für verschiedene Virtualisierungs-Technologien

Mit VMWare, Xen, KVM und dem Citrix XenServer unterstützt openQRM eine viehlzahl an virtuellen Maschinen und kann dieses transparent verwalten und migrieren. Neben der System-Migration von physikalischen Servern zu virtuellen Maschinen (P-to-V) können Systeme ebenfalls von virtuellen Maschinen zu physikalischen Servern (V-to-P) migriert werden. Darüber hinaus besteht die Möglichkeit ein System von einer Virtualisierungstechnologie zu einer anderen Virtualisierungstechnologie (V-to-V) zu verschieben.

Vollautomatische Nagios-Konfiguration

openQRM unterstützt die vollautomatische Konfiguration von Nagios mittels „nmap2nagios-ng“. Damit wird das gesamte openQRM Netzwerk analysiert und auf Basis der Informationen eine Nagios-Konfiguration erstellt. Anschließend werden alle Services auf allen Systemen überwacht.

Integriertes Storage-Management

openQRM organisiert die Serversysteme wie Dateien und nutzt zur Verwaltung moderne Storagesysteme anstatt lokaler Festplatten. Mittels Logical Volume Managern (LVM) und deren Snapshot-Verfahren können Server-Templates auf schnellen Wege dupliziert werden.

„Sollen z.B. 10 neue Server ausgerollt werden, kann so einfach ein bestehendes Server-Image 10 mal dupliziert und die „Clone“ direkt zum Deployment bereitgestellt werden.“

Mit diesem Konzept steht ein zentrales Backup/Restore sowie die Möglichkeit von Hot-Backups ohne Downtime zur Verfügung.

openQRM unterstützt folgende Storage-Typen:

  • NFS (NAS)
  • iSCSI (iSCSI SAN)
  • Aoe/Coraid (AOE SAN)
  • NetApp (iSCSI SAN)
  • Local-disk (Übertragung von Server-Images auf lokale Festplatten)
  • LVM-Nfs (NFS auf LVM2, erlaubt schnelles Cloning)
  • LVM-iSCSI (iSCSI auf LVM2, erlaubt schnelles Cloning)
  • LVM-Aoe (Aoe auf LVM2, erlaubt schnelles Cloning)
  • Equallogic (iSCSI SAN)
  • ZFS (iSCSI SAN)

Hochverfügbarkeit und „N-to-1“-Fail-Over!

Mit der „N-zu-1“ Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Unabhängig davon, ob physikalische oder virtuelle Maschinen eingesetzt werden.

„Um zum Beispiel 10 hochverfügbare Spezialsysteme zu betreiben benötigt man normalerweise weitere 10 „Stand-By“-Systeme. Mit openQRM jedoch benötigt man nur einen einzigen „Stand-By“-Server, der im Fehlerfall eines der 10 Spezialsysteme benutzt wird. Das heißt, man kann 9 „stromfressende“, nicht ausgelastete Server einsparen. Perfekt für „Green IT“.

Des Weiteren können physikalische Server virtuelle Maschinen als „Hot Stand-By“ nutzen und lassen sich im Notfall in eine virtuelle Maschine migrieren.

Fertige Server-Templates

Mittels dem „Image-Shelf“-Plugin stellt openQRM bereits fertige Server Templates zur Verfügung. Dazu gehören Linux Distributionen wie Debian, Ubuntu, CentOS und openSuse. Des Weiteren können mit dem Plugin eigene Server Templates auf unterschiedliche Weise (lokal, http, https, ftp) bereitgestellt werden.

Unterstützung verschiedenster Deployment-Methoden

Mit openQRM können Server von jeder Art von Storage gestartet werden. Zusätzlich können die Server Templates von einem Storage-Typ zu einem anderen übertragen werden, dabei kann noch entschieden werden, ob die Server Templates auf einem physikalischen Server oder in einer virtuellen Maschine gestartet werden sollen.

Unterstützung verschiedener OS-Distributionen

Es stehen bereits vor-konfigurierte openQRM-Server Pakete für Debian, Ubuntu und CentOS zur Verfügung. Ein openQRM-Server kann aber alle gängigen Linux Distributionen verwalten.

Cloud-Selector

Mit dem Cloud-Selector kann der Cloud Administrator seine Cloud Produkte wie z.B. Prozessoren, Speicher, Festplattengröße oder den Typ der virtuellen Maschine auswählen und deren Preise festlegen.

Kostenrechner im Cloud-Portal

Die Cloud-Computing-Unit (CCU) kann einer regulären Währung (z.b. USD oder Euro) zugewiesen werden. Mit dem Kostenrechner werden die stündlichen, täglichen und monatlichen verbrauchten Kosten für eine Cloud Appliance berechnet.

Private Cloud Images

Mit der „Private Cloud Image“-Funktion können Cloud Benutzer eigene Server Templates anlegen und verwalten.

Volle SSL-Unterstützung

Der openQRM-Server arbeitet in einem vollständig SSL-verschlüsselten Bereich und unterstützt verschiedene Serverarchitekturen wie i386 und x86_64.

Ich möchte hier noch anmerken, dass es sich bei der openQRM Enterprise um einen deutschen Anbieter aus dem Bereich des Cloud Computing handelt!


Eucalyptus

Beim Elastic Utility Computing Architecture for Linking Your Programs To Useful Systems (Eucalyptus) handelt es sich um eine Open Source Software Infrastruktur zum Aufbau von skalierbaren Utility Computing bzw. Cloud Computing Umgebungen für spezielle Clustersysteme oder einfachen miteinander verbundenen Arbeitsplatzrechnern.

Eucalyptus wurde als ein Forschungsprojekt am Computer Science department an der University of California Santa Barbara entwickelt und wird mittlerweile von der Eucalyptus Systems Inc. vermarktet. Die Software wird aber weiterhin als Open Source Projekt gepflegt und weiterentwickelt. Die Eucalyptus Systems Inc. bietet darüber hinaus lediglich weitere Dienstleitungen und Produkte sowie einen professionellen Support rund um Eucalyptus an.

Folgende Funktionen stellt Eucalyptus bereit:

  • Kompatibilität mit den Schnittstellen zu Amazon EC2 und S3 (SOAP und REST).
  • Unterstützung aller Virtual Machines die auf einem Xen Hypervisor oder einer KVM ausgeführt werden.
  • Administrationstools für die System- und Benutzerverwaltung.
  • Die Möglichkeit mehrere Cluster für eine Cloud zu konfigurieren, wobei jeder einzelne Cluster über eine private interne IP-Adresse verfügt.

Architektur

Eucalyptus besteht aus fünf zusammenarbeitenden Hauptkomponenten um den angeforderten Cloud Service bereit zu stellen. Die Kommunikation zwischen den Komponenten erfolgt über gesicherte SOAP Nachrichten mittels WS-Security.

Cloud Controller (CLC)

Der Cloud Controller dient innerhalb einer Eucalyptus Cloud als Hauptkomponente für die Verwaltung des gesamten Systems und stellt den Administratoren und Benutzern einen zentralen Zugriffspunkt bereit. Die Kommunikation aller Clients mit dem Eucalyptus System erfolgt ausschließlich nur über den Cloud Controller anhand der auf SOAP oder REST basierenden API. Der Cloud Controller ist dafür zuständig, alle Anfragen zu der richtigen Komponente weiterzuleiten, diese zu sammeln und die Antwort der Komponente anschließend wieder zu dem Client zurück zu senden. Der Cloud Controller ist somit die öffentliche Schnittstelle einer Eucalyptus Cloud.

Cluster Controller (CC)

Der Cluster Controller ist innerhalb des Eucalyptus Systems für die Verwaltung des virtuellen Netzwerks zuständig. Der Cloud Controller erhält alle Anfragen auf Basis seiner SOAP oder REST Schnittstellen. Der Cloud Controller erhält alle Informationen über die vorhandenen Node Controllers des Eucalyptus Systems und ist für die Kontrolle des Lebenszyklus jedes einzelnen verantwortlich. Er leitet alle Anfragen an die Node Controller mit verfügbaren Ressourcen weiter um damit virtuelle Instanzen zu starten.

Node Controller (NC)

Ein Node Controller steuert das Betriebssystem und den zugehörigen Hypervisor eines Rechners (Node) im Eucalyptus System. Auf jeder physikalischen Maschine die eine durch den Cluster Controller instantiierte virtuelle Instanz auf Grund einer Anfrage beherbergt, muss eine Instanz eines Node Controller vorhanden sein.

Walrus (W)

Walrus ist für die Zugriffsverwaltung auf den Speicherdienst innerhalb eines Eucalyptus Systems zuständig. Walrus erhält die Anfragen über seine SOAP oder REST Schnittstelle.

Storage Controller (SC)

Der Storage Controller verwaltet den Speicherdienst innerhalb eines Eucalyptus Systems und verfügt über eine Schnittstelle zu Amazon’s S3 Dienst. Der Storage Controller arbeit in Verbindung mit Walrus und wird für die Speicherung und den Zugriff auf die Images der Virtual Machines, die Kernel Images, die RAM Disk Images und die Daten der Benutzer verwendet. Die Images der Virtual Machines können rein privat oder öffentlich zugänglich gemacht werden und können dabei komprimiert und verschlüsselt gespeichert werden. Die Images werden lediglich entschlüsselt, wenn ein Node eine neue virtuelle Instanz starten muss und dazu einen Zugriff auf das Image benötigt.

Das Clustersystem

Ein Eucalyptus System vereint und verwaltet Ressourcen von Single-Cluster als auch Multi-Cluster Systemen. Dabei besteht ein Cluster aus einer Gruppe von Rechnern, die alle mit dem selben LAN verbunden sind. Zu jedem Cluster kann wiederum einer aber auch mehrere Node Controller gehören, die für die Verwaltung der Instantiierung und Beendigung der virtuellen Instanzen verantwortlich sind.

Ein Single-Cluster besteht aus mindestens zwei Maschinen. Auf dem einen werden der Cluster Controller, der Storage Controller und der Cloud Controller ausgeführt, auf dem anderen der Node Controller. Diese Art der Konfiguration ist vor allem für Experimente und schnelle Konfigurationen geeignet. Die dargestellte Konfiguration könnte ebenfalls auf einer einzigen Maschine implementiert werden. Allerdings ist dafür eine äußerst leistungsstarke Hardware notwendig!

Bei einem Multi-Cluster wird jede Komponente (CC, SC, NC, und CLC) auf einer separaten Maschine ausgeführt. Dies sollte die bevorzugte Art und Weise sein das Eucalyptus System zu konfigurieren, wenn damit ernsthaft gearbeitet werden soll. Mit einem Multi-Cluster kann zudem die Performance erhöht werden, indem einem Controller die passende Maschine zugewiesen wird. Zum Beispiel sollte der Cloud Controller auf einer Maschine mit einer schnellen CPU ausgeführt werden. Im Allgemeinen bringt die Entscheidung für einen Multi-Cluster eine höhere Verfügbarkeit, sowie eine bessere Lastverteilung und eine optimierte Verteilung der Ressourcen über alle Cluster. Das Clusterkonzept ist vergleichbar mit dem Konzept der Verfügbarkeitszonen der Amazon EC2. Dabei werden die Ressourcen über mehrere Verfügbarkeitszonen hinweg verteilt, damit ein Fehler in einer Zone nicht die Anwendung beeinträchtigt.

Eucalyptus und die Ubuntu Enterprise Cloud

Bei der Ubuntu Enterprise Cloud (UEC) handelt es sich um eine Open Source Initiative von Ubuntu, um auf eine einfachere Art und Weise skalierbare Cloud Infrastrukturen auf Basis von Eucalyptus bereitzustellen und diese zu konfigurieren.

Mit der Ubuntu Enterprise Cloud können Public Clouds erstellt werden, welche Amazon’s EC2 infrastructure nutzen. Es können damit aber genau so gut Private Clouds entwickelt werden, die auf der eigenen Infrastruktur im eigenen Rechenzentrum hinter der eigenen Firewall gehostet werden.

Vorteile von Eucalyptus

Bei Eucalyptus handelt es sich um eine Umgebung für Cloud Services, mit der Public Clouds auf Amazon’s EC2 Infrastruktur bzw. Private Clouds im hauseigenen Rechenzentrum erstellt werden können. Die grundlegenden Vorteile sollen hier noch einmal kurz aufgeführt werden:

  • Open Source und Entwicklung
    Eucalyptus wurde geschaffen, um die Kommunikation und Forschung von Cloud Computing Plattformen zu fördern. Der Quellcode ist frei verfügbar, was es ermöglicht die Plattform so zu erweitern, damit sie den eigenen Anforderungen entspricht. Eucalyptus wird zunehmend weiterentwickelt. Darüber hinaus ist die Aufnahme und Integration von Funktionswünschen und Verbesserungsvorschlägen sehr schnell.
  • Community
    Eucalyptus verfügt über eine große Community die gerne bereit ist einander zu helfen. Über die Foren kann schnell Kontakt zu anderen Benutzern aufgenommen und Hilfe bezogen werden.
  • Public Cloud
    Eucalyptus funktioniert einwandfrei auf Amazon’s EC2 Framework und kann damit als Public Cloud eingesetzt werden.
  • Private Cloud
    Eucalyptus kann auf der eigenen Infrastruktur im eigenen Rechenzentrum hinter der eigenen Firewall als Private Cloud eingesetzt werden. Dadurch ist die Kontrolle bzgl. der Sicherheit und der gesamten Umgebung in der eigenen Hand.
  • Portabilität
    Auf Grund der Kompatibilität von Eucalyptus mit Amazon’s EC2 API sowie der Flexibilität von Eucalyptus, können Anwendungen ohne großen Aufwand von einer Cloud in die andere migriert werden. Darüber hinaus besteht die Möglichkeit des Aufbaus von Hybrid Clouds, indem eine Private Cloud mit einer Public Cloud erweitert bzw. kombiniert wird.
  • Qualitativ durch Tests
    Durch den Einsatz von Eucalyptus in Ubuntu’s Enterprise Cloud findet tagtäglich ein weltweiter realer Test auf Basis von mehr als tausend Server-Instanzen statt.
  • Kommerzieller Support
    Neben den Foren der Eucalyptus Community kann natürlich auch auf einen kommerziellen Support zurückgegriffen werden.

Open Nebula

OpenNebula ist ein Open Source Virtual Infrastructure Manager mit dem aus vorhandenen Rechenzentren jede Art von Cloud Computing Umgebung aufgebaut und bereitgestellt werden kann. In erster Linie dient OpenNebula als Tool zur Verwaltung der virtualisierten Infrastruktur des eigenen Rechenzentrums bzw. der eigenen Cluster, also der eigenen Private Cloud.

Darüber hinaus ist OpenNebula in der Lage Hybrid Clouds aufzubauen, also die eigene lokale Infrastruktur mit einer Public Cloud Infrastruktur zu verbinden/kombinieren, um die Skalierbarkeit der eigenen Umgebung noch weiter zu erhöhen. OpenNebula verfügt zusätzlich über spezielle Schnittstellen für die Verwaltung von virtuellen Maschinen, Speicherplatz und des Netzwerks von Public Clouds.

Funktionen

Private Cloud Computing

  • Internal Interfaces for Administrators and Users
    Mit einer Unix ähnlichen Kommandozeile und einer XML-RPC API kann der Lebenszyklus der virtuellen Maschinen und physikalischen Server verwaltet werden. Weitere Administrationsmöglichkeiten bietet die libvirt API.
  • Steuerung
    Die Verwaltung der Arbeitslast und Zuweisung der Ressourcen kann nach bestimmten Regeln wie z.B. der aktuellen Auslastung automatisch vorgenommen werden. Des Weiteren wird der Haizea VM-based lease manager unterstützt
  • Virtualisierungsmanagement
    Es existieren Konnektoren für Xen, KVM und VMware, sowie einem generischen libvirt Konnektor für weitere Virtual Machine Manager. Die Unterstützung von Virtual Box ist in Planung.
  • Image Management
    Es sind Funktionen für den Transfer und das Clonen von Virtual Machine Images vorhanden.
  • Netzwerk Management
    Es lassen sich isolierte virtuelle Netze festlegen um virtuelle Maschinen miteinander zu verbinden.
  • Service Management
    Unterstützung von Multi Tier Services bestehend aus Gruppen von miteinander verbundenen virtuellen Maschinen und deren Auto Konfiguration während des Boot Vorgangs.
  • Sicherheit
    Die Verwaltung der Benutzer wird durch den Administrator der Infrastruktur vorgenommen.
  • Fehlertoleranz
    Eine persistente Datenbank dient zum Speichern aller Informationen der Hosts und virtuellen Maschinen.
  • Skalierbarkeit
    Tests zeigten bisher, das OpenNebula mehrere hundert Server und virtuelle Maschinen verwalten kann.
  • Installation
    Die Installation erfolgt auf einem UNIX Cluster Front-End ohne das weitere Services benötigt werden. OpenNebula wird mit Ubuntu 9.04 (Jaunty Jackalope) ausgeliefert.
  • Flexibilität und Erweiterbarkeit
    Die Architektur, Schnittstellen und Komponenten sind offen, flexibel und erweiterbar. Dadurch kann OpenNebula mit jedem aktuellen Produkt aus dem Bereich Virtualisierung, Cloud Computing oder Management Tool für Rechenzentren integriert werden.

Hybrid Cloud Computing

  • Cloud Plugins
    Konnektoren für Amazon EC2 und ElasticHosts.
  • Zusammenschluss
    Unterstützung für den gleichzeitigen Zugriff auf mehrere Remote-Clouds.
  • Erweiterbarkeit
    Modulare Konzepte für die Entwicklung neuer Konnektoren.

Public Cloud Computing

  • Cloud Schnittstellen für Benutzer
    Implementierung einer Teilmenge der Amazon EC2 Query API und der OGF OCCI API
  • Erweiterbarkeit
    Die OpenNebula Cloud API ermöglicht die Implementierung neuer/weiterer Cloud Schnittstellen.

OpenStack

OpenStack ist ein weltweites Gemeinschaftsprojekt von Entwicklern und Cloud Computing Spezialisten, die das Ziel verfolgen eine Open Source Plattform für den Aufbau von Public und Private Clouds zu entwickeln. Das Projekt wurde initial von der Nasa und Rackspace gegründet und will Anbietern von Cloud Infrastrukturen ein Werkzeug in die Hand geben, mit dem sie unterschiedliche Arten von Clouds ohne großen Aufwand auf Standard Hardwarekomponenten aufbauen und bereitstellen können.

Der gesamte OpenStack Quellcode ist frei verfügbar und unterliegt der Apache 2.0 Lizenz. Dadurch ist jeder in der Lage auf dieser Basis seine eigene Cloud zu entwickeln und ebenfalls Verbesserungen in das Projekt zurückfließen zu lassen. Der Open Source Ansatz des Projekts soll zudem die Entwicklung von Standards im Bereich des Cloud Computing weiter fördern, Kunden die Angst vor einem Vendor Lock-in nehmen und ein Ecosystem für Cloud Anbieter schaffen.

OpenStack besteht derzeit aus insgesamt sechs Kernkompenten und wird stetig weiterentwickelt. OpenStack Compute, OpenStack Object Storage und OpenStack Image Service, OpenStack Identity, OpenStack Dashboard und OpenStack Networking.

Man muss sich allerdings darüber im Klaren sein, dass es sich bei OpenStack um kein fertiges Produkt handelt, das sofort einsatzfähig ist, sondern um einzelne Teilprojekte die selbst ineinander integriert und für die eigenen Bedürfnisse angepasst werden müssen. Es gibt aber mittlerweile fertige OpenStack Installationsroutinen von Mitgliedern des OpenStack Projekts.

OpenStack Compute

OpenStack Compute dient dem Aufbau, Bereitstellen und Verwalten von großen Virtual Machine Clustern, um auf dieser Basis eine redundante und skalierbare Cloud Computing Plattform zu errichten. Dazu stellt OpenStack Compute diverse Kontrollfunktionen und APIs zur Verfügung, mit denen Instanzen ausgeführt und Netzwerke verwaltet werden sowie die Zugriffe der Nutzer auf die Ressourcen gesteuert werden können. OpenStack Compute unterstützt zudem eine große Anzahl von Hardwarekonfigurationen und sieben Hypervisor.

OpenStack Compute kann bspw. Anbietern dabei helfen Infrastructure Cloud Services bereitzustellen oder IT-Abteilungen ermöglichen ihren internen Kunden und Projekten Ressourcen bei Bedarf zur Verfügung zu stellen. Zudem können große Datenmengen (Big Data) mit Tools wie Hadoop verarbeitet werden oder Web Anwendungen entsprechend ihrer Ressourcenbedürnisse bedient werden.

OpenStack Object Storage

Mit OpenStack Object Storage können auf Basis von standardisierten Servern redundante und skalierbare Object Storage Cluster mit einer Größe von bis zu 1 Petabyte aufgebaut werden. Dabei handelt es sich nicht um ein Dateisystem und ist nicht für das Speichern von Echtzeitdaten ausgelegt, sondern für das langfristige Speichern von statischen Daten gedacht, die bei Bedarf abgerufen oder aktualisiert werden können. Gute Anwendungsbeispiele für OpenStack Object Storage sind das Speichern von Virtual Machine Images, Photos, E-Mails, Backupdaten oder Archivierung. Da der Object Storage dezentral verwaltet wird, verfügt er über eine hohe Skalierbarkeit, Redundanz und Beständigkeit der Daten.

Die OpenStack Software sorgt dafür, dass die Daten auf mehrere Speicherbereiche im Rechenzentrum geschrieben werden, um damit die Datenreplikation und Integrität innerhalb des Clusters sicherzustellen. Die Storage Cluster skalieren dabei horizontal, indem weitere Knoten bei Bedarf hinzugefügt werden. Sollte ein Knoten ausfallen, sorgt OpenStack dafür, dass die Daten von einem aktive Knoten repliziert werden.

OpenStack Object Storage kann von Anbietern genutzt werden, um einen eigenen Cloud Storage bereizustellen oder die Server Images von OpenStack Compute zu speichern. Weitere Anwendungsfälle wären Dokumentenspeicher, eine Back-End Lösung für Microsoft SharePoint, eine Archivierungsplattform für Logdateien oder für Daten mit langen Aufbewahrungsfristen oder einfach nur zum Speichern von Bildern für Webseiten.

OpenStack Image Service

Der OpenStack Image Service hilft bei der Suche, Registrierung und dem Bereitstellen von virtuellen Maschinen Images. Dazu bietet der Image Service eine API mit einer Standard REST Schnittstelle, mit der Informationen über das VM Image abgefragt werden können, welches in unterschiedlichen Back-Ends abgelegt sein kann, darunter OpenStack Object Storage. Clients können über den Service neue VM Images registrieren, Informationen über öffentlich verfügbare Images abfragen und über eine Bibliothek ebenfalls darauf zugreifen.

Der OpenStack Image Service unterstützt eine Vielzahl an VM Formaten für private und öffentliche Images, darunter Raw, Machine (kernel/ramdisk, z.B. AMI), VHD (Hyper-V), VDI (VirtualBox), qcow2 (Qemu/KVM), VMDK (VMWare) und OVF (VMWare).

OpenStack Identity

Der OpenStack Identity Service stellt eine zentrale Authentifizierung über alle OpenStack Projekte bereit und integriert sich in vorhandene Authentifizierungs-Systeme.

OpenStack Dashboard

Das OpenStack Dashboard ermöglicht Administratoren und Anwendern den Zugang und die Bereitstellung von Cloud-basierten Ressourcen durch ein Self-Service Portal.

OpenStack Networking

OpenStack Networking ist ein skalierbares und API basierendes System für die Verwaltung von Netzwerken und IP-Adressen.


CloudStack

CloudStack wurde ursprünglich von Cloud.com entwickelt. Nach der Übernahme durch Citrix Systems im Jahr 2011 wurde Citrix zum Hauptsponsor von CloudStack. Die Open-Source Cloud Plattform basiert auf Java und hilft beim Aufbau und der Verwaltung von skalierbaren Infrastrukturen. Zu den aktuell unterstützten Hypervisorn gehören VMware, Oracle VM, KVM, XenServer und die Xen Cloud Platform. Neben einer eigenen RESTful API implementiert CloudStack ebenfalls die Amazon EC2 und S3 APIs sowie VMwares vCloud API. Die Cloud-Infrastruktur kann entweder über die Web-Oberfläche, einer Kommandozeile oder die API konfiguriert und verwaltet werden.

CloudStack besteht aus fünf Kernkomponenten. Der Compute Controller verwaltet die Rechenleistung, der Network Controller steuert das virtuelle Netzwerk und der Storage Controller ist für die Speicherverwaltung des BlockStorage zuständig. Alle drei Komponenten haben direkten Kontakt mit der physikalische Hardware. Auf diesen Komponenten setzt die CloudStack Orchestration Engine auf, die für den Aufbau, die Steuerung und Verwaltung der CloudStack Infrastruktur verantwortlich ist. Über der Orchestration Engine befindet sich als letzte Komponente die CloudStack API, die mit der Web-Oberfläche, Kommandozeile oder über REST interagiert und die Befehle an die Orchestration Engine weitergibt.

Citrix Systems ist nicht das einzige bekannte Unternehmen, was CloudStack unterstützt. Weitere Supporter des CloudStack Projekts sind RightScale, PuppetLabs, Juniper Networks, Enstratus, TrendMicro, Intel und Equinix.


Bildquelle: ©Gerd Altmann / PIXELIO

Kategorien
Analysen

Windows Server 2012 – Microsoft vervollständigt sein Cloud Computing Portfolio

Microsoft hat mit dem Windows Server 2012 die neue Ära seines Serverbetriebssystems eingeläutet, mit dem sich das Unternehmen auf den Aufbau und den Betrieb von Cloud Infrastrukturen konzentrieren und sein Engagement im Bereich Cloud Computing unterstreichen will. Dabei fokussien sich die Redmonder insbesondere auf die Private Cloud, wollen im Bereich Public bzw. Hosted Cloud aber ebenfalls ein Wort mitreden.

Windows Server 2012 - Microsoft vervollständigt sein Cloud Computing Portfolio

Hintergrund: Windows Server 2012

Der Windows Server 2012 kommt mit vielen Neuigkeiten. Aus der Cloud Brille betrachtet, befinden sich die größten Innovationen im Bereich der Virtualisierung. Und hier im Speziellen mit dem neuen Hyper-V 3.0, der mit seiner neuen Funktion Hyper-V-Replica virtuelle Festplatte und vollständige Server asynchron zwischen mehreren Hyper-V-Hosts im Netzwerk manuell oder automatisiert repliziert und synchronisiert. Dabei wird die Replikation über das Dateisystem vorgenommen. Virtuelle Server lassen sich zudem im laufenden Betrieb zwischen unterschiedlichen Hyper-V-Hosts replizieren. Damit verspricht Microsoft den Betrieb von hochverfügbaren virtuellen Servern (Hochverfügbarkeitslösung) ohne den Einsatz eines Cluster.

Microsoft spricht Hybrid Cloud

Mit dem Windows Server 2012 rundet Microsoft sein Cloud Portfolio auf der on-Premise Seite (Private Cloud) ab. Nach Windows Azure (PaaS, IaaS), Office 365/ Office 2013, Dynamics CRM Online und weitere Angebote (SaaS), bildet der neue Windows Server die Basis der IT-Infrastruktur im unternehmenseigenen Rechenzentrum bzw. in dem des Service Provider.

Neben dem Private Cloud Szenario zielt Microsoft ebenfalls auf die Hybrid Cloud. Dazu beinhaltet der Windows Server 2012 neben neuen Storage- und Netzwerktechnologien, Virtualisierungs- und Automatisierungskomponenten ebenfalls Funktionen für die Integration mit Microsoft Windows Azure und dem System Center. Damit lässt sich die on-Premise Umgebung um Ressourcen aus der Microsoft Public Cloud erweitern und u.a. .NET Anwendungen sowohl innerhalb der Private als auch der Public Cloud skalierbar einsetzen.

Vorteil: Microsoft ist bereits an der Basis

Auch wenn Microsoft im Bereich Cloud im Vergleich zu den Playern Amazon Web Services oder Google ziemlich spät aus den Startlöchern gekommen ist, holen sie mit ihrem Cloud Portfolio kräftig auf. Speziell der neue Windows Server 2012 ermöglicht Microsoft direkt die Kunden zu erreichen, die Amazon und Google aus eigener Kraft nicht bekommen können und werden. Nämlich diejenigen die der Public Cloud eher kritisch gegenüber eingestellt sind bzw. die Kunden, die bereits auf Microsoft Produkte setzen.

Wo Amazon und Google sehr leicht die (Web)-Startups dieser Welt einfangen und Microsoft sich mit Azure schwer tut, hat Microsoft bereits den Fuß bei etablierten Unternehmen in der Tür, wo bekanntlich die höheren Umsätze generiert werden.

Daher kam auch Amazons strategische Kooperation mit Eucalyptus nicht überraschend, um auch auf der Private Cloud Seite zumindest eine AWS ähnliche Plattform für das Hybrid Cloud Szenario zu unterstützen. Wo Microsoft sich als Serviceanbieter als auch Softwareanbieter positioniert, sind Amazon als auch Google reine Serviceanbieter, die im Umfeld von on-Premise Software und die dafür notwendigen nachgelagerten Prozesse wenig Erfahrung haben.

Kategorien
News

Suse setzt auf OpenStack und präsentiert Private Cloud Lösung für Unternehmen

Linux Distributor Suse steigt nach bereits vielen anderen Anbietern ebenfalls auf den OpenStack Zug auf. Erste Ankündigungen dazu machte Suse schon im Oktober 2011. Seit zwei Jahren befindet sich die Open-Source Cloud Infrastructure-as-a-Service Plattform nun auf dem Markt und konzentriert sich primär auf die traditionellen Internet Service Provider und Web Hosting Anbieter, die mit der Lösung ihr eigenes Cloud Computing Infastruktur Angebot aufbauen sollen. Antreiber und Wortführer ist Rackspace, aber ebenfalls Hersteller und Anbieter wie HP oder die Deutsche Telekom setzen bereits auf OpenStack.

Suse setzt auf OpenStack mit Private Cloud Lösung für Unternehmen

Die Suse Cloud

Bei der Suse Cloud handelt es sich um eine Infrastructure-as-a-Service Lösung, mit der Unternehmen ihre eigene Private Cloud aufbauen können. Dazu umfasst die Plattform Funktionen für die automatische Provisionierung von Ressourcen und deren Verwaltung. Weiterhin lassen sich die Ressourcen über ein Self-Service Portal von den Mitarbeitern, Projekten oder Abteilungen selbst beziehen, wodurch diese flexibler auf ihre Bedürfnisse reagieren können. Die Suse Cloud lässt sich zudem in einem Hybrid Cloud Szenario aufbauen, um damit schnell weitere Ressourcen extern beziehen zu können. Grundlage der Suse Cloud ist der Suse Linux Enterprise Server 11.

OpenStack: Die zusätzlichen Services werden entscheiden

Im OpenStack Universum tummeln sich mittlerweile viele große und kleine Anbieter, die ihre Chance im Cloud Infrastruktur Bereich wittern, allen voran Rackspace und HP aber auch Internap und Softlayer. Und es werden immer mehr werden.

Die Situation für Anbieter die auf OpenStack setzen ist schwierig, da sich niemand einen wirklich richtigen technologischen Vorteil verschaffen kann. Alle arbeiten an derselben Plattform und partizipieren von den Ideen und Lösungen des anderen. Die Differenzierung kann daher nur über eine Reihe von zusätzlichen Services erfolgen. Dazu gehören bspw. eine angepasste OpenStack Variante (Oberfläche, Usability, Funktionen, etc.), Professional Services und ein sehr guter Support. Aber auch Lösungen, mit denen sich der Kunde an eine Public Cloud anbinden kann um darüber skalieren zu können.

Kategorien
News

Rackspace bietet OpenStack Private Cloud zum kostenlosen Download

Rackspace bietet ab sofort seine Rackspace Private Cloud Software, auf Basis von OpenStack „Essex“, zum kostenlosen Download (1,8GB) an. Dabei handelt es sich um dieselbe Version, die Rackspace einsetzt, um die selbst gehostete Private Cloud zu betreiben.

Ubuntu 12.04 LTS, KVM, Horizon und mehr

Die Rackspace Private Cloud Software, mit dem Codenamen „Alamo“, umfasst Rackspace Chef-konfigurierte Version von OpenStack „Essex“ und ist zu 100% Open-Source. Die neue OpenStack Version „Folsom“ wird voraussichtlich im September erscheinen.

Alamo beinhaltet Ubuntu 12.04 LTS als Host Betriebssystem und einen KVM Hypervisor. Zum weiteren Umfang gehören das Horizon Dashboard, Nova Compute, Nova Multi Scheduler, Keystone Integrated Authentication, die Glance Image Library und verschiedene APIs. Rackspace arbeitet darüber hinaus mit weiteren Partner wie Red Hat zusammen, um in der Zukunft weitere Host Betriebssysteme und OpenStack Distributionen anzubieten.

Die gesamte „Alamo“ Version umfasst einen Installer, mit dem Unternehmen innerhalb von ein paar Minuten eine eigene Private Cloud ausrollen sollen können.

OpenStack für die Masse

Rackspace gibt zu, dass OpenStack zu Recht kritisiert wurde, nur von OpenStack Experten installiert und betrieben werden zu können. Mit „Alamo“ möchte Rackspace nun auch nicht Entwicklern die Chance geben, eine eigene OpenStack Cloud unter 30 Minuten installieren zu können.

Rackspace ist sich selbst darüber im Klaren, dass sie nicht direkt von dem Angebot der Private Cloud Software profitieren werden, da die Lösung als Open-Source lizensiert wurde. Allerdings erhofft sich das Unternehmen Einnahmen durch Support und weitere Services rund um die Software. Daher bietet Rackspace zusammen mit der Veröffentlichung der Private Cloud Software einen „Escalation Support Service“ an, der einen 24/7 Telefonsupport umfasst. Im Laufe des Jahres sollen weitere Services wie eine Cloud Monitoring Lösung folgen.

Ein sinnvoller Schritt

Rackspace macht mit der kostenlosen Veröffentlichung seiner OpenStack Private Cloud Version einen Schritt in die richtige Richtung. Viele etablierte und neue Cloud Anbieter sind mittlerweile auf den OpenStack Zug aufgesprungen und nutzen die Open-Source Cloud für eigene Infrastructure Services (z.B. HP), aber auch als unterliegende Architektur für Software-as-a-Service Angebote (z.B. Deutsche Telekom).

Insbesondere für reine Infrastruktur-Anbieter ist es daher sehr schwierig geworden, ihren Kunden einen wahren Mehrwert gegenüber den anderen Anbietern zu geben, die ebenfalls auf OpenStack setzen. Der einzige Weg sich zu differenzieren besteht daher darin, u.a. weitere Services und einen sehr guten Support rund um die eigene OpenStack Distribution anzubieten.

Kategorien
News

ownCloud veröffentlicht Apps für Android und iOS

ownCloud hat native Apps für Android und iOS veröffentlicht, mit denen auf die File-Sharing- und File-Synchronisierungssoftware nun auch mobil zugegriffen werden kann. Die jeweiligen Apps sind auf Google Play bzw. im Apple App Store für jeweils 79 Cents erhältlich.

Der private Cloud Storage

Bei ownCloud handelt es sich um die Private Cloud Variante zu Cloud Storage Services wie Dropbox oder Box.net. Mit der OpenSource Software können Privatanwender und Unternehmen Adressen, Termine, Bilder, Office-, Video- und Audio-Dateien teilen und synchronisieren, die sie auf der „eigenen Festplatte“ oder bei einem Hosting-Anbieter speichern (Anmerkung). Damit können sie diese jederzeit, überall und mit jedem Endgerät nutzen – und behalten dennoch die volle Verantwortung über ihre Systeme.

Mobile Cloud Lösung

Bisher konnten die Nutzer auf ihre Daten entweder mit dem plattformunabhängigen Webclient oder dem ownCloud-Client, den es für Windows, Mac OS und Linux gibt, zugreifen. Die neuen Apps für Android und iOS ermöglichen nun auch die mobile Nutzung auf gängigen Smartphones und Tablet-PCs. Eine Übersicht der Funktionen der beiden ownCloud Apps sind unter https://owncloud.com/de/overview/mobileapps zu finden.