Kategorien
News

Dell Think Tank: “Converged Infrastructures”

Am 31.01.2013 war René Büst zusammen mit Steve O’Donnell (GreenBytes Inc.) und vielen Weiteren Teilnahmer am Dell Think Tank zum Thema “Converged Infrastructures” im Rahmen des Dell Technology Camp 2013 in Amsterdam.

Die Aufzeichnung des Think Tank ist hier zu sehen:

Kategorien
News

Software-as-a-Service: Warum auch Ihre Anwendung in die Cloud gehört

Software-as-a-Service ist der am schnellsten wachsende Bereich im Cloud Computing Markt. Immer mehr Anbieter traditioneller Softwarelösungen vollziehen den Wandel und bieten ihre Anwendungen aus der Cloud an. Erfahren Sie, warum auch Ihre Anwendung in die Cloud gehört und warum Ihre Kunden aber auch Sie als Anbieter davon profitieren.

Software-as-a-Service: Warum auch Ihre Anwendung in die Cloud gehört by René Büst

Kategorien
News

Ihre Cloud Computing Strategie – Der Use Case ist von zentraler Bedeutung

Was sind die zentralen Elemente einer Cloud-Strategie? Diese Frage ist nicht immer einfach und kann in der Regel nur allgemein beantwortet werden, da es den Masterplan für eine Cloud-Strategie nicht gibt. Welcher genauso wenig für eine Unternehmensstrategie oder IT-Strategie existiert.

Verstehen Sie, warum ein Use Case der Ausgangspunkt einer jeden Cloud-Strategie ist und lernen Sie die wesentlichen Punkte die bei der Erstellung zu berücksichtigen sind.

Ihre Cloud Computing Strategie – Der Use Case ist von zentraler Bedeutung by René Büst

Kategorien
Management

DevOps: Führt Cloud Computing zu NoOps?

Neben den Themen Cloud Computing und Big Data zählt das Thema DevOps zu den wichtigsten Themen der nahen Zukunft. Der Begriff DevOps leitet sich von dem Präfix „Dev“ von Softwareentwickler (Developer) sowie dem Suffix „Ops“ von IT-Betrieb (Operations) ab. Zusammengesetzt entsteht damit das Wort DevOps und symbolisiert die enge Zusammenarbeit beider Unternehmensbereiche, also der Softwareentwicklung und dem IT-Betrieb.

Dev vs. Ops

Jede Unternehmens-IT lebt von den eingesetzten Applikationen. Aufgabe der Entwickler (Dev) ist es diese bestehenden Applikationen zu verbessern oder neue zu entwerfen. Der IT-Betrieb (Ops) hat die Aufgabe die für die Entwicklung notwendinge IT-Infrastruktur und Umgebungen bereitzustellen. Beide ziehen also generell am selben Strang, laufen aber dennoch in zwei unterschiedliche Richtungen. Die Entwickler wollen schneller neue Applikationen entwerfen und ausrollen. Der IT-Betrieb lässt gerne alles beim Alten und ist froh, wenn die aktuellen Systeme so stabil laufen (Änderungen könnten zu Problemen führen und das bedeutet Arbeit.)

Neben dem zeitlichen Druck, den beide Bereiche unterlegen sind, verstärkt zudem die Komplexität der modernen IT-Infrastrukturen die beidige Zusammenarbeit. Werden neue Versionen ausgerollt, muss anschließend sichergestellt werden, dass alles weiterhin so funktioniert wie vorher, nur besser. Außerdem hat der Umfang an Applikationen in Unternehmen im Laufe der letzten Jahre stetig zugenommen, die es gilt bestmöglich zu unterstützen sowie die Interoperabilität sicherzustellen.

Automatisierung

Eigentlich brauchen Unternehmen mittlerweile einen Hybriden, der in beiden Welten zu Hause ist, sich also mit der Arbeit der Entwickler auskennt und zugleich den IT-Betrieb versteht. Dieser Hybride sorgt dafür Probleme zu vermeiden und zugleich für Automatisierung und damit eine optimale Planung und Kontrolle. Dieser Hybrid ist der bereits genannte DevOps und muss nicht zwangsläufig eine Person oder ein Team sein. Nein, dabei kann es sich auch um ein Stück Software handeln, die für die Abstimmung des Entwicklungsbereiches und des IT-Betriebs zuständig ist und eine DevOps Strategie völlig autonom implementiert.

Heißt die Cloud Lösung „NoOps“?

Möglicherweise! Erleichtert die Cloud vielleicht das Thema DevOps oder macht es gar obsolet? Klar ist, Entwickler sind in der Cloud nicht mehr maßgeblich auf den IT-Betrieb angewiesen, denn dieser wird durch den Anbieter dargestellt. Im Falle von IaaS (Infrastructure-as-a-Service) behalten wir die aktuelle Situation bei, nur in der Cloud, eben genauso nur anders. Hier muss das entsprechende System, dass auf der Cloud Infrastruktur läuft von einem Team (Operations) betrieben und gewartet werden, wohingegen das andere Team (Developer) das System entwickelt bzw. darauf entwickelt? Oder ist IaaS für die Entwickler mittlerweile sogar so einfach, dass das Operations-Team wegfallen kann? Ganz anders sieht es beim PaaS (Platform-as-a-Service) aus. Hier ist der Bereich Operations zu 100% unwichtig. Die vollständige Plattform und der Stack den die Anwendung benötigt, wird durch den Anbieter bereitgestellt und gewartet, wodurch dieser für den Bereich Operations verantwortlich ist.

So oder so hilft eine (IaaS, PaaS) Cloud Infrastruktur Entwicklern dabei ihre Software automatisiert auszurollen, diese zu überwachen und ebenfalls zu verwalten. Entwickler (Dev) können mit der Cloud also völlig autonom vom IT-Betrieb (Ops) die für die Entwicklung notwendigen IT-Ressourcen selbst bereitstellen und warten. Wo wir beim Thema NoOps sind!


Bildquelle: http://blog.zenoss.com

Kategorien
Kommentar

Dropbox, Microsoft SkyDrive oder Google Drive: Die weiteren Services eines Cloud Storage sind entscheidend

Dropbox ist der Platzhirsch unter den Cloud Storage Services, mit – nach eigenen Angaben – 100 Millionen Nutzern ist der Speicherdienst unangefochten weltweit die Nummer eins. Was man aber nicht vergessen sollte, Dropbox ist „nur“ ein Speicher und hat bisher keine weiteren nennenswerten Vorteile zu bieten. Cloud Storage bedeutet mittlerweile nämlich viel mehr als nur Cloud Storage sowie es auch sehr wichtig ist, mehr als nur reine Infrastruktur anzubieten, wenn man langfristig konkurrenzfähig bleiben möchte. Warum andere Anbieter wie Microsoft SkyDrive deutlich attraktiver sind als Dropbox und warum man Google Drive lieber nicht nutzen sollte, erläutere ich in diesem Artikel.

Dropbox ist nur ein simpler Cloud Storage

Wie ich es bereits vor Kurzem zum Thema Infrastructure-as-a-Services (IaaS) geschrieben habe, muss man als Anbieter mittlerweile mehr bieten als nur „reine“ Infrastruktur wie Rechenleistung oder Speicherplatz. Nur macht genau Dropbox dies nicht. Dropbox ist einfach nur ein Speicher. Um den Cloud Storage herum hat das Unternehmen es bisher nicht geschafft ein eigenes Ökosystem von Services zu schaffen, die dem Nutzer mehr bieten als nur Daten darin abzulegen und per Link zu teilen. Möchte ich zum Beispiel eine Word-Datei über die Webseite aufrufen, um sie „nur“ zu betrachten, öffnet sich das Downloadfenster. Ich bin also auf ein lokales Betriebssystem angewiesen. Dropbox ist daher zu nativ gestrickt. Das hat natürlich den Vorteil, dass für jedes System ein Client zur Verfügung steht, der allerdings auch zwangsläufig benötigt wird.

Wie sieht es aber aus, wenn ich mit mehreren Parteien an einer Datei parallel arbeiten möchte? Online via Webbrowser ist das nicht möglich. Und lokal über einen der nativen Clients? Auch nicht! Dropbox ist einfach nur ein Stück Speicher im Internet ohne weitere Intelligenz, Möglichkeiten der Zusammenarbeit und anderen Mehrwertdiensten.

Microsoft SkyDrive und Google Drive

Wo Dropbox aufhört, fangen Cloud Storage Lösungen wie Microsoft SkyDrive oder Google Drive erst richtig an. Beide Services sind vollständig in das eigene Ökosystem des jeweiligen Anbieters nahtlos integriert und bieten neben dem Speichern weitere Dienste.

Google hat durch die Veröffentlichung von Google Drive ihre Online-Textverarbeitung Google Docs aufgebohrt. Das bedeutet, dass Dokumente die auf Google Drive gespeichert sind auch online im Browser bearbeitet werden können. Und das sogar mit mehreren Leuten gleichzeitig und ortsunabhängig. Microsoft SkyDrive ist ein standalone Cloud Storage Service. Allerdings hat Microsoft mit den Office Web Apps eine abgespeckte Version von bekannten Office Produkten wie Word oder Excel integriert, mit denen Dokumente online und mit mehreren Leuten parallel bearbeitet werden können. Was vielen das bekannte lokale Microsoft Office-feeling auch im Browser ermöglicht.

Ein kleines Minus bekommt SkyDrive, da es derzeit noch keinen nativen Linux-Client von Microsoft gibt. (War ein Kritikpunkt von einem Bekannten, der als Linux-Nutzer ernsthaft über einen Wechsel nachgedacht hatte und auf Grund des fehlenden nativen Linux-Clients es dann gelassen hat.) Allerdings ist die SkyDrive API offen, was es jedem erlaubt, einen eigenen SkyDrive-Client für Linux zu schreiben.

Das alles meine ich mit „Infrastruktur bedeutet mehr als nur Infrastruktur“. Die Services, die von dem Anbieter um die „dumme“ Infrastruktur herum aufgebaut werden, machen den Unterschied.

Die Preise – Dropbox muss nachlegen

Preislich ist Microsoft SkyDrive derzeit unschlagbar günstig. Zunächst bekommt man 7GB kostenlosen Speicherplatz, der für 37 EUR pro Jahr um 100GB erweitert werden kann. Hinzu kommt, das Microsoft ein seriöser und renommierter Anbieter ist, dessen Infrastruktur erprobt ist. Zum Vergleich, bei Dropbox erhält man 100GB für 99 US-Dollar pro Jahr. 100GB kosten bei Google Drive 59,88 US-Dollar pro Jahr.

Google Drive sollte lieber nicht genutzt werden

Auch wenn Google Drive technologisch ein sehr interessanter Cloud Storage ist und viel mehr bietet als ein Dropbox, ist von der Nutzung des Service aus Datenschutzgründen abzuraten.

“Meine größten Bedenken Google Drive zu nutzen sind, dass Google bereits alle meine E-Mails, Web-Analytics Daten und Suchbegriffe besitzt. Möchte ich denen wirklich noch mehr Daten geben?”, Chen S. im Dropbox Forum.

“Wie viele andere Nutzer, bin auch ich nicht erfreut darüber, dass Google über immer mehr Informationen aus meinem Leben verfügt, die ich in ihrer Cloud speichere.”, Christopher H. im Dropbox Forum.

“Google kann diese Daten in irgendeiner Form für interne Zwecke nutzen. Das kann das Verkaufen personalisierter Werbeanzeigen auf Basis meiner hochgeladenen Daten sein.”, Mark Mc. im Dropbox Forum.

Google Pressesprecher Stefan Keuchel hatte nach der Veröffentlichung von Google Drive und den ersten Kritiken bereits Stellung bezogen:

“Drives Nutzungsbedingungen sind eindeutig, was dir gehört, wird auch deins bleiben.”

Natürlich sagt Google, dass alle Daten die in Google Drive gespeichert werden das Eigentum des Nutzers bleiben. Das ist ja wohl selbstverständlich und ist keiner weiteren Stellungnahme würdig. Darum geht es bei dieser Diskussion aber auch nicht! Es geht darum, was Google mit den auf Google Drive gespeicherten Daten macht. Denn es wird nicht endgültig ausgeschlossen, dass Google diese Daten verwendet, um damit weitere Analysen und Geschäfte vorzunehmen. Wenn Google die Daten auf Google Drive dazu verwenden würde, hätte die Nutzung des Google Cloud Storage einen sehr faden Beigeschmack. Eines muss man sich natürlich vor Augen halten. Wenn ich im Internet etwas kostenlos bekomme, bin ich das Produkt. In Googles Fall werde ich mit Werbung “versorgt” und Google kann die Daten für anonyme Analysen nutzen. Allerdings bietet Google ebenfalls kostenpflichtigen Speicherplatz an. Bedeutet, der Nutzer bezahlt für die Leistung die Google erbringt. In diesem Fall wäre es für Google nicht mehr gerechtfertigt, die Daten für Werbezwecke und weiteres zu verwenden. Für die kostenlosen 5GB wäre es grenzwertig aber falsch. Aber wie will Google auseinander halten, welche Daten sich jetzt in dem kostenlosen 5GB Speicher befinden und welche in dem restlichen bezahlten.

Google hat bis heute genau zu dieser Thematik keine Stellung bezogen. Und solange es hierfür keine offizielle schriftliche Aussage von Google gibt, unterstelle ich Google, dass die Daten – auch bei dem kostenpflichtigen Speicherplatz – für eigene Zwecke analysiert und weiterverarbeitet werden. Und solange sollte Google Drive lieber nicht genutzt werden.


Bildquelle: ©Gerd Altmann / PIXELIO

Kategorien
Analysen

Checkliste: Überprüfen Sie einen Cloud Computing Anbieter auf Echtheit

Vermehrt wird die Frage gestellt, woran sich ein echtes Cloud Computing Angebot erkennen lässt. Oft heißt es: “Wir lassen unsere Datenverarbeitung von einem Dienstleister in seinem Rechenzentrum machen. Dann nutzen wir doch die Cloud, oder?” Vorsicht! Cloud Computing wurde in letzter Zeit von den Marketingabteilungen einiger Anbieter missbraucht, wodurch eine Verwässerung des Begriffs stattgefunden hat. Was damals zum Beispiel ein “Managed Server” war, ist nun ein “Cloud Server”. Letztendlich wurde aber nur der Aufkleber getauscht. Dieses „Prinzip“ wird auch als CloudWashing bezeichnet.

Checkliste: Überprüfen Sie einen Cloud Computing Anbieter auf Echtheit

Cloud Computing und seine Eigenschaften

Cloud Computing bezeichnet in erster Linie ein Servicemodell, bei dem auf (theoretisch unbegrenzte) IT-Ressourcen wie Rechenleistung, Speicherplatz, Applikationen und andere Arten von Services on-Demand zugegriffen werden kann. Dabei werden auf Basis des Pay as you go Konzeptes nur die Ressourcen berechnet, die zu diesem Zeitpunkt auch tatsächlich genutzt werden.

Neben den bekannten Eigenschaften des Cloud Computing existieren weitere typische Begebenheiten, die eine Cloud auszeichnen. Dazu gehören neben allgemeinen ebenfalls technische Eigenschaften und der Blickwinkel aus der Sicht eines Unternehmens.

Allgemeine Eigenschaften

Elastizität
Die Cloud erlaubt das hoch- und herunterskalieren von Ressourcen je nach Bedarf. Die dafür benötigte Zeit liegt im Bereich von Sekunden oder Minuten jedoch nicht Wochen oder Monaten.

Skaleneffekte
Der Cloud Computing Anbieter ist in der Lage Skaleneffekte auszunutzen und kann die für das Cloud Computing benötigte Infrastruktur wie Strom, Kühlung, Bandbreite und Hardware zum bestmöglichen Preis beschaffen.

Pay as you Go
Dabei handelt es sich mehr um eine allgemeine als um eine geschäftliche Eigenschaft. Techniker werden durch den Einsatz der Cloud Entscheidungen bei der Zuweisung von Ressourcen treffen, die unmittelbare Auswirkungen auf den Ressourcenverbrauch und die Höhe der Gesamtkosten haben. Damit hat in Zukunft jeder die Aufgabe, das Unternehmen effizienter zu führen.

Technische Eigenschaften

Schnelle Skalierbarkeit
Weitere Ressourcen können innerhalb von Minuten on-Demand gekauft werden, um bei Bedarf unerwarteten Situationen gerecht zu werden. Dazu gehören z.B. umfangreiche Berechnungen oder eine unerwartet hohe Besucherzahl auf der Webseite. Werden die Ressourcen nicht länger benötigt, können sie der Cloud zurückgegeben werden.

Die Ressourcen sind abstrakt und unkompliziert
Die Hardware, die für den Betrieb einer Cloud benötigt wird, ändert sich und wird ständig verbessert. Jedoch ist es die Aufgabe des Cloud Computing Anbieters dafür zu sorgen. Ein Cloud Computing Nutzer muss sich mit den Details hinter einer Cloud nicht mehr auseinandersetzen.

Eine Cloud besteht aus einzelnen Bausteinen
Die IT-Ressourcen eines Cloud Computing Anbieters bestehen aus kleinen Bausteinen. Das bedeutet, sie sind einzeln verfügbar und werden jeweils einzeln berechnet. Ein Nutzer hat die Möglichkeit entweder keine, alle oder nur ein paar Ressourcen zu nutzen, welche ihm als Service durch die Cloud bereitgestellt werden.

Experimentieren ist kostengünstig
Cloud Computing entfernt die wirtschaftliche Hürde zum Experimentieren. Dadurch können neue Ideen ausprobiert werden, ohne langfristig in die dafür benötigte Hardware zu investieren, indem auf temporäre Ressourcen zurückgegriffen wird.

Eigenschaften aus der Sicht eines Unternehmens

Keine Vorabinvestitionen
Cloud Computing wurde geschaffen, um Ressourcen bei Bedarf nutzen zu können. Aus diesem Grund sind keine einmaligen und großen Investitionen notwendig, bevor der eigentliche Bedarf auftritt.

Aus fixen kosten werden variable Kosten
Anstatt sich auf eine feste Anzahl von Ressourcen über einen langen Vertragszeitraum (in der Regel ein bis drei Jahre) festzulegen, ermöglicht es Cloud Computing den Ressourcenverbrauch in Echtzeit zu verändern.

Investitionen werden zu Betriebskosten
Investitionen werden in der Regel auf einen langen Zeitraum verteilt und führen damit zu einer mehrjährigen Verpflichtung, eine bestimmte Menge von Ressourcen zu nutzen. Die Betriebskosten hingegen beziehen sich auf die tatsächliche Nutzung des Cloud Service und können in Echtzeit verändert werden.

Die Ressourcenzuteilung wird granularer
Cloud Computing ermöglicht eine minimale Nutzung in Bezug auf die Zeit und Ressourcen, bspw. Servernutzung pro Stunde und einzelne Bytes des genutzen Speichers.

Das Unternehmen gewinnt an Flexibilität
Da ein Unternehmen sich nicht mehr langfristig an Ressourcen bindet, ist es in der Lage, schneller auf Änderungen bzgl. der benötigten Mengen und der Art der Geschäftstätigkeit zu reagieren.
Der Anbieter steht mehr unter Beobachtung
Das Kerngeschäft des Cloud Computing Anbieters besteht darin, seine Cloud für die öffentliche Nutzung bereitzustellen. Somit hat er einen starken Anreiz seine Services so bereitzustellen, dass sie zuverlässig, anwendbar und kostengünstig sind. Die Cloud spiegelt also die Kernkompetenzen eines Anbieters wieder.

Die Kosten sind inhaltsorientierter
Durch das flexible Ressourcenzuweisungsmodell des Cloud Computing ist es genauso leicht 100 Server für eine Stunde zu beziehen und zu betreiben wie einen Server für 100 Stunden. Das fördert das innovative Denken hinsichtlich der Lösungen von Problemen, die nur durch eine große Skalierung ermöglicht werden.

Die Checkliste

Wohlgemerkt, ins Innere müssen und können Sie in der Regel nicht hineinschauen. Bei einer Cloud handelt es sich um eine Blackbox, die entweder über eine API (Schnittstelle) oder eine Weboberfläche gesteuert wird. Es kommt also auf die äußeren Werte an, die Sie direkt sehen und bemerken können.

Checkliste: Überprüfen Sie einen Cloud Computing Anbieter auf Echtheit


Die Checkliste kann ebenfalls unter „Checkliste: Überprüfen Sie einen Cloud Computing Anbieter auf Echtheit“ angesehen und als PDF heruntergeladen werden. Eine englischsprachige Version befindet sich unter Checklist: Check a Cloud Computing provider for authenticity.


Bildquelle: ©Claaslietz / PIXELIO

Kategorien
News

INSIGHTS Report: expressFlow – Automatisierte Prozessabläufe in der Cloud

INSIGHTS Report berichtet über die Middleware expressFlow zur automatisierten Verarbeitung von Dateien in der Cloud.

expressFlow: Automatisierte Prozessabläufe in der Cloud by René Büst

Kategorien
Management

Mitarbeiter ignorieren Unternehmensrichtlinien zur Cloud-Nutzung (weil sie diese nicht kennen)

Die Bring your own Device (BYOD) Bewegung sorgt bei IT-Verantwortlichen, IT-Administratoren und IT-Security-Verantwortlichen ebenso für Sorgenfalten auf der Stirn wie die Nutzung unautorisierter Cloud Services. Dropbox, Amazon Web Services und Google Drive beziehungsweise Google Docs, um nur ein paar zu nennen. Zu hoch sind die Sicherheitsbedenken und das Risiko, dass Daten aus dem Unternehmen verschwinden. Das dies jedoch auch ohne die Cloud ohne weiteres möglich ist steht hier.

81 Prozent der Unternehmen haben klare Regelungen für die Cloud-Nutzung

Eine Symantec-Umfrage mit dem Namen „The Myth of Keeping Critical Business Information Out of Clouds“ zeigt nun die große Kluft zwischen den Anwender und IT-Administratoren, wenn es darum geht Cloud Anwendungen zu nutzen. Die Umfrage unter 165 IT-Managern und Mitarbeitern ergab, dass 76 Prozent der Unternehmen die Regelungen hinsichtlich der Cloud-Nutzung überwachen. Dabei verfügen sogar 81 Prozent über klare Regelungen und Konsequenzen, wenn diese Regeln missachtet werden.

Dahingegen sind sich 55 Prozent der End-Anwender gar nicht darüber im Klaren, das solche Arten von Regelungen existieren und 49 Prozent der Anwender sagen, dass sie nicht über Konsequenzen wegen Missachtung der Regelungen informiert sind.

Technischer Overkill vs. Mangelhaftes Verständnis

Ein Problem besteht darin, dass IT-Administratoren verstehen, wo sich die Schwachstellen befinden, wenn es Kollegen erlaubt wird, Cloud Services nach eigenem Bedarf zu nutzen. Dazu stehen ihnen mittlerweile eine Vielzahl von Lösungen für die Überwachung und dem Aussperren von Dropbox & Co. zur Verfügung. Hinzu kommt, dass Private Cloud Anbieter damit begonnen haben, ihre Lösungen um Management und Zugriffskontrollen für die Public Cloud zu erweitern.

Auf der anderen Seite stehen die Anwender, die nicht verstehen, welchen Sicherheitsrisiken sie ausgesetzt sind und der Rest ignoriert sie aus Bequemlichkeit. Die Folge sind schlecht gewählte Passwörter und/ oder der Besuch von bösen Webseiten, auf denen sich Malware usw. befinden. Hat der Mitarbeiter nun kundenrelevante Daten in seiner Dropbox gespeichert und wird diese, z.B. auf Grund eines schlechten Passworts, gehackt, hat sein Arbeitgeber definitiv ein Problem!

Nicht alle Anwender trifft dieselbe Schuld. Wo die einen die Sicherheitsregeln bewusst vernachlässigen, ist die Mehrzahl nicht über Sicherheitsrisiken informiert. Es ist also die Aufgabe der IT-Abteilung diese Sicherheitslöcher zu stopfen und vor allem für Aufklärungsarbeit bei den Mitarbeitern zu sorgen und das Verständnis dafür zu gewinnen. Nur Regeln aufstellen reicht nicht aus, wenn der Mitarbeiter nicht weiß, wofür diese nützlich sind beziehungsweise das es überhaupt welche gibt.

Weitere Ergebnisse der Umfrage

  • 69 Prozent der Mitarbeiter geben zu gegen Unternehmensrichtlinien zu verstoßen und nutzen Cloud-basierte E-Mail und Kommunikationslösungen. Hingegen sagen 88 Prozent IT-Administratoren, dass Mitarbeiter die Richtlinien verletzen.
  • 59 Prozent der Mitarbeiter nutzen Cloud-basierte Storage- und File-Sharing-Lösungen. IT-Administratoren beziffern diesen Anteil auf 87 Prozent.
  • 63 Prozent der Admins sagen, sie verfügen über Regeln in Bezug auf E-Mail und Kommunikationslösungen. Dagegen sagen nur 50 Prozent der Mitarbeiter, dass sie darüber Kenntnis haben.
  • 74 Prozent der Administratoren haben Regeln für den Umgang mit File-Sharing-Lösungen eingeführt. Von diesen Regelungen wissen gerade einmal 42 Prozent der Mitarbeiter.
  • 77 Prozent der Admins haben Regelungen für Cloud-basierte Storage-, Backup- und Produktivitätslösungen sowie Apps für das Kontaktmanagement implementiert. Gerade einmal 49 Prozent der Mitarbeiter kennen die Regeln für die Nutzung von Cloud Storage Lösungen, 59 Prozent sind über die Nutzung der Produktivitätslösungen informiert und 48 Prozent wissen, wie sie sich mit einer App für das Kontaktmanagement verhalten sollen.
  • 60 Prozent der IT-Mitarbeiter halten die Vorteile und Risiken von Cloud Storage- und Backuplösungen für gleichwertig. Dieselbe Prozentzahl ergibt sich für das Vorteil-/Risikoverhältnis für Cloud-basierte Storage-, Backup- und Produktivitätslösungen sowie Apps für das Kontaktmanagement.
  • Bei File-Sharing-Lösungen sieht es ein wenig anders aus. Hier bewerten 50 Prozent der IT-Mitarbeiter die Vorteile und Risiken als gleich. 53 Prozent ergeben sich für das Vorteil-/Risikoverhältnis von Cloud-basierte E-Mail und Kommunikationslösungen.
  • Hingegen sagen 49 Prozent der Mitarbeiter, dass die Vorteile von Cloud-basierte E-Mail und Kommunikationslösungen die Risiken überwiegen. 38 Prozent äußerten sich so ebenfalls bei File-Sharing-Lösungen.
  • Nur 30 Prozent der Mitarbeiter sehen in Cloud-basierten Storage-, Backup- und Produktivitätslösungen sowie Apps für das Kontaktmanagement mehr Vorteile als Risiken.

Ausgehend davon, dass IT-Administratoren sich tatsächlich um Regelungen bemühen, stellt sich die Frage, wozu es diese und Konsequenzen bei einem Vergehen gibt, wenn sie flächendeckend nicht bekannt sind.

Wie wäre es mit Kommunikation!


Bildquelle: ©Gerd Altmann / PIXELIO

Kategorien
Management

Professionelle Open-Source Lösungen für die eigene Cloud

Ich hatte vor längerer Zeit in dem Artikel „Die eigene Cloud bauen mit… – CloudWashing par excellence!“ die leichtfertige Aussage eines Journalisten kritisiert, dass man auf einfache Weise eine eigene Cloud Umgebung aufbauen kann. Das dem so nicht ist und worauf zu achten ist, habe ich in dem Artikel ebenfalls erläutert. Dennoch existieren natürlich Lösungen, die dabei helfen, eine eigene Cloud aufzubauen. Tatsächlich gibt es derzeit aber nur fünf Open-Source Lösungen, die für den professionellen Aufbau von Cloud Computing Umgebungen eingesetzt werden sollten. Dazu gehören openQRM, Eucalyptus, OpenStack, CloudStack und OpenNebula.

Grundlegendes! Bitte lesen!

Viele Unternehmen entscheiden sich vermehrt für den Aufbau einer eigenen (Private) Cloud, um die Kontrolle über Ressourcen, Daten, Sicherheit usw. zu behalten. Richtig ist, dass eine eigene Cloud die Agilität eines Unternehmens verbessert und die Systeme bis zu einem gewissen Grad skalieren können. Allerdings sollte sich ein Unternehmen immer bewusst machen, das die Skalierbarkeit einer eigenen Cloud einem manuellen Prozess gleicht. Bei diesem muss in Echtzeit auf Ressourcenengpässe durch das eigene Personal reagiert werden, indem weitere Hardwarekomponenten in Form von Speicherplatz, Arbeitsspeicher oder Rechenleistung nachgerüstet werden. Für jede virtuelle Instanz wird schließlich auch die physikalische Hardware benötigt. Neben Hardware- und Softwareressourcen sind Tools zum Echtzeit-Monitoring der Umgebung daher unerlässlich.

Hardware, Hardware, Hardware

Eine eigene Cloud bedarf also Unmengen an physikalischen Ressourcen um den Wunsch nach Flexibilität und quasi unendlichen virtuellen Ressourcen zu befriedigen. Heißt im Umkehrschluß daher für Unternehmen mit einer eigenen Cloud: Investieren, das eigene Rechenzentrum umbauen und Cloud-fähig zu machen.

Es ist ein Irrglaube, wenn man denkt, dass der Aufbau einer eigenen Cloud impliziert, sich anschließend nicht mehr um die Hochverfügbarkeit der eigenen Infrastruktur (physikalische Maschinen, virtuelle Maschinen, Master-Slave-Replikation, Hot-Standby, etc.) kümmern zu müssen. Das macht dann ja schließlich die Cloud alleine.

Konfigurieren, Skripte, Intelligenz

Eine Cloud funktioniert nicht von alleine. Sie muss entwickelt und mit Intelligenz ausgestattet werden. Das gilt für den Aufbau einer Private Cloud genau so wie für die Nutzung eines Public Cloud Angebots (im Falle von IaaS). Dazu müssen Skripte geschrieben, womöglich Software neu entwickelt werden, die auf der Cloud verteilt läuft. Weiterhin ist es wichtig, die Whitepaper des Anbieter zu lesen, KnowHow(!) aufzubauen und zu verstehen, wie die Cloud arbeitet, um sie für die eigenen Bedürfnisse nutzen zu können. Eine weitere Möglichkeit besteht natürlich darin, sich (zusätzlich) von Profis beraten zu lassen. Das ist bei der Nutzung einer eigenen Cloud nicht anders. Wenn eine virtuelle Maschine A ein Problem hat, dann kann sie plötzlich nicht mehr erreichbar sein, wie jeder normale physikalische Server nun einmal auch. Nun könnte man denken: “Dann nehme ich als Backup für virtuelle Maschine A halt noch eine virtuelle Maschine B dazu!” Und dann? Man könnte nun denken, dass die virtuelle Maschine B automatisch die Aufgaben der virtuelle Maschine A übernimmt. So einfach ist das aber nicht! Skripte müssen vorab dafür sorgen, dass die virtuelle Maschine B die Aufgaben von virtuelle Maschine A übernehmen soll, wenn diese plötzlich nicht mehr erreichbar ist. Auch die virtuelle Maschine B muss dafür zunächst vorbereitet werden. Dazu kann z.B. der eigentliche (wichtige) Inhalt der virtuelle Maschine A inkl. aller Konfigurationen etc. in einem zentralen Speicher und nicht auf dem lokalen Speicher abgelegt werden. Anschließend muss ein Skript dafür sorgen, dass die virtuelle Maschine B automatisch mit den Konfigurationen und allen Daten aus dem lokalen Speicher hochgefahren wird, wenn die virtuelle Maschine A nicht mehr verfügbar ist.

Virtuelles Rechenzentrum

Die Cloud gibt uns im Bereich Infrastructure as a Service letztendlich nur die Möglichkeit, aus einem quasi unendlich großen Pool von Ressourcen die (unendliche) Anzahl an Ressourcen zu dem Zeitpunkt zu bekommen, wenn wir sie benötigen. Wir erhalten von der Cloud somit ein eigenes hochskalierbares virtuelles Rechenzentrum. Das bedeutet aber im Umkehrschluss für den Betreiber einer Cloud (Private, Public), dass er ebenfalls die Menge an physikalischen Ressourcen vorhalten muss, damit die angefragten virtuellen Ressourcen jederzeit bereitgestellt werden können und damit immer ausreichend Ressourcen für die Nutzer zur Verfügung stehen.


Open-Source Lösungen für den Aufbau einer eigenen Cloud


openQRM

openQRM ist eine Open Source Cloud Computing Plattform für die Verwaltung von Rechenzentren und skalierbaren IT-Infrastrukturen und ist aktuell in der Version 5.0 verfügbar. Mittels einer zentralen Managementkonsole kann die Administration von physikalischen Servern ebenso vorgenommen werden wie von virtuellen Maschinen, wodurch Rechenzentren voll automatisiert und höchst skalierbar betrieben werden können. Neben einer offenen API und einem SOAP Web Service für die nahtlose Integration der eigenen Geschäftsprozesse, unterstützt openQRM alle bekannten Virtualisierungstechnologien und bietet die Möglichkeit für transparente Migrationen von „P-to-V“, „V-to-P“ und „V-to-V“.

openQRM verfügt des Weiteren über ein integriertes Storage-Management, mit dem anhand des Snapshot-Verfahrens Serversysteme dupliziert werden können. Die Snapshots ermöglichen eine dynamische Anpassung des Speicherplatzes, bieten einen persistenten Cloud-Speicher und erlauben ein Backup/Restore der Server sowie deren Versionierung.

Mit der „N-zu-1“ Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Dabei spielt es keine Rolle, ob physikalische oder virtuelle Maschinen eingesetzt werden!

Benefits auf einem Blick

Virtualisierung

openQRM unterstützt alle gängigen Virtualisierungstechnologien darunter VMWare, Citrix XenServer und KVM und bietet die Möglichkeit der Migration von P-to-V-, V-to-P- und V-to-V für physikalische Server als auch virtuelle Maschinen.

Storage

openQRM verfügt über ein zentralisiertes Speichersystem mit integriertem Storage Management, welches alle bekannten Storage-Technologien unterstützt. Dazu gehören u.a. Netapp, Equallogic, NFS, iSCSI ZFS und proprietäre auf LVM basierende Storage-Typen, für eine flexible und schnelle Duplizierung von Serversystemen.

Zentrales Management

openQRM verschmilzt die Welt von Open Source mit der von kommerziellen Produkten. Mit einer zentralen Managementkonsole sind alle Funktionen zur Administration von Rechenzentren, System- und Service-Überwachung, Hochverfügbarkeit und automatisierter Bereitstellung vorhanden.

Funktionen

Hardware/Software Isolation

openQRM isoliert die Hardware (physikalische Server, virtuelle Maschinen) vollständig von der Software (Server Images). Dabei ist die eigentliche Hardware eine „Computing Resource“ und kann dadurch jederzeit durch eine andere Hardware ersetzt werden, ohne dass die Software (Server Image) neu konfiguriert werden muss.

Unterstützung für verschiedene Virtualisierungs-Technologien

Mit VMWare, Xen, KVM und dem Citrix XenServer unterstützt openQRM eine viehlzahl an virtuellen Maschinen und kann dieses transparent verwalten und migrieren. Neben der System-Migration von physikalischen Servern zu virtuellen Maschinen (P-to-V) können Systeme ebenfalls von virtuellen Maschinen zu physikalischen Servern (V-to-P) migriert werden. Darüber hinaus besteht die Möglichkeit ein System von einer Virtualisierungstechnologie zu einer anderen Virtualisierungstechnologie (V-to-V) zu verschieben.

Vollautomatische Nagios-Konfiguration

openQRM unterstützt die vollautomatische Konfiguration von Nagios mittels „nmap2nagios-ng“. Damit wird das gesamte openQRM Netzwerk analysiert und auf Basis der Informationen eine Nagios-Konfiguration erstellt. Anschließend werden alle Services auf allen Systemen überwacht.

Integriertes Storage-Management

openQRM organisiert die Serversysteme wie Dateien und nutzt zur Verwaltung moderne Storagesysteme anstatt lokaler Festplatten. Mittels Logical Volume Managern (LVM) und deren Snapshot-Verfahren können Server-Templates auf schnellen Wege dupliziert werden.

„Sollen z.B. 10 neue Server ausgerollt werden, kann so einfach ein bestehendes Server-Image 10 mal dupliziert und die „Clone“ direkt zum Deployment bereitgestellt werden.“

Mit diesem Konzept steht ein zentrales Backup/Restore sowie die Möglichkeit von Hot-Backups ohne Downtime zur Verfügung.

openQRM unterstützt folgende Storage-Typen:

  • NFS (NAS)
  • iSCSI (iSCSI SAN)
  • Aoe/Coraid (AOE SAN)
  • NetApp (iSCSI SAN)
  • Local-disk (Übertragung von Server-Images auf lokale Festplatten)
  • LVM-Nfs (NFS auf LVM2, erlaubt schnelles Cloning)
  • LVM-iSCSI (iSCSI auf LVM2, erlaubt schnelles Cloning)
  • LVM-Aoe (Aoe auf LVM2, erlaubt schnelles Cloning)
  • Equallogic (iSCSI SAN)
  • ZFS (iSCSI SAN)

Hochverfügbarkeit und „N-to-1“-Fail-Over!

Mit der „N-zu-1“ Fail-Over Funktion steht mehreren Serversystemen ein einzelner Stand-By-Server zur Verfügung. Unabhängig davon, ob physikalische oder virtuelle Maschinen eingesetzt werden.

„Um zum Beispiel 10 hochverfügbare Spezialsysteme zu betreiben benötigt man normalerweise weitere 10 „Stand-By“-Systeme. Mit openQRM jedoch benötigt man nur einen einzigen „Stand-By“-Server, der im Fehlerfall eines der 10 Spezialsysteme benutzt wird. Das heißt, man kann 9 „stromfressende“, nicht ausgelastete Server einsparen. Perfekt für „Green IT“.

Des Weiteren können physikalische Server virtuelle Maschinen als „Hot Stand-By“ nutzen und lassen sich im Notfall in eine virtuelle Maschine migrieren.

Fertige Server-Templates

Mittels dem „Image-Shelf“-Plugin stellt openQRM bereits fertige Server Templates zur Verfügung. Dazu gehören Linux Distributionen wie Debian, Ubuntu, CentOS und openSuse. Des Weiteren können mit dem Plugin eigene Server Templates auf unterschiedliche Weise (lokal, http, https, ftp) bereitgestellt werden.

Unterstützung verschiedenster Deployment-Methoden

Mit openQRM können Server von jeder Art von Storage gestartet werden. Zusätzlich können die Server Templates von einem Storage-Typ zu einem anderen übertragen werden, dabei kann noch entschieden werden, ob die Server Templates auf einem physikalischen Server oder in einer virtuellen Maschine gestartet werden sollen.

Unterstützung verschiedener OS-Distributionen

Es stehen bereits vor-konfigurierte openQRM-Server Pakete für Debian, Ubuntu und CentOS zur Verfügung. Ein openQRM-Server kann aber alle gängigen Linux Distributionen verwalten.

Cloud-Selector

Mit dem Cloud-Selector kann der Cloud Administrator seine Cloud Produkte wie z.B. Prozessoren, Speicher, Festplattengröße oder den Typ der virtuellen Maschine auswählen und deren Preise festlegen.

Kostenrechner im Cloud-Portal

Die Cloud-Computing-Unit (CCU) kann einer regulären Währung (z.b. USD oder Euro) zugewiesen werden. Mit dem Kostenrechner werden die stündlichen, täglichen und monatlichen verbrauchten Kosten für eine Cloud Appliance berechnet.

Private Cloud Images

Mit der „Private Cloud Image“-Funktion können Cloud Benutzer eigene Server Templates anlegen und verwalten.

Volle SSL-Unterstützung

Der openQRM-Server arbeitet in einem vollständig SSL-verschlüsselten Bereich und unterstützt verschiedene Serverarchitekturen wie i386 und x86_64.

Ich möchte hier noch anmerken, dass es sich bei der openQRM Enterprise um einen deutschen Anbieter aus dem Bereich des Cloud Computing handelt!


Eucalyptus

Beim Elastic Utility Computing Architecture for Linking Your Programs To Useful Systems (Eucalyptus) handelt es sich um eine Open Source Software Infrastruktur zum Aufbau von skalierbaren Utility Computing bzw. Cloud Computing Umgebungen für spezielle Clustersysteme oder einfachen miteinander verbundenen Arbeitsplatzrechnern.

Eucalyptus wurde als ein Forschungsprojekt am Computer Science department an der University of California Santa Barbara entwickelt und wird mittlerweile von der Eucalyptus Systems Inc. vermarktet. Die Software wird aber weiterhin als Open Source Projekt gepflegt und weiterentwickelt. Die Eucalyptus Systems Inc. bietet darüber hinaus lediglich weitere Dienstleitungen und Produkte sowie einen professionellen Support rund um Eucalyptus an.

Folgende Funktionen stellt Eucalyptus bereit:

  • Kompatibilität mit den Schnittstellen zu Amazon EC2 und S3 (SOAP und REST).
  • Unterstützung aller Virtual Machines die auf einem Xen Hypervisor oder einer KVM ausgeführt werden.
  • Administrationstools für die System- und Benutzerverwaltung.
  • Die Möglichkeit mehrere Cluster für eine Cloud zu konfigurieren, wobei jeder einzelne Cluster über eine private interne IP-Adresse verfügt.

Architektur

Eucalyptus besteht aus fünf zusammenarbeitenden Hauptkomponenten um den angeforderten Cloud Service bereit zu stellen. Die Kommunikation zwischen den Komponenten erfolgt über gesicherte SOAP Nachrichten mittels WS-Security.

Cloud Controller (CLC)

Der Cloud Controller dient innerhalb einer Eucalyptus Cloud als Hauptkomponente für die Verwaltung des gesamten Systems und stellt den Administratoren und Benutzern einen zentralen Zugriffspunkt bereit. Die Kommunikation aller Clients mit dem Eucalyptus System erfolgt ausschließlich nur über den Cloud Controller anhand der auf SOAP oder REST basierenden API. Der Cloud Controller ist dafür zuständig, alle Anfragen zu der richtigen Komponente weiterzuleiten, diese zu sammeln und die Antwort der Komponente anschließend wieder zu dem Client zurück zu senden. Der Cloud Controller ist somit die öffentliche Schnittstelle einer Eucalyptus Cloud.

Cluster Controller (CC)

Der Cluster Controller ist innerhalb des Eucalyptus Systems für die Verwaltung des virtuellen Netzwerks zuständig. Der Cloud Controller erhält alle Anfragen auf Basis seiner SOAP oder REST Schnittstellen. Der Cloud Controller erhält alle Informationen über die vorhandenen Node Controllers des Eucalyptus Systems und ist für die Kontrolle des Lebenszyklus jedes einzelnen verantwortlich. Er leitet alle Anfragen an die Node Controller mit verfügbaren Ressourcen weiter um damit virtuelle Instanzen zu starten.

Node Controller (NC)

Ein Node Controller steuert das Betriebssystem und den zugehörigen Hypervisor eines Rechners (Node) im Eucalyptus System. Auf jeder physikalischen Maschine die eine durch den Cluster Controller instantiierte virtuelle Instanz auf Grund einer Anfrage beherbergt, muss eine Instanz eines Node Controller vorhanden sein.

Walrus (W)

Walrus ist für die Zugriffsverwaltung auf den Speicherdienst innerhalb eines Eucalyptus Systems zuständig. Walrus erhält die Anfragen über seine SOAP oder REST Schnittstelle.

Storage Controller (SC)

Der Storage Controller verwaltet den Speicherdienst innerhalb eines Eucalyptus Systems und verfügt über eine Schnittstelle zu Amazon’s S3 Dienst. Der Storage Controller arbeit in Verbindung mit Walrus und wird für die Speicherung und den Zugriff auf die Images der Virtual Machines, die Kernel Images, die RAM Disk Images und die Daten der Benutzer verwendet. Die Images der Virtual Machines können rein privat oder öffentlich zugänglich gemacht werden und können dabei komprimiert und verschlüsselt gespeichert werden. Die Images werden lediglich entschlüsselt, wenn ein Node eine neue virtuelle Instanz starten muss und dazu einen Zugriff auf das Image benötigt.

Das Clustersystem

Ein Eucalyptus System vereint und verwaltet Ressourcen von Single-Cluster als auch Multi-Cluster Systemen. Dabei besteht ein Cluster aus einer Gruppe von Rechnern, die alle mit dem selben LAN verbunden sind. Zu jedem Cluster kann wiederum einer aber auch mehrere Node Controller gehören, die für die Verwaltung der Instantiierung und Beendigung der virtuellen Instanzen verantwortlich sind.

Ein Single-Cluster besteht aus mindestens zwei Maschinen. Auf dem einen werden der Cluster Controller, der Storage Controller und der Cloud Controller ausgeführt, auf dem anderen der Node Controller. Diese Art der Konfiguration ist vor allem für Experimente und schnelle Konfigurationen geeignet. Die dargestellte Konfiguration könnte ebenfalls auf einer einzigen Maschine implementiert werden. Allerdings ist dafür eine äußerst leistungsstarke Hardware notwendig!

Bei einem Multi-Cluster wird jede Komponente (CC, SC, NC, und CLC) auf einer separaten Maschine ausgeführt. Dies sollte die bevorzugte Art und Weise sein das Eucalyptus System zu konfigurieren, wenn damit ernsthaft gearbeitet werden soll. Mit einem Multi-Cluster kann zudem die Performance erhöht werden, indem einem Controller die passende Maschine zugewiesen wird. Zum Beispiel sollte der Cloud Controller auf einer Maschine mit einer schnellen CPU ausgeführt werden. Im Allgemeinen bringt die Entscheidung für einen Multi-Cluster eine höhere Verfügbarkeit, sowie eine bessere Lastverteilung und eine optimierte Verteilung der Ressourcen über alle Cluster. Das Clusterkonzept ist vergleichbar mit dem Konzept der Verfügbarkeitszonen der Amazon EC2. Dabei werden die Ressourcen über mehrere Verfügbarkeitszonen hinweg verteilt, damit ein Fehler in einer Zone nicht die Anwendung beeinträchtigt.

Eucalyptus und die Ubuntu Enterprise Cloud

Bei der Ubuntu Enterprise Cloud (UEC) handelt es sich um eine Open Source Initiative von Ubuntu, um auf eine einfachere Art und Weise skalierbare Cloud Infrastrukturen auf Basis von Eucalyptus bereitzustellen und diese zu konfigurieren.

Mit der Ubuntu Enterprise Cloud können Public Clouds erstellt werden, welche Amazon’s EC2 infrastructure nutzen. Es können damit aber genau so gut Private Clouds entwickelt werden, die auf der eigenen Infrastruktur im eigenen Rechenzentrum hinter der eigenen Firewall gehostet werden.

Vorteile von Eucalyptus

Bei Eucalyptus handelt es sich um eine Umgebung für Cloud Services, mit der Public Clouds auf Amazon’s EC2 Infrastruktur bzw. Private Clouds im hauseigenen Rechenzentrum erstellt werden können. Die grundlegenden Vorteile sollen hier noch einmal kurz aufgeführt werden:

  • Open Source und Entwicklung
    Eucalyptus wurde geschaffen, um die Kommunikation und Forschung von Cloud Computing Plattformen zu fördern. Der Quellcode ist frei verfügbar, was es ermöglicht die Plattform so zu erweitern, damit sie den eigenen Anforderungen entspricht. Eucalyptus wird zunehmend weiterentwickelt. Darüber hinaus ist die Aufnahme und Integration von Funktionswünschen und Verbesserungsvorschlägen sehr schnell.
  • Community
    Eucalyptus verfügt über eine große Community die gerne bereit ist einander zu helfen. Über die Foren kann schnell Kontakt zu anderen Benutzern aufgenommen und Hilfe bezogen werden.
  • Public Cloud
    Eucalyptus funktioniert einwandfrei auf Amazon’s EC2 Framework und kann damit als Public Cloud eingesetzt werden.
  • Private Cloud
    Eucalyptus kann auf der eigenen Infrastruktur im eigenen Rechenzentrum hinter der eigenen Firewall als Private Cloud eingesetzt werden. Dadurch ist die Kontrolle bzgl. der Sicherheit und der gesamten Umgebung in der eigenen Hand.
  • Portabilität
    Auf Grund der Kompatibilität von Eucalyptus mit Amazon’s EC2 API sowie der Flexibilität von Eucalyptus, können Anwendungen ohne großen Aufwand von einer Cloud in die andere migriert werden. Darüber hinaus besteht die Möglichkeit des Aufbaus von Hybrid Clouds, indem eine Private Cloud mit einer Public Cloud erweitert bzw. kombiniert wird.
  • Qualitativ durch Tests
    Durch den Einsatz von Eucalyptus in Ubuntu’s Enterprise Cloud findet tagtäglich ein weltweiter realer Test auf Basis von mehr als tausend Server-Instanzen statt.
  • Kommerzieller Support
    Neben den Foren der Eucalyptus Community kann natürlich auch auf einen kommerziellen Support zurückgegriffen werden.

Open Nebula

OpenNebula ist ein Open Source Virtual Infrastructure Manager mit dem aus vorhandenen Rechenzentren jede Art von Cloud Computing Umgebung aufgebaut und bereitgestellt werden kann. In erster Linie dient OpenNebula als Tool zur Verwaltung der virtualisierten Infrastruktur des eigenen Rechenzentrums bzw. der eigenen Cluster, also der eigenen Private Cloud.

Darüber hinaus ist OpenNebula in der Lage Hybrid Clouds aufzubauen, also die eigene lokale Infrastruktur mit einer Public Cloud Infrastruktur zu verbinden/kombinieren, um die Skalierbarkeit der eigenen Umgebung noch weiter zu erhöhen. OpenNebula verfügt zusätzlich über spezielle Schnittstellen für die Verwaltung von virtuellen Maschinen, Speicherplatz und des Netzwerks von Public Clouds.

Funktionen

Private Cloud Computing

  • Internal Interfaces for Administrators and Users
    Mit einer Unix ähnlichen Kommandozeile und einer XML-RPC API kann der Lebenszyklus der virtuellen Maschinen und physikalischen Server verwaltet werden. Weitere Administrationsmöglichkeiten bietet die libvirt API.
  • Steuerung
    Die Verwaltung der Arbeitslast und Zuweisung der Ressourcen kann nach bestimmten Regeln wie z.B. der aktuellen Auslastung automatisch vorgenommen werden. Des Weiteren wird der Haizea VM-based lease manager unterstützt
  • Virtualisierungsmanagement
    Es existieren Konnektoren für Xen, KVM und VMware, sowie einem generischen libvirt Konnektor für weitere Virtual Machine Manager. Die Unterstützung von Virtual Box ist in Planung.
  • Image Management
    Es sind Funktionen für den Transfer und das Clonen von Virtual Machine Images vorhanden.
  • Netzwerk Management
    Es lassen sich isolierte virtuelle Netze festlegen um virtuelle Maschinen miteinander zu verbinden.
  • Service Management
    Unterstützung von Multi Tier Services bestehend aus Gruppen von miteinander verbundenen virtuellen Maschinen und deren Auto Konfiguration während des Boot Vorgangs.
  • Sicherheit
    Die Verwaltung der Benutzer wird durch den Administrator der Infrastruktur vorgenommen.
  • Fehlertoleranz
    Eine persistente Datenbank dient zum Speichern aller Informationen der Hosts und virtuellen Maschinen.
  • Skalierbarkeit
    Tests zeigten bisher, das OpenNebula mehrere hundert Server und virtuelle Maschinen verwalten kann.
  • Installation
    Die Installation erfolgt auf einem UNIX Cluster Front-End ohne das weitere Services benötigt werden. OpenNebula wird mit Ubuntu 9.04 (Jaunty Jackalope) ausgeliefert.
  • Flexibilität und Erweiterbarkeit
    Die Architektur, Schnittstellen und Komponenten sind offen, flexibel und erweiterbar. Dadurch kann OpenNebula mit jedem aktuellen Produkt aus dem Bereich Virtualisierung, Cloud Computing oder Management Tool für Rechenzentren integriert werden.

Hybrid Cloud Computing

  • Cloud Plugins
    Konnektoren für Amazon EC2 und ElasticHosts.
  • Zusammenschluss
    Unterstützung für den gleichzeitigen Zugriff auf mehrere Remote-Clouds.
  • Erweiterbarkeit
    Modulare Konzepte für die Entwicklung neuer Konnektoren.

Public Cloud Computing

  • Cloud Schnittstellen für Benutzer
    Implementierung einer Teilmenge der Amazon EC2 Query API und der OGF OCCI API
  • Erweiterbarkeit
    Die OpenNebula Cloud API ermöglicht die Implementierung neuer/weiterer Cloud Schnittstellen.

OpenStack

OpenStack ist ein weltweites Gemeinschaftsprojekt von Entwicklern und Cloud Computing Spezialisten, die das Ziel verfolgen eine Open Source Plattform für den Aufbau von Public und Private Clouds zu entwickeln. Das Projekt wurde initial von der Nasa und Rackspace gegründet und will Anbietern von Cloud Infrastrukturen ein Werkzeug in die Hand geben, mit dem sie unterschiedliche Arten von Clouds ohne großen Aufwand auf Standard Hardwarekomponenten aufbauen und bereitstellen können.

Der gesamte OpenStack Quellcode ist frei verfügbar und unterliegt der Apache 2.0 Lizenz. Dadurch ist jeder in der Lage auf dieser Basis seine eigene Cloud zu entwickeln und ebenfalls Verbesserungen in das Projekt zurückfließen zu lassen. Der Open Source Ansatz des Projekts soll zudem die Entwicklung von Standards im Bereich des Cloud Computing weiter fördern, Kunden die Angst vor einem Vendor Lock-in nehmen und ein Ecosystem für Cloud Anbieter schaffen.

OpenStack besteht derzeit aus insgesamt sechs Kernkompenten und wird stetig weiterentwickelt. OpenStack Compute, OpenStack Object Storage und OpenStack Image Service, OpenStack Identity, OpenStack Dashboard und OpenStack Networking.

Man muss sich allerdings darüber im Klaren sein, dass es sich bei OpenStack um kein fertiges Produkt handelt, das sofort einsatzfähig ist, sondern um einzelne Teilprojekte die selbst ineinander integriert und für die eigenen Bedürfnisse angepasst werden müssen. Es gibt aber mittlerweile fertige OpenStack Installationsroutinen von Mitgliedern des OpenStack Projekts.

OpenStack Compute

OpenStack Compute dient dem Aufbau, Bereitstellen und Verwalten von großen Virtual Machine Clustern, um auf dieser Basis eine redundante und skalierbare Cloud Computing Plattform zu errichten. Dazu stellt OpenStack Compute diverse Kontrollfunktionen und APIs zur Verfügung, mit denen Instanzen ausgeführt und Netzwerke verwaltet werden sowie die Zugriffe der Nutzer auf die Ressourcen gesteuert werden können. OpenStack Compute unterstützt zudem eine große Anzahl von Hardwarekonfigurationen und sieben Hypervisor.

OpenStack Compute kann bspw. Anbietern dabei helfen Infrastructure Cloud Services bereitzustellen oder IT-Abteilungen ermöglichen ihren internen Kunden und Projekten Ressourcen bei Bedarf zur Verfügung zu stellen. Zudem können große Datenmengen (Big Data) mit Tools wie Hadoop verarbeitet werden oder Web Anwendungen entsprechend ihrer Ressourcenbedürnisse bedient werden.

OpenStack Object Storage

Mit OpenStack Object Storage können auf Basis von standardisierten Servern redundante und skalierbare Object Storage Cluster mit einer Größe von bis zu 1 Petabyte aufgebaut werden. Dabei handelt es sich nicht um ein Dateisystem und ist nicht für das Speichern von Echtzeitdaten ausgelegt, sondern für das langfristige Speichern von statischen Daten gedacht, die bei Bedarf abgerufen oder aktualisiert werden können. Gute Anwendungsbeispiele für OpenStack Object Storage sind das Speichern von Virtual Machine Images, Photos, E-Mails, Backupdaten oder Archivierung. Da der Object Storage dezentral verwaltet wird, verfügt er über eine hohe Skalierbarkeit, Redundanz und Beständigkeit der Daten.

Die OpenStack Software sorgt dafür, dass die Daten auf mehrere Speicherbereiche im Rechenzentrum geschrieben werden, um damit die Datenreplikation und Integrität innerhalb des Clusters sicherzustellen. Die Storage Cluster skalieren dabei horizontal, indem weitere Knoten bei Bedarf hinzugefügt werden. Sollte ein Knoten ausfallen, sorgt OpenStack dafür, dass die Daten von einem aktive Knoten repliziert werden.

OpenStack Object Storage kann von Anbietern genutzt werden, um einen eigenen Cloud Storage bereizustellen oder die Server Images von OpenStack Compute zu speichern. Weitere Anwendungsfälle wären Dokumentenspeicher, eine Back-End Lösung für Microsoft SharePoint, eine Archivierungsplattform für Logdateien oder für Daten mit langen Aufbewahrungsfristen oder einfach nur zum Speichern von Bildern für Webseiten.

OpenStack Image Service

Der OpenStack Image Service hilft bei der Suche, Registrierung und dem Bereitstellen von virtuellen Maschinen Images. Dazu bietet der Image Service eine API mit einer Standard REST Schnittstelle, mit der Informationen über das VM Image abgefragt werden können, welches in unterschiedlichen Back-Ends abgelegt sein kann, darunter OpenStack Object Storage. Clients können über den Service neue VM Images registrieren, Informationen über öffentlich verfügbare Images abfragen und über eine Bibliothek ebenfalls darauf zugreifen.

Der OpenStack Image Service unterstützt eine Vielzahl an VM Formaten für private und öffentliche Images, darunter Raw, Machine (kernel/ramdisk, z.B. AMI), VHD (Hyper-V), VDI (VirtualBox), qcow2 (Qemu/KVM), VMDK (VMWare) und OVF (VMWare).

OpenStack Identity

Der OpenStack Identity Service stellt eine zentrale Authentifizierung über alle OpenStack Projekte bereit und integriert sich in vorhandene Authentifizierungs-Systeme.

OpenStack Dashboard

Das OpenStack Dashboard ermöglicht Administratoren und Anwendern den Zugang und die Bereitstellung von Cloud-basierten Ressourcen durch ein Self-Service Portal.

OpenStack Networking

OpenStack Networking ist ein skalierbares und API basierendes System für die Verwaltung von Netzwerken und IP-Adressen.


CloudStack

CloudStack wurde ursprünglich von Cloud.com entwickelt. Nach der Übernahme durch Citrix Systems im Jahr 2011 wurde Citrix zum Hauptsponsor von CloudStack. Die Open-Source Cloud Plattform basiert auf Java und hilft beim Aufbau und der Verwaltung von skalierbaren Infrastrukturen. Zu den aktuell unterstützten Hypervisorn gehören VMware, Oracle VM, KVM, XenServer und die Xen Cloud Platform. Neben einer eigenen RESTful API implementiert CloudStack ebenfalls die Amazon EC2 und S3 APIs sowie VMwares vCloud API. Die Cloud-Infrastruktur kann entweder über die Web-Oberfläche, einer Kommandozeile oder die API konfiguriert und verwaltet werden.

CloudStack besteht aus fünf Kernkomponenten. Der Compute Controller verwaltet die Rechenleistung, der Network Controller steuert das virtuelle Netzwerk und der Storage Controller ist für die Speicherverwaltung des BlockStorage zuständig. Alle drei Komponenten haben direkten Kontakt mit der physikalische Hardware. Auf diesen Komponenten setzt die CloudStack Orchestration Engine auf, die für den Aufbau, die Steuerung und Verwaltung der CloudStack Infrastruktur verantwortlich ist. Über der Orchestration Engine befindet sich als letzte Komponente die CloudStack API, die mit der Web-Oberfläche, Kommandozeile oder über REST interagiert und die Befehle an die Orchestration Engine weitergibt.

Citrix Systems ist nicht das einzige bekannte Unternehmen, was CloudStack unterstützt. Weitere Supporter des CloudStack Projekts sind RightScale, PuppetLabs, Juniper Networks, Enstratus, TrendMicro, Intel und Equinix.


Bildquelle: ©Gerd Altmann / PIXELIO

Kategorien
Kommentar

BYOD und BYOA. Es gibt mehr Vorteile als Risiken.

Die Trends Bring-your-own-device (BYOD) und Bring-your-own-application (BYOA) haben dazu geführt, das Mitarbeiter ihre privaten Endgeräte und (mobilen) Anwendungen mit ins Büro bringen, mit denen sie am Produktivsten sind. Doch anstatt sich gegen den Trend zu wehren, sollten Unternehmen die Vorteile für sich nutzen.

BYOA entwickelt sich zum Trend

Einer Fortinet Umfrage zufolge zeigten sich 69 Prozent der Befragten daran interessiert eigene Anwendungen im Büro zu nutzen. 30 Prozent würden sich dabei sogar gegen Regeln hinweg setzen und trotz eines Verbots eigene Anwendungen einsetzen.

Kontrollverlust wird größer

Der Kontrollverlust in IT-Abteilungen schreitet durch BYOD und BYOA stetig voran. Um sicherzustellen, dass das Unternehmensnetzwerk vor den Endgeräten (BYOD) geschützt ist, können Sicherheitsmaßnahmen eingeführt werden, mit denen der Zugriff je nach Situation beschränkt wird. Bei BYOA sieht es jedoch ein wenig anders aus. Die Daten werden hier in der Regel z.T. auf den lokalen Gerät und in einem Cloud Service oder vollständig in der Cloud gespeichert. Es kann also durchaus vorkommen, dass Unternehmensdaten verloren gehen, sollte der Anbieter des Cloud Service Ausfallen oder gar insolvent werden.

Das bedeutet im Umkehrschluss, dass sich die Unternehmensdaten ebenfalls über mehrere mobile Endgeräte hinweg repliziert befinden. Die IT-Abteilung verliert damit den Überblick wo und in welchem Stand die Daten gespeichert sind. Das kann zu Compliance-Problemen usw. führen.

Es gibt mehr Vorteile als Risiken

Dennoch sollten Unternehmen die Vorteile genau verstehen und anschließend gegen die Risiken abwiegen, bevor eine überhastete Entscheidung gegen BYOD/ BYOA getroffen wird. Denn mobile Anwendungen sind ein wertvolles Gut, was Unternehmen für sich nutzen können. Mit diesen können Mitarbeiter einfacher miteinander zusammenarbeiten, indem sie Dokumente, Videos usw. teilen und gleichzeitig an Dokumenten arbeiten.

Externe oder selbst entwickelte Anwendungen sind zudem eine ideale Quelle, um daraus eigene neue Ideen und Ansätze zu finden, die dem eigenem Unternehmen einen Vorteil verschaffen können. Würde man den Mitarbeitern die Nutzung dieser Anwendungen flächendeckend verbieten, heißt es nicht, dass diese auch tatsächlich darauf verzichten werden. Entweder sie finden einen Weg die App zu nutzen oder man verliert möglicherweise seine besten Mitarbeiter.

Eine Möglichkeit BYOA zu unterstützen besteht darin, die Anwendungen in kontrollierten Umgebungen zu integrieren, um die IT-Infrastruktur aber auch die Nutzer selbst zu schützen. Zudem gibt es einige App-Anbieter, die selbst für Consumer-Apps hohe Sicherheitsstandards in ihren Umgebungen haben. Dazu gehört z.B. Evernote. Der Cloud-basierte Notizblock bietet die Möglichkeit die Nutzerdaten zu verschlüsseln. Damit verfügen die Daten zumindest über ein gewisses Sicherheitsniveau, wenn der Service angegriffen wird.

Entscheider und IT-Abteilungen sollten zudem von den unerwünschten Anwendungen lernen, die durch die eigenen Mitarbeiter in die Unternehmen getragen werden. Anstatt diese zu verbieten, sollte aus diesen gelernt werden, um die eigene Sicherheit zu erhöhen und den eigenen Innovationsgrad zu erhöhen.


Bildquelle: ©Tony Hegewald / PIXELIO