Kategorien
News

CA Technologies präsentiert Converged Infrastructure Management-Lösungen

CA Technologies hat eine neue Version seiner CA Infrastructure Management (CA IM) Lösung für das Converged Infrastructure Management für Unternehmen vorgestellt. Durch die Integration von Bausteinen aus dem CA Technologies Service Assurance-Portfolio kann CA IM große Mengen unzusammenhängender Performancedaten in relevante Einblicke verwandeln, die in einheitlichen, benutzerdefinierten Ansichten präsentiert werden. Dadurch sollen Unternehmen und Kunden von Service Providern kosteneffektiv die Servicequalität, Prognostizierbarkeit und Effizienz verbessern.

Alte Welt und die Komplexität der modernen IT

Die Zunahme von Volume und Arten des Datenverkehrs, der Daten und der Geräte im Internet, gepaart mit veralteten Methoden, Prozessen und Tools für das Management, schaffen eine Komplexität der IT, die IT-Organisationen vor Herausforderungen stellt, wenn sie die steigenden Erwartungen der Kunden erfüllen wollen.

Neue Infrastructure Management Lösungen sind gefragt

CA Infrastructure Management konzentriert sich auf diese Herausforderungen, indem es Funktionen, Analysemöglichkeiten, hohe Skalierbarkeit und Anpassungsfähigkeit für bestehende Umgebungen bietet. Die Lösung ermöglicht IT-Teams den Zugriff auf grafische Darstellungen spezifischer Informationen, mit denen sie die Servicequalität verbessern können. CA IM unterstützt:

  • Personal der Unternehmens-IT beim Management des schnellen Wachstums im Bereich „Bring Your Own Device“ (BYOD), Video und Anwendungskomplexität in hochgradig virtualisierten Infrastrukturen.
  • Communication Service Provider bei der Vereinfachung und Beschleunigung der Bereitstellung von 4G-Netzwerken.
  • Managed Service Provider bei der Erschließung neuer Umsatzquellen und schnelleren Aufnahme neuer Kunden.

In Kombination mit anderen Service Assurance-Lösungen bietet CA IM seinen Kunden eine Servicetransparenz, um Verfügbarkeit und Performance von Business Services und der zugrundeliegenden Infrastruktur sicherzustellen.

  • Konvergente Anwendungen und Infrastruktur: End-to-End Überwachung der Antwortzeit von Anwendungen, Messung und Analyse der Anwendungsperformance in der gesamten Netzwerkinfrastruktur, Abgleich der Antwortzeiten mit Grundverhalten und Schwellwerten, Warnungen bei Performanceverschlechterungen – mit dem Ergebnis eines anwendungsorientierten Infrastructure Management.
  • Konvergente Funktionsbereiche: Eine fortschrittliche Architektur, die agentenlose Erfassung für hochmodernes Aggregieren und Analyse der Performance-, Fehler- und Datenflussdaten ermöglicht, die mehrere Funktionsbereiche über Netzwerke, Systeme und Anwendungsbereiche hinweg vereint.
  • Konvergente Netzwerke: Integriertes Performance Management für netzwerkbasierte Sprach- und Videoanwendungen, z.B. Cisco Unified Communications Manager, Microsoft Lync und AVAYA. Kunden können die Lösung für Nachverfolgung, Prüfung und Reporting für wichtige Performancemessdaten nutzen, um die Qualität der Experience und die Servicequalität im Netzwerk für vereinheitlichte Kommunikationslösungen zu nutzen.
  • Konvergente Analysen: Dynamische, vereinte Performanceanalysen, die die gesamte Infrastruktur umfassen, um Grundverhalten zu ermitteln, Trends zu berechnen, Schwellwerte festzulegen, Abweichungen zu erkennen und automatische Untersuchungen auszulösen. Die Ergebnisse werden in konvergenten, kontextbezogenen Ansichten bereitgestellt, die relevante Daten abhängig von der Benutzerrolle darstellen.

CA Services und CA Education unterstützen das CA Infrastructure Management zudem mit Implementierungsangeboten, darunter Grundlagenservices für eine schnelle Bereitstellung der Lösung, um geschäftliche Anforderungen zu erfüllen, und Optimierungsservices, um den Nutzen einer grundlegenden Implementierung durch zusätzliche Leistungsmerkmale wie Mandantenfähigkeit zu steigern. Strategische Beratung, Managed Services und von Dozenten durchgeführte webgestützte Schulungen für Kunden und Partner sind ebenfalls verfügbar.

Kategorien
News

Fedora 17 mit Neuigkeiten im Bereich Virtualisierung und Cloud Computing

Die neue Fedora Version 17 steht ab sofort zum Download bereit und zeichnet sich vor allem durch Neuerungen in den Bereichen Virtualisierung, Cloud Computing und GNOME aus. Zu den wichtigsten Aktualisierungen zählen die Unterstützung der Cloud Plattform OpenStack sowie oVirt, eine Managementlösung für Virtualisierungsumgebungen. Als Desktop-Benutzeroberfläche steht GNOME 3.4 bereit.

Fedora 17 mit Neuigkeiten im Bereich Virtualisierung und Cloud Computing

Fedora 17 kommt mit einer Vielzahl von Verbesserungen und neuen Funktionen, darunter:

Cloud Computing, Virtualisierung, Cluster: Das OpenSource Projekt OpenStack wurde auf das neueste Release 2012.1 (Essex) aktualisiert. Mit oVirt wurde eine neue und offene Virtualisierungstechnologie hinzugefügt, die ein umfangreiches Management zur Virtualisierung bietet und viele Funktionen sowohl für den Host als auch für den Gast mitbringt. Der Cluster Stack wurde um wesentliche Updates für die Hochverfügbarkeit und des Load Balancing aktualisiert.

Für Entwickler: Steht nun der JBoss Application Server 7 bereit. Zudem wurde eine pre Version von Juno, dem kommenden Eclipse SDK Release, hinzugefügt. Mit Java 7 und OpenJDK7 enthält Fedora 17 nun auch die neueste Java Version.

Desktop Funktionen: GNOME 3.4 wurde um neue Suchfunktionen, verbesserte Themes und weitere Verbesserungen bei der Usability erweitert, z.B. Erweiterungen für die Textverarbeitung und dem Kontaktmanager. Die neueste GIMP 2.8 Version beinhaltet nun einen Single-Window Mode sowie Layer Groups und eine On-Canvas Text Bearbeitung.

Eine vollständige Liste der Fedora 17 Funktionen ist unter http://fedoraproject.org/wiki/Releases/17/FeatureList zu finden.

Kategorien
News

AWS veröffentlicht VM Export Service für Amazon EC2

Mit dem AWS VM Import Service ermöglichen die Amazon Web Service den Import unterschiedlicher Virtual Machine Formate nach Amazon EC2, um damit virtualisierte On-Premise Ressourcen in die Amazon Cloud zu migrieren. Wie Jeff Barr auf dem Unternehmensblog berichtet, wurde der Service nun so erweitert, um virtuelle Maschinen von Amazon EC2 in die eigene On-Premise Umgebung zu exportieren.

AWS veröffentlicht VM Export Service für Amazon EC2

Diese Funktion steht mit der neuesten Version der EC2 command line (API) Tools bereit. Ein Export könnte bspw. so aussehen:

ec2-create-instance-export-task –e vmware -b NAME-OF-S3-BUCKET INSTANCE-ID

Hier wird die Instanz ID und der Name eines S3 Buckets benötigt, in dem die exportierte VM gespeichert wird.

Mit dem Befehl ec2-describe-export-tasks kann der Export Prozess überwacht und mit ec2-cancel-export-task gestoppt werden.

Ist der Exportvorgang abgeschlossen, muss das exportierte Image lediglich in die lokale On-Premise Umgebung heruntergeladen werden.

Der Service unterstützt derzeit den Export von Windows Server 2003 (R2) und Windows Server 2008 EC2 Instanzen in das VMware ESX kompatible VMDK Format sowie nach Microsoft Hyper-V VHD oder Citrix Xen VHD Images. Zudem plant AWS in Zukunft weitere Betriebssysteme, Image Formate und Virtualisierungstechnologien zu unterstützen.

Kategorien
News

Studie zu Private Cloud, Storage und Virtualisierung bestätigt: Performance-Probleme und Ausfallzeiten haben Top-Priorität vor den Kosten

Performance-Engpässe und Ausfallzeiten bei Virtualisierungsprojekten bereiten IT-Verantwortlichen im Speicherumfeld die größten Sorgen. Noch im Vorjahr hatten die Kosten Top-Priorität. Das ist ein Ergebnis einer aktuellen Studie von DataCore Software, führender Anbieter für Storage-Hypervisor-Software, unter rund 300 befragten Unternehmen weltweit.

63 Prozent der Befragten gaben an, dass speicherseitige Systemausfälle und Performance-Verschlechterungen die Hauptprobleme bei der Realisierung von Virtualisierungsprojekten sind. Im Vorjahr lag dieser Wert noch bei 36 Prozent. 51 Prozent sind der Ansicht, dass steigende Storage-Kosten viele Virtualisierungsinitiativen ausbremsen. 2011 lag dieser Wert noch bei 66 Prozent.

Storage verschlingt einen erheblichen Teil des Virtualisierungsbudgets, die steigenden Ausgaben allein werden jedoch nicht mehr als Hauptproblem gesehen. Rund 44 Prozent der Befragten gaben an, dass die Speicherkosten mittlerweile mehr als ein Viertel ihres Gesamtbudgets ausmachen. Dabei können 37 Prozent der Unternehmen heute mehr Geld für den Speicher ausgeben, bei nur 13 Prozent wurde das Budget reduziert.

Weitere Ergebnisse der weltweiten Studie

  • 34 Prozent der Befragten geben zu, die Storage-Kosten bei der Umsetzung von Server- und/oder Desktopvirtualisierungsprojekten unterschätzt zu haben. Fast jeder Vierte (28 Prozent) hat die Speicherkosten bei der Bereitstellung einer Private Cloud unterbewertet.
  • Trotz steigender Ausgaben für Speicherlösungen konnten die Performanceprobleme bei Server- und Desktop-Virtualisierungsprojekten nicht eliminiert werden. So berichteten die Befragten von erheblichen Problemen bei Performance, Ausfallsicherheit und Business Continuity trotz eines höheren durchschnittlichen Storage-Budgets.
  • 32 Prozent konstatieren eine langsame Performance aufgrund der Speicherumgebung (gegenüber 26 Prozent im Jahr 2011), 32 Prozent verzeichnen Ausfallzeiten aufgrund von Speicherproblemen (2011 nur 9 Prozent) und 23 Prozent gaben an, dass die Sicherstellung der Business Continuity einer der schwierigeren Herausforderung ist.
  • Kapp 80 Prozent der befragten Unternehmen haben mittlerweile mehr als die Hälfte ihrer Server virtualisiert (2011: 64 Prozent), wohingegen weniger als 5 Prozent noch gar keine Server virtualisiert haben (2011: 9 Prozent).
  • Fast zwei Drittel (65 Prozent) können ihre Storage-Ressourcen noch immer nicht in einem logischen Storage-Pool (2011: 61 Prozent) verwalten.
  • Jeder zweite Befragte nutzt Virtualisierungssoftware, die heterogene Speichermedien nicht zentral managen kann.
  • In privaten Clouds setzen weniger als ein Drittel (32 Prozent) der Befragten Speichervirtualisierungstechnologien für private Cloud-Umgebungen ein.

Die Umfrage „2012 State of the Private Cloud“ zeigt zudem, dass die Virtualisierung in der Praxis angekommen ist und das speicherbezogene Performance und Verfügbarkeit die größten Kopfzerbrechen verursachen und inzwischen mit Bedenken bezüglich der Kosten einhergehen.

Die Umfrage wurde im März 2012 durchgeführt. 289 Unternehmen unterschiedlicher Größe nahmen weltweit an der Online-Befragung teil und beantworteten Fragen zu Storage, Virtualisierung und Private Clouds. Etwa 180 teilnehmende Unternehmen stammen aus Europa.
Der vollständige Bericht steht bereit unter: http://pages.datacore.com/StateofPrivClouds.html.

Kategorien
Events

Event-Tipp: SecureCloud 2012

Vom 9. bis 10. Mai 2012 findet die SecureCloud 2012, ein internationales Treffen von Cloud Computing Sicherheitsexperten, im Sheraton Congress Hotel in Frankfurt am Main statt.

Event-Tipp: SecureCloud 2012

Die SecureCloud 2012 wird von der Cloud Security Alliance (CSA), der European Network and Information Security Agency (ENISA), dem Center for Advanced Security Research Darmstadt (CASED)/Fraunhofer Institute for Secure Information Technology und der ISACA (previously the Information Systems Audit and Control Association) veranstaltet.

Die zweitägige Veranstaltung fokussiert sich auf neue technische Entwicklungen, erfolgreiche Strategien für das Risikomanagement sowie Änderungen der EU-Datenschutzrichtlinien und deren Bedeutung für Unternehmen. Zu den Themen der Englisch sprachigen Konferenz gehören:

  • Die neuen EU-Richtlinien und ihre Bedeutung für Cloud-Nutzer und Anbieter
  • Umgang mit Zwischenfällen in der Cloud
  • Cloud-Sicherheit aus der Kundenperspektive
  • Steuerung, Risiko und Compliance in der Cloud
  • Überwachung von Sicherheits- und Dienstebenen
  • Sicherheit von Virtualisierung
  • Praxisnahe Verschlüsselung für die Cloud
  • Cloud Forensic

Zu den Referenten der SecureCloud 2012 gehören unter anderem:

  • Dr. Carl-Christian Buhr
    European Commission, Mitglied im Kabinett der EU-Vizepräsidentin Neelie Kroes
  • Dr. Waldemar Grudzien
    Bundesverband Deutscher Banken e.V., Direktor
  • Thomas Endres
    Lufthansa, CIO
  • Eran Feigenbaum
    Google, Director of Security Google Apps
  • Billy Hawkes
    Irish Data Protection Commissioner
  • CJ Moses
    Amazon, Amazon Web Services Deputy, Chief Information Security Officer
  • Ari Juels
    RSA, Chief Scientist
  • Monika Josi
    Microsoft, Chief Security Advisor EMEA

Weitere Informationen zum Programm und die Anmeldung sind unter https://cloudsecurityalliance.org/events/securecloud-2012 zu finden.

Kategorien
Management

Schöne virtualisierte Welt der IT

In der heutigen IT-Welt findet man fast in allen Bereichen Virtualisierung, ganz gleich ob es sich um Hardware-, Software- oder Netz-Umgebung handelt. Das Hauptziel der Virtualisierung ist Rationalisierung und Leistungssteigerung der Rechenzentren. Ohne Virtualisierung muss in einem Rechenzentrum für jeden Anwender und jedes Anwendungsgebiet ein eigenes Serversystem aufgebaut werden, das in der Lage ist, eigenständig Anfragespitzen abzudecken. Daraus folgt logischerweise eine Überproportionalisierung der Serverkomponenten eines IT-Systems. Laut einer Studie der International Data Corporation (IDC), geht die durchschnittliche Serverauslastung in dieser Konstellation nicht über 25% hinaus. Das bedeutet eine enorme Vergeudung von Serverkapazitäten, Räumlichkeiten und Personalkapazitäten in Rechenzentren.

IBM konnte bereits vor über 30 Jahren den Mainframe-Computer in logisch getrennten virtuellen Maschinen partitionieren, um gleichzeitige Ausführung verschiedener Applikationen und Prozesse auf einem Rechner, d.h. Multi-Tasking, zu realisieren. Es ist ein wesentliches Merkmal der Virtualisierung, eine logische Abstraktionsschicht zu schaffen, zwischen dem Anwender und den Ressourcen – Hardware und Software – die er benutzt, um seine Aufgaben zu erledigen. Ihm wird der Eindruck vermittelt, er sei der alleinige Nutzer aller Ressourcen, obwohl er in der Tat sie mit vielen anderen teilt.

Für die Virtualisierung stehen heute diverse Virtualisierungssoftware zur Verfügung, die virtuelle Maschinen realisieren können. Die eigentliche Virtualisierung kann auf unterschiedlichen Ebenen stattfinden.

Ein Beispiel für die Virtualisierung auf der Betriebssystem-Ebene ist Linux-VServer. Diese Open Source-Software kann Teile eines IT-Systems so aufteilen und voneinander abgrenzen, dass einzelne Prozesse nicht außerhalb des ihnen zugeteilten Arbeitsbereiches zugreifen können. Damit können z.B. Dateisysteme, Hauptspeicher, Netzwerkadressen oder Prozessorzeiten für unterschiedliche Anwendungen partitioniert werden.

Ein Beispiel für die Virtualisierung auf einer abstrakten Verwaltungsebene, auch Paravirtualisierung genannt, ist das von IBM entwickelte Betriebssystem OS/400 (IBM i). Das konstruktionsprinzip von OS/400 ist die Objektbasiertheit. Alle Bestandteile des Betriebssystems sind als Objekte mit Eigenschaften und Funktionen zu betrachten. OS/400 stellt eine Reihe von schlüsselfertigen Lösungen zur Verfügung.

Ein Beispiel für die Virtualisierung auf der Hardware-Ebene ist Intel Virtualization Technology (Intel VT). Mit dieser Technologie hat der Chip-Hersteller Intel die Grundlage geschaffen für die Nutzung seiner Prozessoren für Server-Virtualisierung.

Ein schönes Beispiel für die praktische Nutzung der Virtualisierungssoftware, auch für die PC-Benutzer, ist die Freeware von Oracle / Sun VirtualBox. Mit diesem Tool kann man beliebige Betriebssysteme auf einem PC ausführen ohne zusatzinstallation. Man kann z.B. Linux unter Windows laufen lassen oder umgekehrt. Auf diese Art und Weise kann man seinen PC benutzen, um die Portabilität einer Anwendung zu testen.

Kategorien
Services Tutorials

Erste Schritte mit der domainFACTORY “JiffyBox”

Nach der Vorstellung und weiteren Hintergrundinformationen zur domainFACTORY “JiffyBox”, gibt dieses Tutorial einen Einblick in das Innere. Dazu habe ich von der domainFACTORY GmbH einen kostenlosen Testzugang erhalten, für den ich mich auf diesem Wege bedanken möchte!

Erstellen einer JiffyBox

Zunächst melden wir uns dazu unter https://admin.jiffybox.de mit einem gültigen Benutzernamen und Passwort an, die wir unter https://www.jiffybox.de beantragen können.

Nach einer erfolgreichen Anmeldung werden wir im Control Panel begrüßt, wo wir im ersten Schritt mittels „Jetzt Trial-Server bestellen“ einen kostenlosen Test der JiffyBox vornehmen können oder uns über „Neue JiffyBox erstellen“ eine neue JiffyBox erzeugen. Wir wählen hier den zweiten Schritt.

Wir geben der neuen JiffyBox einen Namen, wählen einen Tarif, hier „CloudLevel 1 – mit 1 GB Arbeitsspeicher und 50 GB Festplatte für 0,02 € / Stunde“ und eine Linux Distribution, hier „Ubuntu 10.04 LTS“. Würden wir bereits über eine JiffyBox verfügen, hätten wir als Distribution ebenfalls ein Backup als Quelle angeben können.

Unter dem Punkt „Erweitert“ können wir der JiffyBox ein selbst gewähltes Root Passwort zuweisen. Anschließend wählen wir „Erstellen“.

Die JiffyBox wird nun automatisch im Hintergrund erzeugt. Statusinformationen zeigen dabei den aktuellen Vorgang!

Zurück im „Control Panel“ sehen wir die erzeugte JiffyBox und können nun mittels „Konfigurieren“ weitere Einstellungen vornehmen, die JiffyBox „Starten“, „Einfrieren“ oder wieder vollständig „Löschen“.

Hinter dem Menüpunkt „Voreinstellungen“ verbirgt sich das Schlüsselmanagement, wo wir mehrere SSH-Public-Keys eintragen können.

Über den Punkt „Alle Meldungen“ gelangen wir in den Statusbereich. Hier erhalten wir detailliert alle Informationen zu allen Vorgängen innerhalb unseres Accounts.

Weitere Informationen

Über den Menüpunkt „Account“ gelangen wir direkt zu den Stammdaten.

Weiterhin können wir über „Kundenservice“ direkt elektronischen Kontakt zu dem domainFACTORY Support aufnehmen und erhalten einen historischen Überblick über alle bisherigen Anfragen.

Wir können zusätzlich über den Menüpunkt „Passwörter“, unsere Passwörter für das JiffyBox Control Panel und dem Telefon Support eigenständig ändern. Zudem erhalten wir einen Überblick über alle bisher gestellten Rechnungen durch domainFACTORY über den Punkt „Rechnungen“.

Der Menüpunkt „Verbräuche“ gibt einen genauen Überblick zu den bisher entstandenen Kosten zu allen JiffyBoxen und dem verbrauchten Traffic.

Weiterhin erhalten wir einen detaillierten Überblick über die Nutzung jeder einzelnen, in unserem Account vorhandenen, JiffyBox.

Sowie vom derzeit verbrauchten Traffic.

Ein weiteres interessantes Feature ist die Möglichkeit zur Begrenzung der Kosten. Hier kann ein Betrag (in EUR) als Obergrenze eingetragen werden und die Folgeaktion, die stattfinden soll, wenn der Betrag erreicht wird.

Um die JiffyBox über Skripte zu steuern, haben wir über den Menüpunkt „API-Zugriff“ die Möglichkeit, einen API-Token zu erzeugen. Weitere Informationen für die Nutzung der API sind in der PDF-Datei „JiffyBox-API“ zu finden.

Arbeiten mit der JiffyBox

Zurück im Control Panel wollen wir nun ein Blick hinter die Konfigurationsmöglichkeiten einer JiffyBox werfen. Wie wir sehen werden, stehen uns dazu viele Möglichkeiten zur Verfügung. Wir wählen dazu unter „Ihre JiffyBoxen“ die Aktion „Konfigurieren“.

Wir erhalten zunächst einen Überblick zu allen notwendigen Informationen, wie der aktuellen IP-Adresse und dem aktuellen Hostnamen, dem genutzten Tarif, dem verfügbaren Arbeitsspeicher und der Festplattengröße, sowie der für diese JiffyBox verwendeten Linux Distribution.

Über „Profile und Festplatten“ können wir weitere Konfigurationen am System, der Festplattengröße und deren Zuordnung vornehmen.

Hinter „Netzwerk“ verbergen sich weitere Informationen zu den IP und DNS Informationen. Hier haben wir die Möglichkeit den „Reverse-DNS“ Namen zu ändern und eine weitere IP-Adresse zu bestellen.

Von jeder JiffyBox werden automatisch tägliche Backups erstellt. Dennoch haben wir die Option über den Menüpunkt „Backups“ ein manuelles Backup zu starten, bzw. eigene Backup Pläne zu erstellen.

Über „Konsole und Recovery“ steht uns der Zugriff mittels einer Web-Konsole und per SSH-Konsole zur Verfügung. Weiterhin kann ein Recovery-System aktiviert werden, um die JiffyBox im Notfallmodus zu starten.

Um die JiffyBox nun zu nutzen, wählen wir im Control Panel unter „Ihre JiffyBoxen“ lediglich „Starten“.

Mittels eines SSH-Clients, hier Putty, verbinden wir uns mit der JiffyBox. Die dazu benötigte IP-Adresse bzw. den DNS-Namen erhalten wir unter dem Menüpunkt „Netzwerk“ in dem Konfigurationsbereich der JiffyBox.

Anschließend melden wir uns mit dem Benutzer „root“ und dem von uns bei dem Erstellen der JiffyBox unter „Erweitert“ gewählten Passwort an.

Damit sind wir mit unserer ersten eigenen JiffyBox verbunden.

Um die JiffyBox wieder zu beenden, wählen wir im Control Panel für die entsprechende JiffyBox „Stoppen“.

Und dann „Herunterfahren“.

Die JiffyBox wird anschließend automatisch heruntergefahren. Eine Statusmeldung informiert uns über den erfolgreichen Vorgang.

Die JiffyBox kann anschließend wieder angepasst, gestartet, eingefriert oder gelöscht werden.

Die Verbrauchsanzeige informiert uns darüber, dass für eine Gesamtdauer von 1:33:36 Stunden bisher 0,03 EUR entstanden sind.

Kategorien
Tutorials

Eucalyptus: Erstellen eines Image aus einem ISO (Xen)

Dieser Artikel beschreibt, wie mittels Xen und dem ISO Image eines Gast Betriebssystems das installiert werden soll, ein Root Dateiystem für Eucalyptus erstellt wird.

Voraussetzung

  • Hardware Virtualisierung Unterstützung auf dem System (Hardware-assisted virtualization)
  • Funktionsfähige Xen Umgebung (domU muss gestartet werden können)
Kategorien
Management

Vorteile durch Desktop-Virtualisierung!

Was ist Desktop-Virtualisierung?

Im Vergleich zu klassischen Desktop-PCs werden virtuelle Desktops als virtuelle Maschinen wie eine zentral verwaltete Ressource betrachtet und im Rechenzentrum bereitgestellt. Das führt dazu, dass die Konfiguration und Verwaltung nicht mehr auf dem physikalischen Endgerät eines Benutzers stattfindet, sondern innerhalb der virtuellen Maschine.

Auf einem zentralen Rechner werden dabei mehrere individuelle Betriebssysteminstanzen für mehrere Benutzer zur Verfügung gestellt, wodurch jeder Benutzer in (s)einer eigenen virtuellen Umgebung arbeitet. Der Benutzer merkt nicht, dass seine Systemumgebung virtualisiert ist, da sich sein Gesamtsystem wie ein gewöhnlicher Desktop-PC verhält.

Es lassen sich drei Typen von virtuellen Desktops klassifizieren:

  • Standard Desktop
    Dabei handelt es sich um einen gewöhnlichen Desktop, der für alle Benutzer gleich aufgebaut und so ausgestattet ist, das Büroaufgaben damit ohne weiteres erledigt werden können.
  • Personalisierter Desktop
    Auf Basis von virtuellen Maschinen werden auf den Servern für jeden Benutzer individuell eingerichtete virtuelle Desktops bereitstellen, die dort zentral gepflegt und verwaltet werden. Die Anwender haben zudem die Möglichkeit selbständig Änderungen vorzunehmen.
  • High-End Desktop
    Wird eine enorme Leistung benötigt, erhält jeder Benutzer auf Basis von Blade PCs seine eigene Instanz im Rechenzentrum. Der Desktop wird dabei auf dem Blade PC ausgeführt, wodurch der Benutzer die vollständigen Ressourcen wie z.B. die Prozessorleistung alleine für sich nutzen kann.

Vorteile und Nutzen der Desktop-Virtualisierung

Durch die Trennung des Desktops von dem physikalischen Endgerät kann die Administration zentral auf einem Server vorgenommen werden, womit der Wartungsaufwand reduziert wird, da die Installation, Konfiguration und Aktualisierung nicht mehr vor Ort vorgenommen werden muss. Speziell im Falle von Migrationen stehen hier enorme Zeitvorteile im Vordergrund. So kann z.B. in kurzer Zeit die Umstellung auf eine neue Betriebssystemversion vorgenommen werden.

Weiterhin können die Kosten für die Client-Hardware gesenkt werden. Aktuelle Windows Betriebssysteme benötigen performante und damit kostspielige Endgeräte. Durch die Virtualisierung des Desktops können entweder ältere Endgeräte oder Thin Clients eingesetzt werden, die zudem stromsparend und wartungsarm sind. Laut einer IDC Kundenbefragung können die Kosten, im Vergleich zu herkömmlichen Desktop PCs (Fat Clients), um ca. 600 Dollar pro Benutzer pro Jahr gesenkt werden.

Ein weiterer zu beachtender Punkt ist die Erhöhung der Sicherheit. Die Daten befinden durch die Desktop-Virtualisierung nicht mehr lokal auf den Endgeräten, sondern werden zentral auf den Unternehmensservern gespeichert. Somit werden die Daten zusätzlich in die zentralen Datensicherungsmechanismen eingegliedert und der Zugriff auf die Daten wird zentral gesteuert. Die Compliance kann ebenfalls unternehmensweit verbessert werden, da die Installation von unerwünschter Software zentral unterbunden werden kann und es kann sichergestellt werden, dass die Daten im Rechenzentrum verbleiben.

In Unternehmen die mit wechselnden Arbeitsplätzen arbeiten, erhalten die Benutzer den Vorteil, immer über ihre eigene tatsächliche Umgebung zu verfügen. Der Nachteil der „Roaming Profiles“ besteht darin, dass die Installation & Konfiguration des Betriebssystems und der darauf installierten Software für jeden Benutzer, der an dem Rechner arbeitet, gleich ist. Im Falle der Desktop-Virtualisierung ist ein Benutzer damit (wirklich) nicht mehr an einen bestimmten Arbeitsplatz (Ort) gebunden.

Anforderungen & Herausforderungen der Desktop-Virtualisierung

Desktop-Virtualisierung ist kein Thema, dass kurzfristig umgesetzt werden kann, sondern bedarf einem gut durchdachten und ganzheitlichen Ansatz. Dazu gehören neben der Administration der virtuellen Desktops, ebenso die benutzerspezifische Anpassung und die Gewährleistung der Geschwindigkeit und Performanz. Letzteres ist vor allem kritisch zu betrachten, wenn ein Unternehmen über mehrere Standorte verteilt ist und der Zugriff über eine WAN-Verbindung stattfindet. Die Berücksichtigung der gesamten IT-Infrastruktur ist bei der Einführung und Implementierung von Desktop-Virtualisierung von enormer Wichtigkeit. Wozu eine ganzheitliche Betrachtung und ebenfalls Technologien zur Optimierung und Überwachung der WAN-Verbindungen und Performanz sowie des sicheren Zugriffs gehören.

Kategorien
Grundlagen

Was ist Virtualisierung?

Auf einer abstrakten Ebene ist Virtualisierung für die Emulation und Simulation von Hardware-Ressourcen zuständig und entkoppelt in diesem Zusammenhang die Computer-, Speicher- und Netzwerk-Hardware von dem darauf ausgeführten Betriebssystem (Software), wodurch eine virtuelle Infrastruktur geschaffen wird. Unternehmen erhalten dadurch die Möglichkeit ihre Infrastrukturkosten zu senken und können schneller auf wechselnde Anforderungen reagieren. Wird zum Beispiel ein zentrales SAN (Storage Area Network) für das gemeinsame Speichern von Daten genutzt, führt das zur Verbesserung des ROI (Return on Investment).

Schauen wir uns das Thema Virtualisierung im Kern genauer an, handelt es sich dabei um das Bereitstellen von Hardware-Ressourcen auf einer physikalisch vorhandenen Maschine für ein oder mehrere voneinander vollständig getrennte Gastsysteme, die auf dieser physikalischen Maschine (Wirtsystem) parallel ausgeführt werden. Die Gastsysteme (virtuelle Maschinen) teilen sich die Ressourcen des Wirtsystems, wissen aber gegenseitig nichts von ihrer Existenz.

Einsatz und Nutzen von Virtualisierung

Für Virtualisierung kommen verschiedene Einsatzgebiete in Frage. Ein Bereich ist das Einsparen von Energie und Ressourcen oder die Erhöhung der Serverauslastung, um Rechenzentren effizienter zu betreiben. Dazu werden mehrere physikalische Server in virtuelle Maschinen migriert, um diese anschließend auf einem einzigen physikalischen Server zu konsolidieren.

Virtualisierung führt u.a. zu folgenden Nutzen/ Vorteilen:

  • Hardwareunabhängigkeit auf Grund der Virtualsierungsebene.
  • Verringerung der Administrations- und Serverwartungskosten.
  • Optimierung des Platzbedarfs.
  • Verbesserung der Ausfallsicherheit und des Disaster Recovery auf Grund von Clustering Möglichkeiten innerhalb der virtuellen Systeme.
  • Verbesserung des Energieverbrauchs und der Wärmeentwicklung (z.B. USV, Klimaanlage).
  • Verbesserung der Wirtschaftlichkeit auf Grund der besseren Serverauslastung (Hardware).
  • Erhöhung und Verbesserung der Flexibilität und Skalierbarkeit.
  • Zeit- und Kostenminimierung für den Aufbau von Serverlandschaften und komplexen Testumgebungen.
  • Ab Infrastrukturen mit drei Server erhöht der Einsatz von Virtualisierungstechnologien die Effizienz.

Virtualisierungsarten

Aktuell existieren einige unterschiedliche Virtualisierungstechnologien auf dem Markt, die ich im Folgenden vorgestellt werden.

Systemvirtualisierung

Eine Systemvirtualisierung bietet die Möglichkeit mehrere Betriebssysteme auf derselben Hardware parallel auszuführen. Dabei werden zwei Systeme unterschieden. Zum einen das virtualisierte System, dass auch Gastsystem genannt wird und zum anderen das Hostsystem, auf dem das Gastsystem ausgeführt wird und welches direkt mit der Hardware kommuniziert.

Hardware-Virtualisierung (Full-Virtualisierung)

Die Hardware-Virtualisierung ist eine Untermenge der Systemvirtualisierung. Dabei kann ein Gastsystem, ohne Änderungen an seinem Betriebssystemkernel, direkt innerhalb einer virtualisierten Umgebung ausgeführt werden.

Paravirtualisierung

Die Paravirtualisierung ist ein Spezialfall der Systemvirtualisierung. In diesem Fall sind Anpassungen am zu virtualisierenden Betriebssystem notwendig, da eine direkte Schnittstelle zur darunter liegenden Hardware benötigt wird. Der Vorteil besteht in der höheren Performance, da die virtuelle Maschine direkt mit der Hardware kommuniziert.

Anwendungsvirtualisierung

Mit der Anwendungsvirtualisierung lassen sich einzelne Anwendungen mit einer Virtualisierungsschicht vom sich darunter befindenden System entkoppeln. Damit wird eine spezielle Umgebung für die virtualisierte Anwendung geschaffen. Diese Umgebung muss nicht abhängig von der Umgebung des Hosts sein, wodurch auch Anwendungen genutzt werden können, die nicht mehr von dem Hostsystem unterstützt werden.

Netzwerk-Virtualisierung

Netzwerk-Virtualisierung wird genutzt, um logische Teilnetze (Virtual Local Area Networks, VLANs) innerhalb eines physikalischen Netzwerks oder eines Switches aufzubauen. Das VLAN unterteilt ein physikalisches Netz in einzelne (logische) Teilnetze, indem die Datagramme eines VLANs nicht in ein anderes übertragen werden, auch wenn die Teilnetze mit gemeinsam genutzte Switches verbunden sind.