Kategorien
Analysen

Disaster Recovery: Kein Grund mehr für Ausreden!

Das Thema Disaster Recovery spielt im deutschen Mittelstand nur eine untergeordnete Rolle. Diese fahrlässige Haltung kann sich in einem Bruchteil von Sekunden geschäftsschädigend auswirken. Dabei bieten neue Betriebsmodelle aus dem Cloud-Zeitalter keinen Grund mehr für Ausreden.

An einer Disaster Recovery Strategie führt kein Weg mehr vorbei

Der Tsunami der digitalen Transformation wird auch deutsche Unternehmen mit voller Wucht treffen. Wann die Hauptwelle einschlagen wird ist individuell zu betrachten und nicht zu 100 Prozent vorhersagbar. Eines ist allerdings sicher, die Cloud-, Social-, Mobile- und Big Data Beben sind allgegenwärtig und die ersten Ausläufer sind bereits angekommen. Insbesondere der Mittelstand wird die harte Realität zu spüren bekommen. Da er oft nicht in der Lage ist, die Verfügbarkeit seiner geschäftskritischen IT-Services und Applikationen auf einem dafür notwendigem hohem Niveau sicherzustellen.

Sicherheits- und Notfallkonzepte gelten in Unternehmen weitläufig immer noch als lästige und teure Präventionsmaßnahmen, um die geschäftskritischen digitalen Assets zu schützen und das Unternehmen in Ausnahmesituationen am Leben zu erhalten. Erst wenn das Kind in den Brunnen gefallen ist, werden alle Mittel und Wege in Bewegung gesetzt, um die entsprechenden Bergungs- und lebensrettenden Maßnahmen einzuleiten. Dann ist es jedoch meistens zu spät und der Überlebenskampf beginnt. Technische Mängel und durch menschliche Fehler verursachte Mängel an IT-Systemen führen dann zur Ratlosigkeit, wodurch die IT-Infrastruktur vielmals erst nach einem längeren Stillstand wieder im produktiven Betrieb ist. Damit kann der Geschäftsbetrieb über mehrere Tage beeinträchtigt sein und zu hohen internen Kosten als auch substantiellen Imageschäden führen. Das ist fatal und zugleich ein fahrlässiges Verhalten. Heute kann es sich kein Unternehmen mehr leisten, seine Partner, Lieferanten oder Kunden über einen längeren Zeitraum nicht auf die eigene IT-Infrastruktur zugreifen zu lassen.

Wer nun die Schuldigen alleine in den IT-Abteilungen der Unternehmen sucht, der ist auf der falschen Hierarchieebene unterwegs. Administratoren und CIOs haben das Thema auf der Agenda, stehen aber mit dem Rücken zur Wand. Zum einen sind sie handlungsunfähig, da ihnen keine Budgets zur Verfügung stehen, zum anderen halten sie den Kopf hin, wenn der Katastrophenfall eintritt. Der in der IT viel diskutierte ROI ist im Fall von Disaster Recovery Szenarien einfach nicht messbar genug und genießt auf der Entscheider-Ebene eine zu geringe Priorität. Dadurch werden nicht ausreichend Budgets für eine echte Disaster Recovery Strategie bereitgestellt. Gleichzeitig sind Notfallpläne auf Basis eines klassischen Backup-Rechenzentrum Ansatzes sehr komplex sowie kosten- und zeitintensiv.

Eine weitere Herausforderung besteht auf Architekturebene. Cloud-Modelle verändern die Art und Weise wie Applikationen entwickelt, betrieben und bereitgestellt werden. Bereits heute werden Anwendungen nicht mehr nur auf der eigenen on-Premise Infrastruktur betrieben, sondern befinden sich in einem hybriden Modell verteilt bei einem oder mehreren Cloud- oder Hosting-Anbietern. Das Multi-Cloud Konzept ist allgegenwärtiger als man vermutet. Dieser Trend wird sich in den kommenden Jahren weiter verstärken und einen direkten Einfluss auf Disaster Recovery Szenarien haben, um die Informationen und Applikationen im Katastrophenfall ohne Zeit- und Datenverlust wiederherzustellen.

Von der Hardware zum Service: Die Metamorphose des Disaster Recovery

Derzeit fließt der Großteil des IT-Budgets von Unternehmen in Speicher- und Serversysteme sowie Softwarelösungen, um darüber ebenfalls eigene Backup-Konzepte zu realisieren. Heutige Ansätze sehen in den meisten Fällen keine Maßnahmen für eine 24×7 Wiederherstellung von Daten und Systemen vor und beinhalten maximal einfache Backup- und RAID-Architekturen. Umfangreiche Disaster Recovery Szenarien sind sehr komplex. Das wird sich in den kommenden Jahren, durch hybride Applikationsarchitekturen und einer verteilten Datenhaltung, weiter verstärken.

Diese Entwicklung wird mittelfristig auch in den Unternehmen Einzug erhalten, was sich auf das Ausgabenverhältnis für Hard- und Software sowie Services und Audits auswirken wird. Crisp Research sieht vom Jahr 2014 auf das Jahr 2018 eine maßgebliche Verschiebung der Kostenblöcke für IT-Ressourcen in diesen Produktkategorien.

Disaster-Recovery_Resource_Ausgaben

Die Verschiebung der Kostenstruktur erklärt sich durch

• Neue Betriebsmodelle (bspw. Cloud Computing)
• Virtualisierung
• Standardisierung
• Converged Infrastructure

Auf Basis dieser Einflüsse lassen sich neue Betriebskonzepte aufbauen und Unternehmen einfacher und kostengünstiger auf einem Niveau bereitstellen, wie es sich sonst nur große Unternehmenskunden leisten können. Dies führt allerdings dazu, dass in den kommenden Jahren die Investitionen in Technologien (Hardware/ Software) deutlich abnehmen und diese sich auf die anderen Bereiche aufteilen werden. Dadurch erhöhen sie sich die Ausgaben für Services (Cloud- und Managed-Services) als auch im Bereich Audits/ Compliance. Insbesondere Audits werden eine höhere Bedeutung gewinnen. Das liegt zum einen an der sich ständig verändernden Gesetzlage, um die Compliance-Richtlinien zu erfüllen. Zum anderen an dem wachsenden Aufwand, die Disaster Recovery Anbieter hinsichtlich der Einhaltung gesetzlicher Vorgaben (Speicherfristen, rechtskonforme Datenhaltung usw.) zu kontrollieren.

Anforderungen des Mittelstands an moderne Disaster Recovery Lösungen

Der Bereich von Disaster Recovery Lösungen entwickelt sich kontinuierlich. Hierbei stechen drei Anforderungen heraus, die den Markt nachhaltig beeinflussen werden:

1. Kosteneffizienz
Die Ausgaben für Technologien müssen signifikant sinken, um eine Kostenreduktion zu erzielen und andere Disaster Recovery Bereiche (Services, Audits) kosteneffizient zu nutzen. In diesem Zusammenhang sollten ebenfalls die Einsparungen für die Wartung der physikalischen Ressourcen berücksichtigt werden. Die Disaster Recovery Lösung wird entweder als Service genutzt, wodurch sich die Systeme überwiegend auf der Seite der Anbieter befinden. Auf der Kundenseite stehen nur noch marginal benötigte konsolidierte Hardware-/ Software-Ressourcen.

2. Reduzierung der Komplexität
Maßnahmen für eine Disaster Recovery Strategie sind hinsichtlich der Implementierung, dem Betrieb und der Wartung der Infrastruktur aufwändig und komplex. Darüber hinaus wird die Komplexität durch neue Cloud- und Architektur-Konzepte ansteigen, um die DNA und die 24/7 Verfügbarkeit verteilter Daten und Applikationen zu berücksichtigen.

Neue Disaster Recovery Lösungen sollen die Komplexität auf der Kundenseite reduzieren, indem sich die maßgeblichen Aufgaben auf die Seite der Anbieter verlagern bzw. sich in on-Premise Appliances kapseln.

3. Standortübergreifende Disaster Recovery Szenarien
Neue Betriebsmodelle für Produktivumgebungen erfordern für mittelständische Unternehmen ein Umdenken beim Aufbau von Disaster Recovery Szenarien. Durch den Einsatz von Hybrid-/ Multi-Cloud Infrastrukturen, Cloud-Services und der Nutzung von Co-Locations, muss parallel die DNA für den Katastrophenfall angepasst werden, um geschäftskritische Applikationen und Daten ausfallsicher zu betreiben.

Nur damit lässt sich die Konsistenz aller produktiven Systeme über den gesamten Lebenszyklus hinweg erhalten und aktuelle und zukünftige Geschäftsprozesse optimal schützen.

Zwei unterschiedliche Ansätze für Disaster Recovery Lösungen

Der Markt für Disaster Recovery Angebote wächst kontinuierlich. Unternehmen können aus unterschiedlichen Ansätzen und Lösungen wählen. Zwei Anbieter, welche dieses Marktsegment mit unterschiedlichen Ansätzen für bestimmte Bedürfnisse abdecken sind die Claranet GmbH und die DTS Systeme GmbH.

Unternehmen die ihren Hauptfokus auf das Backup von Daten und Systemen legen, finden bei DTS eine Lösung. Der deutsche Systemintegrator setzt auf die Continuous Data Protector (CDP) Technologie von FalconStor. Eine festplattenbasierte Backup und Disaster Recovery Lösung, mit welcher sich die Daten der Produktivsysteme kontinuierlich sichern lassen, anstatt konkrete Backupfenster zu definieren. Im Fehlerfall lässt sich ein konsistenter Zustand der Daten wiederherstellen und ebenfalls im laufenden Betrieb auf ältere Datenstände einzelner Dateien zurückgreifen.

Wer sein Hauptaugenmerk konkret auf eine Disaster Recovery Strategie legt, der wird bei Claranet fündig. Der europäische Managed-Services Anbieter setzt auf einen Disaster Recovery-as-a-Service (DRaaS) Ansatz und hat sich hierzu für die Virtual Computing Platform von Nutanix entschieden, mit der sich nahtlos integrierte und hybride End-to-End Lösungen zwischen der Kundeninfrastruktur und dem Claranet Rechenzentrum aufbauen lassen.

Fahren Sie lieber mit Ersatzreifen an Bord

Eine Disaster Recovery Strategie ist vergleichbar mit dem Ersatzreifen an ihrem Auto. Im Regelfall benötigen Sie diesen nicht. Aber wenn Sie dann mitten auf der Autobahn liegen bleiben, im Regen…

Mit der wachsenden Bedeutung der digitalen Ökonomie und der steigenden Zunahme des Digitalisierungsgrads, kann es sich kein Unternehmen mehr leisten, auf ein Disaster Recovery zu verzichten. Die Bereitstellung von Services und Anwendungen in Echtzeit sowie die zunehmend steigenden Anforderungen, die Ausfallsicherheit und so kurze Wiederherstellungszeiten wie möglich zu garantieren, sind die maßgeblichen Treiber hinter dieser Entwicklung. Eine Disaster Recovery Strategie muss daher zwangsläufig Teil der Geschäftsstrategie sein und eine hohe Priorität auf Geschäftsführungsebene erhalten.

Moderne Disaster Recovery Lösungen führen Unternehmen in Verlegenheit, sich nicht mehr hinter Ausreden zu verstecken und somit auf ein automatisiertes Notfallmanagement zu verzichten. Mit einem klar kalkulierbaren Aufwand und geringer Komplexität können auch kleine und mittelständische Unternehmen dasselbe Disaster Recovery Niveau erhalten wie es sonst nur großen Konzernen vorbehalten ist, und das zu verträglichen Kosten.

Moderne Disaster Recovery-as-a-Service Lösungen werden in Zukunft immer mehr Unternehmen dabei unterstützen, kostengünstig und mit geringem Aufwand eine Disaster Recovery Strategie technologisch umzusetzen. Hierzu bietet der Markt mittlerweile eine Vielzahl unterschiedlicher Ansätze und Lösungen für unterschiedliche Bedürfnisse und Anforderungen.

Mehr Informationen zum Thema Disaster Recovery finden Sie im folgenden White Paper „Disaster Recovery-as-a-Service für den Mittelstand“.

Kategorien
Analysis

Microsoft probably builds a cloud computing data center in Germany

First, I have this information not from a Microsoft employee, so it is not a confirmed report. However, three people have told me, independently from each other, the fact that Microsoft plans to build at least one data center for its cloud services, including Windows Azure and Microsoft Office 365, in Germany. Therefore, one should assume that a little truth is behind this information. If Microsoft would confirm this, you should just say chapeau Microsoft! This is exactly the right way.

It fits into their strategy

Microsoft’s current strategy is „CLOUD First“. This is no secret and was confirmed to me several times by Microsoft’s side. Among others from the business division Dynamics CRM that is constantly growing through the cloud. At Microsoft since the launch of Dynamics CRM Online in 2011 the approach is „cloud first!“ and this seems to prove themselves. The cloud solution has reached a high level of customer acceptance, which was able to win 30% more customers for Microsoft Dynamics CRM. While 60% of all new customers rely on the cloud solution.

The situation is similar in many other areas of the company. Be mentioned only Windows Azure, which is constantly being expanded, or Office 365. For this reason, the construction of at least one data center in Germany is and and would be the next logical step to meet us Germans with regard to confidence.

Data center in Germany: An enormous competitive advantage

Microsoft supplies the European market currently over its data centers in Ireland (Dublin) and the Netherlands (Amsterdam). This comes with many Germans, especially privacy officers and medium-sized enterprises, to discomfort. Storing data outside of Germany and a contract after a maximum of European law is not welcome. However, Germany should not be neglected as a business location. For U.S. companies Germany may indeed be a small country, but to underestimate the economic power would be fatal.

If the fact is true, that Microsoft is building a cloud data center in Germany, it would be an enormous competitive advantage over other providers such as Amazon Web Services or Google. Especially in the highly competitive market for corporate customers, where Amazon AWS and Google struggle and where Microsoft already has the best starting position, due to an existing broad customer base, Microsoft would make a big step forward.

Beyond – If the data center will be built, as I believe strategically, Amazon and Google will each no longer come around to build their own data center in Germany. Indeed both and in particular Amazon is the technologically leader in the cloud computing market, but the location advantage is not negligible with a data center in Germany to actively begin to take the concerns of the German companies.

After all, cloud computing is the future! Only the legal and data privacy issues need to be adapted to the level of countries plus the customer needs which must be considered. Technologies and services are allowed to and even have to be standardized! But contracts and organizational issues have to be lead at eye level.

Kategorien
Services

OpenNebula

OpenNebula ist ein Open Source Virtual Infrastructure Manager mit dem aus vorhandenen Rechenzentren jede Art von Cloud Computing Umgebung aufgebaut und bereitgestellt werden kann. In erster Linie dient OpenNebula als Tool zur Verwaltung der virtualisierten Infrastruktur des eigenen Rechenzentrums bzw. der eigenen Cluster, also der eigenen Private Cloud.

Darüber hinaus ist OpenNebula in der Lage Hybrid Clouds aufzubauen, also die eigene lokale Infrastruktur mit einer Public Cloud Infrastruktur zu verbinden/kombinieren, um die Skalierbarkeit der eigenen Umgebung noch weiter zu erhöhen. OpenNebula verfügt zusätzlich über spezielle Schnittstellen für die Verwaltung von virtuellen Maschinen, Speicherplatz und des Netzwerks von Public Clouds.

Funktionen

    Private Cloud Computing >> Virtual Infrastructure Management

    • Internal Interfaces for Administrators and Users
      Mit einer Unix ähnlichen Kommandozeile und einer XML-RPC API kann der Lebenszyklus der virtuellen Maschinen und physikalischen Server verwaltet werden. Weitere Administrationsmöglichkeiten bietet die libvirt API.
    • Steuerung
      Die Verwaltung der Arbeitslast und Zuweisung der Ressourcen kann nach bestimmten Regeln wie z.B. der aktuellen Auslastung automatisch vorgenommen werden. Des Weiteren wird der Haizea VM-based lease manager unterstützt
    • Virtualisierungsmanagement
      Es existieren Konnektoren für Xen, KVM und VMware, sowie einem generischen libvirt Konnektor für weitere Virtual Machine Manager. Die Unterstützung von Virtual Box ist in Planung.
    • Image Management
      Es sind Funktionen für den Transfer und das Clonen von Virtual Machine Images vorhanden.
    • Netzwerk Management
      Es lassen sich isolierte virtuelle Netze festlegen um virtuelle Maschinen miteinander zu verbinden.
    • Service Management
      Unterstützung von Multi Tier Services bestehend aus Gruppen von miteinander verbundenen virtuellen Maschinen und deren Auto Konfiguration während des Boot Vorgangs.
    • Sicherheit
      Die Verwaltung der Benutzer wird durch den Administrator der Infrastruktur vorgenommen.
    • Fehlertoleranz
      Eine persistente Datenbank dient zum Speichern aller Informationen der Hosts und virtuellen Maschinen.
    • Skalierbarkeit
      Tests zeigten bisher, das OpenNebula mehrere hundert Server und virtuelle Maschinen verwalten kann.
    • Installation
      Die Installation erfolgt auf einem UNIX Cluster Front-End ohne das weitere Services benötigt werden. OpenNebula wird mit Ubuntu 9.04 (Jaunty Jackalope) ausgeliefert.
    • Flexibilität und Erweiterbarkeit
      Die Architektur, Schnittstellen und Komponenten sind offen, flexibel und erweiterbar. Dadurch kann OpenNebula mit jedem aktuellen Produkt aus dem Bereich Virtualisierung, Cloud Computing oder Management Tool für Rechenzentren integriert werden.
    • Hybrid Cloud Computing

      • Cloud Plugins
        Konnektoren für Amazon EC2 und ElasticHosts.
      • Zusammenschluss
        Unterstützung für den gleichzeitigen Zugriff auf mehrere Remote-Clouds.
      • Erweiterbarkeit
        Modulare Konzepte für die Entwicklung neuer Konnektoren.

      Public Cloud Computing >> Cloud Interfaces

      • Cloud Schnittstellen für Benutzer
        Implementierung einer Teilmenge der Amazon EC2 Query API und der OGF OCCI API
      • Erweiterbarkeit
        Die OpenNebula Cloud API ermöglicht die Implementierung neuer/weiterer Cloud Schnittstellen.

    Seminare und Forschung

    Quelle

Kategorien
Services Videos

Video: Vorstellung openQRM

Das Video zeigt die Funktionen der Open Source Cloud Computing Plattform openQRM 4.5 zur zentralen Verwaltung von Rechenzentren und skalierbaren IT Infrastrukturen. Im Fokus des Videos steht vor allem der Nutzen von openQRM für Private Clouds.

via YouTube