Kategorien
Analysen

Der CIO in der OpenStack Falle!

OpenStack hat sich zum wichtigsten Open-Source Projekt für Cloud-Infrastrukturlösungen entwickelt. Seit dem Jahr 2010 haben sich hunderte von Unternehmen beteiligt, um ein offenes, standardisiertes und vielseitiges Technologie-Framework zu entwickeln, welches für die Verwaltung von Rechen-, Speicher- und Netzwerkressourcen in Public, Private und Hybrid Cloud Umgebungen eingesetzt werden kann. Obgleich es sich bei OpenStack um eine Open-Source Lösung handelt, impliziert es nicht, dass die Einrichtung, der Betrieb und die Wartung einfach zu handhaben sind. OpenStack kann sich wie eine wahre Bestie verhalten. Eine Reihe von CIOs, die selbst entwickelte OpenStack-Infrastrukturen betreiben, berichten vom signifikanten Ansteigen von Kosten und der Komplexität. Um OpenStack an ihre individuellen Anforderungen anzupassen haben sie zahlreiche Feinabstimmungen vorgenommen. Dadurch haben sie OpenStack-Implementierungen entwickelt, die nicht mehr kompatibel zu aktuellen Releases sind. Das führt zu der Frage, ob eine “Build”- oder “Buy”-Strategie der richtige Ansatz ist, um OpenStack in der unternehmenseigenen IT-Umgebung einzusetzen.

OpenStack nimmt Fahrt auf

OpenStack hat sich schnell zu einer maßgeblichen Größe im Cloud-Infrastruktur-Business entwickelt. Im Jahr 2010 als kleines Open Source-Projekt gestartet, wird die Lösung mittlerweile von mehreren hundert Unternehmen und Organisationen eingesetzt. Darunter zahlreiche große Unternehmen (PayPal, Wells Fargo, Deutsche Telekom) sowie innovative Cloud Startups und Entwickler. In den Anfangszeiten wurde OpenStack von seinen Initiatoren maßgeblich dazu benutzt, um eigene, teils proprietäre Cloud-Umgebungen aufzubauen. Mehr als 850 Unternehmen unterstützen das Projekt, darunter IBM, Oracle, Red Hat, Cisco, Dell, Canonical, HP und Ericsson.

Neben der stetigen Verbesserung der Technologie steigt ebenfalls die Adaptionsrate bei den Unternehmenskunden kontinuierlich an. Dies zeigt sich im weltweiten Wachstum der OpenStack-Projekte (Steigerung von Q1 auf Q2/2014 um 60 Prozent). Hierbei sind On-Premise Private Clouds das bevorzugte Deployment-Modell. Im Q1/2014 zählte die OpenStack Foundation weltweit 55 Private Cloud-Installationen weltweit. Im Q2 sind es bereits 85. Ebenfalls wuchs die Anzahl der weltweiten OpenStack Public Clouds von 17 auf 29 an. Für die kommenden 12 Monate erwartet Crisp Research ein 25 prozentiges Wachstum OpenStack-basierter Enterprise Private Clouds.

Anmerkung: Im Rahmen einer Studie erhebt Crisp Research derzeit Daten und Fakten zum OpenStack-Einsatz in deutschsprachigen Unternehmen. Die Studienergebnisse werden im Q4/2014 veröffentlicht.

OpenStack: Make oder Buy?

OpenStack bietet Möglichkeiten, Umgebungen in Verbindung mit einer großen Vielfalt von anderen Open-Source Technologien zu betreiben und gleichzeitig kosteneffizient zu sein (keine oder nur geringe Lizenzkosten). Allerdings steigt dass Komplexitätslevel damit dramatisch an. Auch wenn CIOs dazu tendieren, OpenStack nur als Cloud-Management Schicht einzusetzen, entsteht dennoch ein hoher Komplexitätsgrad den es zu verwalten gilt. Den meisten OpenStack-Einsteigern ist nicht bewusst, dass man an „über 500 Knöpfen drehen kann“ um OpenStack-Clouds richtig zu konfigurieren.

Die Kernfrage für die meisten Unternehmen, die von OpenStack profitieren wollen ist daher: Build oder Buy!

Crisp Research_OpenStack_Diy or Buy

Während der Vorbereitung und Evaluierung der „Build oder Buy“-Entscheidung, sollten Unternehmen unbedingt berücksichtigen, über welche Erfahrungen und technische Kenntnisse sie im Hinblick auf OpenStack verfügen. IT-Entscheider sollten ihre internen Fähigkeiten kritisch hinterfragen sowie ihre Anforderungen klar definieren, um sie dann den Angeboten der sogenannten „OpenStack-Distributoren“ gegenüberzustellen. Analog zum Linux-Business bieten OpenStack-Distributoren fertig paketierte OpenStack-Varianten inklusive Support und meist auch Integrationsdienstleistungen an. Dies reduziert das Implementierungsrisiko und beschleunigt meist die Umsetzung des Projektes.

Der CIO ist gefragt

Seit geraumer Zeit sind CIOs und Cloud-Architekten dabei, die Frage zu beantworten, wie sie ihre Cloud-Umgebungen für den Unternehmenseinsatz idealerweise aufbauen sollten. Nachdem die letzten Jahren unter dem Motto „Trial and Error“ standen und der Großteil der Cloud-Infrastrukturen einen explorativen Charakter besaß, geht es nun mehr darum, großvolumige Projekte für den produktiven Betrieb umzusetzen.

Dies wirft die Frage auf, welches Cloud-Design das Richtige ist, mit dem IT-Architekten ihre Cloud-Umgebungen planen. Crisp Research rät, moderne und nachhaltige Cloud-Umgebungen auf den Grundsätzen der Offenheit, Zuverlässigkeit und Effizienz aufzubauen. Speziell in den Bereichen Offenheit und Effizienz leistet OpenStack einen signifikanten Beitrag.

Der vollständige Analyst Report „Der CIO im OpenStack Dilemma: BUY oder DIY?“ kann unter http://www.crisp-research.com/report-der-cio-im-openstack-dilemma-buy-oder-diy/  kostenlos heruntergeladen werden.

Kategorien
Analysen

Disaster Recovery: Kein Grund mehr für Ausreden!

Das Thema Disaster Recovery spielt im deutschen Mittelstand nur eine untergeordnete Rolle. Diese fahrlässige Haltung kann sich in einem Bruchteil von Sekunden geschäftsschädigend auswirken. Dabei bieten neue Betriebsmodelle aus dem Cloud-Zeitalter keinen Grund mehr für Ausreden.

An einer Disaster Recovery Strategie führt kein Weg mehr vorbei

Der Tsunami der digitalen Transformation wird auch deutsche Unternehmen mit voller Wucht treffen. Wann die Hauptwelle einschlagen wird ist individuell zu betrachten und nicht zu 100 Prozent vorhersagbar. Eines ist allerdings sicher, die Cloud-, Social-, Mobile- und Big Data Beben sind allgegenwärtig und die ersten Ausläufer sind bereits angekommen. Insbesondere der Mittelstand wird die harte Realität zu spüren bekommen. Da er oft nicht in der Lage ist, die Verfügbarkeit seiner geschäftskritischen IT-Services und Applikationen auf einem dafür notwendigem hohem Niveau sicherzustellen.

Sicherheits- und Notfallkonzepte gelten in Unternehmen weitläufig immer noch als lästige und teure Präventionsmaßnahmen, um die geschäftskritischen digitalen Assets zu schützen und das Unternehmen in Ausnahmesituationen am Leben zu erhalten. Erst wenn das Kind in den Brunnen gefallen ist, werden alle Mittel und Wege in Bewegung gesetzt, um die entsprechenden Bergungs- und lebensrettenden Maßnahmen einzuleiten. Dann ist es jedoch meistens zu spät und der Überlebenskampf beginnt. Technische Mängel und durch menschliche Fehler verursachte Mängel an IT-Systemen führen dann zur Ratlosigkeit, wodurch die IT-Infrastruktur vielmals erst nach einem längeren Stillstand wieder im produktiven Betrieb ist. Damit kann der Geschäftsbetrieb über mehrere Tage beeinträchtigt sein und zu hohen internen Kosten als auch substantiellen Imageschäden führen. Das ist fatal und zugleich ein fahrlässiges Verhalten. Heute kann es sich kein Unternehmen mehr leisten, seine Partner, Lieferanten oder Kunden über einen längeren Zeitraum nicht auf die eigene IT-Infrastruktur zugreifen zu lassen.

Wer nun die Schuldigen alleine in den IT-Abteilungen der Unternehmen sucht, der ist auf der falschen Hierarchieebene unterwegs. Administratoren und CIOs haben das Thema auf der Agenda, stehen aber mit dem Rücken zur Wand. Zum einen sind sie handlungsunfähig, da ihnen keine Budgets zur Verfügung stehen, zum anderen halten sie den Kopf hin, wenn der Katastrophenfall eintritt. Der in der IT viel diskutierte ROI ist im Fall von Disaster Recovery Szenarien einfach nicht messbar genug und genießt auf der Entscheider-Ebene eine zu geringe Priorität. Dadurch werden nicht ausreichend Budgets für eine echte Disaster Recovery Strategie bereitgestellt. Gleichzeitig sind Notfallpläne auf Basis eines klassischen Backup-Rechenzentrum Ansatzes sehr komplex sowie kosten- und zeitintensiv.

Eine weitere Herausforderung besteht auf Architekturebene. Cloud-Modelle verändern die Art und Weise wie Applikationen entwickelt, betrieben und bereitgestellt werden. Bereits heute werden Anwendungen nicht mehr nur auf der eigenen on-Premise Infrastruktur betrieben, sondern befinden sich in einem hybriden Modell verteilt bei einem oder mehreren Cloud- oder Hosting-Anbietern. Das Multi-Cloud Konzept ist allgegenwärtiger als man vermutet. Dieser Trend wird sich in den kommenden Jahren weiter verstärken und einen direkten Einfluss auf Disaster Recovery Szenarien haben, um die Informationen und Applikationen im Katastrophenfall ohne Zeit- und Datenverlust wiederherzustellen.

Von der Hardware zum Service: Die Metamorphose des Disaster Recovery

Derzeit fließt der Großteil des IT-Budgets von Unternehmen in Speicher- und Serversysteme sowie Softwarelösungen, um darüber ebenfalls eigene Backup-Konzepte zu realisieren. Heutige Ansätze sehen in den meisten Fällen keine Maßnahmen für eine 24×7 Wiederherstellung von Daten und Systemen vor und beinhalten maximal einfache Backup- und RAID-Architekturen. Umfangreiche Disaster Recovery Szenarien sind sehr komplex. Das wird sich in den kommenden Jahren, durch hybride Applikationsarchitekturen und einer verteilten Datenhaltung, weiter verstärken.

Diese Entwicklung wird mittelfristig auch in den Unternehmen Einzug erhalten, was sich auf das Ausgabenverhältnis für Hard- und Software sowie Services und Audits auswirken wird. Crisp Research sieht vom Jahr 2014 auf das Jahr 2018 eine maßgebliche Verschiebung der Kostenblöcke für IT-Ressourcen in diesen Produktkategorien.

Disaster-Recovery_Resource_Ausgaben

Die Verschiebung der Kostenstruktur erklärt sich durch

• Neue Betriebsmodelle (bspw. Cloud Computing)
• Virtualisierung
• Standardisierung
• Converged Infrastructure

Auf Basis dieser Einflüsse lassen sich neue Betriebskonzepte aufbauen und Unternehmen einfacher und kostengünstiger auf einem Niveau bereitstellen, wie es sich sonst nur große Unternehmenskunden leisten können. Dies führt allerdings dazu, dass in den kommenden Jahren die Investitionen in Technologien (Hardware/ Software) deutlich abnehmen und diese sich auf die anderen Bereiche aufteilen werden. Dadurch erhöhen sie sich die Ausgaben für Services (Cloud- und Managed-Services) als auch im Bereich Audits/ Compliance. Insbesondere Audits werden eine höhere Bedeutung gewinnen. Das liegt zum einen an der sich ständig verändernden Gesetzlage, um die Compliance-Richtlinien zu erfüllen. Zum anderen an dem wachsenden Aufwand, die Disaster Recovery Anbieter hinsichtlich der Einhaltung gesetzlicher Vorgaben (Speicherfristen, rechtskonforme Datenhaltung usw.) zu kontrollieren.

Anforderungen des Mittelstands an moderne Disaster Recovery Lösungen

Der Bereich von Disaster Recovery Lösungen entwickelt sich kontinuierlich. Hierbei stechen drei Anforderungen heraus, die den Markt nachhaltig beeinflussen werden:

1. Kosteneffizienz
Die Ausgaben für Technologien müssen signifikant sinken, um eine Kostenreduktion zu erzielen und andere Disaster Recovery Bereiche (Services, Audits) kosteneffizient zu nutzen. In diesem Zusammenhang sollten ebenfalls die Einsparungen für die Wartung der physikalischen Ressourcen berücksichtigt werden. Die Disaster Recovery Lösung wird entweder als Service genutzt, wodurch sich die Systeme überwiegend auf der Seite der Anbieter befinden. Auf der Kundenseite stehen nur noch marginal benötigte konsolidierte Hardware-/ Software-Ressourcen.

2. Reduzierung der Komplexität
Maßnahmen für eine Disaster Recovery Strategie sind hinsichtlich der Implementierung, dem Betrieb und der Wartung der Infrastruktur aufwändig und komplex. Darüber hinaus wird die Komplexität durch neue Cloud- und Architektur-Konzepte ansteigen, um die DNA und die 24/7 Verfügbarkeit verteilter Daten und Applikationen zu berücksichtigen.

Neue Disaster Recovery Lösungen sollen die Komplexität auf der Kundenseite reduzieren, indem sich die maßgeblichen Aufgaben auf die Seite der Anbieter verlagern bzw. sich in on-Premise Appliances kapseln.

3. Standortübergreifende Disaster Recovery Szenarien
Neue Betriebsmodelle für Produktivumgebungen erfordern für mittelständische Unternehmen ein Umdenken beim Aufbau von Disaster Recovery Szenarien. Durch den Einsatz von Hybrid-/ Multi-Cloud Infrastrukturen, Cloud-Services und der Nutzung von Co-Locations, muss parallel die DNA für den Katastrophenfall angepasst werden, um geschäftskritische Applikationen und Daten ausfallsicher zu betreiben.

Nur damit lässt sich die Konsistenz aller produktiven Systeme über den gesamten Lebenszyklus hinweg erhalten und aktuelle und zukünftige Geschäftsprozesse optimal schützen.

Zwei unterschiedliche Ansätze für Disaster Recovery Lösungen

Der Markt für Disaster Recovery Angebote wächst kontinuierlich. Unternehmen können aus unterschiedlichen Ansätzen und Lösungen wählen. Zwei Anbieter, welche dieses Marktsegment mit unterschiedlichen Ansätzen für bestimmte Bedürfnisse abdecken sind die Claranet GmbH und die DTS Systeme GmbH.

Unternehmen die ihren Hauptfokus auf das Backup von Daten und Systemen legen, finden bei DTS eine Lösung. Der deutsche Systemintegrator setzt auf die Continuous Data Protector (CDP) Technologie von FalconStor. Eine festplattenbasierte Backup und Disaster Recovery Lösung, mit welcher sich die Daten der Produktivsysteme kontinuierlich sichern lassen, anstatt konkrete Backupfenster zu definieren. Im Fehlerfall lässt sich ein konsistenter Zustand der Daten wiederherstellen und ebenfalls im laufenden Betrieb auf ältere Datenstände einzelner Dateien zurückgreifen.

Wer sein Hauptaugenmerk konkret auf eine Disaster Recovery Strategie legt, der wird bei Claranet fündig. Der europäische Managed-Services Anbieter setzt auf einen Disaster Recovery-as-a-Service (DRaaS) Ansatz und hat sich hierzu für die Virtual Computing Platform von Nutanix entschieden, mit der sich nahtlos integrierte und hybride End-to-End Lösungen zwischen der Kundeninfrastruktur und dem Claranet Rechenzentrum aufbauen lassen.

Fahren Sie lieber mit Ersatzreifen an Bord

Eine Disaster Recovery Strategie ist vergleichbar mit dem Ersatzreifen an ihrem Auto. Im Regelfall benötigen Sie diesen nicht. Aber wenn Sie dann mitten auf der Autobahn liegen bleiben, im Regen…

Mit der wachsenden Bedeutung der digitalen Ökonomie und der steigenden Zunahme des Digitalisierungsgrads, kann es sich kein Unternehmen mehr leisten, auf ein Disaster Recovery zu verzichten. Die Bereitstellung von Services und Anwendungen in Echtzeit sowie die zunehmend steigenden Anforderungen, die Ausfallsicherheit und so kurze Wiederherstellungszeiten wie möglich zu garantieren, sind die maßgeblichen Treiber hinter dieser Entwicklung. Eine Disaster Recovery Strategie muss daher zwangsläufig Teil der Geschäftsstrategie sein und eine hohe Priorität auf Geschäftsführungsebene erhalten.

Moderne Disaster Recovery Lösungen führen Unternehmen in Verlegenheit, sich nicht mehr hinter Ausreden zu verstecken und somit auf ein automatisiertes Notfallmanagement zu verzichten. Mit einem klar kalkulierbaren Aufwand und geringer Komplexität können auch kleine und mittelständische Unternehmen dasselbe Disaster Recovery Niveau erhalten wie es sonst nur großen Konzernen vorbehalten ist, und das zu verträglichen Kosten.

Moderne Disaster Recovery-as-a-Service Lösungen werden in Zukunft immer mehr Unternehmen dabei unterstützen, kostengünstig und mit geringem Aufwand eine Disaster Recovery Strategie technologisch umzusetzen. Hierzu bietet der Markt mittlerweile eine Vielzahl unterschiedlicher Ansätze und Lösungen für unterschiedliche Bedürfnisse und Anforderungen.

Mehr Informationen zum Thema Disaster Recovery finden Sie im folgenden White Paper „Disaster Recovery-as-a-Service für den Mittelstand“.

Kategorien
Analysen

Internet of Things: Der Einfluss auf den CIO

Im Jahr 2025 werden geschätzte 30 Milliarden untereinander vernetzter Geräte im Umlauf sein. Das Internet of Things, der durch die Technologie getriebene Trend, bietet zahlreiche Möglichkeiten für CIOs, um neue IT-gestützte Geschäftsfelder zu erschließen.

Der Aufbau eines vollständig miteinander vernetzten Systems global verteilter Rechnersysteme, Sensoren und zahlreicher Endgeräte, die alle untereinander über das Internet kommunizieren, ist in vollem Gange. Dieser Wandel wird einen direkten Einfluss darauf haben, wie sich unser Leben in Zukunft verändern wird und erst dadurch sämtliche Potentiale des digitalen Unternehmens offenbaren.

Das Internet of Things ist Teil des digitalen Unternehmens

Das Internet of Things (IoT) steht für die Vernetzung physischer Objekte, zu denen neben uns Menschen ebenfalls weitere Dinge wie Sensoren, Haushaltsgegenstände, Autos, Industrieanlagen usw. gehören. Das IoT schließt die Brücke zwischen der digitalen und analogen Welt, indem eine maximale Vernetzung und einem möglichst großen Informationsaustausch angestrebt wird.

Die großflächige Verbreitung, Annahme und Adaption des IoT wird noch einige Zeit benötigen, wird aber zu einem ähnlich großen Wandel beitragen, wie es das Cloud Computing seit einigen Jahren vorlebt. Crisp Research geht davon aus, dass im Jahr 2025 etwa 30 Milliarden untereinander vernetzter Geräte auf dem Markt sein werden. Bis zum Jahr 2016 wird für Deutschland ein Marktvolumen von 366 Millionen Euro (5 Milliarden Euro weltweit) für IoT Ausrüstung (Sensoren und Netzwerke) erwartet. Dieser Trend wird sehr schnell zu einem entscheidenden Faktor für die zukünftige Wettbewerbsfähigkeit von Unternehmen werden, die gleichzeitig mit den dafür notwendigen Technologien in den Ring steigen müssen.

Die Welt der Daten

Es existieren bereits einige Unternehmen, welche die Echtzeit-Analyse nutzen, um Trends in Daten zu identifizieren und darauf zu reagieren. Dazu gehört bspw. das bessere Verständnis der Kunden in Echtzeit, um ihnen aktuelle, auf sie zugeschnittene Angebote direkt auf ihr Smartphone oder Wearable zu schicken, die exakt zu dem aktuellen Kontext ihrer Aktivitäten passen. Weitere Anwendungsfälle finden sich in den Bereichen Transport und Logistik und wie das IoT dabei hilft die Ankunftszeit von Lieferungen zu optimieren sowie die CO2-Bilanz anhand der Nutzung von Datenmustern zu verbessern.

Ein gutes Beispiel für ein innovatives IoT Unternehmen ist digitalSTROM. Der Anbieter von Smart Home Technologien aus der Schweiz hat eine intelligente Hausvernetzung entwickelt, mit der sich anhand von Smartphone Apps mit den jeweiligen Geräten im Haus über die Stromleitung kommunizieren lässt. Basis hierfür stellen Lego-artige Bausteine dar, über die jeder angeschlossene Verbraucher angesprochen werden kann. Die Intelligenz eines jeden Endgeräts steckt dabei in einem Baustein. Als technologische Basis setzt digitalSTROM auf  die Azure Cloud Infrastruktur von Microsoft.

Die Einsatzmöglichkeiten des Internet of Things sind unbegrenzt

Die grundsätzlichen Einsatzbereiche und Möglichkeiten des Internet of Things sind nahezu unbegrenzt. Für die kommenden drei Jahre sieht Crisp Research vier wichtige Bereiche auf die das IoT einen erheblichen Einfluss nehmen wird:

  • Eine Verbesserung des Marketings durch die intensivere Überwachung des Verhaltens der Menschen, Dinge und Daten auf Basis der Analyse von Zeit und dem Ort, an dem sich die Objekte aufhalten. Hierzu gehören bspw. die ortsbezogene Werbung und die Auswertung des Kaufverhaltens über unterschiedliche Geschäfte hinweg.
  • Die Verbesserung der Reaktion auf bestimmte Situationen in Echtzeit. Hierzu gehören zum Beispiel die Steuerung von Transportwegen anhand unterschiedlicher Variablen wie das Wetter und dem Benzinverbrauch aber ebenfalls weichere Faktoren wie mögliche Gefahren.
  • Unterstützung bei der Entscheidungsfindung durch Sensor-basierte Analysen anhand von tiefergreifenden Analysen, bspw. für die ständige Überwachung von Patienten für eine bessere Behandlung.
  • Einen höheren Automatisierungsgrad und eine bessere Kontrolle zur Optimierung von Prozessen und der Ressourcennutzung (z.B. Smart Metering) sowie für Risikomanagementsysteme.

CIOs dürfen das Internet of Things keinesfalls unterschätzen

Das Internet of Things löst bestehende Datensilos auf, ermöglicht den Zugriff auf neue Datenquellen und eröffnet Unternehmen damit völlig neue Geschäftsmöglichkeiten. Neue digitale Unternehmen tauchen plötzlich aus dem Nichts auf und wirbeln die bestehende Anbieterlandschaft durcheinander, indem sie neue Märkte mit neuen Angeboten und Services erschließen.

Heutige Industrien sind seit geraumer Zeit nicht mehr so strikt vertikal organisiert wie noch vor mehreren Jahrzehnten. Heute verkaufen Online-Versandhändler ebenfalls IT-Ressourcen; Computerhersteller haben die Musikbranche revolutioniert. Das sind nur zwei Beispiele die zeigen, dass der Mitbewerb nicht mehr derjenige ist, der es zu sein scheint.

Dank Cloud Computing, drahtlose Verbindungen, mobile Lösungen als auch Big Data Analytics und Caching fallen die Kosten für IT-Lösungen beträchtlich. Hinzu kommen die immer günstiger werdenden Sensoren und Endgeräte als auch die steigende Beliebtheit, Daten von Geräten zu jeder Zeit und an jedem Ort zu sammeln.

Sollten CIOs diesen unmittelbaren Angriff auf ihre Unternehmen nicht als eine deutliche und gegenwärtige Bedrohung wahrnehmen, werden sie früher oder später mit den entsprechenden Konsequenzen konfrontiert werden. CIOs sollten sich daher mit den aktuellen und zukünftigen Möglichkeiten auseinandersetzen und damit ihrem Unternehmen mit dem besten Rat zur Seite zu stehen, um von den Chancen zu profitieren die das IoT bietet.

Worauf sollten CIOs bei der Einführung des Internet of Things in Ihrem Unternehmen achten?

CEOs und CMOs gehen verstärkt auf CIOs zu und fragen um deren Hilfe beim Sammeln, Analysieren und Auswerten von Daten. Dabei geht es entweder um das simple Speichern der Daten bis hin zur Nutzung der Daten zur Geschäftsprozessoptimierung, der Entwicklung neuer Geschäftsmodelle oder um neue Geschäftsmöglichkeiten zu evaluieren. Mit der stetig steigenden Menge, Variation und Geschwindigkeit mit welcher die Daten eintreffen, erreichen traditionelle Infrastrukturen schnell den Maximalpunkt ihrer möglichen Skalierbarkeit. Dasselbe Schicksal ereilt sämtliche Applikationen, deren Evolutionsverhalten starr gekapselt ist und diese damit nicht mit den steigenden Anforderungen von der Business-Seite dynamisch mithalten können.

Um den steigenden Anforderungen von IoT Workloads und den wachsenden Sensor- und Metadaten zu begegnen sind neue agile Plattformen und massiv skalierbare Infrastrukturen notwendig. Standardisierte Toolkits und Schnittstellen helfen bei der schnellen Einführung von leistungsfähigen IoT Anwendungsfällen und sorgen für eine stabile Kommunikation zwischen den Anwendungen, Services, Sensoren, Plattformen, Dashboards sowie der Sammlung, Analyse, Auswertung und Aufbereitung der gewonnen Daten.

Kategorien
Kommentar

CIO: Quo vadis? Kostenstelle oder Business Enabler? #tsy13

Ich hatte am Montag die zukünftige Rolle der IT und des CIO diskutiert. Denn derzeit befinden wir uns im größten Wandel (Disruptive IT), den die IT-Branche seit ihrem Bestehen erlebt hat. Dieser Wandel schlägt direkt auf den CIO und somit auch auf die IT-Abteilungen durch. Dr. No und Kostenstelle waren gestern. Der CIO als Business Enabler ist gefragt, der zusammen mit seinen IT-Mitarbeitern als strategischer Partner des CEO und der Fachabteilungen neue Geschäftsmodelle etabliert und sich damit als Treiber des Business etabliert.

Disruptive IT: Cloud, Big Data und Co. stellen alles auf den Kopf

Cloud Computing, Big Data, Mobility und Collaboration sind die vier disruptiven Technologien, die zur Zeit für ein großes Beben sorgen und CIOs vor große Herausforderungen stellen. Die Erwartungen und Anforderungen der Geschäftsführung und der Fachabteilungen wachsen stetig, Mitarbeiter machen sich selbständig und besorgen sich IT-Leistungen an der IT-Abteilung vorbei (Schatten-IT), da diese nicht in der ausreichend Zeit oder Qualität liefern kann. Man sollte nicht behaupten der Job eines CIOs war einfach, aber derzeit handelt es sich um den Weg durch die Hölle, auf den jeder gerne verzichtet.

Aber das ist die Situation. Und wer weiterhin am Status quo festhält, der wird früher oder später auf der Strecke bleiben. Denn die Business Seite kann es sich nicht leisten auf der Stelle zu treten. Und sie wird ihre Mittel und Wege finden das zu bekommen was sie benötigt. Wenn sie sich nicht bereits schon auf dem Weg befindet.

Panel: The Future Role of CIOs: Managing Costs or Enabling Business?

Im Rahmen des T-Systems Symposium wurde mit Stefanie Kemp (IT Governance, RWE), Prof. Dr. Michael Müller-Wünsch (CIO, Lekkerland Gruppe), Dr. Hans-Joachim Popp (CIO, Deutsches Luft- und Raumfahrtzentrum), Philipp Erler (CIO, Zalando) und Thomas Spreitzer (Chief Marketing Officer, T-Systems) die Zukunft des CIO diskutiert. Ist er ein Kostenverwalter oder doch der Innovationstreiber?

Zwar war es grundsätzlich eine spannende Panel Diskussion. Allerdings war sie, wie erwartend, sehr einseitig, da nur CIOs im Panel vertreten waren und der Counterpart des CEO an allen Ecken und Enden gefehlt hat. Das war wahrscheinlich auch der Grund, warum keine bis wenig Selbstkritik von den CIOs geäußert wurde.

Dennoch war zu merken, dass die CIOs sich dessen bewusst sind, was auf sie zu kommt. Hans-Joachim Popp vom DLR machte deutlich, dass bestehende Geschäftsmodelle von neuen Technologien beeinflusst werden und es für den CIO dadurch in Zukunft immer anstrengender wird. Gleichzeitig kritisierte er, dass nicht jeder, der ein neues Geschäftsmodell aufbauen kann, auch in der Lage ist, die kritischen Prozesse dahinter zu verstehen. Dem schloss sich Zalando CIO Philipp Erler deutlich an und machte klar, dass die Bedienung einer Excel Tabelle nicht unbedingt die Skills abdeckt, um einen Prozess zu steuern. Das ist ein Fakt, den ich nur bestätigen kann. Nur weil ein Mitarbeiter ein iPhone oder eine SaaS-Applikation bedienen kann, ist er nicht in der Lage über wichtige IT-Services für das Unternehmen zu entscheiden. Weiterhin erläuterte Erler das Konzept der Priorisierungsrunde bei Zalando. So sollte sich eine Fachabteilung doch bitte die Frage stellen, ob es sich tatsächlich lohnt, einen eigenen Weg an der IT vorbei zu gehen, wenn die Anfrage nicht verabschiedet wurde. Das ist ein mögliches Mittel gegen die Schatten-IT. Die Frage bleibt allerdings, ob dies den Mitarbeitern in den Fachabteilungen interessiert. Schließlich wurde laut Gartner im Jahr 2012 ca. 25 Prozent des IT-Budget außerhalb der IT-Abteilungen verwaltet.

Lekkerland CIO Michael Müller-Wünsch sieht es als einen entscheidenden Faktor, dass CIOs auch den zeitlichen Spielraum bekommen, um als Business Enabler zu agieren. Die eigene Existenzberechtigung zu zeigen und nachzuweisen sei wichtig, aber auch schwer. Allerdings arbeite die Business Seite und die IT bei Lekkerland aktiv zusammen. T-Systems CMO Thomas Spreitzer gab zu, dass das Marketing gerne über die Herausforderungen des CIO hinwegschaut. Hauptsache es geht schnell. Allerdings bemängelte er auch das Erbsenzählen. IT-Abteilungen sollten sich mehr auf das Rapid Prototyping konzentrieren anstatt auf das Lastenheft.

RWE IT-Governance Verantwortliche Stefanie Kemp stellte die Frage, ob die IT tatsächlich jedem Trend hinterherlaufen muss oder sich nicht lieber auf einzelne Bereiche konzentrieren sollte, die dem Unternehmen tatsächlich helfen. Hierzu sieht sie den Bedarf einer Commodity IT sowie einer Differentiating IT innerhalb der Unternehmen. Also den Anteil der IT, welcher die Dinge am Laufen hält und der Teil, der für Innovationen sorgt. Kemp stellte auch klar heraus, dass Fachabteilungen bei ihr gerne eigene Wege gehen können. Sie sollten aber am Ende auch für den Scherbenhaufen gerade stehen, wenn die Integration in bestehende Systeme usw. nicht funktioniert. Weiterhin sieht Kemp noch viele Hausaufgaben innerhalb des Business, damit die IT überhaupt zum Business Enabler werden kann.

CIO vs. Business: Kommunikation ist der Königsweg

Wenn man sich die Probleme die während des Panels von den CIOs angesprochen wurden zusammenfasst, kann man sich durchaus die Frage stellen, wie Unternehmen heutzutage überhaupt funktionieren. Unterm Strich war zu verstehen, dass beide Seiten scheinbar geschützt in ihren Elfenbeintürmen sitzen und nicht wirklich miteinander reden. Die Realität sieht natürlich anders aus. Aber für beide Seiten wäre das Leben leichter, wenn sie transparent und auf Augenhöhe miteinander Informationen austauschen. Hierzu wird in Zukunft auch das Rollenbild immer wichtiger werden, um die Verantwortlichkeiten klar festzulegen.

Fazit: Die Aufgabe des CIOs wird in Zukunft nicht einfacher werden. Ganz im Gegenteil. Aber wenn er und die Business Seite als Partner arbeiten und aktiv miteinander kommunizieren und sich darauf einigen den selben Weg zu gehen, wird es für beide Seiten einfacher.

Kategorien
Management

Deutschland bei Cloud-Services Adaption ganz vorne dabei.

Laut einer Umfrage von Sterling Commerce mit 300 europäischen CIOs planen davon ca. 72% aus Deutschland, Frankreich und Großbritannien für 2010 in Cloud-Services aus dem Bereich Business-to-Business Integration zu investieren. Betrachtet man nur Deutschland alleine sind es sogar schon 87%.

Gründe für die Adaption sind:

  • Verringerung der Kosten bzgl. der Optimierung für den Einsatz des IT-Personals und weiterer Aufwendungen (55%, Deutschland 57%).
  • Einsparungen durch die Verringerung von manuellen Prozessen (35%, Deutschland 40%).
  • 1/3 aller Befragten erhoffen sich einen besseren Überblick über die eigenen Business-to-Business Prozesse.

Quelle: CIO plus 4/2010 S. 7

Kategorien
Literatur

Buch – Cloud Computing Best Practice Guide: Strategies, Methods and Challenges To Managing Services in the Cloud

Titel: Cloud Computing Best Practice Guide: Strategies, Methods and Challenges To Managing Services in the Cloud

Autor: Ivanka Menken, Gerard Blokdijk

Beschreibung:
„This book is for business people who want to know how cloud computing will facilitate new breakthroughs in business innovation, how work gets done in organizations, how companies will interact with each other in value chains, and how management will change. If you are in some way responsible for the success of your company, you should read this book. If you are a CEO or CIO, you should definitely read this book.
Modern Chief Information Officers (CIOs) and IT managers are entering a new era of information technology, the era of the ‚cloud‘. While many critics claim that there is not a great deal that is actually new with the concept of cloud computing; few would deny the likelihood of it becoming a dominant force in years to come.

Regardless of which definition of cloud computing that you subscribe to (and there are many), the continual drive for increased cost-effectiveness, agility, quality and responsiveness will mean that no CIO can ignore exploring the business case for its potential adoption. Some may claim exemption due to real (or imagined) risks in security, privacy, visibility, availability or latency as reasons for their resistance. But like all technological revolutions, the marketplace and economy will eventually respond as the possibility of strategic disadvantage looms.

As with all practical and common sense approaches though, first consider the problem(s) that cloud computing offers may offer solutions to. While many vocal supporters praise the benefits that cloud computing models bring, fewer have clearly defined the actual problems that have been solved or reasoned why other possible alternatives were not as suitable. So before CIOs spend large amounts of time investigating the virtues of different vendor offerings, thought should be given as to why their current offerings and management practices may (or may not) be stifling business growth, productivity or profitability.

To help individuals navigate through these largely uncharted waters, Managing Services in the Cloud analyzes and explains the strategies, methods and challenges involved with the adoption and ongoing management of cloud computing models as part of their IT service provision.“

Bestellmöglichkeit: Amazon

Cover: