Kategorien
Kommentar

Cloud Computing: Offen oder Geschlossen? Vendor Lock-in ist kein Argument!

Cloud Computing spaltet sich derzeit in zwei Lager. Die Liebhaber eines geschlossenen, proprietären Systems und die Befürworter einer offenen (Open-Source) Cloud. Interessanterweise stellen verstärkt die Open-Source Jünger, allen voran das OpenStack Projekt die größten Lautsprecher dar (Rackspace: Linux der Cloud). Sei es auch nur, um mehr Aufmerksamkeit von den derzeit erfolgreichen geschlossenen Systemen (Amazon Web Services (AWS), Microsoft Windows Azure) auf sich zu lenken. Eines vorweg, pauschal lässt sich nicht sagen, welcher Ansatz der „Bessere“ ist. Es hängt immer von den eigenen Anforderungen und Möglichkeiten ab. Zudem sollte man schauen, wie geschlossen die proprietären Systeme wirklich sind. Man wird zum einen merken, dass viel mehr religiöse Ansichten dahinter stecken als man denkt und das die Argumentation Vendor Lock-in bei Open-Source Clouds nicht zwangsläufig zutrifft. Denn einen Vendor Lock-in hat man immer.

Geschlossene Cloud gleich Lock-in?

Hauptargumentation aus dem Open-Source Lager gegen proprietare Cloud Angebote ist das Risiko eines Lock-in. Um diesen zu umgehen, solle man stattdessen auf Angebote setzen, die auf Open-Source basieren, um sich über eine eigene Private Cloud die Freiheit zu verschaffen, also die Infrastruktur und Daten dann ggf. in die eigene Cloud zu transferieren.

Eines sollte man jedoch nicht vergessen, ohne Open-Source funktioniert derzeit so gut wie kein Cloud Angebot. So besteht die AWS Cloud aus wahrscheinlich der größten XEN (Hypervisor) Installation weltweit. Zudem wird argumentiert, dass mann sich bei AWS in einen Lock-in begibt. Bei der DynamoDB mag dies richtig sein. Aber für alle anderen Services gibt es Lösungen wie Eucalyptus, openQRM oder sogar OpenStack selbst, die entsprechende Schnittstellen bereitstellen. Und auch Microsoft ermöglicht es, zwischen Windows Azure und einer auf Microsoft basierenden Private Cloud mit dem Microsoft Server 2012 und dem System Center 2012 Daten usw. hin und her zu schieben. Man ist hier also auch nicht zwangsläufig auf die Public Cloud angewiesen.

Wo versteckt sich der Lock-in?

Ein Vendor Lockin besteht dann, wenn ein System, Angebot oder Lösung sehr stark abhängig macht.

Ein analoges Beispiel dafür ist Ikea. Das Design der Möbel ist so markant, dass es für einen Innenarchitekten Laien (wie mich) schwierig ist, es mit einem anderen Design zu kombinieren. Also geht man dazu über, weitere Möbel bei Ikea zukaufen. Zudem verfügt Ikea über eigene Maße und proprietäre Techniken z.B. bei den Waschbecken oder auch bei den Küchen, Schrauben und sonstigen Verbindungen.

Das Risiko des Lock-ins in der Cloud befindet sich hauptsächlich bei den Daten und Prozessen, wenn diese dort ebenfalls abgebildet werden. Denn in beiden Fällen befinden sich hier die geschäftskritischen Bereiche, die so beweglich wie möglich in der Cloud liegen sollten.

Die Ressourcen wie virtuelle Maschinen sind nicht, wie möglicherweise vermutet, von dem Lock-in betroffen. Hierzu existieren bereits diverse Import/ Export Tools z.B. von VMware für AWS oder speziell V2V (Virtual to Virtual) oder V2P (Virtual to Physical) Mechanismen von openQRM. Das bedeutet, das sich virtuelle Maschinen und deren Inhalte bequem hin und her schieben lassen.

Die Daten selbst sind in der Cloud in der Regel ebenfalls nicht von einem Lock-in betroffen. Die meisten Anbieter verfügen über entsprechende Schnittstellen, über die sich die Daten bewegen und transferieren lassen. Bei den Prozessen wird es schon schwieriger. Aber, wie viele Unternehmen haben in der Vergangenheit ihre Prozesse in die Hände von SAP Systemen gelegt und damit einen Lock-in verursacht?

Ein Lock-in ist nichts Schlechtes

Ein Lock-in, wenn er denn vorliegt, muss nicht immer etwas Schlechtes sein. Im Gegenteil, er führt zu Innovationen und verringert die Komplexität. Der Anbieter nimmt einem beim Design und der Auswahl Stückweit die Entscheidung ab und sorgt für eine stetige Weiterentwicklung und Verbesserung des Systems.

Zudem sollte man schauen, wer sich einen Lock-in nicht leisten kann. Kleine und mittelständische unternehmen, die ggf. über eine kleine oder keine IT-Abteilung verfügen, nehmen das gerne in Kauf, da sie sich die Implementation einer komplexen Umgebung nicht leisten können bzw. nicht über die Expertise verfügen. Analoges Beispiel, Ikea: Man bekommt relativ günstig gute Möbel und kann alles miteinander gut kombinieren.

Außerdem, schaut man sich Open-Source Projekte wie OpenStack an, wird deutlich, dass es nicht immer einfach ist, alle Interessen unter einen Hut zu bekommen. Open-Source mag zwar offen sein. Auf Grund der vielen beteiligten Unternehmen können so manche Konflikte den Innovationsgrad jedoch verringern. Aus diesem Grund kann ein Vorteil darin bestehen, wenn nur ein Unternehmen an der Spitze des Projekts/ Angebots steht und die Koordination übernimmt. Auch wenn mehrere Teilnehmer mehr Input und Expertise liefern. Hier haben auch geschlossene Anbieter einen Vorteil, da sie alleine verantwortlich sind, und damit schneller handeln. Das kann im Umkehrschluss bedeuten, dass der Lock-in von OpenStack in den potentiellen Konflikten und dem daraus folgenden langsamen Innovationsgrad besteht.

APIs sind entscheidend

Wichtig für jedes Cloud Computing Angebot sind die APIs. Auf diese muss sowohl von Innen als auch von Außen zugegriffen werden können, um auf dieser Basis die Daten in aus der Cloud zu transferieren.

Vorteile vs. Nachteile von Open-Source

Open-Source Cloud-Implementierungen gibt es erst seit ein paar Jahren und haben bis jetzt noch nicht ausreichend Anwendungsfälle im produktiven Betrieb. Obwohl eine Reihe von Early-Adoptern aus dem Telkosektor, Finanzdienstleister und wissenschaftliche Einrichtungen bereits Alternativen in Open-Source Cloud Systeme suchen, ist die Vielzahl an Unternehmen darüber nicht informiert. Es lohnt sich daher mal einen Blick auf die Vor- und Nachteile zu werfen.

Vorteil: Flexibilität

Per Definition bieten Open-Source Clouds ein höheres Maß an Flexibilität als der proprietäre Mitbewerb. Statt sich einfach nur mit dem Lesen von Anleitungen zufrieden zugeben oder an Schulungen teilzunehmen, können Nutzer selbst Änderungen an dem Code vornehmen und sich selbst mit eigenem Code an verschiedenen Projekten beteiligen. Zudem können sie eigene Projekte starten, eigene Dokus zur Verfügung stellen oder Seminare abhalten. Interaktionen mit der Gemeinschaft und der damit verbundenen Weiterbildung ermöglichen dem Anwender mehr Flexibilität bei der Gestaltung ihres Cloud-Designs und fördert innovative interne oder externe Lösungen.

Vorteil: Vendor Lock-In

Ein Argumente der Open-Source Cloud Community ist die Prävention vor einem Vendor Lock-in. Die Argumente sind einfach. Wird eine Cloud auf Basis einer offenen und weit verbreiteten Open-Source Technologien aufgebaut, hat kein Anbieter die Möglichkeit die volle Kontrolle über das Open-Source Framework zu erhalten. Damit können Anwender schneller auf die Entwicklung der Technologien im Rahmen des Open-Cloud Stacks reagieren. Darüber hinaus geben Open-Source Clouds dem Nutzer die Freiheit, seine Cloud an seine individuellen Bedürfnisse und Unternehmensziele anzupassen, statt diese anhand einer einzigen proprietäre Lösung aufzubauen.

Vorteil: Einsparung

Open-Source Software ermöglicht auf Grund seiner Lizenzierung die kostenlose Nutzung und hat damit preislich einen enormen Vorteil gegenüber dem kommerziellen Mitbewerb. Egal ob sich ein Nutzer nun für ein reines Open-Source Angebot oder für eine kommerzielle Open-Source Lösung entscheidet, wird er im Vergleich zu einer proprietären Software Kosten sparen können. In jedem Fall besteht für jedes Unternehmen die Möglichkeit, durch Open-Source Software, bei gleichzeitiger Erhöhung der Flexibilität, die Kosten zu senken, was einen Gewinn für jede Organisation darstellt.

Vorteil: Kontrolle, Offene Standards, APIs

Eine Open-Source Cloud setzt auf offene Standards und APIs und wird nicht von einem einzigen Hersteller kontrolliert. Das erlaubt es Unternehmen, die Kontrolle über die darunter liegende Hardware Infrastruktur und Managementplattform zu behalten, unabhängig davon, um welche Technologie es sich handelt. Des Weiteren ermöglichen offene APIs eine bessere Integration in bestehende offene oder proprietäre Lösungen, womit sichergestellt wird, dass aktuelle IT-Investitionen innerhalb der neuen Architektur weiterhin relevant sind.

Vorteil: Portabilität

Baut man seine Cloud auf Basis von Open-Source auf, sollte man immer schauen, wie es mit der Interoperabilität zu anderen Public, Private oder Hybrid Cloud Lösungen ausschaut. Entscheidet man sich für eine offene Technologie erhält man damit ein höheres Maß an Portabilität innerhalb des großen Cloud Ökosystems. Anstatt ihre eigenen Möglichkeiten auf proprietäre Technologien zu beschränken, können sich Nutzer an unterschiedlichen Open-Source Cloud Technologien bedienen und damit ihre IT-Entscheidungen unterstreichen und die eigenen Bedürfnisse und Unternehmensziele damit unterstützen.

Nachteil: Mangel an Unterstützung

Anwender die sich dafür entscheiden, ihre Cloud auf reiner Open-Source Software aufzubauen, begeben sich bzgl. Support in die Abhängigkeit des Open-Source Projekts. Das kann ganz schön zäh und schmerzhaft werden. Denn der Support kommt hier anhand von Foren, Chats, Q&A Systemen und Bug-Tracking Systemen von der Crowd. Zudem sollte man sich als Nutzer aktiv in der Community beteiligen und etwas dazu beitragen, was in der Welt der kommerziellen Software nicht notwendig ist. Auf der anderen Seite kann man sich für kommerzielle Open-Source Cloud Lösungen entscheiden, die für professionellen Support sorgen.

Nachteil: Kosten

Zwar haben Open-Source Lösungen auf Grund der in der Regel kostenlosen Lizenzen, im Vergleich zu kommerzieller Software, einen Kostenvorteil, allerdings gibt es auch hier Kosten die nicht zu vernachlässigen sind. Zum einen wird für den Aufbau einer Open-Source Cloud ein nicht zu unterschätzendes Wissen für die Entwicklung benötigt. Zum anderen müssen auch die Administratoren für einen einwandfreien Betrieb der Infrastruktur sorgen, wofür intensive Kenntnisse für die Verwaltung und Wartung der Lösung erforderlich sind. Darüber hinaus wird externes Fachwissen in Form von Beratung oder Entwicklung-Ressourcen benötigt.

Nachteil: Reifegrad

Je schneller sich das Open-Source Cloud Ökosystem entwickelt, kann sich ein Anwender nicht zwangsläufig darauf verlassen, das und wie lange ein Open-Source Projekt bestand hat. Wenn sich ein Cloud Architekt während des Designs einer Open-Source heute für eine bestimmte Technologie entscheidet, kann es durchaus passieren, das ihn diese in Zukunft einholen wird, da das Projekt eingestellt und nicht mehr weiterentwickelt wird. Mit den stetig steigenden Open-Source Projekten und unterschiedlichen Ansichten ist es für den Anwender zunehmend schwieriger geworden sich für den „richtigen“ Weg zu entscheiden.

Fazit

Verantwortliche die sich für eine Cloud Infrastruktur entscheiden, wollen diese hochverfügbar, einfach zu bedienen und so agil, dass sie sich mit den Bedürfnissen der Unternehmensziele verändert. Es ist daher entscheidend, dass sich ein Entscheider zunächst über die Unternehmensziele im klaren ist und sich mit seiner bestehenden IT-Infrastruktur auseinandersetzt, bevor er über eine Open-Source oder proprietären Cloud Infrastruktur nachdenkt. Möglicherweise kann man auch zu dem Ergebnis kommen, dass eine Open-Source Cloud für das Unternehmen keinen nennenswerten Vorteil bietet und eine proprietäre Cloud besser für den eigenen Innovationsgrad ist oder auch andere Möglichkeiten evaluiert werden müssen.

Kategorien
News

Studie prognostiziert Wachstum von Cloud-Dienstleistungen von jährlich 17 Prozent auf 2,3 Milliarden Euro im Jahr 2015

Parallels hat heute seinen zweiten “Parallels SMB Cloud Insights Report für Deutschland“ vorgestellt. Die kostenlose Studie zeigt Service Providern, welche Cloud-Dienstleistungen in welchem Umfang seitens kleiner und mittelständischer Unternehmen (SMB) mit bis zu 250 Mitarbeitern nachgefragt werden. 2011 befragte Parallels 400 deutsche SMBs unterschiedlicher Größen und Branchen über ihre Nutzung von, ihre zukünftigen Pläne mit und ihre allgemeine Einstellung zu Cloud-Services. Diese Untersuchung wurde für 2012 mit 400 neuen Interviews aktualisiert, um mögliche Trends festzustellen.

Wachstum in 2012 um 13 Prozent auf 1,5 Milliarden Euro

Basierend auf dieser Befragung ist der Markt der Cloud-Dienstleistungen für SMBs in Deutschland in diesem Jahr um 13 Prozent auf 1,5 Milliarden Euro gewachsen und setzt sich wie folgt zusammen: gehostete Infrastrukturen 531 Millionen Euro, Webpräsenz 336 Millionen Euro, gehostete Kommunikation und Zusammenarbeit (bestehend aus gehosteten Business-Class E-Mail- und PBX-Services) 95 Millionen Euro und Business-Applikationen 493 Millionen Euro. Für die Jahre 2013 und 2014 rechnet Parallels mit einem Anstieg um 17 Prozent pro Jahr, was in einem Marktpotenzial von 2,3 Milliarden Euro im Jahr 2015 resultiert.

Dieses Wachstum wird zu einem großen Teil auf SMBs zurückzuführen sein, die zusätzliche Cloud-Services nutzen oder bereits genutzte Cloud-Services um neue Applikationen und Funktionen erweitern. Demzufolge wird der SMB-Markt denjenigen Service Providern, die sich mit den verschiedenen SMB-Zielgruppen in Deutschland vertraut machen, neue SMB-Wachstumspotenziale eröffnen. Darüber hinaus bieten ihre vorhandenen Kunden Up- und Cross-Sell-Potenzial.

Parallels hat festgestellt, dass SMBs unterschiedlicher Größe und Kategorie spezifische Bedürfnisse und Pläne hinsichtlich ihrer Nutzung von Cloud-Services haben. Service Provider, die ihr Cloud-Geschäft ausbauen möchten, müssen ihre SMB-Zielgruppen besonders gut kennen, um ihnen die richtigen Services anbieten zu können. Dabei bieten die folgenden drei Gruppen das höchste Wachstumspotenzial:

  • Cloud-Umsteiger: Diese SMBs arbeiten derzeit mit Inhouse-Lösungen. Sie sind aber dabei oder planen, auf gehostete Services umzusteigen. Viele SMBs, die derzeit über Inhouse-Server verfügen, erwägen, sobald ein Upgrade ihrer Infrastruktur erforderlich ist, auf gehostete Server umzusteigen.
  • Cloud-Einsteiger: Diese Kategorie besteht aus SMBs, die derzeit keine eigene IT-Infrastruktur nutzen und in Erwägung ziehen, direkt in die Cloud einzusteigen, ohne zuvor in selbstbetriebene IT-Systeme zu investieren.
  • Cloud-Aufsteiger: Diese SMBs, die bereits in gewissem Umfang Cloud-Services nutzen, stellen ein Potenzial für Upselling auf neue und erweiterte Cloud-Angebote dar.

Für den deutschen Markt sieht der SMB Cloud Insights Report die größten Wachstumschancen in folgenden Bereichen:

Gehostete Infrastruktur

  • Inzwischen nutzen 21 Prozent der deutschen SMBs gehostete Server. Das Wachstum in diesem Bereich kommt durch SMBs, die auf eine Cloud-Lösung umsteigen, sobald ihre Inhouse-Server ersetzt werden müssen. Im Laufe der nächsten drei Jahre könnten so 400.000 neue gehostete Server entstehen.
  • Mikro-SMBs (mit 1-9 Mitarbeitern), die größtenteils zur IT-Kategorie der Do-it-yourselfer gehören, stellen ein besonders großes Potenzial dar. Sie umfassen fast 85 Prozent der deutschen SMBs und 64 Prozent von ihnen planen definitiv, in den nächsten drei Jahren auf gehostete Server umzusteigen oder ziehen dies zumindest in Betracht.

Webpräsenz

  • Derzeit betreiben 17 Prozent der Mikro-SMBs, 28 Prozent der kleinen SMBs (mit 10-49 Mitarbeiter) und 40 Prozent der mittleren SMBs (50-250 Mitarbeiter) in Deutschland selbst gehostete Websites. Die Mehrheit dieser Unternehmen plant, in den nächsten drei Jahren auf externe Web-Hosting-Pakete umzusteigen oder zieht dies zumindest in Betracht, was den derzeitigen Markt um 177.000 neue Websites vergrößern würde.
  • 62 Prozent der 400.000 Mikro-SMBs, die noch keine eigene Website haben, wollen innerhalb der nächsten drei Jahre eine gehostete Website einrichten oder ziehen dies zumindest in Betracht – dadurch könnte der Markt um mehr als 200.000 neue Web-Hosting-Pakete wachsen.
  • Enormes Potenzial liegt auch im Upselling bei Bestandskunden. Etwa 16 Prozent der SMBs, die heute bereits ein Web-Hosting-Paket nutzen, wollen ihre Investitionen hierfür im Laufe der nächsten drei Jahre erhöhen, um ihre Webpräsenz auszubauen und die Sicherheit ihrer Website zu verbessern. Bei den mittleren SMBs liegt diese Zahl sogar bei 36 Prozent.

Gehostete Kommunikation und Zusammenarbeit

  • Derzeit nutzen gerade einmal 7 Prozent der SMBs kostenpflichtige Business-Class E-Mail-Services und 3 Prozent der SMBs kostenpflichtiges gehostetes PBX. In den nächsten Jahren werden diese beiden Cloud-Services mit einem jährlichen Wachstum von 47 Prozent zu den am schnellsten wachsenden Bereichen gehören.
  • Vor allem bei den mittleren SMBs hat die Nutzung kostenpflichtiger gehosteter E-Mail um 190 Prozent zugenommen. Der größte Teil dieses Wachstums ist darauf zurückzuführen, dass viele mittlere SMBs von in-house betriebenen E-Mail-Servern auf in der Cloud gehostete Business-Class E-Mail-Services umgestiegen sind.

Business-Applikationen

  • In deutschen SMBs hat die Nutzung von Online-Applikationen seit dem vergangenen Jahr um 7 Prozent zugenommen. 60 Prozent von ihnen nutzen heute eine oder mehrere kostenfreie oder kostenpflichtige Online-Applikationen.
  • Die in deutschen SMBs am häufigsten genutzten Business-Applikationen sind Telefonkonferenz-Services (31 Prozent der SMBs), Instant-Collaboration-Services (19 Prozent) sowie Online-Backup- und -Datenspeicher-Services (16 Prozent). Die in den nächsten drei Jahren am schnellsten wachsenden Applikationen werden Instant-Collaboration- Services (bei 24 Prozent der SMBs geplant), Telefonkonferenz-Services (bei 15 Prozent geplant) und Webkonferenz-Services (bei 13 Prozent geplant) sein.

Erstmals auch Zahlen für den gesamten Cloud-Markt in Europa und Nordafrika

Parallels hat seine Marktanalyse in diesem Jahr um eine Studie zur Nachfrage von Cloud-Diensten in Europa und Nordafrika (EUNA) erweitert. Diese beziffert den Markt für Hosting- und Cloud-Dienstleistungen in der gesamten Region auf 9,6 Milliarden Euro für 2012, wobei die Verbreitung der Cloud-Dienste sehr stark vom Entwicklungsstand des Cloud-Marktes im jeweiligen Land abhängt.

Dieser Gesamtmarkt setzt sich sich wie folgt zusammen: gehostete Infrastrukturen 3 Milliarden Euro, Webpräsenz 2,8 Milliarden Euro, gehostete Kommunikation und Zusammenarbeit 900 Millionen Euro und Business-Applikationen 2,9 Milliarden Euro. Die Parallels-Studie geht davon aus, dass dieser Markt mit einer Wachstumsrate von 33 Prozent ein Volumen von 22,6 Milliarden im Jahr 2015 haben wird.

Aktuell ist der Parallels SMB Cloud Insights Report in insgesamt 16 Ausgaben erhältlich. Neben einem globalen Report, einer Ausgabe für Europa und Nordafrika sowie einer Ausgabe für den asiatisch-pazifischen Raum gibt es länderspezifische Analysen für die USA, Brasilien, Mexico, Frankreich, Deutschland, Niederlande, Polen, Russland, Spanien, Australien, China, Indien und Japan. Diese stehen zum kostenlosen Download zur Verfügung unter http://www.parallels.com/de/smbreport

Kategorien
News

Knapp jeder zweite Arbeitnehmer hofft auf Produktivitätssteigerung durch „Bring your own…“

Der Trend Consumerization of IT unter Einbezug privater IT-Geräte und Anwendungen ist in deutschen Unternehmen nicht mehr aufzuhalten. Immer mehr Mitarbeiter projizieren private IT-Gewohnheiten auf den Arbeitsplatz. Das geht aus dem aktuellen Market Paper „Consumerization Study CIO Challenges 2012 – Herausforderungen mit ‚Bring your own‘“ hervor, das techconsult im Auftrag von Microsoft verfasst hat. Demnach nutzen bereits knapp zwei Drittel der befragten Arbeitnehmer private Geräte wie Smartphones und Laptops an ihrem Arbeitsplatz und sogar mehr als ein Viertel private Anwendungen und Services. 44 Prozent der Befragten gehen davon aus, dass der Einsatz der eigenen gewohnten Geräte die Produktivität um bis zu 30 Prozent steigert. Während die Mitarbeiter der Nutzung privater Endgeräte am Arbeitsplatz eher unkritisch gegenüberstehen, sehen Unternehmen immer noch große Herausforderungen, private Geräte und Anwendungen sicher in die bestehende IT-Infrastruktur einzubinden.

Knapp jeder zweite Arbeitnehmer hofft auf Produktivitätssteigerung durch „Bring your own...“

69 Prozent nutzen private Endgeräte im Unternehmen

Die Grenzen zwischen der Arbeitswelt und dem Privatleben verschwinden zusehends. Vor diesem Hintergrund stehen IT-Verantwortliche vor der Herausforderung, ihren Mitarbeitern die Möglichkeit einzuräumen, sich am Arbeitsplatz in ihren gewohnten und gewünschten Kommunikations- und Arbeitsumfeldern zu bewegen. Diese Entwicklung zeigen auch die Ergebnisse des aktuellen techconsult Market Papers, das gezielt die Sicht der Anwender in den Mittelpunkt rückt und dafür mehr als 1.000 Mitarbeiter in Unternehmen zum Thema Consumerization befragt hat. Rund 69 Prozent der Befragten nutzen bereits private Endgeräte im Unternehmen und rund 26 Prozent greifen regelmäßig auf private Anwendungen und Services wie E-Mail, Office-Lösungen und Bildbearbeitungsprogramme zurück.

„Bring your own…“ – Herausforderung für Unternehmen

Während knapp 30 Prozent der befragten Mitarbeiter den Aufwand für das Management privater Endgeräte und Software am Arbeitsplatz als gering einschätzen, sehen es die Unternehmen deutlich kritischer. Rund 60 Prozent der Befragten gaben an, dass ihr Arbeitgeber gegen die Nutzung privater Endgeräte ist und 74 Prozent würden es ablehnen, dass private Software genutzt wird. Während „Bring your own“ für Mitarbeiter ein geeignetes Mittel ist, ihre Motivation und Zufriedenheit zu erhöhen, stehen IT-Verantwortliche vor der Herausforderung, die Geräte und Anwendungen sicher in die bestehende IT-Infrastruktur einzubinden.

„Consumerization Study CIO Challenges 2012“: eine Mitarbeiter-Studie in sieben Akten

Für die „Consumerization Study CIO Challenges 2012” von techconsult wurden insgesamt mehr als 1.000 Mitarbeiter aus Unternehmen mit mehr als 250 PC-Arbeitsplätzen zu ihren IT-Nutzungsverhalten am Arbeitsplatz und mehr als 90 Studenten im Abschlusssemester zu ihren Anforderungen an zukünftige Arbeitgeber befragt. In verschiedenen themenorientieren Market Papers werden die Ergebnisse monatlich veröffentlicht:

  1. Herausforderung mit „Bring your own“
  2. Der mediale Mitarbeiter von heute
  3. Die Umsetzung von Unternehmensrichtlinien auf dem Prüfstand
  4. Die CIO-Challenges auf Führungsebene (leitende Angestellte, Management)
  5. Die CIO-Challenges auf Abteilungsebene (Vertrieb, Marketing, Controlling und IT)
  6. IT-Lifestyle-Artikel als Job-Motivator
  7. Trendcheck: Consumer-orientierte IT im Wandel der Zeit

Bildquelle: ©Robert Müller / PIXELIO

Kategorien
News

Quantum vmPRO Standard Edition verändert VMware Backup

Quantums neue vmPRO Software Standard Edition sichert bis zu 1 TB virtueller Daten und ist als kostenloser Download mit voller Funktionalität verfügbar, wodurch Unternehmen ohne jedes Risiko von allen Vorzügen der Software profitieren können. Sie ist bei wachsenden Anforderungen zudem nach oben skalierbar.

Virtuelle Backup Appliance

Die Quantum vmPRO Standard Edition lässt sich herunterladen und als virtuelle Appliance installieren. Zudem haben Kunden freien Zugang zum Quantum Forum V für kostenlosen Online-Support. Mit einem Upgrade auf die vmPRO Enterprise Edition kann zusätzliche Kapazität freigeschaltet werden. Die Enterprise Edition bietet unbegrenzte Kapazität für 651€/TB, inklusive Silber Support Service für ein Jahr und der Möglichkeit auf eine weitere Support-Stufe upzugraden.

Außerdem können Anwender ab sofort die vollumfängliche virtuelle Deduplizierungsappliance, Quantum DXi V1000, kostenlos herunterladen, um bis zu 15 TB deduplizierter Daten vorzuhalten. In Kombination mit der vmPRO Software bildet die DXi V1000 eine komplett virtuelle Datensicherungslösung und öffnet so den Weg in die Cloud.

vmPRO: Die VM Backup Anwendung im Überblick

  • Backup im nativen VMware-Format: Basierend auf den Backup Policies des Kunden sichert vmPRO Software VM’s im nativen VMware-Format (VMDK), ohne die Restriktionen eines proprietären Formats wie bei den übrigen verfügbaren Backup-Anwendungen am Markt. Diese Möglichkeit erleichtert die Wiederherstellung von einzelnen Dateien, Objekten oder ganzen VM’s per „Drag and Drop“ mit dem vmPRO GUI oder jedem anderen Standard Dateisystem Browser. Da die VM’s in ihrem nativen Format gesichert werden, können Anwender VM’s ohne Rückgriff auf eine Backup-Anwendung von jedem Standort aus booten – inklusive Cloud.
  • Einfache Installation und Nutzung: vmPRO Software wird als virtuelle Appliance bereitgestellt und führt Restores in einem Schritt durch. Jeder Browser kann dafür genutzt werden Dateien, Objekte und komplette VM‘s zu suchen und wiederherzustellen – unabhängig von der Quelle und ohne Backup Anwendung.
  • Datenreduktion um 95 Prozent: Die Kombination aus vmPRO Software und DXi Appliances – inklusive DXi V1000 – bietet die derzeit effektivsten Deduplizierungsraten sowie schnellstes VM Recovery. Mit der patentierten progressiven Optimierung löscht vmPRO überflüssige Daten aus den virtuellen Maschinen und in Kombination mit Deduplizierung können Hosting, Netzwerk und Speicherressourcen extrem reduziert werden.
  • Integriert mit VMware API: Da Quantum vmPRO nahtlos mit VMware vCenter Server zusammenarbeitet, werden neu hinzugefügte VM’s automatisch von der VMware API erkannt und für die Datensicherung berücksichtigt. Auf diese Weise ist jede VM stets gesichert.
  • Zertifiziert VMware Ready: Quantum vmPRO trägt die offizielle Bezeichnung VMware Ready, ein Indikator für die Integration mit VMware’s API. VMware Ready ist VMware‘s höchste Anerkennung für Produkte und Lösungen, die von Partnern erstellt wurden.
Kategorien
News

Emirates Airline führt Windows 8 Tablets im Inflight Service ein

Emirates Airline wird ab Januar 2013 ihre Crew-Mitglieder mit Windows 8 Tablets und einer eigenen Business App ausstatten. Zukünftig wird die Emirates Airline insgesamt 1.000 HP ElitePad 900 nutzen, die unter Windows 8 laufen. Die touch-optimierte Benutzeroberfläche von Windows 8, welche die wichtigsten Informationen schnell über die Live-Kacheln bereitstellt, soll der der Crew helfen, noch effektiver zu arbeiten.

HP ElitePad 900 dient als Hardwaregrundlage

Das speziell für den Unternehmenseinsatz entwickelte HP ElitePad 900 bringt alles mit, um den besonderen Anforderungen an Bord gerecht zu werden. Es ist leicht und zeichnet sich durch eine lange Akkulaufzeit aus, was gerade bei Langstreckenflügen wichtig ist.

Ein KIS(S) für die Fluggäste

Die Business App „Knowledge Driven Inflight Service“ (KIS) der Emirates Airline dient der weiteren Optimierung des Kundenservices durch Vereinfachung der Kommunikation des Serviceteams auf Flügen. Die Schichtleiter können vor jedem Flug einfach und ohne großen zeitlichen Aufwand die Kabinencrew einweisen, da Informationen wie Namen, Sprachkenntnisse oder Bilder des Servicepersonals dokumentiert und gespeichert werden. Das optimiert den Arbeitsprozess und verbessert die Teamarbeit. Zudem liefert KIS während des Fluges einen schnellen und unkomplizierten Überblick über die sich an Bord befindenden Passagiere. So kann individueller auf die Bedürfnisse der Fluggäste eingegangen werden. Ein Wechsel auf Business oder First Class ist somit noch einfacher realisierbar. Durch die Feedbackmöglichkeit für das Bordpersonal, können Informationen leicht gesammelt und nach der Landung an die digital verbundenen Headquarter weitergeleitet werden.

Kategorien
Management

DevOps: Führt Cloud Computing zu NoOps?

Neben den Themen Cloud Computing und Big Data zählt das Thema DevOps zu den wichtigsten Themen der nahen Zukunft. Der Begriff DevOps leitet sich von dem Präfix „Dev“ von Softwareentwickler (Developer) sowie dem Suffix „Ops“ von IT-Betrieb (Operations) ab. Zusammengesetzt entsteht damit das Wort DevOps und symbolisiert die enge Zusammenarbeit beider Unternehmensbereiche, also der Softwareentwicklung und dem IT-Betrieb.

Dev vs. Ops

Jede Unternehmens-IT lebt von den eingesetzten Applikationen. Aufgabe der Entwickler (Dev) ist es diese bestehenden Applikationen zu verbessern oder neue zu entwerfen. Der IT-Betrieb (Ops) hat die Aufgabe die für die Entwicklung notwendinge IT-Infrastruktur und Umgebungen bereitzustellen. Beide ziehen also generell am selben Strang, laufen aber dennoch in zwei unterschiedliche Richtungen. Die Entwickler wollen schneller neue Applikationen entwerfen und ausrollen. Der IT-Betrieb lässt gerne alles beim Alten und ist froh, wenn die aktuellen Systeme so stabil laufen (Änderungen könnten zu Problemen führen und das bedeutet Arbeit.)

Neben dem zeitlichen Druck, den beide Bereiche unterlegen sind, verstärkt zudem die Komplexität der modernen IT-Infrastrukturen die beidige Zusammenarbeit. Werden neue Versionen ausgerollt, muss anschließend sichergestellt werden, dass alles weiterhin so funktioniert wie vorher, nur besser. Außerdem hat der Umfang an Applikationen in Unternehmen im Laufe der letzten Jahre stetig zugenommen, die es gilt bestmöglich zu unterstützen sowie die Interoperabilität sicherzustellen.

Automatisierung

Eigentlich brauchen Unternehmen mittlerweile einen Hybriden, der in beiden Welten zu Hause ist, sich also mit der Arbeit der Entwickler auskennt und zugleich den IT-Betrieb versteht. Dieser Hybride sorgt dafür Probleme zu vermeiden und zugleich für Automatisierung und damit eine optimale Planung und Kontrolle. Dieser Hybrid ist der bereits genannte DevOps und muss nicht zwangsläufig eine Person oder ein Team sein. Nein, dabei kann es sich auch um ein Stück Software handeln, die für die Abstimmung des Entwicklungsbereiches und des IT-Betriebs zuständig ist und eine DevOps Strategie völlig autonom implementiert.

Heißt die Cloud Lösung „NoOps“?

Möglicherweise! Erleichtert die Cloud vielleicht das Thema DevOps oder macht es gar obsolet? Klar ist, Entwickler sind in der Cloud nicht mehr maßgeblich auf den IT-Betrieb angewiesen, denn dieser wird durch den Anbieter dargestellt. Im Falle von IaaS (Infrastructure-as-a-Service) behalten wir die aktuelle Situation bei, nur in der Cloud, eben genauso nur anders. Hier muss das entsprechende System, dass auf der Cloud Infrastruktur läuft von einem Team (Operations) betrieben und gewartet werden, wohingegen das andere Team (Developer) das System entwickelt bzw. darauf entwickelt? Oder ist IaaS für die Entwickler mittlerweile sogar so einfach, dass das Operations-Team wegfallen kann? Ganz anders sieht es beim PaaS (Platform-as-a-Service) aus. Hier ist der Bereich Operations zu 100% unwichtig. Die vollständige Plattform und der Stack den die Anwendung benötigt, wird durch den Anbieter bereitgestellt und gewartet, wodurch dieser für den Bereich Operations verantwortlich ist.

So oder so hilft eine (IaaS, PaaS) Cloud Infrastruktur Entwicklern dabei ihre Software automatisiert auszurollen, diese zu überwachen und ebenfalls zu verwalten. Entwickler (Dev) können mit der Cloud also völlig autonom vom IT-Betrieb (Ops) die für die Entwicklung notwendigen IT-Ressourcen selbst bereitstellen und warten. Wo wir beim Thema NoOps sind!


Bildquelle: http://blog.zenoss.com

Kategorien
News

Branchentrends für 2013: Cloud Computing bleibt – Collaboration ganz weit vorne

Die Finanz Informatik Technologie Service (FI-TS) gibt einen Ausblick auf die IT-Themen und -Entwicklungen, die im kommenden Jahr für Banken und Versicherungen besonders wichtig werden sollen. Auffallend ist dabei, dass einige der Trends aus 2012 auch im nächsten Jahr noch auf der Agenda bleiben. Dies gilt vor allem für die Umsetzung konkreter Projekte im Bereich Cloud Computing. Neu hinzu kommt das Thema Collaboration, mit dem sich die Institute bereits 2013 befassen sollten.

Die wichtigen Themen im Überblick

Marktlage erfordert weitere Standardisierung

Besonders das Niedrigzinsniveau und ein verändertes Anlageverhalten der Kunden bringen nicht nur Banken sondern auch Versicherungen dazu, weitere Einsparungen und eine noch nachhaltigere Kostenoptimierung umzusetzen. Das bedeutet für die Institute in der Folge, ihre IT-Systeme einerseits zu konsolidieren und andererseits noch mehr auf standardisierte Techniken und Anwendungen zu setzen, um bestmöglich auf die sich verändernde Marktlage reagieren zu können.

Die Vorteile der Cloud nutzen

Die Suche nach weiteren Einsparungs- und Standardisierungsmöglichkeiten führt dazu, dass sich Banken und Versicherungen auch im Jahr 2013 weiterhin sehr intensiv mit Cloud-Angeboten befassen werden. Hier geht es für die Organisationen in erster Linie darum, einen erfahrenen Service-Partner zu finden, der Cloud-Dienste anbieten kann, die auf die speziellen Bedürfnisse der hochregulierten Branche zugeschnitten sind. Dann können Banken und Versicherungen die konkreten Vorteile von Cloud-Services nutzen und ihre Kosten weiterhin optimieren. Zudem erreichen sie so ein höheres Maß an Flexibilität das ihnen ermöglicht, frühzeitig auf Entwicklungen, beispielsweise BYOD (Bring Your Own Device), vorbereitet zu sein.

An Mobile Device Management (MDM) führt kein Weg vorbei

Das Thema MDM zählte bereits im Jahr 2012 zu den viel diskutierten Themen. Zu Beginn des neuen Jahres steht eines fest: An MDM kommt niemand vorbei – zumal es auch BYOD ermöglicht. Davon sind vor allem die Versicherungen betroffen, deren Branche sich besonders im Vertrieb derzeit in einem Strukturwandel befindet. Hier stehen die Einführung neuer Online-Angebote sowie die Nutzung mobiler Endgeräte klar im Fokus. Daher gilt es für Versicherungen in 2013 konkrete Services zu evaluieren, die es ermöglichen, entweder die Smartphones und Tablets ihrer Mitarbeiter sicher in den Geschäftsalltag einzubinden oder sie selbst mit entsprechenden mobilen Endgeräten auszustatten. Auch hier lohnt in jedem Fall der Blick auf Mobile-Device-Management-Angebote aus der Cloud.

Collaboration auf die Agenda setzen

Die bisher erwähnten Entwicklungen haben eines gemeinsam: Sie verändern die Art der Zusammenarbeit (Collaboration) im Geschäftsalltag von Morgen – nicht nur innerhalb der Organisationen sondern besonders im Dialog mit den Kunden. Denn diese möchten in Zukunft zu jeder Zeit und von einem beliebigen Endgerät aus auf performante Online-Angebote beispielsweise für Bankgeschäfte zugreifen oder ihre Versicherung bequem per Online-Video-Chat oder Co-Browsing erreichen können. Diese neue Art der Zusammenarbeit ist die logische Fortführung der aktuellen Entwicklungen in den Bereichen Cloud-Computing. Daher sollten Banken und Versicherungen das Thema bereits 2013 auf ihre Agenda setzen.

Kommentar

Eigentlich kommentiere ich gewöhnliche News nicht, aber sind die Themen Collaboration und Mobile Device Management (MDM) nicht alte Hüte und sollten schon lange in jeder IT-Strategie fest verankert sein?! Jedes Unternehmen (auch im Banken- und Versicherungsumfeld), das erst im Jahr 2013 mit diesen Themen beginnt, hängt dem Wettbewerb schon hinterher!


Bildquelle: ©Gerd Altmann / PIXELIO

Kategorien
News

Studie: Über 70 Prozent der Banken investieren mehr in Innovation

Trotz wachsender Herausforderungen und wirtschaftlich turbulenter Zeiten verstärken Banken auf der ganzen Welt ihre Investitionen in Innovationen. Zu diesem Ergebnis kommt jetzt die aktuelle Ausgabe der Studie „Innovation in Retail Banking 2012“. Diese Erhebung wurde bereits zum vierten Mal in Folge von Infosys und der European Financial Management Association (Efma) in Auftrag gegeben.

Umfrage unter 300 Banken aus 66 Ländern

An der Umfrage haben sich 300 Banker aus 66 Ländern in Europa, dem Mittleren Osten, Afrika, dem asiatisch-pazifischen Raum sowie dem amerikanischen Kontinent beteiligt. Die Bedeutung von Online- sowie mobilen Kanälen nimmt laut Umfrage signifikant zu. Immer mehr Banken fokussieren sich auf Neuerungen und Entwicklungen, die sie bei der Ansprache ihrer Kunden und zukünftigem Umsatzwachstum unterstützen.

Ergebnisse der Studie auf einem Blick

  • 79 Prozent der befragten Banken erklärten, dass Innovationen strategisch wichtig für den künftigen Erfolg ihres Geschäfts seien.
  • 76 Prozent erklärten, dass Investitionen in Innovationen bereits 2012 höher seien als in den Jahren zuvor – am deutlichsten in den Bereichen Vertriebskanäle sowie Kundenzufriedenheit.
  • Bankfilialen erhalten mit 27 Prozent den größten Anteil frei verfügbarer IT-Budgets im Vergleich zu 26 Prozent für den Online-Bereich und 20 Prozent für mobile Aktivitäten. Online- und mobile Kanäle werden jedoch regionsübergreifend als wichtigste Bereiche für künftige Innovationen angesehen.
  • 93 Prozent der Umfrageteilnehmer planen das Angebot mobiler Bezahldienste. 89 Prozent planen in den kommenden drei Jahren zudem kundenspezifische Tablet-Banking-Anwendungen. Das stärkste Wachstum sehen die Befragten bei den Innovationen im Bereich der Mehrwertdienste wie beispielsweise personalisierte standortabhängige Angebote. Diesen Services wollen in den kommenden drei Jahren mehr als 76 Prozent der Umfrageteilnehmer mehr Aufmerksamkeit schenken. Derzeit sind es lediglich acht Prozent.
  • 87 Prozent der Banken konzentrieren sich zudem auf die Integration sozialer Medien und 86 Prozent auf interaktive Services wie Web Chat, Videokonferenzen und Click-to-Call. Dies zeigt, dass sich Banken verstärkt auf eine Steigerung der Kundenzufriedenheit durch verbesserte Interaktivität fokussieren.

Die vollständige Studie kann unter http://www.infosys.com/german/pages/index.aspx heruntergeladen werden.


Bildquelle: ©Kirsten Fischer / PIXELIO

Kategorien
Kommentar

Deutsche Cloud: Ist Deutschland souverän? Lieber keine Unternehmensdaten in Deutschland speichern?

So mancher deutsche Cloud Computing Anbieter brüstet sich mit den hohen Datenschutzrichtlinien in unserem Land. Da wird der Patriot Act als Vorwand genommen, sich doch lieber für eine „Deutsche Cloud“ zu entscheiden, statt für einen „bösen“ US-amerikanischen Anbieter bzw. dessen deutsches Tochterunternehmen. Datenschutz „Made in Germany“ halt.

Datenschutz in Deutschland: Nur Wunschdenken?

Ein Video von Frontal 21 rückt, meiner Ansicht nach, sämtliche Datenschutz-Diskussionen in ein anderes Licht. Nein, es stellt nicht das Cloud Computing in Frage, sondern Deutschland als Standort zum Speichern von Daten. Abgesehen davon, Cloud Computing ist ein globales und kein lokales Konzept („Deutsche Cloud“…). Aber, haben die Macher des Videos ernsthaft gut recherchiert, würde Irland als Standort für Cloud Computing Anbieter in Europa völlig ausreichen. Anders ausgedrückt: Als Unternehmen sollte man davon dann tatsächlich absehen, seine Daten bei einem Anbieter in Deutschland zu speichern. Denn was ist unser Bundesdatenschutzgesetz unter Berücksichtigung dieses Videos noch wert?

Quelle: Deutschland souverän?
Weitere Informationen: Die demokratische Souveränität ist teilsuspendiert

Kategorien
News

HP zeigt ersten Server speziell für Big Data

HP hat die erste Server-Reihe angekündigt, die speziell für Big Data entwickelt wurde: Der HP ProLiant SL4500 Gen8 ist ab sofort als Ein- und Zwei-Knoten-System erhältlich. Das Ein-Knoten-System eignet sich durch seine Konfiguration mit bis zu 60 Festplatten vor allem als Object-Storage-Device für OpenStack-Cloud-Anwendungen, Redhat Enterprise Linux, SUSE Enterprise Linux oder Microsoft Windows Server. Das Zwei-Knoten-System mit 25 Festplatten pro Knoten eignet sich für Big-Data-Analytics und für Datenbanken wie MongoDB. Voraussichtlich Anfang 2013 wird HP das Portfolio durch ein Drei-Knoten-System nach oben abrunden. Mit dieser Konfiguration können Kunden unter anderem Parallel-Processing- und Big-Data-Anwendungen wie beispielsweise verschiedene Distributionen von Apache Hadoop nutzen.

HP Scaleable Line

Die neuen SL4500-Server (SL = Scaleable Line) sind speziell für Big-Data-Anwendungen entwickelt. Sie bieten je nach Konfiguration bis zu 240 Terabyte Speicherplatz pro Server. Außerdem nutzen sie die RAID-Controller HP Smart Array mit der Technologie Predictive Spare Activation. Diese Technologie erkennt fehlerhafte Laufwerke bevor diese ausfallen und verschiebt die Daten automatisch auf ein freies Laufwerk. So wird die RAID-Initialisierung umgangen, die ansonsten bei einem Plattenausfall entsteht und während der kein Schutz der Daten besteht. Die SL4500-Server befinden sich in einem 4,3 Höheneinheiten großen Chassis. Damit passen bis zu neun Server in ein Standard-Rack. In dem Ein-Knoten-System lassen sich bis zu 2,16 Petabyte Daten speichern. Das entspricht etwa 20 Jahren HD-Filmmaterial. Die Zwei- und Drei-Knotensysteme fassen bis zu 25 respektive 15 3,5-Zoll-Festplatten pro Knoten. Kunden können bei allen drei Konfigurationen zwischen SAS-, SATA- und SSD-Festplatten wählen. Beim Management größerer Umgebungen steht Unternehmen neben dem Server-Management-Werkzeug HP Integrated Lights-Out (iLO) für die Fernüberwachung auch das Werkzeug HP Insight Cluster Management Utility (HP Insight CMU) zur Verfügung. Mit diesem Werkzeug lassen sich große Server-Cluster anhand von Parametern steuern und die Lastverteilung optimieren.

HP bietet die SL4500-Server wahlweise mit Prozessoren von Intel (Xeon E5-2400) und AMD (Opteron 4200). Die Intel-Server nutzen die Server-Architektur der HP ProLiant Gen8, die AMD-Systeme greifen auf die Architektur der Generation 7 zurück. Im Vergleich zu konventionellen Rack-Servern mit JBODs benötigen die SL4500-Server bis zu 50 Prozent weniger Stellplatz, 61 Prozent weniger Energie, 63 Prozent weniger Kabel und sind 31 Prozent günstiger. Das modulare Design ermöglicht eine Vielzahl an Kombinationen von Rechenleistung und Speicherkapazität. Dadurch können Kunden die Server entsprechend ihren Anwendungen anpassen.

Die SL4500-Gen8-Server bieten außerdem bis zu sieben Mal mehr IOPS (Input/Output Operations per Second) als bestehende Architekturen. Die Lösung HP SmartCache verbessert den Speicher-Datenverkehr und verringert dadurch Latenzzeiten. Außerdem greifen die SL4500-Server auf die ProActive Insight Architecture zurück. Diese soll Kunden ermöglichen:

  • Ausfallzeiten zu reduzieren und Daten durch automatische Sicherheits-Funktionen zu sichern.
  • Die Produktivität der Server durch HP Active Health zu maximieren. Dieses Diagnose-Werkzeug erfasst alle Veränderungen an den Servern und der System-Konfiguration. Damit hilft es bei der Fehlerdiagnose und Lösungssuche. HP Smart Update spielt außerdem Firmware-Updates automatisch ein.
  • Die Kosten im Rechenzentrum durch die Technologie HP Intelligent Infrastructure zu senken und die Rechenleistung pro Watt um bis zu 70 Prozent zu steigern.
  • Selbstüberwachung, Selbstdiagnose und proaktiven Support für die Server durch HP Insight Online.

Preise und Verfügbarkeit

Der HP ProLiant SL4500 als Ein-Knoten-System ist ab sofort erhältlich. Der weltweite Listenpreis startet bei 5.925 Euro für die Basiskonfiguration.