Kategorien
News

Deutsche Telekom präsentiert CRM Services in der Cloud

Die Deutsche Telekom erweitert mit „CRM Services Online“ sein Public Cloud Portfolio für mittelständische Geschäftskunden. Die Software basiert auf Microsoft Dynamics CRM 5.0 und setzt sich aus Modulen für den Vertrieb, Marketing und Service zusammen. Die Steuerung und Verwaltung erfolgt über einen Cloud Manager. Alle Cloud Services fasst die Telekom in einem zentralen Portal zusammen. Gespeichert werden die Daten in ISO-zertifizierten Rechenzentren der Telekom in Deutschland.

Telekom präsentiert CRM Services in der Cloud

Vertriebs, Marketing und Service in der Cloud

Die CRM Online Services der Telekom bieten jedem Nutzer 500 MB Speicherplatz für die Ablage von Daten. Zudem lassen sich bis zu 14 Nutzerrollen verwalten. Mit dem Modul Vertrieb können Unternehmen ihr Lead- und Verkaufsmanagement anhand von Workflow-Regeln steuern, um Vertriebsprozesse zu planen sowie Aufträge und Angebote zu bearbeiten. Weiterhin bietet die Lösung eine Recherchedatenbank für Vertriebsdokumentation und Wettbewerberinformation sowie eine Serienbrieffunktion. Das Marketing-Modul hilft beim Erstellen von Kampagnen inkl. Vorlagen. Das Modul Service bietet weitere ihre Service- und Kundenkommunikationsfunktionen.

Cloud Manager: Steuern und verwalten der Telekom Cloud

Mit dem Cloud Manager steht eine kostenlose webbasierte Administrations- und Nutzeroberfläche zur Verfügung. Darüber können alle Services aus der Cloud gesteuert sowie Nutzer verwaltet und die Prozesse in der Telekom Cloud sortiert und kontrolliert werden. Hier werden zudem die gebuchten Services angezeigt und welchem Mitarbeiter welche Software zur Verfügung steht. Zu den weiteren Funktionen gehört eine Übersicht über die Lizenzen, Nutzerrechte und dem Speicherplatz pro Nutzer. Mit einem Adressbuch-Widget lassen sich Personen im gesamten Unternehmensverzeichnis live suchen. Neben CRM Services Online lässt sich der Cloud Manager auch für Produkte wie Microsoft Exchange Online 2010 und Microsoft SharePoint Online 2010 nutzen.

CRM Services Online auf einem Blick

  • Basiert auf Microsoft Dynamics CRM 5.0
  • 500 MB Speicherplatz pro Nutzer, Erweiterung möglich
  • Bis zu 14 Nutzerrollen für die Nutzerverwaltung
  • Vertriebs-, Marketing- und Servicemodul
  • Zugriff von überall über Microsoft Internet Explorer ab Version 7
  • Ab 39,95 Euro netto pro Nutzer und Monat
  • Mindestvertragslaufzeit: ein Monat

Cloud Manager auf einem Blick

  • Kostenlose Online-Administrationsoberfläche
  • Produkte- und Nutzer-Management
  • Gilt für CRM Services Online, Microsoft Exchange Online 2010, Microsoft SharePoint Online 2010
Kategorien
Kommentar

"The Woz" hat Angst vor der Cloud – Na und…?

„iWoz“ (Steve Wozniak) aka „The Woz“, Mitbegründer von Apple, hat gesprochen und das Netz hält den Atem an. Das Woz sich gerne zu Themen äußert ist bekannt, aber hier hätte erst einmal überlegen sollen. Versteht mich nicht falsch, ich schätze ihn sehr, hab sein Buch gelesen und verfolge sonst alles was er macht. Aber diese allgemeinen Äußerungen helfen niemanden weiter und sind reine Meinungsmache. Das Problem: Die Medien springen auf seinen Zug mit auf. So gut wie jede englischsprachige und ein paar deutschsprachige Publikationen haben darüber geschrieben.

Ein Interview nach einer Theateraufführung

Nach seinem Besuch einer Theateraufführung zu „The Agony and the Ecstasy of Steve Jobs“ durften die Zuschauer Woz auf der Bühne ein paar Fragen stellen. Dabei kam es u.a. zu den folgenden Aussagen:

„I really worry about everything going to the cloud,“

„I think it’s going to be horrendous.“

„With the cloud, you don’t own anything. You already signed it away.“

„I want to feel that I own things,“ „A lot of people feel, ‚Oh, everything is really on my computer,‘ but I say the more we transfer everything onto the web, onto the cloud, the less we’re going to have control over it.“

Nicht alles auf die Goldwaage legen

Es ist nicht das erste Mal in der jüngsten Vergangenheit, dass Woz unüberlegte Äußerungen macht. Wie Golem schreibt, habe er im November 2010 angekündigt, dass Apple Nuance gekauft habe, wobei das nicht korrekt sei. Er hat sich damit entschuldigt, dass er es wohl falsch verstanden habe. Und auch Kim Schmitz, der nachweislich nicht gerade saubere Geschäfte betreibt, nimmt er mit seltsamen Aussagen in Schutz.

Aus diesem Grund sollte man seine sehr allgemeinen Aussagen ohne Inhalt nicht überbewerten.

Ich stimme ihm zu, das viele (noch) weiterhin das Gefühl brauchen, dass sich die Daten in ihrem Besitz befinden. Daher bin ich auch der Meinung, dass Gartner mit seiner Prognose, dass die Personal Cloud bis 2014 den Computer verdrängt, falsch liegt.

Aber betrachten wir die aktuelle Entwicklung des Mobile Computing, muss man sich die Frage stellen, warum das iPhone oder Android so erfolgreich sind? Es sind die Apps und die mobilen Datenverbindungen. Ohne Apps und mobilem Internet wären Smartphones nicht da wo sie heute sind. Denn sie würden uns keinen nennenswerten Mehrwert bieten. Es ist der Zugriff auf unsere Daten von jedem Ort, die mobile Unabhängigkeit, die Smartphones so beliebt machen.

Und wo befindet sich der Großteil aller Daten, die von den Apps benötigt werden? In der Cloud bzw. auf Servern von den Anbietern dieser Apps. Es ist daher sehr vage zu sagen, dass man Bedenken vor der Cloud hat und seine Daten dort nicht speichern würde, da diese dort nicht mehr im eigenen Dunstkreis sind. Ich habe dazu mal einen Artikel geschrieben, der das genauer betrachtet: „Die Heuchelei der Cloud Kritiker„.

Das Mobile Computing und Cloud Computing ernähren sich Gegenseitig und werden durch die Consumerization of IT zudem vorangetrieben.

Vorsicht vor Social Networks? Ja.

Werden die Daten auf der Infrastruktur eines echten Cloud Anbieters wie Amazon Web Services, Rackspace, internet4YOU usw. gespeichert, dann gehören die Daten weiterhin einem selbst.

Facebook und andere Social Networks klammer ich hier mal aus, da deren Geschäftsmodell darauf basiert Nutzerdaten zu monetarisieren. Wird für den Service nichts bezahlt, dann ist man das Produkt. So ist es nun einmal. Ich verstehe Woz Aussagen auch eher so, dass sich diese auf Services wie Social Networks beziehen und nicht auf professionelle Angebote für Unternehmen.

Wichtig ist natürlich, das man immer die Nutzungsbedinungen lesen sollte(…), bevor kritische Daten z.B. auf einem Cloud Storage abgelegt werden. Aber was ist kritisch? Das muss jeder für sich selbst bewerten.


Bildquelle: http://www.heraldsun.com.au

Kategorien
News

Google Wallet wandert in die Cloud

Die neue Version von Google Wallet wandert in die Cloud. Damit soll den Nutzern ein höheres Maß an Sicherheit während der Transaktionen und Einkäufe gewährleistet werden. Zudem wird damit die Kompatibilität zu Kreditkarten von Visa, MasterCard, American Express und Discover sichergestellt. Laut Google sei die Sicherheit der Hauptgrund der neuen Version für die mobile Bezahlplattform. Sie soll dem Nutzer so viele Informationen wie möglich zur Verfügung stellen, damit dieser sicher sein kann, dass die App alles im Griff hat.

Google Wallet wandert in die Cloud

Höhere Sicherheit durch die Cloud

Mit der neuen Google Wallet Version hat Google das technische Verfahren geändert, wie die Kreditkarteninformationen gespeichert werden. Dazu werden diese Information nicht mehr auf dem lokalen Speicher des Smartphones abgelegt, sondern auf den Servern in der Google Cloud. Dazu wird eine Wallet ID (virtuelle Kartennummer) auf dem geschützten Speicherplatz des Smartphones hinterlegt, die dann genutzt wird, um die Transaktionen an der Kasse zu ermöglichen. Google belastet anschließend die hinterlegte Kreditkarte. Damit soll zudem der Integrationsprozess für die Banken erleichtert werden, die nun eine Kreditkarte innerhalb von zwei Wochen mit Google Wallet verknüpfen können.

Nach der Zahlung erhält der Nutzer umgehend einen Überblick über die Transaktion inkl. Namen des Ladens, dem Preis und den gekauften Produkten. Darüber hinaus ermöglicht die neue Google Wallet Version einen historischen Überblick über alle mit Google Wallet bisher getätigten Einkäufe.

Neue App – neues Glück

Die neue Wallet Version steht – für Nutzer aus den USA – bereits in Google Play zum Download bereit. Für die Nutzung ist eine Kreditkartennummer erforderlich.

Sollte das Smartphone gestohlen werden, kann die App auf dem Gerät per Remote-Funktion deaktiviert werden. Anschließen sorgt Google Wallet dafür, dass keine Transaktionen mit diesem Gerät mehr durchgeführt werden können. Kann der Wallet Online Service zudem eine Verbindung mit dem Gerät herstellen, wird die Wallet App automatisch zurückgesetzt, wodurch alle Karten- und Transaktionsdaten lokal gelöscht werden.

NFC ist Voraussetzung

Um Google Wallet zu nutzen ist ein NFC-fähiges Gerät erforderlich. Dazu gehören derzeit das Samsung Galaxy Nexus, HTC Evo 4G, HTC One X, Samsung Galaxy SIII, LG Optimus, das Nexus 7 Tablet und Smartphones und Tablets mit NFC Chip.

Google hat bereits Partnerschaften mit 25 nationalen Einzelhändlern und mehr als 200.000 Läden, die Google Wallet auf Basis des MasterCard PayPass Programm unterstützen.

Laut einer Studie der Markforscher von Juniper Research, ist davon auszugehen, dass bis 2017 ca. 180 Milliarden US-Dollar an NFC-basierten Zahlungen erfolgen werden.

Kategorien
News

Gartner veröffentlicht Cloud Computing Hype Cycle 2012

Auf Basis Cloud-basierender Technologien haben Unternehmen damit begonnen ihr Kaufverhalten zu verändern, wodurch sie neue Lösungen schneller und z.T. kostengünstiger ausrollen können. Gartner warnt jedoch davor, dass Unternehmen ihre on-Premise Lösungen vollständigen aufgeben und alles in die Cloud verlagern. Ein Blick auf den Gartner Hype Cycle for Cloud Computing 2012, zeigt, dass ein Unternehmen die besten Ergebnissen erzielt, wenn es eine eigene Strategie verfolgt und Cloud Computing Technologien nutzt, um sich schneller verändern zu können. Zudem hilft ein Strategie-Framework dabei, die Wahrscheinlichkeit zu erhöhen, die Ziele mit Hilfe der Cloud zu erreichen. Unternehmen die Cloud Computing nur dafür nutzen wollen, um Kosten einzusparen befinden sich demnach auf dem falschen Weg.

Gartner veröffentlicht Cloud Computing Hype Cycle 2012

CloudWashing und Überhöhte Erwartungen der Unternehmen

Nachdem der Hype um das Cloud Computing nachgelassen hat, sorgt das CloudWashing weiterhin für Verwirrung und überhöhte Erwartungen bei den Unternehmen. Das führt zu einer langsameren Adaption, obwohl der einfache Zugriff auf Cloud Ressourcen mehr Pilotprojekte und einen größeren Markt bedeuten könnte. Allerdings nimmt die Anzahl an Anbietern zu, die über echtes Wissen und Cloud Expertise verfügen. Diese überholen langsam diejenigen Anbieter, bei denen das CloudWashing ein Teil der Verkaufsstrategie ist.

Ergebnisse des Cloud Computing Hype Cycle 2012

  • Der Cloud BPM (bpmPaaS) Markt soll von Jahr zu Jahr um ca. 25% wachsen. 40% der Unternehmen die bereits BPM einsetzen, nutzen BPM aus der Cloud. Gartner hat mehr als 30 bpmPaaS Anwendungen und Plattformen identifiziert und hat diese als Model-Driven BPM-Plattform in der Cloud kategorisiert, mit denen Prozess-orientierte Anwendungen der nächsten Generation entwickelt werden sollen, die für Differenzierung und Innovation sorgen werden.
  • Gartner erwartet, dass bis 2014 10% Unternehmen der Unternehmen Cloud E-Mail Lösungen einsetzen werden. 10% weniger als Gartner noch im letzten Hype Cycle prognostiziert hat, da waren es 20%. Wahrscheinlich hat sich Gartner hier nach unten korrigiert, da die Nutzung im Jahr 2011 nur zwischen 5% und 6% lag.
  • Big Data soll den Unternehmen in den nächsten 2 bis 5 Jahren entscheidende Vorteile bringen. Bis 2015 soll Big Data den Unternehmen dabei helfen einen strategischen Vorteil gegenüber des Mitbewerbs zu erhalten. Gartner definiert Big Data dabei als Methode um große Datenmengen, zusätzlich zur Batch-Verarbeitung, fließend zu verarbeiten. Integraler Bestandteil von Big Data ist ein erweiterbares Framework, dass Daten direkt verarbeitet oder diese an einen Prozess-Workflow weiterleitet. Gartner unterscheidet Big Data dabei zusätzlich in strukturierte und unstrukturierte Daten.
  • Master Data Management (MDM) Lösungen aus der Cloud und hybride IT Konzepte sind das erste Mal im Hype Cycle vertreten. Gartner erwartet, dass MDM Lösungen aus der Cloud ein steigendes Interesse in Unternehmen erhält, da das allgemeine Interesse an MDM stetig steigt. Als führende Anbieter in diesem Bereich sieht Gartner Cognizant, Data Scout, IBM, Informatica, Oracle und Orchestra Networks.
  • Laut Gartner gehört Platform-as-a-Service (PaaS) weiterhin zu den am meisten missverstandesten Cloud Computing Konzepten. Die Erwartungen und Erfahrungen von Unternehmen in diesem Marktsegment gehen stetig auseinander. Gartner meint, das dies auf die relativ begrenzten Middleware-Funktionen der Plattformen zurückzuführen sei.
  • Bis 2014 wird die Personal Cloud den Computer (PC, MAC) als zentralen Mittelpunkt unseres digitalen Lebens ersetzt haben.
  • Die Private Cloud gehört zu den beliebtesten Cloud Deployment Modellen. Laut einer Gartner Umfrage planen 75% der Befragten bis 2014 eine Strategie in diesem Bereich. Bereits viele unterschiedliche Unternehmen haben Private Cloud Lösungen in Pilot-Projekten und im produktiven Betrieb im Einsatz. Dabei ist das Hauptziel, für sich den größten Nutzen aus der Virtualisierung zu ziehen.
  • Software-as-a-Service (SaaS) Lösungen finden schnell Einzug in die Unternehmen. Gartner schätzt, dass über 50% der Unternehmen bis 2015 SaaS-basierte Anwendungen in ihrer Strategie haben. Gründe für diese Annahmen sind, dass Unternehmen verstärkt auf eine bessere Beziehung zu ihren Kunden setzen und auf Basis von Analysen diese besser verstehen können. Neben geringeren IT-Budgets, sind es vor allem strategische Entscheidungen und der Wunsch nach einer effizienteren IT, warum Unternehmen in die Cloud gehen werden.
  • Mehr als 50% aller virtualisierten Workloads basieren auf der x86 Architektur. Gartner erwartet, dass dies bis 2015 auf 75% ansteigen wird.

Fazit

Gartners jüngster Cloud Computing Hype Cycle zeigt, dass Unternehmen Cloud Computing nur mit einer gut durchdachten Strategie, welche die Unternehmens- als auch die IT-Strategie einbezieht, einsetzen sollten, um damit einen wertvollen Beitrag zu erhalten.

Ob alles so kommen wird, wie es Gartner voraussagt, bleibt abzuwarten. Die Korrektur der Cloud E-Mail Adaption um immerhin 10% zeigt, dass auch deren Orakel nicht immer funktioniert. Ich gehe zudem davon aus, dass die Personal Cloud den heimischen Computer bis 2014 nicht vollständig ablösen wird. Zwei Jahre sind zu kurzfristig gedacht. Richtig ist, dass immer mehr Anwendungen und Daten in die Cloud wandern. Dennoch zeigen beliebte Lösungen wie Dropbox, dass die meisten Nutzer lieber hybride Varianten bevorzugen, um einen Datenbestand weiterhin als lokale Sicherung benötigen. Zudem gibt es immer noch sehr viele Nutzer, die sich der Cloud gegenüber kritisch äußern. Diese nutzen zwar Cloud Services, aber verlassen sich in erster Linie doch (noch) lieber auf die eigene on-Premise Lösung.

Kategorien
News

internet4YOU eröffnet Cloud Marketplace für Business-Anwender und Web-Entwickler

Neben einem kompletten Relaunch seiner Webseite hat der Managed Hosting Provider internet4YOU heute seinen Cloud Marketplace eröffnet. Über das neue Web-Portal unter www.internet4you.de, erhalten Unternehmen und Web-Entwickler Zugriff auf Cloud Ressourcen, die sie nach Bedarf aus dem Infrastructure-as-a-Service (IaaS) Angebot von internet4YOU beziehen können. Neben virtuellen Servern lassen sich ebenfalls komplette Business-Applikationen über den Marktplatz nutzen, die in wenigen Minuten zur Verfügung stehen und pro Stunde abgerechnet werden.

internet4YOU eröffnet Cloud Marketplace für Business-Anwender und Web-Entwickler

Infrastruktur und Business-Applikationen

Neben einzelnen Cloud Servern, lassen sich über den Cloud Marketplace komplette Serverinfrastrukturen für komplexe Anwendungen inkl. Firewall, Load-Balancer und automatischer Skalierung erstellen. internet4YOU geht zudem davon aus, dass speziell Web-Entwickler die angebotenen Möglichkeiten des Marktplatz nutzen werden. Weiterhin steht eine Auswahl von Open-Source Business-Applikationen bereit. Insbesondere hier ist internet4YOU offen für Kooperationen mit Softwareherstellern, die ihre Lösungen auf dem Cloud Marketplace anbieten können. Der erste große Fisch heißt Microsoft. Neben Linux-Servern, wird der Marketplace in Zukunft auch Windows Server anbieten.

Pay-as-you-go. Wie es sich gehört!

Bei der Abrechnung der Ressourcen setzt internet4YOU, lobenswerter Weise, auf das Pay-as-you-go Modell. Das bedeutet, dass nur die Ressourcen – pro Stunde – berechnet wurden, die ein Kunde auch tatsächlich in diesem Zeitraum genutzt hat. Gezahlt wird Public Cloud typisch per Kreditkarte. 1 CPU Core und 1 GB RAM kosten jeweils 6 Cent pro Stunde. 1 GB Festplattenspeicherplatz kann für 13 Cent pro Monat genutzt werden.

Rechenzentren mit deutschen Standorten

Gute Nachrichten für alle Datenschutzbesorgten unter uns. Die Server, die sich hinter dem Cloud Marketplace befinden, stehen in den vier deutschen Rechenzentren von internet4YOU. Um das Vertrauen in die Cloud zu stärken hat das Unternehmen, nach eigenen Angaben, sich maximale Transparenz auf die Fahnen geschrieben. Geschäftsführer Gihan Behrmann: „Wer unsere Cloud genauer unter die Lupe nehmen möchte ist herzlich zu einer Rechenzentrumsbesichtigung eingeladen. Für viele Kunden ist es beeindruckend zu sehen, welchen Aufwand wir betreiben, um sicheres Cloud Computing zu ermöglichen.“ Na, das Angebot nehmen wir doch gerne an!

Cloud Business Marktplätze sind ein logischer Trend

Cloud Marketplaces gehören zu der logischen Entwicklung des Cloud Computing, um Unternehmen und Entwicklern den einfachen Zugriff auf IT-Ressourcen zu ermöglichen. Neben einer gut dokumentierten API gehören ebenfalls übersichtliche und umfangreiche Web-Oberflächen zu einem guten Cloud Angebot, die es dem Nutzer ermöglichen sich „auch mal eben“ eine Cloud Infrastruktur „zusammenzuklicken“, um z.B. ein paar Tests durchzuführen. Bereits viele Anbieter sind auf diesen Zug aufgesprungen und ermöglichen über einen eigenen Cloud Marktplatz den Zugriff auf ihre IaaS-Ressourcen. Zudem reichern sie ihre Infrastruktur-Angebote über den Marktplatz mit Betriebssystem-Images oder weiteren Software-Lösungen an, um den virtuellen Ressourcen damit einen echten Nutzen zu geben.

Unternehmen können sich einen Cloud Marketplace vorstellen wie mehrere Regal in einen quasi unendlich großen Supermarkt. Und genau so sollten sie ihn auch nutzen, um sich ihre Infrastruktur beliebig zusammenzubauen. Spannend wird es, wenn wir einen Schritt weitergehen und die Ressourcen und Lösungen nicht mehr nur von einem einzigen Anbieter beziehen, sondern über mehrere Anbieter und ihre Marktplätze, wo wir uns dann beim Thema Cloud Brokerage Services befinden.

Kategorien
Analysen

Vorteile und Nachteile von Open-Source Cloud Computing Lösungen

Open-Source Cloud Frameworks haben in den vergangenen Monaten einen riesen Hype erlebt. Die vermeintlich großen Player wie Rackspace, HP, VMware und Citrix sorgen für die finanzielle Unterstützung von Lösungen wie OpenStack oder CloudStack und lassen unaufhörlich ihre Marketingkampagnen laufen. Dabei verfolgen alle genannten nur ein Ziel: Den Cloud Computing Krösus Amazon Web Services vom Thron zu stoßen. Allerdings müssen sich die Open-Source Anbieter die Frage gefallen lassen, ob ihre Technologien bereits für den Einsatz im Unternehmen taugen.

Vor- und Nachteile von Open-Source Clouds

Open-Source Cloud-Implementierungen gibt es erst seit ein paar Jahren und haben bis jetzt noch nicht ausreichend Anwendungsfälle im produktiven Betrieb. Obwohl eine Reihe von Early-Adoptern aus dem Telkosektor, Finanzdienstleister und wissenschaftliche Einrichtungen bereits Alternativen in Open-Source Cloud Systeme suchen, ist die Vielzahl an Unternehmen darüber nicht informiert. Es lohnt sich daher mal einen Blick auf die Vor- und Nachteile zu werfen.

Vorteil: Flexibilität

Per Definition bieten Open-Source Clouds ein höheres Maß an Flexibilität als der proprietäre Mitbewerb. Statt sich einfach nur mit dem Lesen von Anleitungen zufrieden zugeben oder an Schulungen teilzunehmen, können Nutzer selbst Änderungen an dem Code vornehmen und sich selbst mit eigenem Code an verschiedenen Projekten beteiligen. Zudem können sie eigene Projekte starten, eigene Dokus zur Verfügung stellen oder Seminare abhalten. Interaktionen mit der Gemeinschaft und der damit verbundenen Weiterbildung ermöglichen dem Anwender mehr Flexibilität bei der Gestaltung ihres Cloud-Designs und fördert innovative interne oder externe Lösungen.

Vorteil: Vendor Lock-In

Ein Argumente der Open-Source Cloud Community ist die Prävention vor einem Vendor Lock-in. Die Argumente sind einfach. Wird eine Cloud auf Basis einer offenen und weit verbreiteten Open-Source Technologien aufgebaut, hat kein Anbieter die Möglichkeit die volle Kontrolle über das Open-Source Framework zu erhalten. Damit können Anwender schneller auf die Entwicklung der Technologien im Rahmen des Open-Cloud Stacks reagieren. Darüber hinaus geben Open-Source Clouds dem Nutzer die Freiheit, seine Cloud an seine individuellen Bedürfnisse und Unternehmensziele anzupassen, statt diese anhand einer einzigen proprietäre Lösung aufzubauen.

Vorteil: Einsparung

Open-Source Software ermöglicht auf Grund seiner Lizenzierung die kostenlose Nutzung und hat damit preislich einen enormen Vorteil gegenüber dem kommerziellen Mitbewerb. Egal ob sich ein Nutzer nun für ein reines Open-Source Angebot oder für eine kommerzielle Open-Source Lösung entscheidet, wird er im Vergleich zu einer proprietären Software Kosten sparen können. In jedem Fall besteht für jedes Unternehmen die Möglichkeit, durch Open-Source Software, bei gleichzeitiger Erhöhung der Flexibilität, die Kosten zu senken, was einen Gewinn für jede Organisation darstellt.

Vorteil: Kontrolle, Offene Standards, APIs

Eine Open-Source Cloud setzt auf offene Standards und APIs und wird nicht von einem einzigen Hersteller kontrolliert. Das erlaubt es Unternehmen, die Kontrolle über die darunter liegende Hardware Infrastruktur und Managementplattform zu behalten, unabhängig davon, um welche Technologie es sich handelt. Des Weiteren ermöglichen offene APIs eine bessere Integration in bestehende offene oder proprietäre Lösungen, womit sichergestellt wird, dass aktuelle IT-Investitionen innerhalb der neuen Architektur weiterhin relevant sind.

Vorteil: Portabilität

Baut man seine Cloud auf Basis von Open-Source auf, sollte man immer schauen, wie es mit der Interoperabilität zu anderen Public, Private oder Hybrid Cloud Lösungen ausschaut. Entscheidet man sich für eine offene Technologie erhält man damit ein höheres Maß an Portabilität innerhalb des großen Cloud Ökosystems. Anstatt ihre eigenen Möglichkeiten auf proprietäre Technologien zu beschränken, können sich Nutzer an unterschiedlichen Open-Source Cloud Technologien bedienen und damit ihre IT-Entscheidungen unterstreichen und die eigenen Bedürfnisse und Unternehmensziele damit unterstützen.

Nachteil: Mangel an Unterstützung

Anwender die sich dafür entscheiden, ihre Cloud auf reiner Open-Source Software aufzubauen, begeben sich bzgl. Support in die Abhängigkeit des Open-Source Projekts. Das kann ganz schön zäh und schmerzhaft werden. Denn der Support kommt hier anhand von Foren, Chats, Q&A Systemen und Bug-Tracking Systemen von der Crowd. Zudem sollte man sich als Nutzer aktiv in der Community beteiligen und etwas dazu beitragen, was in der Welt der kommerziellen Software nicht notwendig ist. Auf der anderen Seite kann man sich für kommerzielle Open-Source Cloud Lösungen entscheiden, die für professionellen Support sorgen.

Nachteil: Kosten

Zwar haben Open-Source Lösungen auf Grund der in der Regel kostenlosen Lizenzen, im Vergleich zu kommerzieller Software, einen Kostenvorteil, allerdings gibt es auch hier Kosten die nicht zu vernachlässigen sind. Zum einen wird für den Aufbau einer Open-Source Cloud ein nicht zu unterschätzendes Wissen für die Entwicklung benötigt. Zum anderen müssen auch die Administratoren für einen einwandfreien Betrieb der Infrastruktur sorgen, wofür intensive Kenntnisse für die Verwaltung und Wartung der Lösung erforderlich sind. Darüber hinaus wird externes Fachwissen in Form von Beratung oder Entwicklung-Ressourcen benötigt.

Nachteil: Reifegrad

Je schneller sich das Open-Source Cloud Ökosystem entwickelt, kann sich ein Anwender nicht zwangsläufig darauf verlassen, das und wie lange ein Open-Source Projekt bestand hat. Wenn sich ein Cloud Architekt während des Designs einer Open-Source heute für eine bestimmte Technologie entscheidet, kann es durchaus passieren, das ihn diese in Zukunft einholen wird, da das Projekt eingestellt und nicht mehr weiterentwickelt wird. Mit den stetig steigenden Open-Source Projekten und unterschiedlichen Ansichten ist es für den Anwender zunehmend schwieriger geworden sich für den „richtigen“ Weg zu entscheiden.

Fazit

Entscheider die sich für eine Cloud Infrastruktur entscheiden wollen diese hochverfügbar, einfach zu bedienen und so agil, dass sie sich mit den Bedürfnissen der Unternehmensziele verändert. Es ist daher entscheidend, dass sich ein Entscheider zunächst über die Unternehmensziele im klaren ist und sich mit seiner bestehenden IT-Infrastruktur auseinandersetzt, bevor er über den Aufbau einer Open-Source oder proprietären Cloud Infrastuktur nachdenkt. Möglicherweise kann man auch zu dem Ergebnis kommen, dass eine eigene Cloud für das Unternehmen keinen nennenswerten Vorteil bietet und andere Möglichkeiten evaluiert werden müssen.

Sollte die Entscheidung zu Gunsten einer Open-Source Cloud Lösung fallen, macht es durchaus Sinn eine kommerzielle Open-Source Software in Betracht zu ziehen, hinter der ein Unternehmen steht, das für die Kontinuität des Projekts und eine klare Richtung sorgt und darüber hinaus professionellen Support bietet. Damit kann das Risiko einer Open-Source Cloud Lösung deutlich minimiert werden.


Bildquelle: https://new.edu

Kategorien
Events

Event-Tipp: CloudOps Summit 2012 – Cloud Computing auf der nächsten Ebene

Die Grundsatzdiskussionen um das Thema Cloud Computing sind vorbei. Der CloudOps Summit 2012 im September wird zeigen, wie Unternehmen Cloud Services nutzen müssen und welche Auswirkungen dies auf den laufenden Betrieb hat. Nach der ersten Veranstaltung im letzten Jahr, findet der zweite CloudOps Summit am 20. September 2012 erneut im Hörsaalzentrum am Campus Westend, Universität Frankfurt, statt. Die kostenlose Cloud Konferenz richtet sich an CIOs, CFOs, CTOs, Architekten und Betriebsverantwortliche, die das Potenzial des Cloud Computing für ihr Unternehmen erkannt haben und sich anhand von anwendungsbezogenen Themen informieren wollen.

Cloud, Big Data, Skills

Auf der Agenda stehen neben Themen zur Integration von existierenden Anwendungen in die Cloud, ebenfalls Big Data Diskussionen und der Aufbau von Cloud-Architekturen. Ein weiteres Thema richtet sich an den kommenden Wandel der Arbeitswelt durch Cloud Computing und welche Auswirkungen dieses auf die Mitarbeiter hat. Referenten, unter anderem von arago, Amazon Web Services, EMC, Interxion, Logica und syngenio stellen ihre Themen in Workshops und fünfminütigen Lightning Talks vor. Bis zum 15. August ist der „Call for Papers“ noch geöffnet, bei dem Interessierte einen eigenen Lightning Talk oder Workshop zu einem Cloud-Projekt einreichen können.

Kostenlos und Qualitativ

Die Teilnahme am CloudOps Summit 2012 ist kostenlos. Unter www.cloudops.de sind aktuelle Informationen zur Veranstaltung sowie Anmeldemöglichkeiten für Teilnehmer, Sprecher und Sponsoren abrufbar. Echtzeit-Nachrichten vom Event, einschließlich der Vorträge und Workshops, können Interessenten zudem über Twitter unter @CloudOps_Summit verfolgen. In diese Jahr hat der CloudOps Summit unter http://cloudops.de/blog zudem einen eigenen Blog mit Informationen, Meinungen und Analysen zu aktuellen Cloud Themen.

Kategorien
Kommentar

Der Feind ist mitten unter uns: Das ETSI will den vermeintlich sicheren Cloud Hafen Europa zerstören

Europa verliert seinen Status als vermeintlich sicherer Hafen für Cloud Services. Die Zeiten, in denen Berater, Rechtsanwälte und Datenschützer den Finger vor den Bösen USA heben können sind vorbei. Der Feind ist Mitten unter uns und heißt ETSI (European Telecommunications Standards Institute).

Europa und Datenschutz… Kinder das waren noch Zeiten!

Werden wir wahrscheinlich unseren Kindern und Enkeln erzählen. Lange galt Europa als das Vorbild, wenn es um den Datenschutz ging. Die erste Frage die sich ein Cloud Anbieter von Beratern, Analysten und Kunden gefallen lassen musste war, ob er denn auch ein Rechenzentrum in Europa betreibe. Denn hier kommen die „bösen“ USA schließlich nicht an die Daten ran. Aus und vorbei. Geht es nach der ETSI, sind wir alle bald weltweit gleich gestellt, sei es in den USA, Asien, Afrika und ja, sogar in EUROPA!

Wie das ZDF bzw. ORF-Journalist Erich Moechel schreiben, will das ETSI „eine geheime Hintertür für die Cloud“. Dabei soll es darum gehen, den Sicherheitsbehörden das Abhören und Überwachen von Kommunikationsdaten in der Cloud zu erleichtern. Das soll neben Angeboten wie Facebook, Twitter usw. ebenfalls Unternehmensangebote wie die Amazon Web Services, Microsoft Windows Azure und andere Anbieter betreffen. Dazu habe sich das ETSI eine Backdoor überlegt, um unkompliziert den unautorisierten Zugriff zu ermöglichen.

SSL wird ausgehebelt

Bei der ETSI Idee handelt es sich, wie sonst oft diskutiert, allerdings nicht um rechtliche Themen wie bspw. dem „Patriot Act“. Hier geht es um reine Technik. Das ETSI will eine Schnittstelle definieren, mit der europäische Sicherheitsbehörden Zugriff auf die Cloud Services der Anbieter erhalten. Die ETSI-Arbeitsgruppe “TC Lawful Interception” stellt sich die Umsetzung so vor, dass die Internet-Anbieter sämtlichen Verkehr standardmäßig umleiten. Nutzt ein Anwender eine verschlüsselte HTTPS-Verbindung (was mittlerweile Standard ist), soll der Datenverkehr auf spezielle Server in das Rechenzentrum des Internet-Anbieter umgeleitet werden. Hier sollen die Sicherheitsbehörden dann den Zugriff auf die Daten erhalten. Um das zu realisieren, müssen die entsprechenden SSL-Zertifikate ausgehebelt werden. Der ETSI geht es nach eigenen Angaben nur um die Erfassung der Datenkommunikation und nicht um die Kontrolle der Inhalte. Der britische Sicherheitsspezialisten und Leiter des Computer Laboratory der Universität Cambridge Ross Anderson hingegen schreibt nach einer Analyse des ETSI-Entwurfs allerdings: „Wenn man die Infrastruktur baut, auf die sich das ETSI geeinigt hat, kann diese für Überwachungsaktivitäten genutzt werden.“

Willkommen Private Cloud

Wird die Idee Realität ist das Vertrauen in die Public Cloud zerstört und Public Cloud Services – die für das Cloud Computing in Reinform stehen – wären demnach tod! Interessant ist, dass die Marktforscher von Gartner für 2012 ein großes Wachstum in der Public Cloud sehen. Zudem sollen die Ausgaben für Enterprise Public Cloud Services bis 2016 die 207 Milliarden US-Dollar erreichen.

Ziehen wir diese neue Entwicklung heran, wird Gartner seine Prognosen wohl herunterschrauben müssen. Die Bedenken von CIOs, Public Cloud Services zu nutzen, sind derzeit eh schon höher als gedacht. Der Hauptgrund sind die Befürchtungen vor Datenlecks in der Public Cloud. Deutsche Unternehmen werden die Gedanken der ETSI ebenfalls nicht gerne hören. Eine Umfrage von IDC ergab vor kurzem, das ein Drittel der befragten deutschen Unternehmen in 2013 zwischen 26% – 50% ihres IT-Budget in die Private Cloud investieren wollen. Allerdings interessieren sich 90% der Unternehmen nicht(!) für die Public Cloud.


Bildquelle: http://mully1.wordpress.com

Kategorien
News

Microsoft erklärt den Grund für den Ausfall von Windows Azure in der Region "West Europe"

Microsoft hat gestern weitere Informationen zu dem 2-stündigen Ausfall von Windows Azure in Europa in der letzten Woche bekanntgegeben. In einer ersten Stellungnahme am Tag nach dem Ausfall berichtete Microsoft von einer fehlerhaften Netzwerkkonfiguration, die zu den Problemen geführt haben soll.

Fehlkonfiguration und Nachrichtenflut

In einem weiteren Blogbeitrag erklärt Windows Azure General Manager Mike Neil, dass Microsoft weitere Rechenkapazitäten hinzufügen wollte, um die steigende Nachfrage in der Sub-Region „West Europa“ zu befriedigen. Allerdings wurde das Limit der für die neuen Kapazitäten benötigten „Devices“ nicht angepasst. Da die Last auf diesen Cluster plötzlich stark Anstieg, wurde der Grenzwert schnell überschritten, was zu einer großen Anzahl von Netzwerkmanagement-Nachrichten führte. Die erhöhten Managementdaten lösten wiederum Fehler in der Hardware des Clusters aus, wodurch die CPU-Auslastung auf 100% anstieg.

Cloud Computing ist eine Frage des Vertrauens und der Transparenz

Mit dem Stand heute haben wir für das Jahr 2012 zwei Spitzenreiter bei den Public Cloud Ausfällen. Platz eins teilen sich Amazon (3) und Salesforce (3), gefolgt von Microsoft (2). Das Ausfälle immer mal wieder vorkommen werden, daran sollte man sich höchstwahrscheinlich gewöhnen. Denn eine 100% Verfügbarkeit gibt es nun einmal nicht. Und jeder Anbieter, der eine 100% Verfügbarkeit verkauft, DER LÜGT! Warum? Ganz einfach, wie bei einigen Amazon Ausfällen, als auch dem letzten Microsoft Ausfall ist u.a. menschliches Versagen Schuld an dem Ausfall. Menschen machen Fehler.

Cloud Computing Anbieter müssen daher dafür sorgen, dass ihre Dienstleistungen und vor allem die Art wie sie arbeiten transparent ist. Das schließt die zeitnahe und umfangreiche Analyse aber vor allem die uneingeschränkte öffentliche Kommunikation während eines Ausfalls ein. Transparenz ist im Cloud Computing enorm wichtig für ein Unternehmen, dass seine Daten einem Anbieter anvertraut und bei dem die Daten vermeintlich auf dem selben physikalischen System gespeichert sind wie die eines Mitbewerbers. Denn Transparenz schafft Vertrauen!


Bildquelle: http://haymarket.net.au

Kategorien
News

openQRM 5.0 erscheint mit überarbeiteter Benutzeroberfläche und neuem Dual-Lizenzmodell

Wie bereits Anfang Juni hier auf CloudUser angekündigt, hat die openQRM Enterprise GmbH mit openQRM 5.0 die nächste Generation ihrer Infrastructure-as-a-Service- (IaaS) und Cloud Computing Management Lösung veröffentlicht. Zudem wird ein neues duales Lizenzmodell präsentiert, das es Unternehmen ermöglicht, professionellen Support aus erster Hand zu erhalten und damit ihre Investitionen in eine Open-Source Datacenter-Management-Plattform langfristig zu sichern.

openQRM 5.0 erscheint mit überarbeiteter Benutzeroberfläche und neuem Dual-Lizenzmodell

Komplett neue Benutzeroberfläche

openQRM 5.0 wurde weitgehend umgeschrieben, wobei nicht nur äußerliche Änderungen an dem IaaS- und Cloud-Builder vorgenommen wurden. Neben der Umstellung der graphischen Benutzeroberfläche auf das Model-View-Controller-Konzept wurden zudem alle openQRM-Plugins neu geschrieben und mit weiteren Funktionen ausgestattet. Als weitere Erneuerung steht nun ein komplett neues Cloud-Portal zur Verfügung, sowie Postgres als weitere Backend-Datenbank neben MySQL.

openQRM 5.0 wurde darüber hinaus so erweitert, dass alle weltweit möglichen Sprachen unterstützt werden können. Als Standardsprachen unterstützt openQRM 5.0 ab sofort Englisch und Deutsch, das Cloud-Portal zusätzlich noch Spanisch, Niederländisch, Französisch und Italienisch.

Um den Administrator zu zeigen, welche Aktionen das System aktuell im Hintergrund durchführt, hat openQRM 5.0 eine Statusanzeige für „Active Events“ erhalten, die der Admin jederzeit einsehen kann.

Neben der webbasierten Benutzeroberfläche bietet openQRM 5.0 dem Nutzer nun auch einen vollwertigen Kommandozeilen-Client, mit dem die Management-Plattform innerhalb einer Terminal-Sitzung kontrolliert oder mit weiteren Anwendungen integriert werden kann.

Alle weiteren Erneuerungen befinden sich im Change-Log zu openQRM 5.0 unter http://www.openqrm-enterprise.com/de/ueber-openqrm/changlog-50.html.

Dual-Lizenzmodell für professionellen Support

Mit openQRM 5.0 ändert sich aufgrund verstärkter Nachfrage der Kunden das Lizenzmodell. Neben der bereits vorhandenen Open-Source-Version (GPL 2.0) können Unternehmen zusätzlich eine Enterprise-Version erwerben. Diese bietet neben erweiterten, unternehmensrelevanten Funktionen, ebenfalls professionellen Support durch die openQRM Enterprise GmbH.

In den letzten Jahren vermehrten sich die Anfragen von Kunden nach professionellem Support und Enterprise-Lizenzen, aber vor allem nach weiteren Feature-Wünschen. Darüber hinaus ist die Anzahl der Support-Anfragen angestiegen. Aus diesem Grund hat sich die openQRM Enterprise GmbH dafür entschieden das Lizenzmodell zu ändern, um diesen Anfragen weiterhin professionell gerecht zu werden. Professionelle Anwender erhalten mit der neuen Enterprise-Version somit ein kommerziell lizensiertes Produkt, inklusive der damit einhergehenden Investitions- und Updatesicherheit, Produktgewährleistung und professionellem Support. Kunden mit bestehenden Serviceverträgen (SLA) werden automatisch von der neuen Version profitieren und erhalten alle nötigen Lizenzen für openQRM Enterprise 5.0.

Die Community-Version von openQRM 5.0 wird von der Änderungen ebenfalls profitieren. Die freie Version von openQRM 5.0 erscheint wie bislang auch unter der GPLv2-Lizenz und wird weiterhin stetig verbessert werden. Zudem will die openQRM Enterprise GmbH die Qualität der Dokumentation, HowTos und Videos – auf welche die Community kostenlos Zugriff erhalten wird – fortlaufend steigern.

Weitere Informationen zur Community- und Enterprise-Version von openQRM 5.0 und deren Unterschiede sind auf http://openqrm-enterprise.com/products-service/version-comparison.html zu finden.