Kategorien
Comment

Amazon Web Services (AWS) may use Eucalyptus to build CIAs private cloud

More and more rumors appear that Amazon is building a private cloud for the CIA for espionage activities. The first question that arises here is why for an intelligence? Second, why Amazon AWS as a public cloud provider, because they are a service provider and not a software company. But, if we think a little further, Eucalyptus immediately comes into play.

The Amazon deal with the CIA

According to Federal Computer Week, the CIA and the Amazon Web Services (AWS) have signed a $ 600 million contract with a term of 10 years. The background is that Amazon AWS should build a private cloud for the CIA on the governments infrastructure. More information are not available yet.

However, the question is why the CIA has asked Amazon. Is there more behind the $$$? Amazon is one of the few companies that have the knowledge and staff to successfully operate a cloud infrastructure. Despite some preventable injuries, the infrastructure is designed to be extremely rugged and smart. However, Amazon has a downside. They are a service provider, not a software vendor. That means they do not have the experience on how to unroll software, provides customers with updates and more. Moreover, they are likely or hopefully not use the same source code for the cloud of the CIA.

Now a cooperation might come into play, which Amazon received some time ago with Eucalyptus. This could solve the problem of the lack of software for on-premise clouds and experience with maintenance, software fixes etc. for customers.

The cooperation between Amazon AWS and Eucalyptus

In short, Eucalyptus is a stand-alone fork of the Amazon cloud. With that you are able to build your own cloud with the basic features and functions of the Amazon cloud.

Amazon Web Services and the private cloud infrastructure software provider Eucalyptus announced in March 2012, to work more closely in the future to support the better migration of data between the Amazon cloud and private clouds. Initially, developers from both companies will focus on creating solutions to help enterprise customers to migrate data between existing data centers and the AWS cloud. Furthermore, and even more important is that the customer should be able to use the same management tools and their knowledge for both platforms. In addition, the Amazon Web Services will provide Eucalyptus with further information to improve the compatibility with the AWS APIs.

Amazon Eucalyptus private cloud for the CIA

Such cooperation could now bear fruits for both Amazon and Eucalyptus. Because of the very close similarity of Eucalyptus to the Amazon cloud, there is already a ready and directly usable cloud software that Amazon knows and can bring his knowledge with. Services that Eucalyptus supports not yet but needed by the CIA can be reproduced successively. This in turn could help Eucalyptus in their development by either flow back knowledge from the development or even parts of services in the general product.

PS:

I have my problems with the seemingly official cooperation between Amazon and the CIA. A keyword here is trust what Amazon through the cooperation with an intelligence not further promotes.

Kategorien
Analysen

Die Cloud steht für die maximale flexible Vernetzung der Welt und unserer Gesellschaft

Redet man von der Cloud, fallen einem direkt die Schlagworte Skalierbarkeit, Verfügbarkeit und Flexibilität ein. Mit einem Blick auf die jüngsten und zukünftigen Entwicklungen, lässt sich damit aber ebenfalls ein anderer Zusammenhang feststellen, den ich bereits während meines Vortrags auf dem Webmontag Frankfurt vorgestellt habe. Von einem anderen Blickwinkel betrachtet steht die Cloud für die maximale flexible Vernetzung vieler unterschiedlicher Bereiche, die heutzutage so sonst gar nicht vorstellbar wären.

Die Cloud steht für die maximale flexible Vernetzung der Welt und unserer Gesellschaft

Die Cloud umhüllt das Internet

Eigentlich steht die Cloud sinnbildlich für das Internet. Das Wort Cloud ist aus der Illustration der Netzwerktechnik abgeleitet, in der das Internet immer als Wolke (Cloud) dargestellt wird. Das hängt damit zusammen, dass es sich beim Internet um ein globales, dezentralisiertes Netz handelt, welches aus vielen lokalen und nationalen Netzen besteht, die miteinander verbunden sind. Wie Daten innerhalb des Internets ausgetauscht werden, ist von außen nicht direkt sichtbar. Da auf sämtliche Daten und Anwendungen im Sinne des Cloud Computing über das Internet zugegriffen wird, steckt nun alles in der Wolke.

Betrachtet man nun aber die Entwicklung vieler IT-Trends aus der jüngeren Vergangenheit und das, was uns noch bevorsteht, ist die Cloud viel mehr als nur das Internet. Die Cloud ist im Grunde genommen der Mehrwert, von dem das Internet, wie wir es heute kennen und nutzen, lebt. Nehmen wir hier das Beispiel Smartphones. Ohne die Cloud hätten wir lange nicht so viel Spaß damit wie wir es heute haben. Wir wären nicht in der Lage miteinander ortsunabhängig zu chatten, uns mitzuteilen oder Dinge zu teilen. Ebenso speichern die meisten Apps, die wir auf unseren Smartphones nutzen, ihre Daten in der Cloud. Nehmen wir als ein weiteres Sub-Beispiel für das Smartphone den Bereich Augmented Reality. Also die Echtzeit-Darstellung von Mehrwert Informationen eines Objektes, das wir durch die Kamera des Smartphones sehen. Augmented Reality Apps speichern die Mehrwert-Information nämlich nicht auf dem lokalen Endgerät – dafür haben die Geräte viel zu wenig Speicherplatz – sondern laden die Daten bei Bedarf zur Laufzeit aus der Cloud. Diese Beispiele zeigen, dass erst die Cloud diese Entwicklung ermöglicht.

Die Cloud ist nicht das Internet

Die Cloud ist nicht das Internet. Die Cloud ist eine Schicht, die das Internet umhüllt und auf Basis ihrer Services für eine maximale flexible Vernetzung sorgt. Es sind die Services der Cloud- und weiterer Anbieter aus diesem riesigen Ökosystem, die zu immer mehr Services führen und für eine immer stärkere Vernetzung sorgen.

Und es geht immer weiter

Schauen wir ein kurzes Stück in die Zukunft, sehen wir den nächsten Mega-Trend schon auf uns zurollen, der sich auch bereits seit mehreren Jahren entwickelt und ohne die Cloud nicht möglich wäre. Das Internet of Things, bei dem alles mit jedem vernetzt ist und kommuniziert. In erster Instanz bedeutet das Internet of Things die Kommunikation von Maschine zu Maschine. Das Auto merkt z.B., dass man in 5 Minuten zu Hause ist und direkt den Kaffeevollautomaten einschaltet. Aber natürlich sprechen wir in diesem Zusammenhang auch von Service to Service Kommunikation, da schließlich auf den Maschinen auch Services laufen, welche die Informationen austauschen.
Ein weiterer sehr wichtiger Trend bzw. Markt sind die Smart-Grids (Das intelligente Stromnetz). Der Begriff Smart Grid bezeichnet die kommunikative Vernetzung und Steuerung von Stromerzeugern, Speicher, elektrischen Verbrauchern und Netzbetriebsmitteln in Energieübertragungs- und -verteilungsnetzen der Elektrizitätsversorgung. Damit soll eine Optimierung und Überwachung aller miteinander verbundenen Bestandteile ermöglicht werden. Das Ziel besteht in der Sicherstellung der Energieversorgung auf Basis eines effizienten und zuverlässigen Systembetriebs.

Am Ende sind es aber auch wir Menschen, die mit den Maschinen und Services kommunizieren, um eine bestimmte Aktion durchzuführen, denn das Smarthome ist schon lange keine Zukunftsidee mehr. Es hat auf Grund der Kosten jedoch noch keine große Verbreitung. Aber hier entwickelt sich auch auf Grund der Cloud ein neuer Markt, der günstigere und vor allem intelligentere Angebote hervorbringt. (Mehr dazu im Video.)

Unterm Strich muss man daher sagen, dass die Cloud als umfassendes IT-Konzept wahrscheinlich den größten Einfluss auf unsere Gesellschaft hat, wie kein anderer Trend zuvor.

Video: Webmontag Frankfurt

Cloud – Big Data – … oder wie finde ich einen Use Case from wmfra on Vimeo.

Kategorien
Kommentar

Die Amazon Web Services (AWS) nutzen möglicherweise Eucalyptus für den Bau der CIA Private Cloud

Es verdichten sich immer mehr die Gerüchte, dass Amazon für die CIA eine eigene Private Cloud für die Spionage bauen soll. Die erste Frage die sich dabei stellt ist natürlich warum für einen Geheimdienst? Die zweite, warum Amazon AWS als Public Cloud Anbieter, die Serviceanbieter und kein Softwareanbieter sind. Denkt man ein wenig weiter, kommt sofort Eucalyptus ins Spiel.

Der Amazon Deal mit der CIA

Laut der Federal Computer Week, haben die CIA und die Amazon Web Services (AWS) einen 600 Millionen Dollar schweren Vertrag mit einer Laufzeit von 10 Jahren abgeschlossen. Dabei geht es darum, dass Amazon AWS für die CIA eine Private Cloud auf der Infrastruktur der Regierung bauen soll. Viel mehr Informationen gibt es derzeit nicht.

Stellt sich dennoch die Frage, warum die CIA Amazon gefragt hat. Steckt hinter den $$$ noch mehr? Eines ist klar. Amazon gehört zu den wenigen Unternehmen, die über die Kenntnisse und Mitarbeiter verfügen, um sehr erfolgreich eine Cloud Infrastruktur zu betreiben. Trotz manch vermeidbarer Ausfälle, ist die Infrastruktur als äußerst robust und smart entwickelt einzuschätzen. Allerdings hat Amazon einen Nachteil. Sie sind Serviceanbieter und kein Softwareanbieter. Das bedeutet sie haben keine Erfahrung damit, wie man Software ausrollt, Kunden mit Updates usw. versorgt. Zudem werden sie wahrscheinlich bzw. hoffentlich nicht den selben Quellcode für die Cloud der CIA verwenden.

Hier könnte nun aber eine Kooperation ins Spiel kommen, die Amazon vor längerer Zeit mit Eucalyptus eingegangen ist und damit das Problem der nicht vorhandenen Software für on-Premise Clouds und die Erfahrung mit der Wartung usw. von Software für Kunden behebt.

Die Kooperation zwischen Amazon AWS und Eucalyptus

Kurz zusammengefasst handelt es sich bei Eucalyptus um einen eigenständigen Fork der Amazon Cloud, mit dem eine eigene Cloud mit den grundlegenden Eigenschaften und Funktionen der Amazon Cloud nachgebildet werden können.

Die Amazon Web Services und der Private Cloud Infrastruktur-Software Anbieter Eucalyptus haben im März 2012 angekündigt, in Zukunft enger zusammenarbeiten, um die Migration von Daten zwischen der Amazon Cloud und Private Clouds besser zu unterstützen. Dabei ist die Kooperation unterschiedlich aufgebaut. Zunächst sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen. Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.

Amazon Eucalyptus Private Cloud für die CIA

Diese Kooperation könnte nun erste Früchte für beide, Amazon als auch Eucalyptus, tragen. Durch die sehr nahe Ähnlichkeit von Eucalyptus zur Amazon Cloud, steht bereits eine fertige und direkt einsetzbare Cloud Software zur Verfügung, die Amazon kennt und sein weiteres Wissen mit einbringen kann. Services, die Eucalyptus noch nicht unterstützt, von der CIA aber benötigt werden, können successive nachgebaut werden.
Das könnte Eucalyptus wiederum bei der eigenen Weiterentwicklung helfen, indem entweder Kenntnisse aus deren Entwicklung oder gar Teile von Services in das generelle Produkt zurückfliessen.

PS:

Ich habe mit der nun scheinbar offiziellen Zusammenarbeit zwischen Amazon und der CIA so meine Probleme. Ein Stichwort heißt hier Vertrauen, was Amazon durch die Kooperation mit einem Geheimdienst für sich nicht weiter fördert.

Kategorien
Kommentar

VMware ist NICHT der Technologie-Enabler der Cloud

In einem vor kurzem erschienen Interview hat sich ein VMware Mitarbeiter zu der für mich sehr vagen und fragwürdigen Aussage „VMware ist der Technologie-Enabler der Cloud, und ich sehe derzeit keinen anderen.“ hinreißen lassen. Ohne VMware zu nahe treten zu wollen, klingt dieser Satz für mich schon sehr stark nach Selbstüberschätzung und gleicht einem Realitätsverlust. Es steht außer Frage, dass VMware der König der Virtualisierung ist, aber zu behaupten dass im Cloud-Umfeld nichts ohne sie funktionieren würde, ist schon sehr anmaßend.

Reality distortion field

Steve Jobs hat es entwickelt, das „Reality distortion field„. Die Eigenschaft jemanden davon überzeugen zu können, was überhaupt nicht stimmt und die Fakten so zu verdrehen, dass es am Ende so aussieht, als ob es seine eigene Idee war. Zum Glück behauptet VMware nicht, dass sie das Cloud Computing erfunden hätten, das wäre dann kein Realitätsverlust, sondern Größenwahn.

Virtualisierung ist kein Cloud Computing

Es ist schon sehr anmaßend zu behaupten, man sei der Technologie-Gott der Cloud. Man überlege mal was VMware tatsächlich als Basis für die Cloud liefert. Es ist die Virtualisierung, also der Hypervisor. Natürlich, Virtualisierung ist eine der wichtigsten Grundlagen für die Cloud. Aber es gehört viel mehr dazu, um die virtuellen Ressourcen zu provisionieren und zu nutzen.

Bleiben wir beim Hypervisor, ist nicht abzustreiten, dass VMware der Marktführer ist. Hier machen sie einen guten Job. Man sollte dennoch nicht vergessen das die Amazon Web Services und Rackspace den Open-Source Hypervisor XEN einsetzen. Die HP Cloud verlässt sich genau so wie die Google Compute Engine auf KVM.

Die echten Player im Cloud Computing Markt setzen also eben nicht auf VMware. Daher kann von VMware als Technologie-Enabler der Cloud überhaupt keine Rede sein.

Darüber hinaus sollte man nicht die vielen anderen Technologie-Anbieter wie openQRM, OpenStack, CloudStack, Eucalyptus, Microsoft usw. vergessen, die Unternehmen dabei helfen Infrastrukturen für die Public als auch Private Cloud aufzubauen. VMware ist sicherlich ein Anbieter, der mittlerweile auch versucht sein Stück vom Kuchen in der Cloud abzubekommen. Aber unterm Strich sind sie auch nur einer von vielen und müssen sich wie jeder andere tagtäglich behaupten.

Ich weiß das ich mir mit diesem Artikel keine Freunde bei VMware machen werde. Aber so eine untragbare Behauptung kann ich nicht einfach so im Internet stehen lassen, tut mir leid VMware!

Kategorien
Kommentar

Eine eigene Private Cloud macht doch finanziell überhaupt keinen Sinn?!

Diese Frage stellte mir ein Besucher auf der CeBIT nach meinem Vortrag/ Panel „Public vs. Private Cloud“ auf der Webciety 2013. Wir haben uns anschließend über die Thematik ein wenig unterhalten. Ihm ging es dabei um die Frage, warum sich manche Unternehmen trotz der hohen Investitionen für eine Private Cloud entscheiden und wie sie diesen Kapitalaufwand messen und rechtfertigen.

Private Cloud ist ein finanzieller Kraftakt

Wer sich für den Aufbau einer echten Private Cloud entscheidet, sollte sich auch bewusst machen, das dies mehr bedeutet, als bspw. nur einen Terminalserver aufzubauen. Cloud Computing, auch in der Private Cloud, bedeutet u.a. Self-Service, Skalierbarkeit, Ressourcen-Pools, Automatisierung, granulare Abrechnung und on-Demand Bereitstellung der Ressourcen. Eine Grundlage der Cloud ist dabei die Virtualisierung. Für die Virtualisierung wird Hardware benötigt, aus welcher die virtuellen Ressourcen erstellt werden. Um eine nennenswerte Skalierbarkeit und vor allem Verfügbarkeit zu gewährleisten, muss hier entsprechend in Hardware investiert werden. Weitere Kostenpunkte sind die Software, welche die Cloud-Funktionalität liefert und die für das Pooling der Ressourcen, die automatische on-Demand Bereitstellung, den Self-Service, die Abrechnung usw. zuständig ist. Darüber hinaus benötigt man das Personal mit den entsprechenden Kenntnissen, das die Cloud-Infrastruktur aufbaut, wartet und betreibt. Man wird dadurch also sein eigener Cloud Anbieter.

Wenn man sich daher überlegt, welche finanziellen Aufwände gestemmt werden müssen, um die Eigenschaften einer eigenen Cloud zu realisieren, kommt man schnell zu dem Ergebnis, dass eine Private Cloud rein wirtschaftlich betrachtet keinen Sinn ergibt. Es sei denn man achtet nicht auf die Kosten und möchte sein Unternehmen in einem sehr privaten Rahmen damit agiler machen und z.B. die Zufriedenheit seiner Mitarbeiter erhöhen, ohne sich dabei in die Abhängigkeit eines Anbieters zu begeben und auf dessen Datenschutzniveau angewiesen zu sein.

Die KPIs des Cloud ROI müssen erweitert werden

Der erfolgreiche Einsatz von Cloud Computing lässt sich nicht immer in harten Zahlen ausdrücken. Mehr dazu habe ich in dem Artikel „Der Cloud Computing ROI: Kosten sagen nicht immer viel aus!“ geschrieben.

Ich rate bewusst, bei der Bewertung des Cloud Computing nicht immer nur auf die reinen Kosten zu schauen, sondern weitere Faktoren mit einzubeziehen, die ein typischer Return on Investment (ROI) nicht kennt. Dessen KPIs (Key Performance Indicator) messen nur den finanziellen Input und den daraus resultierenden Output. Bei der Private Cloud wird der Output aber ständig negativ ausfallen, da direkt kein echter Wertbeitrag zu sehen ist. Es sei denn, man definiert sich einen. Das hat nichts mit Mogeln zu tun, sondern ist eine logische Schlussfolgerung, die sich aus der Flexibilität und Agilität des Cloud Computing ergibt.

Eine dieser KPIs und für mich eine der Entscheidendsten: „Die Zufriedenheit der Mitarbeiter„. Diese sagt aus, wie glücklich meine Mitarbeiter mit der Nutzung und Bereitstellung der aktuellen IT-Infrastruktur sind. Ich behaupte diese KPI wird bei sehr vielen Unternehmen dunkelrot sein. Umsonst gibt es nicht so einen hohen Drang zur Schatten-IT.

Mit dem Aufbau einer Private Cloud lässt sich z.B. die Bereitstellung von Ressourcen stark beschleunigen. Server können damit anstatt in Tagen oder Wochen innerhalb von 5 Minuten zur Verfügung stehen. Insbesondere Entwickler fragen nach der on-Demand Bereitstellung von Ressourcen. Einfach mal direkt fragen. Leider fließt der Wert, der aussagt, dass ein Entwickler bzw. Mitarbeiter zufrieden arbeitet, niemals in den ROI ein. Das sollte er aber. Denn die Agilität, Flexibilität und Zufriedenheit sollten einen ebenso großen Stellenwert einnehmen wie die reinen Kosten.

Kategorien
Services

Open-Xchange: Die gehostete Alternative zu Google Apps und Microsoft Office 365

Open-Xchange hat heute seine erste eigene Cloud-basierte Office-Suite vorgestellt. Die erste App „OX Text“ aus der Office Productivity Suite soll planmäßig Anfang April bereitstehen. Damit lassen sich künftig Microsoft Word .docx- und OpenOffice/LibreOffice .odt-Dateien direkt im Browser bearbeiten. Die gemeinsame Arbeit an einem Dokument wird über ein Token gelöst, das herumgereicht wird. Das bedeutet, dass nicht parallel an einem Dokument gearbeitet werden kann, alle Änderungen bei allen Teilnehmern aber in Echtzeit angezeigt werden.

Sehr gut gelöst: Formatierungen bleiben erhalten

Hat man ein Dokument mit Microsoft Office erstellt und will es später mit OpenOffice oder auch Google Docs weiter bearbeiten steht man vor einem nicht zu unterschätzenden Problem. Meistens ist die vollständige Formatierung der DOC-Datei hinüber, sobald man sie in einem MS Office fremden Produkt öffnet. OX Text geht hier einen prinzipiell einfachen aber dennoch innovativen Weg. Es lassen sich .docx- und .odt-Dateien im Browser lesen und editieren, ohne das diese konvertiert werden. OX Text speichert nur die Änderungen und nicht das gesamte Dokument. Dadurch bleiben Formatierungen und Layout des ursprünglichen Dokumentes vollständig erhalten.

Alle Formatierungen des ursprünglichen Dokumentes bleiben während der Bearbeitung unangetastet. Auch Elemente, die OX Text nicht kennt und bearbeiten kann, wie z.B. WordArt-Effekte, werden nicht verändert. Der OX Text Editor bietet nur die Funktionen zur Bearbeitung an, die das Layout des Ausgangsdokumentes nicht kompromittieren. Dadurch stellt OX Text sicher, dass das Layout des ursprünglichen Dokumentes erhalten bleibt.

Parallel wird der OX Document Viewer veröffentlicht. Damit können Anwender Text- und .pdf-Dateien, Tabellenkalkulationen und Präsentationen im Browser lesen, ohne dass sie die entsprechenden Dateien dafür auf ihr Endgerät herunterladen müssen. Abgerundet wird der Funktionsumfang von OX Documents durch Online-Werkzeuge zur Bearbeitung von Tabellenkalkulationen und Präsentationen, OX Spreadsheet und OX Presentation, die noch in diesem Jahr fertig werden sollen.

OX Documents = OpenOffice in der Cloud

Ich warte schon lange auf ein OpenOffice aus der Cloud. Nun ist es im Prinzip soweit. Open-Xchange selbst bezeichnet OX Documents als Web-Nachfolger von OpenOffice, da es von Mitgliedern des ehemaligen OpenOffice-Teams in Hamburg entwickelt wird und die seit einem Jahr Bestandteil der OX-Entwicklungsmannschaft sind.

Eigenständig oder in der Suite

OX Documents ist als eigenständiges Produkt oder als Erweiterung von OX App Suite erhältlich. Der von Open-Xchange im Februar veröffentlichente browser-basierte Desktop OX App Suite umfasst Apps zur Bearbeitung von E-Mails, Terminen, und Kontakten, die um Nachrichten und Informationen aus sozialen Netzwerken wie Facebook, LinkedIn, XING und Twitter ergänzt werden können. Komplettiert wird der Funktionsumfang von OX App Suite mit einer Dateiverwaltung für Bilder-, Audio-, Video- und Office-Dateien.

Für OX App Suite hat Open-Xchange eine komplett neue, web-basierte Benutzeroberfläche entwickelt. Anwender können OX App Suite sofort und mit jedem Endgerät nutzen, das einen Browser hat – ohne dass sie dazu Lizenzen kaufen oder Software installieren müssen. Bei Verlust oder Defekt eines Gerätes sind alle Dateien zentral gesichert.

Unterschiedliche Endgeräte eine Lösung

Auf Basis des “Responsive Design” passt sich OX App Suite automatisch an die unterschiedlichen Display-Größen von PC, Laptop, Tablet und Smartphone an, was auf jedem Gerät eine bestmögliche Benutzbarkeit ermöglicht. Und durch
konsequente Nutzung des “Local Storage” aktueller Browser mittels HTML5 und Javascript steht OX App Suite der Performance traditioneller Client-Server-Software in nichts nach.

Cloud und Lokal

OX App Suite und OX Documents sind Online- und Offline-fähig. Das heißt, dass angefangene E-Mails und Dokumente auch dann nicht verloren gehen, wenn die Internetverbindung – beispielsweise im Zug – abbricht. Bei der nächsten Verbindung werden die Änderungen automatisch übertragen.

Kommentar: Google Apps und Microsoft Office 365 sollten sich warm anziehen

Ich hatte auf der CeBIT die Gelegenheit ausführlich, inkl. Showcase der neuen Funktionen, mit Open-Xchange CEO Rafael Laguna zu sprechen. Daher kann ich alle oben genannten Möglichkeiten bestätigen.

Besonders überzeugt hat mich der Umgang mit der Formatierung importierter Dokumente und die Möglichkeiten des Workflows sämtlicher Dokumente. Im ersten Moment klingt diese neue Funktion sehr simple. Wenn man jedoch überlegt, dass alle Lösungen am Markt Probleme damit haben, Microsoft Office Dateien sauber zu verarbeiten, ist das keine Magie. Das hängt grundsätzlich damit zusammen, dass Microsoft Office x Funktionen und Formatierungen abbildet. Um ein Dokumente 1:1 zu laden, bearbeiten und wieder speichern zu können, müssen also exakt diese Funktionen nachprogrammiert werden. Das rentiert sich im Normalfall jedoch nicht. Open-Xchange hat sich dafür entschieden, ausgewählte Standard-Funktionen zu unterstützen und alles was nicht bekannt ist, wie z.B. WordArt oder spezielle Formatierungen durch einen Platzhalter zu ersetzen, der nicht verändert werden kann.

Was Google Docs von anderen Cloud Kollaborationslösungen abhebt, ist die Möglichkeit, mit mehreren Leuten parallel an einem Dokument zu bearbeiten. Open-Xchange hat sich hier gegen das parallele Bearbeiten und für die Token-Methode entschieden, da eine Umfrage innerhalb der Zielgruppe zu dem Ergebnis gekommen ist, dass daran kein Interesse besteht. Ich finde das ein wenig schade, da ich mit der parallelen Bearbeitung von Dokumenten in Projekten bisher sehr gute Erfahrungen gemacht habe. Das Dokument ist sehr viel schneller fertiggestellt.

Gut gelöst ist auch der Workflow mit Dokumenten. Bekommt man z.B. eine Datei per E-Mail, lässt sich diese von dort direkt öffnen, bearbeiten und nach dem Speichern wieder direkt verändert an den ursprünglichen Absender zurückschicken. Open-Xchange erlaubt dazu das Verschicken der physischen Datei als auch nur einen Link zu dieser Datei.

Lagunas Argumentation, dass proprietäre Dateiformate der falsche Weg sind, weil sie eine Zusammenarbeit erschweren und die Anwender zudem wieder an die Nutzung einer bestimmten Applikationen ketten, kann ich nur bedingt zustimmen. Richtig ist, dass proprietäre Dateiformate den Nutzer dazu zwingen, eine bestimmte Anwendung zu nutzen. Jedoch werden wir das noch eine ganze Weile benötigen. Denn aktuell sind wir noch weit davon entfernt, dass der Browser das Betriebssystem wird und wir darüber alle unsere Daten bearbeiten und speichern. Es wird immer eine hybride Form geben müssen, wodurch auch Daten auf ein lokales System heruntergeladen werden. Das geht in der Regel nur mit einem bestimmten Dateiformat, dass in irgendeiner Form proprietär ist. Sei es nun aus der Open-Source Welt oder von Anbietern wie Microsoft. Schließlich muss Open-Xchange seine Daten auch in einem Datenformat freigeben, wenn der Anwender wechseln möchte.

Open-Xchange ist eine ernsthafte Alternative

Nicht nur an der Integration zwischen E-Mail und Docs App sieht man, dass sich Open-Xchange von einer E-Mail Lösung zu einer ernsthaften Kollaborationslösung und Alternative zu Platzhirschen wie Google Apps und Microsoft Office 365 entwickeln wird. Neben dem stetig wachsenden Funktionsumfang bietet Open-Xchange zudem mittlerweile ein sehr schickes Look and Feel, was man für die tägliche Arbeit nicht unterschätzen sollte.

Open-Xchange ist für alle interessant, die Google Apps oder Microsoft Office 365 nicht trauen, lieber einen Anbieter mit einem Rechenzentrum in Deutschland haben möchten oder doch lieber alles selbst machen. Eine hohe Verbreitung hat bzw. bekommt Open-Xchange durch eine kommerzielle White-Label Lizenz an Hosting- und Telekommunikationsanbieter, die ihren Kunden OX App Suite damit als Software-as-a-Service (SaaS) anbieten können. Weiterhin richtet sich die Lösung an Systemintegratoren und VARs, die OX App Suite als Managed Service oder für Inhouse-Installationen nutzen wollen.

Welche Verfügbarkeit ist erwünscht

Um Open-Xchange einzusetzen stehen drei Varianten zur Verfügung.

Als Software-as-a-Service (SaaS) von einem Webhoster

Dabei handelt sich um die eleganteste und einfachste Möglichkeit. Die meisten großen deutschen Webhoster setzen als White-Label im Hintergrund auf Open-Xchange. Hat man dort bereits einen Tarif inkl. Webmail, stehen die Chancen gut, dass man derzeit schon eine ältere Version von Open-Xchange nutzt. Der grundsätzliche Vorteil, Open-Xchange über einen Webhoster zu nutzen ist der Umstand, sich nicht selbst um den Betrieb, die Wartung und Aktualisierung der Software und der dafür benötigten Infrastruktur zu kümmern. Außerdem stehen die Server bereits im Internet, was den überall Zugriff auf die Daten erleichtert.

Selbst bei einem Webhoster betreiben

Natürlich kann man Open-Xchange auch selbst bei einem Webhoster auf einem Server betreiben. Aber Vorsicht, um die Verfügbarkeit von Google Apps oder Microsoft Office 365 zu erhalten, reicht es bei weitem nicht aus, sich einfach nur einen virtuellen Server aufzusetzen. Da sollte man sich eher Gedanken über die Hochverfügbarkeit machen, die Open-Xchange selbst nicht mitliefert. OX ist an dieser Stelle einfach nur ein Stück Software. Für Hochverfügbarkeit sorgen dann wiederum Infrastructure-as-a-Service (IaaS) Lösungen wie openQRM oder auch OpenStack. Aber bitte nicht vergessen: IaaS bedeutet Infrastruktur = u.a. Hardware die für die entsprechende Virtualisierung. Zudem reicht ein Server bei weitem nicht, um die Verfügbarkeit und Eigenschaften einer Cloud zu erreichen.

Privat auf eigenen Servern

Auch die Installation im eigenen Rechenzentrum ist eine Variante. Dabei gilt jedoch dasselbe wie bei dem Betrieb beim Webhoster. Ein Server reicht für die Ansprüche an ein Hochverfügbarkeits- oder gar Cloud-Szenario nicht aus. Auch hier sollte man sich dann darauf konzentrieren, zunächst eine Cloud Infrastruktur auf Basis von openQRM oder OpenStack aufzubauen, auf der dann Open-Xchange betrieben wird. Vernachlässigen sollte man aber auch nicht, dass Open-Xchange eine Kollaborationsumgebung ist. Das bedeutet der überall Zugriff auf die OX Installation ist zwingend erforderlich, was auch Auswirkungen auf die Bandbreite der jeweiligen Internetanbindung, bevorzugt den Upload, hat.

Kategorien
Kommentar

Die Cloud Vendor Lock-in Diskussion ist überflüssig, denn eigentlich lieben wir ihn alle

Eine beliebte Cloud Computing Diskussion ist der Vendor Lock-in. Die Abhängigkeit von einem Anbieter die so groß ist, dass sich die Änderung der aktuellen Situation aufgrund zu hoher Wechselkosten als unwirtschaftlich gestaltet. Ich hatte so eine Diskussion erst kürzlich wieder während eines Panels und möchte hier mal meine grundsätzliche Einstellung zum Thema Vendor Lock-in schildern. Denn meiner Ansicht nach ist ein Lock-in zwangsläufig nichts Schlechtes. Eigentlich lieben wir ihn. Uns ist es meistens nur nicht bewusst. Darüber hinaus leben wir seit Jahrzehnten und jeder von uns sogar tagtäglich damit. Ein Lock-in ist nicht zu umgehen, er ist immer vorhanden!

Der tagtägliche Lock-in

Ein gutes Beispiel ist IKEA. Unsere Wohnung besteht bis auf die Küche aus Möbeln von IKEA. Warum? Weil es gut aussieht, perfekt zusammenpasst UND Möbel anderer Anbieter sich damit schwer kombinieren lassen. Es ist der perfekte Lock-in. Und? Wir finden es toll, weil es den Zweck, aber vor allem unsere Anforderungen erfüllt. Analog zur IT bedeutet es, dass sich Unternehmen bewusst auf einen vermeintlichen Lock-in mit SAP, Microsoft, Oracle und anderen Anbietern einlassen, weil sie ihn benötigen und weil die genannten Anbieter die Anforderungen weitestgehend erfüllen. Man überlege sich nur mal, wie viele Unternehmen sich SAP angepasst haben und nicht anders herum. Weil es zunächst möglicherweise keine Alternativen gab und weil SAP die gewünschten Funktionen für das tagtägliche Geschäft erfüllte.

Das Paradebeispiel für einen Lock-in ist das iPhone/ iPad. Und? Richtig, alle lieben ihn! Weil das iPhone den eigenen Coolnessfaktor „anhebt“ und auch noch die Funktionen mitbringt die so viele benötigen, auch wenn sie es vorher nicht einmal wussten. Bis auf den Coolnessfaktor gilt dasselbe für Android. Man möge nun argumentieren, dass Android Open-Source sei und die Freiheit damit schließlich größer ist. Das stimmt auf der einen Seite. Und für die Einzelperson mag sich der Aufwand für einen Wechsel relativ in Grenzen halten. Aus der Sicht eines Unternehmens sieht es aber schon wieder ganz anders aus. Hier ist der Lock-in vergleichbar mit einem iPhone/ iPad, nur im Google Universum.

Kein Vendor Lock-in ist reines Marketing-Versprechen

Ähnlich verhält es sich in der Cloud und hier speziell bei OpenStack. Rackspace ist der Lautsprecher der OpenStack Gemeinde. Der Anbieter argumentiert, dass man von einem Public Cloud Anbieter der auf OpenStack setzt, besser in die eigene Private Cloud Infrastruktur zurückkommt. Und liefert natürlich gleich eine eigene OpenStack Private Cloud Distribution mit. Am Ende verdient Rackspace durch Beratung und weitere Dienstleistungen daran. Rackspace Argument ist richtig, aber eher auf der Marketingebene zu verstehen. Denn auch ein Anbieter wie Microsoft bietet mit seinem Windows Server 2012 die Möglichkeit von Azure zurück in die eigene Infrastruktur. Und auch von den Amazon Web Services (AWS) kann man sich befreien, wenn man eine eigene Eucalyptus Cloud besitzt. Zwar bildet Eucalyptus bei weitem noch nicht alle Services von AWS ab, aber das wird im Laufe der Zeit passieren. Ich bin darüber hinaus weiterhin davon überzeugt, dass Amazon Eucalyptus früher oder später kaufen wird.

Also, auch bei OpenStack begibt man sich in einen Lock-in. Zwar wird hier von offenen Standards und APIs gesprochen. Aber im Endeffekt bleibt man damit auch nur im OpenStack Ökosystem gefangen. Das bedeutet, dass man bequem zu einem anderen Anbieter wechseln kann der OpenStack unterstützt. Das Thema Openness wird hier aber eher als Marketingmittel genutzt. Schließlich handelt es sich bei OpenStack und allen anderen kommerziellen Open-Source Vereinigungen um keine Spaßveranstaltungen. Da geht es um knallhartes Business. OpenStack vereinfacht es am Ende nur, zwischen den verschiedenen Anbietern zu wechseln die ebenfalls auf OpenStack setzen. Da aber alle Anbieter quasi auf dieselbe Technologie aufsetzen und sich nur durch Mehrwert-Dienstleistungen abheben, hat man auch hier den OpenStack Technologie Lock-in. (Ja natürlich ist es möglich, sich unabhängig von einem Anbieter eine eigene OpenStack Cloud aufzubauen. Aber der (finanzielle) Aufwand steht in keinem Verhältnis zum späteren Nutzen.)

Ein Lock-in bietet mehr Vorteile als man denkt

Ein Lock-in bietet zudem einige Vorteile. Er schafft Innovationen, von denen man als vermeintlicher „Sklave“ partizipiert. Die Anbieter rollen ständig Verbesserungen aus, von denen wir profitieren. Und, der Lock-in ist gut, solange er genau den Zweck erfüllt, der erwartet wird. Wenn die Lösung die Anforderungen erfüllt ist alles super! Als Unternehmen lässt man sich nach der Entscheidung für einen Anbieter zudem bewusst darauf ein. On-Premise hat man sich seit Jahren auf einen Lock-in eingelassen. Sicherlich ist man mit der einen oder anderen Funktion nicht ganz einverstanden, aber im Großen und Ganzen ist man glücklich, weil die Probleme gelöst und Anforderungen erfüllt werden. Und, als Unternehmen nimmt man auch in der Cloud eine nicht unbedeutende Summe finanzieller Mittel in die Hand. Diese Investitionen müssen sich erst einmal rentieren, bevor man wieder über einen Wechsel nachdenkt. Eines sollte man darüber hinaus nicht vergessen. Hat ein anderer Anbieter großes Interesse daran, ein Unternehmen von einem bestehenden Anbieter loszureißen, wird er alles mögliche in Bewegung setzen, um diesen Weg zu ermöglichen. Bevor man sich also zu viele Gedanken über einen Lock-in macht, sollte man lieber zunächst schauen, wie zukunftssicher die Services und der Cloud-Anbieter selbst sind und das in eine mögliche Exit-Strategie mit einbeziehen.

Fazit: Wir leben ständig mit einem Lock-in, der sich niemals vollständig umgehen und maximal sehr gering halten lässt. Der eine Lock-in ist etwas flexibler als der andere, aber die Entscheidung dafür bleibt. Nicht abzustreiten bleibt, wir lieben ihn, den Lock-in!

Kategorien
Analysis

Cloud-Desktop: The browser becomes the operating system

The variety of software-as-a-service applications and other cloud services is growing steadily. Next to a difficult overview this leads to a higher complexity. One trend are cloud marketplaces that categorize a catalog of different services and thus giving an overall portfolio. What these marketplaces currently still missing is the integration of existing services and applications. This means that working on a common database is not possible, which is known from many on-premise infrastructures, and results in data and application silos.

State of play

The problem of cloud data silos is not just in cloud marketplaces. There are also advertisements for ways of integrating e.g. a CRM SaaS solution applied with an Office suite. In practice, the implementation is achieved modest. Somehow, the systems are indeed connected. In the end one works on different systems, with separate data and must also register separately for both.

Today, the cloud lacks with the integration of disparate services to work on a common data base.

Integration is imperative

Speaking about integration we mean interfaces and data. Some time ago I had suggested that cloud computing for business can give a chance to clean up their historically grown silos. Using the cloud, for companies with isolated solutions it is now easier to replace a single system from that island solution against a cloud service to successively obtain a fully integrated (total) system of multiple cloud services. The practice at this point is not yet so far, but there are initial efforts to change this. And this is essential in order to exploit the variety of different cloud services. A crucial point is the access of the respective cloud services on a common database. This means that every application saves their data continuously in a quasi central store and also call it from there again.

The integration layer inevitably need not a central and persistent data base. One another possibility is to load the data in real time from the integrated systems. These are then processed and displayed on a single interface. Thus, for example, an arbitrary cloud storage is involved, on which the data (pictures, videos, etc.) is stored. However, this means that all cloud services that want to be part of this ecosystem need to open their APIs to the outside in order to save the data and load it back.

The browser becomes the operating system

Irrespective of how the integration is achieved in detail. The browser becomes the „one face to the customer„, the central interface, when the user accesses the Internet. I recently described Desktop-as-a-Service (DaaS). But they are only an intermediate step to the actual final state. Indeed DaaS provide full-fledged working environments including classic applications in the cloud. However, the DaaS normally runs in the browser. That means, one first starts his computer, then the browser to start another operating system again. Would an enterprise thus rely on software-as-a-service solutions and DaaS, it again incurs the data and application silos.

The aim is therefore to develop a sort of „uber-cloud“, which is accessed via single sign-on to all services in the cloud into a single interface, who want to be the part of the whole. This is not a new concept and has already been applied. But only on a very proprietary basis with services from a single company. By integrating external services, this approach has failed so far.

These „uber-cloud“ can be either a public cloud service or stand by as a private solution. The private solution would have the advantage that IT departments use them as a service broker or as a service portal including application firewall for the employees and get a little control over business applications.

That scenario would mean that an employee logs in at the „uber-cloud“ and sees the for him relevant business applications. Based on the application at the „uber-cloud“ he is directly signed in to other applications.

The „uber-cloud“ should be built like a plugin system, with that each company can put a personal productivity cloud together for their purposes. With the plug-in system different apps/ services can be integrated if the API allows it. Either the data is presented in a single interface. So the data is loaded at runtime and restored after changes or the respective services are organized into „tabs“. It is only important that the data are in a kind of centralized access. Thus, for example, everyone could use any cloud storage as this will only be docked. Where the data is determined the company decide itself.

The browser becomes the operating system. However, it still needs the proper and independent platforms to be implemented.

Kategorien
Comment

How future-proof is the Google cloud portfolio?

Google is known for „just“ throw a new service on the market. That’s their corporate culture. It promotes creativity within the company and ensures innovation. But at the end of the day also Google must be clean up the playground. This resulted in numerous closures of famous and lesser-known services in the recent past. Latest victim is the popular Google Reader. It will be shut down at 1th of July 2013. This naturally raises the question of how vulnerable Google’s cloud services are for a portfolio adjustment. At least the finger on the close button seems to fit very loosely.

Longevity vs. popularity

Google scrubs its Google Reader as its popularity has fallen sharply in the past, Google said. That Google is apparently not quite right here, shows a recent petition against its closure. After all, 20,000+ subscribed against its closing.

Google sometimes gives me the impression that it is like a big kid. They find many things at once exciting (20 percent rule), play with it, investing time and then loses interest and pleasure, when the playmates apparently no longer want to play with it. The concentration phase is only with a few products really high. (From a entrepreneurial point of view correct.)

Companies do not like that

Google is currently making great efforts to broadly make it in the business environment. Regarding current providers such as Microsoft and IBM no easy task. Google’s trump card is that they are born in the cloud and know the rules inside out. Finally, they almost self-developed them.

Nevertheless, the question is permissible. Why should a business use Google cloud services, such as Google Apps or the Google Cloud Platform, if services that are apparently not used sufficiently well, to be suddenly closed? Even if Google has monetized above named cloud solutions now, this question retains its place. Because by the monetization of individual service suddenly gets a new KPI, the revenue!

Google may assume that enterprises will not be thrilled if they suddenly get an e-mail that the service they are using will be closed due to lower attractiveness and revenue figures in three months.

For enterprises, this type of product management is not attractive and Google must learn that enterprises need to be treated differently from private users. Even if the consumerization progresses.

Clean up the portfolio is good, but…

No question, it makes sense to clean up the portfolio steadily. It is also recommended for many other providers. However, these seem to act in the interests of their customers and offer their products and services on a long-term roadmap. However, it seems that the finger at the „service close button“ at Google sits relatively loose.

I do not think companies will come together for a petition against the closure of Google services. Indeed, you always hear about „too big to fail“, but Google is not as big as all that.

Kategorien
Kommentar

Wie zukunftssicher ist das Google Cloud Portfolio?

Google ist bekannt dafür, „mal eben“ einen neuen Service auf den Markt zu schmeißen. Dafür steht die Unternehmenskultur. Sie fördert die Kreativität innerhalb des Unternehmens und sorgt für Innovationen. Am Ende des Tages muss aber auch bei Google der Spielplatz aufgeräumt werden. Das führte in der jüngsten Vergangenheit zu unzähligen Schließungen bekannter und weniger bekannter Services. Neuestes populäres Opfer ist der Google Reader. Dieser soll nun zum 01. Juli 2013 eingestellt werden. Da stellt sich natürlich die Frage, wie anfällig Googles Cloud Services für eine Portfolio Bereinigung sind. Der Finger auf dem Schließen-Button scheint zumindest sehr locker zu sitzen.

Langfristigkeit vs. Popularität

Google stampft den Google Reader ein, da dessen Popularität, nach eigenen Angaben, in der Vergangenheit stark eingebrochen ist. Das Google hier scheinbar nicht ganz richtig liegt, zeigt eine aktuelle Petition gegen dessen Schließung. Immerhin haben sich hier in kürzester Zeit 20.000+ dagegen ausgesprochen.

Manchmal erweckt Google bei mir den Eindruck, ein großes Kind zu sein. Es findet viele Dinge auf einmal spannend (20 Prozent Regel), spielt damit, investiert Zeit und verliert dann das Interesse und die Lust, wenn die Spielkameraden scheinbar auch nicht mehr damit spielen möchten. Die Konzentrationsphase ist nur bei einigen wenigen Produkten wirklich hoch. (Unternehmerisch natürlich richtig.)

Unternehmen sehen das nicht gerne

Google unternimmt derzeit große Anstrengungen sich im Unternehmensumfeld breit zu machen. Hinsichtlich bestehender Anbieter wie Microsoft oder IBM keine leichte Aufgabe. Googles Trumpfkarte ist, dass sie in der Cloud geboren sind und die Regeln aus dem Effeff kennen. Schließlich haben sie diese quasi selbst mit entwickelt.

Dennoch sei die Frage gestattet. Warum soll ein Unternehmen auf Google Cloud Services, wie Google Apps oder die Google Cloud Platform setzen, wenn Services, die scheinbar nicht ausreichend gut genutzt werden, plötzlich geschlossen werden? Auch wenn Google die genannten Cloud Lösungen mittlerweile monetarisiert hat, diese Frage behält ihre Berechtigung. Denn durch die Monetarisierung bekommt der einzelne Service plötzlich eine neue KPI, den Umsatz!

Google darf davon ausgehen, dass Unternehmen nicht davon begeistert sein werden, wenn sie plötzlich eine E-Mail bekommen, dass der von ihnen genutzte Service auf Grund sinkender Attraktivität und Umsatzzahlen in drei Monaten geschlossen wird.

Für Unternehmen ist diese Art des Produktmanagements nicht attraktiv und Google muss lernen, dass Unternehmen anders behandelt werden müssen als Privatnutzer. Auch wenn die Consumerization weiter fortschreitet.

Das Portfolio bereinigen ist gut, aber…

Keine Frage, es ist sinnvoll sein Portfolio stetig zu säubern. Das ist auch vielen anderen Anbietern zu empfehlen. Allerdings scheinen diese im Sinne ihrer Kunden zu handeln und bieten für ihre Produkte und Services eine langfristige Roadmap an. Hingegen scheint der Finger auf dem „Service Schließen-Button“ bei Google relativ locker zu sitzen.

Ich glaube kaum, dass Unternehmen zu einer Petition gegen die Schließung eines Google Services zusammenkommen werden. Zwar hört man immer wieder gerne von „Too big to fail“, aber so groß ist Google dann auch wieder nicht.