Kategorien
Analysen

Windows 8 ist ein "Übergangsmodell"

Ich habe Windows 8 nun seit ein paar Tagen im echten produktiven Einsatz. Mir gefällt das neue Betriebssystem sehr gut, auch wenn die Mischung aus „Kachel-Umgebung“ und dem bekannten Windows Desktop „etwas Anderes“ ist. Wobei ich sagen muss, dass ich insbesondere mit der Kachel-Oberfläche sehr gerne arbeiten „würde“! Würde genau deswegen, da ich mich ca. 99% meiner Zeit auf der klassischen Desktop Oberfläche befinde. Und das aus dem Grund, weil alle Anwendungen die ich nutze zwar über die Kacheln gestartet werden, aber dann automatisch auf den Desktop wechseln.

Hauptarbeitsbereich: Browser

Hauptsächlich arbeite ich im Browser. Und auch diese öffnen automatisch den Windows Desktop, selbst der Internet Explorer. Selbstkritisch wie ich bin, muss ich eingestehen, dass ich den Windows Store noch nicht nach möglichen Kandidaten durchforstet habe. Dort gibt es bestimmt den einen oder anderen Schatz zu finden, der mir weiterhelfen kann.

Die Nutzung ist eine Gratwanderung

Die Nutzung von Windows 8 ist dennoch eine Gratwanderung. Auf einem Tablet sind die Kacheln und die Bedienung sehr gut umgesetzt. Das konnte ich bereits ausführlich testen. Mit einer Maus kommt dabei nicht so das Feeling auf. Auf der anderen Seite benötigt man, nicht nur für die alten Anwendungen, noch den klassischen Desktop. Hier kommt man mit den Fingern auf einem Tablet aber nicht weit. Es sei denn man hat Finger wie ein Buchfinkenweibchen. Hier ist eine Maus angebracht.

Aber grundsätzlich kann ich Windows 8 nur empfehlen.

Windows 8 kann nur ein „Übergangsmodell“ sein

Windows 8 ist bzw. kann „nur“ ein Übergangsmodell sein. Das ist nicht so negativ gemeint wie es klingen mag. Aber Microsoft musste nun einmal einen Weg finden um den Nutzern und Entwicklern ein hybrides Modell zu liefern. Mit der kommenden Version – Windows 9 oder vielleicht sogar „Windows X“ – wird der klassische Desktop vollständig verschwinden. Beziehungsweise wird es nur noch einen schmalen Kompatibilitätsmodus für den Desktop geben, um sämtliche Nachzügler nicht komplett zu verlieren.

Im Laufe der Zeit werden aber alle Software-Entwickler und Anbieter ihre Lösungen entweder ganz auf das Software-as-a-Service (SaaS) Modell via Browser umstellen oder ihre Apps für die Windows Kachel-Oberfläche optimieren und im Windows Store anbieten.

Wann kommt das „Microsoft Cloudbook“?

Eine interessante Frage bleibt dennoch. Geht Microsoft in Zukunft vielleicht sogar den Google Weg. Gibt es möglicherweise bald ein Chromebook Pendant aus dem Hause Microsoft? Wie ich oben angemerkt habe, ist der Browser mein Hauptarbeitsbereich Nummer eins und da bin ich definitiv nicht der Einzige. Hinzu kommt, dass immer mehr Anwendungen per SaaS in die Cloud wandern. Nicht vergessen sollte man dabei, dass Microsoft mit seiner Windows Azure Infrastruktur bereits über eine ausgereifte und leistungsfähige Cloud Umgebung verfügt, auf der ebenfalls Office 365 betrieben wird und über die ein „Microsoft Cloudbook“ ohne weiteres mit Applikationen usw. versorgt werden kann. Mit Windows Azure, Office 365 (Office 2013), Outlook.com, SkyDrive, Skype, dem Windows Store etc. hat Microsoft in den letzten Monaten und Jahren zumindest die notwendigen Rahmenbedingungen geschaffen.

Kategorien
Kommentar

Cloud Computing: Offen oder Geschlossen? Vendor Lock-in ist kein Argument!

Cloud Computing spaltet sich derzeit in zwei Lager. Die Liebhaber eines geschlossenen, proprietären Systems und die Befürworter einer offenen (Open-Source) Cloud. Interessanterweise stellen verstärkt die Open-Source Jünger, allen voran das OpenStack Projekt die größten Lautsprecher dar (Rackspace: Linux der Cloud). Sei es auch nur, um mehr Aufmerksamkeit von den derzeit erfolgreichen geschlossenen Systemen (Amazon Web Services (AWS), Microsoft Windows Azure) auf sich zu lenken. Eines vorweg, pauschal lässt sich nicht sagen, welcher Ansatz der „Bessere“ ist. Es hängt immer von den eigenen Anforderungen und Möglichkeiten ab. Zudem sollte man schauen, wie geschlossen die proprietären Systeme wirklich sind. Man wird zum einen merken, dass viel mehr religiöse Ansichten dahinter stecken als man denkt und das die Argumentation Vendor Lock-in bei Open-Source Clouds nicht zwangsläufig zutrifft. Denn einen Vendor Lock-in hat man immer.

Geschlossene Cloud gleich Lock-in?

Hauptargumentation aus dem Open-Source Lager gegen proprietare Cloud Angebote ist das Risiko eines Lock-in. Um diesen zu umgehen, solle man stattdessen auf Angebote setzen, die auf Open-Source basieren, um sich über eine eigene Private Cloud die Freiheit zu verschaffen, also die Infrastruktur und Daten dann ggf. in die eigene Cloud zu transferieren.

Eines sollte man jedoch nicht vergessen, ohne Open-Source funktioniert derzeit so gut wie kein Cloud Angebot. So besteht die AWS Cloud aus wahrscheinlich der größten XEN (Hypervisor) Installation weltweit. Zudem wird argumentiert, dass mann sich bei AWS in einen Lock-in begibt. Bei der DynamoDB mag dies richtig sein. Aber für alle anderen Services gibt es Lösungen wie Eucalyptus, openQRM oder sogar OpenStack selbst, die entsprechende Schnittstellen bereitstellen. Und auch Microsoft ermöglicht es, zwischen Windows Azure und einer auf Microsoft basierenden Private Cloud mit dem Microsoft Server 2012 und dem System Center 2012 Daten usw. hin und her zu schieben. Man ist hier also auch nicht zwangsläufig auf die Public Cloud angewiesen.

Wo versteckt sich der Lock-in?

Ein Vendor Lockin besteht dann, wenn ein System, Angebot oder Lösung sehr stark abhängig macht.

Ein analoges Beispiel dafür ist Ikea. Das Design der Möbel ist so markant, dass es für einen Innenarchitekten Laien (wie mich) schwierig ist, es mit einem anderen Design zu kombinieren. Also geht man dazu über, weitere Möbel bei Ikea zukaufen. Zudem verfügt Ikea über eigene Maße und proprietäre Techniken z.B. bei den Waschbecken oder auch bei den Küchen, Schrauben und sonstigen Verbindungen.

Das Risiko des Lock-ins in der Cloud befindet sich hauptsächlich bei den Daten und Prozessen, wenn diese dort ebenfalls abgebildet werden. Denn in beiden Fällen befinden sich hier die geschäftskritischen Bereiche, die so beweglich wie möglich in der Cloud liegen sollten.

Die Ressourcen wie virtuelle Maschinen sind nicht, wie möglicherweise vermutet, von dem Lock-in betroffen. Hierzu existieren bereits diverse Import/ Export Tools z.B. von VMware für AWS oder speziell V2V (Virtual to Virtual) oder V2P (Virtual to Physical) Mechanismen von openQRM. Das bedeutet, das sich virtuelle Maschinen und deren Inhalte bequem hin und her schieben lassen.

Die Daten selbst sind in der Cloud in der Regel ebenfalls nicht von einem Lock-in betroffen. Die meisten Anbieter verfügen über entsprechende Schnittstellen, über die sich die Daten bewegen und transferieren lassen. Bei den Prozessen wird es schon schwieriger. Aber, wie viele Unternehmen haben in der Vergangenheit ihre Prozesse in die Hände von SAP Systemen gelegt und damit einen Lock-in verursacht?

Ein Lock-in ist nichts Schlechtes

Ein Lock-in, wenn er denn vorliegt, muss nicht immer etwas Schlechtes sein. Im Gegenteil, er führt zu Innovationen und verringert die Komplexität. Der Anbieter nimmt einem beim Design und der Auswahl Stückweit die Entscheidung ab und sorgt für eine stetige Weiterentwicklung und Verbesserung des Systems.

Zudem sollte man schauen, wer sich einen Lock-in nicht leisten kann. Kleine und mittelständische unternehmen, die ggf. über eine kleine oder keine IT-Abteilung verfügen, nehmen das gerne in Kauf, da sie sich die Implementation einer komplexen Umgebung nicht leisten können bzw. nicht über die Expertise verfügen. Analoges Beispiel, Ikea: Man bekommt relativ günstig gute Möbel und kann alles miteinander gut kombinieren.

Außerdem, schaut man sich Open-Source Projekte wie OpenStack an, wird deutlich, dass es nicht immer einfach ist, alle Interessen unter einen Hut zu bekommen. Open-Source mag zwar offen sein. Auf Grund der vielen beteiligten Unternehmen können so manche Konflikte den Innovationsgrad jedoch verringern. Aus diesem Grund kann ein Vorteil darin bestehen, wenn nur ein Unternehmen an der Spitze des Projekts/ Angebots steht und die Koordination übernimmt. Auch wenn mehrere Teilnehmer mehr Input und Expertise liefern. Hier haben auch geschlossene Anbieter einen Vorteil, da sie alleine verantwortlich sind, und damit schneller handeln. Das kann im Umkehrschluss bedeuten, dass der Lock-in von OpenStack in den potentiellen Konflikten und dem daraus folgenden langsamen Innovationsgrad besteht.

APIs sind entscheidend

Wichtig für jedes Cloud Computing Angebot sind die APIs. Auf diese muss sowohl von Innen als auch von Außen zugegriffen werden können, um auf dieser Basis die Daten in aus der Cloud zu transferieren.

Vorteile vs. Nachteile von Open-Source

Open-Source Cloud-Implementierungen gibt es erst seit ein paar Jahren und haben bis jetzt noch nicht ausreichend Anwendungsfälle im produktiven Betrieb. Obwohl eine Reihe von Early-Adoptern aus dem Telkosektor, Finanzdienstleister und wissenschaftliche Einrichtungen bereits Alternativen in Open-Source Cloud Systeme suchen, ist die Vielzahl an Unternehmen darüber nicht informiert. Es lohnt sich daher mal einen Blick auf die Vor- und Nachteile zu werfen.

Vorteil: Flexibilität

Per Definition bieten Open-Source Clouds ein höheres Maß an Flexibilität als der proprietäre Mitbewerb. Statt sich einfach nur mit dem Lesen von Anleitungen zufrieden zugeben oder an Schulungen teilzunehmen, können Nutzer selbst Änderungen an dem Code vornehmen und sich selbst mit eigenem Code an verschiedenen Projekten beteiligen. Zudem können sie eigene Projekte starten, eigene Dokus zur Verfügung stellen oder Seminare abhalten. Interaktionen mit der Gemeinschaft und der damit verbundenen Weiterbildung ermöglichen dem Anwender mehr Flexibilität bei der Gestaltung ihres Cloud-Designs und fördert innovative interne oder externe Lösungen.

Vorteil: Vendor Lock-In

Ein Argumente der Open-Source Cloud Community ist die Prävention vor einem Vendor Lock-in. Die Argumente sind einfach. Wird eine Cloud auf Basis einer offenen und weit verbreiteten Open-Source Technologien aufgebaut, hat kein Anbieter die Möglichkeit die volle Kontrolle über das Open-Source Framework zu erhalten. Damit können Anwender schneller auf die Entwicklung der Technologien im Rahmen des Open-Cloud Stacks reagieren. Darüber hinaus geben Open-Source Clouds dem Nutzer die Freiheit, seine Cloud an seine individuellen Bedürfnisse und Unternehmensziele anzupassen, statt diese anhand einer einzigen proprietäre Lösung aufzubauen.

Vorteil: Einsparung

Open-Source Software ermöglicht auf Grund seiner Lizenzierung die kostenlose Nutzung und hat damit preislich einen enormen Vorteil gegenüber dem kommerziellen Mitbewerb. Egal ob sich ein Nutzer nun für ein reines Open-Source Angebot oder für eine kommerzielle Open-Source Lösung entscheidet, wird er im Vergleich zu einer proprietären Software Kosten sparen können. In jedem Fall besteht für jedes Unternehmen die Möglichkeit, durch Open-Source Software, bei gleichzeitiger Erhöhung der Flexibilität, die Kosten zu senken, was einen Gewinn für jede Organisation darstellt.

Vorteil: Kontrolle, Offene Standards, APIs

Eine Open-Source Cloud setzt auf offene Standards und APIs und wird nicht von einem einzigen Hersteller kontrolliert. Das erlaubt es Unternehmen, die Kontrolle über die darunter liegende Hardware Infrastruktur und Managementplattform zu behalten, unabhängig davon, um welche Technologie es sich handelt. Des Weiteren ermöglichen offene APIs eine bessere Integration in bestehende offene oder proprietäre Lösungen, womit sichergestellt wird, dass aktuelle IT-Investitionen innerhalb der neuen Architektur weiterhin relevant sind.

Vorteil: Portabilität

Baut man seine Cloud auf Basis von Open-Source auf, sollte man immer schauen, wie es mit der Interoperabilität zu anderen Public, Private oder Hybrid Cloud Lösungen ausschaut. Entscheidet man sich für eine offene Technologie erhält man damit ein höheres Maß an Portabilität innerhalb des großen Cloud Ökosystems. Anstatt ihre eigenen Möglichkeiten auf proprietäre Technologien zu beschränken, können sich Nutzer an unterschiedlichen Open-Source Cloud Technologien bedienen und damit ihre IT-Entscheidungen unterstreichen und die eigenen Bedürfnisse und Unternehmensziele damit unterstützen.

Nachteil: Mangel an Unterstützung

Anwender die sich dafür entscheiden, ihre Cloud auf reiner Open-Source Software aufzubauen, begeben sich bzgl. Support in die Abhängigkeit des Open-Source Projekts. Das kann ganz schön zäh und schmerzhaft werden. Denn der Support kommt hier anhand von Foren, Chats, Q&A Systemen und Bug-Tracking Systemen von der Crowd. Zudem sollte man sich als Nutzer aktiv in der Community beteiligen und etwas dazu beitragen, was in der Welt der kommerziellen Software nicht notwendig ist. Auf der anderen Seite kann man sich für kommerzielle Open-Source Cloud Lösungen entscheiden, die für professionellen Support sorgen.

Nachteil: Kosten

Zwar haben Open-Source Lösungen auf Grund der in der Regel kostenlosen Lizenzen, im Vergleich zu kommerzieller Software, einen Kostenvorteil, allerdings gibt es auch hier Kosten die nicht zu vernachlässigen sind. Zum einen wird für den Aufbau einer Open-Source Cloud ein nicht zu unterschätzendes Wissen für die Entwicklung benötigt. Zum anderen müssen auch die Administratoren für einen einwandfreien Betrieb der Infrastruktur sorgen, wofür intensive Kenntnisse für die Verwaltung und Wartung der Lösung erforderlich sind. Darüber hinaus wird externes Fachwissen in Form von Beratung oder Entwicklung-Ressourcen benötigt.

Nachteil: Reifegrad

Je schneller sich das Open-Source Cloud Ökosystem entwickelt, kann sich ein Anwender nicht zwangsläufig darauf verlassen, das und wie lange ein Open-Source Projekt bestand hat. Wenn sich ein Cloud Architekt während des Designs einer Open-Source heute für eine bestimmte Technologie entscheidet, kann es durchaus passieren, das ihn diese in Zukunft einholen wird, da das Projekt eingestellt und nicht mehr weiterentwickelt wird. Mit den stetig steigenden Open-Source Projekten und unterschiedlichen Ansichten ist es für den Anwender zunehmend schwieriger geworden sich für den „richtigen“ Weg zu entscheiden.

Fazit

Verantwortliche die sich für eine Cloud Infrastruktur entscheiden, wollen diese hochverfügbar, einfach zu bedienen und so agil, dass sie sich mit den Bedürfnissen der Unternehmensziele verändert. Es ist daher entscheidend, dass sich ein Entscheider zunächst über die Unternehmensziele im klaren ist und sich mit seiner bestehenden IT-Infrastruktur auseinandersetzt, bevor er über eine Open-Source oder proprietären Cloud Infrastruktur nachdenkt. Möglicherweise kann man auch zu dem Ergebnis kommen, dass eine Open-Source Cloud für das Unternehmen keinen nennenswerten Vorteil bietet und eine proprietäre Cloud besser für den eigenen Innovationsgrad ist oder auch andere Möglichkeiten evaluiert werden müssen.

Kategorien
News

Emirates Airline führt Windows 8 Tablets im Inflight Service ein

Emirates Airline wird ab Januar 2013 ihre Crew-Mitglieder mit Windows 8 Tablets und einer eigenen Business App ausstatten. Zukünftig wird die Emirates Airline insgesamt 1.000 HP ElitePad 900 nutzen, die unter Windows 8 laufen. Die touch-optimierte Benutzeroberfläche von Windows 8, welche die wichtigsten Informationen schnell über die Live-Kacheln bereitstellt, soll der der Crew helfen, noch effektiver zu arbeiten.

HP ElitePad 900 dient als Hardwaregrundlage

Das speziell für den Unternehmenseinsatz entwickelte HP ElitePad 900 bringt alles mit, um den besonderen Anforderungen an Bord gerecht zu werden. Es ist leicht und zeichnet sich durch eine lange Akkulaufzeit aus, was gerade bei Langstreckenflügen wichtig ist.

Ein KIS(S) für die Fluggäste

Die Business App „Knowledge Driven Inflight Service“ (KIS) der Emirates Airline dient der weiteren Optimierung des Kundenservices durch Vereinfachung der Kommunikation des Serviceteams auf Flügen. Die Schichtleiter können vor jedem Flug einfach und ohne großen zeitlichen Aufwand die Kabinencrew einweisen, da Informationen wie Namen, Sprachkenntnisse oder Bilder des Servicepersonals dokumentiert und gespeichert werden. Das optimiert den Arbeitsprozess und verbessert die Teamarbeit. Zudem liefert KIS während des Fluges einen schnellen und unkomplizierten Überblick über die sich an Bord befindenden Passagiere. So kann individueller auf die Bedürfnisse der Fluggäste eingegangen werden. Ein Wechsel auf Business oder First Class ist somit noch einfacher realisierbar. Durch die Feedbackmöglichkeit für das Bordpersonal, können Informationen leicht gesammelt und nach der Landung an die digital verbundenen Headquarter weitergeleitet werden.

Kategorien
News

Entwarnung: Windows Azure Compute rollt wieder rund

Kurz nachdem ich den Post zu Windows Azure Compute Problemen in den Regionen „South Central US“ und „West Europe“ veröffentlicht hatte, zeigte das Azure Statusboard wieder alle Status ohne Probleme an (Häckchen ganz links).

Windows Azure Compute rollt wieder rund

Kategorien
News

Windows Azure Compute in "South Central US" und "West Europe" mit Problemen

Zwar ist davon bisher nichts auf Twitter oder sonstigen Medien zu lesen, aber Windows Azure Compute zeigt aktuell Auffälligkeiten bei der Verfügbarkeit in „South Central US“ und „West Europe“. Zudem weiß ich aus einer sehr sicheren Quelle das mindestens ein Unternehmen, dass seinen Service auf Azure Compute betreibt, Probleme hat. Die Webseiten sind nicht erreichbar. Es verwundert hier allerdings ein wenig, dass das Unternehmen hierzu keine Statusmeldung im Social Web geschrieben hat.

Windows Azure Compute in

Das Statusboard berichtet bereits seit dem „20-Nov-12, 9:00 PM UTC“ von Problemen mit der Verfügbarkeit von Windows Azure Compute in den Regionen „South Central US“ und „West Europe“. Im Detail schreibt Microsoft über das „Partial impact to Service management“ für beide Regionen:

20-Nov-12, 9:00 PM UTC

We are experiencing an issue with Compute Service Management in West US, South Central US, North Europe and West Europe sub-regions. We are actively investigating this issue and working to resolve it as soon as possible. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers.

20-Nov-12, 10:00 PM UTC

We are gathering all the data required to identify the root cause and resolve the issue as soon as possible. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers.

20-Nov-12, 11:00 PM UTC

Service Management is still partially impacted for existing and new hosted service deployments in West US, South Central US, North Europe and West Europe sub-regions. Customers may experience failures with Create, Delete and Update operations. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers.

21-Nov-12, 12:00 AM UTC

The incident has been mitigated for new hosted service deployments in the sub-regions. Customers with hosted services already deployed in these sub-regions may still experience service management failures or timeouts. Further updates will be published to keep you apprised of the situation. We apologize for any inconvenience this causes our customers.

21-Nov-12, 1:00 AM UTC

We identified the root cause and are executing the repair steps. The steps will be executed on multiple nodes of the impacted clusters and this will take several hours. Further updates will be published after the recovery is complete. We apologize for any inconvenience this causes our customers.

Kategorien
Kommentar

Dropbox, Microsoft SkyDrive oder Google Drive: Die weiteren Services eines Cloud Storage sind entscheidend

Dropbox ist der Platzhirsch unter den Cloud Storage Services, mit – nach eigenen Angaben – 100 Millionen Nutzern ist der Speicherdienst unangefochten weltweit die Nummer eins. Was man aber nicht vergessen sollte, Dropbox ist „nur“ ein Speicher und hat bisher keine weiteren nennenswerten Vorteile zu bieten. Cloud Storage bedeutet mittlerweile nämlich viel mehr als nur Cloud Storage sowie es auch sehr wichtig ist, mehr als nur reine Infrastruktur anzubieten, wenn man langfristig konkurrenzfähig bleiben möchte. Warum andere Anbieter wie Microsoft SkyDrive deutlich attraktiver sind als Dropbox und warum man Google Drive lieber nicht nutzen sollte, erläutere ich in diesem Artikel.

Dropbox ist nur ein simpler Cloud Storage

Wie ich es bereits vor Kurzem zum Thema Infrastructure-as-a-Services (IaaS) geschrieben habe, muss man als Anbieter mittlerweile mehr bieten als nur „reine“ Infrastruktur wie Rechenleistung oder Speicherplatz. Nur macht genau Dropbox dies nicht. Dropbox ist einfach nur ein Speicher. Um den Cloud Storage herum hat das Unternehmen es bisher nicht geschafft ein eigenes Ökosystem von Services zu schaffen, die dem Nutzer mehr bieten als nur Daten darin abzulegen und per Link zu teilen. Möchte ich zum Beispiel eine Word-Datei über die Webseite aufrufen, um sie „nur“ zu betrachten, öffnet sich das Downloadfenster. Ich bin also auf ein lokales Betriebssystem angewiesen. Dropbox ist daher zu nativ gestrickt. Das hat natürlich den Vorteil, dass für jedes System ein Client zur Verfügung steht, der allerdings auch zwangsläufig benötigt wird.

Wie sieht es aber aus, wenn ich mit mehreren Parteien an einer Datei parallel arbeiten möchte? Online via Webbrowser ist das nicht möglich. Und lokal über einen der nativen Clients? Auch nicht! Dropbox ist einfach nur ein Stück Speicher im Internet ohne weitere Intelligenz, Möglichkeiten der Zusammenarbeit und anderen Mehrwertdiensten.

Microsoft SkyDrive und Google Drive

Wo Dropbox aufhört, fangen Cloud Storage Lösungen wie Microsoft SkyDrive oder Google Drive erst richtig an. Beide Services sind vollständig in das eigene Ökosystem des jeweiligen Anbieters nahtlos integriert und bieten neben dem Speichern weitere Dienste.

Google hat durch die Veröffentlichung von Google Drive ihre Online-Textverarbeitung Google Docs aufgebohrt. Das bedeutet, dass Dokumente die auf Google Drive gespeichert sind auch online im Browser bearbeitet werden können. Und das sogar mit mehreren Leuten gleichzeitig und ortsunabhängig. Microsoft SkyDrive ist ein standalone Cloud Storage Service. Allerdings hat Microsoft mit den Office Web Apps eine abgespeckte Version von bekannten Office Produkten wie Word oder Excel integriert, mit denen Dokumente online und mit mehreren Leuten parallel bearbeitet werden können. Was vielen das bekannte lokale Microsoft Office-feeling auch im Browser ermöglicht.

Ein kleines Minus bekommt SkyDrive, da es derzeit noch keinen nativen Linux-Client von Microsoft gibt. (War ein Kritikpunkt von einem Bekannten, der als Linux-Nutzer ernsthaft über einen Wechsel nachgedacht hatte und auf Grund des fehlenden nativen Linux-Clients es dann gelassen hat.) Allerdings ist die SkyDrive API offen, was es jedem erlaubt, einen eigenen SkyDrive-Client für Linux zu schreiben.

Das alles meine ich mit „Infrastruktur bedeutet mehr als nur Infrastruktur“. Die Services, die von dem Anbieter um die „dumme“ Infrastruktur herum aufgebaut werden, machen den Unterschied.

Die Preise – Dropbox muss nachlegen

Preislich ist Microsoft SkyDrive derzeit unschlagbar günstig. Zunächst bekommt man 7GB kostenlosen Speicherplatz, der für 37 EUR pro Jahr um 100GB erweitert werden kann. Hinzu kommt, das Microsoft ein seriöser und renommierter Anbieter ist, dessen Infrastruktur erprobt ist. Zum Vergleich, bei Dropbox erhält man 100GB für 99 US-Dollar pro Jahr. 100GB kosten bei Google Drive 59,88 US-Dollar pro Jahr.

Google Drive sollte lieber nicht genutzt werden

Auch wenn Google Drive technologisch ein sehr interessanter Cloud Storage ist und viel mehr bietet als ein Dropbox, ist von der Nutzung des Service aus Datenschutzgründen abzuraten.

“Meine größten Bedenken Google Drive zu nutzen sind, dass Google bereits alle meine E-Mails, Web-Analytics Daten und Suchbegriffe besitzt. Möchte ich denen wirklich noch mehr Daten geben?”, Chen S. im Dropbox Forum.

“Wie viele andere Nutzer, bin auch ich nicht erfreut darüber, dass Google über immer mehr Informationen aus meinem Leben verfügt, die ich in ihrer Cloud speichere.”, Christopher H. im Dropbox Forum.

“Google kann diese Daten in irgendeiner Form für interne Zwecke nutzen. Das kann das Verkaufen personalisierter Werbeanzeigen auf Basis meiner hochgeladenen Daten sein.”, Mark Mc. im Dropbox Forum.

Google Pressesprecher Stefan Keuchel hatte nach der Veröffentlichung von Google Drive und den ersten Kritiken bereits Stellung bezogen:

“Drives Nutzungsbedingungen sind eindeutig, was dir gehört, wird auch deins bleiben.”

Natürlich sagt Google, dass alle Daten die in Google Drive gespeichert werden das Eigentum des Nutzers bleiben. Das ist ja wohl selbstverständlich und ist keiner weiteren Stellungnahme würdig. Darum geht es bei dieser Diskussion aber auch nicht! Es geht darum, was Google mit den auf Google Drive gespeicherten Daten macht. Denn es wird nicht endgültig ausgeschlossen, dass Google diese Daten verwendet, um damit weitere Analysen und Geschäfte vorzunehmen. Wenn Google die Daten auf Google Drive dazu verwenden würde, hätte die Nutzung des Google Cloud Storage einen sehr faden Beigeschmack. Eines muss man sich natürlich vor Augen halten. Wenn ich im Internet etwas kostenlos bekomme, bin ich das Produkt. In Googles Fall werde ich mit Werbung “versorgt” und Google kann die Daten für anonyme Analysen nutzen. Allerdings bietet Google ebenfalls kostenpflichtigen Speicherplatz an. Bedeutet, der Nutzer bezahlt für die Leistung die Google erbringt. In diesem Fall wäre es für Google nicht mehr gerechtfertigt, die Daten für Werbezwecke und weiteres zu verwenden. Für die kostenlosen 5GB wäre es grenzwertig aber falsch. Aber wie will Google auseinander halten, welche Daten sich jetzt in dem kostenlosen 5GB Speicher befinden und welche in dem restlichen bezahlten.

Google hat bis heute genau zu dieser Thematik keine Stellung bezogen. Und solange es hierfür keine offizielle schriftliche Aussage von Google gibt, unterstelle ich Google, dass die Daten – auch bei dem kostenpflichtigen Speicherplatz – für eigene Zwecke analysiert und weiterverarbeitet werden. Und solange sollte Google Drive lieber nicht genutzt werden.


Bildquelle: ©Gerd Altmann / PIXELIO

Kategorien
News

Use Case: Cloud Computing hilft Entertainment

Welche Einflüsse haben neue technologische Innovationen wie die Cloud auf die Kreativ-Industrie, welches Potenzial entsteht durch neue Arbeitstechniken und wie verändert sich mit der Microsoft Cloud die tägliche Arbeit in Medien und Produktionsfirmen? Antworten gab das diesjährige Forum D’Avignon, eines der wichtigsten Wirtschafts- und Kulturforen in Europa, das vom 15. bis 17. November in Avignon, Frankreich, stattfand. Die Gäste konnten sich hier über die Innovation des ScreenerOne von Bertelsmann arvato informieren. Das auf der Microsoft Cloud basierende Content Collaboration System ermöglicht es den GrundyUFA Produktionsteams von „Gute Zeiten, schlechte Zeiten“, „Verbotene Liebe“, „Alles was zählt“ und „Unter Uns“ sämtliche Inhalte orts- und zeitunabhängig zu verwalten und abzustimmen.

GrundyUFA setzt auf ScreenerONE

Seit 2011 vertraut GrundyUFA, Marktführer im Segment lang laufender Serien, bei ihren Produktionen auf das Cloud-basierte Content Collaboration System ScreenerONE. Eine Applikation, die die Bertelsmann-Tochter arvato gemeinsam mit GrundyUFA und Microsoft Partnern entwickelt hat. Auf Basis der Microsoft Cloud Windows Azure kam der ScreenerONE zunächst bei der Produktion des Daily Dramas „Verbotene Liebe“ zum Einsatz. Die erfolgreiche Evaluierungsphase einhergehend mit den positiven Veränderung im täglichen Workflow der GrundyUFA Kreativteams führten nun zu der Erweiterung der Collaboration-Plattform zu einer unternehmensweiten Lösung. Seitdem kommt der ScreenerONE auch bei den Produktionen „Gute Zeiten, schlechte Zeiten“, „Alles was zählt“ und „Unter Uns“ zum Einsatz, die täglich für ein Millionenpublikum produziert werden.

ScreenerONE – Im Praxiseinsatz bewährt

Zeit ist kostbar, vor allem bei der Produktion von Daily-Dramas. Daher konzentrierte sich die Zielsetzung von GrundyUFA in der Evaluierungsphase der Lösung auf die erfolgreiche Umsetzung ihres „24h Konzepts“: Innerhalb von 24 Stunden nach Dreh müssen alle inhaltlichen Abstimmungen erfolgt sein, unabhängig wo gedreht wird und wo die Ansprechpartner sitzen. Was wiederum die Sicherstellung einer effektiven Zusammenarbeit über verschiedene Kanäle und Devices einschließt. Als Collaboration-Plattform erlaubt der ScreenerOne dem Produktionsteam sämtliche Inhalte, von Video-Sequenzen und Storyboards, über Tonaufnahmen und Scripts bis hin zu Pressefotos einer jeden Folge zu verwalten, Metadaten einzusehen und Anmerkungen einzufügen.
Räumliche Distanzen spielen dabei für die Produktionen keine Rolle mehr. Gedrehtes Material – unabhängig ob Daily Drama oder Online Serien – wird in Echtzeitkommunikation von überall, zu jedem Zeitpunkt und Device-unabhängig, ob PC, Notebook, Smartphone oder Tablet, bewertet und abgestimmt. Die Arbeitsweise entfernt sich auf diese Weise von hierarchischen Prozessen und organisiert sich fortan collaborativ, drehfreie Zeiten werden reduziert und ein produktives Arbeiten ermöglicht.

Green Producing in der Windows Cloud

Indem der GrundyUFA Workflow in der Microsoft Cloud vollkommen datenträgerfrei ist, führt er neben der Reduktion von Kosten zu wichtigen Einsparpotenzialen für die Umwelt. So verringerte sich beispielsweise beim Mallorca-Dreh der „Verbotene Liebe“ der Transportaufwand für Film- und Datenmaterial auf der Insel und von der Balearen-Insel nach Deutschland deutlich. Dabei gelten für die Film- und Medienbranche besondere Anforderungen an die Lösungen und die Cloud-Plattform, auf der die Lösung betrieben wird. Hierzu zählt auch die Unterstützung verschiedener Dateiformate, sodass die vor Ort erstellten Clips Device-übergreifend fehlerfrei abspielbar sind. Daneben gewährt die Windows Azure Technologie eine hohe Skalierbarkeit und Verfügbarkeit, sodass GrundyUFA ihren Workflow jederzeit ihren echten Anforderungen anpassen kann. Mit sicheren Rechenzentren und einer speziellen Microsoft Play Ready Technologie sorgt Microsoft zudem für den Schutz der Medieninhalte vor illegalen Raubkopien und schützt somit das geistige Eigentum der Produktionsfirma.

Kategorien
News

DataCore SANsymphony-V im pay per use Modell

Advanced Digital Network Distribution (ADN) und Insight Technology Solutions (Insight) vertreiben ab sofort die Storage-Hypervisor-Software SANsymphony™-V über „Pay as you Serve“-Lizenzen. Cloud Service Provider und Hosting-Anbieter können die Speichervirtualisierung von DataCore in vollem Funktionsumfang ohne Investitionsrisiko in ihrer Infrastruktur einsetzen und die Mietkosten exakt nach der monatlich genutzten Speicherkapazität abrechnen. IT-Dienstleister können so ihre Kosten direkt an den Umsatz koppeln.

Lizenzierungsmodell für Cloud Service Provider

Das neue Lizenzierungsmodell hatte DataCore erst im Juni diesen Jahres angekündigt, und jetzt mit ADN und Insight die ersten Aggregationspartner gewonnen, die die Vorteile des Storage-Hypervisors auf Basis eines „Pay as you Serve“-Mietmodells für Cloud Service Provider anbieten. DataCore passt damit sein Lizenzierungsmodell für Cloud Service Provider an das von Virtualisierungsanbietern wie VMware, Microsoft und Citrix an und erleichtert diesen Partnern das Einrichten von flexiblen Cloud- und Hosting-Diensten.

Storage-Hypervisor für hochverfügbaren virtuellen Speicher

Der Storage-Hypervisor SANsymphony-V ermöglicht die hardwareunabhängige Bereitstellung, Replikation und Sicherung von hochverfügbarer virtueller Speicherkapazität und eignet sich aufgrund seiner Flexibilität, Modularität und Skalierbarkeit optimal für den Einsatz in dynamischen Private- und Public-Cloud-Umgebungen. Die Angebote von ADN und Insight beinhalten Komplettlizenzen der SANsymphony-V-Software für eine Mindestvertragslaufzeit von zwölf Monaten, zusätzliche Lizenzen für interne Testzwecke, 24x7x365-Support sowie sämtliche Software-Updates im Mietzeitraum.

SANsymphony-V verwaltet und sichert gehostete IT-Umgebungen und versorgt sie mit hoher Performance, Skalierbarkeit und Auto-Tiering-Funktion. Die Neuerungen des Release 9, dem „Storage-Hypervisor für die Cloud“, sind dabei optimiert für die Anforderungen von „Infrastructure as a Service“ und Cloud Storage:

  • Automatische, dynamische Allokation von Speicherressourcen von SSD, schnellen und kostengünstigen Disk bis hin zu Cloud Storage; „Heat Maps“ ermöglichen dabei die Lastverteilung.
  • Gruppenbefehle vereinfachen und automatisieren die Administration.
  • Integration verteilter Storage-Ressourcen unabhängig von Modell oder Hersteller, an lokalen oder entfernten Standorten.
Kategorien
News

Microsoft legt den Schwerpunkt von SharePoint 2013 auf Social Collaboration und die Cloud

Auf der diesjährigen SharePoint-Konferenz in Las Vegas hat Microsoft die wichtigsten Neuerungen in SharePoint 2013 vorgestellt. Der Fokus bei der Weiterentwicklung des Produktes lag dabei auf dem Ausbau der Funktionalität in den Bereichen der mobilen Zusammenarbeit, Cloud und dem schnell wachsenden Markt der Social Collaboration. Dabei handelt es sich um die Zusammenarbeit in Teams, die über soziale Netzwerke agieren.

Social Enterprise verändert die Arbeitswelt

Die SharePoint-Konferenz widmete sich ausführlich dem Thema Social Enterprise. Microsoft erläuterte dabei seine Vision für künftige Arbeitswelten und stellte die Roadmap für die weitere Integration von Yammer und SharePoint vor. „Wir werden künftig ganz selbstverständlich soziale Netzwerke in unserer Kommunikation und im Arbeitsalltag nutzen“, sagt Jeff Teper, Corporate Vice President Microsoft. „Enabler dafür sind Anwendungen und Technologien, die Mitarbeiter genau diesen Handlungsspielraum eröffnen und intelligent die Möglichkeiten sozialer Netzwerke mit Collaboration, E-Mail und Unified Messaging verbinden.“

Als wichtigen Schritt für die Umsetzung dieser Vision hat Microsoft die Roadmap für die Integration von SharePoint und Yammer vorgestellt. Bereits heute können Anwender die beiden Systeme mit Web Parts und dem neuen Yammer Open Graph zu einer durchgängigen Lösung verbinden. Darüber hinaus werden künftig einheitliche Anwenderprofile, Dokumenten-Management-Funktionen und Feed Aggregation für eine engere Verzahnung beider Lösungen sorgen.

Die Vision von „Social Enterprise“ unterstreicht Microsoft auch durch die Vereinfachung seines Angebots- und Preismodells für Yammer. In „Microsoft Yammer Enterprise“ werden künftig die verschiedenen bezahlten Services in einem Angebot zusammengefasst. Der Anwender bezahlt dann drei US-Dollar monatlich, statt wie bisher 15 US-Dollar. Auch eine engere Verknüpfung mit Microsoft SharePoint Online und Office 365 Enterprise ist geplant.

Ausbau der Funktionalität

Zu den wichtigsten Erweiterungen, die jetzt vorgestellt wurden, gehört dabei beispielsweise die neue „Drag and Drop-Funktionalität“, sodass Dokumente schneller via SharePoint bereitgestellt werden können. Neu ist auch, dass sich Aufgaben über Outlook, Project und SharePoint hinweg konsolidieren lassen.

Ebenfalls verbessert wurde die Suchfunktionalität, um schneller genau die Informationen zu finden, die der Anwender sucht und gegebenenfalls Empfehlungen zu geben, zusätzlich relevante Kollegen oder Dokument zu nutzen.

Auch an der Basis von SharePoint hat Microsoft Änderungen vorgenommen, mit dem Resultat verbesserter Skalierbarkeit und Performance auf Grund einer neuen Cloud-Architektur. Das Web Content Management wurde ausgebaut und vereinfacht nun Cross-Site-Publishing.

Darüber hinaus ermöglicht der Ausbau des Risk Managements den IT-Abteilungen in den Unternehmen eine bessere Kontrolle über die Verteilung von Dokumenten über SharePoint, Exchange und Lync hinweg.

Neues Cloud App Model

Ergänzend zu dem breit angelegten Investment für SharePoint Online, verfügt SharePoint 2013 künftig über ein neues Cloud App Model. Microsoft adressiert damit gezielt die über 700.000 Entwickler, die basierend auf SharePoint ihre Applikationen und Anwendungen realisieren. Das neue Cloud App Model und der neue Office Store sollen ihnen die Entwicklung, den Kauf, Roll-out und die Verwaltung ihrer Applikationen weiter vereinfachen. Darüber hinaus kündigte Scott Guthrie, Corporate Vice President und verantwortlich für die Server und Tools Business Division, weitere neue Tools für die Entwicklung von Apps auf Basis von Office und SharePoint mit Visual Studio 2012 an.

Mobile Apps sorgen für Zugriff auf Dokumente und Daten

Um Anwender die Möglichkeit zu bieten, von überall und unabhängig vom Endgerät auf Dokumente und Daten zugreifen zu können, stehen ihnen künftig SharePoint Mobile Apps zur Verfügung. Über verschiedene Endgeräte, Windows 8, Windows Phone, iOS und Android Devices, können sie dann sowohl auf SharePoint 2013 als auch auf SharePoint Online zugreifen.

Kategorien
News

Microsoft veröffentlicht Roadmap für Windows Embedded 8

Microsoft hat die Produkt- und Technologie-Roadmap für seine Windows Embedded 8 und Windows Embedded Compact 2013 Produkte vorgestellt. Die Ankündigung ist ein weiterer Schritt des Unternehmens zur Verwirklichung seiner Vision von intelligenten Systemen, deren Grundlage die Embedded-Technologie bildet. IDC geht davon aus, dass intelligente Systeme bis 2016 Geschäftsmöglichkeiten mit einem Volumen von 1,4 Billionen US-Dollar hervorbringen.

Windows 8 Funktionen für Embedded Devices

Erst kürzlich hat Microsoft seine Test-Version von Windows Embedded 8 Standard zur Verfügung gestellt. Die Software unterstützt eine wachsende Bandbreite an Applikationen, mobilen Endgeräten, Architekturen und Systemanforderungen. Damit stehen den Nutzern von Spezialgeräten innerhalb intelligenter Systeme dann auch die Funktionalitäten von Windows 8 zur Verfügung. Geplant ist die allgemeine Markteinführung für März 2013.

Daneben unterstützt Windows Embedded Compact 2013 Kleinstgeräte, die eine flexible Hardware, Touch- und Gesten-basierten Input sowie umfangreichen Echtzeit-Support benötigen. Die Software wird im zweiten Quartal 2013 verfügbar sein und genauso wie Windows Embedded 8 Support für Visual Studio 2012 beinhalten.

Embedded-Technologie: Ein wichtiges Geschäftsfeld von Microsoft

Partner und Unternehmen werden von den vielen Funktionen profitieren, die sie auch schon von Windows 8 kennen – insbesondere die Nutzung von Touch- und Gesten-Technologie, die aus der Interaktion mit Spezialgeräten wie POS-Systemen, medizinischen Applikationen sowie in Autos integrierten Technologien ein natürlicheres Nutzererlebnis machen.

Die Weiterentwicklung der Embedded-Technologie ist ein wichtiges Geschäftsfeld von Microsoft. Die zunehmende Konnektivität zwischen Spezialgeräten, PCs, Back-end-Systemen und der Cloud sowie die infolge dessen wachsende Welt der intelligenten Systeme, die Big Data nutzen, birgt enorme Marktchancen. Es gibt viele attraktive Einsatzmöglichkeiten, die sich von Business Intelligence über sehr spezifisch vertikale bis hin zu weit verbreiteten Lösungen erstrecken – beispielsweise in Form von Wearable Technology, bei der Kleidungsstücke mit Computertechnologie ausgestattet sind.