Kategorien
News

Google erhöht die Sicherheit für seine Cloud Developer Services

Google hat die Sicherheit seiner Cloud Services speziell für Entwickler noch einmal erhöht. So können Services wie Cloud Storage nun mit Anwendungen über Zertifikats-basierte Dienste kommunizieren.

Statt mit Shared Keys und Passwörtern zu arbeiten, wird mit Zertifikaten die Authentifizierung deutlich erhöht, da diese nicht von Menschen lesbar und zu erraten sind, schreibt Justin Smith in einem Blogbeitrag.

Zu den Google Services, die diese neue Authentifizierungsmechanismen nutzen gehören Google Cloud Storage, Google Prediction API, Google URL Shortener, Google OAuth 2.0 Authorization Server, Google APIs Console und Google APIs Client Libraries for Python, Java und PHP.

Google ist bereits dabei, weitere APIs und Client Libraries mit dem Mechanismus zu erweitern. Die Funktion ist als ein OAuth 2.0 Flow implementiert und entspricht dem Entwurf 25 der OAuth-2.0-Spezifikation.


Bildquelle: http://searchengineland.com, http://blogspot.com

Kategorien
News

BigQuery: Google bringt Big Data Service in die Cloud

Während viele Experten davon ausgehen, dass Systeme rund um das Thema Big Data On-Premise installiert werden, geht Google den Cloud Weg und hat einen Service entwickelt, mit dem große Mengen an Daten in der Cloud analysiert werden können, ohne dabei in eine eigene kostspielige Infrastruktur wie ein Data-Warehouse zu investieren.

Google bringt mit BigQuery einen Big Data Analytics Service in die Cloud

Der Service nennt sich BigQuery und soll Unternehmen und Organisationen bei der Analyse ihrer Daten helfen ohne die dafür notwendige Infrastruktur zu besitzen. Mit BigQuery soll es möglich sein eigene Anwendungen zu entwickeln und die damit generierten Daten als Service bereitzustellen. Also: „Data-as-a-Service“! BigQuery steht derzeit nur in einem eingeschränkten Vorschau-Modus für eine kleine Anzahl an Test-Nutzern zur Verfügung. Wann der Service im vollem Umfang zur Verfügung steht, ist noch nicht klar.

Da Google auf Grund der Indexierung des Webs auf Systeme für die Analyse riesiger Datenmengen angewiesen ist, wurden entsprechend bereits einige Tools entwickelt, die allerdings nur für den internen Einsatz vorgesehen sind. Aus diesen Tools wurde nun der BigQuery Service quasi abgeleitet.

Ein Test-Nutzer ist We Are Cloud, Anbieter eines Business Intelligence Cloud Service aus Montpellier in Frankreich.

Kategorien
Analysen

Verliert die Google App Engine ihre Attraktivität?

Platform-as-a-Service (PaaS) gehört mit Abstand zu den Zukunftsthemen im Cloud Computing. Im Jahr 2011 kamen neben bereits bestehenden Anbietern wie Heroku, Cloud Foundry, Engine Yard, Beanstalk, Windows Azure, Force.com, OpenShift oder cloudControl, viele weitere hinzu, was die mediale Präsenz dieses Cloud Bereichs anhob. Nur um einen Service ist ein wenig ruhig geworden: Die Google App Engine.

Die Google App Engine war bereits sehr früh verfügbar

Die Google App Engine (GAE) gehört mit der Erscheinung im Jahr 2008 zu einer der ersten PaaS am Markt und war der einzige Service der Python und Java gleichzeitig unterstützte. Aber im Laufe der Jahre hat die Innovation rund um GAE deutlich nachgelassen.

Startups und Entwickler gehörten zu den Hauptnutzern von GAE. Das lag in erster Linie an den Möglichkeiten der weitestgehend kostenlosen Nutzung und den nicht notwendigen Investitionen in SDKs und Plugins. Ein weiterer Grund war die geringe Auswahl an Angeboten. Java und Python Entwickler würden niemals Windows Azure wählen, was zu diesem Zeitpunkt die einzige Alternative war. Nach und nach entwickelte sich Heroku (mittlerweile von Salesforce aufgekauft) zu einer echten Alternative für Python Entwickler, auf Kosten der Google App Engine. Doch bereits während der Anfangsphase der GAE hat Google es verpasst die riesige Anzahl an gehosteten Anwendung an Bord zu behalten und die wichtige Entwickler Community für sich zu gewinnen. Was ist also der Grund für den Abstieg der Google App Engine?

Refactoring und Vendor lock-in

Ein Hauptproblem der Google App Engine besteht in den massiven Änderungen die vorgenommen werden müssen, wenn eine Anwendung auf die GAE portiert werden soll. Befindet sich die Anwendung dann auf der GAE, kann sie ausschließlich die proprietäre API nutzen, was es Entwickler sehr schwierig macht, später die Plattform wieder zu wechseln. Selbst Standard Java Web Anwendungen müssen an vielen Stellen angepasst werden, um auf der GAE betrieben zu werden. Während Heroku weitere Funktionen hinzufügte und für eine bessere Kontrolle sorgte, schränkte Google die Entwickler mit der proprietären API ein.

Beta-Status und Innovationen

Microsoft, das für seine langen Release-Zyklen bekannt ist, hat es geschafft das Azure SDK mehrfach zu aktualisieren und das Management Portal häufig zu verbessern. Die Google App Engine orientiert sich an Googles „Beta-Status“ Tradition. So blieb die GAE für fast drei Jahre im Beta-Status, was professionellen Entwicklern nicht die Sicherheit gab, ihre Produktionsanwendungen auf die GAE zu portieren. Während Google in der jungen Vergangenheit mit Pull Queues, Cloud SQL und der Blobstore API viele der gewünschten Funktionen umsetzen konnte, hat es lange gedauert auf die Bedürfnisse der Kunden zu reagieren.

Schlechte Unterstützung für Unternehmensanwendungen

Lange unterstützte die GAE nur zustandslose Web Anwendungen. Technologisch betrachtet können auf der GAE somit nur Web Anwendungen entwickelt werden, die keine komplexe Business-Logik benötigen. Bspw. verfügt Windows Azure über ein Rollenkonzept (Web Roles), um Web Anwendungen zu betreiben und Worker Roles, um damit lang laufende Prozesse und komplexe Geschäftsregeln ausführen zu lassen. Ähnlich verhält es sich bei Heroku, wo der Web Dyno und Worker Dyno diese Funktionen aufteilen. Bis zur Einführung von Backends in der Version 1.5.0 (Mai 2011), machte diese mangelnde Unterstützung zur Aufteilung einer Anwendung es schwierig Unternehmensanwendungen auf die GAE zu migrieren.

Der Datenzugriff

Lange nutzte die Google App Engine ausschließlich Big Table als primären Datenspeicher. Amazon zog schnell mit SimpleDB nach, führte damit weitere Funktionen ein und veröffentlichte mit RDS einen Database-as-a-Service. Zuletzt folgt dann DynamoDB. Das Fehlen eines guten Speichers für Transaktionsdaten schränkte die Entwickler bei der Nutzung der GAE stark ein. Jede Anwendung die professionell eingesetzt werden soll, benötigt zwangsläufig eine Kombination aus relationaler und NoSQL-Datenbank, um innerhalb der Cloud zu skalieren. Die GAE verfügte nicht über diese Funktionen, die für Daten-intensive Anwendungen erforderlich sind. Services wie BlobStore und Cloud SQL kamen demnach viel zu spät.

Vermarktung

Mit der Google App Engine hatte Google die ideale Position, Startups eine kostengünstige Plattform anzubieten. Sie wäre ideal gewesen, um typische Web-Anwendungen für den Markt der Endverbraucher zu entwickeln und bereitzustellen. Allerdings hat Google sich hier von Anfang nicht deutlich positioniert. Typische Low-End Web-Anwendungen, die prädestiniert für den Einsatz auf der App Engine gewesen wären, haben sich für Heroku entschieden, wohingegen High-End Anwendungen und Anwendungen mit hohen Workloads zu Amazon EC2 gegangen sind. Die Einführung der Amazon Micro Instanzen und die Free Tier Angebote haben der Google App Engine zudem weiterhin geschadet. Bis heute kann man nicht eindeutig sagen, welchen Platz die Google App Engine auf der mittlerweile großen Landkarte des PaaS einnimmt. Soll sie, aus Sicht von Google, genutzt werden, um Low-End Web-Anwendungen zu betreiben oder doch lieber für Unternehmensanwendungen?

Kosten

Natürlich mag es niemand, wenn ein vormals kostenloser Service nun bezahlt werden muss. Jedoch muss Google mit der App Engine auch irgendwann Geld verdienen. Allerdings hielten die Entwickler das neue Preismodell für äußerst unangemessen. Es gab einen riesen Aufruhr in der Community, als Google die neue Preisstruktur vorstellte. So stellten viele Kunden fest, dass ihre Kosten plötzlich um das drei- bis fünffache steigen würden. Das führte zu einem großen Bruch mit der Community, wodurch u.a. einige Startups von der Google App Engine zu Amazon EC2 bzw. zu einem klassischen Web Hoster gewechselt sind.

Sonstiges

Die GAE Entwickler Community hat den Eindruck, dass die App Engine im Vergleich zu Android innerhalb von Google schlechter angesehen wird. Das führt ebenfalls zu einer schlechten Stimmung.

Google und VMware kündigten damals auf der Google I/O im Jahr 2010 eine Partnerschaft an, um Spring auf die Google App Engine zu portieren. Trotz der Ankündigung kaufte VMware dennoch RabbitMQ und WaveMaker und brachte mit Cloud Foundry seine eigene PaaS Lösung auf den Markt. Während VMware CloudFoundry als Open PaaS positionierte, blieb die Google App Engine auf der Strecke.

Ein weiterer Rückschlag für Google war der Verlust des bekannten GAE Evangelist Patrick Chanezon, der als Head of Developer Relations zu VMware wechselte, um damit CloudFoundry zu stärken.

Kategorien
Services

E-Mail Migration mit der Cloud

Der Datentransfer zwischen zwei E-Mail Providern macht nicht wirklich Spaß und hat ebenso viele Probleme bereitet. Aber vor allem war es unbequem. Per POP3 die Daten aus dem einen Postfach herunterladen und in das Neue integrieren. Zeitraubend und langweilig. Aber dafür gibt es nun etwas aus der Cloud.

Der Service nennt sich ganz klassisch E-Mail Umzug und hilft bei der automatisierten Migration der Daten eines Postfaches in ein neues. Derzeit werden 14 Provider unterstützt zwischen denen die Postfächer gewechselt werden können. Aber auch die Migration von Provider > On-Premise bzw. On-Premise > Provider oder On-Premise > On-Premise ist möglich. Dafür werden aktuell 9 E-Mail Systeme unterstützt. Eine Voraussetzungen dafür ist jedoch der öffentliche Zugriff auf das jeweilige On-Premise System, da die Migration und Steuerung über den Umzugsdienst vorgenommen wird.

E-Mail Migration in und aus der Cloud

Um den Umzug zu starten, wählt man den aktuellen Anbieter und den neuen Anbieter, bestellt sich einen Voucher (pro E-Mail Konto wird einer benötigt), startet die Migration und wartet. Je nach Postfachgröße dauert diese mehrere Minuten bzw. Stunden. Allerdings sorgt das System für den Rest. Über eine Statusseite kann der aktuelle Vorgang pro Postfach überwacht werden und berichtet über mögliche Fehler während der Migration.

E-Mail Migration in und aus der Cloud

Die Kosten pro Postfach das migriert werden soll, betragen 14,99 EUR. Hier werden alle E-Mails umgezogen, wobei die Größe des Postfaches nicht größer als 10 GB sein darf. Der Dienst bietet ebenfalls einen kostenlosen Umzug von Postfächern. Hier ist die Größe allerdings auf 20 MB beschränkt und es werden nur die E-Mails der letzten 10 Tage berücksichtigt. Zum Testen sollte das dennoch ausreichen.

Der Service eignet sich gut für Unternehmen die eine Vielzahl von Postfächern migrieren wollen, aber auch für Provider oder Webhoster, die den Dienst als White-Label ihren eigenen Kunden anbieten möchten. Auch für Studenten könnte ein Nutzen vorhanden sein, da die Konten nach der Exmatrikulation in der Regel nur ein paar Wochen aktiv bleiben. Hier kann ggf. auch der kostenlose Dienst ausreichen.

Die E-Mail Migration sollte nur der Anfang bleiben, wenn man bedenkt, welche weiteren wichtigen Daten in Zukunft bei Providern gespeichert werden. Neben E-Mail Services bieten Google mit Docs, Microsoft mit Office 365 bzw. SkyDrive oder auch Zoho mit Writer und weiteren Tools, Lösungen für das Arbeiten in der Cloud, währenddessen immer mehr Daten generiert werden, die ggf. migriert werden müssen.

Kategorien
Analysen

Microsoft und Amazon liefern sich Preiskampf in der Cloud

Als Anbieter mit einem großen Public Cloud Portfolio kämpft Microsoft nun nicht mehr nur mit Google, sondern liefert sich seit kurzem auch einen Preiskampf mit den Amazon Web Services. Das gute daran: die Gewinner sind die Nutzer.

Der Kampf verlagert sich in die Cloud

Nachdem Microsoft am Ende der vergangenen Woche seine Preise für Windows Azure Storage und Windows Azure Compute gesenkt hat und damit auf die Preissenkungen der Amazon Web Services, ebenfalls in der vergangenen Woche, reagiert hat, befinden sich die derzeitigen Preise für Speicherplatz und Rechenleistung aus der Cloud auf einem niedrigen Rekordniveau und befinden sich auf dem Stand hiesiger Stromtarife.

Die Frage ist, wie lange das noch so weitergehen kann, denn die Preise können im Prinzip nur weiter fallen. Betrachten wir nämlich die Tatsache, das die Stromtarife auf Erdgaspreisen, saisonalen Einflüssen und weiteren Variablen basieren, kann Cloud Computing noch günstiger werden.

Die Preisgestaltung beider Anbieter ist nicht direkt vergleichbar, da die Preise und Dienstleistungen variieren. Aber die Kernaussage dieses Wettbewerbs ist eindeutig: Die Preise werden weiter sinken.

Beispielweise kostet eine Amazon Small (Standard) On-Demand Instanz mit Linux/Unix 0,090 Dollar (ca. 0,067 EUR) pro Stunde. Eine Windows Instanz 0,115 Dollar (ca. 0,088 EUR) pro Stunde. Ich zahle derzeit ca. 0,244 EUR pro Kilowattstunde an meinen Stromanbieter.

Beide Anbieter argumentieren, dass sie ihre eigenen Einsparungen (Economies of scale) sehr gerne an ihre Kunden weiterreichen und fokussieren Entwickler, Startups, kleine Unternehmen sowie Großkunden.

Nachdem nun aber auch HP und weitere Anbieter in den Cloud Computing Markt für IaaS Ressourcen eingestiegen sind, werden die Preise noch weiter fallen.


Bildquellen: http://www.merkur-online.de, http://diepresse.com

Kategorien
Analysen

Sinn und Unsinn von Cloud Siegeln, Zertifikaten, Verbänden und Initiativen

Axel von Leitner, Mitbegründer und Geschäftsführer von 42HE, einem Cloud Startup aus Köln hat auf dem Unternehmensblog die Problematik und Situation mit Cloud Computing Siegeln und Verbänden bzw. speziellen Initiativen stark kritisiert.

Dem Grundtenor von Axel muss ich zustimmen. Aber fangen wir von Vorne an. Es existieren mittlerweile einige Verbände und Initiativen, wie wir es auch aus anderen Bereichen kennen. Dazu gehören z.B. Verbände und Vereine wie EuroCloud, SaaS-EcoSystem oder Initiativen wie Cloud Services Made in Germany und Deutsche Wolke.

Cloud Computing ist ein globaler Ansatz und kein deutsches Konzept

Was insbesondere die Initiativen gemeinsam haben ist, dass Sie mit diversen Versprechen versuchen, so viele Anbieter von Cloud Computing Services wie möglich in die eigenen Reihen zu lotsen. Vor allem „Cloud Services Made in Germany“ springt auf das vermeintliche Qualitätsmerkmal Made in Germany auf und verspricht dabei „Mehr Rechtssicherheit bei der Auswahl von Cloud-basierten Diensten…“.

Cloud Computing aus Deutschland = Qualität?

Die Liste der Unternehmen, die sich an „Cloud Services Made in Germany“ beteiligen ist lang. Die Prüfungskriterien äußerst schwach, was die hohe Beteiligung erklären könnte. Für die Aufnahme muss ein Unternehmen folgende Kriterien erfüllen:

  • Das Unternehmen des Cloud Service-Betreibers wurde in Deutschland gegründet und hat dort seinen Hauptsitz.
  • Das Unternehmen schließt mit seinen Cloud Service-Kunden Verträge mit Service Level Agreements (SLA) nach deutschem Recht.
  • Der Gerichtsstand für alle vertraglichen und juristischen Angelegenheiten liegt in Deutschland.
  • Das Unternehmen stellt für Kundenanfragen einen lokal ansässigen, deutschsprachigen Service und Support zur Verfügung.

Quelle: http://www.cloud-services-made-in-germany.de/beteiligung

Die Frage die man sich hier nun stellen sollte ist, wo ist das wirkliche Qualitätskriterium, dass die Initiative prüft? Handelt es dabei sich um ein Qualitätsmerkmal, dass ich meinen Firmensitz in Deutschland habe? Nein! Das ich einen deutschen Support anbiete? Ja, vielleicht! Das ich meine Geschäfte und Verträge nach deutschem Recht abschließe? Recht und Datenschutz als Qualitätmerkmal? Ist das nicht ein bisschen weit hergeholt?

In den Kriterien wird in keinster Weise auf die wirkliche Qualität eines Service eingegangen. Darf sich der Service wirklich Cloud Service nennen? Wie ist das Abrechnungsmodell? Sorgt der Anbieter für eine Cloud Computing konforme Skalierbarkeit und Hochverfügbarkeit? Und viele weitere Fragen, die essentiell wichtig sind, um die Qualität eines Cloud Service zu bewerten!

Die Initiative „Cloud Services Made in Germany“ versteckt sich leider einzig und allein hinter den vermeintlich hohen Datenschutzanforderungen in Deutschland, sagt aber nichts über die tatsächliche Qualität eines Cloud Computing Anbieters bzw. dessen Services aus.

Eine Cloud für Deutschland?

Dieser Aufgabe hat sich die Initiative „Deutsche Wolke“ gewidmet. Es handelt sich dabei um einen Zusammenschluß deutscher und internationaler Organisationen zum Aufbau einer föderalen Cloud-Infrastruktur für Deutschland. Die Initiative verkauft sich zwar leider ebenfalls unter dem Deckmantel von „Made in Germany“, hat aber dennoch einen ganz anderen qualitativ höherwertigen Anspruch als z.B. „Cloud Services Made in Germany“.

Denn mit mit einer eigenen Cloud Infrastruktur auf Basis von offenen Standards und Schnittstellen und unter dem Aspekt hoher Verfügbarkeit und strengen Datenschutzrichtlinien werden die derzeit noch überschaubaren Partner von „Deutsche Wolke“ anscheinend deutlich besser überprüft.

Dennoch argumentiert auch die „Deutsche Wolke“ verstärkt mit den hohen Datenschutzrichtlinien in Deutschland.

Auch die Verbände wollen mir ihren Zertifikaten ein Wort mitreden

Dann gibt es noch die Verbände EuroCloud und SaaS-EcoSystem, die vor allem durch ihre Gütesiegel und Zertifikate auffallen. EuroCloud hat dafür seinen SaaS Star Audit im Angebot. Das SaaS-EcoSystem hingegen hat mit „Cloud-Experte“ sein Qualitäts-Zertifikat für Saas & Cloud Computing Berater sowie sein „Trust in Cloud“ für Cloud Computing Anbieter.

Die Qualität und der Nutzen solcher Zertifikate und Gütesiegel stehen und fallen natürlich mit den Unternehmen, die mit der Prüfung beauftragt sind sowie den Prüfkriterien. Hinzu kommt ebenfalls ein großer Geldbeutel, um sich zertifizieren zu lassen. Speziell das Zertifikat „Cloud-Experte“ des SaaS-EcoSystem ist mit Vorsicht zu genießen. Bisher haben nur zwei Marketingexperten(!) das Zertifikat erhalten, was ich bereits in einem älteren Artikel kritisiert habe.

Aber auch bei dem EuroCloud SaaS Star Audit scheint sich bisher nicht viel getan zu haben. Zumindest gibt es seit dem letzten Artikel keine neuen Services, die einen Star Audit erfolgreich absolviert haben.

Deutschland doch kein Qualitätskriterium für die Cloud?

„Cloud Made in Germany“. Wer den vermeintlich höheren Datenschutz als Wettbewerbsvorteil sieht ist auf dem falschen Weg in die Cloud! Denn das ist ein Trugschluss und ein Argument was nicht zutrifft.

Natürlich darf der Patriot Act nicht unterschätzt werden. Insbesondere auf Grund seiner nicht vorhandenen Transparenz, wann welche US-Regierungseinheit Zugriffe auf bestimmte Daten erhält. Jedoch sollte man nicht vergessen, das seit jeher ein deutscher Staatsanwalt in ein Rechenzentrum Zugriff erhalten kann, wenn er einen trifftigen Grund hat. Sei es nun beim Cloud Computing oder Outsourcing. Auch wenn hier zunächst ein richterlicher Beschluss vorliegen muss.

Zudem haben auch unsere deutschen Politiker daran Interesse unkompliziert Zugriff auf diverse Daten zu erhalten. Diese Diskussionen werden ebenfalls schon seit Jahren geführt. Ich bin kein Jurist und schon gar kein Politiker und kann dazu nicht viel sagen. Allerdings halte ich es für falsch, sich nur auf den Datenschutz auszuruhen. Made in Germany steht für Qualität das ist richtig, aber nicht zwingend im Bereich der Informationstechnologie und schon gar nicht im Bereich Cloud Computing – es gibt natürlich ein paar Ausnahmen. Es ist schade, dass so schreiben zu müssen, aber die Realität ist, das uns andere Länder, insbesondere die USA Jahre voraus sind. Diese schießen erst und entschuldigen sich später, wohingegen die Deutschen über alles debattieren (müssen) bevor eine Entscheidung getroffen wird. Deutsche Unternehmen sollten sich lieber auf ihre Innovationskraft konzentrieren, die definitiv vorhanden ist, anstatt sich hinter Siegeln zu verstecken.

Denn wie wir sehen, haben es die Cloud Computing Player wie Amazon, Google, Microsoft oder auch Salesforce nicht nötig, sich mit einem (deutschen) Siegel, Zertifikat oder dergleichen zu profilieren und denen interessiert es auch nicht, zu recht! Schließlich ist Cloud Computing ein globaler Ansatz und kein deutsches Konzept!

Kategorien
News

Google senkt die Preise für seinen Cloud Storage

Rückwirkend zum 01. März hat Google die Preise für seinen Entwickler Cloud Storage gesenkt und präsentiert zudem Partner, die auf dessen Basis bereits Produkte entwickelt haben.

In einem Blogpost kündigt Google an, die Preise für seinen Cloud Storage zu senken. Der Storage ermöglicht es Entwicklern in Unternehmen die Daten einer Anwendung direkt in der Cloud zu speichern, anstatt dafür die eigenen Server zu nutzen. Die monatlichen Gebühren fallen dementsprechend zwischen 8 und 15 Prozent, je nach Menge der gespeicherten Daten.

Darüber hinaus nennt Google mit Panzura, StorSimple, TwinStrata, Zmanda und Gladinet Unternehmen, die den Cloud Storage bereits in ihren Produkten nutzen.


Bildquelle: http://gizmodo.com

Kategorien
News

Microsoft bietet der US-Regierung eine spezielle Cloud-Option für Office 365 – Was wird Google tun?

Microsoft will sich mit einem Schachzug die Gunst der US-Regierung sichern und bietet speziell für US-Regierungsbehörden eine Option, Office 365 in einer eigenen „Community Cloud“ zu hosten, die nur Kunden der Regierung zur Verfügung steht.

Innerhalb dieser „Community Cloud“ werden die Daten der Kunden des öffentlichen Sektors in einer separaten Cloud-Umgebung gespeichert.

Bei der Option handelt es sich um den jüngsten Versuch von Microsoft, US-Regierungsbehörden in das Boot von Office 365 zu bekommen. In einem Blogpost schreibt Microsoft, dass es notwendig sei, Behörden eine Vielzahl unterschiedlicher Optionen zu bieten, da nicht alle Kunden des öffentlichen Sektors die gleichen Bedürfnisse in Bezug auf die Einhaltung gesetzlicher Vorschriften, der Sicherheit, des Datenschutzes und der Produkt-Funktionalität haben.

Daher wird Microsoft den Regierungsbehörden nun die Möglichkeit geben, Office 365 sowohl via einer Public als auch einer Privat Cloud (ITAR [International Traffic in Arms Regulations]) zu nutzen. Zudem gibt es nun eine spezielle Office 365 „Community Cloud“ für die US-Regierung, in der die Daten in einer separaten Umgebung nur für die Regierung gespeichert werden.

Chapeau Microsoft! Die Frage ist nun: Was wird Google tun?


Bildquelle: http://www.government-websites.com

Kategorien
News

MobileIron eröffnet Rechenzentrum in Deutschland für sicheres Enterprise Mobile Device Management in der Cloud

MobileIron, Lösungsanbieter im Bereich für sicheres Mobile Device und Application Management für Unternehmen, eröffnet ein Rechenzentrum in Deutschland, um dort seine MobileIron Connected Cloud zu betreiben. Dabei soll es sich nach eigenen Angaben um den ersten Mobile Device Management-Cloud-Service handeln, den Unternehmen in weniger als einer Stunde vollständig in ihre bestehende Sicherheitsinfrastruktur integrieren können.

Unternehmen können damit Smartphones und Tablets der mobilen Betriebssysteme Google Android und Apple iOS gemäß ihrer Firmenrichtlinie weltweit ausrollen und sicher verwalten. MobileIron bietet ein mehrstufiges Security-Management für mobile Endgeräte und Applikationen. Es umfasst die Erkennung von „Bad Apps“, die Identifizierung kompromittierter Geräte, selective Wipe nicht nur für E-Mail- und PIM-Daten sondern auch für Apps inklusive ihrer Daten, granular einstellbare Datenschutz-Richtlinien, ActiveSync-Zugangskontolle sowie zertifikatsbasierte Sicherheit ohne Kompromisse durch unsicheren Rollout der Zertifikate.

Die MobileIron ConnectedCloud stellt Unternehmen eine hoch skalierbare Infrastruktur zur Verfügung, mit der sie beliebig viele Smartphones und Tablets sicher administrieren können – ohne in eine eigene IT-Infrastruktur investieren zu müssen.

Kategorien
News

Der Kampf zwischen Microsoft und Google um die Cloud spitzt sich weiter zu

Der kürzlich veröffentliche G-Cloud CloudStore der britischen Regierung hat ebenfalls Services von Google und Microsoft im Portfolio. Das ist natürlich nicht verwunderlich, aber dennoch heizt es den Kampf zwischen Google und Microsoft im lukrativen Cloud Computing Markt nun auch in Großbritannien weiter an.

In der ersten Version des Katalogs ist Google als Google Ireland Ltd. registriert und hat dort Google Apps for Business sowie Chrome OS, Google Message Discovery, Google Earth Builder und Google Maps API Premier im Angebot.

Microsoft hat dafür gesorgt, dass sie in allen Bereichen wie PaaS, IaaS, SaaS und Cloud Consulting Services vertreten sind. Zu den Produkten zählen die Microsoft Consulting Services, CRM Online, Windows Azure und Office 365. Hinzu kommt, dass der G-Cloud CloudStore auf Windows Azure betrieben wird.

Die Frage welches der beiden Unternehmen die Kontrolle über die Cloud Nutzung in Großbritannien übernehmen wird, wurde durch eine frühere Auseinandersetzung der beiden in den Vereinigten Staaten eingeleitet.

So beschuldigt Microsoft Google, sich vor der Veröffentlichung der von der US-Regierung geforderten Zertifizierung für die Nutzung von Google Anwendungen durch die US-Behörden zu drücken. Auf der anderen Seite hat Google rechtliche Schritte gegen die US-Regierung wegen angeblicher Begünstigungen von Microsoft-Diensten eingeleitet.

In Großbritannien hat Microsoft, aufgrund seiner langjährigen Beziehungen zu der Regierung, eindeutig die Oberhand. Zudem wurde mit der Aktualisierung des Enterprise Agreement (EA) Lizenzmodell im vergangenen Jahr das wohl weltweite größte Cloud-Geschäft seiner Art abgeschlossen. Die 21.000.000,00 Pfund schwere Vereinbarung läuft über drei Jahre, in der ebenfalls die größten Microsoft Reseller involviert sind.

Microsoft hat bereits eine Schlüsselrolle in der ersten Ausbaustufe der G-Cloud gespielt, da Stuart Aston, Chief Security Advisor bei Microsoft UK, zu einem der Co-Leads in der G-Cloud Arbeitsgruppe gewählt wurde. Ein weiterer Microsoft Cloud Partner, Solidsoft, nahm ebenfalls eine bedeutende Rolle in der Entwicklung des CloudStore Frameworks ein.

Man kann nur vermuten, in welche Richtung sich der Kampf in der Cloud bewegen wird. Aber so oder ähnlich kann es weitergehen: Microsoft in Person von Frank Shaw, Corporate Vice President gab im offiziellen Microsoft Blog kürzlich aggressive Äußerungen in Bezug auf Googles neue Datenschutzbestimmungen von sich.

Der Inhalt des Posts nennt drei Gründe, warum Microsofts E-Mail-Dienste besser sind als die von Google. Der Beitrag erklärt:

  • Google liest die E-Mails mit.
  • Googles Suche im Internet ist an die Google-ID gebunden.
  • Das Anschauen von YouTube Videos ist ebenfalls an die Google-ID gebunden.
  • Microsoft sei angeblich besser, denn sie verwenden niemals Informationen aus E-Mails, um Werbeanzeigen zu schalten oder eine Verknüpfung mit der Benutzer-ID herzustellen.

Das letzte Argument ist ein wenig fragwürdig, da bei der Nutzung von Google Apps for Business keine Werbeanzeigen geschaltet werden. Dafür zahlt man schließlich einen monatlichen Beitrag. Dennoch bleibt abzuwarten, wie es weitergeht.


Bildquelle: http://blog.acrowire.com, http://www.androidnext.de