Kategorien
News

VMware Zimbra 8.0 Beta integriert Business Email, Voice und WebEx in seiner Cloud Suite

VMware hat eine neue Betaversion seines Zimbra Collaboration Server 8.0 präsentiert, der unterschiedliche Kanäle wie E-Mail, Messaging, Kalender, Voice, WebEx und Collaboration Workflows in einem einzigen Cloud basierten Service vereint. Zimbra kann in Public, Private und Hybrid Cloud Installationen bereitgestellt werden. Das auf Open Source basierende System hat nach eigenen Angaben weltweit ca. 250.000 Installationen und verwaltet über 80 Millionen E-Mail Postfächer.

VMware Zimbra integriert Business Email, Voice und WebEx in seiner Cloud Suite

Cisco und VMware ziehen an einem Strang

Zusammen mit Cisco hat VMware Collaboration Tools wie Jabber und WebEx mit Zimbra 8.0 integriert, um damit Presence, Instant Messaging, Voice, Video, Voice Messaging, Desktop Sharing und Conferencing zu vereinen und über mehrere Endgeräte wie PCs, Macs, Tablets und Smartphones bereitzustellen.

Weiterhin hat der kanadische Telekommunikationsanbieter Mitel sein VoIP System angepasst, um Zimbra zu unterstützen. Darüber hinaus haben Mitel und VMware virtualisierte Voice Apps an mehr als 2.000 Mitel Kunden ausgerollt.

Die Kernfunktionen der Zimbra 8.0 Unified Communications

Zu den Kernfunktionen der Zimbra 8.0 Suite gehören:

  • Jeder Anruf wird automatisch an ein bestimmtes Endgerät oder Softphone weitergeleitet.
  • Visual Voicemail inkl. MWI Status Update u.v.m.
  • Anzeige des Anwesenheitsstatus und Click-to-Chat Integration mit Cisco Jabber.
  • WebEx Integration für den Aufbau von Cisco WebEx Sitzungen direkt aus Zimbra heraus.
  • Anzeige der Anrufhistorie in Zimbra.
  • Die Möglichkeit zur Anbindung von Drittanbieter Unified Communication Lösungen.

Zimbra hat zudem weitere Aktualisierungen an seinen bestehenden Services vorgenommen, darunter:

  • Überarbeitung der Benutzeroberfläche um Social Media Komponenten.
  • Erweiterte Suchmöglichkeiten
  • Unternehmenskalender, mit denen komplexe Kalender erstellt und mehrere Kalender besser betrachtet werden können.

Zimbra 8.0 als Virtual Software Appliance

Zimbra 8.0 steht als Virtual Software Appliance bereit, die nach eigenen Angaben, unter 10 Minuten ausgerollt werden kann und ein Minimum an Managementkapazitäten benötigt. Dazu wurde Zimbra direkt mit VMware Horizon 1.5 und VMware vSphere 5 integriert.

Zimbra 8.0 Beta ist bereits weltweit verfügbar und kann hier heruntergeladen werden.

Kategorien
News

Ausfall: Salesforce erneut mit schwerwiegenden Problemen

Salesforce.com musste am letzten Dienstag erneut mit Problemen kämpfen. Zwei Wochen nach dem letzten Ausfall, waren die Systeme des CRM Anbieters erneut nicht verfügbar. Die Infrastruktur ist in mehrere unterschiedliche Instanzen weltweit aufgeteilt, um damit die Kunden in verschiedenen Regionen zu erreichen.

Ausfall: Salesforce erneut mit Problemen

Mehrere Instanzen betroffen

Laut dem offiziellen Statusboard zeigten sieben Instanzen am vergangenen Dienstag Probleme, darunter zunächst NA1, NA5 und NA6 in Nordamerika. Kurze Zeit später folgten Ausfälle in den Regionen CS0, CS1, CS3 und CS12, die zu den sogenannten „Sandbox“ Instanzen gehören, welche die Salesforce Kunden für die Entwicklung und Test neuer Funktionen nutzen.

Ursache: Stromausfall

Der Salesforce Application Store war ebenfalls nicht verfügbar, da dieser Infrastruktur aus der Instanz NA6 nutzt. Was die Ursache für den Ausfall war, wurde zunächst nicht bekannt. Später gab Salesforce die Information bekannt, dass es Probleme mit der Stromversorgung gab. Das kennen wir doch irgendwoher, oder?

Kategorien
News

Microsoft stellt neue Funktionen seiner Cloud Desktop Management Lösung Windows Intune vor

Microsoft hat auf der TechEd North America in Orlando die neuesten Updates für seine Desktop Management Lösung Windows Intune vorgestellt. Die neueste Version der cloud-basierten PC-Verwaltungslösung steht unter hier zum Download bereit. Neben Verbesserungen der Kernfunktionen umfasst das Update erweiterte Verwaltungs- und Sicherheitsvorteilen mit der Integration des Mobile-Device-Managements und anwenderorientierte Administrationsmöglichkeiten. Das Update fokussiert dabei insbesondere das Thema „Consumerization of IT“ und adressiert die Anforderungen und neuen Herausforderungen in Unternehmen.

Microsoft stellt neue Funktionen seiner Cloud Desktop Management Lösung Windows Intune vor

Fokus liegt auf der Verwaltung der Anwender

Die neue Version von Windows Intune ermöglicht es nun, Nutzerkonten im eigenen Active Directory zusammen mit Accounts im Windows Azure Active Directory zu synchronisieren. Damit lassen sich Anwender und Endgeräte lassen sich damit zentral verwalten. IT-Verantwortliche können damit bspw. anwenderspezifisch angepasste Software bereitstellen und individuelle Richtlinien an Benutzer verteilen. Nutzer können über ein Self-Service Portal zudem eigenstänndig PCs oder mobile Geräte, die über Windows Intune verwaltet werden sollen, hinzuzufügen oder entfernen.

Verwaltung mobiler Endgeräte

Die neue Windows Intune Version integriert mit Hilfe von Windows Server Active Directory und Microsoft Exchange Server die Verwaltung mobiler Geräte mit Betriebssystemen Windows Phone, iOS ab Version 4 und Android ab Version 2.1. Unterstützt wird u.a. das Erstellen von Sicherheitskonzepten für mobile Geräte und die Einführung eines Passwortschutzes, Verschlüsselung sowie die Fern-Sperrung eines Geräts sowie das Löschen aller Daten wenn das Gerät verloren geht. IT-Administratoren haben die Möglichkeit, Regeln zur Kontrolle des Zugriffs mobiler Geräte auf Exchange Servern zu definieren. Damit sollen Endgeräte nach dem Ansatz von „Bring your own device“ im Unternehmenskontext genutzt werden.

Microsoft stellt neue Funktionen seiner Cloud Desktop Management Lösung Windows Intune vor

Unternehmensportal

Die neue Windows Intune Update ermöglicht den Aufbau eines Self Service Portals, für die interne IT und Verwaltung der von Geräten. Es bietet der IT im Unternehmen die Möglichkeit, den Mitarbeitern Apps und Tools für eine bessere Produktivität zur Verfügung zu stellen. Mitarbeiter haben zu diesem Portal Zugang über eine Vielzahl mobiler Geräte wie Windows PCs, iOS und Android Produkte. IT-Administratoren können auf dem Portal Apps und Anwendungen zum Download anbieten, sodass der Mitarbeiter individuell entscheiden kann, ob er diese benötigt.

Preise

  • 11 EUR pro Rechner pro Monat
    Windows Intune Cloud Dienst + Upgrade-Recht auf Windows 7 Enterprise sowie zukünftige Windows Versionen
  • 5 EUR pro Rechner pro Monat
    Windows Intune Add-on (Cloud Dienst, ohne Windows 7 Upgrade-Recht) exklusiv nur für EA/EES Kunden mit Windows unter Software Assurance

Rabatte

  • Volumenrabatt unter Enterprise Agreement und MOSP (ab 250 PCs)
  • Sonderpreise für Kunden aus dem Bereich Forschung & Lehre (Academic)
  • Preisnachlass für Windows Software Assurance Kunden unter MOSP

Lizenzierung

  • Abonnement-Lizenz: Erfasst das Upgrade-Recht auf Windows Enterprise sowie das Recht den lizenzierten PC und bis zu vier mobilen Endgeräte (non-X86) zu verwalten
  • Befristetes Nutzungsrecht: Das Nutzungsrecht endet mit Ablauf des Abonnements
  • „Buyout“-Zahlung: Erwerb eines dauerhaften Windows Enterprise Nutzungsrechts durch eine Einmalzahlung
Kategorien
News

Dropbox verdoppelt die Speicherkapzität seines Cloud Storage für Pro Accounts

Cloud Storage Anbieter Dropbox hat – per sofort – die Kapazität für seine Pro Accounts kostenlos erhöht. Somit wurde der Speicherplatz für zahlende Nutzer nun von 50GB auf 100GB sowie von 100GB auf 200GB erhöht. Zusätzlich wurde ein neuer Tarif mit 500GB angekündigt.

Dropbox verdoppelt die Speicherkapzität seines Cloud Storage für Pro Accounts

Dropbox reagiert auf den Markt

Mit Google Drive und Microsoft SkyDrive tummel sich mittlerweile ernst zunehmende Mitbewerber auf dem Markt der Cloud Storage Services – vor allem in Bezug auf den Preis. Mit der Verdoppelung der Speicherkapazität reagiert Dropbox erstmalig auf die Angebote der anderen Anbieter.

Die Preise bleiben stabil

Trotz der Verdoppelung des Speicherplatzes für Pro Account Nutzer bleiben die Preise stabil. 100GB kosten im Monat nun 9,99 US-Dollar. Für 200GB zahlt man 19,99 US-Dollar. Der monatliche Preis für die 500GB wurde bisher noch nicht genannt.

Kategorien
News

Cloud Computing und Collaboration treibt Big Data in die deutschen Unternehmen

Die Menge der Daten, die in deutschen Unternehmen verarbeitet werden, steigt explosionsartig an. Im Schnitt erwarten IT-Entscheider einen Zuwachs von mehr als 40 Prozent in den kommenden zwei Jahren, wie eine aktuelle Studie im Auftrag von BT Germany ergeben hat. Die IT-Verantwortlichen haben die strategische Relevanz von „Big Data“ erkannt und erwarten erhebliche Auswirkungen auf die Unternehmens-IT. Vor allem bei Bandbreitenkapazität, Server- und Storage-Infrastrukturen besteht noch erheblicher Handlungsbedarf.

Cloud Computing und Collaboration treibt Big Data in die Unternehmen

Big Data ist kein Buzz Word mehr

Die Ergebnisse der Studie „Datenexplosion in der Unternehmens-IT“ zeigen: „Big Data“ ist längst mehr als ein reiner Trendbegriff. So geht ein Viertel der befragten Entscheider sogar davon aus, dass das Datenvolumen in ihrem Unternehmen bis Ende 2014 um mehr als 60 Prozent ansteigen wird, im Durchschnitt aller Befragten wird immerhin ein Wachstum um 42 Prozent erwartet. Für die strategische Relevanz des Themas spricht, dass sich knapp über die Hälfte der Unternehmen bereits mit dem Thema „Big Data“ beschäftigt hat. Ein weiteres Viertel der Befragten plant, sich künftig mit dem Thema zu befassen. Konkret haben jedoch lediglich acht Prozent der Unternehmen entsprechende Lösungen schon in ihre Prozesse integriert.

Wie schnell wachsen die Daten?

Die Entscheider treibt vor allem die Frage um, mit welcher Geschwindigkeit sich das Datenwachstum vollzieht und wie sich darauf reagieren lässt. Dabei zeigt sich: Das Datenwachstum hat aus Sicht der Befragten vor allem immense Auswirkungen auf die unternehmenseigene Infrastruktur.

So erwarten drei Viertel der Entscheider (76 Prozent) erhebliche Auswirkungen im Bereich der Storage-Systeme durch das Big-Data-Phänomen. Zwei Drittel (64 Prozent) sehen einen großen Handlungsbedarf bei der Server- und Netzwerkinfrastruktur sowie der Bandbreitenkapazität auf sich zukommen, während nur rund die Hälfte (55 Prozent) große Auswirkungen bei den Analyse- und Reporting-Systemen vorhersieht.

Als zentrale Treiber für das globale Datenwachstum sehen die Befragten vor allem die mobile Internetnutzung (59 Prozent), Cloud Computing (53 Prozent) sowie die internetbasierte Kommunikation via VoIP, Video, Chat und Unified Communications (47 Prozent) an. Auch die Nutzung von Social Media (44 Prozent) gilt als wesentlicher Faktor, sorgt sie doch für eine virale Verbreitung von Inhalten über eine Vielzahl von Plattformen. Die Digitalisierung von Geschäftsmodellen (34 Prozent), z.B. in Form von eCommerce und Online-Werbung, trägt nach Ansicht der IT-Verantwortlichen ebenfalls maßgeblich zur wachsenden Datenmenge bei.

Cloud Computing ist Treiber für Big Data

Innerhalb der Unternehmen ist Cloud Computing der wichtigste Treiber für das Datenwachstum – 42 Prozent der Befragten gaben dies als Grund an, gefolgt von Collaboration (34 Prozent) und der Digitalisierung von Geschäftsmodellen (32 Prozent). Die Nutzung von Social Media und Video Streaming spielt innerhalb der Unternehmen nur eine untergeordnete Rolle (12 bzw. 9 Prozent).

Die Unternehmen haben wiederum große Erwartungen an Big Data: Wenn sich der immer größere Datenbestand in Zukunft systematisch verarbeiten und auswerten lässt, erhoffen sie sich positive Auswirkungen auf ihr Geschäft.

Unternehmen mit mehr als 1.000 Mitarbeitern erwarten dabei vor allem eine bessere Aussteuerung von Vertriebs- und Marketingkampagnen (41 Prozent) und geringere Kosten durch optimierte Logistikprozesse (41 Prozent). Bei den Unternehmen mit 500 bis 1.000 Mitarbeitern geht es den Verantwortlichen vor allem um bessere Informationen über das Informations- und Konsumverhalten ihrer Kunden (46 Prozent) und um eine bessere Einschätzung von Marktpotenzialen und Business Cases (38 Prozent).

Kategorien
News

Pano Logic schiebt VDI in die Cloud – Zugriff über den Google Chrome Browser

Pano Logic, Hersteller virtualisierungsbasierender Soft- und Hardwarelösungen (VDI), präsentiert mit „Pano System for Cloud“ eine Desktop-Computing-Plattform, mit der Unternehmen auf ihre Anwendungen vollständig webbasiert über den Google-Browser Chrome zugreifen können. Der Einsatz eines Hypervisor oder eines lokalen Betriebssystem und Prozessor am Arbeitsplatz sind dafür nicht erforderlich.

Pano Logic schiebt VDI in die Cloud

End-to-End Hard- und Softwarelösung für VDI

Bei „Pano System for Cloud“ handelt es sich um eine Erweiterung der Kerntechnologie von Pano Logics VDI-Ansatz. Dieser stellt eine komplette End-to-End Hard- und Softwarelösung für VDI dar, die mit den drei führenden Hypervisor (vSphere, XenServer und Hyper-V) sowie deren Management-Systemen (VMware View, XenDesktop und Microsoft SCVMM) zusammenarbeiten. Für eine klassische VDI-Infrastruktur wird auf dem Server stets ein Hypervisor benötigt, der die virtuellen Maschinen des kompletten Windows-Desktops verwaltet. „Pano System for Cloud“ startet keine Windows-Session mehr, sondern lediglich einen Google Chrome. Per Browser kann der Nutzer dann auf Google Apps, Microsoft Office 365 und sämtliche als SaaS verfügbaren Anwendungen zugreifen.

Vollständiger Zugriff über den Webbrowser

Für Unternehmen, die bereits vollständig webbasiert per Browserzugriff arbeiten, sollen sich durch die Cloud-Lösung von Pano Logic nochmals deutliche Kostenvorteile ergeben, da auf dem Server nur noch der Pano Logic Controller installiert werden muss. Dabei handelt es sich um eine eine virtuelle Appliance, die bis zu 200 Google Chrome Arbeitsplätze vermitteln kann. Die Serverlizenz für den Pano Controller kostet rund 1.000,00 EUR. Für den Arbeitsplatz selbst bietet Pano Logic mit dem Zero Client G2M eine günstige Variante zum Preis von unter 200,00 EUR. Alternativ zur Pano Box kann auch ein umfunktionierter PC mit Pano Virtual Client Software oder ein Fujitsu Zero Client Monitor eingesetzt werden.

Kategorien
News

Rackspace nimmt Windows Server 2012 in sein Cloud Portfolio auf

Cloud Anbieter Rackspace wird den kommenden Microsoft Windows Server 2012 sowohl auf seinen klassischen als auch den Cloud Lösungen unterstützen, das kündigt das Unternehmen auf der Microsoft World Partner Conference in Toronto an. Während andere Cloud Anbieter wie die Amazon Web Services das Server Betriebssystem sehr wahrscheinlich ebenfalls unterstützen werden, will sich Rackspace mit einem deutlich höheren Service- und Support-Level abheben.

Rackspace nimmt Windows Server 2012 in sein Cloud Portfolio auf

Rackspace: AWS bietet nur „self-managed“

Während die Amazon Web Services nur einen „self-managed“ Level bieten, möchte Rackspace hier tiefer einsteigen und seine Kunden mit deutlich höheren Service- und Supportleistungen umwerben. Dazu hat sich Rackspace bereits intensiv mit den neuen Funktionen und Möglichkeiten des Windows Server 2012 auseinandergesetzt, um diese selbst hochgesteckten Anforderungen für seine Kunden zu erfüllen.

Auch Sharepoint wird unterstützt

Um ebenfalls Microsoft SharePoint Support für seine Kunden bieten zu können, hatte Rackspace im Februar 2012 den Sharepoint Spezialisten SharePoint911 aufgekauft, die laut Rackspace über die besten SharePoint Experten weltweit verfügen.

Windows Server 2012 wird Basis von Rackspace Cloud Sites

Ganz nach dem Motto „Eat your own dog food“ wird Rackspace neben dem Support-Angebot den Windows Server 2012 ebenfalls künftig als Basis für seine Rackspace Cloud Sites Plattform einsetzen, auf welcher nach eigenen Angaben bereits tausende von Webseiten gehosted werden.

Kategorien
Management

Netflix: Der Chaos Monkey und die Simian Army – Das Vorbild für eine gute Cloud Systemarchitektur

Die letzten Ausfälle bei den Amazon Web Services (AWS) hier und hier haben gezeigt, dass bei manchen Kunden wie bspw. Instagram, die Systemarchitektur nicht auf das Cloud Computing ausgelegt ist. Und auch wenn AWS so etwas nicht (mehr) passieren darf, sollte man selbst darauf achtgeben, präventiv auf den möglichen Ernstfall vorbereitet zu sein. Eine Möglichkeit ist der von Netflix entwickelte Chaos Monkey und weitere Tools, die ich in diesem Artikel vorstellen möchte.

Üben, Lernen, Testen

Bevor sich Netflix für den Einsatz seines Systems auf den Amazon Web Services entschieden hat (Migration von einer eigenen Infrastruktur), verbrachte das Unternehmen viel Zeit damit, um die AWS Plattform zu verstehen und ein Test-System innerhalb der Infrastruktur aufzubauen. Dabei wurde insbesondere darauf geachtet, soviel realistischen Traffic bzw. Traffic Szenarien wie möglich zu erzeugen, um damit das Test-System auf seine Stabilität hin zu prüfen.

Anfangs entwickelte Netflix dazu einen einfachen Repeater, der die echten und vollständigen Kundenanfragen auf das System innerhalb der AWS Infrastruktur kopierte. Damit identifizierte Netflix die möglichen Engpässe seiner Systemarchitektur und optimierte im Zuge dessen die Skalierbarkeit.

Netflix Rambo Architektur

Netflix selbst bezeichnet seine Software Architektur gerne auch als Rambo Architektur. Das hat den Hintergrund, dass jedes System unabhängig von den anderen Systemen einwandfrei funktionieren muss. Dazu wurde jedes System innerhalb der verteilten Architektur so entwickelt, dass es darauf vorbereitet ist, dass andere Systeme zu denen eine Abhängigkeit besteht, ausfallen können und das dieses toleriert wird.

Sollte das Bewertungssystem ausfallen, verschlechtert sich zwar die Qualität der Antworten, aber es wird dennoch eine Antwort geben. Statt personalisierten Angeboten werden dann nur bekannte Titel angezeigt. Sollte das System, dass für die Suchfunktion zuständig ist, unerträglich langsam sein, muss das Streaming der Filme trotzdem einwandfrei funktionieren.

Der Chaos Monkey

Eines der ersten Systeme die Netflix auf bzw. für AWS entwickelt hat, nennt sich Chaos Monkey. Sein Job ist es zufällig Instanzen und Services innerhalb der Architektur zu zerstören. Damit stellt Netflix sicher, dass alle Komponenten unabhängig voneinander funktionieren, selbst dann wenn Teil-Komponenten ein Problem haben.

Neben dem Chaos Monkey hat Netflix viele weitere Monitoring und Test-Tools für den Betrieb seines Systems auf den Amazon Web Services entwickelt, die das Unternehmen als The Netflix Simian Army bezeichnet.

Latency Monkey

Der Latency Monkey induziert künstliche Verzögerungen im Netflix eigenem REST-Client-Server Communication-Layer, um einen Leistungsabfall zu simulieren und rechtzeitig Maßnahmen zu ergreifen bzw. im Vorwege angemessen zu reagieren. Indem sehr große Verzögerungen erzeugt werden, kann damit zudem der Ausfall eines Nodes oder eines vollständigen Service simuliert werden, ohne diese Instanzen tatsächlich zu zerstören. Damit wird die Fehlertoleranz eines neuen Service überprüft, indem der Ausfall seiner Abhängigkeiten simuliert wird. Der Ausfall dieser Abhängigkeiten wirkt sich dabei jedoch nicht auf den Rest des Systems aus.

Conformity Monkey

Der Conformity Monkey findet Instanzen, die nicht den Best-Practices Anforderungen entsprechen und fährt diese herunter. Wenn z.B. Instanzen gefunden werden, die nicht zu einer Auto-Scaling Group gehören, weiß der Conformity Monkey, dass dieses zu Problemen führen wird. Diese werden also heruntergefahren, um dem Service-Owner die Gelegenheit zu geben, neue Instanzen mit den erwarteten Eigenschaften hochzufahren.

Doctor Monkey

Der Doctor Monkey überprüft die Health Checks, die sich auf jeder Instanz befinden und überwacht zudem weitere Eigenschaften, wie bspw. die CPU-Auslastung, um mögliche Fehlerquellen innerhalb der Instanzen selbst zu erkennen. Werden fehlerbehaftete Instanzen entdeckt, werden diese zunächst automatisch vom Service entfernt. Anschließend erhält der Service-Owner die Gelegenheit die Ursache für den Fehler zu finden und beendet diese Möglicherweise um stattdessen neue Instanzen zu starten.

Janitor Monkey

Der Janitor Monkey sorgt dafür, dass die Netflix Cloud Umgebung effizient betrieben wird und sich kein Müll oder überschüssige Instanzen anhäufen. Dazu sucht er nach ungenutzten Ressourcen und sorgt dafür, dass diese verschwinden.

Security Monkey

Der Security Monkey ist eine Erweiterung des Conformity Monkey. Er findet Sicherheitslücken oder Schwachstellen wie falsch konfigurierte AWS Security Groups und beendet die beanstandeten Instanzen. Er stellt zudem sicher, dass alle SSL-und DRM-Zertifikate gültig sind.

10-18 Monkey

Der 10-18 Monkey (steht auch für Lokalisierung-Internationalisierung bzw. l10n-i18n) erkennt Konfigurations- und Laufzeit Probleme innerhalb von Instanzen, die Kunden in verschiedenen geografischen Regionen, mit unterschiedlichen Sprachen und Zeichensätze bedienen.

Chaos Gorilla

Der Chaos Gorilla ist vergleichbar mit dem Chaos Monkey, simuliert allerdings einen vollständigen Ausfall einer Amazon Availability Zone. Damit wird sichergestellt, dass die Funktionalität des Systems automatisch in andere Availability Zones verschoben wird, ohne das ein manueller Eingriff von Netflix erforderlich ist und das der Nutzer davon etwas bemerkt.

Fazit

Die Simian Army von Netflix ist ein Extrembeispiel wie eine Cloud Architektur auszusehen hat. Das Unternehmen hat viel Zeit, Anstrengungen und Kapital in die Entwicklung seiner Systemarchitektur investiert, die auf der Cloud Infrastruktur der Amazon Web Services läuft. Aber es lohnt sich und jedes Unternehmen, das die Cloud ernsthaft nutzen möchte und ein hochverfügbares Angebot präsentieren will, sollte sich Netflix unbedingt zum Vorbild nehmen.

Kategorien
News

Fairfax setzt auf Google Apps – BYOD ein Treiber für die Entscheidung

Das australische Medienunternehmen Fairfax Media wechselt zu Google Apps for Business, um auf Basis der Cloud-basierten Office Suite, die interne Kommunikation zu verbessern und neue Trends wie bspw. Bring-your-own-device (BYOD) zu unterstützen und seinen Mitarbeitern einen flexibleren Arbeitsplatz zu ermöglichen.

Fairfax setzt auf Google Apps - BYOD ein Treiber für die Entscheidung

Microsoft Office wird nicht abgelöst – Kommunikation hat Priorität

In der Vergangenheit hat sich Fairfax für die interne Kommunikation auf die Nutzung von Telefonen, E-Mails, Tabellenkalkulationen- und Textverarbeitungssoftware verlassen. Das Medienunternehmen wird in Zukunft auf Googles Office und Collaboration Suite Google Apps for Business setzen, aber das bisher eingesetzte Microsoft Office nicht ersetzen – zumindest für die Mitarbeiter, die darauf angewiesen sind.

Fairfax will damit die Kommunikation seiner Mitarbeiter verbessern, indem das Unternehmen moderne Technologien wie Instant Messaging, einen einfacheren Dokumentenaustausch sowie Desktop Video-Konferenzen in Echtzeit nutzt.

Consumerization of IT und BYOD sind Trendsetter

Insbesondere auf Grund von neuen Trends wie Consumerization of IT und BYOD möchte Fairfax seine Technologie Strategie ändern und den neuen Begebenheiten anpassen. Somit ist eine Cloud-basierte Lösung, mit der von überall und mit quasi jedem Endgerät auf die Daten und Anwendungen zugegriffen werden kann unumgänglich.

10.000 Mitarbeiter gehen in die Google Cloud

Fairfax rechnet damit, dass jeder Mitarbeiter – ca. 10.000 – Google Apps nutzen wird. Allerdings muss das noch eindeutig bestimmt werden. Auf jedenfall sollen alle Mitarbeiter bis November 2012 in der Lage sein Google Apps nutzen zu können.

Kategorien
News

Big Data: MapR integriert seine Hadoop Distribution mit der Google Compute Engine

MapR Technologies, Softwareanbieter für die Analyse großer Datenmengen, wird in Zukunft seine eigene Apache Hadoop Distribution für Googles Infrastructure-as-a-Service Google Compute Engine bereitstellen. MapR für die Google Compute Engine wird zunächst kostenlos als Private Beta für eine ausgewählte Anzahl von Benutzern zur Verfügung stehen. Wer Interesse an der Big Data Analyse hat, kann sich hier dafür bewerben.

Big Data: MapR integriert seine Hadoop Distribution mit der Google Compute Engine

Big Data Analyse auf der Google Compute Engine

Mit der Kombination von Googles neuen IaaS und MapRs Hadoop sind Nutzer damit in der Lage große Implementierungen von MapR Cluster on-Demand bereitzustellen und sich damit ein Cloud-basiertes System für die Analyse großer Datenmengen aufzubauen. Google hatte MapReduce ursprünglich für sein interes Such-Framework entwickelt.

Ein Meilenstein für die Big Data Analyse

Während der Google I/O demonstrierte MapR bereits, zu was seine Hadoop Implementierung in der Lage ist. Ein 1TB TeraSort Job wurde innerhalb von 1 Minute und 20 Sekunden verarbeitet. Dabei nutzte MapR einen Google Compute Engine Cluster bestehend aus 1.256 Nodes, 1.256 Platten und 5.024 Cores für gerade einmal 16 US-Dollar.

Zum Vergleich: Der aktuelle Weltrekord für den TeraSort liegt bei 1 Minute und 2 Sekunden. Dazu wurde ein physikalischer Cluster mit mehr als vier Mal so vielen Festplatten, doppelt so vielen Cores und weitere 200 Server benötigt. Kosten: Mehr als 5.000.000 US-Dollar.

Integration

Für die Integration von MapR mit der Google Compute Engine stehen mehrere Standard MapR Konfigurationen zur Verfügung. Nutzer können die Google Compute Engine je nach Bedarf nutzen und können, wenn nötig, mehr als 1.000 Node Cluster starten.