Kategorien
News

Google Drive erscheint nächste Woche: 5 GB kostenloser Speicherplatz und Unterstützung für Mac, Windows, Android und iOS

Wie The Next Web berichtet, wird Google Drive in der kommenden Woche unter http://drive.google.com der Öffentlichtkeit präsentiert.

Google Drive erscheint nächste Woche: 5 GB kostenloser Speicherplatz und Unterstützung für Mac, Windows, Android und iOS

Das Magazin stützt sich auf einen Entwurf, der ihnen zugespielt wurde und welcher eine Menge an Informationen beinhalten soll, wie Google gegen Dropbox vorgehen will. Demnach soll Google Drive 5 GB kostenlosen Speicherplatz bieten und in der Mitte kommenden Woche veröffentlicht werden.

Google Drive wird zudem die Betriebssysteme Windows und Mac unterstützen. Wie der Cloud Speicher jedoch in das jeweilige System integriert wird ist offen. Eine Variante ist z.B. die Integration in die Taskbar, wie es Dropbox oder andere Storage Services handhaben.

Trotz des angeblich sehr umfangreichen „Draft Release“ über das The Next Web verfügen soll, bleibt das Magazin doch sehr geheimnisvoll über die weiteren Inhalte.

Kategorien
News

HP entwickelt mit der Converged Cloud eine einheitliche Cloud Computing Architektur

HP hat mit der Converged Cloud eine einheitliche Architektur für verschiedene Formen des Cloud Computing und konventioneller IT-Infrastrukturen entwickelt. Die Architektur entkoppelt die IT-Dienste von der zugrundeliegenden Infrastruktur und erlaubt damit eine gemeinsame Verwaltung von Ressourcen, Prozessen und Regeln in heterogenen Umgebungen. Dazu setzt die HP Converged Cloud unter anderem auf die Spezifikationen des Open Source Projekts OpenStack. HP hat außerdem eine Reihe von neuen Cloud-Angeboten angekündigt, die auf der Grundlage der neuen Architektur entwickelt wurden. Dazu gehören beispielsweise die HP Cloud Services, die ersten Public-Cloud-Dienste von HP, die ab 10. Mai 2012 allgemein verfügbar sein werden und das HP-Cloud-Portfolio abrunden werden.

HP entwickelt mit der Converged Cloud eine einheitliche Cloud Computing Architektur

Die Converged Cloud ist eine einheitliche Architektur für eine heterogene Welt. Mithilfe von Standards soll sie für Wahlmöglichkeiten, Konsistenz und Sicherheit sorgen. HP möchte damit seine Führungsrolle unterstreichen und die eigene Erfahrungen bei der Transformation heterogener IT-Landschaften für hybride Cloud-Umgebungen nutzen.

Bereits im März dieses Jahres hatte HP mit den cCell Services ein Cloud-Modell vorgestellt, das eine nahtlose Verknüpfung und einheitliche Verwaltung von Cloud-Diensten aus unterschiedlichen Quellen und Betriebsformen erlaubt. Voraussetzung dafür ist aber der Einsatz einer einheitlichen HP-Infrastruktur. Mit Converged Cloud dehnt HP das Prinzip der Konvergenz jetzt auch auf heterogene Umgebungen aus.

HP Converged Cloud

Die HP Converged Cloud unterstützt eine Vielzahl von Hypervisoren, Betriebssystemen und Entwicklungsumgebungen sowie ein wachsendes Partner-Ökosystem. Übergreifende Architektur-Elemente machen dabei die Entwicklung, Bereitstellung, Verwaltung und Sicherung von Cloud-Diensten unabhängig von der jeweiligen Form der Implementierung. Damit lassen sich Cloud-Dienste anhand von Regeln, Templates und Modellen schnell und effizient entwickeln und bereitstellen – egal, ob für eine traditionelle IT-Infrastruktur oder für Private-, Managed- oder Public-Cloud-Umgebungen. Außerdem lassen sich übergreifende Management- und Sicherheitsfunktionen mit den Diensten verknüpfen und einheitlich steuern.

Ein Kernelement von HPs Cloud-Architektur ist HP OpenStack. OpenStack umfasst eine Reihe von Opensource-Technologien, mit denen sich massiv skalierbare Cloud-Plattformen aufbauen lassen. HP hat die Standard-Dienste von OpenStack erweitert, sodass sie in die IT-Prozesse von Unternehmen und Verwaltungen eingebunden werden können. Das betrifft Application Lifecycle Management (ALM), Continuous Deployment sowie die Verwaltung und Sicherheit von Cloud-Diensten. Das erleichtert beispielsweise die Migration von Cloud-Diensten und das so genannte Cloud Bursting, also das temporäre Zuschalten von externen Ressourcen bei Kapazitäts-Engpässen.

Auf der Grundlage von HP OpenStack abstrahiert der HP Converged Infrastructure as a Service Controller (HP Converged IaaSC) von der physischen IT-Infrastruktur und stellt eine standardisierte Computing-Umgebung zur Verfügung. Diese Ebene sorgt letztlich für die übergreifende Umsetzung von Prozessen und Regeln etwa für Orchestrierung, Verwaltung, Provisionierung und Sicherheit.

Eine Reihe von neuen Cloud-Angeboten, die ab sofort oder demnächst verfügbar sind, wurden auf der Grundlage der Converged-Cloud-Architektur entwickelt:

Public-Cloud-Dienste von HP ab 10. Mai allgemein verfügbar

Mit HP Cloud Compute, HP Cloud Object Storage und HP Cloud Content Delivery Network (CDN) sind die ersten Public-Cloud-Dienste von HP ab 10. Mai 2012 allgemein verfügbar. Mit diesem Angebot komplettiert HP sein Cloud-Portfolio, das bisher schon Private Cloud und Managed Cloud umfasste. Mit dem neuen Public-Cloud-Angebot von HP können Kunden neue Dienste innerhalb von Minuten bereitstellen. Sie bezahlen dabei eine Nutzungsgebühr pro Stunde. Der Stundenpreis variiert beispielsweise bei HP Cloud Compute je nach Ausstattung zwischen 0,04 US-Dollar und 1,28 US-Dollar. Ab dem 10. Mai stehen zudem zwei weitere Public-Cloud-Angebote als Private Beta zur Verfügung: Ein relationaler Datenbank-Dienst für MySQL sowie ein Service für Blockdaten, der es ermöglicht, Daten von einer Recheninstanz zur nächsten zu verschieben. Die neuen Public-Cloud-Dienste werden auf der Grundlage von HP Converged Infrastructure, HP Software und OpenStack-Technologie bereitgestellt.

HP Virtual Application Networks macht Netzwerke programmierbar

In Cloud-Projekten erweisen sich komplexe Netzwerke oftmals als Flaschenhals. Mit HP Virtual Application Networks bietet HP eine neue Lösung, die es ermöglicht, virtuelle und Cloud-Anwendungen schneller in Betrieb zu nehmen und die Verwaltung zu automatisieren. Virtual Application Networks bietet eine virtualisierte Ansicht auf das Netzwerk – abstrahiert von der physikalischen Infrastruktur. Dadurch verwandelt HP starre physikalische Unternehmensnetzwerke in programmierbare und mandantenfähige virtuelle Netzwerke. Virtual Application Networks greift auf Templates zurück, in denen anwendungsspezifische Anforderungen definiert sind. So können Administratoren neue Cloud-Anwendungen für Benutzer innerhalb von Minuten statt Wochen implementieren und sicherstellen, dass SLAs automatisiert erfüllt werden.

Für Virtual Application Networks liefert HP zunächst neue Funktionen für die Netzwerk-Verwaltungs-Software Intelligent Management Center (IMC):

  • Das Modul HP IMC Virtual Application Networks Manager beschleunigt die Anwendungsbereitstellung. Grundlage dafür sind Templates für virtuelle Maschinen. In diesen Templates sind Parameter und Richtlinien für die Verwaltung und Konfiguration von Edge-Switches vordefiniert.
  • Virtual Application Networks Manager VMware Plug-in vereinfacht das Management von virtuellen Maschinen von VMware durch die automatisierte Umsetzung von Netzwerk-Richtlinien. Verbindungsprofile können sowohl in HP IMC als auch in die Verwaltungs-Plattform von VMware integriert werden.
  • HP IMC Extended Application Program Interface (API) bietet eine offene und erweiterbare Plattform für Web-Services. Diese ermöglicht Entwicklern von Drittanbietern, eigenentwickelte Anwendungen zu integrieren, um so die Kernfunktionen der HP-IMC-Plattform zu erweitern.

Das HP IMC Virtual Application Networks Manager Module wird im Juni 2012 zu einem Listenpreis von 9.995 US-Dollar verfügbar sein. Das VMware-Plug-in erhalten Kunden mit dem Modul ohne Zusatzkosten. HP IMC Extended APIs ist in der Enterprise-Version von HP IMC kostenlos enthalten. Für Kunden, die die Standard-Version von HP IMC nutzen, kostet HP IMC Extended APIs 9.995 US-Dollar.

Neue Transformations-Services für den Aufbau einer „Engineering Cloud“

Ein weiteres neues Cloud-Angebot von HP sind die HP Engineering Cloud Transformation Services. Die Dienstleistungen bringt HP speziell für Produktentwicklungs-Prozesse von Fertigungsunternehmen auf den Markt. Diese Prozesse sind in den letzten Jahren immer komplexer geworden, da Entwickler-Teams oft über mehrere Kontinente verteilt sind. Cloud-Lösungen können hierbei die Produktivität erhöhen und dabei helfen, neue Produkte schneller auf den Markt zu bringen. Allerdings gibt es dabei technische, finanzielle und organisatorische Risiken, die durch eine sorgfältige Vorbereitung und Steuerung der Cloud-Transformation minimiert werden müssen. Dabei helfen die folgenden Dienstleistungen:

  • Der Engineering Cloud Experience Workshop dient dazu, bei der Transformation der Produktentwicklung Risiken zu verringern und Entscheidungen schneller zu treffen. Unternehmen lernen in dem Workshop, wie sie die Unternehmens-IT an die Anforderungen von Ingenieur-Teams anpassen, kritische Erfolgsfaktoren ermitteln und eine Roadmap zur Verbesserung der Leistungsfähigkeit definieren.
  • Engineering Cloud Rapid Investment Analysis: HP analysiert die bestehende Architektur eines Kunden, um festzustellen, welche Vorteile eine Investition in ein Modernisierungsprojekt bringt.
  • Das Engineering Cloud Proof of Concept demonstriert die Effizienz-Steigerung, die durch ein Transformations-Projekt erzielt wird. Auf virtuellen Desktops können Kunden 3D-Grafiken erstellen und dabei Engineering-Modelle und Entwickler-Anwendungen nutzen.
  • Engineering Cloud Feasability Analysis: Diese Analyse gibt Kunden einen Überblick über Nutzen, Risiken und Hindernisse eines Transformations-Projekts. HP analysiert dafür Engineering-Prozesse, Rechenzentren, Infrastruktur, Speicher und Netzwerke.
  • Engineering Cloud Strategy and Business Case Service: Diese Dienstleistung hilft Kunden, die kurz- und langfristigen Vorteile neuer oder optimierter Rechenzentren darzustellen. HP erarbeitet mit seinen Kunden eine umfassende Wirtschaftlichkeitsberechnung sowie eine Projekt-Roadmap, stimmt die Unternehmens-IT auf die Unternehmensziele ab und berechnet die Kosten.

Die HP Engineering Cloud Transformation Services sind in Deutschland ab sofort verfügbar. Die Preise variieren je nach Projekt.

Weitere Neuheiten

HP hat das Angebot an Cloud Maps auf mehr als 100 verdoppelt. Cloud Maps sind vorkonfigurierte Templates, auf deren Grundlage mit HP CloudSystem verschiedene Anwendungsumgebungen automatisiert und sehr schnell bereitgestellt werden. Dazu zählen beispielsweise Microsoft SharePoint und SAP NetWeaver.

Außerdem hat HP die Version 2.0 von HP Service Virtualization angekündigt. Dieses Werkzeug ermöglicht es Unternehmen, die Leistungsfähigkeit und Qualität von Composite Applications im Zusammenspiel mit Diensten externer Anbieter zu testen. Die Version 2.0 erlaubt es Entwickler- und Tester-Teams dabei, die externen Dienste in einer simulierten und virtualisierten Umgebung zu testen. Auch das Zusammenspiel mit Komponenten von IBM WebSphere MQ kann simuliert werden. HP Service Virtualization 2.0 unterstützt eine Vielzahl von Kommunikations-Protokollen wie Representational State Transfer (REST), Simple Object Access Protocol (SOAP) und Java Message Service (JMS). Dadurch können Unternehmen Web-Applikationen agiler und kostengünstiger testen.

Kategorien
News

SpiderOak veröffentlicht Cloud Storage Service für Unternehmen

Der Cloud Storage Anbieter SpiderOak veröffentlicht mit SpiderOak Blue seine Cloud Storage Lösung für Unternehmen und geht u.a. in den Ring mit Dropbox und Box. Mit drei unterschiedlichen Service Levels adressiert der Anbieter kleine, mittelständische und Großunternehmen.

Seit 2006 bietet SpiderOak mit SpiderOak Orange bereits einen Cloud Storage Service für Privatkunden an. Die Differenzierung zu anderen Cloud Storage Anbietern versucht SpiderOak mit einem „Zero-Knowledge Privacy Standard“. Das bedeutet, dass die Nutzer selbst ihre Passwörter erstellen können, ohne das der Anbieter die unverschlüsselten Daten lesen kann, selbst wenn er es versuchen würde.

Diese Funktionalität bildet SpiderOak nun in seinem Unternehmensangebot SpiderOak Blue ab und ermöglicht einem IT-Administrator die Verwaltung der Passwörter. Innerhalb einer virtuellen Appliance wird ein Control Panel bereitgestellt. Diese virtuelle Appliance wird in einer virtuellen Maschine (VM) gekapselt, so dass die VM in der eigenen Infrastruktur des Unternehmen ausgeführt werden kann. Der Cloud Storage Service erstellt zudem ein zentrales Repository, mit dem die Unternehmensdaten verwaltet und provisioniert werden können. Damit soll sichergestellt werden, dass ein Unternehmen immer im Vollbesitz der Rechte bleibt und das die SpiderOak Mitarbeiter niemals Zugriff auf die im Cloud Storage gespeicherten Daten erhalten.

SpiderOak Blue wird in drei unterschiedliche Service Levels unterteilt.

    SpiderOak Blue for SMBs
    Ermöglicht dem Unternehmen den vollen Zugriff auf die Daten inkl. der Auditing Informationen. Über die Web-basierte Management Oberfläche können die Passwörter zurückgesetzt und Reports betrachtet werden.

    SpiderOak Blue OpenLicense (OL)
    Umfasst den Funktionsumfang der SpiderOak Blue for SMBs, richtet sich jedoch an Universitäten und Schulen. Zudem dürfen die Endnutzer die Rechteverwaltung übernehmen. Die Benutzer sind für das Passwort selbst zuständig. Es existiert keine zentrale Möglichkeit zum zurücksetzen des Passworts.

    SpiderOak Blue Plus
    Richtet sich an große Unternehmen inkl. einer virtuellen Appliance die alle Managementfunktionen in einer virtuellen Maschine vereint und in der Infrastruktur des Unternehmens betrieben werden kann. Darüber hinaus ermöglicht SpiderOak Blue Plus eine vollständige Integration in Microsoft Active Directory, OpenLDAP und RedHat Directory Server sowie ein integriertes Passwort Management für LDAP oder RADIUS (wie z.B. RSA SecurID).

Die Kosten für den SpiderOak Blue Service betragen 400 US-Dollar pro Terabyte, unabhängig von der Anzahl der Benutzer oder Systeme die auf die Daten zugreifen.


Bildquelle: http://www.zetta.net

Kategorien
Kommentar

Internet ohne stabile Datenverbindung nervt!

Ich habe schön öfters über das Thema Datenverbindung und Cloud Computing geschrieben. Zum einen bedeutet eine nicht stabile Internetleitung den Knockout der Cloud zum Anderen ist es ein echtes Dilemma was wirklich nervt!

Und von diesem nervenden Thema bin ich derzeit betroffen. Ursprünglich wollten wir über Ostern und das Wochenende danach in unsere neue Wohnung in den Odenwald umziehen. Aber es kommt nun einmal immer anders als man denkt. So verschiebt sich der Umzug nun um ca. 2 Wochen. Eigentlich kein Problem, wenn man nicht irgendwann den Telefon- und somit Internetanschluss kündigen muss.

Ich nutze daher behilfsweise die WLAN Thethering Funktion meines Android Smartphones. Das klappt in der Stadt mit einer UMTS oder HSDPA auch ganz gut. Jedoch wohnen wir auf dem Dorf und das bedeutet eine schmalbandige Edge Verbindung. Arbeiten ist damit so gut wie unmöglich. Ständig bricht der Seitenaufruf mit „Fehler 101 (net::ERR_CONNECTION_RESET): Verbindung wurde zurückgesetzt.“ oder „Fehler 324 (net::ERR_EMPTY_RESPONSE): Server hat die Verbindung geschlossen. Es wurden keine Daten gesendet.“ ab. Der Aufruf von zwei Seiten parallel funktioniert überhaupt nicht. Parallel Telefonieren und surfen klappt ebenfalls nicht. Sobald ein Anruf eingeht, wird die Internetverbindung unterbrochen.

Und das in Zeiten, wo Cloud Computing von den Anbietern, allen voran die Deutsche Telekom, stark beworben wird. An dieser Stelle kann und möchte ich der Telekom allerdings keinen Vorwurf machen. Meine Frau nutzt beruflich T-Mobile und hat hier eine konstante UMTS Verbindung. Ich hingegen nutze Fyve, die auf die mobile Infrastruktur von Vodafone setzen.

Internet ohne stabile Datenverbindung nervt

Ich prangere die Gesamtsituation der Datenverbindungen in Deutschland an. Deutschland verfügt zwar über eine verhältnismäßig gut ausgebaute Infrastruktur. Allerdings gibt es noch viel zu viele Gegenden, in denen Schmalband Internetverbindungen an der Tagesordnung sind. Und dafür muss man z.T. nur 3 Kilometer aus dem Kern einer Großstadt hinausfahren. Die obere Graphik verdeutlicht die Situation (DSL) ganz gut. Besonders aufgefallen ist mir die Misere als wir unsere neue Wohnung im Odenwald, eine ländliche Gegend, gesucht haben. Es gibt dort Ecken, in denen nicht einmal eine mobile Edge Verbindung möglich ist, egal um welchen Anbieter es sich handelt. Auch eine angemessene DSL-Verbindung ist nicht einfach zu finden. In vielen Fällen ist das höchste aller Gefühle eine 2 MBit Leitung, vieler Orts noch geringer.

Ich Frage mich wann in unserem Hochtechnologieland Deutschland diese Misere endlich auch von der Politik beseitigt wird. Denn schauen wir uns die Verteilung von Android und iPhone Smartphones sowie die Entwicklung des Cloud Computing an, besteht hier, insbesondere in den ländlichen Regionen, ein enormer Handlungsbedarf.

Kategorien
News

Ubuntu 12.04 verbindet OpenStack und die Amazon Web Services über eine API

Canonical, Entwickler der Linux Distribution Ubuntu wird mit der kommenden Ubuntu 12.04 LTE eine API veröffentlichen, mit der OpenStack basierte Clouds mit der Infrastruktur der Amazon Web Services (AWS) verbunden werden können. Ubuntu 12.04 LTE wird Ende April erwartet und soll die API in Form des Any Web Service Over Me (AWSOME) Proxy Service mitliefern. Das teilte Canonical Günder Mark Shuttleworth dem INQUIRER mit.

Ubuntu 12.04 verbindet OpenStack und Amazon Web Services über eine API

Shuttleworth möchte insbesondere OpenStack damit helfen, den Bekanntheitsgrad zu erhöhen und somit den Einsatz von mehr OpenStack Clouds zu fördern. Er hält es zudem für sehr nützlich, den Nutzern zu ermöglichen Clouds auf Basis von OpenStack aufzubauen und diese auf Basis einer gemeinsamen API mit den Amazon Web Services kommunizieren zu lassen.

AWSOME soll laut Shuttleworth die grundlegenden Funktionen der Amazon Web Services bieten, um Unternehmen einen flüssigen Übergang zu OpenStack basierten Clouds zu ermöglichen. Demnach stehen bei AWSOME die Kern APIs im Vordergrund, mit denen bspw. eine virtuelle Maschine gestartet werden kann oder der Zugriff auf den Speicher ermöglicht wird. Beide Cloud Infrastrukturen sind grundsätzlich verschieden. Diejenigen, die sich mehr mit OpenStack beschäftigen wollen, müssen sich tiefer in dessen native API einarbeiten. Aber Erfahrungen haben gezeigt, dass Nutzer dankbar dafür sind, wenn sie mit den grundlegenden Funktionen einer ihnen bekannten API und Tools eine Private Cloud aufsetzen können, so Shuttleworth.

Canonicals AWSOME APIs werden mit dem kommenden Ubuntu 12.04 Release verfügbar und als eine Option während der Installation auszuwählen sein.

Kategorien
News

City Cloud erweitert sein Image Portfolio um OpenSuse

Der schwedische Webhosting und Cloud Computing Anbieter City Cloud erweitert sein Portfolio um OpenSuse. Neben bereits zahlreichen GNU/Linux Distributionen wie Debian, Ubuntu, Gentoo, Red Hat, Fedora Core und CentOS wird nun auch die ursprünglich aus Deutschland stammte Linux Variante mit aufgenommen und steht per sofort als VM Image bereit.

OpenSuse war bisher zwar nicht als fertiges Image vorhanden, konnte jedoch über bereitgestellte ISO Dateien zur Erstellung von virtuellen Maschinen genutzt werden. Das führte jedoch zu einem erhöhten Arbeitsaufwand, da jeder virtuelle Server damit manuell erstellt werden musste. Nun steht OpenSuse 12.1 als vollständiges VM Image zur Verfügung.

OpenSuse 12.1 steht dazu in der Version vom 16. November 2011 mit folgenden Tools, Umgebungen usw. bereit:

  • GNOME Shell 3.2
  • KDE, XFCE und LXDE
  • ownCloud
  • Snapper: Für die Verwaltung btrfs Snapshots
  • Chromium 17
  • Allgemeine Verbesserungen in der Performance
  • Bug Fixes

Weitere Informationen zu Änderungen und Verbesserungen in OpenSuse 12.1 stehen im offziellen Portal.


Bildquelle: http://www.digital-business-magazin.de

Kategorien
News

GoGrid steigt in den Markt für Big Data Lösungen ein

Cloud Computing Anbieter GoGrid steigt in den Big Data Markt ein. Für einen begrenzten Zeitraum erhalten alle Kunden den Zugriff auf die neue Big Data Lösung. Dabei handelt es sich um eine hybride Lösung bestehend aus einer vorkonfigurierten Hardware und einer Cloudera Hadoop Implementierung inkl. Big Data Analytics Tools.

GoGrid steigt in den Markt für Big Data Lösungen ein

Die Big Data Lösung basiert auf einer hybriden Infrastruktur-Architektur, die aus einer Kombination von Cloud Computing Eigenschaften und Single-Tenant Infrastruktur-Komponenten besteht. Die Steuerung und Verwaltung erfolgt über das GoGrid Management Portal.

Die Lösung kostet 3.800 US-Dollar pro Monat und ermöglicht eine High-Performance Analyse von Daten, die innerhalb einer NoSQL Datenbank einer Hadoop Implementation gespeichert werden. Kunden die sich für ein Jahr an GoGrid binden möchten erhalten 20% Rabatt pro Monat auf das Angebot.

Die Lösung besteht aus einem Paket aus einer vorkonfigurierten Hardware (1x Compute Node und 3x Data Nodes) sowie Cloudera Hadoop. Die Single-Tenant Infrastruktur wurde dabei speziell für die Analyse von Big Data designed und entwickelt.

Kategorien
News

Microsoft integriert Bing in den Windows Azure Marketplace

Die Antwort hat nicht lange auf sich warten lassen. Nachdem Amazon gestern Amazon CloudSearch – einen Search Engine Cloud Service zur Integration in eigene Anwendungen, vorgestellt hat, erweitert nun auch Microsoft sein Windows Azure Portfolio um die Bing API. Das kündigte das Unternehmen aus Redmond ebenfalls gestern auf dem Bing Developer blog an.

Microsoft integriert Bing in den Windows Azure Marketplace

Microsoft wird dazu die API der Bing Suchmaschine auf den Windows Azure Marketplace portieren und Entwicklern damit die Möglichkeit geben, ebenfalls eine Suchfunktion innerhalb ihrer auf Azure gehosteten Anwendungen zu integrieren.

Mit dem Windows Azure Marketplace stellt Microsoft Drittanbietern ein zentrales Portal zur Verfügung, auf dem diese ihre Daten, Anwendungen und Services kostenlos oder kostenpflichtig bereitstellen können.

Die Portierung der Bing API soll nach Informationen von Microsoft in den nächsten Wochen beginnen und ein paar Monate benötigen, bis sie vollständig abgeschlossen ist. Die Nutzung der API ist zudem nicht kostenlos und wird monatlich abgerechnet. Die Preise liegen monatlich bei ca. 40 US-Dollar für bis zu 20.000 Anfragen pro Monat. Während der Portierungsphase kann die API jedoch vorerst kostenlos genutzt werden.

Kategorien
Analysen

Die Angst vor dem Kontrollverlust durch SaaS und Cloud Services

CIOs werden sich in Zukunft mit dem Kontrollverlust ihrer Daten beschäftigen müssen, die über unterschiedliche Software-as-a-Service Anwendungen durch verschiedenen Abteilungen verteilt sind. Nach und nach kommen immer mehr SaaS Applikationen hinzu, welche die Situation weiter verschärfen werden. Proaktives Handeln ist gefragt!

Der Kontrollverlust wird immer größer

So merken immer mehr IT-Abteilungen, dass sie nicht mehr in der Lage sind, zu kontrollieren, welche Cloud Anwendungen wie bspw. Salesforce, Google Apps oder Box von den jeweiligen Abteilungen genutzt werden, da sich viele bereits selbständig bedienen. Das Hauptproblem besteht dahin, dass mittlerweile viele Entscheidungen an der IT-Abteilung vorbei getätigt werden. Ein sehr ungewohntes Bild für die IT-Entscheider, sind sie doch historisch betrachtet der Mann im IT-Haus. Dieses Phänomen wird auch als Schatten-IT bezeichnet, was durch das Cloud Computing, auf Grund des einfachen Zugriffs auf Ressourcen, seinen Höhepunkt erhält.

Was die einzelnen Abteilungen und Mitarbeiter jedoch vergessen: Je mehr SaaS Anwendungen oder Cloud Services (ungefragt) in das Unternehmen eingeführt werden, desto größer werden die Sicherheitslöcher und der Kontrollverlust, nicht nur für den CIO, breitet sich aus.

Dabei existieren ausreichend Systeme und Mechanismen, um mit der Herausforderung umzugehen. Für diese Lösungen kann bzw. sollte allerdings nur die IT-Abteilung zuständig sein. Ein erster Schritt bedeutet daher Aufklärungsarbeit: reden, reden, reden und die Verantwortlichen der jeweiligen Abteilungen und Arbeitsgruppen mit ins Boot holen.

Sind die zwischenmenschlichen Bereiche geklärt helfen z.B. Single Sign-On Systeme, um die Mitarbeiter zu unterstützen sich nur ein Passwort merken zu müssen und sie von dem Notieren von Benutzernamen und Passwörtern an ungeeigneten Plätzen abzuhalten. Sollte ein Mitarbeiter aus dem Unternehmen ausscheiden, müssen die Zugriffe auf die Cloud basierten Anwendungen unterbunden werden. Kümmert sich eine Abteilung oder ein Projekt selbst darum, bleibt der Account – aus eigener Erfahrung -offen, da dieser schließlich noch benötigt werden könnte. Hier helfen z.B. automatisierte Systeme, die den Zugriff auf den Account sperren.

Genau so verhält es sich bei der Überwachung der Cloud basierten Anwendungen sowie der Rollenvergabe und der damit verbundenen Rechtesituation. Sollte ein Mitarbeiter in eine höhere Position wechseln, erhält er damit in der Regel auch neue Rechte, um auf sensiblere Daten zugreifen zu dürfen.

In allen Fällen kann u.a. ein Identity and Access Management (IAM) System helfen, das für die Überwachung und Kontrolle spezieller Richtlinien zuständig ist. Hier ist es allerdings von besonderer Wichtigkeit, dass die IT-Abteilung wieder die Oberhand gewinnt und proaktiv auf die Mitarbeiter zugeht und nicht versucht durch das Sperren von Ports und Anwendungen die Macht wieder an sich zu reißen. Die Mitarbeiter, Arbeitsgruppen und Abteilungen genießen nämlich ihre aktuelle Freiheit, unkompliziert und vor allem schnell neue Lösungen und Anwendungen zu nutzen, ohne dafür Wochen oder gar Monate warten zu müssen!


Bildquelle: http://blog.insight.com

Kategorien
News

Red Hat Storage 2.0 Beta steht bereit

Ab sofort steht eine Betaversion von Red Hat Storage 2.0 bereit. Die reine Softwarelösung bietet Funktionen zur Vereinheitlichung von Datenspeicherung und Infrastrukturen, eine höhere Performance, eine bessere Verfügbarkeit und eine einfachere Verwaltung großer Datenvolumen.

Red Hat Storage 2.0 Beta steht bereit

Red Hat Storage 2.0 ermöglicht eine Zusammenführung von File Storage und Object Storage und ist mit Apache Hadoop kompatibel. Diese Funktionalität sorgt für einen schnelleren Datenzugriff und sie öffnet Hadoop-Implementierungen für datei- oder objektbasierte-Applikationen.

Zum Funktionsumfang der Red Hat Storage 2.0 gehören ein einheitlicher Zugriff auf Dateien und Objekte innerhalb eines zentralen Storage Pools, eine Storage Infrastruktur speziell für Big Data mit einer Apache Hadoop Unterstützung, eine Performance Optimierung auf Basis von NFSv3, Integrationsmöglichkeiten mit der Red Hat Enterprise Virtualization, einen Network Lock Manager (NLM) sowie u.a. proaktive Funktionen zur Selbstheilung, um damit die Zuverlässigkeit zu erhöhen.

Weitere Infos gibt es im Red Hat Blog.