Kategorien
Events

Rückblick auf die CLOUDZONE 2012 – Die Cloud ist tod, lang lebe die Cloud

Die CLOUDZONE am 10. und 11. Mai führte Deutsche, Österreicher und Schweizer Cloud Anbieter an einem Messestandort zusammen. Ich war am ersten Veranstaltungsort vor Ort und habe Interviews mit einigen Anbietern geführt sowie an dem EuroCloud Anwenderkongress teilgenommen. Ehrlich gesagt hat dieser eine Tag für die aktuelle Größe der Messe vollkommen ausgereicht. Allerdings steckt noch viel Potential in ihr.

Rückblick auf die CloudZone 2012 - Die Cloud ist tod, lang lebe die Cloud

Eröffnet wurde die diesjährige CLOUDZONE durch Bernd Becker, Vorstandssprecher des EuroCloud Deutschland Verbands. EuroCloud ist gleichzeitig eine der Säulen, welche die CLOUDZONE vorantreibt. In seiner Rede stellte Becker noch einmal heraus, dass die EuroCloud das Thema Cloud Computing nicht als nationalen sondern internationalen Ansatz versteht und der Verband zudem darin bestrebt ist, die CloudZone als europäische Leitmesse für Cloud Computing zu etablieren. Meiner Meinung nach ein sehr sportlicher Ehrgeiz, gibt es doch ebenfalls europäische Cloud Computing Veranstaltungen wie die Cloud Computing World Series oder das Cloud Computing Symposium, die beide ebenfalls einen Messebereich bieten. Weiterhin sieht Becker die Rahmenbedingungen in Deutschland sehr positiv, auch wenn es noch Baustellen zu bearbeiten gibt, wie bspw. rechtliche Themen. Was ihn jedoch sehr positiv stimmt, ist die Vielzahl an Cloud Services, die in den letzten Jahren auf dem deutschen Markt erschienen sind.

Auch unser Herr Phillipp Rösler (FDP) durfte zu Wort kommen, allerdings nur per Videobotschaft. In seinen Augen habe die deutsche Politik alles gemacht und sämtliche Rahmenbedingungen für den Erfolg des Cloud Computing in Deutschland geschaffen. Und nun seien die Anwender dran, ihre Skepsis niederzulegen und mit der Nutzung zu beginnen.

Die CLOUDZONE wurde von der Karlsruher Messe- und Kongress-GmbH gemeinsam mit dem EuroCloud Deutschland_eco, dem Verband der deutschen Cloud Computing-Industrie sowie dem CyberForum und dem FZI, Forschungszentrum Informatik Karlsruhe veranstaltet.

Die Messe, die sich ausschließlich mit dem Thema Cloud Computing beschäftigte, hat einen Überblick für interessierte Mittelständler und Cloud-Interessierte aus Wissenschaft und Forschung geboten. Etwa 60 Cloud-Anbieter wie beispielsweise SAP, Red Hat, Dell, Hewlett Packard, DATEV aber auch KMUs wie CAS, PTV, i&k Software, Wepro, Novadex, Leitwerk oder AppSphere präsentierten auf der Messe Karlsruhe ihre Produkte und Lösungen.

Der Datenbestand im Internet wird explodieren

Parallel zur CLOUDZONE fand erstmalig der EuroCloud Anwenderkongress statt, welcher von den drei Landesverbänden aus Deutschland, Österreich und der Schweiz veranstaltet wurde. Dieser wurde ebenfalls durch den omnipräsenten Bernd Becker eröffnet.

Der EuroCloud Anwenderkongress soll den Nutzen der Cloud anhand von echten Anwenderszenarien und Best-Practise Lösungen zeigen, wie mir Andreas Weiss, Direktor EuroCloud Deutschland, in einem persönlichen Gespräch erläuterte.

Die EuroCloud ist mittlerweile schon in 28 Ländern vertreten, präsentierte Becker den Teilnehmern und „schockte“ im Anschluss direkt mit neuen Zahlen aus dem Hause IDC. Laut den Analysten wird sich zum einen der Internettraffic bis zum Jahr 2016 verdoppeln. Darüber hinaus erwartet IDC bis zum Jahr 2020 eine verhundersechzigfachung des Datenbestands im Internet. Aktuell liegt dieser bei 1,8 Cetabytes, wobei 1 Cetabyte 10 hoch 21 Byte entspricht. Diese Zahlen sind auf neue Services wie bspw. dem Internetfernsehen zurückzuführen, die bereits als Cloud Services umgesetzt sind. Demnach wird der Markt für Internetservices regelrecht explodieren, was ein gutes Zeichen für das Cloud Computing ist.

Weitere Neuigkeiten der EuroCloud sind die Erscheinung der zweiten Ausgabe „Der Weg in die Cloud“, das ein neues Kapitel zum Thema Anbieterwechsel enthalten wird und im Sommer auf dem Markt kommt sowie drei neue Leitfäden, die u.a. das Thema Controlling behandeln.

Nicht alles Gold was glänzt

Die CLOUDZONE hat mir grundsätzlich gut gefallen. Trotz der relativ jungen Veranstaltung waren eine Vielzahl an namenhaften Anbietern, darunter T-Systems, Claranet, SAP oder Red Hat mit an Bord. Zudem gab der Startup Bereich vielen jungen Unternehmen mit Cloud Lösungen die Chance sich auch einmal der analogen Öffentlichkeit zu präsentieren.

Ob die erwarteten Teilnehmerzahlen erreicht wurden, sollte man noch einmal die Veranstalter fragen. Mein Eindruck war ein ständiges Gewirbel an allen Ständen, ohne das es nun unangenehm voll war und fachliche Gespräche in Ruhe und einer persönlichen Atmospähre zu führen.

Wo Licht hinfällt gibt es aber natürlich auch Schatten. Und der liegt, wie bei den meisten Veranstaltungen, beim Thema WLAN. Fakt ist, für die Teilnehmer wurde kein kostenloses WLAN bereitgestellt, Punkt! Was angesichts dafür, das Cloud Services ohne eine Datenverbindung keine Existenzberichtung haben, mehr als unverständlich ist. Zumal die CLOUDZONE sich als die Cloud Messe in Deutschland präsentiert. Hinzu kommt, dass die Halle mit ein paar wenigen Access Points gut ausgeleuchtet hätte werden können, bzw. sicherlich über ein WLAN Netz verfügt. Darüber hinaus gehörte T-Systems zu den Sponsoren, mit denen man im Sinne der Teilnehmer einen Deal für die Internetleitung im Gegenzug zum Sponsoring aushandeln hätte können.

Ich begrüße Veranstaltungen wie die CloudZone in Deutschland und würde mich freuen, wenn die Veranstalter ihr ehrgeizig Ziel weiter verfolgen und es schaffen aus Deutschland heraus die Messe zu einem europäischen Format auszubauen. Wobei dieses, angesichts des Mitbewerbs, nicht ganz einfach werden wird.

Ein paar Bilder zur CloudZone 2012 gibt es auf Flickr.

Kategorien
News

Die HP Public Cloud ist nun verfügbar – Fast 40 Unternehmen unterstützen bereits die HP-Lösung

Mit HP Cloud Compute, HP Cloud Object Storage und HP Cloud Content Delivery Network (CDN) stehen ab sofort die ersten Public-Cloud-Dienste von HP der Öffentlichkeit als Betaversion zur Verfügung. Zum Start unterstützen bereits fast 40 Unternehmen die HP Cloud Services. Dazu zählen Platform-as-a-Service-Partner sowie Anbieter von Speicher-, Management- und Datenbanken-Lösungen.

Die HP Public Cloud ist nun verfügbar - Fast 40 Unternehmen unterstützen bereits die HP-Lösung

HP Cloud Services sind Teil des Converged-Cloud-Portfolios von HP. Mit den neuen Public-Cloud-Diensten rundet HP dabei sein Cloud-Portfolio nach unten ab. Entwickler, Softwarefirmen und Unternehmen erhalten dadurch schnellen Zugriff auf ein breites Angebot an Cloud-Lösungen. Damit können sie neue Applikationen schneller und effizienter testen und entwickeln, weltweit einsetzen und entsprechend skalieren. Abgerechnet werden die Public-Cloud-Dienste pro Stunde Nutzungsdauer. Zum Start gibt es für begrenzte Zeit einen 50-prozentigen Rabatt auf die Listenpreise.

Die HP Cloud Services bieten eine Public-Cloud-Infrastruktur in Verbindung mit Plattform-Diensten und Cloud-Lösungen. Die Public-Cloud-Lösung von HP baut auf der OpenStack-Technologie auf. Damit stellt HP Kompatibilität und Anbieterunabhängigkeit sicher. Die Open-Source-Architektur bietet außerdem eine breite Auswahl an Werkzeugen, um die Programmierung von Anwendungen zu beschleunigen, und Zugriff auf ein großes Partner-Ökosystem.

Das Partner-Ökosystem ist ein erster Schritt auf dem Weg zu einem Marktplatz für HP Cloud Services, über den Kunden Zugriff auf HP Cloud Services und Partner-Lösungen erhalten.

Folgende Unternehmen unterstützen bereits heute HPs Public-Cloud-Dienste:

  • Applikationen: Otopy, PXL, SendGrid
  • Datenbanken: CloudOpt, EnterpriseDB, Xeround
  • Entwicklung und Tests: SOASTA, Spirent
  • Verwaltung: BitNami, CloudSoft, enStratus, Kaavo, RightScale, ScaleXtreme, Smartscale Systems, Standing Cloud
  • Mobile: FeedHenry, Kinvey
  • Monitoring: New Relic
  • Platform as a Service: ActiveState, CloudBees, Corent Technology, CumuLogic, Engine Yard, Gigaspaces
  • Sicherheit: Dome9, SecludIT
  • Speicher: CloudBerry Lab, Gladinet, Panzura, Riverbed Technology, SMEStorage, StorSimple, TwinStrata, Zmanda
  • Technologie: Opscode, Zuora

Preise der HP Public Cloud

HP Cloud Compute

HP bietet sechs unterschiedliche Instanztypen (XS bis XXL) mit jeweils unterschiedlichen Ausstattungen an. Die Abrechnung erfolgt pro Stunde ohne die Verpflichtung auf einen langjährigen Vertrag.

Instanz Typ RAM (GB) Anzahl virtueller Kerne lokaler Speicher (GB) Preis pro Stunde
Standard Extra Small 1 1 30 0,04 US-Dollar
Standard Small 2 2 60 0,08 US-Dollar
Standard Medium 4 2 120 0,16 US-Dollar
Standard Large 8 4 240 0,32 US-Dollar
Standard Extra Large 16 4 480 0,64 US-Dollar
Standard Double Extra Large 32 8 960 1,28 US-Dollar

HP Cloud Object Storage

Die Kosten für HPs Cloud Storage sind in drei Speicherbereichsgrößen aufgeteilt, an denen sich die Preise pro Gigabyte orientieren. Die Abrechnung erfolgt pro Gigabyte pro Monat plus die jeweiligen Anfragen (Get, Put, Post, Copy, List) an den Cloud Storage, wobei pro 1000 Anfragen abgrechnet wird. Siehe unten

Speicher Bereiche Preis pro GB pro Monat
0-50 TB 0,12 US-Dollar
Nächsten 950 TB 0,10 US-Dollar
Über 1.000 TB HP fragen

HP Cloud Object Storage Anfragen

Anfrage Typ Preis pro GB
Put, Post, Copy, List, Get und weitere Anfragen 0,01 US-Dollar pro 1,000 Anfragen

HP Cloud Services Non-CDN Bandbreite

Die Preise für die Bandbreite basieren auf der jeweiligen Anzahl des ausgehenden Datentransfers. Dabei werden die ersten 1 GB nicht berechnet, anschließend erfolgt die Abrechnung pro GB pro Monat. Der eingehende Datentransfer ist hingegen vollständig kostenlos.

Bandbreite Preis pro GB pro Monat
Eingehender Datentransfer (komplett) kostenlos
Ausgehender Datentransfer
Ersten 1 GB kostenlos
bis zu 10 TB 0,12 US-Dollar
Nächsten 40 TB HP fragen
Nächsten 100 TB 0,07 US-Dollar
Nächsten 350 TB 0,05 US-Dollar
Über 500 TB HP fragen

HP Cloud CDN Bandwidth

Die Preise für die Bandbreite basieren auf der jeweiligen Anzahl des ausgehenden Datentransfers. Für Daten die vom HP Cloud Storage Richtung des CDN übertragen werden entstehen keine Kosten.

Datentransfer Preis pro GB pro Monat
Ausgehend Nord Amerika, Europa und Lateinamerika Japan, Hong Kong und Singapur Rest der Welt
Ersten 10 TB 0,16 US-Dollar 0,19 US-Dollar 0,39 US-Dollar
Nächste 40 TB 0,11 US-Dollar 0,14 US-Dollar 0,37 US-Dollar
Nächste 100 TB 0,09 US-Dollar 0,12 US-Dollar 0,35 US-Dollar
Nächste 100 TB 0,07 US-Dollar 0,10 US-Dollar 0,32 US-Dollar
Über 250 TB HP fragen HP fragen HP fragen
Anfragen
Pro 10.000 HTTP Anfragen kostenlos kostenlos kostenlos
Pro 10.000 HTTPS Anfragen kostenlos kostenlos kostenlos
Kategorien
News

Cloud Computing ist das Erfolgsrezept für das „Neue Arbeiten“ in Unternehmen

Der Trend hin zum „Neuen Arbeiten“ unter Einbezug privater IT-Geräte ist in deutschen Unternehmen nicht mehr aufzuhalten. Das bestätigt das aktuelle White Paper „Cloud Computing und Consumerization of IT in Deutschland 2012“ hervor, das IDC im Auftrag von Microsoft Deutschland verfasst hat.

Rund zwei Drittel der befragten Unternehmen haben demnach den Bedarf erkannt und ermöglichen bzw. planen den mobilen Zugriff auf Geschäftsdaten und moderne, interaktive Tools zur Zusammenarbeit innerhalb der nächsten zwei Jahre. Mehr als jeder zweite Befragte (56 Prozent) sieht dabei vor allem in der zunehmenden Mobilität und Flexibilität den größten Nutzen, sich mit dem neuen Trend zu beschäftigen. Der Anspruch an den mobilen Zugriff auf Geschäftsapplikationen und -daten ist jedoch divergent. Während Anwender den einfachen und schnellen Zugriff auf mobile Geschäftsapplikationen erwarten, muss die IT-Abteilung die Sicherheit der Daten gewährleisten. Der Schlüssel liegt laut IDC hier in der Cloud.

Nach den Ergebnissen des IDC White Papers sehen immer mehr Unternehmen in Consumerization of IT einen entscheidenden Wettbewerbsvorteil. Vor allem die steigende Mobilität und Flexibilität (56 Prozent), geringere IT-Kosten (53 Prozent) sowie zeit-, orts- und geräteunabhängiger Zugriff auf Unternehmensapplikationen spielen eine entscheidende Rolle. Rund zwei Drittel der befragten Unternehmen ermöglichen bzw. planen den Zugriff auf mobile Geschäftsapplikationen. Hatten in der Vergangenheit noch viele Unternehmen Vorbehalte gegenüber des Cloud Computing bzgl. der Sicherheit und des Datenstandorts, zeigen die aktuellen Ergebnisse, dass sich diese Sichtweise geändert hat. Public Cloud Services haben einen gewissen Reifegrad erreicht, wodurch auch die Sicherheitsbedenken der Unternehmen sinken. So nahm die Anzahl der „Skeptiker“ innerhalb des letzten Jahres deutlich ab (-7 Prozentpunkte) und umgekehrt sind jetzt 75 Prozent der Entscheider – das sind fünf Prozentpunkte mehr – „Pro Cloud Computing“ eingestellt.

Consumerization of IT – Ohne Cloud Computing undenkbar

Die Ergebnisse des IDC bestätigen, dass der Trend Consumerization of IT in direktem Zusammenhang mit Cloud Computing steht. Cloud Services sind der Schlüssel, um Anwender-, Sicherheits- sowie Supportfragen im Zusammenhang mit der Nutzung von privaten Endgeräten im geschäftlichen Alltag zu lösen. Consumerization of IT können Unternehmen einfach nicht mehr ignorieren. Anbieter wie Microsoft und andere sehen sich daher in der Pflicht, Vertrauen zu schaffen und Unternehmen Lösungen für den sicheren Umgang mit diesem Trend im Rahmen ihrer IT-Strategie anzubieten. Laut IDC haben vor allem Großunternehmen das erkannt und setzen vermehrt auf den Einsatz von Cloud Computing.

Großunternehmen haben den Bedarf erkannt

Insgesamt nimmt die Verbreitung von Cloud Computing Fahrt auf. Im Vorjahr hatten zusammengefasst 27 Prozent der Unternehmen Cloud Computing eingesetzt oder gerade eingeführt. Nur ein Jahr später sind es bereits über 40 Prozent – ein immenser Anstieg. Vorreiter wie im letzten Jahr sind die Großunternehmen. Rund 58 Prozent der befragten Unternehmen mit mehr als 1.000 PC-Arbeitsplätzen führen Cloud Services ein oder planen die Einführung in den kommenden ein bis zwei Jahren. Damit liegt das Interesse der Großunternehmen deutlich über dem Durchschnitt.

Kategorien
News

Die US-Army marschiert in die Cloud – Big Data Analytics in Krisenregion

Um die Analyse ihrer Geheimdienst-Informationen in Afghanistan zu verbessern, setzt die US-Army mit einigen Partnerfirmen aus Wisconsin, auf Services aus der Cloud. Dazu wurde mit dem US-amerikanischen Rüstungs- und Technologiekonzern Lockheed Martin Corp. ein Deal über 19,5 Mio. US-Dollar abgeschlossen. Die Cloud wird dazu genutzt, um die dabei anfallenden Daten zu verarbeiten, zu verwalten und zu speichern.

IEA Inc. und Silicon Graphics werden das Projekt mit 4 Cloud Nodes unterstützen, die als Verbindungspunkte dienen. Einer dieser Nodes wird in Afghanistan eingesetzt und den Kommandeuren die Möglichkeit geben, Echtzeit-Analysen über sämtliche Geheimdienst-Berichte aus aller Welt vorzunehmen. Die Army erhofft sich dadurch mehr Leben retten zu können, da die Datenbasis der Geheimdienst-Berichte bis auf das Jahr 2003 zurückzuführen ist und den Streitkräften nun über das Cloud Computing bereitgestellt wird.

Die Entscheidung für den Einsatz des Cloud Computing in Afghanistan wurde bereits in einem Memo aus dem Juli 2010 diskutiert, in dem kritisiert wurde, wie die Armee mit solchen wichtigen Informationen umgeht. Ein Prototyp des Cloud Nodes wurde im April 2011 in der Bagram Air Base gestartet, um zu untersuchen wie die neue Technologie den Analysten dabei hilft, besser an die Informationen zu gelangen. Für den Produktiveinsatz wird ein System entwickelt, dass über eine bessere Konnektivität, schnellere Hardware, mehr Speicher und mehr Rechenleistung verfügt.

Jeder Node arbeitet mit 228 Servern mit mindestens 1.800 CPU-Kernen, 14 Terabyte RAM und mindestens 1 Petrabyte bzw. 1.000 Terabyte Festplattenspeicher. Jeder Node ermöglicht die sofortige Analyse von Geheimdienst-Nachrichten und kann mehr Daten speichern als die Bibliothek des Kongresses.


Bildquelle: http://luckybogey.wordpress.com

Kategorien
News

LG geht in den Mobile Cloud Storage Markt und veröffentlicht seine LG Cloud

LG Electronics will keinen Trend verpassen. Wie bereits Apple, Google und Microsoft haben auch die Südkoreaner damit begonnen, Cloud basierte Services für den Privatkundenmarkt zu veröffentlichen. Als erster Service wurde bereits am 1. Mai der hauseigene Cloud Storage Service LG Cloud in die Betaphase geschickt.

Bei dem LG Cloud Service handelt es sich zunächst um einen Cloud Storage, der den Zugriff auf Inhalte von Smartphones, Fernsehgeräten und Computer plattformübergreifend ermöglicht. Um den Service zu nutzen, benötigt der Anwender dazu native Anwendungen, die entweder über Google Play, LG SmartWorld oder direkt von der LG Cloud Webseite www.lgecloud.com heruntergeladen werden können. LG Cloud synchronisiert zudem automatisch sämtliche oder ausgewählte Inhalte von einem Smartphone zum PC oder LG Smart TV. Wodurch die multimedialen Inhalte unverzüglich angeschaut werden können.

LG Cloud steht zunächst für Google Android 2.2 und jünger, Windows XP, Windows 7 und LG Smart TVs mit Netcast 2.0 und jünger bereit. Weiterhin wird der Service zunächst in Nordamerika und Südkorea ausgerollt und später in weiteren Ländern zur Verfügung stehen.

Der Cloud Storage bietet 5GB kostenlosen Speicherplatz. Kunden, die bereits ein LG Smart TV oder LG Smartphone besitzen, oder solche, die ein LG Produkt erwerben, erhalten 6 Monate 50GB kostenlosen Speicherplatz. Die Preise für die Speichererweiterung stehen noch nicht fest.

LG möchte sich vom Mittbewerb abheben

LG betrachtet sein Angebot als mehr als nur einen gewöhnlichen Cloud Storage Service. Das Unternehmen möchte sein Produkt als speicher- und multimedia-orientieren Service vermarkten, da dieser ebenfalls über Echtzeit-Streaming verfügt. Dazu werden die Inhalte direkt über das Netz von einem Server übertragen. Der Nutzer benötigt dazu keine zusätzlichen Decoder auf dem lokalen Gerät, um die jeweiligen Dateien abzuspielen. Dazu werden die jeweiligen Inhalte durch das LG Cloud System vorab automatisch konvertiert und erst dann zum Client übertragen.

Kategorien
News

Studie zu Private Cloud, Storage und Virtualisierung bestätigt: Performance-Probleme und Ausfallzeiten haben Top-Priorität vor den Kosten

Performance-Engpässe und Ausfallzeiten bei Virtualisierungsprojekten bereiten IT-Verantwortlichen im Speicherumfeld die größten Sorgen. Noch im Vorjahr hatten die Kosten Top-Priorität. Das ist ein Ergebnis einer aktuellen Studie von DataCore Software, führender Anbieter für Storage-Hypervisor-Software, unter rund 300 befragten Unternehmen weltweit.

63 Prozent der Befragten gaben an, dass speicherseitige Systemausfälle und Performance-Verschlechterungen die Hauptprobleme bei der Realisierung von Virtualisierungsprojekten sind. Im Vorjahr lag dieser Wert noch bei 36 Prozent. 51 Prozent sind der Ansicht, dass steigende Storage-Kosten viele Virtualisierungsinitiativen ausbremsen. 2011 lag dieser Wert noch bei 66 Prozent.

Storage verschlingt einen erheblichen Teil des Virtualisierungsbudgets, die steigenden Ausgaben allein werden jedoch nicht mehr als Hauptproblem gesehen. Rund 44 Prozent der Befragten gaben an, dass die Speicherkosten mittlerweile mehr als ein Viertel ihres Gesamtbudgets ausmachen. Dabei können 37 Prozent der Unternehmen heute mehr Geld für den Speicher ausgeben, bei nur 13 Prozent wurde das Budget reduziert.

Weitere Ergebnisse der weltweiten Studie

  • 34 Prozent der Befragten geben zu, die Storage-Kosten bei der Umsetzung von Server- und/oder Desktopvirtualisierungsprojekten unterschätzt zu haben. Fast jeder Vierte (28 Prozent) hat die Speicherkosten bei der Bereitstellung einer Private Cloud unterbewertet.
  • Trotz steigender Ausgaben für Speicherlösungen konnten die Performanceprobleme bei Server- und Desktop-Virtualisierungsprojekten nicht eliminiert werden. So berichteten die Befragten von erheblichen Problemen bei Performance, Ausfallsicherheit und Business Continuity trotz eines höheren durchschnittlichen Storage-Budgets.
  • 32 Prozent konstatieren eine langsame Performance aufgrund der Speicherumgebung (gegenüber 26 Prozent im Jahr 2011), 32 Prozent verzeichnen Ausfallzeiten aufgrund von Speicherproblemen (2011 nur 9 Prozent) und 23 Prozent gaben an, dass die Sicherstellung der Business Continuity einer der schwierigeren Herausforderung ist.
  • Kapp 80 Prozent der befragten Unternehmen haben mittlerweile mehr als die Hälfte ihrer Server virtualisiert (2011: 64 Prozent), wohingegen weniger als 5 Prozent noch gar keine Server virtualisiert haben (2011: 9 Prozent).
  • Fast zwei Drittel (65 Prozent) können ihre Storage-Ressourcen noch immer nicht in einem logischen Storage-Pool (2011: 61 Prozent) verwalten.
  • Jeder zweite Befragte nutzt Virtualisierungssoftware, die heterogene Speichermedien nicht zentral managen kann.
  • In privaten Clouds setzen weniger als ein Drittel (32 Prozent) der Befragten Speichervirtualisierungstechnologien für private Cloud-Umgebungen ein.

Die Umfrage „2012 State of the Private Cloud“ zeigt zudem, dass die Virtualisierung in der Praxis angekommen ist und das speicherbezogene Performance und Verfügbarkeit die größten Kopfzerbrechen verursachen und inzwischen mit Bedenken bezüglich der Kosten einhergehen.

Die Umfrage wurde im März 2012 durchgeführt. 289 Unternehmen unterschiedlicher Größe nahmen weltweit an der Online-Befragung teil und beantworteten Fragen zu Storage, Virtualisierung und Private Clouds. Etwa 180 teilnehmende Unternehmen stammen aus Europa.
Der vollständige Bericht steht bereit unter: http://pages.datacore.com/StateofPrivClouds.html.

Kategorien
News

Amazon erweitert seinen Cloud Drive Speicher um Desktop Anwendung

Amazon, die vor fast sieben Jahren als einer der Ersten überhaupt einen Cloud Storage Service für Unternehmen auf dem Markt gebracht haben, gehört mit seinem Cloud Drive im Privatenkunden Segment zu den Letzten mit einem Angebot. In der vergangenen Woche am 3. Mai folgte mit einer Desktop Anwendungen für Windows und Mac ein Update für den ein Jahr alten Cloud Storage.

Amazon erweitert seinen Cloud Drive Storage um Desktop Anwendung

Anstatt ständig auf die Webseite des Cloud Drive Service zu gehen, können Kunden nun über eine native Desktop Applikation für Windows und Mac auf ihre Daten in der Amazon Cloud zugreifen und die Daten des lokalen System darauf ablegen. Der neue Client unterstützt Windows Vista, Windows 7 und Mac OS 10.6 und jünger.

Cloud Drive wurde im Jahr 2011 veröffentlicht und bietet Amazon Kunden 5GB kostenlosen Speicherplatz für die gängigsten Dateitypen wie Videos, Photos, Dokumente und Musik im MP3 und ACC (Apple iTunes) Format. Der Zugriff erfolgte ausschließlich über den Webbrowser.

Wie von anderen Cloud Storage Services bekannt, können Nutzer den Speicherplatz erweitern. 20GB Speicherplatz können für 20 Dollar pro Jahr hinzugekauft werden. Darüber hinaus wird Musik, die über Amazon direkt gekauft wurde, nicht auf den den Speicherplatz angerechnet. Das bedeutet, dass bspw. trotz 5GB gekaufter MP3 Dateien weiterhin 5GB Speicherplatz zur Verfügung stehen, wenn dort bisher keine anderen Daten abgelegt wurden.

Anders als bekannte Cloud Storage Clients, ermöglicht Amazon Cloud Drive nicht die automatische Synchronisation mit Ordnern auf dem lokalen System oder das Teilen von Dateien mit anderen Cloud Drive Nutzern. Ein Missstand der neben weiteren fehlenden Möglichkeiten z.B. zur Kollaboration schnellstmöglich behoben werden sollte.

Kategorien
News

Casablanca: Microsoft schiebt C++ in die Cloud

Am 30. April haben die Microsoft DevLabs (Developer Division Labs) mit dem Codenamen „Casablanca“ eine Reihe von neuen C++ Bibliotheken veröffentlicht. Damit sollen Entwickler einfacher auf RESTful Services zugreifen können, bzw. diese selbst implementieren. Das schreibt Microsoft Developer Division Corporate Vice President Soma Somasegar in seinem Blog.

Casablanca ist eine Microsoft Inkubation, um die Cloud basierte Client-Server Kommunikation in nativem Code zu unterstützen. Dabei wird eine modernes asynchrones C++ API Design verwendet, so die Microsoft DevLaps Webseite. Casablanca ermöglicht dazu den Zugriff auf REST Services aus nativem Code von Windows Vista, Windows 7 und der Windows 8 Consumer Preview, indem asynchrone C++ Bindings für HTTP, JSON und URIs zur Verfügung stehen.

Dafür bietet Microsoft eine Erweiterung für sein Visual Studio SDK, mit der Entwickler die entsprechende Unterstützung zum Schreiben von C++ HTTP Client Code in Windows 8 Apps und nativem REST Code für Azure erhalten.

Casablanca ist das Produkt aus Erfahrungen, die durch .NET, Node.js, Erlang und weiteren Einflüssen gesammelt wurden, um daraus eine Architektur zu bauen, mit der skalierbare und flexible Anwendungen entwickelt werden können, schreibt Somasegar.

C#, Visual Basic und F# Entwickler arbeiten bereits mit robusten und skalierbaren Netzwerkstacks. Node.js Entwickler können das Windows Azure Software Development Kit (SDK) und JavaScript nutzen, um skalierbare Anwendungen zu schreiben, so Somasegar. Jedoch fehlten für C++ Entwickler ähnliche Tools, die für die Nutzung und der Implementierung von RESTful Cloud Services in Verbindung mit modernen C++ Funktionen genutzt werden konnten.

Für Casablanca, wie auch bei anderen DevLaps Releases, steht noch nicht fest, ob es als ein offizielles Produkt oder Teil eines Produkts auf dem Markt erscheint. In erster Linie dient es dem Test und dem Entwickler Feedback.

Kategorien
News

Die Deutsche Telekom wird Mitglied im SaaS-EcoSystem

Vor dem Hintergrund seines neuen „Telekom Cloud Business Market Place“ sucht die Deutsche Telekom Erfahrungsaustausch mit Experten aus dem deutschen SaaS- und Cloud-Netzwerkes des Saas-EcoSystem e.V.

Zur Mitte des Jahres 2012 wird die Deutsche Telekom AG ihren neuen Cloud-Marktplatz, den „Business Market Place, eröffnen“. Im Zuge dessen wird sich das Unternehmen jetzt als neues Mitglied im SaaS-EcoSystem e.V engagieren. Der Dax-Konzern will bei der Weiterentwicklung seines Cloud-Marktplatzes von der Expertise der einzelnen Mitglieder des Cloud-Netzwerks profitieren sowie seinerseits Know-how beim Aufbau von Cloud-Konzepten beisteuern.Phil Zamani, SVP Cloud Services der Deutschen Telekom AG: „Als Forum für die Entwicklung bedarfsgerechter Lösungen, Konzepte und Berater im Umfeld von SaaS und Cloud stellt das SaaS-EcoSystem für uns eine ideale Plattform für den intensiven Erfahrungsaustausch rund um alle Cloud-spezifischen Themen dar.“

Die Bonner bauen ihren Marktplatz auf der Open Source Software OpenStack auf. Dieser wendet sich vor allem an den deutschen Mittelstand, der dort verschiedenste Cloud-Services zu Anwendungspaketen schnüren und on-demand nutzen kann.Frank Türling, Vorstand für Öffentlichkeitsarbeit des SaaS-EcoSystem: „Wir freuen uns über den Beitritt der Deutschen Telekom AG. Er zeigt auf beeindruckende Weise, welche Relevanz der SaaS-EcoSystem e.V. als das deutsche Expertennetzwerk rund um alle Themen für SaaS und Cloud mittlerweile gewonnen hat.“

Knapp zwei Jahre nach ihrer Gründung zählt die Expertenplattform nun bereits 27 Mitglieder aus den unterschiedlichsten Fachgebieten.

Kategorien
News

Amazon hilft mit CloudFormation beim Aufbau einer Virtual Private Cloud

Die Amazon Web Services ermöglichen nun den automatisierten Aufbau einer vollständigen Virtual Private Cloud (VPC) auf Basis eines einzelnen AWS CloudFormation Templates. Laut Jeff Barr, beschreibt das Template alle Eigenschaften, die notwendig sind, um den dafür notwendigen Ressourcenstack zu erstellen.

Amazon VPC kann bereits seit mehreren Jahren genutzt werden und erlaubt dem Nutzer den Aufbau eines für sich isolierten Bereichs auf der Amazon Cloud. Hier können Ressourcen in einem virtuellen Netzwerk ausgeführt werden und darauf mittels öffentlichen und privaten Subnetzen sowie VPNs zugegriffen werden.

Mit dem Einsatz von AWS CloudFormation müssen Anwender nicht die Reihenfolge der Provisionierung der jeweiligen AWS Services sowie deren Abhängigkeiten berücksichtigen. CloudFormation nutzt dazu Templates, die als in JSON (JavaScript Object Notation) formatierte Textdateien geschrieben werden. JSON basiert auf einer Teilmenge der Programmiersprache JavaScript und ist sowohl für Menschen als auch Maschinen lesbar.

Um Entwicklern und Systemadministratoren ein wenig unter die Arme zugreifen, hat Amazon zwei Beispiel Templates erstellt, um zu zeigen wie diese aufgebaut sind. Das erste Template erstellt eine Amazon VPC mit einer EC2 Instanz. Das zweite Template baut eine VPC inkl. einem Public und Private Subnetz sowie einem Elastic Load Balancer und einer EC2 Instanz auf.

Beide Templates können in Jeff Barrs Blogpost nachvollzogen werden.


Bildquelle: http://www.allmystery.de