Kategorien
Events

Termin vormerken: CloudCamp Frankfurt 2012!

Es ist wieder so weit! 2012 wird erneut ein CloudCamp in Frankfurt stattfinden. Alle Interessierten sollten sich daher den 24. Mai in ihrem Terminkalender markieren.

Termin vormerken! CloudCamp Frankfurt 2012

Unterstützt von CloudUser | Ξxpert und organisiert von Roland Judas (arago AG) und René Büst (CloudUser | Ξxpert), werden wieder zahlreiche nationale und internationale Cloud Computing Evangelisten und Experten sich in Frankfurt einfinden, um aktuelle Fakten und zukünftige Trends zu präsentieren und diese diskutieren.

Mit Stefan Ried, Principal Analyst von Forrester Research, hat sich bereits ein internationaler Cloud Analyst und Experte angekündigt.

Die Registrierung ist noch nicht eröffnet. Daher sollten alle CloudCamp Interessierten dem offiziellen Twitter Account @CloudCampFRA bzw. den Twitter Accounts der Organisatoren @RolandJudas und @ReneBuest folgen, um über alle Neuigkeiten direkt informiert zu sein.

Kategorien
Services

E-Mail Migration mit der Cloud

Der Datentransfer zwischen zwei E-Mail Providern macht nicht wirklich Spaß und hat ebenso viele Probleme bereitet. Aber vor allem war es unbequem. Per POP3 die Daten aus dem einen Postfach herunterladen und in das Neue integrieren. Zeitraubend und langweilig. Aber dafür gibt es nun etwas aus der Cloud.

Der Service nennt sich ganz klassisch E-Mail Umzug und hilft bei der automatisierten Migration der Daten eines Postfaches in ein neues. Derzeit werden 14 Provider unterstützt zwischen denen die Postfächer gewechselt werden können. Aber auch die Migration von Provider > On-Premise bzw. On-Premise > Provider oder On-Premise > On-Premise ist möglich. Dafür werden aktuell 9 E-Mail Systeme unterstützt. Eine Voraussetzungen dafür ist jedoch der öffentliche Zugriff auf das jeweilige On-Premise System, da die Migration und Steuerung über den Umzugsdienst vorgenommen wird.

E-Mail Migration in und aus der Cloud

Um den Umzug zu starten, wählt man den aktuellen Anbieter und den neuen Anbieter, bestellt sich einen Voucher (pro E-Mail Konto wird einer benötigt), startet die Migration und wartet. Je nach Postfachgröße dauert diese mehrere Minuten bzw. Stunden. Allerdings sorgt das System für den Rest. Über eine Statusseite kann der aktuelle Vorgang pro Postfach überwacht werden und berichtet über mögliche Fehler während der Migration.

E-Mail Migration in und aus der Cloud

Die Kosten pro Postfach das migriert werden soll, betragen 14,99 EUR. Hier werden alle E-Mails umgezogen, wobei die Größe des Postfaches nicht größer als 10 GB sein darf. Der Dienst bietet ebenfalls einen kostenlosen Umzug von Postfächern. Hier ist die Größe allerdings auf 20 MB beschränkt und es werden nur die E-Mails der letzten 10 Tage berücksichtigt. Zum Testen sollte das dennoch ausreichen.

Der Service eignet sich gut für Unternehmen die eine Vielzahl von Postfächern migrieren wollen, aber auch für Provider oder Webhoster, die den Dienst als White-Label ihren eigenen Kunden anbieten möchten. Auch für Studenten könnte ein Nutzen vorhanden sein, da die Konten nach der Exmatrikulation in der Regel nur ein paar Wochen aktiv bleiben. Hier kann ggf. auch der kostenlose Dienst ausreichen.

Die E-Mail Migration sollte nur der Anfang bleiben, wenn man bedenkt, welche weiteren wichtigen Daten in Zukunft bei Providern gespeichert werden. Neben E-Mail Services bieten Google mit Docs, Microsoft mit Office 365 bzw. SkyDrive oder auch Zoho mit Writer und weiteren Tools, Lösungen für das Arbeiten in der Cloud, währenddessen immer mehr Daten generiert werden, die ggf. migriert werden müssen.

Kategorien
Analysen

Hinter Amazons Cloud verbergen sich geschätzte 450.000 Server

Wie viele Server benötigt es, um eine Cloud wie bspw. die der Amazon Web Services zu betreiben? Wie es innerhalb der physikalischen Infrastruktur tatsächlich aussieht, darüber gibt Amazon, wie auch alle anderen großen Internetunternehmen, keine Auskunft. Nach aktuellen Schätzungen eines Wissenschaftlers soll es sich um mindestens 454.400 Server in weltweit sieben Rechenzentren handeln.

Die Amazon Cloud ist riesig

Huan Liu, Wissenschafter in den Accenture Technology Labs, hat anhand der internen und externen IP-Adressen Amazon EC2 analysiert. Die Adressen hat er hochgerechnet, um Schätzungen für die Anzahl der Racks pro Rechenzentrum vorzunehmen. Er traf dann die Annahme, dass sich in jedem Rack 64 Blade Server befinden – vier 10U-Chassis mit jeweils 8 Blades.

Das ist eine von mehreren Annahmen für Liu’s Schätzungen, die er jedoch mit Vorbehalten dokumentiert. Photos in einer Präsentation von AWS Distinguished Engineer James Hamilton aus dem Jahr 2011, zeigen bspw. 1U „pizza box“-Rackmount-Server statt Blades. Allerdings ist nicht bekannt, ob es sich bei den Bildern tatsächlich um die aktuelle Infrastruktur von Amazon handelt.

Ein interessanter Aspekt von Liu’s Forschung ist eine hohe Konzentration von Amazons IP-Adressen in der US-East Region im nördlichen Virginia, wo Amazon mehrere Rechenzentren betreibt. Er schätzt, dass sich 5.030 Racks im Norden von Virginia befinden, bzw. ca. 70 Prozent der geschätzten Gesamtzahl von 7.100 Racks der Amazon Web Services. Im Gegensatz dazu hat die neue Amazon US-West Region (Oregon) nur 41 Racks, die Berichten zufolge in Containern bereitgestellt werden.


Weiterführende Informationen


Bildquelle: http://flockshots.de

Kategorien
News

Azure Nutzer erhalten für den Ausfall am 29. Februar eine Gutschrift über 33%

Microsoft hat eine detaillierte Analyse veröffentlicht, in der beschrieben wird was genau zu dem weit verbreiteten Ausfall des Azure Cloud-Service am 29. Februar geführt hat.

Wie von Seiten Microsoft bekannt wurde, erhalten alle Azure Nutzer zudem eine Gutschrift über 33% rückwirkend für den ganzen Monat, egal ob sie von dem Ausfall betroffen waren oder nicht.

Der weitreichende Azure Ausfall begann am 28. Februar ca. gegen 21.00 Uhr ET (Eastern Time). Dadurch waren Kunden in Europa, Nordamerika und anderen Regionen durch eine Reihe von aufeinanderfolgenden Problemen im Laufe der folgenden zwei Tagen betroffen. Nutzer berichteten, dass sie nicht in der Lage waren, auf das Azure-Dashboard zuzugreifen, das im Prinzip das einzige Mittel ist, um Statusinformationen über die einzelnen Azure Services zu erhalten. Die Probleme wurden am Morgen (ET) des 1. März weitestgehend behoben.

Der Schaltjahr-Bug verursachte zunächst einen ersten Ausfall, der wiederum zu einem weiteren Ausfall führte. Bill Laing, Chef des Server und Cloud Teams bei Microsoft erläutert den Beginn des Ausfalls so:

“The leap day bug immediately triggered at 4:00PM PST, February 28th (00:00 UST February 29th) when GAs (guest agents) in new VMs tried to generate certificates. Storage clusters were not affected because they don’t run with a GA, but normal application deployment, scale-out and service healing would have resulted in new VM creation. At the same time many clusters were also in the midst of the rollout of a new version of the FC (fabric controller), HA (host agent) and GA.”

Microsoft werde, laut Laing, natürlich aus dem Ausfall lernen und neue Testmethoden einführen, Verbesserungen in der Verfügbarkeit des Dashboard-Service vornehmen sowie weitere Kommunikationskanäle einrichten, um über Ausfälle schneller zu informieren.


Bildquelle: http://blog.otto-office.com

Kategorien
News

SAP rollt Cloud-fähige Version von Business One aus

SAP hat eine mehrbenutzerfähige Version seiner ERP Suite Business ONE entwickelt, die allerdings nur exklusiv über Partner als Business One OnDemand vertrieben wird.

Eine Multi-tenancy (mehrbenutzerfähige) Architektur wird üblicherweise von SaaS Anbieter genutzt, um eine Instanz einer Anwendung für mehrere Kunden voneinander getrennt auf einer Plattform bereitzustellen. Dadurch kann der Anbieter neben Skalleneffekten ebenfalls Kosten für die Wartung und das Deployment der Anwendung einsparen und ein Update der Anwendung für alle Kunden „mit einem Klick“ vornehmen.

SAP rollt Cloud-fähige Version von Business One aus

Business One wird durch Partner von SAP bereits in Form einer gehosteten Version angeboten, aber eben nicht als SaaS. So will SAP es seinen Partnern nun auch ermöglichen, Business One im pay as you go Modell anbieten zu lassen.

Die Entwicklung der mehrbenutzerfähige Version sei laut SAP weitestgehend abgeschlossen und soll durch die Partner im zweiten Quartal 2012 bereitgestellt werden. Die Version wird zunächst in 18 Ländern angeboten werden. Darunter in den USA, Großbritannien, Frankreich, Deutschland, Australien, Österreich, Brasilien, Kanada, China, Tschechien, Ungarn, Italien, Mexiko, den Niederlanden, Singapur, Südafrika, Spanien und der Schweiz.

Nur durch SAP zertifizierte Hosting-Partner werden die Anwendung direkt anbieten dürfen. Zudem wird Business One weiterhin als traditionelle Hosting- und On-Premise Lösung zur Verfügung stehen.


Bildquelle: http://www.ixpert.de

Kategorien
Management

Cloud Computing und Service Level Agreements: Das sollte nicht fehlen!

Unternehmen müssen die Leistungen, die Provider beim Cloud Computing erbringen sollen, genau definieren. Der Hamburger Managed Service Provider Easynet hat dazu zehn wesentliche Punkte zusammengestellt, die in den Verträgen und SLAs von Cloud-Projekten nicht fehlen sollten.

Cloud Computing ist zur Realität geworden – viele Unternehmen denken darüber nach, wie sie die Cloud für ihre IT nutzen können oder haben bereits konkrete Schritte vorgenommen. Wer einem Cloud Provider die Verantwortung für wesentliche IT-Ressourcen überträgt, muss mit ihm klare Regelungen treffen. Die folgenden zehn Punkte beinhalten die wesentlichen Aspekte, die Anwender bei der Festlegung von SLAs (Service Level Agreements) – beziehungsweise in sonstigen Verträgen – für das Cloud Computing keinesfalls vernachlässigen sollten:

  1. Technische Parameter – Die grundlegenden technischen Parameter müssen genau definiert werden, vor allem die nutzbaren Bandbreiten, die garantierte Verfügbarkeit, eventuelle Wartungs- und Reaktionszeiten, das Datenvolumen, aber auch die Datenarten, ob beispielsweise nur strukturierte Daten oder auch Multimedia-Daten abgedeckt werden.
  2. Prozessbezogene Kennzahlen – Über die technischen Basis-Parameter hinaus können sich Anwender auf prozessbezogene Kennzahlen beschränken und zum Beispiel für einen Online-Verkaufsvorgang die Reaktionszeiten, vom Einstellen eines Artikels in den Warenkorb des Shops bis zum Auftrag vereinbaren.
  3. Messmethoden – Für die verwendeten Parameter muss auch festgelegt werden, wie sie gemessen werden. So muss etwa für ein bestimmtes Verfügbarkeitsniveau genau definiert sein, wann, wo und mit welchen Methoden die Verfügbarkeit ermittelt wird.
  4. Monitoring – Ein umfassendes und skalierbares Monitoring für die laufenden Prozesse sowie ein entsprechendes Reporting ist für die SLA unverzichtbar.
  5. Speicherort – Es muss festgelegt sein, wo die Daten vom Provider gespeichert werden – zum Beispiel in Deutschland, in der EU oder weltweit. Dies ist auf Grund unterschiedlicher rechtlicher Regelungen unerlässlich.
  6. Eigentum an den Daten – Es muss klar sein, wem die vom Provider verarbeiteten Daten gehören – dem Provider oder seinem Kunden.
  7. Gerichtsstand – Für Streitigkeiten ist der Gerichtsstand von größter Bedeutung; die besten SLA nützen nämlich nichts, wenn sie auf den Antillen eingeklagt werden müssen. Mit dem Gerichtsstand entscheidet sich auch, welches Recht im Streitfall zur Anwendung kommt.
  8. Datensicherheit – Der Provider muss klar darlegen, was er zur Herstellung einer hohen Datensicherheit unternimmt, insbesondere bei kritischen und personenbezogenen Daten.
  9. Nachprüfbarkeit – Kunden müssen überprüfen können, ob die Festlegungen des Providers hinsichtlich der Datensicherheit eingehalten werden. Auch dazu müssen bereits in den SLA Vereinbarungen getroffen werden.
  10. Verbleib der Daten – Die SLA müssen auch Angaben dazu enthalten, was mit den Daten nach Ende der Geschäftsbeziehung geschieht, ob beispielsweise der Provider bei strittigen Forderungen ein Zurückbehaltungsrecht hat: Für solche Fälle sollte man bereits in den SLA eine Schiedsstelle vereinbaren.

Standard-Cloud-Angebote arbeiten in der Regel mit fertig vorgegebenen SLAs, die durch den Kunden nicht verändert oder nachverhandelt werden können. Diese Normierung ist meist die Voraussetzung für günstig angebotene Leistungen eines Cloud-Providers. Hier müssen Unternehmen genau prüfen, wo und wie weit die Standard-SLAs von einem eigenen Soll-SLAs abweichen – sind davon substantielle Punkte betroffen, sollte das jeweilige Angebot nicht genutzt werden.


Quelle: Easynet
Bildquelle: http://www.supplierrelationships.com, http://bluebuddies.com

Kategorien
News

Das Cloud Computing Interoperability Forum startet einen neuen Versuch

Reuven Cohen, Gründer und Wortführer des Cloud Computing Interoperability Forum, arbeitet daran, die Organisation, die 2010 eingeschlafen war, wieder zu beleben.

Auch wenn die Organisation schon seit ein paar Jahren nicht mehr aktiv ist, befinden sich laut Cohen immer noch über 1.300 Menschen auf der Mailing-List sowie über 3000 Mitglieder in der LinkedIn-Gruppe.

Das Cloud Computing Interoperability Forum startet einen neuen Versuch

Reuven Cohen gründete das Forum im Jahr 2008, um damit eine offene Community für Cloud Computing Anbieter hinsichtlich gemeinsamer Standards und neuer Konzepte zu schaffen und damit die Adaption globaler Cloud Computing Services zu beschleunigen. Neben Intel stehen mit Cisco Systems, IBM und RSA immer noch große Namen auf der Webseite.

Kategorien
Analysen

Microsoft und Amazon liefern sich Preiskampf in der Cloud

Als Anbieter mit einem großen Public Cloud Portfolio kämpft Microsoft nun nicht mehr nur mit Google, sondern liefert sich seit kurzem auch einen Preiskampf mit den Amazon Web Services. Das gute daran: die Gewinner sind die Nutzer.

Der Kampf verlagert sich in die Cloud

Nachdem Microsoft am Ende der vergangenen Woche seine Preise für Windows Azure Storage und Windows Azure Compute gesenkt hat und damit auf die Preissenkungen der Amazon Web Services, ebenfalls in der vergangenen Woche, reagiert hat, befinden sich die derzeitigen Preise für Speicherplatz und Rechenleistung aus der Cloud auf einem niedrigen Rekordniveau und befinden sich auf dem Stand hiesiger Stromtarife.

Die Frage ist, wie lange das noch so weitergehen kann, denn die Preise können im Prinzip nur weiter fallen. Betrachten wir nämlich die Tatsache, das die Stromtarife auf Erdgaspreisen, saisonalen Einflüssen und weiteren Variablen basieren, kann Cloud Computing noch günstiger werden.

Die Preisgestaltung beider Anbieter ist nicht direkt vergleichbar, da die Preise und Dienstleistungen variieren. Aber die Kernaussage dieses Wettbewerbs ist eindeutig: Die Preise werden weiter sinken.

Beispielweise kostet eine Amazon Small (Standard) On-Demand Instanz mit Linux/Unix 0,090 Dollar (ca. 0,067 EUR) pro Stunde. Eine Windows Instanz 0,115 Dollar (ca. 0,088 EUR) pro Stunde. Ich zahle derzeit ca. 0,244 EUR pro Kilowattstunde an meinen Stromanbieter.

Beide Anbieter argumentieren, dass sie ihre eigenen Einsparungen (Economies of scale) sehr gerne an ihre Kunden weiterreichen und fokussieren Entwickler, Startups, kleine Unternehmen sowie Großkunden.

Nachdem nun aber auch HP und weitere Anbieter in den Cloud Computing Markt für IaaS Ressourcen eingestiegen sind, werden die Preise noch weiter fallen.


Bildquellen: http://www.merkur-online.de, http://diepresse.com

Kategorien
News

Cloud Computing wird globaler Jobmotor

Das Analystenhaus IDC sieht Cloud Computing als Jobmotor. Einer aktuellen Studie zufolge, die von Microsoft in Auftrag gegeben wurde, sollen bis 2015 in Deutschland gut 250.000 Arbeitsplätze durch Cloud Computing geschaffen werden.

Den Grund dafür sieht IDC in den Umsatz- und Produktivitätssteigerungen, die Unternehmen durch Cloud Computing erzielen. Durch entsprechende Innovationen rechnet IDC weltweit in den nächsten drei Jahren mit Umsätzen von bis zu 1,1 Billionen US-Dollar jährlich. Im europäischen Vergleich führt Deutschland das Ranking bei den neu geschaffenen Stellen an. Für England prognostizieren die Analysten 225.000 weitere Arbeitsplätze, im Nachbarland Frankreich sollen es 190.000 sein. Weltweit rechnet IDC mit 14 Millionen neuen Arbeitsplätzen.

Starkes Beschäftigungswachstum sehen die Analysten vor allem in Unternehmen mit weniger als 500 Mitarbeitern. In der EMEA-Region werden in kleineren und mittleren Unternehmen in den kommenden Jahren mehr als 1,1 Mio. neue Arbeitsplätze entstehen, in größeren Unternehmen circa 925.000.

Unterschied in Unternehmensgröße und Branchen

Die IDC-Studie belegt zudem, dass der Einfluss von Cloud Computing auf das Beschäftigungswachstum keineswegs gleich über alle Branchen verteilt ist. So zählen Kommunikations- und Bankensektor ebenso wie die fertigende Industrie zu den Bereichen, deren Mitarbeiterzahl durch Cloud Computing am stärksten zunehmen wird.


Bildquelle: http://www.epochtimes.de

Kategorien
News

Microsoft senkt die Preise für Windows Azure Storage und Windows Azure Compute

Wie Holger Sirtl bereits in der vergangenen Woche auf seinem offiziellen Microsoft Blog angekündigt hat, wurden die Preise für Windows Azure Storage und Windows Azure Compute reduziert.

Nach den Preissenkungen für SQL Azure im vergangenen Monat, wurden die Preise nun auch für Windows Azure Storage und Windows Azure Compute angepasst.

Die jeweiligen Änderungen setzen sich wie folgt zusammen:

  • Der Windows Azure Storage wird 12% günstiger (jetzt 0,0887 € pro monatlich gespeichertem GB an Daten auf Grundlage des täglichen Durchschnitts).
  • Die 6-Monate-Abos für Windows Azure Storage werden 14% günstiger.
  • Der Preis für eine Rechenstunde einer Extra Small (XS) Instanz wurde halbiert und somit um 50% gesenkt (jetzt 0,0142 € pro Rechenstunde, ca. 1,5 Cent!)

So betragen die Kosten für das Hosting einer Web Applikation auf einer XS-Instanz mit 100 MB SQL-Azure-Speicher jetzt ca. 14,20 €