Kategorien
News

Eucalyptus 3.1 wird Open Source(iger) wie keine andere Version zuvor

Eucalyptus Systems hat gestern eine neue Version seiner Open Source Cloud Infrastruktur Software angekündigt. Eucalyptus 3.1 richtet sich auf Basis derselben Plattform an die Open Source Community als auch an Unternehmen, um damit Cloud Infrastrukturen und Cloud Entwicklungsumgebungen aufzubauen, zu betreiben sowie zu verwalten. Die neue Version präsentiert neben einer besseren Performance ebenfalls viele weitere Funktionen wie FastStart, mit der Nutzer AWS-komaptible (Amazon Web Service) on-Premise Cloud Infrastrukturen unter 20 Minuten aufbauen können.

Mehr als nur AWS Unterstützung

Wer nun glauben mag, dass Eucalyptus sich komplett auf der Kooperation mit den Amazon Web Services stützt und ausruht, der irrt. Eucalyptus 3.1 wird sich verstärkt auf die Entwicklung der Community konzentrieren und diese unterstützen. Dazu wird u.a. der vollständige Eucalyptus 3.x Quellcode auf Github zur Verfügung gestellt. Darüber hinaus wird die Bereitstellung von Unternehmensplattformen auf Basis von Red Hat Enterprise Linux und Red Hat Enterprise Virtualization sowie VMware vCenter 5 unterstützt. Hinzu kommen Möglichkeiten für das Management von Community Projekten, mit denen Fehler, Korrekturen und Wünsche verwaltet werden können.

Eucalyptus 3.1 im Überlick

Mit der neuen Version möchte Eucalyptus es Unternehmen ermöglichen, on-Premise Cloud Infrastrukturen auf eine einfache Art und Weise aufzubauen und gleichzeitig die Innovationsfähigkeit der Cloud zu erhöhen, indem die Open Source Cloud Community alle Mittel erhält, um dazu beizutragen, die Eucalyptus Cloud ihren Bedürfnissen nach anzupassen. Zu den neuen Funktionen in Eucalyptus 3.1 gehören:

On-Premise Cloud Plattformen

Unternehmen erhalten mit Eucalyptus 3.1 nun die Möglichkeit, eigene on-Premise Cloud Umgebungen auf der neuesten Version von Red Hat Enterprise Linux inkl. EC2, EBS, S3 und IAM zusammen mit den Red Hat Enterprise und VMware Virtualisierungsplattformen aufzubauen.

FastStart: Ruck Zuck zur eigenen Private Cloud

FastStart bietet Nutzern einen Self-Service, mit dem sie eine Eucalyptus IaaS Cloud Umgebung automatisiert unter 20 Minuten aufbauen können. FastStart kann zusammen mit CentOS 5 und Xen oder CentOS 6 und KVM genutzt werden. Mit durch FastStart bereitgestellte Clouds können sich Nutzer die auf Eucalyptus gespeicherten Images aussuchen und mit einem Klick auf der Infrastruktur ausrollen. Für fortgeschrittene Nutzer bietet Eucalyptus Silvereye, eine Reihe von Tools, mit der sich komplexere Eucalyptus Umgebungen installieren und konfigurieren lassen.

Open Source Cloud Community

Der vollständige Eucalyptus 3.1 Quellcode steht nun öffentlich auf Github bereit. Zudem werden alle Erneuerungen ebenfalls auf Github bereitgestellt, dazu gehören ebenfalls das Tracking von Fehlern und neuen Funktionen. Damit sollen Mitglieder der Eucalyptus Community die Gelegenheit erhalten ihren Teil beitragen zu können.

Los geht’s am 27. Juni

Am 27. Juni 2012 werden Kunden in den Genuss der neuen Funktionen kommen, die auf Eucalyptus 3 aufbauen werden. Dazu gehören weiterhin neue Funktionen für die Hochverfügbarkeit, Amazon Web Services API Erweiterungen, Rapid Instancing, Verbesserungen am Elastic Block Store (EBS), erweiterte Unterstützung für Windows-Images, eine neu gestaltet Verwaltungskonsole sowie verbesserte Kommandozeilentools.

So langsam zeichnet sich die Handschrift von Eucalyptus CEO Marten Mickos ab, der bereits als CEO von MySQL die relationale Datenbank zu einem der führenden Open Source Anbieter am Markt machte.


Bildquelle: http://www.srs.fs.usda.gov

Kategorien
News

Platform-as-a-Service ist das nächste große Schlachtfeld in der Cloud

Glaubt man einer Studie von Frost & Sullivan, wird der Platform-as-a-Service (PaaS) Markt zum nächsten Schlachtfeld der Cloud Service Anbieter. Nachdem sich die Bereiche Infrastructure-as-a-Service und Software-as-a-Service soweit normalisiert haben, konzentrieren sich Unternehmen nun vermehrt auf das Thema PaaS. Das ergab Frost & Sullivan’s Bericht „Asia-Pacific Platform as a Service Market 2011“. Insbesondere die Flexibilität für die Anwendungsentwicklung und SaaS Applikationen fördern die Attraktivität von PaaS.

Die Asiaten hängen im Bereich PaaS hinterher

Die die meisten Software Lösungen aus der Cloud standardisiert sind, suchen Unternehmen derzeit passende PaaS-Angebote, um eigene Applikationen zu hosten. Daher ist PaaS mittlerweile der einzige Teil des Cloud Stacks, bei dem sich Anbieter noch deutlich voneinander differenzieren können.

Laut dem Bericht von Frost & Sullivan hatte der Paas Markt im asiatisch-pazifischen Raum im Jahr 2010 einen Umsatz von 43,2 Millionen Dollar und wird bis 2016 auf 523 Millionen US-Dollar wachsen. Insbesondere die Flexibilität und die Möglichkeit bei der Entwicklung und dem Test von neuen Applikationen die Kosten zu reduzieren, führen zu einer hohen Attraktivität von PaaS Lösungen. Auch wenn Unternehmen die Vorteile des Cloud Computing verstanden haben, handelt es sich für sie beim PaaS noch um ein relativ junges Konzept, da noch nicht ausreichend Regulierungen und Standards vorhanden seien.

Darüber hinaus macht die mittlerweile große Auswahl an Plattformen für Java, Ruby und weiteren Sprachen durch CloudBees, Heroku und anderen Anbietern die Entscheidung schwer, die richtige Lösung zu finden und behindert somit die Portierung der on-Premise Anwendungen zu einem bestimmten PaaS-Anbieter. Daher ist die Offenheit und Integrationsmöglichkeit zu anderen Plattformen sowie mobilen Endgeräten für die Zukunft besonders zu beachten, so Frost & Sullivan.

PaaS hat eine große Zukunft vor sich

Auch wenn sich diese Studie nur auf den asiatischen Markt bezieht, ist für den weltweiten PaaS Markt ebenfalls ein Wachstum zu erwarten, dass sieht man an den stetig wachsenden PaaS-Angeboten und Erweiterungen. Die Zahlen zeigen deutlich, dass die Asiaten sich hinter dem Weltmarkt befinden, auf Grund ihrer Größe und Marktmacht aber in Zukunft ein Wörtchen mitreden werden.

Wir werden in Zukunft ein ähnliches Phänomen wie bei den Cloud Storage Service Anbietern erleben, die in den letzten Wochen und Monaten reihenweise aus dem Boden geschossen sind. Der PaaS Markt wird, mit dem erreichen seines Reifegrads, immer mehr Anbieter und neue Lösungen anziehen. Diese Entwicklung kann sich aber ebenfalls auf Unternehmen und ihre on-Premise Cloud Infrastrukturen auswirken. Unternehmen verstehen immer besser, dass sie ihre IT-Abteilungen als internen (Cloud) Dienstleister aufstellen müssen, um gegenüber den externen Anbietern konkurrenzfähig zu bleiben.


Bildquelle: http://assets.byways.org

Kategorien
News

Googls Apps wirbt mit bis zu 85% Energieeinsparungen

Cloud Computing Anbieter werben in der Regel mit Kosteneinsparungen durch die Nutzung ihrer skalierbaren Infrastrukturen oder Plattformen bzw. SaaS Applikationen. Google geht nun einen Schritt weiter und behauptet, dass Unternehmen mit der Nutzung seiner SaaS Office Suite Google Apps zwischen 65% und 85% Energieeinsparungen erhalten, wenn sie anstatt ihrer Anwendungen, die Google Cloud Lösung nutzen.

Googls Apps wirbt mit bis zu 85% Energieeinsparungen

Google bezieht sich dabei auf die Ergebnisse einer Fallstudie der US General Services Administration (GSA). So konnte die GSA mit ca. 17.000 Anwendern, durch die Migration zu Google Apps, den Energieverbrauch um fast 90 Prozent und die Kohlendioxid-Emissionen um 85 Prozent reduzieren. Das führt zu ca. 285.000 US-Dollar (eine Reduktion von 93%) jährlichen Einsparungen bei den Energiekosten.

Google nennt in diesem Zusammenhang zwei wichtige Faktoren, die dafür verantwortlich sind. Die Reduzierung des Energieverbrauches und die niedrigeren Kohlendioxidemissionen. Schauen wir uns die obere Graphik an, wird deutlich, dass Google Apps bzw. Cloud basierte Lösungen von anderen Anbietern, darauf achten, so wenig wie möglich Energie für den Betrieb und die Kühlung der Server aufzubringen. Google erläutert darüber hinaus, dass kleine Unternehmen und Unternehmen, die bereits Google Apps ähnliche on-Premise Anwendungen nutzen, am meisten einsparen.

Weiterhin geht Google auf seine Chromebooks ein, die das Unternehmen als eine weitere Möglichkeit sieht, um Energie zu sparen, da es sich dabei um reine Cloud basierte Laptops handelt, die schneller, leichter und weniger Strom benötigen. Der Einsatz könnte demnach zwischen 10% und 45% an zusätzlichen Energieeinsparungen für Mitarbeiter Computer einbringen, so Google.

Kategorien
Services

Unhosted.org – Unsere Daten gehören uns!

In Zeiten der Cloud, Social Media und weiteren Technologien und neuen Konzepten, bei denen es darum geht, Daten zentral bei einem Anbieter zu speichern, um damit bequem von jedem Ort darauf zugreifen zu können oder mit Freunden weltweit zu kommunizieren, entwickelt sich eine Community, die selbst für den Datenschutz sorgen möchte und ihr wertvolles gut nicht in die Hände kommerzieller und vermeintlich böser Unternehmen wie Google, Facebook oder der Cloud Computing Anbieter legen will.

Datensensibilität nur von Nerds und Geeks?

Nachdem Unternehmen insbesondere beim Cloud Computing aber auch beim Thema Social Media den Datenschutz der Anbieter beklagen – Patriot Act usw. – gehen die vermeintlichen Endanwender doch eher sehr sorglos mit ihren persönlichen Daten um, siehe Facebook. Allerdings scheint sich das Blatt ein wenig zu wenden. Vor kurzem konnte ich im Zug ein Gespräch zweier Jugendlicher mithören, die über das „… jemand Wissen kann wo man sich selbst gerade aufhält.“, also GEO-Location Services wie Foursquare etc. diskutierten. Sie hielten es für sehr kritisch und gefährlich, wenn jemand ständig sehen könnte wo man gerade ist und wo man wohnt. Ich dachte nur: „Aber ein iPhone besitzen…“. 😉

Es stellt sich daher die Frage, wie sensibel die Nutzer heutzutage wirklich mit ihrem wertvollsten gut, der Persönlichkeit umgehen – man bedenke: Wenn Du von jemanden etwas kostenlos bekommst, bist Du am Ende das Produkt. Ich weiß nicht, ob sich viele darüber im Klaren sind. Wenn man jedoch schaut, was viele täglich in Facebook posten, bin ich mir da nicht so sicher. Und auch das was Google mittlerweile über jeden einzelnen weiß – natürlich werden die gesammelten Daten nicht verknüpft… – sollte für diejenigen bedenklich sein, die das Internet nicht dafür nutzen, um ihr öffentliches Profil zu schärfen.

Aber ist es überhaupt möglich auf die Datenhaltung bei Google und Facebook Einfluss zu nehmen? Natürlich nicht, schließlich handelt es sich dabei zum größten Teil um deren Geschäftsmodell, aber…

Die Community: Unhosted.org

Es hat sich eine, derzeit noch kleine, Bewegung gebildet, die das Ziel verfolgt, freie Software gegenüber gehosteter Software zu stärken. Dazu hat die Gemeinschaft bereits ein Protokoll erstellt, mit dem eine Webseite nur aus Quellecode besteht. Dabei werden die sich ständig verändernde Daten dezentral auf eines vom Nutzer gewünschten Storage gespeichert. Die Community erhofft sich dadurch geringere Hostingkosten sowie eine verbesserte Skalierbarkeit, Robustheit und einen höheren Datenschutz.

Alles erinnert ein wenig an Asterix und das kleine gallische Dorf.

Im Kern geht es dem Projekt darum, dass Web Applikationen nicht zwangsläufig auch die Daten des Nutzers beherrschen müssen, sondern dass die Daten getrennt von den Anwendungen gespeichert werden.

Die Technologie: Remote Storage

Hierfür hat Unhosted.org ein Protokoll mit dem Namen „remoteStorage“ entwickelt, dass die bereits bestehenden Protokolle HTTP, CORS, OAuth2 und Webfinger kombiniert. Dazu liefert das Projekt mit remoteStorage.js eine JavaScript Bibliothek und ein Tutorial.

Auf Basis des Remote Storage Protokoll wurden mit Libre Docs, OpenTabs.net und SharedStuff bereits kleine Anwendungen entwickelt.

Um die Applikationen nutzen zu können, wird eine ID eines Remote Storage kompatiblen Anbieters benötigt. Zurzeit haben sich mit Pagekite, OwnCube und 5apps drei am Markt eher unbekannte Anbieter der Initiative angeschlossen. Die ID bzw. der Account bei einem der Anbieter wird dafür benötigt, um die eigenen Daten bei diesem zu speichern.

Stellt man sich das bspw. anhand von Facebook vor, würde man sich bei Facebook mit seiner Remote Storage ID anmelden. Postet man nun ein Bild oder kommentiert einen Beitrag, werden die Daten nicht bei Facebook gespeichert, sondern bei dem entsprechenden Remote Storage Anbieter für den man sich entschieden hat.

Sei Dein eigener Storage Anbieter

Natürlich kann man auch sein eigener Storage Anbieter sein. Dazu wird eine Installation von ownCloud benötigt, die das Remote Storage Protokoll unterstützt. Davon rate ich jedoch ab. Warum, habe ich hier beschrieben.

Daten selbst verwalten? Ja! Aber bitte so bequem wie möglich!

Den Grundgedanken des Projekts finde ich recht interessant. Jedoch sehe ich für den gewöhnlichen und nicht IT-affinen Benutzer riesige Probleme damit, den Überblick zu behalten, wo sich die Daten gerade befinden. Wenn ich bei Facebook oder Google bin, weiß ich, dass die Daten dort „gut“ aufgehoben sind. Wird ein weiterer Anbieter dazwischen geschaltet, wird es unübersichtlich.

Hinzu kommt zwar, dass die Daten von der eigentlichen Applikation getrennt sind, allerdings begebe ich mich hier in die Abhängigkeit von einem der RemoteStorage Anbieter. Ich habe daher nicht die Wahl, außer ich spiele selbst den Storage Anbieter, wovon ich dringend abrate.

Vertrauen ist die Grundlage

Wenn es um das Speichern persönlicher Daten und die Cloud geht, spielt das Thema Vertrauen und Transparenz eine große Rolle. Anbieter wie Google und Facebook haben eine große Wahrnehmung, auch wenn diese nicht immer positiv ist. Dennoch Vertrauen die Nutzer ihnen ihre Daten an, da sie sich sicher sind und sein können, das die Daten dort aus dem Blickwinkel der Datensicherheit gut aufgehoben sind. Genau so verhält es sich mit Amazon S3, Dropbox oder anderen bekannten Cloud Storage Anbietern, die über ausgereifte Infrastrukturen verfügen, die sich bewährt haben.

Anders sieht es mit den Anbietern aus, die sich dem Projekt angeschlossen haben. Allesamt unbekannt! Warum soll ich meine Daten also in die Hände von diesen (derzeit) No Name Anbietern geben, deren Infrastruktur ich nicht kenne? Aber vielleicht schafft es das Projekt, für die Zukunft renommierte Anbieter zu gewinnen, die das Remote Storage Protokoll unterstützen.

BTW: 5apps, einer der Remote Storage Anbieter, steckt hinter dem Unhosted.org Projekt… Alles klar?!


Bildquelle: http://imageshack.us

Kategorien
Kommentar

Der Himmel weint. Nicht! Public Cloud Ausfälle sind nun einmal öffentlich.

Die Cloud der Amazon Web Services (AWS) hatte am Ende der letzten Woche, genauer am Abend des 14. Juni zu US-amerikanischer Zeit, erneut mit Problemen zu kämpfen. Nach Angaben von AWS handelte es sich dabei um ein defektes Stromkabel eines Hochspannungsverteilers im Rechenzentrum in North Virginia.

Nicht der erste Ausfall

Zwar habe die Notstromversorgung zunächst funktioniert, jedoch habe sich dann der erste Generator überhitzt. Der zweite Generator übernahm zwar kurzzeitig, fiel aber ebenfalls wegen eines Konfigurationsfehlers an einem Schalter aus. Dadurch waren sämtliche Amazon EC2 Services und die EBS-Volumes nicht mehr mit Strom versorgt und vielen aus.

Es ist nicht der erste Ausfall von AWS. In den letzten 1,5 Jahren hat der Cloud Anbieter bereits drei Stück zu verzeichnen. Der erste war auf einen manuellen Fehler durch eine fehlerhafte Routerkonfiguration zurückzuführen, der zu einer Kaskade von Fehlern führte. Der zweite kurzzeitige Ausfall, über den in den deutschen Medien nicht berichtet wurde, lag an einer defekten Datenleitung, die das Rechenzentrum US-EAST-1 mit dem Internet verbindet.

Fragt mal euren Admin

Ich möchte diesen erneuten Ausfall auf keinen Fall kleinreden. Amazon ist Serviceanbieter und muss sicherstellen, dass das Angebot zuverlässig genutzt werden kann. Natürlich ruft so eine Situation wieder die Kritiker an die Front. Cloud sei unsicher und doch nicht zu gebrauchen und damals war ja eh alles besser und wenn man es selbst macht passiert so etwas nicht.

Liebe Kritiker, fragt mal euren Admin wie oft es Ausfälle im Rechenzentrum eures Unternehmens gibt. Oder besser, fragt ihn mal wie oft die Backupsysteme getestet werden. Die Antwort zur ersten Frage: Häufiger als ihr denkt. Die Antwort zur zweiten Frage: Niemals, denn um solche Szenarien duchzuspielen bedarf es Zeit. Ich bin mir sehr sicher, das Amazon regelmäßig Fehlersituation durchspielt. Aber ein fehlerhaftes Kabel? Ok, die Kaskade an Fehlern, die während zwei Ausfällen aufgetreten sind ist wirklich seltsam. Wenn es zu einem Problem kommt, dann halt richtig…

Dennoch, Amazon leistet wirklich sehr gute Pionierarbeit. Meiner Ansicht nach gehören sie derzeit zum besten was die Cloud Computing Welt zu bieten hat. AWS legt vor und die anderen Anbieter ziehen nach. So sieht es momentan aus.

Public bedeutet nun einmal öffentlich

Natürlich sind solche Fehler nicht zu entschuldigen und schaden das Ansehen des Cloud Computing. Allerdings stehen Public Cloud Anbieter nun einmal in der Öffentlichkeit. Wenn Microsoft mit Windows ein Problem hat, wird es in den Medien ebenfalls breitgetreten. Ein Anbieter mit einem eher unbekannten Produkt bleibt da unbeachtet.

Daher sollte man sich immer vor Augen halten, was tagtäglich in den weltweit verteilten Rechenzentren passiert, insbesondere in denen, die von privaten Firmen betrieben werden. Kommt sowas an die Öffentlichtkeit? Natürlich nicht, weil es niemanden interessiert. Daher meine Bitte, wenn ein Ausfall zu beklagen ist, stellt nicht immer gleich das gesamte Cloud Computing Konzept in Frage, sondern stellt euch lieber die Frage, wie es gerade im RZ eures Unternehmens vielleicht aussieht.

Ich würde gerne mal eine Studie über die Ausfälle von privat betrieben Rechenzentren erstellen, um einen Vergleich zu Public Cloud Rechenzentren zu haben. Allerdings glaube ich, dass die Datenerhebung sich äußerst schwierig herausstellen wird.


Bildquelle: http://tecbiz.blogspot.com

Kategorien
News

Erneute Probleme in der Amazon Cloud – Ausfall bei den Amazon Web Services in North Virginia

Wie GigaOm berichtet, hatten die Amazon Web Services am Donnerstag wieder mit einem Ausfall zu kämpfen, von dem Webseiten und Services wie Quora und HipChat betroffen waren. Zudem soll der Ausfall auch Heroku, einem Ableger von Salesforce, getroffen haben.

Amazon gehört zu den größten Infrastruktur Anbietern von vielen bekannten und mittlerweile sehr populären Services wie Pinterest und Dropbox. Von dem Ausfall waren die AWS Services Amazon EC2 und Amazon RDS betroffen, der in Amazons Rechenzentrum in North Virginia aufgetreten ist. Weitere Services wie ElastiCache und Elastic Beanstalk hatten in North Virginia ebenfalls mit Problemen zu kämpfen. Der Ausfall ist scheinbar auf einen Stromausfall zurückzuführen.

Folgende Informationen konnten über die AWS Status Webseite abgerufen werden:

Amazon EC2

We continue to investigate this issue. We can confirm that there is both impact to volumes and instances in a single AZ in US-EAST-1 Region. We are also experiencing increased error rates and latencies on the EC2 APIs in the US-EAST-1 Region.

9:55 PM PDT We have identified the issue and are currently working to bring effected instances and volumes in the impacted Availability Zone back online. We continue to see increased API error rates and latencies in the US-East-1 Region.

Amazon RDS

9:33 PM PDT Some RDS DB Instances in a single AZ are currently unavailable. We are also experiencing increased error rates and latencies on the RDS APIs in the US-EAST-1 Region. We are investigating the issue.
10:05 PM PDT We have identified the issue and are currently working to bring the Availability Zone back online. At this time no Multi-AZ instances are unavailable.
00:11 AM PDT As a result of the power outage tonight in the US-EAST-1 region, some EBS volumes may have inconsistent data.
01:38 AM PDT Almost all affected EBS volumes have been brought back online. Customers should check the status of their volumes in the console. We are still seeing increased latencies and errors in registering instances with ELBs.

GigaOm hat ebenfalls ein paar Tweets herausgesucht:

Mein Lieblingstweet ist übrigens dieser, der perfekt zu meinem kürzlich verfassten Artikel „Amazon Web Services – Das Mekka der Startups! Aber reicht das wirklich aus?“ passt und meine Ansicht bestätigt:

Nicht der erste Ausfall in der Geschichte der Amazon Web Services

Dieser Ausfall ist nicht der Erste in der Geschichte der Amazon Web Services. Erinnern wir uns an Ostern 2011 und einem kurzen Ausfall im März 2012. Ihre solltet also aus solchen Situationen lernen und nicht alle Eier in ein Nest legen, sondern die kritischen Daten breit verteilen. Am besten über mehrere Anbieter hinweg.

Dennoch stehe ich weiter hinter meiner Aussage, dass solche Ausfälle nur so extrem an die Öffentlichkeit geraten, da Cloud Anbieter nun einmal in der Öffentlichkeit stehen und Millionen von Augen ausgesetzt sind. Wie viele privat betriebene Rechenzentren haben wohl heute ein Problem gehabt, was meint ihr?


Bildquelle: http://www.loggly.com

Kategorien
News

CloudBees erweitert sein PaaS Ecosystem mit weiteren Partnern

Java Platform as a Service (PaaS) Anbieter CloudBees hat neue Kooperationen mit weiteren Cloud Service Partnern für sein CloudBees Partner Ecosystem angekündigt, darunter SendGrid, Websolr und AppDynamics. Das Ökosystem ermöglicht Entwicklern den Zugriff auf verschiedene Partner Services, wie z.B. Deployment Lösungen, über den CloudBees PaaS ohne extra Konfigurationen oder Installationen vornehmen zu müssen.

CloudBees erweitert sein PaaS Ecosystem mit weiteren Partnern

Konzentriere Dich auf Deine Applikation

CloudBees provisioniert die Services seiner Partner transparent für den Nutzer und rechnet alle Gebühren über eine Gesamtrechnung ab. Wie von einem PaaS Angebot zu erwarten, können Entwickler damit ihre Java Anwendungen in der Cloud schreiben, testen und ausrollen, ohne sich dabei um die Infrastruktur, Entwicklungsumgebung usw. zu kümmern.

Neuigkeiten im CloudBees Partner Ecosystem

Die neuen Partner bringen Cloud-basierte E-Mail Lösungen, Managed Search Services und weitere Funktionen zum Performance Management mit. Zu den neuen Services gehören:

  • SendGrid: Ein Cloud-basierter E-Mail Infrastruktur Service, der Unternehmen von den Kosten und der Komplexität von on-Premise E-Mail Systemen entlasten soll. SendGrid sorgt dazu für eine zuverlässige Zustellung der E-Mails, für Skalierbarkeit und Echtzeit-Analysen sowie flexible APIs.
  • Websolr: Ist eine Open Source Suchmaschine von Apache Solr, mit der Entwickler ihre Inhalte indexieren und durchsuchen können. Es handelt sich dabei um einen Managed Search Service, mit dem Entwickler skalierbare Suchergebnisse liefern können, ohne sich um die notwendige Performance im Hintergrund kümmern zu müssen.
  • AppDynamics: Eine Lösung für das Performance Management von Anwendungen, hilft Entwicklern dabei ihre Applikationen performant und skalierbar zu schreiben. Dazu gibt AppDynamics Entwicklern in Echtzeit einen Einblick in ihren Code, um dabei zu helfen die Performance der Java Anwendungen und Datenbanken, wie SQL oder NoSQL, zu optimieren.

Das CloudBees Partner Ecosystem wird größer

Diese neuen Services gesellen sich zu weiteren bereits vorhandenen Angeboten auf der CloudBees Platform, darunter Sauce Labs, JFrog, New Relic, CollabNet Codesion und viele weitere.

Kategorien
News

Google verstärkt die Sicherheit seiner Google Apps Cloud Services

In den vergangenen Wochen hat Google mit seinen Chromebooks und Lösungen wie BigQuery ebenfalls neue Funktionen und Datenschutzrichtlinien für seinen Office Suite Google Apps vorgestellt. Hinzu kommt mit Google Apps Password Sync for Active Directory eine Funktion, mit der Passwörter von mehreren Google Apps Domains und der Active Directory synchronisiert werden können.

Google Apps und Active Directory synchronisieren

Mit Google Apps Password Sync for Active Directory erhalten Administratoren die Möglichkeit zwei Systeme untereinander synchronisiert zu halten, ohne dabei auf eine geplante Synchronisation warten zu müssen. Laut Google ist die Konfiguration recht simple und dauert nur ein paar Minuten. Zudem ist die gesamte Datenübertragung zwischen Google Apps und einer Active Directory verschlüsselt.

Google Apps Kontakte mit Kollegen teilen

Eine weitere neue Funktion für Nutzer der Premium Edition ist das Teilen von Kontakten mit Kollegen (Contact Delegation). Damit soll ein Kontaktnetzwerk auf einfache Weise geteilt und erweitert werden. Nutzer können damit ebenfalls ihren Posteingang oder Kalender freigeben.

ISO 27001 für Google Apps

Weiterhin wurde Google Apps von den Wirtschaftsprüfern Ernst & Young nach ISO-27001 zertifiziert. Die weltweite gültige Zertifizierung ergänzt Google Apps for Government, die bereits die Zertifikate SSAE 16/ISAE 3402 und Fisma besitzt. Allerdings sollte man nicht vergessen, dass dieses Zertifikat keinen Freifahrtschein für die 100%ige Sicherheit der Anwendung ausstellt. Unternehmen die sich nach ISO-27001 zertifizieren lassen, setzen sich lediglich selbst hohe Maßstäbe, um eine hohe Sicherheit zu gewährleisten.


Bildquelle: http://blog.gemalto.com/

Kategorien
Kommentar

In ein paar Jahren sagen wir Cloud wenn wir Internet meinen

Ich glaube kein anderes Thema wie das Cloud Computing haben die Marketingabteilungen so durch die Mangel gedreht und verwaschen, dass zwar die meisten den Term mittlerweile kennen, aber ihnen etwas anderes suggeriert wird. Ok, da gibt es noch den Blödsinn mit der intelligenten Energie, aber das gehört nicht hierher… Jedenfalls stehe ich dem, was die Kreativschmieden da fabrizieren, sehr kritisch gegenüber, auch wenn die Cloud dadurch natürlich immer mehr Verbreitung findet.

Seit 2009 versuche ich Cloud Computing in Deutschland bekannter zu machen. Das war z.T. sehr ernüchternd, „gab es ja alles schon…“ usw. Aber es gibt glücklicherweise immer mehr, die dafür ein offenes Ohr bekommen und nach einer kurzen Erklärung das Potential direkt für sich erkannt haben.

Sie hat Cloud gesagt!

Es gab ein Schlüsselerlebnis für mich, an das ich mich noch erinnern kann, als wenn es gestern war. Ich war Ende 2010 in einem Hotel in Berlin und hatte nebenbei den Fernseher an. Eine Microsoft Werbung begann, die ich zuvor noch nicht gesehen hatte. Es ging um Windows Live und darum Bilder zu bearbeiten, also nichts Neues. Ich hab daher nur mit einem Auge hingeschaut, bis die Stimme aus dem Fernseher plötzlich „Auf in die Cloud!“ sagt. Ich hab die Augen aufgerissen, meine Frau angeguckt: Ich: „Hat sie Cloud gesagt?“, Ich: „Sie hat Cloud gesagt!“. Meine Frau: „Kann sein.“

Im ersten Moment habe ich nur gedacht, toll, jetzt legt das Marketing richtig los und das Cloudwashing beginnt. Auf der anderen Seite fand ich es ganz charmant, da ich mir dadurch erhofft hatte, dass sich das Thema dadurch leichter verbreitet. Nun ja, dem war nicht so.

„Simsalabim – es ist hier. Geht ganz einfach mit der Cloud.“

Und nun kommt auch noch die Telekom – Werbung mit der Schauspielerin Alexandra Maria Lara! Hätte man aber auch erwarten können, das die vermeintlich beiden größten und in der Masse bekanntesten Anbieter auf diesen Zug aufspringen, oder? Auf der anderen Seite interpretiere ich eine gewisse Eigenironie in der Telekom Werbung. Schaut man sich den mit dem Kaugummi spielenden Jungen an, kann man meinen, dass die Telekom eh verstanden hat, das es den Leuten quasi egal ist ob es die Cloud gibt oder nicht.

„Sie hat Cloud gesagt!“ Den Spaß erlaube ich mir zumindest jetzt jedesmal wenn die Telekom Werbung kommt. Zum Leid meiner Frau, ich Spaßvogel. 😉

Ich gehe mal eben in die Cloud! Schatz Du meinst das Internet, oder?

„The Root of All Evil“ ist, wie so oft, Gartner. Die haben damals einen Begriff gesucht, der in etwa das wiederspiegelt, was wir heute unter dem Term Cloud verstehen. Und ehrlich gesagt passt der soweit auch ganz gut. Aber warum sagen wir eigentlich Cloud zu der Cloud? Das Wort Cloud ist aus der Illustration der Netzwerktechnik abgeleitet, in der das Internet immer als Wolke (Cloud) dargestellt wird. Das hängt damit zusammen, dass es sich beim Internet um ein globales, dezentralisiertes Netz handelt, welches aus vielen lokalen und nationalen Netzen besteht, die miteinander verbunden sind. Wie Daten innerhalb des Internets ausgetauscht werden, ist von außen nicht direkt sichtbar. Da auf sämtliche Daten und Anwendungen im Sinne des Cloud Computing über das Internet zugegriffen wird, steckt nun alles in der „Wolke“.

Klar soweit, oder?

Neben wir mal die von mir oben beschriebene Definition für das Wort Cloud (Computing) und verknüpfen es mit dem Marketing Waka Waka aus der Werbung, dass sich in nächster Zeit noch verstärken wird, gehe ich davon aus, dass wir in ein paar Jahren statt Internet den Term Cloud nutzen werden, wenn wir uns im Web (noch so ein Begriff) bewegen. Auf einer Wolke zu surfen klingt doch auch viel cooler als in etwas abstrakten wie dem Internet oder nicht?

In diesem Sinne.


Bildquelle: http://images.wikia.com

Kategorien
News

Big Data: Jaspersoft geht in die GoGrid Cloud

Business Intelligence Anbieter Jaspersoft und Cloud Anbieter GoGrid gehen in Zukunft gemeinsame Wege. Die Open Source BI Plattform von Jaspersoft wird dazu auf dem GoGrid Exchange Ökosystem zur Verfügung gestellt. Mit GoGrid Exchange können Kunden Cloud-basierte Software als Teil ihrer IT-Infrastruktur einsetzen. Unter Einsatz der GoGrid Server Image (GSI) Technologie sind Unternehmen und Entwickler jetzt in der Lage die BI-Reporting-Funktionalitäten von Jaspersoft nutzen.

Big Data treibt Reporting und Analysen

Reporting und Analysen werden in aufkommenden Zeiten von Big Data immer wichtiger für die Entwicklung und den Einsatz von datengetriebenen Anwendungen. Cloud Angebote ermöglichen es, solche Lösungen überall performant und skalierbar verfügbar zu machen, um Unternehmen bspw. einen einfachen Zugriff auf BI-Technologie mit einer eine robusten Reporting-Lösung zu ermöglichen.

Jaspersoft und GoGrid auf einem Blick

Kunden sollen von der Partnerschaft wie folgt profitieren:

  • Zugang zu webbasierter Business Analytics – über jeden Browser, auch von mobilen Endgeräten aus
  • Umfassende Unterstützung für Mandantenfähigkeit bei dem Einsatz komplexer Anwendungen
  • Datenintegration aus jeglichen Datenquellen: aus der Cloud oder von on-Premise, einschließlich Jaspersoft BI for Big Data oder GoGrid Big Data Solution.

Infrastructure-as-a-Service ist Grundlage für Big Data

Infrastructure-as-a-Service (IaaS) gehört zu einer zentralen Cloud Strategie, wenn Unternehmen BI-Anwendungen einsetzen, aber nicht direkt für den operativen Ablauf, Storage, Hardware und Netzwerkkomponenten verantwortlich sein wollen. Zudem stellt IaaS auf Grund der massiven Skalierbarkeit der Infrastruktur die ideale Grundlage für Anwendungen und Analysen rund um das Thema Big Data dar.


Bildquelle: http://www.newelements.de