Kategorien
News

Google Apps Administratoren können nun die 2-Wege Authentifizierung erzwingen

Die 2-Wege Authentifizierung, mit der eine weitere Sicherheitsebene im Anmeldeprozess eingezogen wird, steht bereits seit dem Jahr 2010 innerhalb von Googles Office Suite Google Apps zur Verfügung. Aber erst jetzt haben Administratoren die Möglichkeiten, diese Sicherheitstechnologie zwingend für ihre Nutzer zu aktivieren.

Google Apps Administratoren können nun die 2-Wege Authentifizierung erzwingen

Mit einer weiteren Einstellungen in der Google Apps Management Konsole, können Admins nun erzwingen, dass sich ihre Nutzer über die 2-Wege Authentifizierung anmelden. Damit wird ein Nutzer nun nicht mehr nur nach seinem Password gefragt, sondern muss zusätzlich einen Code eingeben, den er via SMS oder Sprachnachricht auf sein Mobiltelefon erhalten hat.

Mit dem Einsatz einer 2-Wege Authentifizierung wird die Sicherheit des Systems erhöht, da ein Angreifer neben dem Passwort des Nutzers ebenfalls sein Mobiltelefon stehlen müsste.

Allerdings macht dieses Verfahren den Anmeldeprozess für die Nutzer komplizierter und verlangt eine Konfiguration auf dem jeweiligen Mobiltelefon. Folglich kann es dazu führen, das viele Nutzer die 2-Wege Authentifizierung verweigern werden.

Kategorien
News

Wenn der Kuchen spricht, haben die Krümel Pause: So sieht Amazon CTO Werner Vogels die Cloud in 5 Jahren

Er ist der weltweit einflussreichste Manager, wenn es um das Thema Cloud Computing geht und wird vereinzelnd schon als Cloud Rockstar bezeichnet, Amazon CTO Werner Vogels. Werner ist die treibende Kraft hinter den Amazon Web Services und hatte mit seiner damaligen Dissertation „Scalable Cluster Technologies for Mission-Critical Enterprise Computing“ zumindest im Geiste bereits die Amazon Cloud geschaffen. Auf der diesjährigen GigaOM Structure 2012 warf er einen Blick in sein Orakel und erzählte wie sich die Cloud seiner Meinung nach von heute bis ins Jahr 2017 verändern wird.

Die Amazon Web Services werden noch günstiger

Werner verspricht, das Amazon in Zukunft sein Preismodell weiterhin verbessern wird. „Wenn man zurück schaut, sieht man, dass wir unsere Preise bereits 20 mal verringert haben. Das Beste ist, dieses auch weiterhin zu tun. Das ist unser Ziel.“

Die Startup Szene wird sich weiter vergrößern

Das Amazon Startups liebt, wissen wir ja bereits. Mit Socialcam, Pinterest und Instagram nennt er nur ein paar Beispiele von jungen Unternehmen, die sich die Cloud zu nutze gemacht haben, um auf ihr schnell skalieren zu können und freut sich schon auf weitere neue Startups. Werner nennt dieselben Argumente, die auch ich immer gerne wieder nutze. „Wären sie in der Lage gewesen ihre Unternehmen in einer traditionellen Welt von Hardware und Infrastruktur aufzubauen? Ich denke nicht! Wir werden viele junge Unternehmen sehen, die völlig neue Dinge bauen werden.“

CIOs werden auf junge Unternehmen hören

Wenn es um IT-Lösungen geht, die erst durch die Cloud entstanden sind, „werden CIOs bereit sein, auf junge Unternehmen zu hören.“ „Vor fünf Jahren hätten sie nur mit den großen Jungs gesprochen.“ Dies wird sich weiter verändern.

Alte Hardware Unternehmen werden gegen das Aussterben kämpfen

HP und die anderen klassischen Hardware Unternehmen müssen sich anpassen um zu überleben. „Ich glaube wenn Unternehmen wirklich eine neue Cloud-Mentalität verinnerlichen – nicht nur eine Cloud im Angebot haben, sondern ein echter Partner für ihre Kunden sind statt nur ein Verkäufer zu sein – und Ihnen helfen Kosten einzusparen, werden CIOs sich auch junge Unternehmen anschauen, die überall auftauchen.“ „Ich sehe CIOs die mittlerweile bereit sind mehr Risiko einzugehen“, so Werner. „Wenn sich Dinosaurier nicht verändern, nun ja wir wissen was mit den Dinosaurier passiert ist.“

Werner Vogels Video auf der GigaOM Structure 2012

Watch live streaming video from gigaomstructure at livestream.com

Bildquelle: http://www.allthingsdistributed.com

Kategorien
News

Armutszeugnis: Cloud Computing Ausfälle haben seit 2007 mehr als 71 Million US-Dollar an Kosten verursacht.

Seit 2007 haben 568 Stunden Ausfallzeit von 13 namhaften Cloud Services mehr als 71.700,000 US-Dollar an Kosten verursacht, das sagt zumindest die International Working Group on Cloud Computing Resiliency (IWGCR). Dabei liegt die durchschnittliche Nichtverfügbarkeit von Cloud Services bei 7,5 Stunden pro Jahr. Das entspricht einer garantierten Verfügbarkeit von 99,9 Prozent, die weit weg von dem liegt, was von geschäftskritischen Systemen (99,999 Prozent) erwartet wird. Im Vergleich dazu beträgt die durchschnittliche Nichtverfügbarkeit von Strom in einer modernen Großstadt weniger als 15 Minuten pro Jahr. Ein Armutszeugnis für die Public Cloud Anbieter?

Mit „Availability Ranking of World Cloud Computing (ARWC)“ handelt es sich um die erste Publikation der im März 2012 von ParisTech und 13 pariser Universitäten gegründeten Gruppe. Grundlage ihrer Forschung sind Presseberichte von Cloud Computing Ausfällen von Services wie Twitter, Facebook, Amazon, Microsoft, Google, Yahoo, Paypal und Weiteren.

Public Cloud Anbieter stehen unter Druck

Seit die Cloud Anbieter damit begonnen haben, immer mehr staatliche Einrichtungen und weltweit agierende Unternehmen anzusprechen wird es zunehmend wichtiger, dass die bereitsgestellten Services zuverlässig arbeiten, insbesondere dann, wenn es sich um geschäftskritische Systeme handelt. Das scheinen die Cloud Anbieter aber scheinbar nicht zu 100% verinnerlicht zu haben.

Die Kosten pro Ausfall sind nicht zu vernachlässigen

Die Forscher fanden heraus, dass die Kosten für einen einstündigen Ausfall variieren. Der Reiseanbieter Amadeus hätte demnach mit 89.000 US-Dollar zu rechnen, Paypal hingegen mit 225.000 US-Dollar pro Stunde. Die Zahlen basieren auf den stündlichen Kosten, mit der die jeweilige Industrie in ihrem Markt rechnet. Ausfälle bei Unternehmen wie Google, Microsoft und Amazon belaufen sich, laut den Forschern, auf schätzungsweise 200.000 US-Dollar pro Stunde.

Neben den wirtschaftlichen Auswirkungen für den Service Anbieter, sollte hier aber nicht der Kunde aus den Augen verloren werden. Der ist viel wichtiger! Manche Ausfälle haben sich schließlich schon über mehrere Tage hingezogen.

Der Zustand ist wahrscheinlich noch viel schlimmer

Die Forscher merken an, dass ihre Vorgehensweise nicht perfekt sei, da die vorliegenden Informationen bei weitem nicht vollständig seien. Sie gehen daher davon aus, das sie die vorliegenden Zahlen wahrscheinlich unterschätzen. Viele Ausfälle wurden von der Presse nicht publiziert, was viel Platz für weitere bietet. Darüber hinaus standen den Forschern ebenfalls nicht die exakten Werte für die wirtschaftlichen Kosten pro Ausfall oder die durchschnittlichen Kosten pro Stunde von jedem Cloud Anbieter zur Verfügung.

Liebe Anbieter entschädigt richtig!

Wie ich erst vorgestern geschrieben habe, sind Public Cloud Ausfälle nun einmal öffentlich. Probleme in einem privaten Rechenzentrum interessieren niemanden. Kein Journalist würde darüber berichten, da es einfach langweilig ist und keine Leser anziehen würde.

Aber der „Witz“ an der ganzen Cloud Ausfall Geschichte ist, dass die Cloud Anbieter lediglich die Kosten für den Zeitraum, in welchem der Service nicht verfügbar war, erlassen. So haben Azure Nutzer für den Ausfall am 29. Februar eine Gutschrift über 33% erhalten. Amazon ist hier nicht besser.

Es ist ja schön und gut und vor allem zwingend erforderlich, dass man als Nutzer zumindest nicht einen Service berechnet bekommt, der nicht funktioniert. Wo kommen wir denn dahin: Pay as you go! Aber die Cloud Anbieter müssen hier etwas ändern, sonst werden sie von Seiten der Kunden früher oder später ihr blaues Wunder erleben. Sie müssen sich an dieser Stelle mit mehr Transparenz und Glaubwürdigkeit durch eine strengere Selbstkontrolle und Verpflichtung gegenüber ihren Kunden abheben.

Die Erstattung der Kosten für einen nicht verfügbaren Service ist das eine. Aber wie schaut es mit Vertragsstrafen aus, wenn ich als Unternehmen auf Grund des Ausfalls meinen Kunden wiederum nicht die erwartete Serviceleistung erbringen kann und von diesem wiederum in Regress genommen werde bzw. wenn ich dadurch Umsatzeinbußen habe. Hier halten sich die Cloud Anbieter derzeit (noch) schön raus. Ich denke hier gibt es eine Menge Stoff für Diskussionen. Rechtsanwälte bitte zuerst. 😛


Bildquelle: http://www.deerns.nl

Kategorien
News

Eucalyptus 3.1 wird Open Source(iger) wie keine andere Version zuvor

Eucalyptus Systems hat gestern eine neue Version seiner Open Source Cloud Infrastruktur Software angekündigt. Eucalyptus 3.1 richtet sich auf Basis derselben Plattform an die Open Source Community als auch an Unternehmen, um damit Cloud Infrastrukturen und Cloud Entwicklungsumgebungen aufzubauen, zu betreiben sowie zu verwalten. Die neue Version präsentiert neben einer besseren Performance ebenfalls viele weitere Funktionen wie FastStart, mit der Nutzer AWS-komaptible (Amazon Web Service) on-Premise Cloud Infrastrukturen unter 20 Minuten aufbauen können.

Mehr als nur AWS Unterstützung

Wer nun glauben mag, dass Eucalyptus sich komplett auf der Kooperation mit den Amazon Web Services stützt und ausruht, der irrt. Eucalyptus 3.1 wird sich verstärkt auf die Entwicklung der Community konzentrieren und diese unterstützen. Dazu wird u.a. der vollständige Eucalyptus 3.x Quellcode auf Github zur Verfügung gestellt. Darüber hinaus wird die Bereitstellung von Unternehmensplattformen auf Basis von Red Hat Enterprise Linux und Red Hat Enterprise Virtualization sowie VMware vCenter 5 unterstützt. Hinzu kommen Möglichkeiten für das Management von Community Projekten, mit denen Fehler, Korrekturen und Wünsche verwaltet werden können.

Eucalyptus 3.1 im Überlick

Mit der neuen Version möchte Eucalyptus es Unternehmen ermöglichen, on-Premise Cloud Infrastrukturen auf eine einfache Art und Weise aufzubauen und gleichzeitig die Innovationsfähigkeit der Cloud zu erhöhen, indem die Open Source Cloud Community alle Mittel erhält, um dazu beizutragen, die Eucalyptus Cloud ihren Bedürfnissen nach anzupassen. Zu den neuen Funktionen in Eucalyptus 3.1 gehören:

On-Premise Cloud Plattformen

Unternehmen erhalten mit Eucalyptus 3.1 nun die Möglichkeit, eigene on-Premise Cloud Umgebungen auf der neuesten Version von Red Hat Enterprise Linux inkl. EC2, EBS, S3 und IAM zusammen mit den Red Hat Enterprise und VMware Virtualisierungsplattformen aufzubauen.

FastStart: Ruck Zuck zur eigenen Private Cloud

FastStart bietet Nutzern einen Self-Service, mit dem sie eine Eucalyptus IaaS Cloud Umgebung automatisiert unter 20 Minuten aufbauen können. FastStart kann zusammen mit CentOS 5 und Xen oder CentOS 6 und KVM genutzt werden. Mit durch FastStart bereitgestellte Clouds können sich Nutzer die auf Eucalyptus gespeicherten Images aussuchen und mit einem Klick auf der Infrastruktur ausrollen. Für fortgeschrittene Nutzer bietet Eucalyptus Silvereye, eine Reihe von Tools, mit der sich komplexere Eucalyptus Umgebungen installieren und konfigurieren lassen.

Open Source Cloud Community

Der vollständige Eucalyptus 3.1 Quellcode steht nun öffentlich auf Github bereit. Zudem werden alle Erneuerungen ebenfalls auf Github bereitgestellt, dazu gehören ebenfalls das Tracking von Fehlern und neuen Funktionen. Damit sollen Mitglieder der Eucalyptus Community die Gelegenheit erhalten ihren Teil beitragen zu können.

Los geht’s am 27. Juni

Am 27. Juni 2012 werden Kunden in den Genuss der neuen Funktionen kommen, die auf Eucalyptus 3 aufbauen werden. Dazu gehören weiterhin neue Funktionen für die Hochverfügbarkeit, Amazon Web Services API Erweiterungen, Rapid Instancing, Verbesserungen am Elastic Block Store (EBS), erweiterte Unterstützung für Windows-Images, eine neu gestaltet Verwaltungskonsole sowie verbesserte Kommandozeilentools.

So langsam zeichnet sich die Handschrift von Eucalyptus CEO Marten Mickos ab, der bereits als CEO von MySQL die relationale Datenbank zu einem der führenden Open Source Anbieter am Markt machte.


Bildquelle: http://www.srs.fs.usda.gov

Kategorien
News

Platform-as-a-Service ist das nächste große Schlachtfeld in der Cloud

Glaubt man einer Studie von Frost & Sullivan, wird der Platform-as-a-Service (PaaS) Markt zum nächsten Schlachtfeld der Cloud Service Anbieter. Nachdem sich die Bereiche Infrastructure-as-a-Service und Software-as-a-Service soweit normalisiert haben, konzentrieren sich Unternehmen nun vermehrt auf das Thema PaaS. Das ergab Frost & Sullivan’s Bericht „Asia-Pacific Platform as a Service Market 2011“. Insbesondere die Flexibilität für die Anwendungsentwicklung und SaaS Applikationen fördern die Attraktivität von PaaS.

Die Asiaten hängen im Bereich PaaS hinterher

Die die meisten Software Lösungen aus der Cloud standardisiert sind, suchen Unternehmen derzeit passende PaaS-Angebote, um eigene Applikationen zu hosten. Daher ist PaaS mittlerweile der einzige Teil des Cloud Stacks, bei dem sich Anbieter noch deutlich voneinander differenzieren können.

Laut dem Bericht von Frost & Sullivan hatte der Paas Markt im asiatisch-pazifischen Raum im Jahr 2010 einen Umsatz von 43,2 Millionen Dollar und wird bis 2016 auf 523 Millionen US-Dollar wachsen. Insbesondere die Flexibilität und die Möglichkeit bei der Entwicklung und dem Test von neuen Applikationen die Kosten zu reduzieren, führen zu einer hohen Attraktivität von PaaS Lösungen. Auch wenn Unternehmen die Vorteile des Cloud Computing verstanden haben, handelt es sich für sie beim PaaS noch um ein relativ junges Konzept, da noch nicht ausreichend Regulierungen und Standards vorhanden seien.

Darüber hinaus macht die mittlerweile große Auswahl an Plattformen für Java, Ruby und weiteren Sprachen durch CloudBees, Heroku und anderen Anbietern die Entscheidung schwer, die richtige Lösung zu finden und behindert somit die Portierung der on-Premise Anwendungen zu einem bestimmten PaaS-Anbieter. Daher ist die Offenheit und Integrationsmöglichkeit zu anderen Plattformen sowie mobilen Endgeräten für die Zukunft besonders zu beachten, so Frost & Sullivan.

PaaS hat eine große Zukunft vor sich

Auch wenn sich diese Studie nur auf den asiatischen Markt bezieht, ist für den weltweiten PaaS Markt ebenfalls ein Wachstum zu erwarten, dass sieht man an den stetig wachsenden PaaS-Angeboten und Erweiterungen. Die Zahlen zeigen deutlich, dass die Asiaten sich hinter dem Weltmarkt befinden, auf Grund ihrer Größe und Marktmacht aber in Zukunft ein Wörtchen mitreden werden.

Wir werden in Zukunft ein ähnliches Phänomen wie bei den Cloud Storage Service Anbietern erleben, die in den letzten Wochen und Monaten reihenweise aus dem Boden geschossen sind. Der PaaS Markt wird, mit dem erreichen seines Reifegrads, immer mehr Anbieter und neue Lösungen anziehen. Diese Entwicklung kann sich aber ebenfalls auf Unternehmen und ihre on-Premise Cloud Infrastrukturen auswirken. Unternehmen verstehen immer besser, dass sie ihre IT-Abteilungen als internen (Cloud) Dienstleister aufstellen müssen, um gegenüber den externen Anbietern konkurrenzfähig zu bleiben.


Bildquelle: http://assets.byways.org

Kategorien
News

Googls Apps wirbt mit bis zu 85% Energieeinsparungen

Cloud Computing Anbieter werben in der Regel mit Kosteneinsparungen durch die Nutzung ihrer skalierbaren Infrastrukturen oder Plattformen bzw. SaaS Applikationen. Google geht nun einen Schritt weiter und behauptet, dass Unternehmen mit der Nutzung seiner SaaS Office Suite Google Apps zwischen 65% und 85% Energieeinsparungen erhalten, wenn sie anstatt ihrer Anwendungen, die Google Cloud Lösung nutzen.

Googls Apps wirbt mit bis zu 85% Energieeinsparungen

Google bezieht sich dabei auf die Ergebnisse einer Fallstudie der US General Services Administration (GSA). So konnte die GSA mit ca. 17.000 Anwendern, durch die Migration zu Google Apps, den Energieverbrauch um fast 90 Prozent und die Kohlendioxid-Emissionen um 85 Prozent reduzieren. Das führt zu ca. 285.000 US-Dollar (eine Reduktion von 93%) jährlichen Einsparungen bei den Energiekosten.

Google nennt in diesem Zusammenhang zwei wichtige Faktoren, die dafür verantwortlich sind. Die Reduzierung des Energieverbrauches und die niedrigeren Kohlendioxidemissionen. Schauen wir uns die obere Graphik an, wird deutlich, dass Google Apps bzw. Cloud basierte Lösungen von anderen Anbietern, darauf achten, so wenig wie möglich Energie für den Betrieb und die Kühlung der Server aufzubringen. Google erläutert darüber hinaus, dass kleine Unternehmen und Unternehmen, die bereits Google Apps ähnliche on-Premise Anwendungen nutzen, am meisten einsparen.

Weiterhin geht Google auf seine Chromebooks ein, die das Unternehmen als eine weitere Möglichkeit sieht, um Energie zu sparen, da es sich dabei um reine Cloud basierte Laptops handelt, die schneller, leichter und weniger Strom benötigen. Der Einsatz könnte demnach zwischen 10% und 45% an zusätzlichen Energieeinsparungen für Mitarbeiter Computer einbringen, so Google.

Kategorien
News

Erneute Probleme in der Amazon Cloud – Ausfall bei den Amazon Web Services in North Virginia

Wie GigaOm berichtet, hatten die Amazon Web Services am Donnerstag wieder mit einem Ausfall zu kämpfen, von dem Webseiten und Services wie Quora und HipChat betroffen waren. Zudem soll der Ausfall auch Heroku, einem Ableger von Salesforce, getroffen haben.

Amazon gehört zu den größten Infrastruktur Anbietern von vielen bekannten und mittlerweile sehr populären Services wie Pinterest und Dropbox. Von dem Ausfall waren die AWS Services Amazon EC2 und Amazon RDS betroffen, der in Amazons Rechenzentrum in North Virginia aufgetreten ist. Weitere Services wie ElastiCache und Elastic Beanstalk hatten in North Virginia ebenfalls mit Problemen zu kämpfen. Der Ausfall ist scheinbar auf einen Stromausfall zurückzuführen.

Folgende Informationen konnten über die AWS Status Webseite abgerufen werden:

Amazon EC2

We continue to investigate this issue. We can confirm that there is both impact to volumes and instances in a single AZ in US-EAST-1 Region. We are also experiencing increased error rates and latencies on the EC2 APIs in the US-EAST-1 Region.

9:55 PM PDT We have identified the issue and are currently working to bring effected instances and volumes in the impacted Availability Zone back online. We continue to see increased API error rates and latencies in the US-East-1 Region.

Amazon RDS

9:33 PM PDT Some RDS DB Instances in a single AZ are currently unavailable. We are also experiencing increased error rates and latencies on the RDS APIs in the US-EAST-1 Region. We are investigating the issue.
10:05 PM PDT We have identified the issue and are currently working to bring the Availability Zone back online. At this time no Multi-AZ instances are unavailable.
00:11 AM PDT As a result of the power outage tonight in the US-EAST-1 region, some EBS volumes may have inconsistent data.
01:38 AM PDT Almost all affected EBS volumes have been brought back online. Customers should check the status of their volumes in the console. We are still seeing increased latencies and errors in registering instances with ELBs.

GigaOm hat ebenfalls ein paar Tweets herausgesucht:

Mein Lieblingstweet ist übrigens dieser, der perfekt zu meinem kürzlich verfassten Artikel „Amazon Web Services – Das Mekka der Startups! Aber reicht das wirklich aus?“ passt und meine Ansicht bestätigt:

Nicht der erste Ausfall in der Geschichte der Amazon Web Services

Dieser Ausfall ist nicht der Erste in der Geschichte der Amazon Web Services. Erinnern wir uns an Ostern 2011 und einem kurzen Ausfall im März 2012. Ihre solltet also aus solchen Situationen lernen und nicht alle Eier in ein Nest legen, sondern die kritischen Daten breit verteilen. Am besten über mehrere Anbieter hinweg.

Dennoch stehe ich weiter hinter meiner Aussage, dass solche Ausfälle nur so extrem an die Öffentlichkeit geraten, da Cloud Anbieter nun einmal in der Öffentlichkeit stehen und Millionen von Augen ausgesetzt sind. Wie viele privat betriebene Rechenzentren haben wohl heute ein Problem gehabt, was meint ihr?


Bildquelle: http://www.loggly.com

Kategorien
News

CloudBees erweitert sein PaaS Ecosystem mit weiteren Partnern

Java Platform as a Service (PaaS) Anbieter CloudBees hat neue Kooperationen mit weiteren Cloud Service Partnern für sein CloudBees Partner Ecosystem angekündigt, darunter SendGrid, Websolr und AppDynamics. Das Ökosystem ermöglicht Entwicklern den Zugriff auf verschiedene Partner Services, wie z.B. Deployment Lösungen, über den CloudBees PaaS ohne extra Konfigurationen oder Installationen vornehmen zu müssen.

CloudBees erweitert sein PaaS Ecosystem mit weiteren Partnern

Konzentriere Dich auf Deine Applikation

CloudBees provisioniert die Services seiner Partner transparent für den Nutzer und rechnet alle Gebühren über eine Gesamtrechnung ab. Wie von einem PaaS Angebot zu erwarten, können Entwickler damit ihre Java Anwendungen in der Cloud schreiben, testen und ausrollen, ohne sich dabei um die Infrastruktur, Entwicklungsumgebung usw. zu kümmern.

Neuigkeiten im CloudBees Partner Ecosystem

Die neuen Partner bringen Cloud-basierte E-Mail Lösungen, Managed Search Services und weitere Funktionen zum Performance Management mit. Zu den neuen Services gehören:

  • SendGrid: Ein Cloud-basierter E-Mail Infrastruktur Service, der Unternehmen von den Kosten und der Komplexität von on-Premise E-Mail Systemen entlasten soll. SendGrid sorgt dazu für eine zuverlässige Zustellung der E-Mails, für Skalierbarkeit und Echtzeit-Analysen sowie flexible APIs.
  • Websolr: Ist eine Open Source Suchmaschine von Apache Solr, mit der Entwickler ihre Inhalte indexieren und durchsuchen können. Es handelt sich dabei um einen Managed Search Service, mit dem Entwickler skalierbare Suchergebnisse liefern können, ohne sich um die notwendige Performance im Hintergrund kümmern zu müssen.
  • AppDynamics: Eine Lösung für das Performance Management von Anwendungen, hilft Entwicklern dabei ihre Applikationen performant und skalierbar zu schreiben. Dazu gibt AppDynamics Entwicklern in Echtzeit einen Einblick in ihren Code, um dabei zu helfen die Performance der Java Anwendungen und Datenbanken, wie SQL oder NoSQL, zu optimieren.

Das CloudBees Partner Ecosystem wird größer

Diese neuen Services gesellen sich zu weiteren bereits vorhandenen Angeboten auf der CloudBees Platform, darunter Sauce Labs, JFrog, New Relic, CollabNet Codesion und viele weitere.

Kategorien
News

Google verstärkt die Sicherheit seiner Google Apps Cloud Services

In den vergangenen Wochen hat Google mit seinen Chromebooks und Lösungen wie BigQuery ebenfalls neue Funktionen und Datenschutzrichtlinien für seinen Office Suite Google Apps vorgestellt. Hinzu kommt mit Google Apps Password Sync for Active Directory eine Funktion, mit der Passwörter von mehreren Google Apps Domains und der Active Directory synchronisiert werden können.

Google Apps und Active Directory synchronisieren

Mit Google Apps Password Sync for Active Directory erhalten Administratoren die Möglichkeit zwei Systeme untereinander synchronisiert zu halten, ohne dabei auf eine geplante Synchronisation warten zu müssen. Laut Google ist die Konfiguration recht simple und dauert nur ein paar Minuten. Zudem ist die gesamte Datenübertragung zwischen Google Apps und einer Active Directory verschlüsselt.

Google Apps Kontakte mit Kollegen teilen

Eine weitere neue Funktion für Nutzer der Premium Edition ist das Teilen von Kontakten mit Kollegen (Contact Delegation). Damit soll ein Kontaktnetzwerk auf einfache Weise geteilt und erweitert werden. Nutzer können damit ebenfalls ihren Posteingang oder Kalender freigeben.

ISO 27001 für Google Apps

Weiterhin wurde Google Apps von den Wirtschaftsprüfern Ernst & Young nach ISO-27001 zertifiziert. Die weltweite gültige Zertifizierung ergänzt Google Apps for Government, die bereits die Zertifikate SSAE 16/ISAE 3402 und Fisma besitzt. Allerdings sollte man nicht vergessen, dass dieses Zertifikat keinen Freifahrtschein für die 100%ige Sicherheit der Anwendung ausstellt. Unternehmen die sich nach ISO-27001 zertifizieren lassen, setzen sich lediglich selbst hohe Maßstäbe, um eine hohe Sicherheit zu gewährleisten.


Bildquelle: http://blog.gemalto.com/

Kategorien
News

Big Data: Jaspersoft geht in die GoGrid Cloud

Business Intelligence Anbieter Jaspersoft und Cloud Anbieter GoGrid gehen in Zukunft gemeinsame Wege. Die Open Source BI Plattform von Jaspersoft wird dazu auf dem GoGrid Exchange Ökosystem zur Verfügung gestellt. Mit GoGrid Exchange können Kunden Cloud-basierte Software als Teil ihrer IT-Infrastruktur einsetzen. Unter Einsatz der GoGrid Server Image (GSI) Technologie sind Unternehmen und Entwickler jetzt in der Lage die BI-Reporting-Funktionalitäten von Jaspersoft nutzen.

Big Data treibt Reporting und Analysen

Reporting und Analysen werden in aufkommenden Zeiten von Big Data immer wichtiger für die Entwicklung und den Einsatz von datengetriebenen Anwendungen. Cloud Angebote ermöglichen es, solche Lösungen überall performant und skalierbar verfügbar zu machen, um Unternehmen bspw. einen einfachen Zugriff auf BI-Technologie mit einer eine robusten Reporting-Lösung zu ermöglichen.

Jaspersoft und GoGrid auf einem Blick

Kunden sollen von der Partnerschaft wie folgt profitieren:

  • Zugang zu webbasierter Business Analytics – über jeden Browser, auch von mobilen Endgeräten aus
  • Umfassende Unterstützung für Mandantenfähigkeit bei dem Einsatz komplexer Anwendungen
  • Datenintegration aus jeglichen Datenquellen: aus der Cloud oder von on-Premise, einschließlich Jaspersoft BI for Big Data oder GoGrid Big Data Solution.

Infrastructure-as-a-Service ist Grundlage für Big Data

Infrastructure-as-a-Service (IaaS) gehört zu einer zentralen Cloud Strategie, wenn Unternehmen BI-Anwendungen einsetzen, aber nicht direkt für den operativen Ablauf, Storage, Hardware und Netzwerkkomponenten verantwortlich sein wollen. Zudem stellt IaaS auf Grund der massiven Skalierbarkeit der Infrastruktur die ideale Grundlage für Anwendungen und Analysen rund um das Thema Big Data dar.


Bildquelle: http://www.newelements.de