Kategorien
News

Amazon hilft mit CloudFormation beim Aufbau einer Virtual Private Cloud

Die Amazon Web Services ermöglichen nun den automatisierten Aufbau einer vollständigen Virtual Private Cloud (VPC) auf Basis eines einzelnen AWS CloudFormation Templates. Laut Jeff Barr, beschreibt das Template alle Eigenschaften, die notwendig sind, um den dafür notwendigen Ressourcenstack zu erstellen.

Amazon VPC kann bereits seit mehreren Jahren genutzt werden und erlaubt dem Nutzer den Aufbau eines für sich isolierten Bereichs auf der Amazon Cloud. Hier können Ressourcen in einem virtuellen Netzwerk ausgeführt werden und darauf mittels öffentlichen und privaten Subnetzen sowie VPNs zugegriffen werden.

Mit dem Einsatz von AWS CloudFormation müssen Anwender nicht die Reihenfolge der Provisionierung der jeweiligen AWS Services sowie deren Abhängigkeiten berücksichtigen. CloudFormation nutzt dazu Templates, die als in JSON (JavaScript Object Notation) formatierte Textdateien geschrieben werden. JSON basiert auf einer Teilmenge der Programmiersprache JavaScript und ist sowohl für Menschen als auch Maschinen lesbar.

Um Entwicklern und Systemadministratoren ein wenig unter die Arme zugreifen, hat Amazon zwei Beispiel Templates erstellt, um zu zeigen wie diese aufgebaut sind. Das erste Template erstellt eine Amazon VPC mit einer EC2 Instanz. Das zweite Template baut eine VPC inkl. einem Public und Private Subnetz sowie einem Elastic Load Balancer und einer EC2 Instanz auf.

Beide Templates können in Jeff Barrs Blogpost nachvollzogen werden.


Bildquelle: http://www.allmystery.de

Kategorien
News

Bitdefender Security for Virtualized Environments steht im AWS Marketplace bereit

Ab sofort stellt der Anti-Malware-Bekämpfer Bitdefender seine Lösung „Security for Virtualized Environments“ (SVE) auf dem Amazon Web Services (AWS) Marketplace bereit. Auf der Plattform können sich Kunden Software und Services ansehen, vergleichen und bei Bedarf sofort buchen, um sie umgehend für den Geschäftsbetrieb einzusetzen. Auf diese Weise haben Unternehmen nun die Möglichkeit, SVE als zentral verwaltete Sicherheitslösung in der Cloud einzusetzen und so ihre virtuellen Maschinen vor Online-Bedrohungen zu schützen.

Bitdefender Security for Virtualized Environments steht im AWS Marketplace bereit

Die Bitdefender-Lösung ist für Unternehmen geeignet, welche die Cloud oder eine Kombination aus Cloud und virtualisiertem Rechenzentrum nutzen. SVE sichert dabei Windows- und Linux-Systeme über die APIs (Application Programming Interfaces) des Amazon-Angebots ab. Nutzer des AWS Marketplace profitieren dabei von einem zentralisierten Scanning und Management. Über die Plattform lassen sich beispielsweise Richtlinien für User-Gruppen konfigurieren oder Logs verschiedener AWS-Regionen einsehen. Die Virtual Appliance erhöht die Scanning Performance signifikant und sorgt dafür, dass Anti-Malware-Maßnahmen bei den geschützten Komponenten weniger Ressourcen verbrauchen. Darüber hinaus reduziert Bitdefender SVE finanzielle, logistische und die Performance betreffende Kosten.

„Security for Virtualized Environments“ steht aktuell in vier unterschiedlichen Varianten bereit.

  • SVE – Security Console (zur Absicherung von 40 Instanzen)
    320,00 Dollar pro Monat + AWS Gebühren
    Linux/Unix, Ubuntu 10.04 LTS | 64-bit Amazon Machine Image (AMI)
  • SVE – Security Console (zur Absicherung von 100 Instanzen)
    600,00 Dollar pro Monat + AWS Gebühren
    Linux/Unix, Ubuntu 10.04 LTS | 64-bit Amazon Machine Image (AMI)
  • SVE – Security Console (zur Absicherung von 200 Instanzen)
    960,00 Dollar pro Monat + AWS Gebühren
    Linux/Unix, Ubuntu 10.04 LTS | 64-bit Amazon Machine Image (AMI)
  • SVE – Security Virtual Appliance
    0,00 Dollar pro Stunde + AWS Gebühren
    Linux/Unix, Ubuntu 10.04 LTS | 64-bit Amazon Machine Image (AMI)
Kategorien
News

ELPaaS portiert Cobol Applikationen auf Amazon, Rackspace und weitere Clouds

Mit der neuen Entwickler Plattform ELPaaS will das Cloud Computing Startup Heirloom Computing es Unternehmen ermöglichen, ihre nativen Cobol Anwendungen in die Cloud zu portieren. Dazu wird die Cobol Applikation in Java kompiliert. Neben den Amazon Web Services und Rackspace werden viele weitere Cloud Plattformen unterstützt.

ELPaaS portiert Cobol Applikationen auf Amazon, Rackspace und weitere Clouds

ELPaaS beinhaltet Heirlooms Software Elastic Cobol IDE. Das System kompiliert Cobol Anwendungen sowie Applikationen die für IBM CICS geschrieben wurden, in Java Quellcode. ELPaas liefert zudem eine Laufzeitumgebung für die Anwendungen, wodurch diese auf einer Vielzahl von Cloud Plattformen wie Cloud Foundry, Red Hat OpenShift und CloudBees ausgeführt werden können. Voraussetzung ist die Plattform seitige Unterstützung von Java. Heirloom selbst setzt auf die Amazon Web Services.

Die kostenlose Variante von ELPaaS richtet sich an einzelne Entwickler und bietet einen eingeschränkten Support, eine kleine Auswahl an Tools und kein Service Level Agreement. Die Standard Edition bietet mehr Tools, ein SLA sowie eine bessere I/O Performance und Support für CICS Anwendungen.

Nach eigenen Angaben hat ELPaaS bereits an die 400 Nutzer.

Kategorien
News

Ubuntu 12.04 verbindet OpenStack und die Amazon Web Services über eine API

Canonical, Entwickler der Linux Distribution Ubuntu wird mit der kommenden Ubuntu 12.04 LTE eine API veröffentlichen, mit der OpenStack basierte Clouds mit der Infrastruktur der Amazon Web Services (AWS) verbunden werden können. Ubuntu 12.04 LTE wird Ende April erwartet und soll die API in Form des Any Web Service Over Me (AWSOME) Proxy Service mitliefern. Das teilte Canonical Günder Mark Shuttleworth dem INQUIRER mit.

Ubuntu 12.04 verbindet OpenStack und Amazon Web Services über eine API

Shuttleworth möchte insbesondere OpenStack damit helfen, den Bekanntheitsgrad zu erhöhen und somit den Einsatz von mehr OpenStack Clouds zu fördern. Er hält es zudem für sehr nützlich, den Nutzern zu ermöglichen Clouds auf Basis von OpenStack aufzubauen und diese auf Basis einer gemeinsamen API mit den Amazon Web Services kommunizieren zu lassen.

AWSOME soll laut Shuttleworth die grundlegenden Funktionen der Amazon Web Services bieten, um Unternehmen einen flüssigen Übergang zu OpenStack basierten Clouds zu ermöglichen. Demnach stehen bei AWSOME die Kern APIs im Vordergrund, mit denen bspw. eine virtuelle Maschine gestartet werden kann oder der Zugriff auf den Speicher ermöglicht wird. Beide Cloud Infrastrukturen sind grundsätzlich verschieden. Diejenigen, die sich mehr mit OpenStack beschäftigen wollen, müssen sich tiefer in dessen native API einarbeiten. Aber Erfahrungen haben gezeigt, dass Nutzer dankbar dafür sind, wenn sie mit den grundlegenden Funktionen einer ihnen bekannten API und Tools eine Private Cloud aufsetzen können, so Shuttleworth.

Canonicals AWSOME APIs werden mit dem kommenden Ubuntu 12.04 Release verfügbar und als eine Option während der Installation auszuwählen sein.

Kategorien
News

Amazon erweitert CloudFront mit Live-Streaming Funktion für iOS und Silverlight

Amazon hat seinen Content Delivery Network (CDN) Services um Live-Streaming Funktionen für Apples iOS und Microsofts Silverlight erweitert. Das wurde gestern im offiziellen Unternehmensblog angekündigt.

Mit Amazon CloudFront können Inhalte wie Bilder, Videos andere Mediadaten und Software so verteilt werden, dass auf sie schnell und performant zugegriffen werden kann. Dazu nutzt CloudFront, typisch für ein CDN, unterschiedliche Edge Locations in Asien, Europa, Südamerika und den USA, um die Inhalte möglichst nah an den Nutzer auszuliefern und damit die Zugriffszeit zu verkürzen.

Mit der neuen Funktion „Live Smooth Streaming for Amazon CloudFront“ können Inhalte nun zusätzlich live auf Microsoft Silverlight Clients und Apple iOS Endgeräte wie iPhone, iPod Touch oder iPad streamen. Dazu werden Microsofts Live Smooth Streaming und Apples HTTP Live Streaming (HLS) Formate genutzt.

Amazon erweitert CloudFront mit Live-Streaming Funktion für iOS und Silverlight

Live Smooth Streaming Inhalte werden fragmentiert an die Clients übertragen, so dass die CloudFront Edge Server die Daten zwischenspeichern (cachen) können.

Die Clients selbst haben die Möglichkeit den aktuellen Netzwerk- und lokalen Systems-Status dynamisch zu überwachen. Sollte sich z.B. die Netzwerkleistung verschlechtern, kann der Client umgehend kommunizieren, dass das nächste Fragment mit einer niedrigeren Bitrate gesendet werden soll, um sich damit an die ändernden Bedingungen anzupassen. Laut Amazon sollen damit das Stottern, Puffern und Einfrieren des Streamings verhindert werden.

Der Stream kann über eine Amazon EC2 Instanz mit Windows IIS Media Services bereitgestellt werden. Wird der Live Stream von einem Client angefragt, lädt CloudFront den Inhalt automatisch von der EC2 Instanz, cached ihn in der Edge Location zwischen und liefert ihn an den Client aus. Um Inhalte mit Apples HLS Format zu streamen, wird auf der Amazon EC2 Instanz ein Adobe Flash Media Server 4.5 benötigt. Laut Amazon handelt es sich bei beiden Formaten aber um dieselbe Grundkonfiguration. Um die Nutzung von „Live Smooth Streaming for Amazon CloudFront“ zu vereinfachen, hat Amazon ein CloudFormation Template erstellt, dass die notwendigen Ressourcen für ein Live Event bereitstellt.

Die CloudFront Preise orientieren sich an den regionalen Datentransferkosten für die jeweiligen Amazon Edge Locations, die Anzahl an HTTP-Anfragen und die Anzahl an ungültigen Anfragen. Letzteres wird verwendet, um ein Objekt aus der CloudFront Edge Location vor dem angegebenen Ablaufdatum zu entfernen.

Bspw. kosten in Europa und in den USA die ersten 10TB 0,12 US-Dollar pro Gigabyte und die weiteren 40TB 0,08 US-Dollar pro Gigabyte. Die Menge an verbrauchten Traffic wird dabei monatlich zurückgesetzt.


Bildquelle: http://www.ewdisonthen.com

Kategorien
News

Die Amazon Web Services hosten Katalog für Humangenetik in der Cloud

Die Amazon Web Services (AWS) und das U.S. National Institutes of Health (NIH) haben die komplette Datenbank des 1000 Genomes Project als Public Data Set in die Amazon Cloud migriert. Damit haben Wissenschaftler nun ständigen Zugang zu 200 Terabyte an genetischen Daten zur Erforschung von Krankheiten. Ein weiterer idealer Anwendungsfall für Cloud Computing und Big Data.

Die Kooperation, die offiziell während des White House Big Data Summit angekündigt wurde, ermöglicht es Wissenschaftlern kostenlos auf die weltweit größte Sammlung von Daten zur Humangenetik zuzugreifen Bei dem 1000 Genomes Project handelt es sich um ein internationales Forschungsprojekt, das von einem Konsortium bestehend aus 75 Unternehmen und Organisationen koordiniert wird. Das Ziel des Projekts ist die Erstellung des detailreichsten Katalogs von genetischen Variationen bei Menschen.

Dazu hat das Projekt bereits 200 Terabyte an genetischen Daten inkl. DNS Sequenzen von mehr als 1.700 Personen gesammelt, auf die Wissenschaftler nun kostenlos über die AWS Cloud zugreifen können. Das Projekt verfolgt das Ziel die Gene von weltweit über 2.600 Individuen aus 26 Bevölkerungen bereitzustellen. Das 1000 Genomes Project startete 2008 mit ein paar Terabytes an Daten in seine Pilotphase. Bereits 2010 wurde ein kleiner Teil als Public Data Set auf AWS veröffentlicht.

Bei den Amazon Public Data Sets handelt es sich um ein öffentliches zentrales Repository von unterschiedlichen Daten, die auf Amazon S3 und Amazon EBS gespeichert sind. Auf diese Daten kann direkt zugegriffen werden, z.B. über Amazon EC2 oder Amazon EMR (Elastic MapReduce) ohne diese großen Datenmengen auf lokale Server herunterzuladen.

Amazon hat neben dem 1000 Genomes Project ebenfalls Public Data Sets vom NASA Jet Propulsion Laboratory, Langone Medical Center an der New York University, Unilever, Numerate, Sage Bionetworks oder Ion Flux gespeichert.

Die Nutzung der Public Data Sets ist kostenlos. Kosten entstehen für die Verarbeitung der Daten auf der Amazon Cloud wie z.B. Amazon EC2.

In diesem Zusammenhang sehr interessant: Nach der Cloud, wird Amazon auch der Big Data Gigant?

Weiterführende Informationen


Bildquelle: http://www.ige3.unige.ch

Kategorien
Analysen

Nach der Cloud, wird Amazon auch der Big Data Gigant?

IaaS Cloud Infrastrukturen haben auf Grund ihrer Skalierbarkeit die idealen Voraussetzungen für die Verarbeitungen großer Datenmengen, wodurch Big Data ein idealer Anwendungsfall für Cloud Computing ist. Aber welcher Anbieter wird das Rennen um die Verarbeitung machen?

Big Data ist ein idealer Anwendungsfall für das Cloud Computing

Amazon Web Services

Ein Kandidat ist Amazon. Zum einen hat das Unternehmen auf Grund seines Kerngeschäfts, dem Web-Shop, eine große Expertise bei der Verarbeitung und Analyse großer Datenmengen aufgebaut und diese, betrachtet an der Evolution und dem Funktionsumfang der Webseite, stetig weiterentwickelt. Hinzu kommen aber auch die Amazon Web Services und der darunter liegenden massiv skalierbaren Infrastruktur, die ideal für die Verarbeitung von Big Data ist und die Unternehmen nutzen können, um dort Anwendungen für die Analyse ihrer Daten zu betreiben. Dazu stehen mit Amazon EC2, Amazon S3 und Amazon Elastic MapReduce gut miteinander zu kombinierende Services zur Verfügung. Neben dem Service AWS Import/ Export, mit dem große Datenmengen auf dem Postweg an Amazon geschickt werden können, die von Amazon dann direkt in die Cloud kopiert werden, hat sich Amazon mit der vor kurzem angekündigten Kooperation mit dem Private Cloud Infrastruktur-Software Anbieter Eucalyptus zudem eine gute Ausgangsposition geschaffen, um Unternehmen die Möglichkeit zu geben, über eine Hybrid Cloud Daten aus der Private in die Amazon Cloud übertragen zu lassen.

Google

Google hat ebenfalls viel Erfahrung bei der Verarbeitung großer Datenmengen, was u.a. auf die Indexierung des Internets und die damit verbundene Suche zurückzuführen ist – ebenfalls beides Kerngeschäfte von Google. Hinzu kommt, das Google kürzlich mit Google BigQuery einen neuen Service für Entwickler vorgestellt hat, auf dem Anwendungen entwickelt werden können, um Big Data zu verarbeiten. Dieser befindet sich aktuell aber noch in der geschlossenen Betaphase.

Anders als die Amazon Web Services scheint Google allerdings nicht so konsequent auf das Business getrimmt zu sein. Zudem wirkt Google an vielen Stellen immer noch wie ein großer Spielplatz für die eigenen Entwickler, was natürlich immer wieder gute Innovationen hervorbringt, Google sich aber bereits eingestehen musste, dass einige Services doch einfach mehr Kapital verbrennen als Nutzen ergeben. So wurde die Google App Engine anfangs stark gepushed, hat im Laufe der Zeit aber etwas an Innovation verloren.

Microsoft

Microsofts Kerngeschäft hat im Vergleich zu Amazon oder Google in erster Linie nichts mit der Verarbeitung großer Datenmengen zu tun. Dennoch steht mit Windows Azure ebenfalls eine skalierbare Infrastruktur bereit, auf der Unternehmen Big Data analysieren können.

Im Vergleich zu Google oder Amazon ist Microsoft aber bereits schon dort lange angekommen, wo die beiden erst genannten erst zielstrebig hinwollen, das Business. Microsoft sollte die Herausforderungen und Wünsche, insbesondere bei den renommierten Unternehmen, kennen und gezielt darauf eingehen können.

Erste infrastrukturelle Schritte hat Microsoft bereits mit der Unterstützung von Hadoop auf Azure unternommen und eine Agenda zeigt die weiteren Vorhaben für das Jahr 2012. So wird das Unternehmen mit Hilfe von Hortonworks und einer ODBC Schnittstelle Apache Hadoop an Microsofts Excel anbinden und so Big Data ins Büro bringen. Damit können Business Intelligence (BI) Tools einen direkten Zugang zu einem Hadoop Cluster erhalten und via Excel Pivot-Analysen durchgeführt werden.

Die Anderen

Es existieren eine Vielzahl an Unternehmen, die mit Big Data tagtäglich in ihrem Kerngeschäft konfrontiert werden. Dazu gehören bspw. ebay, Facebook, XING, LinkedIn oder auch Twitter. Allerdings bietet keines dieser genannten Unternehmen einen Public Cloud Service an, mit dem Big Data von Dritten verarbeitet werden könnte. Die Kosten für den Ausbau einer stärker skalierbaren Infrastruktur wären wohl auch zu hoch.

Allerdings sollten auch renommierte Unternehmen wie SAP, IBM oder Oracle im Bereich Big Data nicht aus den Augen gelassen werden. Die Expertise aus dem Kerngeschäft ist zweifelsohne vorhanden.


Bildquelle: https://www.emcforums2011.com, http://www.techweekeurope.es

Kategorien
News

Amazon und Eucalyptus kooperieren – Gemeinsame Allianz gegen OpenStack?

Die Amazon Web Services und der Private Cloud Infrastruktur-Software Anbieter Eucalyptus werden in Zukunft enger zusammenarbeiten, um die Migration von Daten zwischen der Amazon Cloud und Private Clouds besser zu unterstützen.

Amazon und Eucalyptus kooperieren - Gemeinsame Allianz gegen OpenStack?

Amazon und Eucalyptus kooperieren.

Dabei wird die Kooperation unterschiedlich aufgebaut sein. Zunächst sollen sich Entwickler aus beiden Unternehmen darauf konzentrieren, Lösungen zu schaffen, die Unternehmenskunden dabei helfen sollen, Daten zwischen bestehenden Rechenzentren und der AWS Cloud zu migrieren. Weiterhin und noch bedeutender ist jedoch, dass die Kunden in der Lage sein sollen, dieselben Management Tools und die eigenen Kenntnisse für beide Plattformen zu nutzen.

Darüber hinaus werden die Amazon Web Services Eucalyptus mit weiteren Informationen versorgen, um die Kompatibilität mit den AWS APIs zu verbessern.


Das sieht ganz nach einer Allianz gegen OpenStack aus! Schaut man sich die jüngsten Ankündigungen bzgl. OpenStack an – siehe unten – wäre das von Amazon als auch Eucalyptus ein kluger Schachzug, zumal sich die Eucalyptus Infrastruktur sehr nah an den Basisfunktionen der Amazon Web Services orientiert.

Zudem kann der von Amazon immer wieder geförderte Ansatz der Hybrid Cloud damit verbessert werden. Was sicherlich auch im Hinblick auf das Thema Big Data und der damit verbundenen Verarbeitung großer Datenmengen in der Amazon Cloud für die Amazon Web Services von großem Nutzen sein wird. Nach dem Motto: „Bigger is Better“ bzw. „Data without Limits“.


Bildquelle: http://www.search-internetmarketing.com/, http://www.techweekeurope.co.uk

Kategorien
Management

Netflix erwartet künftig SSDs als Speichertechnologie für Cloud Infrastrukturen!

Netflix Cloud Architekt Adrian Cockcroft erwartet künftig schnellere I/O Mechanismen in der Cloud. Netflix gehört zu den größten Kunden der Amazon Web Services und Cockcroft wünscht sich zunehmend den Einsatz von SSDs (Solid-State-Drives) als Speichertechnologie für die Amazon Cloud. Ein Problem besteht hier jedoch – für die Amazon Web Services – SSDs lassen sich noch nicht stark genug skalieren.

In einem Interview mit ZDNet UK erläuterte Cockcroft erneut die Bedeutung von schnellen I/O Mechanismen innerhalb der Cloud. „Ich habe bereits vor einiger Zeit nach SSDs in der Cloud gefragt.“, so Cockcroft.

Er findet es zwar klasse, dass Amazons Dynamo DB auf SSD basiert, dennoch erwartet er eine noch höhere Skalierbarkeit. Netflix nutzt Cassandra als Speicherarchitektur, um damit das Streaming der Mediadaten zu realisieren. Der Einsatz von SSD würde Netflix dabei noch besser unterstützen.

Die Problematik besteht laut Cockcroft jedoch darin, dass SSDs für Amazon vorab nicht stark genug skalieren, bevor sie damit einen Service anbieten. Daher haben die Amazon Web Services zwar Instanzen für CPU, Speicher und die Netzwerkkapazitäten, aber das I/O ist auf die Leistung der Festplatte beschränkt.


Bildquelle: http://alblue.bandlem.com

Kategorien
News

Amazon Web Services mit kurzzeitigem Ausfall

Wie auf Twitter gut zu verfolgen, war die US-EAST-1 Region der Amazon Web Services heute kurzfristig nicht erreichbar.

Auch der US-amerikanische Plattform Anbieter Cedexis konnte dieses über das eigene Monitoring System verfolgen.

Nach 15 Minuten war die Region wieder erreichbar, wie auch Cedexis informierte.

Der Grund des Ausfalls bestand in einem Problem mit der Internetverbindung, wie Amazon auf seiner Statusseite berichtet.

Demnach waren Amazon EC2 sowie die Amazon Virtual Private Cloud jeweils in North Virginia sowie AWS Elastic Beanstalk betroffen.

An diesem Ausfall sieht man leider, dass alle Services zwar sorgenfrei laufen können, aber die Internetverbindung die Achillesferse des Cloud Computing ist. Für die Cloud Anbieter als auch für die Nutzer.