Kategorien
Analysen

Nach der Cloud, wird Amazon auch der Big Data Gigant?

IaaS Cloud Infrastrukturen haben auf Grund ihrer Skalierbarkeit die idealen Voraussetzungen für die Verarbeitungen großer Datenmengen, wodurch Big Data ein idealer Anwendungsfall für Cloud Computing ist. Aber welcher Anbieter wird das Rennen um die Verarbeitung machen?

Big Data ist ein idealer Anwendungsfall für das Cloud Computing

Amazon Web Services

Ein Kandidat ist Amazon. Zum einen hat das Unternehmen auf Grund seines Kerngeschäfts, dem Web-Shop, eine große Expertise bei der Verarbeitung und Analyse großer Datenmengen aufgebaut und diese, betrachtet an der Evolution und dem Funktionsumfang der Webseite, stetig weiterentwickelt. Hinzu kommen aber auch die Amazon Web Services und der darunter liegenden massiv skalierbaren Infrastruktur, die ideal für die Verarbeitung von Big Data ist und die Unternehmen nutzen können, um dort Anwendungen für die Analyse ihrer Daten zu betreiben. Dazu stehen mit Amazon EC2, Amazon S3 und Amazon Elastic MapReduce gut miteinander zu kombinierende Services zur Verfügung. Neben dem Service AWS Import/ Export, mit dem große Datenmengen auf dem Postweg an Amazon geschickt werden können, die von Amazon dann direkt in die Cloud kopiert werden, hat sich Amazon mit der vor kurzem angekündigten Kooperation mit dem Private Cloud Infrastruktur-Software Anbieter Eucalyptus zudem eine gute Ausgangsposition geschaffen, um Unternehmen die Möglichkeit zu geben, über eine Hybrid Cloud Daten aus der Private in die Amazon Cloud übertragen zu lassen.

Google

Google hat ebenfalls viel Erfahrung bei der Verarbeitung großer Datenmengen, was u.a. auf die Indexierung des Internets und die damit verbundene Suche zurückzuführen ist – ebenfalls beides Kerngeschäfte von Google. Hinzu kommt, das Google kürzlich mit Google BigQuery einen neuen Service für Entwickler vorgestellt hat, auf dem Anwendungen entwickelt werden können, um Big Data zu verarbeiten. Dieser befindet sich aktuell aber noch in der geschlossenen Betaphase.

Anders als die Amazon Web Services scheint Google allerdings nicht so konsequent auf das Business getrimmt zu sein. Zudem wirkt Google an vielen Stellen immer noch wie ein großer Spielplatz für die eigenen Entwickler, was natürlich immer wieder gute Innovationen hervorbringt, Google sich aber bereits eingestehen musste, dass einige Services doch einfach mehr Kapital verbrennen als Nutzen ergeben. So wurde die Google App Engine anfangs stark gepushed, hat im Laufe der Zeit aber etwas an Innovation verloren.

Microsoft

Microsofts Kerngeschäft hat im Vergleich zu Amazon oder Google in erster Linie nichts mit der Verarbeitung großer Datenmengen zu tun. Dennoch steht mit Windows Azure ebenfalls eine skalierbare Infrastruktur bereit, auf der Unternehmen Big Data analysieren können.

Im Vergleich zu Google oder Amazon ist Microsoft aber bereits schon dort lange angekommen, wo die beiden erst genannten erst zielstrebig hinwollen, das Business. Microsoft sollte die Herausforderungen und Wünsche, insbesondere bei den renommierten Unternehmen, kennen und gezielt darauf eingehen können.

Erste infrastrukturelle Schritte hat Microsoft bereits mit der Unterstützung von Hadoop auf Azure unternommen und eine Agenda zeigt die weiteren Vorhaben für das Jahr 2012. So wird das Unternehmen mit Hilfe von Hortonworks und einer ODBC Schnittstelle Apache Hadoop an Microsofts Excel anbinden und so Big Data ins Büro bringen. Damit können Business Intelligence (BI) Tools einen direkten Zugang zu einem Hadoop Cluster erhalten und via Excel Pivot-Analysen durchgeführt werden.

Die Anderen

Es existieren eine Vielzahl an Unternehmen, die mit Big Data tagtäglich in ihrem Kerngeschäft konfrontiert werden. Dazu gehören bspw. ebay, Facebook, XING, LinkedIn oder auch Twitter. Allerdings bietet keines dieser genannten Unternehmen einen Public Cloud Service an, mit dem Big Data von Dritten verarbeitet werden könnte. Die Kosten für den Ausbau einer stärker skalierbaren Infrastruktur wären wohl auch zu hoch.

Allerdings sollten auch renommierte Unternehmen wie SAP, IBM oder Oracle im Bereich Big Data nicht aus den Augen gelassen werden. Die Expertise aus dem Kerngeschäft ist zweifelsohne vorhanden.


Bildquelle: https://www.emcforums2011.com, http://www.techweekeurope.es

Kategorien
Analysen

Ist IaaS die Lösung für die Herausforderungen von Big Data?

Big Data gehört zu den Trend Themen für das Jahr 2012. Immer mehr Unternehmen suchen in dem Thema Lösungen für die Verarbeitung großer Datenmengen. Dazu gehören neben dem Speichern ebenso die Analysefunktionen auf diesen Daten. Wie aber kann Infrastructure-as-a-Services dabei helfen, mit diesen Problemen umzugehen und Lösungen zu finden?

Big Data ist die größte IT-Herausforderung für Unternehmen

Oracle’s jährlicher Datacentre Index, der im Januar veröffentlicht wurde zeigt, dass Unternehmen in Europa, dem Nahen Osten und Afrika ihre Rechenzentrumsstrategien auf Grund der stetig wachsenden Datenmengen für das Jahr 2012 überdenken müssen. Zudem wird Big Data von vielen als die größte IT-Herausforderung für Unternehmen in den nächsten zwei Jahren gesehen.

Datenflut

Unsere Datenmengen steigen exponentiell. Die parallele Nutzung von Dienstleistungen wie HDTV, Radio, Video on Demand (VOD) und Security as a Service haben immer höhere Anforderungen an Netzwerk-Infrastrukturen. Die Nutzungen von Anwendungen wie Videokonferenzen und neue Kommunikationswege wie Social Media verändern sich ständig, was ebenfalls Einfluss auf die tägliche Nutzung und den Zugriff auf Daten durch Unternehmen hat. Um mit diesen wachsenden Datenmengen umzugehen, wird verstärkt auf externe Rechenzentrumsfunktionen- und kapazitäten zurückgegriffen. Welche Daten dabei wie ausgelagert werden sollten stellen die größten Herausforderungen dar.

Ein allgemeines Problem

Traditionell gehören Projekte zur Parallelverarbeitung großer Datenmengen, Data-Mining-Grids, verteilte Dateisysteme und verteilte Datenbanken zu den typischen Nutzern von Big Data. Dazu zählen die Biotech-Branche, Projekte aus der interdisziplinären wissenschaftlichen Forschung, Wettervorhersage, Regierungen und die Medizinbranche. Alle genannten Bereiche haben seit Jahren mit dem Management und der Verarbeitung großer Datenmengen zu kämpfen. Doch nun wirkt sich die Problematik auch auf weitere „normale“ Branchen aus.

Im Finanzsektor führen immer neue Regulierungen zu höheren Datenmengen und Forderungen nach besseren Analysen. Darüber hinaus sammeln Web-Portale wie Google, Yahoo und Facebook täglich eine enorme Menge an Daten die zudem noch mit den Nutzern verknüpft werden, um zu verstehen, wie der Nutzer sich auf den Seiten bewegt und verhält.

Big Data wird zu einem allgemeinem Problem. Laut Gartner könnten die Unternehmensdaten in den nächsten fünf Jahren um bis zu 650% weiter wachsen. 80% davon werden unstrukturierte Daten bzw. Big Data sein, die bereits gezeigt haben, dass sie schwer zu verwalten sind.

Zudem schätzt IDC, das ein durchschnittliches Unternehmen 50-mal mehr Informationen bis zum Jahr 2020 verwalten muss, während die Anzahl der IT-Mitarbeiter nur um 1,5% steigen wird. Eine Herausforderung, auf die Unternehmen auf eine effiziente Weise reagieren müssen wenn sie wettbewerbsfähig bleiben wollen.

Welcher Weg ist der Richtige?

Die Öl-und Gasindustrie hat dies durch den Einsatz von eher traditionellen Storage-Lösungen (SANs und NASs) gelöst. Forschungsorientierte Organisationen oder Unternehmen wie Google, die mit der Analyse von Massendaten zu tun haben, neigen eher dazu den Grid Ansatz zu verfolgen, um die nicht benötigten Ressourcen in die Software-Entwicklung zu investieren.

IaaS (Infrastructure-as-a-Service), vereint beide Welten und nimmt dadurch eine einzigartige Position ein. Für diejenigen, die das SANs/NAS Konzept verstehen, werden die Ressourcen ebenfalls nutzen können, um massiv-parallele Systeme zu entwerfen. Wobei der Grid-Ansatz wahrscheinlich besser funktioniert. Für Unternehmen denen es schwer fällt sich mit den genannten Technologien auseinanderzusetzen oder diese zu verstehen, bieten IaaS Anbieter entsprechende Lösungen, um die Komplexität der Speichertechnologien zu umgehen und sich auf die Herausforderungen des Unternehmens zu konzentrieren.

Wettbewerbsfähig bleiben

McKinsey’s Report „Big data: The next frontier for innovation, competition, and productivity“, aus dem Jahr 2011 untersucht, wie Daten zu einer wichtigen Grundlage des Wettbewerbs werden sowie ein neues Produktivitätswachstum und Innovationen schaffen.

Wenn Unternehmen heutzutage wettbewerbsfähig bleiben wollen, müssen sie sicherzustellen, dass sie über die entsprechende IT-Infrastruktur verfügen, um mit den heutigen Daten-Anforderungen umzugehen. IaaS bietet damit ein solides Konzept und Fundament, um damit erfolgreich zu bleiben.

Kosteneinsparung für die interne IT-Infrastruktur, wie Server und Netzwerkkapazitäten, Freisetzen von dadurch nicht mehr benötigtem technischem Personal, um sich somit effizienter auf das Kerngeschäft zu konzentrieren und die Flexibilität neue Lösungen, auf Grund der sich ständig veränderten Datenmengen, besser zu skalieren sind die ersten Schritte um den Anforderungen von Big Data gerecht zu werden.

IaaS Anbieter sind in der Lage auf Basis von Investitionen in ihre Infrastruktur, Big Data taugliche und freundliche Umgebungen zu entwickeln und diese zu warten, wohingegen ein einzelnes Unternehmen dafür nicht die geeigneten Ressourcen für die Skalierbarkeit bereitstellen kann und ebenfalls nicht über die notwendige Expertise verfügt.


Bildquelle: http://collaborationforgood.org, http://futurezone.at

Kategorien
Analysen

Microsoft und Amazon liefern sich Preiskampf in der Cloud

Als Anbieter mit einem großen Public Cloud Portfolio kämpft Microsoft nun nicht mehr nur mit Google, sondern liefert sich seit kurzem auch einen Preiskampf mit den Amazon Web Services. Das gute daran: die Gewinner sind die Nutzer.

Der Kampf verlagert sich in die Cloud

Nachdem Microsoft am Ende der vergangenen Woche seine Preise für Windows Azure Storage und Windows Azure Compute gesenkt hat und damit auf die Preissenkungen der Amazon Web Services, ebenfalls in der vergangenen Woche, reagiert hat, befinden sich die derzeitigen Preise für Speicherplatz und Rechenleistung aus der Cloud auf einem niedrigen Rekordniveau und befinden sich auf dem Stand hiesiger Stromtarife.

Die Frage ist, wie lange das noch so weitergehen kann, denn die Preise können im Prinzip nur weiter fallen. Betrachten wir nämlich die Tatsache, das die Stromtarife auf Erdgaspreisen, saisonalen Einflüssen und weiteren Variablen basieren, kann Cloud Computing noch günstiger werden.

Die Preisgestaltung beider Anbieter ist nicht direkt vergleichbar, da die Preise und Dienstleistungen variieren. Aber die Kernaussage dieses Wettbewerbs ist eindeutig: Die Preise werden weiter sinken.

Beispielweise kostet eine Amazon Small (Standard) On-Demand Instanz mit Linux/Unix 0,090 Dollar (ca. 0,067 EUR) pro Stunde. Eine Windows Instanz 0,115 Dollar (ca. 0,088 EUR) pro Stunde. Ich zahle derzeit ca. 0,244 EUR pro Kilowattstunde an meinen Stromanbieter.

Beide Anbieter argumentieren, dass sie ihre eigenen Einsparungen (Economies of scale) sehr gerne an ihre Kunden weiterreichen und fokussieren Entwickler, Startups, kleine Unternehmen sowie Großkunden.

Nachdem nun aber auch HP und weitere Anbieter in den Cloud Computing Markt für IaaS Ressourcen eingestiegen sind, werden die Preise noch weiter fallen.


Bildquellen: http://www.merkur-online.de, http://diepresse.com

Kategorien
News

HP präsentiert weitere Informationen zu seinen cCell Services und nennt Preise

Bei den HP cCell Services handelt es sich um ein neues Cloud-Modell, das HP nun auf den deutschen Markt gebracht hat.

Damit können Kunden erstmals wählen, von welchem Betriebsort sie kommerzielle Cloud-Dienste beziehen möchten: aus dem eigenen Rechenzentrum, von einem regionalen IT-Partner oder aus den HP-Rechenzentren in Frankfurt. Eine zentrale Makler-Plattform sorgt für die Verwaltung und Verteilung der Cloud-Dienste, die von HP und einem Ökosystem an System- und Softwarehäusern bereitgestellt werden. Endkunden können mit diesem Angebot den Standort und den Modus des Cloud-Betriebs an ihre technischen, geschäftlichen und regulatorischen Anforderungen anpassen. HP-Partner erhalten die Möglichkeit, schnell und ohne größere Investitionen ein eigenes Cloud-Angebot aufzubauen.

Als erster HP cCell Service ist ab sofort Infrastructure as a Service (IaaS) verfügbar (Serverleistung, Speicher und Backup). HP wird bis Mitte des Jahres 2012 weitere cCell Services für SAP-Betrieb, Exchange, Sharepoint, Webserver und Datenbanken auf den Markt bringen. Die Software AG hat angekündigt, ihr Portfolio Software AG Cloud-Ready für HP cCell Services zu zertifizieren. Die neue Bereitstellungsoption auf HP cCell Services wird Mitte 2012 verfügbar sein. Software-as-a-Service-Lösungen von Intershop und Seeburger werden im zweiten Kalenderquartal auf der cCell-Plattform verfügbar sein. Die Janz IT AG wird auf der Grundlage von HP cCell Services ihr Angebot „Mittelstandscloud.de“ weiter ausbauen.

Über ein spezielles Cloud-Partnerprogramm (HP Preferred Cloud Partner Program) qualifiziert und unterstützt HP IT-Anbieter, die auf der Grundlage des cCells-Modells eigene Cloud-Angebote aufbauen wollen.

Kunden bezahlen für die HP cCell Services eine Nutzungsgebühr pro Tag. Abgesehen von einer einmaligen Installationspauschale fallen keine Investitionen an. Die Tagespreise pro Dienst variieren je nach gewähltem Service Level. Bestellte Services sind innerhalb von einer Stunde oder schneller verfügbar. HP cCell Services sind Teil des Portfolios HP Enterprise Cloud Services und zunächst für den deutschen Markt verfügbar.

Die Höhe der Kosten beträgt je nach Modell für die Nutzung der Virtual Private Cloud 3,80 EUR pro Tag für eine Maschine von der Kategorie „Small“ plus der einmaligen Installationspauschale von 9.842,00 EUR. Für eine Private Cloud werden 4,30 EUR pro Tag für eine Maschine von der Kategorie „Small“ plus der einmaligen Installationspauschale von 17.954 EUR berechnet. Die Virtual Private Cloud ist zudem nicht abhängig von einer Mindestvolumennutzung, wo hingegen bei der Private Cloud eine Nutzung von 25% bis 35% Systemauslastung erwartet wird. In der Installationspauschale sind u.a. Workshops Beratung und Integrationshilfen enthalten.

Bei den Service Level werden drei Kategorien 0 bis 2 unterschieden. Wobei hier zwischen dem direkten Hosting in einem HP Rechenzentrum bzw. dem Hosting in einem HP Rechenzentrum oder bei einem Partner unterschieden wird. Die Servicelevel Qualität unterscheidet sich hier jedoch nicht. Beim SLA0 bzw. SLA1 werden jeweils 99,0% (0) bzw. 99,5% (1) angegeben. Den einzigen unterschied macht das SLA Level 2. Hier wird eine garantierte Verfügbarkeit von 99,9% in einem HP Rechenzentrum garantiert. Beim Hosting der Cloud in einem Partner Rechenzentrum werden keine Angaben gemacht, da je nach Projekt und Situation entschieden werden soll.

Kategorien
Analysen

Amazon Web Services vs. Microsoft Windows Azure – Ein direkter Vergleich

Viele Unternehmen befinden sich derzeit in der Evaluation von Public Cloud Services wie IaaS. Die ersten Gedanken streifen dann die beiden großen und vermeintlich bekanntesten Anbieter in der Szene – die Amazon Web Services und Microsoft Windows Azure.

Beide verfügen mittlerweile über ein sehr umfangreiches und stetig wachsendes Angebot an Cloud Services. Möchte man beide Portfolios jedoch miteinander vergleichen steigen die Herausforderungen mit der Anzahl der Services.

Amazon Cloud vs. Windows Azure

Die folgende Tabelle stellt das Cloud Service Portfolio 1:1 gegenüber und schafft Klarheit, wer in welchem Bereich was anbietet, wie der Name des jeweiligen Service lautet und unter welcher URL weitere Informationen zu diesem zu finden sind.

Funktion

Amazon Web Services

Microsoft Windows Azure

Rechenleistung

Virtuelle Maschinen Elastic Compute Cloud Role Instances
High Performance Computing Cluster Compute Instances HPC Scheduler
MapReduce Elastic Map Reduce Hadoop on Azure
Dynamische Skalierung Auto Scaling Auto Scaling Application Block

Speicher

Unstrukturierter Speicher Simple Storage Service Azure Blob
Flexible Entities SimpleDB Azure Tables
Block Level Storage Elastic Block Store Azure Drive
Archivierung Amazon Glacier
Stroage Gateway AWS Storage Gateway

Datenbanken

RDBMS Relational Database Service SQL Azure
NoSQL DynamoDB Azure Tables

Caching

CDN CloudFront CDN
In-Memory ElastiCache Cache

Netzwerk

Load Balancer Elastic Load Balancer Fabric Controller / Traffic Manager
Hybrid Cloud Virtual Private Cloud Azure Connect
Peering Direct Connect
DNS Route 53

Messaging & Anwendungen

Async Messaging Simple Queue Service Azure Queues
Push Notifications Simple Notification Service Service Bus
Bulk Email Simple Email Service
Workflows Amazon Simple Workflow Service
Suche Amazon CloudSearch

Monitoring

Ressourcen Monitoring CloudWatch System Center

Sicherheit

Identitätsmanagement Identity Access Management Azure Active Directory

Deployment

Ressourcenerstellung CloudFormation
Web Application Container Elastic Beanstalk Web Role
Kategorien
Grundlagen

Servicearten des Cloud Computing (Redux)

Im Cloud Computing existieren grundsätzlich drei verschiedene Arten Dienstleistungen bereitzustellen. Da diese aufeinander aufbauen, wird in diesem Zusammenhang auch von Schichten gesprochen. Anhand dieses Drei-Schichten Modells ergeben sich Möglichkeiten neue Geschäftsmodelle zu entwickeln.

Infrastructure-as-a-Service

Infrastructure-as-a-Service (IaaS) bildet die unterste Schicht des Cloud Computing Service-Modells. Sie ist die Grundlage und stellt die grundlegenden Dienste wie Speicherplatz und Rechenkapazität bereit. Hier wird die Basis-Infrastuktur wie Hardware für Server, Speicherplatz aber auch Router und Switches – mittels Virtualisierung – bereitgestellt. Die gesamte Infrastruktur ist so skaliert, dass sie in Zeiten von Spitzenlast dynamisch erweitert wird und somit unterschiedlichen Auslastungen angepasst werden kann. Bei IaaS ist der Drittanbieter lediglich für die Bereitstellung und Wartung der Hardware zuständig. Alle anderen benötigten Ressourcen wie z.B. das Betriebssystem, Anwendungen etc. obliegen dem Kunden.

Platform-as-a-Service

Platform-as-a-Service (PaaS) bildet die mittlere Schicht des Cloud Computing Service-Models und ist dafür zuständig, eine transparente Entwicklungsumgebung bereitzustellen. Dabei stellt der Drittanbieter eine Plattform zur Verfügung, auf der (Web)-Anwendungen entwickelt, getestet und gehostet werden können. Die Applikationen werden anschließend auf der Infrastruktur des Anbieters ausgeführt und nutzen dessen Ressourcen. Der vollständige Lebenszyklus einer Anwendung kann darüber vollständig verwaltet werden. Über APIs können die Dienste auf der Plattform des jeweiligen Anbieters angesprochen werden. Der Vorteil besteht darin, dass vor allem kleine Unternehmen ihre Entwicklungsinfrastruktur auf ein Minimum beschränken können. Sie benötigen lediglich einen Desktop-PC, einen Web-Browser, evtl. eine lokale IDE, eine Internetverbindung und ihr Wissen, um Anwendungen zu entwickeln. Der Rest obliegt dem Drittanbieter, der für die Infrastruktur (Betriebssystem, Webserver, Entwicklungsumgebung etc.) verantwortlich ist.

Software-as-a-Service

Software-as-a-Service (SaaS) ist die oberste Schicht des Cloud Computing Service-Modells. Sie stellt dem Anwender vollständige Anwendungen bereit. Dadurch kann sie als eine Art Distributionsmodell verstanden werden, bei dem die Nutzung von Software über das Internet von einem Drittanbieter angeboten wird. Der Drittanbieter übernimmt dabei u.a. Hosting und die Wartung der Software. Für den Anbieter besteht der Vorteil darin, dass nur eine Instanz einer Software auf den Servern bereitgestellt werden muss, welche unzählige Anwender gleichzeitig nutzen können. Wird die Software auf einen aktuellen Stand gebracht, genügt ein Update Vorgang an zentraler Stelle und die Software ist für alle Anwender gleichzeitig aktuallisiert. Der Vorteil für den Anwender besteht darin, dass lediglich – wie schon bei PaaS – nur ein Desktop-PC, ein Web-Browser und eine Internetverbindung ausreichen um z.B. Dienste wie E-Mail, Office Anwendungen oder sogar ERP-Systeme nutzen zu können. Die Anschaffung und Wartung großer Serverlandschaften bzw. Softwarepakete entfällt ebenso wie das Updaten der lokalen Anwendungen. Der Drittanbieter sorgt immer für einen aktuellen Stand der Software und stellt die gesamte Infrastruktur für das Hosting der Software bereit. Dazu gehören auch das Speichern von Dateien (Dokumenten) auf den Servern des Anbieters. Der Anbieter ist demnach für alle notwendigen Bereiche des Betriebs wie Verfügbarkeit, Backup, Redundanzen und auch die Stromversorgung verantwortlich.

Kategorien
Management

Cloud Computing ist die Chance für Unternehmen ihre Insellösungen aufzuräumen

Es gibt viele Anwendungsbereiche, mit denen Cloud Computing einem Unternehmen helfen kann agiler, effizienter, kostentransparenter usw. zu arbeiten und sich gegenüber dem Mitbewerb den einen oder anderen Vorteil zu verschaffen. Dafür stehen mit Cloud Services à la SaaS, PaaS und IaaS bereits viele interessante Lösungen bereit.

Für die reinen Cloud Computing Nutzer muss daher zunächst exakt evaluiert werden, wo Cloud Computing tatsächlich helfen kann. Heißt also sich einen Marktüberblick zu verschaffen und schauen: Was gibt es, was kann ich für mich gebrauchen und inwieweit ist der Service kompatible und integrierbar. Denn es gibt durchaus Bereiche, wo Cloud Computing keinen Sinn macht. Die gesamte Infrastruktur per IaaS in die Cloud zu verlagern kann so bereits das Ende bedeuten – nicht technischer, aber finanzieller Natur. Also, nicht alles macht Sinn, aber es gibt dennoch viele Bereiche wo Cloud Computing wirklich nützlich ist. Nehmen wir SaaS oder PaaS. Office Anwendungen und CRM Systeme werden von jedem Berater als erstes genannt. Logisch, ist auch einfach zu identifizieren und sehr naheliegend. 😉 PaaS Angebote sind ebenfalls sehr attraktiv. Speziell wenn bspw. mal kurz eine cloudfähige PHP oder Java Anwendung getestet werden soll oder ein Startup seine Ideen kostengünstig umsetzen möchte.

Schwieriger wird es allerdings, wenn mehr als nur Office und CRM in die Cloud bewegt werden sollen. Viele Unternehmen sind mit proprietären Eigenentwicklungen unterwegs die für die Cloud neu entwickelt werden müssen oder die einzelnen Systeme sind so ineinander integriert, dass der Aufwand einfach zu hoch wäre. Vielleicht haben an dieser Stelle genau die Unternehmen den entscheidenden Vorteil, die noch über eine große Anzahl von Insellösungen (einzelne Systeme die z.B. nicht kompatible zueinander sind) verfügen. Insellösungen sind von Beratern grundsätzlich verpönt und führen zu ein enormes Maß an Beratungsbedarf und $$$! 😉 Bitte nicht falsch verstehen! Ich bin ebenso der Ansicht, dass IT-Systeme nur dann harmonisch miteinander zusammenarbeiten, wenn die Schnittstellen klar definiert und eine vollständige Integration vorgenommen wurde.

Dennoch: Unternehmen mit Insellösungen haben es nun einfacher ein Einzelsystem dieser Insellösung gegen einen Cloud Service auszutauschen, um darüber sukzessive ein vollständig integriertes (Gesamt)-System von mehreren Cloud Services zu erhalten.

Kategorien
News

T-Systems geht in die Cloud

Mit einer kostenlosen Testphase für bereits vorhandene Unternehmenskunden startet nun auch T-Systems als ein großes deutsches Unternehmen mit einem Infrastructure as a Service Angebot in die Cloud. Die Pilotphase beginnt noch im November 2010 und wird im Februar 2011 enden.

Mit diesem Angebot wird T-Systems in direkter Konkurrenz zu den Amazon Web Services stehen. Das könnte Erfolg versprechend sein, wird alleine die finanzielle Kraft von T-Systems betrachtet.

T-Systems stützt sich vor allem auf die oft diskutierten Bereiche Zugriffskontrolle, Datenschutz und Datensicherheit, sowie die Service Level Agreements (SLAs). Alles im Hinblick auf eine höchstmögliche Skalierbarkeit.

Alle Rechenzentren und damit sämtliche Daten des Kunden werden sich in Deutschland befinden und nach der ISO Sicherheitsnorm 27001 zertifiziert und können darüber hinaus ebenfalls von den Kunden selbst auditiert werden.

Kategorien
Services Tutorials

Erste Schritte mit der domainFACTORY “JiffyBox”

Nach der Vorstellung und weiteren Hintergrundinformationen zur domainFACTORY “JiffyBox”, gibt dieses Tutorial einen Einblick in das Innere. Dazu habe ich von der domainFACTORY GmbH einen kostenlosen Testzugang erhalten, für den ich mich auf diesem Wege bedanken möchte!

Erstellen einer JiffyBox

Zunächst melden wir uns dazu unter https://admin.jiffybox.de mit einem gültigen Benutzernamen und Passwort an, die wir unter https://www.jiffybox.de beantragen können.

Nach einer erfolgreichen Anmeldung werden wir im Control Panel begrüßt, wo wir im ersten Schritt mittels „Jetzt Trial-Server bestellen“ einen kostenlosen Test der JiffyBox vornehmen können oder uns über „Neue JiffyBox erstellen“ eine neue JiffyBox erzeugen. Wir wählen hier den zweiten Schritt.

Wir geben der neuen JiffyBox einen Namen, wählen einen Tarif, hier „CloudLevel 1 – mit 1 GB Arbeitsspeicher und 50 GB Festplatte für 0,02 € / Stunde“ und eine Linux Distribution, hier „Ubuntu 10.04 LTS“. Würden wir bereits über eine JiffyBox verfügen, hätten wir als Distribution ebenfalls ein Backup als Quelle angeben können.

Unter dem Punkt „Erweitert“ können wir der JiffyBox ein selbst gewähltes Root Passwort zuweisen. Anschließend wählen wir „Erstellen“.

Die JiffyBox wird nun automatisch im Hintergrund erzeugt. Statusinformationen zeigen dabei den aktuellen Vorgang!

Zurück im „Control Panel“ sehen wir die erzeugte JiffyBox und können nun mittels „Konfigurieren“ weitere Einstellungen vornehmen, die JiffyBox „Starten“, „Einfrieren“ oder wieder vollständig „Löschen“.

Hinter dem Menüpunkt „Voreinstellungen“ verbirgt sich das Schlüsselmanagement, wo wir mehrere SSH-Public-Keys eintragen können.

Über den Punkt „Alle Meldungen“ gelangen wir in den Statusbereich. Hier erhalten wir detailliert alle Informationen zu allen Vorgängen innerhalb unseres Accounts.

Weitere Informationen

Über den Menüpunkt „Account“ gelangen wir direkt zu den Stammdaten.

Weiterhin können wir über „Kundenservice“ direkt elektronischen Kontakt zu dem domainFACTORY Support aufnehmen und erhalten einen historischen Überblick über alle bisherigen Anfragen.

Wir können zusätzlich über den Menüpunkt „Passwörter“, unsere Passwörter für das JiffyBox Control Panel und dem Telefon Support eigenständig ändern. Zudem erhalten wir einen Überblick über alle bisher gestellten Rechnungen durch domainFACTORY über den Punkt „Rechnungen“.

Der Menüpunkt „Verbräuche“ gibt einen genauen Überblick zu den bisher entstandenen Kosten zu allen JiffyBoxen und dem verbrauchten Traffic.

Weiterhin erhalten wir einen detaillierten Überblick über die Nutzung jeder einzelnen, in unserem Account vorhandenen, JiffyBox.

Sowie vom derzeit verbrauchten Traffic.

Ein weiteres interessantes Feature ist die Möglichkeit zur Begrenzung der Kosten. Hier kann ein Betrag (in EUR) als Obergrenze eingetragen werden und die Folgeaktion, die stattfinden soll, wenn der Betrag erreicht wird.

Um die JiffyBox über Skripte zu steuern, haben wir über den Menüpunkt „API-Zugriff“ die Möglichkeit, einen API-Token zu erzeugen. Weitere Informationen für die Nutzung der API sind in der PDF-Datei „JiffyBox-API“ zu finden.

Arbeiten mit der JiffyBox

Zurück im Control Panel wollen wir nun ein Blick hinter die Konfigurationsmöglichkeiten einer JiffyBox werfen. Wie wir sehen werden, stehen uns dazu viele Möglichkeiten zur Verfügung. Wir wählen dazu unter „Ihre JiffyBoxen“ die Aktion „Konfigurieren“.

Wir erhalten zunächst einen Überblick zu allen notwendigen Informationen, wie der aktuellen IP-Adresse und dem aktuellen Hostnamen, dem genutzten Tarif, dem verfügbaren Arbeitsspeicher und der Festplattengröße, sowie der für diese JiffyBox verwendeten Linux Distribution.

Über „Profile und Festplatten“ können wir weitere Konfigurationen am System, der Festplattengröße und deren Zuordnung vornehmen.

Hinter „Netzwerk“ verbergen sich weitere Informationen zu den IP und DNS Informationen. Hier haben wir die Möglichkeit den „Reverse-DNS“ Namen zu ändern und eine weitere IP-Adresse zu bestellen.

Von jeder JiffyBox werden automatisch tägliche Backups erstellt. Dennoch haben wir die Option über den Menüpunkt „Backups“ ein manuelles Backup zu starten, bzw. eigene Backup Pläne zu erstellen.

Über „Konsole und Recovery“ steht uns der Zugriff mittels einer Web-Konsole und per SSH-Konsole zur Verfügung. Weiterhin kann ein Recovery-System aktiviert werden, um die JiffyBox im Notfallmodus zu starten.

Um die JiffyBox nun zu nutzen, wählen wir im Control Panel unter „Ihre JiffyBoxen“ lediglich „Starten“.

Mittels eines SSH-Clients, hier Putty, verbinden wir uns mit der JiffyBox. Die dazu benötigte IP-Adresse bzw. den DNS-Namen erhalten wir unter dem Menüpunkt „Netzwerk“ in dem Konfigurationsbereich der JiffyBox.

Anschließend melden wir uns mit dem Benutzer „root“ und dem von uns bei dem Erstellen der JiffyBox unter „Erweitert“ gewählten Passwort an.

Damit sind wir mit unserer ersten eigenen JiffyBox verbunden.

Um die JiffyBox wieder zu beenden, wählen wir im Control Panel für die entsprechende JiffyBox „Stoppen“.

Und dann „Herunterfahren“.

Die JiffyBox wird anschließend automatisch heruntergefahren. Eine Statusmeldung informiert uns über den erfolgreichen Vorgang.

Die JiffyBox kann anschließend wieder angepasst, gestartet, eingefriert oder gelöscht werden.

Die Verbrauchsanzeige informiert uns darüber, dass für eine Gesamtdauer von 1:33:36 Stunden bisher 0,03 EUR entstanden sind.

Kategorien
Grundlagen Services

Das Konzept hinter den AWS Regionen und Verfügbarkeitszonen

Amazon EC2 bietet die Möglichkeit, Instanzen über mehrere Standorte zu verteilen. Dabei sind die Standorte in Verfügbarkeitszonen (Availability Zones) und Regionen aufgeteilt. Die Regionen sind verstreut und befinden sich in getrennten geographischen Gebieten wie den USA und Europa. Verfügbarkeitszonen sind verschiedene Standorte innerhalb einer Region, die so konstruiert sind, dass sie isoliert betrieben werden und von Fehlern in anderen Verfügbarkeitszonen nicht betroffen sind. Dazu bieten sie eine kostengünstige Konnektivität mit einer geringen Netzwerklatenz zu anderen Verfügbarkeitszonen in der gleichen Region.

Durch das Starten von Instanzen in separaten Regionen, können Web Anwendungen so konstruiert werden, dass sich diese geographisch in der Nähe von bestimmten Kunden befinden und rechtlichen oder anderen Anforderungen gerecht werden.

Weiterhin werden Anwendungen vor dem Ausfall eines einzelnen Standorts geschützt, indem Instanzen in separaten Verfügbarkeitszonen ausgeführt werden.

Die folgende Graphik zeigt eine Darstellung der Amazon EC2 Regionen und Verfügbarkeitszonen. Jede Region ist völlig unabhängig. Jede Verfügbarkeitszone ist vollständig isoliert, aber durch Netzwerkverbindungen mit einer geringen Latenz mit anderen Verfügbarkeitszonen verbunden.

Regionen

Amazon EC2 verfügt über mehrere Regionen, wodurch EC2 Instanzen an den Standorten ausgeführt werden können, die den eigenen Anforderungen entsprechen. Um z.B. als nicht europäisches Unternehmen Kunden in Europa Dienstleistungen anzubieten und zudem den dort gesetzlichen Anforderungen gerecht zu werden, können die EC2 Instanzen in einer Verfügbarkeitszone der Region Europa ausgeführt werden.

Jede Amazon EC2 Region ist so konstruiert, dass sie vollständig isoliert von allen anderen Amazon EC2 Regionen betrieben wird. Damit wird die größtmögliche Unabhängigkeit und Stabilität erzielt und macht den Ort einer jeden EC2 Ressource eindeutig.

Um Instanzen zu starten oder mit diesen zu arbeiten, muss zunächst die korrekte URL eines Endpunkts einer Region definiert werden. Soll z.B. eine Instanz in der Region US-East (Standard Region) betrieben werden, wird als Endpunkt URL ec2.us-east-1.amazonaws.com verwendet.

In der folgenden Tabelle sind alle Regionen mit ihren zugehörigen Endpunkten dargestellt.

Region Endpoint
US-East (Northern Virginia) Region ec2.us-east-1.amazonaws.com
US-West (Northern California) Region ec2.us-west-1.amazonaws.com
EU (Ireland) Region ec2.eu-west-1.amazonaws.com
Asia Pacific (Singapore) Region ec2.ap-southeast-1.amazonaws.com

Verfügbarkeitszonen

Fehler können auftreten, die Auswirkungen auf die Verfügbarkeit von Instanzen haben, die sich an dem gleichen Standort befinden. Auch wenn das ziemlich selten vorkommt – wenn alle Amazon EC2 Instanzen an einem einzigen Standort gehostet werden, der von einer Störung betroffen ist, sind diese Instanzen nicht mehr verfügbar.

Sind z.B. Instanzen über drei Verfügbarkeitszonen verteilt und eine dieser Instanzen fällt aus, kann eine Anwendung zu konzipiert werden, dass die Instanzen in den übrigen Verfügbarkeitszonen die Anfragen automatisch entgegennehmen und verarbeiten.

Quelle