Kategorien
News

VMware erweitert sein Cloud-Management mit Updates für die VMware vCloud Suite

Zum Start der VMworld Europe 2012 präsentiert VMware ein Update seines Cloud Management-Portfolios, das eine Optimierung der Management-Produkte der kürzlich eingeführten VMware vCloud Suite umfasst. Mit dem VMware vCloud Automation Center 5.1 stellt VMware einen Neuzugang in der Suite vor. Ziel ist es, das Management in physischen, virtuellen und Cloud-Umgebungen weiter zu vereinfachen und zu automatisieren und der IT gleichzeitig die Steuerung multipler, heterogener Clouds zu ermöglichen.

VMware erweitert sein Cloud-Management mit Updates für die VMware vCloud Suite

Private und Hybrid Cloud stehen im Mittelpunkt

Die VMware Cloud-Management-Lösungen unterstützen softwaredefinierte Rechenzentren und eröffnen den Kunden die Effizienz und Flexibilität des Cloud Computings. VMwares Ansatz in Sachen Management hybrider und heterogener Clouds zielt auf drei kritische Bereiche ab:

  • Cloud Service Provisioning: Automatisierung der Bereitstellung und Regulierung von Infrastrukturen, Anwendungen und Desktops als Service – abgestimmt auf die jeweiligen Unternehmens- und IT-Richtlinien.
  • Cloud Operations Management: Nutzung umfassender Analysen und Informationen um Leistung, Compliance und Effizienz von Cloud-Infrastrukturen zu gewährleisten.
  • Cloud Business Management: Management und Regulierung von Cloud Services als kritischen Faktor, wenn IT zur Unterstützung des Geschäftes betrieben wird.

Optimierung von Service Provisioning und Operations Management der VMware vCloud Suite

Die im August 2012 eingeführte VMware vCloud Suite vereint alle Komponenten, die Kunden benötigen um Cloud-Infrastrukturen aufzubauen, zu betreiben und zu verwalten. VMware präsentiert heute weiterentwickelte und neue Management-Komponenten in der VMware vCloud Suite:

vCloud Automation Center 5.1 – Multi-Cloud Infrastrukturen und Desktop Provisioning

Das VMware vCloud Automation Center 5.1, ein Neuzugang in der VMware vCloud Suite, unterstützt Kunden dabei, die Bereitstellung von IT-Services besser zu steuern. Es basiert auf DynamicOps, das im July 2012 von VMware übernommen wurde, fungiert als Service-Regulator und ermöglicht eine richtlinienbasierte Bereitstellung über VMware-basierte private und öffentliche Clouds, physische Infrastrukturen, multiple Hypervisoren und Amazon Web Services hinweg. Über ein Self-Service-Portal – im Grunde eine Cloud-übergreifende Konsole – erlaubt das vCloud Automation Center autorisierten Administratoren, Entwicklern oder geschäftlichen Nutzern neue IT-Services anzufordern oder bestehende Ressourcen zu verwalten. VMware vCloud Automation Center 5.1 fügt sich in den VMware vCloud Director ein und gibt dem Kunden die Möglichkeit virtuelle Rechenzentren zu nutzen, die Software-defined Services der VMware vCloud Suite umfassen. vCloud Automation Center 5.1 fügt sich zudem in den vCenter Orchestrator ein und automatisiert IT-Prozessabläufe von VMware und kundenspezifisch bereits existierende Management-Tools und -Prozesse.

vFabric Application Director 5.0 – Bereitstellen von Anwendungen in jeder Cloud

Mit dem vFabric Application Director kann die Art und Weise wie Kunden mehrschichtige Anwendungen in verschiedenen Clouds entwickeln und anwenden, standardisiert und beschleunigt werden. Dies erfolgt durch so genannte „easy-to-create“-Blueprints mit standardisierten, im Voraus genehmigten Betriebssystem- und Middleware-Komponenten. Obwohl der vFabric Application Director 5.0 für VMware vCloud Suite-basierte Clouds optimiert ist, wird es Kunden ermöglicht, die gleichen Blueprints zu verwenden um Anwendungen über verschiedene virtuelle und hybride Cloud-Infrastrukturen hinweg zu nutzen, einschließlich Amazon EC2. Mit dieser Version erweitert VMware die vFabirc Applikation Director Anwendungensunterstützung sowohl durch alle Microsoft-packaged Applikationen (Exchange, SQL Server, SharePoint), also auch Kunden-spezifische Anwendungen (Java, .Net, Ruby on Rails). Der VMware vFabric Application Director hilft zudem fortlaufende Wartungsarbeiten von Applikationen wie Konfigurationen zu vereinfachen und unterstützt die automatische Skalierung von Anwendungen als Antwort auf sich ändernde Geschäftsanforderungen.

vCenter Operations Management Suite 5.6 – eingebettete, integrierte Verwaltung des Cloud-Betriebs

Die vCenter Operations Management Suite setzt patentierte Analyse-Methoden für integrierte Leistungs-, Kapazitäts- und Konfigurations-Verwaltung ein. Kunden erhalten so Wissen, wie sie proaktiv Service Levels in Hybrid Cloud-Umgebungen ermöglichen können. Die VMware vCenter Operations Management Suite kann operative Einsparungen verdoppeln, die Kunden durch VMware vSphere erhalten. Mit dieser Version der VMware vCenter Operations Mangement Suite wird die Leistungs-Verwaltungs-Funktionen in jeder vSphere Version beinhaltet sein. Verbesserungen in der vCenter Operations Suite 5.6 führen VMwares Strategie verschiedene Verwaltungsbereiche zu verbinden und neue Blicke auf Compliance durch das Operations Dashboard zu ermöglichen. Dies hilft Kunden Compliance proaktiv mit IT-Richtlinien, Sicherheitsleitfäden und regulatorischen Rahmenbedingungen durchzusetzen. Neue anpassbare, gruppen-basierte Ansichten ermöglichen einen IT-Betrieb, der enger auf die Unternehmensziele ausgerichtet ist. VMware vCenter Operations Management Suite 5.6 enthält zudem VMware vFabric Hyperic Applicationlevel Monitoring, um Kunden die proaktive Verwaltung geschäftskritische Anwendungen zu ermöglichen, einschließlich Microsoft SQL Server, Exchange, SharePoint, Windows OS sowie Oracle-Datenbanken und Java-Applikationen.

vCloud Connector 2.0 – Hybrid Cloud Portabilität

Der VMware vCloud Connector dient als Brücke für den Transfer von VMs und Anwendungen über vSphere und vCloud Director Private Cloud-Umgebungen als auch in Public Clouds von VMware vCloud Service Providern. Die Verbesserungen in vCloud Connector 2.0 helfen sowohl Netzwerk- als auch Workload-Kataloge über hybride Cloud-Umgebungen zu erweitern, ohne die Netzwerke oder Einstellungen neu konfigurieren zu müssen, wenn Workloads verschoben werden. Die logischen Grenzen von Rechenzentren können so praktisch erweitert werden. Örtlich verteilten Teams bietet der vCloud Connector die Möglichkeit, ihre Entwicklungensaufwände zu koordinieren, indem jedes Mitglied einen eigenen synchronisierten Workload-Katalog erhält, der die gesamte Cloud-Umgebung umfasst.

Kategorien
News

BT: Höhere Cloud Performance für die Life-Science-Branche

Der Netzwerk- und IT-Dienstleister BT und die Aspera Inc., Anbieter von Lösungen für Hochgeschwindigkeits-Datenübertragung, werden in Zukunft kooperieren und Asperas Datentransfer-Technologie in „BT for Life Sciences R&D“ integrieren. Dieser speziell für die Pharma Industrie entwickelte Cloud-Service ermöglicht die übergreifende Zusammenarbeit und soll helfen, die Produktivität bei Forschung und Entwicklung zu steigern.

Big Data in der Life-Science-Branche

Unternehmen aus der Life-Science-Branche müssen derzeit eine gewaltige Datenflut, die bei ihren Versuchsreihen entsteht, in den Griff bekommen. Sie müssen diese Datenmengen optimieren, managen, übertragen, speichern und sichern. Um den Datenfluss zu verbessern, nutzt BT for Life Sciences R&D Connect das globale Netzwerk von BT und verwendet künftig fasp von Aspera, eine Technologie für den Hochgeschwindigkeitstransfer. Diese ermöglicht die sichere, berechenbare und skalierbare Übermittlung ungeachtet der Datenmenge, der Entfernung zwischen den Endpunkten sowie den Netzwerkbedingungen.

fasp-Protokoll ersetzt herkömmliche Transfertechnologien

Das fasp-Protokoll von Aspera soll, nach eigenen Angaben, die üblichen Engpässe herkömmlicher Transfertechnologien beseitigen. Es bietet einen schnellen und zuverlässigen Ende-zu-Ende-Transport über öffentliche und private Netzwerke, nutzt dabei die verfügbare Bandbreite voll aus, ist unabhängig von Netzwerkverzögerungen und funktioniert auch bei starkem Paketverlust. Die Aspera-Software, die auf dem Protokoll aufbaut, ermöglicht Datenübertragungen, die bis zu 1.000 Mal schneller als die herkömmlicher Technologien sein sollen. Angewendet wird sie über eine Benutzeroberfläche, die ein grafisches Monitoring in Echtzeit, Anzeige der Bandbreitennutzung sowie Zugriffskontrolle ermöglicht. Für Sicherheit wird durch eine Authentifizierung, Datenverschlüsselung und eine Überprüfung der Datenintegrität gesorgt.


Bildquelle: http://www.semcon.com

Kategorien
Management

Die sieben häufigsten Fehler im SLA-Management

Die Experten für softwaregestütztes Business-Service-Management von der fusionPOINT GmbH haben die sieben häufigsten Fehler im Management von Service-Level-Agreements (SLAs) ausfindig gemacht. Ein Hauptgrund ist das sehr geringe Bewusstsein für das Thema innerhalb des Unternehmens. Denn die Schnittstellen zwischen dem Business und den IT SLAs müssen aktiv gesteuert und kontrolliert werden.

Fehler Nr. 1

Anbieter und Kunde vereinbaren keine SLAs.
Auf beiden Seiten herrschen in diesem Fall nur vage Vorstellungen darüber, welche Leistung eingekauft und welche geliefert wird. Da der Kunde ohnehin 100 Prozent möchte und der Lieferant nur das liefern kann, was seine Infrastruktur hergibt, sind Unstimmigkeiten vorprogrammiert, sobald der Kunde mit einer Leistung unzufrieden ist.

Fehler Nr. 2

Es gibt SLAs, aber diese sind beim Kunden und beim Anbieter nicht ausreichend kommuniziert.
Trotz schriftlicher Vereinbarungen sind die Details der zu erbringenden Leistung den betroffenen Personen häufig nicht bekannt oder wurden im Vorfeld nicht mit ihnen abgestimmt. In der Konsequenz ist es dann nur Zufall, wenn das geleistet wird, was der Kunde erwartet.

Fehler Nr. 3

SLAs enthalten schwammige Begriffe wie maximale Kundenzufriedenheit oder höchste Verfügbarkeit.
Kein Unternehmen wird jedoch Positionen wie „1 mal maximale Kundenzufriedenheit“ auf einem Lieferschein aufführen. SLAs müssen für beide Seiten zweifelsfrei messbar sein. In einem Reporting lässt sich dann automatisiert dokumentieren, wie die Leistungserbringung konkret aussah. Schwachstellen in der Leistungserbringung können so schnell aufgespürt und beseitigt werden.

Fehler Nr. 4

Es gibt SLAs mit messbaren Werten – aber niemand hält sich dran.
Häufig ist sich der Kunde trotz schriftlich fixierter Werten nicht bewusst, dass er keine 100 Prozent abgeschlossen hat oder nicht bereit, eine Mehrleistung zu honorieren. Umgekehrt ist der Lieferant nicht bereit, ein Servicedesign zur Erreichung der spezifischen SLAs zu machen und hierfür zu investieren. Auch hier muss die vereinbarte Leistung in beiden Unternehmen klar und transparent kommuniziert werden.

Fehler Nr. 5

SLAs werden von der Leistungsfähigkeit der IT nach oben zusammengebaut.
Hier stimmt der Ansatz nicht. Ein Business-SLA muss immer vom Geschäftsprozess des Kunden top-down abgeleitet werden. Es wird oft nicht gefragt „Was wird gebraucht?“, sondern „Was kann geleistet werden?“ Will ein Dienstleister seine Kunden zufrieden stellen, muss er die Kundenorientierung in den Vordergrund stellen.

Fehler Nr. 6

Das SLA-Management beim Anbieter erfordert zu viele manuelle Tätigkeiten.
Was nicht automatisiert ablaufen kann, benötigt zu viel Zeit und ist fehleranfällig. Das Reporting zum Kunden ist stets nachträglich und somit nur als Vergangenheitsbewältigung möglich. Eine aktive Steuerung der SLAs ist wichtig, um die eigene Leistung auf einem hohen Niveau zu halten und Verlässlichkeit zu demonstrieren. Auch die Risikominimierung und die Vermeidung von Pönalen wird hiermit gesteuert.

Fehler Nr. 7

Leistung wird nicht kundenbezogen kontrolliert, sondern nur bezogen auf die internen Leistungseinheiten.
Mit diesem Ansatz kann einiges schieflaufen. So kann es beispielsweise vorkommen, dass die geforderte Verfügbarkeit einer Leistungseinheit von x Prozent über alle Kunden eingehalten wurde und damit im grünen Bereich ist. Sind die Ausfälle aber ungleichmäßig verteilt, schreiben manche Kunden bereits die Rechnungen über Pönalen. Wichtig ist daher, auf SLA-Ebene zu managen und für jeden Kunden die spezifizierten Leistungen sicher zu stellen.


Bildquelle: http://auditagency.com.ua

Kategorien
News

Quantum präsentiert neues Cloud-Backup und Disaster Recovery für Unternehmen

Quantum hat mit der Q-Cloud einen neuen Cloud-basierten Backup-und Disaster Recovery (DR) Service angekündigt, der kostengünstige Sicherung von Unternehmensdaten zu Privatkunden-Preisen bieten soll. Enterprise-Kunden können den Zugang zur Q-Cloud für weniger als 1 Cent pro GB im Monat in Anspruch nehmen. Durch die Integration der Deduplizierungstechnologie von Quantum ermöglicht Q-Cloud Backups von 1 TB bis 1 PB zu schützender Daten sowohl für physische als auch virtuelle Infrastrukturen.

Quantum präsentiert neues Cloud-Backup und Disaster Recovery für Unternehmen

Unterstützt durch Deduplizierung und virtuelle Datensicherung

Q-Cloud nutzt alle Vorteile der DXi-Serie und der vmPRO Virtual Machine Protection-Funktionen für Datensicherung vor Ort und in der Cloud. Die Deduplizierungstechnologie der DXi-Appliances soll nach eigenen Angaben die Rentabilität von Cloud Storage revolutionieren. Diese Appliances ermöglichen Q-Cloud Kunden weiter mit ihren installierten Backup-Anwendungen, einschließlich Backup Exec, CommVault, Data Protector, NetBackup, vRanger, Tivoli Storage Manager und Veeam, zu arbeiten. Quantum vmPRO und DXi sollen eine Reduzierung des Datenvolumens von bis zu 95 Prozent erreichen. Als Basisbestandteil des Angebots für Q-Cloud Disaster Recovery as a Service (DRaaS), können Kunden mit der vmPRO Software von Quantum Snapshots ihrer virtuellen Maschinen anfertigen und diese in die Cloud replizieren.

Edge-to-Cloud-Replikation

Unternehmen mit mehreren Standorten können durch die Q-Cloud direkt von der Zweigstelle in die Cloud replizieren. Diese Replikationsfunktion entbindet den Anwender von der Nutzung primärer Ressourcen für Backup und Disaster Recovery. Unternehmen mit nur einem Standort können die Vorteile eines zweiten Standorts für einen neuen Ansatz zur Sicherung und DR nutzen. Mit einer Appliance der DXi-Serie vor Ort profitieren Q-Cloud-Kunden einerseits von der Geschwindigkeit eines lokalen Recoverys und andererseits von der Sicherheit Cloud-basierter Backups.

Pay as You Go -Preismodell

Die Abrechnung der Datensicherung erfolgt nach dem Pay as you Go Ansatz, so dass Kunden nur die Speicherkapazität, die sie wirklich benötigen, kaufen müssen. Das On-demand Preismodell wandelt Kapital- zu Betriebskosten und beseitigt die Kosten redundanter und ungenutzter Hardware. So kann kosteneffizient eine Offsite-Backup- und Disaster Recovery-Lösung eingesetzt werden.

Q-Cloud ist ab sofort in den USA und Europa verfügbar.

Kategorien
Events

Cloud Computing ist angekommen. Ein Review des CloudOps Summit 2012

Der CloudOps Summit 2012 in Frankfurt hat gezeigt, dass Cloud Computing endgültig auch in Deutschland angekommen ist. Wer die Cloud weiterhin als einen bald vergessenen Hype abstempelt oder sich ihr verwehrt, wird es in der Zukunft schwer haben, mit dem nationalen und internationalen Wettbewerb mitzuhalten. Das hat der CloudOps Summit eindrucksvoll bewiesen.

Cloud Computing ist angekommen. Ein Review des CloudOps Summit 2012

Transition – Build & Run – Skills

Die Veranstaltung begann mit einem Vortragsmarathon von zwei Keynotes (Tim O’Brien (Microsoft) und Harrick Vin (TCS Consultancy)) sowie zehn Lightning Talks (6 minütige Kurzvorträge) aus den Bereichen „Transition“, „Build & Run“ und „Skills“. Also wie man sich in die Cloud bewegt, darin erfolgreich bleibt und welches Wissen dafür benötigt wird. Nach einer Pause starteten zu diesen Bereiche spezifische Workshops (Vorträge je 30 Minuten).

Transition

Der Übergang von on-Premise hinzu Cloud basierten Lösungen stellt Unternehmen vor Herausforderungen. Sollen die bestehenden Systeme 1:1 migriert oder die Chance genutzt werden, um einen Neuanfang zu starten und nur die Daten übernommen werden. Es stellt sich hier also die Frage, wie existierende Anwendungen in die Cloud migriert werden. So oder so muss sich allerdings das Architekturmodell der bestehenden Systeme und Anwendungen vollständig vom statischen zu dynamischen/ skalierbaren Modellen zzgl. Multi-Tenancy Fähigkeiten verändern, um die wahren Möglichkeiten der Cloud zu nutzen.

Build & Run

Cloud Computing Architekturen unterscheiden sich grundsätzlich von traditionellen Systemmodellen. Aber um die Hochverfügbarkeit, Skalierbarkeit usw. der Cloud tatsächlich zu nutzen, gilt es die Prinzipien des Cloud Computing, aber vor allem die Infrastruktur des jeweiligen Anbieter, speziell im Falle von IaaS, bis ins Detail zu durchdringen und bestmöglich für sich und das eigene System zu nutzen.

Cloud Skills

Cloud Computing erfordert den Aufbau neuer Kenntnisse, um mit den neuen Herausforderungen zurecht zu kommen und die Eigenschaften, welche die Cloud bietet, bestmöglich zu nutzen. Insbesondere die IT-Abteilungen werden sich verändern. Zwar wird es künftig weiterhin Systemadministratoren geben, jedoch wird die Anzahl schwinden und diejenigen, die übrig bleiben, werden durch die Cloud bei der Ausführung ihrer Tätigkeit unterstützt und werden diese dadurch besser ausführen.

Cloud Computing Round Table mit Top-Experten

Im Rahmen der Veranstaltung saß ich mit weiteren Cloud Computing Experten wie CSC Innovation Head Mark Masterson, arago CEO Chris Boos, TCS Researcher Harrick Vin sowie Microsoft Cloud Platform Stratege Tim O’Brien zusammen. Als Journalist war exklusiv „Wirtschaftsinformatik“ Chefredakteur Peter Pagel vertreten, der dazu einen Artikel geschrieben hat.

Bilder, Videos und Präsentationen

Neben einigen Photos, wurde jeder Vortrag zudem per Video aufgezeichnet. Auch die Slides stellen die Veranstalter jedem im Nachhinein zur Verfügung. Sämtliche Inhalte können unter den folgenden Links abgerufen werden.

Cloud Computing ist gekommen um zu bleiben

Der CloudOps Summit 2012 hat bestätigt, dass das Thema Cloud Computing auch in deutschen Unternehmen für Interesse sorgt. Der Wandel ist bereits eingeleitet und es spricht derzeit nichts mehr dafür, dass Cloud Computing aufgehalten werden kann und sollte. Jedes Unternehmen ist daher angehalten, sich mit den Chancen und Potenzialen des Cloud Computing auseinanderzusetzen und die individuellen Risiken abzuwägen. Denn der Mitbewerb ist bestimmt bereits dabei dies zu tun.

Kategorien
Kommentar

Schuldzuweisungen in Zeiten des Cloud Computing

Gestern ist mir wieder ein Tweet über den Weg gelaufen, der nicht nachvollziehbar ist. Der Bilderservice Mobypicture twittert „Mobypicture is currently unavailable because of system maintenance by Amazon….“. Währenddessen waren auf dem Statusboard der Amazon Web Services unter http://status.aws.amazon.com keine Auffälligkeiten erkennbar. Der Mobypicture Service hingegen war nicht erreichbar. Ich werde hier Amazon nicht verteidigen. Aber die Schuld per Tweet einfach auf den Anbieter zu schieben, scheint mir dann doch zu einfach. Es scheint eher so, dass Mobypicture die Möglichkeiten der AWS Cloud nicht kennt bzw. diese nicht nutzt – wie schon Instagram.

Wer ist denn „schuld“ in der Cloud?

Das kommt darauf an. Nämlich unter anderem davon, was von der Cloud Infrastruktur bzw. dem Cloud Service ausfällt. Bei SaaS als auch PaaS sind mir als Nutzer weitestgehend die Hände gebunden. Beim IaaS halte jedoch ich größtenteils die Fäden selbst in der Hand und muss dafür sorgen, dass meine Applikation auf der Infrastruktur einwandfrei arbeitet. Selbst dann, wenn die darunterliegende Infrastruktur Stückweit ausfällt. Dafür gibt es Mittel und Wege. Wenn ich alles daheim im eigenen Rechenzentrum mache, sorge ich schließlich auch für Redundanz und kann maximal mit dem Finger auf bspw. die kaputte Festplatte zeigen. In der Cloud stehen mir aber deutlich mehr Möglichkeiten zur Verfügung. Extrem(!) gesagt dürfte eine eigene Applikation erst dann ausfallen, wenn die gesamte IaaS-Cloud eines Anbieters ausfällt.

Mehr Eigenverantwortung bitte!

Es ist nicht das erste Mal, dass ich das schreibe. „Beim Cloud Computing geht es um Selbstverantwortung.

Mehr Eigenverantwortung und IaaS bedeutet, darauf zu achten die Möglichkeiten der verteilten Cloud Infrastruktur zu nutzen und die Architektur der Applikation genau diesen Begebenheiten anzupassen und diese dafür zu entwickeln. Stichworte: Parallelität, Skalierbarkeit usw.

Im Falle der Amazon Web Services bedeutet dies:

  • Nicht nur eine virtuelle Maschine einsetzen.
  • Sich nicht nur auf eine Availability Zone verlassen.
  • Nicht nur eine Region nutzen.
  • Eine Multivendor Strategie in Betracht ziehen.

Dann sieht es schon anders aus.


Bildquelle: http://www.akademische.de

Kategorien
Analysen

"Infrastructure-as-a-Platform" mit mehr Komfort in die Cloud

Die Zukunft der Unternehmens-IT liegt im X-as-a-Service. Vor allem Infrastructure-as-a-Services ermöglichen den schnellen Zugriff auf Rechen- und Speicher-Ressourcen und erfreuen sich immer größerer Beliebtheit. Was jedoch vielen Angeboten fehlt ist die sogenannte „Convenience“, also die bequeme Konfiguration der Infrastruktur. Der Hamburger Managed Hosting Anbieter internet4YOU geht neue Wege und erfindet den Bereich „Infrastructure-as-a-Platform (IaaP)„. Vor allem für kleine- und mittelständische Unternehmen, die nicht über das notwendige IT-Know-How verfügen, um sich Standard IaaS Ressourcen zusammenzubauen, ist IaaP ein sehr interessanter Ansatz.

Infrastructure-as-a-Platform – Die Einfachheit zählt

Was den meisten IaaS-Lösungen fehlt, ist der komfortable Zugriff auf Ressourcen, mit denen sich virtuelle Infrastrukturen aufbauen lassen. Dabei handelt es sich in der Regel um Services von Cloud Anbietern der ersten Generation, wie bspw. den Amazon Web Services. Hier erfolgt der Zugriff über eine API, um damit die virtuellen Maschinen zu steuern und sämtliche Infrastrukturkomponenten und Services miteinander interagieren zu lassen. Graphische Verwaltungs-/ Konfigurationsoberflächen sind nur mit einem sehr kleinen Funktionsumfang vorhanden. Instanzen lassen sich zwar starten, stoppen und herunterfahren, für die Konfiguration einer komplexen Infrastruktur ist aber Expertenwissen sowie umfangreiches Know-How mit paralleler Programmierung usw. erforderlich.

Und das ist der entscheidende Faktor. Der gewöhnliche Cloud Nutzer ist kein Cloud Computing Experte und muss bzw. sollte es auch nicht sein. Er kennt sich nicht mit den Themen aus, die eine Cloud überhaupt zu einer Cloud machen. Das ist für ihn auch nicht notwendig, er will die „Blackbox“ schließlich nur für seine Zwecke nutzen. Darüber hinaus hat er nicht das Interesse oder gar die Zeit, sich mit den oft komplexen Systemen und Prozessen auseinanderzusetzen und diese zu erlernen. In der Regel erwartet der durchschnittliche Cloud Nutzer eine in sich stimmige und integrierte Plattform, auf der er sich seine notwendigen IT-Ressourcen zusammenbauen kann, die er über einen bestimmen Zeitraum für seine Zwecke benötigt.

Es gibt keine offizielle Definition von Infrastructure-as-a-Platform. Ursprünglich stammt der Begriff von ScaleUp Technologies. Dabei handelt es sich um eine eigenständige Tochter von internet4YOU, die Lösungen für den Aufbau und die Verwaltung von Cloud Infrastrukturen anbietet. Neben internet4YOU respektive ScaleUp Technologies bieten auch Anbieter wie Profitbricks und Zimory aber auch Open-Source Lösungen wie openQRM die Möglichkeiten einer IaaP.

Infrastructure-as-a-Platform gehört die Zukunft

Neben dem einfacheren Zugriff auf die Ressourcen, bündeln Infrastructure-as-a-Platform Lösungen insbesondere verschiedene IaaS Ressourcen wie Rechenleistung, Speicherplatz, Netzwerkkomponenten usw. und ermöglichen Unternehmen damit den Aufbau eines eigenen Rechenzentrum on-Demand, also ein „Data-Centre-as-a-Service“ (DCaaS).

Bereits etablierte Cloud Computing Anbieter – der ersten Generation – müssen damit beginnen in diesem Bereich aufzuholen und ihren bestehenden und neuen Kunden mehr Convenience bieten, mit der diese die Infrastrukturen bequemer nutzen können und während der Konfiguration zudem weniger Zeit und Expertenwissen benötigen. Denn insbesondere IT-Abteilungen von kleinen- und mittelständischen Unternehmen werden in Zukunft auf diesen Komfort achten.


Bildquelle: ©Gerd Altmann / PIXELIO

Kategorien
Kommentar

Die Cloud überlebt sämtliche Speichermedien

Ich habe eine interessante Infographik gefunden, die zeigt, dass die Cloud sämtliche Speichermedien überleben wird. Die Graphik veranschaulicht sehr gut, wie lange die Daten auf einer bestimmten Speichertechnologie sicher abgelegt werden können, bis auf diese nicht mehr zugegriffen werden kann oder wann ein Wechsel auf eine andere Technologie erforderlich ist.

Die Cloud überlebt sämtliche Speichermedien

Die Cloud Anbieter sorgen für das Überleben der Daten

Die Graphik konzentriert sich auf die Lebensdauer eines bestimmten Speichermediums, abhängig von der Nutzung. Eine oft benutzte CD wird natürlich nicht so lange eingesetzt werden können als eine, auf die einmalig Daten kopiert wurden und die anschließend vorsichtig behandelt wird. Hierbei sollte man aber auch nicht den Lebenszyklus einer Technologie vergessen. Nach einem bestimmten Zeitraum, auch abhängig davon wie erfolgreich die Technologie ist, kann diese eingestellt und nicht weiter unterstützt werden. Was passiert dann?

Ein weiteres nicht zu unterschätzendes Risiko sind die Dateiformate und deren Abwärtskompatibilität. So ändern z.B. Anbieter wie Microsoft regelmäßig ihre Office-Datenformate (z.B. .doc > .docx), die dann nur von der aktuellen Office Version bestmöglich unterstützt werden. Mir sind zudem Erfahrungen bekannt, wo sich Excel 97 Tabellen zwar mit Office 2000 öffnen ließen, sämtliche Formatierungen und Formeln aber nicht mehr korrekt dargestellt wurden. Fatal waren die Probleme mit den Formeln, da diese auf den ersten Blick richtig waren. Erst auf dem zweiten Blick wurde deutlich, dass sämtliche Ergebnisse falsch berechnet wurden.

An dieser Stelle helfen Software-as-a-Service (SaaS) Lösungen, indem die Daten in dem Service gespeichert werden und der Anbieter Anspassungen an der Software regelmäßig vornimmt und die „internen“ Datenformate ebenfalls selbst anpasst, ohne dass der Nutzer davon betroffen ist. Das trifft natürlich nur dann zu, wenn der Cloud Speicher auch über eigene Office Lösungen verfügt, die in den Storage integriert sind, wie z.B. Google Apps, Zoho oder Office 365.

Werden Daten in der Cloud gespeichert, muss man sich als Unternehmen nicht um die darunterliegende Speichertechnologie kümmern. Der Anbieter stellt den Speicherplatz als Service bereit und sorgt dafür, dass die Technologie den aktuellen Standards entspricht. Die Sorge um die Technologieunterstützung wandert demnach vom Unternehmen hin zum Anbieter.

Alte vs. Neue Welt

Ein gutes Beispiel für eine disruptive Technologie innerhalb des schon sehr disruptiven Cloud Computing ist der erst kürzlich von Amazon veröffentlichte Service Amazon Glacier. Dabei handelt es sich um einen Cloud Service für die Datenarchivierung bzw. für das Langzeit-Backup. Glacier soll Unternehmen dazu bewegen, ihre Tape Libraries aufzugeben und die Daten stattdessen kostengünstig in die Cloud zu verlagern.

AWS beschreibt Amazon Glacier als einen kostengünstigen Storage Service, der dafür entwickelt wurde, um Daten dauerhaft zu speichern. Zum Beispiel für die Datenarchivierung bzw, die Datensicherung. Der Speicher ist, entsprechend der aktuellen Marktsituation, sehr günstig. Kleine Datenmengen können ab 0,01 US-Dollar pro GB pro Monat gesichert werden. Um den Speicher so kostengünstig anzubieten, ist der Service, im Vergleich zu Amazon S3, für solche Daten gedacht, auf die selten zugegriffen wird und deren Zugriffszeit mehrere Stunden betragen darf.

Daten in Amazon Glacier werden als ein Archive gespeichert. Dabei kann ein Archiv aus einer einzigen oder mehreren einzelnen zusammengefassten Dateien bestehen, die in einem sogenannten Tresor organisiert werden können. Der Zugriff auf einen Tresor kann über den AWS Identity and Access Management-Service (IAM) gesteuert werden. Um ein Archiv von Glacier zu laden, ist ein Auftrag erforderlich. Die Bearbeitung so eines Auftrags benötigt, laut Amazon, in der Regel zwischen 3,5 bis 4,5 Stunden.

Anstatt auf gewohnte Speichersysteme, verlässt sich Amazon Glacier auf kostengünstige Commodity Hardware. (Der ursprüngliche Ansatz, Cloud Computing kostengünstig anzubieten.) Für eine hohe Datenredundanz besteht das System aus einer sehr großen Menge von Speicher-Arrays, die sich aus einer Vielzahl von kostengünstigen Festplatten zusammensetzen.

Dann bekomme ich aber auch Meldungen wie Folgende zugeschickt, die zeigen, dass die „Alte Welt“ den Kampf noch nicht aufgegeben hat.

„Anbieter“ hat die Speicherdichte und Energieeffizienz seiner xyz-Appliances deutlich erhöht und verfügt nun über die effizienteste Enterprise-Disk-Backup- und Deduplizierungslösung am Markt. Die xyz bietet nun 3 TB-Festplatten und damit eine 50 Prozent höhere Speicherdichte, 42 Prozent niedrigeren Energieverbrauch und 25 Prozent höhere Performance. Verglichen mit Wettbewerbsprodukten beansprucht die xyz die kleinste Stellfläche bei gleichzeitig höchstem Mehrwert.

Neben der Verschlüsselung von ruhenden Daten (Data-at-rest) in der xyz, hat „Anbieter“ sowohl die Produktfamilie der xyz-Serie als auch die „Produkt“ Tape Libraries mit zusätzlichen Security-Erweiterungen ausgestattet. Diese zahlreichen Updates helfen die Datensicherungseffizienz in Unternehmen zu erhöhen und gleichzeitig den immer anspruchsvolleren Service Level Agreements (SLAs) und Sicherheitsbedürfnissen gerecht zu werden.

Die Cloud macht Speichermedien überflüssig

Es gab Zeiten, in denen Unternehmen sich darüber Gedanken machen mussten, welche Speichertechnologie sie einsetzen sollten, um Daten über einen langen Zeitraum sicher zu archivieren. Es ist sehr leicht zu argumentieren, „Schieb einfach alles in die Cloud, da läuft’s schon.“. So ist das natürlich nicht. Aber Cloud Anbieter können hier definitiv helfen, indem sie die darunter liegenden Speichertechnologien bei Bedarf austauschen, ohne dass der Kunde etwas davon mitbekommt. Vor allem die Anbieter der „Alten Welt“ sollten sich darüber Gedanken machen, wie sie ihren Kunden diese on-Premise Sorgen nehmen können und sich den Ideen aus der „Neuen Welt“ annehmen.

Ich kenne bspw. ein Unternehmen, dass einen Mitarbeiter, der eigentlich schon in Rente sein sollte, beschäftigt, da er der Einzige ist, der das Wissen über eine spezielle Magnetband Technologie besitzt. Dies ist dem Umstand der Aufbewahrungsfristen geschuldet. Erst wenn die Frist abgelaufen ist, darf dieser Mitarbeiter in seinen Wohl verdienten Ruhestand gehen.


Quelle: http://www.thecloudinfographic.com

Kategorien
Analysen

Profitbricks: "Live Vertical Scaling" und die Krux mit der Parallelität

Ich hatte über Profitbricks, direkt nach deren Go-Live im Mai, geschrieben. Dabei ist das Unternehmen nicht unbedingt gut bei weggekommen. Denn ein „Infrastructure-as-a-Service (IaaS) der nächsten Generation“ konnte ich da noch nicht erkennen. Eine grafische Bedienoberfläche, freie Vernetzungsstrukturen durch echte Isolation des Kundennetzwerks im virtuellen Rechenzentrum, vermaschte redundante Vernetzung mit Infiniband, maßgeschneiderte Server und ein hochredundanter Storage, zeugen unter dem besagten Titel von mehr Marketingexpertise als großer Innovation. Ich habe mir das Angebot einmal genauer angeschaut und bin positiv überrascht. Insbesondere die Funktion „Live Vertical Scaling“ überzeugt. Allerdings steckt der Teufel im Detail.

Scale Up vs. Scale Out

Skalierbarkeit bedeutet, dass die Leistung eines Systems durch das Hinzufügen weiterer Ressourcen wie ganzer Rechnersysteme oder granularer Einheiten wie CPU und Arbeitsspeicher erhöht wird. Das System kann dann mit zunehmender beanspruchter Leistung linear mitwachsen. So lassen sich z.B. plötzliche Lastspitzen begegnen unter denen das System nicht zusammenbricht. Unterschieden wird dabei zwischen dem Scale Up und dem Scale Out.

Scale Up

Während eines Scale Up, auch vertikale Skalierung genannt, wird die Leistung des Systems gesteigert, indem weitere granulare Ressource zu einem Rechnersystem hinzugefügt werden. Dabei kann es sich um Speicherplatz, CPUs oder Arbeitsspeicher handeln. Man kann auch sagen, ein einzelner Rechner wird mit weiteren bzw. Leistungsstärkeren Komponenten aufgerüstet.

Scale Out

Ein Scale Out, horizontale Skalierung, steigert die Leistung eines Systems, indem weitere vollständige Rechner zu dem Gesamtsystem hinzugefügt werden. Man kann sich das Szenario auch so vorstellen, dass man sich einen Cluster von Rechnern aufbaut, über den skaliert wird, indem der Cluster immer um die benötigte Anzahl an Rechnern erweitert wird.

Live Vertical Scaling

Ich weise immer darauf hin, dass Anwendungen für die Eigenschaften einer Cloud entwickelt werden müssen. Also mit der Infrastruktur parallel mitwachsen müssen, wenn sich die Last verändert und weitere virtuelle Ressourcen automatisch hinzugefügt werden müssen.

Profitbricks hat nun das „Live Vertical Scaling“ vorgestellt und geht anders als bspw. die Amazon Web Services (AWS), Rackspace oder Windows Azure den Weg der vertikalen Skalierung. Die anderen drei genannten Anbieter setzen hingegen auf die horizontale Skalierung. Profitbricks beschreibt seine Lösung wie folgt:

Das Besondere dabei: Das System, beispielsweise ein Server, kann auf diese Art quasi unabhängig von der verwendeten Software und ohne deren Modifikation beschleunigt werden. Ideal ist dies beispielsweise für LAMP (Linux, Apache, MySQL, PHP)-Systeme, da MySQL ohne Anpassung die neuen Ressourcen erkennt und ohne Neustart vom Mehr profitiert.

Grundsätzlich hat Profitbricks recht. Nicht jede Software ist so implementiert, insbesondere die Legacy Anwendungen, dass sie skalierbar sind. Das hängt damit zusammen, dass diese Anwendungen nicht für den parallelen Betrieb auf mehreren Systemen entwickelt wurden. Für eine vertikale Skalierung ist, bis zu einem gewissen Grad, keine parallele Entwicklung notwendig, d.h. im Prinzip muss der Programmcode in diesem Fall nicht mehr angefasst werden, um die Leistung zu erhöhen.

Die Probleme stecken im Detail

Aber, der Teufel steckt im Detail.

Parallelität der Softwarearchitektur

Eine Anwendung muss mehrere Cores unterstützen, um die Leistungsfähigkeit des Rechners auszunutzen. Diese Problematik viel auf, als Intel seine Core 2 Duo Prozessoren auf den Markt brachte. Die Rechner verfügten zwar über zwei CPU-Kerne, die alten Anwendungen unterstützen aber nur einen. Der Vorteil eines zweiten CPU-Kerns war somit dahin. Das bedeutet, dass eine Anwendung auch auf die vertikale Skalierung vorbereitet werden muss. Was nützt es, wenn der Server bis zu 48 CPU-Kerne unterstützt, die Anwendung aber lediglich einen einzigen nutzen kann.

Die Software muss also, trotz vertikaler Skalierung, parallelisiert werden. Denn die Leistungssteigerung hängt effektiv mit dem Parallelisierungsgrad der Anwendung und dem Betriebssystem zusammen. Das Betriebssystem sorgt für das Verteilen der Prozesse und Anwendungen auf die jeweiligen Kerne. Die Anwendung muss für den Betrieb auf mehreren Prozessen zudem so parallelisiert werden, dass einzelne Threads dabei gleichzeitig auf mehreren Prozessoren laufen.

Profitbricks schreibt: „Bei anderen IaaS-Anbietern muss der Nutzer seine Server erst herunter fahren, dann die neuen Ressourcen buchen und die Systeme anschließend neustarten. Selbst im besten Fall kommt es hierbei zu einem Ausfall der Server von einigen Minuten, so dass derartige Modifikationen ohne Live Vertical Scaling nur in den Nachtstunden machbar sind.

Das ist falsch. Bei AWS, Rackspace als auch Windows Azure lassen sich die Systeme per API/ Skripte steuern. Es können also weitere Ressourcen per Scale Out ohne Unterbrechungen hinzugefügt werden. Soll eine virtuelle Ressource ausgetauscht werden, lassen sich zunächst automatisch neue Ressourcen hinzufügen und anschließend die nicht mehr gewollten herunterfahren. Und das alles ohne Ausfallzeit.

Profitbricks nennt hier als Beispiel definitiv keine IaaS Cloud-Anbieter. Denn das geschilderte Szenario darf im Cloud Computing so überhaupt nicht auftreten!

Was ist mit Design for Failure?

Profibricks schreibt zwar, „Stehen auf dem physischen Server, auf dem eine bestimmte Kunden-VM läuft, nicht genügend Ressourcen bereit, um den per DCD gewünschten Wert zu erfüllen, verschiebt der von ProfitBricks verwendete Hypervisor die virtuelle Maschine automatisch auf einen anderen Server. Dies passiert, ohne die jeweils in der VM laufenden Anwendungen negativ zu beeinflussen.

Aber wie verhält es sich, wenn der darunterliegende physikalische Host oder die virtuelle Maschine, auf der sich die Anwendung befindet ausfällt? Da sich die Anwendung lediglich auf einem einzigen System befindet und nicht über mehrere Systeme verteilt läuft, wäre ein Ausfall die Folge.

Interessante Lösung, aber…

„Live Vertical Scaling“ ist auf jedenfall eine interessante Lösung. Profitbricks versucht Infrastructure-as-a-Service (IaaS) für Anwender benutzerfreundlicher zu machen, womit sie auf dem richtigen Weg sind. Denn für die meisten IaaS-Angebote sind noch zu viele Expertenkenntnisse notwendig und manuelle Arbeit erforderlich. Einfache Automatisierung und Convenience sind die Schlagworte. Aber wie ich beschrieben habe, steckt der Teufel im Detail. Man sollte sich also zunächst über seine eigenen Bedürfnisse und die der Anwendung im Klaren sein, bevor man sich für die vertikale Skalierung entscheidet.


Bildquelle: http://krishnasblog.com

Kategorien
News

Big Data Nutzer in Unternehmen sind vorwiegend Anwendungsentwickler

Big Data Lösungsanbieter Jaspersoft hat die Ergebnisse einer kürzlich durchgeführten Umfrage zum frühen Einsatz von Hadoop in Unternehmen veröffentlicht. Über 600 Mitglieder der Jaspersoft-Community hatten an der Big Data-Umfrage teilgenommen. Unter den Teilnehmern, die Hadoop für Big Data im Unternehmen verwenden, haben 59 Prozent bereits eine Hadoop-basierte Big Data-Lösung im Einsatz bzw. implementieren sie gerade, während 77 Prozent der Hadoop-Anwender die Big Data-Lösungen innerhalb der nächsten sechs Monate bereitstellen werden.

Ergebnisse der Umfrage

  • 63 Prozent der Hadoop-Benutzer in Unternehmen sind Anwendungsentwickler, 15 Prozent BI-Berichtsentwickler und 10 Prozent BI-Administratoren oder Gelegenheitsnutzer.
  • Nur 37 Prozent der Hadoop-Benutzer arbeiten in der Software- oder Internet-Branche. Hadoop wird in den unterschiedlichsten Branchen eingesetzt, von der Finanzbranche bis zum Bildungssektor.
  • 57 Prozent setzen Big Data mit Hadoop lokal ein, während 43 Prozent die Lösung in der Cloud bereitstellen.
  • Der beliebteste Big Data-Speicher war Hadoop HDFS (82 %), gefolgt von HBase (34 %), relationalen Datenbanken (31 %), MongoDB (30 %), Hive (25 %) und Cassandra (14 %).
  • 38 Prozent benötigen Analysen in Echtzeit bzw. nahezu Echtzeit für ihre Big Data-Anwendung mit Hadoop.