Kategorien
Management

Cloud Computing beeinflusst DevOps nachhaltig

Cloud Computing hat neben dem Verbessern der Agilität ebenfalls Einfluss auf die Kommunikation und Zusammenarbeit zwischen Entwicklern und dem IT-Betrieb genommen, um auf Basis des DevOps Models effektiver miteinander zu arbeiten und die Ziele im Sinne des Unternehmens zu verfolgen. Das Thema DevOps kam erstmals im Jahr 2009 ins Gespräch und nimmt langsam auch Einzug in die deutschen Unternehmen.

DevOps beeinflusst die Effektivität

Neben den Themen Cloud Computing und Big Data zählt das Thema DevOps zu den wichtigsten Themen der nahen Zukunft. Der Begriff DevOps leitet sich von dem Präfix „Dev“ von Softwareentwickler (Developer) sowie dem Suffix „Ops“ von IT-Betrieb (Operations) ab. Zusammengesetzt entsteht damit das Wort DevOps und symbolisiert die enge Zusammenarbeit beider Unternehmensbereiche, also der Softwareentwicklung und dem IT-Betrieb.

Wie auch das Cloud Computing hat sich DevOps im Laufe der Zeit entwickelt und hilft Unternehmen nun dabei, schneller und besser Ideen zu entwickeln, die sie in ihre Produkte und Dienstleistungen einfließen lassen. Zudem verringert DevOps die Wahrscheinlichkeit, das während der Softwareentwicklung Fehler entstehen und erhöht die Fähigkeiten und den Zeitraum, Fehler zu entdecken.

Die Cloud optimiert die Zusammenarbeit

Neben der Beziehung von Entwicklern und dem IT-Betrieb hat die Cloud ebenfalls die Art verändert, wie heute Software entwickelt wird. Da mittlerweile zu jedem Zeitpunkt und bei Bedarf ausreichend Serverkapazitäten zur Verfügung stehen, können Entwickler sich nun sofort bedienen, anstatt Tage, Wochen oder Monate auf den IT-Betrieb zu warten, der in der Regel für das Bereitstellen verantwortlich ist.

Aus diesem Grund muss sich die Kommunikation und Zusammenarbeit zwischen Entwicklern und dem IT-Betrieb verbessern. Entwickler können durch den dynamischen und on-Demand Zugriff auf Rechenleistung deutlich besser iterativer entwickeln und testen, wodurch sich der Time to Market von neuen Services deutlich verringert.

Der IT-Betrieb erhält durch den on-Demand Bezug der Ressourcen eine deutlich bessere Kontrolle und einen tieferen Einblick in die genutzten Ressourcen, wodurch sich Kostenvorteile aufzeigen lassen.

Was wir also bereits seit langer Zeit wissen: Von der Cloud profitieren alle Beteiligten!


Bildquelle: blog.zenoss.com

Kategorien
News

Rackspace veröffentlicht Cloud Block Storage auf Basis von SSD

Cloud Infrastruktur Anbieter Rackspace hat nun auch einen Cloud Block Storage in sein Portfolio aufgenommen. Ähnlich wie bei Amazon S3 lassen sich damit ebenfalls flexibel Cloud-basierte Storage Volumes erstellen und unabhängig von unterschiedlichen virtuellen Servern nutzen. Mit dem Cloud Block Storage, der auf OpenStack basiert, vervollständigt Rackspace den Kern seiner Cloud Infrastructure Services.

Rackspace veröffentlicht Cloud Block Storage auf Basis von SSD

SSD für schnelle Zugriffsraten

Typisch für einen Block Storage erlaubt es auch der von Rackspace, den Speicher als zentrales Medium zu nutzen. Statt die Daten lokal auf einem Server zu speichern befinden sich diese an einem zentralen Ort, wodurch man beliebige Server auf die Daten zugreifen lassen kann. Der Block Storage basiert auf OpenStack. Dadurch können Nutzer beliebiger OpenStack Installationen, sei es nun bei Rackspace oder einem anderen Anbieter, auf den Cloud Storage zugreifen.

Neben einem Standard Volume bietet Rackspace, ein SSD Volume (Solid State Drive). Das erhöht die Performance und ermöglicht Applikationen einen besseren Datendurchsatz für den eingehenden und ausgehenden Datenverkehr.

Funktionen & API

Der Cloud Block Storage lässt sich über folgende API Instruktionen ansprechen, um damit einen Server auf den Speicher zugreifen zu lassen:

  • Create/Delete Volume
  • Attach/Detach Volume
  • Volume Snapshots
  • List Volume Snapshots
  • List Volumes
  • Create Volumes From Snapshot
  • Choose Volume Type
  • Choose Volume Size

Preise

Die Kosten für 1GB pro Monat betragen 0,15 US-Dollar für ein Standard Volume. Der Preis für ein 1GB SSD Volume beträgt 0,70 EUR pro Monat. In beiden Fällen sind die Kosten für den eingehenden und ausgehenden Datentransfer bereits beinhaltet.

Kategorien
Management

Cloud Computing verlangt Weiterbildung und fördert die Flexibilität

Cloud Computing erfordert den Aufbau neuer Kenntnisse, um mit den neuen Herausforderungen zurecht zu kommen und die Eigenschaften, welche die Cloud bietet, bestmöglich zu nutzen. Insbesondere die IT-Abteilungen werden sich verändern. Zwar wird es künftig weiterhin Systemadministratoren geben, jedoch wird die Anzahl schwinden und diejenigen, die übrig bleiben, werden durch die Cloud bei der Ausführung ihrer Tätigkeit unterstützt und werden diese dadurch besser ausführen.

Die neuen Jobs? So schauen sie aus.

„Am Server schrauben“ wird in sehr vielen Unternehmen größtenteils aus der Mode kommen. Viel mehr wird es darum gehen, Services zu managen und die IT-Abteilungen werden zum Cloud Service Broker und seinen internen Kunden (Fachabteilungen usw.) die benötigten Services und Anwendungen aus einer Cloud (Private/ Public) bereitstellen.

Seit geraumer Zeit werden daher neue Berufsbezeichnungen diskutiert, die durch die Cloud entstehen werden, darunter:

  • Cloud Architekt
  • Cloud Service Manager
  • Cloud Integrationsspezialist und -Experte
  • Cloud Security Manager und -Ingenieur
  • Director Cloud Infrastructure
  • Executive Vice President of Cloud Technologies

Bei diesen Rollen handelt es sich nur um eine Auswahl von denen, die in nächster Zeit entstehen werden. Denn es gilt zu klassifizieren, welche Aufgaben und Rollen künftig für den Cloud Betrieb notwendig sind und wie sich die jeweiligen Anforderungen dieser einzelnen Rollen verhalten. Zudem werden auf Basis der Cloud neue disruptive Dienstleistungen entstehen, die es gilt zu identifizieren.

Die Cloud erhöht die Flexibilität

Auch die Art wie wir in Zukunft arbeiten wird sich verändern. Die Cloud erlaubt es uns, von überall aus verteilt und vor allem flexibel zu arbeiten. Wann und wo die Leistung erbracht wird, spielt im Prinzip keine Rolle mehr. Der Faktor Zeit wird relativ, da das typische 9 to 5 nicht mehr zwingend erforderlich ist.

Die technischen Möglichkeiten, flexibel und unabhängig von Ort und Zeit zu arbeiten, können wir mittlerweile bereits nutzen. Mit Cloud Services stehen uns Browser-basierte Applikationen zur Verfügung, mit denen wir, zwar weltweit verteilt, aber dennoch im Team parallel und in Echtzeit an ein und demselben Dokument arbeiten können. Cloud Storage Lösungen ermöglichen uns das Echtzeit Backup und ebenso den plattformunabhängigen Zugriff auf unsere Daten.

Gegenwind aus der Politik

Wohingegen viele eine Chance sehen, kommt aus der Politik Gegenwind. So sorgt sich Bundesarbeitsministerin Ursula von der Leyen im Rahmen der DLDwomen: „Cloud-Arbeiter stehen ständig im Wettbewerb miteinander und unter dem ständigen Druck, sich immer wieder neu bewerben zu müssen.“ Von der Leyen ist der Meinung, dass es „… künftig eine „virtuelle Belegschaft“ geben …“ wird, „… einen weltweit verfügbaren Pool von Talenten …“.

Sie hat natürlich recht mit ihrer These. Cloud Lösungen werden Unternehmen dabei helfen, weltweit die besten Mitarbeiter (noch leichter) zu rekrutieren, was darin resultieren kann, dass sich die Arbeitswelt ebenfalls hin zu einem deutlich größeren Anteil von Freiberuflern entwickeln wird. Ob die von von der Leyen titulierten „Cloud-Arbeiter“ tatsächlich einem deutlich höheren Druck ausgesetzt werden bleibt fraglich. Denn der Druck in den Unternehmen auf die Mitarbeiter nimmt ebenfalls stetig zu und jeder muss sich tagtäglich in seinem Beruf bewähren und zeigen was er drauf hat.

Ich habe dazu eine nette Anekdote auf dem .comspace Blog gefunden:

Ein Mann sitzt in der Lobby eines Luxushotels. Es ist 3 Uhr nachts und nur hier unten hat er WLAN, um noch einmal schnell seine E-Mails zu checken. Ein junges Pärchen kommt durch die Drehtür des Hotels von einer Strandparty, sie versucht gar nicht erst zu flüstern: “Schau Dir den armen Knilch an, selbst im Urlaub kann er bis tief in die Nacht nicht aufhören zu arbeiten.”
Der Mann mit dem Laptop auf den Knien denkt bei sich “Wer ist denn der arme Knilch – der, der seinen Job liebt und jederzeit von überall aus arbeiten kann oder diejenigen, die sich in 2 Wochen im Jahr von den anderen 50 Wochen Arbeit, die sie nicht gerne machen, erholen müssen?”

Diese Geschichte spiegelt sehr schön wieder, wie jeder einzelne mit der Art zu arbeiten umgeht. Insbesondere die jüngere Generation wird ihre Chancen wittern, dem staubigen Büroalltag entfliehen zu können und entweder von zu Hause oder aus dem Café oder Co-Working Space ihrer Wahl zu arbeiten, um neue und kreative Eindrücke zu erleben. Dann gibt es die „alten Freien“, die seit jeher als Freiberufler tätig sind und die Art so zu arbeiten schätzen und in der Cloud wahrscheinlich ebenfalls Vorteile sehen werden. Die dritte Fraktion bilden diejenigen, die glücklich bzw. scheinbar glücklich mit ihrer Arbeit sind, aber eher resistent gegenüber Veränderungen erscheinen. Zu guter letzt gibt es natürlich Berufe, die von dieser Veränderung nicht betroffen sein können, da es rein physikalisch erforderlich ist, dass die Person an Ort und Stelle tätig ist.

Unternehmen sollten Freiheiten gewähren

Natürlich kann und sollte kein Unternehmen seine Mitarbeiter dazu zwingen, flexibel einer Tätigkeit nachzugehen und sie dazu verpflichten nicht mehr täglich ins Büro zu fahren und stattdessen das nächstgelegene Starbucks aufzusuchen. Allerdings sollte jeder Personaler und jede Führungskraft mit dem Gedanken spielen, den Mitarbeitern zumindest die Gelegenheit zu geben, der Tätigkeit eben nicht 9 to 5 nachzugehen sondern Vertrauen in den Mitarbeiter haben, klare Ziele festlegen und diese am Ende eines Meilensteins prüfen.


Bildquelle: ©Gerd Altmann / PIXELIO

Kategorien
News

BT bietet Supply-Chain-Lösung in der Cloud

Der Netzwerk- und IT-Dienstleister BT hat BT Trace, ein Lösungs-Portfolio für die Supply Chain, mit neuen, Cloud-basierten Funktionen ergänzt. Diese ermöglichen es Unternehmen, nahezu in Echtzeit eine exakte Sicht auch auf komplexe, weltweite Lieferketten zu erhalten. Unternehmen erkennen somit, an welchen Punkten innerhalb der Supply Chain welche Änderungen nötig sind, um die Effizienz der Prozesse zu erhöhen.

BT bietet Supply-Chain-Lösung in der Cloud

Weltweite Lieferketten werden zunehmend komplexer

Unternehmen mit einer weltweiten Lieferkette müssen sich zahlreichen Herausforderungen stellen – von Produktpiraterie über den Verlust von Gütern, den Transport leicht verderblicher Ware bis hin zu Rückrufaktionen. Dieses Szenario ist typisch für globale Unternehmen aus den Bereichen Konsumgüter, Logistik, Fertigung, Pharma oder Handel. Sie benötigen einen genauen Überblick über ihrer Lagerbestände und über die Verfügbarkeit ihrer Waren. Gleichzeitig müssen sie alle gesetzlichen Bestimmungen und Vorschriften einhalten sowie nachhaltig handeln und wirtschaften. Für Unternehmen ist es allerdings schwierig, die gesamte Lieferkette zu überblicken, zumal eine Vielzahl unterschiedlicher Datenformate, Quellen und Partner integriert werden müssen. Häufig sind ihre verschiedenen Ressourcenplanungs- und Backend-Systeme nicht einmal miteinander verbunden.

BT Trace: Supply-Chain in der Cloud

BT Trace soll Unternehmen dabei helfen, auf diese Herausforderungen zu reagieren. Der neue Cloud-Service sammelt, speichert, verteilt und interpretiert dazu sicher und kostengünstig große Mengen an Daten, die im Rahmen der weltweiten Bewegung von Waren und Gütern entlang der Lieferkette entstehen. Er verbindet die komplexen Informationen aus den unterschiedlichen Ressourcenplanungs- und IT-Systemen globaler Unternehmen und ihrer Zulieferer. Die Anwender erhalten – abrufbar über ein individuell konfigurierbares Webportal – eine einheitliche Sicht auf die gesamte Lieferkette. BT Trace fokussiert sich dabei vor allem auf globale Unternehmen der Branchen Konsumgüter, Fertigungsindustrie, Logistik, Pharma und Einzelhandel umfasst.

Erprobt und getestet wurde der neue Service in Zusammenarbeit mit TNT Express, einem der weltweit größten Express-Dienstleister. Der Service, den BT in enger Zusammenarbeit mit TNT entwickelt hat, wurde eingesetzt, um die betrieblichen Prozesse effizienter zu gestalten, den Kundenservice zu verbessern und das Retouren-Management zu optimieren.

Kategorien
Kommentar

Erneuter Ausfall der Amazon Web Services zeigt, dass Cloud Nutzer nicht aus den eigenen Fehlern lernen

Gestern war es dann wieder einmal soweit. Amazon hatte erneut mit einem schweren Ausfall in seiner Region US-East-1 zu kämpfen und zog direkt die üblichen Verdächtigen Reddit, Foursquare, Heroku und Co. mit. Dabei handelt es sich bereits um den fünften signifikanten Ausfall in den letzten 18 Monaten in dieser Region. Nach April 2011, März 2012 sowie dem 15. und 30. Juni 2012 plus vier weitere Ausfälle innerhalb nur einer Woche im Jahr 2010, nun der nächste Ausfall.

Die Hintergründe des AWS Ausfall

Die Region US-East-1 ist die älteste aller AWS Regionen. Dabei handelt es sich um das Rechenzentrum in Virginia, das erst vor kurzer Zeit wegen schwerer Gewitter in die Schlagzeilen geraten war. Letzte Woche hatte ich noch geschrieben, dass neue Public Cloud Anbieter zwar mittlerweile über aktuellere Technologien verfügen, es für Amazon auf Grund der losen Kopplung sämtlicher Services aber leicht fallen sollte, einen Austausch vorzunehmen. Es scheint, dass der Zeitpunkt mehr als überschritten ist. Das Grab US-East-1 ist größer als vermutet.

Was ist passiert?

Was genau passiert ist, kann der AWS Statusseite zu Beginn verständlicherweise nicht immer direkt entnommen werden. In der Regel wird ein paar Tage nach dem Ausfall ein ausführlicher Blogpost mit ein paar Details veröffentlicht.

Aus den Statusmeldungen lässt sich nur entnehmen, dass es wieder Performanceprobleme „mit einer kleinen Anzahl von EBS Volumes (Elastic Block Store)“ gibt.

10:38 AM PDT We are currently investigating degraded performance for a small number of EBS volumes in a single Availability Zone in the US-EAST-1 Region.
11:11 AM PDT We can confirm degraded performance for a small number of EBS volumes in a single Availability Zone in the US-EAST-1 Region. Instances using affected EBS volumes will also experience degraded performance.
11:26 AM PDT We are currently experiencing degraded performance for EBS volumes in a single Availability Zone in the US-EAST-1 Region. New launches for EBS backed instances are failing and instances using affected EBS volumes will experience degraded performance.

12:32 PM PDT We are working on recovering the impacted EBS volumes in a single Availability Zone in the US-EAST-1 Region.
1:02 PM PDT We continue to work to resolve the issue affecting EBS volumes in a single availability zone in the US-EAST-1 region. The AWS Management Console for EC2 indicates which availability zone is impaired.EC2 instances and EBS volumes outside of this availability zone are operating normally. Customers can launch replacement instances in the unaffected availability zones but may experience elevated launch latencies or receive ResourceLimitExceeded errors on their API calls, which are being issued to manage load on the system during recovery. Customers receiving this error can retry failed requests.

2:20 PM PDT We’ve now restored performance for about half of the volumes that experienced issues. Instances that were attached to these recovered volumes are recovering. We’re continuing to work on restoring availability and performance for the volumes that are still degraded.

Zudem waren auch „eine kleine Anzahl von RDS Instanzen (Relational Database Service)“ betroffen. Hier kam es zu Problemen bei der Verbindung und ebenfalls bei der Performance.

11:03 AM PDT We are currently experiencing connectivity issues and degraded performance for a small number of RDS DB Instances in a single Availability Zone in the US-EAST-1 Region.
11:45 AM PDT A number of Amazon RDS DB Instances in a single Availability Zone in the US-EAST-1 Region are experiencing connectivity issues or degraded performance. New instance create requests in the affected Availability Zone are experiencing elevated latencies. We are investigating the root cause.

Die üblichen Verdächtigen: Reddit, Foursquare, Heroku und Co.

Interessant ist, dass immer die üblichen Verdächtigen u.a. Reddit, Heroku und Foursquare von einem Ausfall der US-East-1 Region betroffen sind. Das bedeutet im Umkehrschluss, dass alle Beteiligten nicht aus den eigenen Fehlern vorheriger Ausfälle gelernt haben und genau so weitermachen wie zuvor. Das „Schöne“ an solchen Ausfällen ist, dass man einen schönen öffentlichen Rundumblick auf die Robustheit der jeweiligen Angebote der Anbieter erhält, die ihre Anwendungen auf den Amazon Web Services laufen lassen. Auch Instagram, dass bekannterweise für 1 Milliarde Dollar an Facebook verkaufte wurde, war bei einem der letzten Ausfälle schwer getroffen. Da scheint die technische Due Diligence Prüfung nicht funktioniert zu haben.

Es stellt sich die Frage, wie lange die Verantwortlichen von Reddit, Foursquare, Heroku (gehört übrigens zu Salesforce) und Co. noch warten, bis etwas an der Architektur geändert wird. Die Systemarchitekten sollten langsam damit beginnen etwas zu ändern. Gute Vorbilder sind Netflix und Okta.

Was ist zu tun?

Das ist im Einzelfall zu entscheiden. Jedoch reicht es zunächst einmal nicht aus, nur eine Region oder eine Availability Zone zu nutzen. Man muss einfach verstehen, dass Cloud Computing viel mehr bedeutet, als nur ein paar Server zu nutzen und miteinander zu verbinden. Es geht um die gesamte Architektur des eigenen Systems bzw. der eigenen Anwendung, die auf der virtuellen Infrastruktur (IaaS) aufgebaut wird. Wie ich schon in einem Artikel für die Computerwoche geschrieben habe:

Viele Unternehmen entwickeln ihre Cloud-Applikation „daheim“ in den eigenen vier Wänden. Erst nach der Fertigstellung soll der Rollout auf eine Cloud-Infrastruktur oder Cloud-Plattform erfolgen. Das ist ein Fehler.

Inbesondere IaaS-Umgebungen (Infrastructur as a Service) wie die Amazon Web Services oder Microsoft Windows Azure vermitteln den Eindruck, nur eine Vielzahl von virtuellen Maschine bereitzustellen. Den Rest übernehme die „Cloud automatisch“. Das ist fatalerweise auch der Tenor, der von vielen Medien verbreitet wird und damit ein völlig falscher Eindruck von einer Cloud entsteht.

Eine Cloud-Anwendung ist nur so viel wert wie die Architektur, auf der sie basiert. Eine Anwendung muss direkt für die Cloudentwickelt werden – Skalierbarkeit und Hochverfügbarkeit sind von Beginn an mit zu bedenken. Eine Anwendung sollte eigenständig weitere virtuelle Maschinen hochfahren können, wenn mehr Leistung benötigt wird (Skalierbarkeit) bzw. die nicht mehr benötigten virtuellen Maschinen auch selbstständig wieder herunterfahren. Genauso verhält es sich, wenn eine virtuelle Maschine in einen fehlerhaften Zustand gerät. Auch hier muss die Anwendung selbst dafür sorgen, dass entsprechend eine virtuelle Maschine als Ersatz hochgefahren wird und die defekte Maschine aus dem System verschwindet (Hochverfügbarkeit).

Die Anwendung muss daher in der Lage sein, auf jeder beliebigen virtuellen Maschine (VM) einer Cloud-Infrastruktur zu funktionieren. Das liegt unter anderem daran, dass jederzeit eine VM ausfallen kann und eine andere neu hochgefahren werden muss. Und auch die Daten, auf die eine Anwendung operiert, befinden sich zwangsläufig nicht mehr an einem einzigen Ort, sondern sind über die Cloud verteilt gespeichert.

Mehr…

Für den Fehlerfall vorbereitet sein

Selbstverständlich darf man Amazon von diesem erneuten Ausfall auf keinen Fall freisprechen. Die Region US-EAST-1 in North Virginia scheint das Problemkind zu sein. Dennoch weißt Amazon regelmäßig und vehement darauf hin: „Design for failure!“

Hierfür hat das Unternehmen eine Webseite geschaffen, auf der Whitepapers zum Download bereitstehen, die dabei helfen, fehlertolerante Anwendungen zu entwickeln und Cloud Architekturen zu verstehen. Dazu gehören u.a. die Folgenden.

AWS Cloud Architecture Best Practices Whitepaper

Dieses Whitepaper gibt einen technischen Überblick aller AWS Services und verschiedener Best Practice Ansätze für die architektonische Gestaltung, um damit effiziente und skalierbare Architekturen zu entwerfen.
Link

Building Fault-Tolerant Applications on AWS Whitepaper

In diesem Whitepaper werden Funktionen für die Erhöhung der Fehlertoleranz vorgestellt, die dazu dienen, um hoch zuverlässige und hochverfügbare Anwendungen innerhalb der AWS Cloud zu entwickeln.
Link

Web Hosting Best Practices Whitepaper

Dieses Whitepaper überprüft detailliert Lösungen für das Web Application Hosting. Dazu gehört unter anderem, wie jeder AWS Service genutzt werden kann, um eine hochverfügbare und skalierbare Webanwendung zu entwerfen.
Link

Leveraging Different Storage Options in the AWS Cloud Whitepaper

Dieses Whitepaper dient dazu, einen Überblick über die Speichermöglichkeiten in der AWS Cloud zu geben und darüber hinaus Szenarien vorzustellen, um eine effektive Nutzung zu erzielen.
Link

AWS Security Best Practices Whitepaper

In diesem Whitepaper werden bestimmte Tools, Funktionen und Richtlinien beschrieben, um zu verstehen, wie Cloud Anwendungen innerhalb der AWS Infrastruktur von Grund auf geschützt werden können.
Link

Netflix und sein Chaos Monkey

Ein Grund warum Netflix ein so robustes und hochverfügbares System auf der Amazon Cloud betreibt, ist der selbst entwickelte und sogenannte Chaos Monkey. Der Chaos Monkey hilft Netflix dabei sicherzustellen, dass alle einzelnen Komponenten unabhängig voneinander arbeiten. Dazu zerstört der Chaos Monkey wahllos Instanzen und Services innerhalb der Netflix AWS Infrastruktur, um seinen Entwicklern dabei zu helfen, zu gewährleisten, dass jede einzelne Komponente antwortet, auch wenn die System-Abhängigkeiten nicht einwandfrei funktionieren.

Das gilt für die gesamte Cloud!

Alle genannten Bereiche gelten nicht nur für die Amazon Web Services, sondern ebenfalls für Windows Azure, Rackspace usw. Bevor man in die IaaS-Cloud eines Anbieter geht, sollte man sich vorher damit auseinandersetzen und verstehen, wie die Infrastruktur funktioniert und wie das eigene Systeme daraufhin entwickelt werden muss.

Kategorien
News

HP präsentiert mit "Service Anywhere" IT-Service-Desk aus der Cloud

Mit HP Service Anywhere hat HP eine Service-Desk-SaaS-Lösung für das IT-Service-Management (ITSM) angekündigt. Diese unterstützt Unternehmen dabei, Störungen in der IT schnell zu beheben. Das sichert die Verfügbarkeit und Servicequalität geschäftskritischer Dienste. Als SaaS-Lösung ist HP Service Anywhere einfach zu implementieren, zu bedienen und zu aktualisieren. HP bietet zudem einen HP Service Anywhere Foundation Service: Dieser Schnellstart-Service unterstützt Kunden dabei, die Service-Desk-Lösung einzuführen und in ihre IT-Umgebung zu integrieren.

Social Collaboration inklusive

HP Service Anywhere nutzt Schlüsseltechnologien wie die HP Universal Configuration Management Database (UCMDB). Die UCMDB enthält Informationen über IT-Services, Anwendungen und Hardware und deren Beziehungen über die gesamte IT-Umgebung hinweg. Diese erhält die Datenbank unter anderem von der HP Universal Discovery Software: Diese automatisiert die Erkennung kritischer IT Bestandteile und die Darstellung der Beziehungen über das sogenannte „Dependency Mapping“.

Unternehmen brauchen einfache, agile Service-Desk-Lösungen, die sie dabei unterstützen, Störungen in der IT schnell zu beheben. Diese Lösungen sollten auch schnell und ohne großen Aufwand an veränderte Unternehmensanforderungen anpassbar sein. Viele Unternehmen versuchen zudem, Service-Desk-Implementierungen und -upgrades so schnell und günstig wie möglich zu gestalten, um die Unterbrechung oder Qualitätsminderung interner Dienste zu vermeiden.

HP Service Anywhere verfügt über umfassende Service-Desk-Funktionen: Die Lösung beherrscht die Verarbeitung eingehender Anfragen („Inbound Requests“) und IT Service Configuration ebenso wie Incident-, Problem- und Change-Management. Zu den Besonderheiten der Lösung gehört die Integration von „Social Collaboration“: Per Chat können Mitarbeiter Fragen und Hinweise zur Fehlerbehebung austauschen. Service Anywhere speichert diese Informationen fallbezogen und archiviert sie für die Wiederverwendung. Das soll dazu beitragen, die Erstlösungsquote (FCR = „First Call Resolution Rate“) zu erhöhen und die Bearbeitungszeiten zu verkürzen. Zudem hilft die Funktion Eskalationen zu vermeiden, indem sie jede Störungsmeldung schnell demjenigen Servicemitarbeiter zuführt, der für die Beseitigung der Störung am besten geeignet ist. Die per Vertrag zugesicherte Verfügbarkeit von HP Service Anywhere liegt bei 99,9 Prozent.

HP Service Anywhere Hintergründe

Service Anywhere verfügt über vollständig Web-basierte Prozess-Design-Werkzeuge, die sich zu 100 Prozent über grafische Benutzeroberflächen bedienen lassen. Die Werkzeuge entsprechen den „Best Practices“ der Information Technology Infrastructure Library (ITIL) für Vorfall-, Störungs- und Change-Management. Mit den Werkzeugen von Service Anywhere lassen sich auch Upgrade-Workflows ohne Skripte oder Programmierung erstellen.

HP Service Anywhere unterstützt das schnelle Bearbeiten von Stör- oder Sicherheitsvorfällen „im Kontext“. Vorfälle werden per Social-Collaboration-Software HP Enterprise Collaboration aufgenommen, zwischen Service-Desk-Nutzern geteilt und mit den Service-Desk-Objekten in der Datenbank des Systems verknüpft. HP Service Anywhere lässt sich zudem flexibel mit HP’s „On-Premise“-Lösung HP Service Manager kombinieren.

Preise und Verfügbarkeit

HP Service Anywhere ist ab dem vierten Quartal 2012 weltweit erhältlich und kann entweder bei HP selbst oder bei HP-Vertriebspartnern bestellt werden. Die Lizenzpreise variieren je nach Dienstkonfiguration.

HP Service Anywhere ist ein Schlüsselbestandteil sowohl des HP-Converged-Cloud-Portfolios als auch der HP IT Performance Suite; HPs Software Portfolio für IT Governance, Application Lifecycle Management, Management des IT-Betriebs, Information Management und Security.

Kategorien
News

Checkliste: Überprüfen Sie einen Cloud Computing Anbieter auf Echtheit

Diese Checkliste hilft dabei, einen vermeintlichen Cloud Computing Anbieter auf seine Echtheit zu überprüfen und damit dem Cloud-Washing vorzubeugen.

Checkliste: Überprüfen Sie einen Cloud Computing Anbieter auf Echtheit by René Büst

Kategorien
News

SAP HANA One steht nun auf den Amazon Web Services bereit

Seit Anfang 2012 steht SAP HANA bereits für Entwickler auf der Infrastruktur der Amazon Web Services zur Verfügung. Nun wurde HANA One auch für den Produktivbetrieb zertifiziert und steht auf dem AWS Marketplace bereit. Für 0,99 US-Dollar pro Stunde kann die In-Memory Datenbank auf Amazon EC2 genutzt werden.

SAP HANA One auf den Amazon Web Services

Was ist HANA?

Kurz zusammengefasst ist SAP HANA eine In-Memory Datenbank, mit der zum Beispiel Echtzeit-Analysen durchgeführt werden können oder mit der sich Echtzeit-Anwendungen entwickeln und bereitstellen lassen.

HANA Use Cases

Echtzeit-Analysen

Mit HANA lassen sich zum Beispiel Echtzeit-Analysen wie Data Warehouse Aufgaben oder Vorhersagen auf Big Data Analysen als auch Reportings für den Vertrieb, das Finanzwesen oder Versand erstellen.

Echtzeit-Anwendungen

Ein weiterer Use-Case besteht in der Entwicklung von Echtzeit-Anwendungen z.B. für die Beschleunigung von ERP Kern-Prozessen oder für die Planung und Optimierung.

HANA One nutzen

Die Kosten für SAP HANA One auf AWS betragen 0,99 US-Dollar pro Stunde zzgl. 2,50 US-Dollar pro Stunde für eine EC2 Cluster Compute Eight Extra Large Instanz mit 60,5 GB RAM und Dual Intel Xeon E5 Prozessoren. Das macht in der Summe Software + Hardware 3,49 US-Dollar pro Stunde zzgl. den Standard AWS Gebühren für EBS (Elastic Block Store) und dem Datentransfer.

SAP HANA One steht auf dem AWS Marketplace zum Download bereit.

Kategorien
News

Cloudscaling integriert OpenStack mit der Google Compute Engine

Das Startup Cloudscaling hat einen Fork der Google Compute Engine (GCE) APIs mit dem Open-Source Cloud Projekt OpenStack integriert. Das erlaubt es Nutzern ihre OpenStack basierte Cloud Infrastruktur mit der Google Cloud zu verbinden.

Cloudscaling integriert OpenStack mit der Google Compute Engine

Unterstützung für das OpenStack Projekt

Cloudscaling unterstützt das OpenStack Projekt mit technologischem Wissen und der Code Entwicklung, um die GCE APIs in OpenStack zu integrieren. OpenStack ist mit mehr als 5.600 Mitgliedern, 850 beteiligten Unternehmen in 88 Ländern mittlerweile das weltweit größte Open-Source Projekt. Die kürzlich gegründete OpenStack Foundation ist zudem durch Spenden von Mitgliedern bzw. von 21 Platinum und Gold Sponsoren in höhe von 10 Millionen US-Dollar abgesichert.

API befindet sich noch im Beta-Status.

Mitglieder der OpenStack Community können den Code herunterladen und ihre laufende OpenStack Version damit updaten. Anschließend können sie die GCE API nutzen. Zwar befindet sich der Code noch im Beta-Status, soll laut Cloudscaling aber bereits stabil laufen. Dennoch muss der Live-Test noch zeigen, wie sich der Code bewährt. Cloudscaling ist für den Support und die Weiterentwicklung des GCE API Code innerhalb von OpenStack zuständig, hilft aber auch außerhalb der Community.

Kategorien
News

INSIGHTS Report: cloudControl wird zum multi-language Platform-as-a-Service

INSIGHTS Report berichtet über die Ankündigung von cloudControl seine PaaS Plattform um weitere Sprachen zu erweitern und die Buildpack API zu unterstützen.

cloudControl wird zum multi-language Platform-as-a-Service by René Büst