Kategorien
Analysen

Die Leistungsmetriken einer Cloud sind entscheidend

Cloud Computing verändert unaufhörlich die Art wie IT Services bereitgestellt werden. Neben Kosteneinsparungen gehören die einfache Adaption und ein vereinfachtes Service-Management zu den ursprünglichen Versprechen des Cloud Computing. Dennoch sehen sich Unternehmen aktuell damit konfrontiert, wie sie Services aus der Cloud mit ihrer bestehenden Unternehmens- und IT-Strategie integrieren können. Werden Cloud Lösungen im Unternehmen eingeführt, gehören Verfügbarkeit, Leistungsmetriken und die Sicherheit zu den größten Herausforderungen. Daher ist es notwendig eine Cloud-Strategie zu entwickeln, um die Transformation Schritt für Schritt zu vollziehen.

Die Leistungsmetriken entscheiden über eine Cloud

Viele Unternehmen entscheiden sich über einen Verbund unterschiedlicher Clouds (Federated Cloud). Dabei befinden sich einige Anwendungen innerhalb einer Public Cloud und ein paar in einer Private Cloud. Auf die restlichen Alt-Anwendungen wird über ein klassisches VPN zugegriffen. Um die Masse der dabei entstehenden und übertragenen Informationen zu überwachen ist ein Performance-Management-System notwendig, dass einen Überblick über sämtliche Aktivitäten aller Anwendungen gibt. Speziell die Performanz einer Anwendung misst, wie Leistungsstark die Cloud Umgebung ist, auf der sich die Anwendung befindet.

Schlechte Leistungsmetriken ergeben sich durch eine geringe Bandbreite, Latenzen auf den Datenverbindungen, zu wenig Speicherplatz bzw. langsame Festplatten, geringer Arbeitsspeicher und zu geringe CPU Zyklen. In den meisten Fällen führen zudem nicht ausreichend Ressourcen zu einer schlechten Performance der Anwendung. In manchen Fällen sorgt eine schlechte Applikations-Architektur dafür, dass die Geschwindigkeit der Anwendungen nicht den gewünschten Ergebnissen entspricht, indem die Prozesse der Anwendungen nicht korrekt über die Cloud Ressourcen verteilt wurden.

Dabei sollten Performance-Probleme keinesfalls unterschätzt werden. Denn diese können die Servicebereitstellung erheblich beeinflussen. Für einen Anwender macht es keinen Unterschied, ob der Service eine schlechte Performance hat oder gar nicht verfügbar ist. In beiden Fällen kann er den Cloud Service nicht erwartungsgemäß nutzen. Eine schlechte Performance ist daher ein No-Go und muss unter allen Umständen vermieden werden. Neben dem Verlust von Kunden sorgt eine schlechte Performance für eine Verringerung der Mitarbeiter- und allgemeinen Produktivität und kann sogar zu einem vollständigen Ausfall führen.

Die Cloud Umgebung muss beachtet werden

Die Performance einer Anwendung kann signifikant von der Umgebung abhängen in der sie bereitgestellt wird. Unternehmen müssen daher sicherstellen, dass die Performance der jeweiligen Applikation entspechend angepasst wird, bevor sie auf eine Cloud Computing Infrastruktur migriert wird bzw. neu entwickelt wird, um die Vorteile der Cloud zu nutzen. Dabei sollte man immer beachten, dass sich die Leistungsmetriken von Cloud zu Cloud unterscheiden, was zu einer echten Herausforderung werden kann.

Planen, Separieren und Skalieren

Die Kapazitätsplanung ist ein wichtiger Bestandteil der Cloud-Strategie, wenn Unternehmen ihre eigenen Cloud Umgebungen aufsetzen. Denn nur mit ausreichend Ressourcen lassen sich performante Anwendung bereitstellen, die den Mitarbeitern dabei helfen ihre Produktivität zu erhöhen.

Neben der Kapazitätsplanung ist das Thema Skalierbarkeit ein weiterer wichtiger Baustein, um die Performance einer Anwendung in der Cloud sicherzustellen bzw. diese zu erhöhen. Eine gute Anwendungsarchitektur reduziert Engpässe und Performance Probleme, indem Ressourcen intensive Prozesse voneinander getrennt und die Last über mehrere virtuelle Maschinen innerhalb der Cloud Umgebung verteilt werden.

Private Cloud ist nicht der goldene Weg

Viele Unternehmen entscheiden sich vermehrt für eine Private Cloud im eigenen Rechenzentrum, um die Kontrolle über Ressourcen, Daten, Sicherheit usw. zu behalten. Richtig ist, dass eine Private Cloud die Agilität eines Unternehmens verbessert und die Systeme bis zu einem gewissen Grad skalieren können. Allerdings sollte sich ein Unternehmen immer bewusst machen, das die Skalierbarkeit einer Private Cloud einem manuellen Prozess gleicht. Bei diesem muss in Echtzeit auf Ressourcenengpässe durch das eigene Personal reagiert werden, indem weitere Hardwarekomponenten in Form von Speicherplatz, Arbeitsspeicher oder Rechenleistung nachgerüstet werden. Für jede virtuelle Instanz wird schließlich auch die physikalische Hardware benötigt. Neben Hardware- und Softwareressourcen sind Tools zum Echtzeit-Monitoring der Umgebung daher unerlässlich.

Service Levels

In der Public Cloud bzw. Virtual/ Managed Private Cloud kann ein Service Level Agreement die Performance erhöhen, da in diesem die zu erwartenden Metriken für die Verfügbarkeit und Leistung festgehalten sind. Dabei sollte ein besonderes Augenmerk auf die Performance der Anwendung und die notwendige Leistung des Netzwerks gelegt werden. Mit diesen Werten lassen sich die erforderlichen Performance-Metriken der Cloud Computing Umgebung bestimmen. Hilfreich kann es zudem sein, wenn man die Performance der Anwendung in kleine Parameter zerlegt. Damit lassen sich die versprochenen Metriken besser messen.

Die Cloud ist kein Allheilmittel

Eine Cloud Computing Umgebung beseitigt zwangsläufig nicht alle Performance-Probleme einer Anwendung. Es besteht sogar die Möglichkeit, dass eine Cloud, im Vergleich zu einer nicht Cloud Umgebung zu mehr Performance-Problemen führt. Aus diesem Grund ist das ständige Überwachen sämtlicher Metriken einer Anwendung notwendig, um ein Gefühl für die Leistung der Cloud und der darauf bereitgestellten Anwendung zu bekommen. Darüber hinaus sorgt man damit selbst dafür, dass die vereinbarten Service Levels eingehalten werden und die Performance und Skalierbarkeit der Anwendung von Seiten des Cloud Computing Anbieters sichergestellt werden.


Bildquelle: http://www.fusionio.com

Kategorien
News

Dropbox testet Zwei-Faktor-Authentifizierung im Betastatus

Dropbox stand in den letzten Wochen auf Grund von diversen Sicherheitslücken in der Kritik. Als Reaktion darauf nahm das Unternehmen Änderungen an seinem Sicherheitssystem vor und versprach weitere Verbesserungen hinsichtlich weiterer Sicherheitsfunktionen. Einen ersten Schritt hat Dropbox nun gemacht und eine Zwei-Faktor-Authentifizierung im Betastatus ausgerollt.

Dropbox testet Zwei-Faktor-Authentifizierung im Betastatus

Zwei-Faktor-Authentifizierung im Betastatus

Die Zwei-Faktor-Authentifizierung ist derzeit noch eine experimentelle Funktion. Angemeldete Nutzer müssen dafür unter https://www.dropbox.com/try_twofactor eine temporärer URL aufrufen. Diese leitet in die Sicherheitseinstellungen des eigenen Accounts um, wo die Zwei-Faktor-Authentifizierung aktiviert werden kann.

Keine Hardware Tokens

Derzeit existieren keine Hardware Tokens für das System. Stattdessen kann sich ein Nutzer die Sicherheitscodes per SMS zuschicken lassen oder alternativ eine App nutzen, um die Tokens zu erhalten. Da Dropbox das „Time-based One-Time Password (TOTP) Protocol“ einsetzt, hat sich das Unternehmen dafür entschieden keine eigene App dafür zu entwickeln. Benutzer stehen drei bestehende Apps zur Verfügung.

  • Google Authenticator (Android/iPhone/BlackBerry)
  • Amazon AWS MFA (Android)
  • Authenticator (Windows Phone 7)

Die Anmeldung erzeugt ebenfalls einen 16 Zeichen langen Code, der sicher aufbewahrt werden sollte. Der Code wird für den Fall benötigt, dass der Token nicht funktioniert und die Zwei-Faktor-Authentifizierung wieder deaktiviert werden muss.

Kategorien
News

FastGlacier: Der erste Windows Client für Amazon Glacier

Es ist nicht einmal eine Woche her, dass die Amazon Web Services ihren Tape-Library Killer bzw. Service für das Langzeit-Backup Amazon Glacier präsentiert haben. Nun steht der erste Windows Client – FastGlacier – von NetSDK Software zum Download bereit. Da Amazon sich i.d.R. nicht um eigene GUI Clients für seine Services kümmert, zeigt dies, dass das Ökosystem um die Amazon Web Services herum gut funktioniert.

FastGlacier: Der erste Windows Client für Amazon Glacier

FastGlacier – Windows Client für Amazon Glacier

FastGlacier ist ein kostenloser Windows Client für Amazon Glacier, mit dem Daten von einem Windows basierten System auf den Speicher von Amazon Glacier hoch- und heruntergeladen sowie verwaltet werden können. Die Software unterstützt das parallele Hochladen von Dateien inkl. Pause und Resume Funktion. Darüber hinaus können mehrere Amazon Glacier Accounts genutzt werden. Mit FastGlacier lassen sich Dateien mit einer Größe von bis zu 40TB verwalten, die ebenfalls via Drag and Drop mit dem Windows Explorer hin- und hergeschoben werden können.

Für die private Nutzung ist FastGlacier kostenlos. Wer die Software im Unternehmen, Regierungsbereich oder anderweitig kommerziell einsetzen möchte, zahlt pro Lizenz 29,95 US-Dollar. Wobei es bereits ab der zweiten Lizenz Ermäßigungen gibt.

Amazon Glacier

AWS beschreibt Amazon Glacier als einen kostengünstigen Storage Service, der dafür entwickelt wurde, um Daten dauerhaft zu speichern. Zum Beispiel für die Datenarchivierung bzw, die Datensicherung. Der Speicher ist, entsprechend der aktuellen Marktsituation, sehr günstig. Kleine Datenmengen können ab 0,01 US-Dollar pro GB pro Monat gesichert werden. Um den Speicher so kostengünstig anzubieten, ist der Service, im Vergleich zu Amazon S3, für solche Daten gedacht, auf die selten zugegriffen wird und deren Zugriffszeit mehrere Stunden betragen darf. Dateien, die per Glacier gesichert werden, sollen laut Amazon eine Langlebigkeit von 99,999999999 Prozent aufweisen. Bei einer Speichermenge von 100 Milliarden Objekten entspricht das den Verlust von einem Objekt pro Jahr.

Weitere Lösungen von NetSDK Software

Neben FastGlacier bietet NetSDK Software mit TntDrive bereits eine Lösung für das Mapping von Amazon S3 Buckets als Windows Laufwerk und mit dem S3 Browser einen kostenlosen Windows Client (Browser) für Amazon S3.

Kategorien
News

Evernote Business: Neuer Mitbewerb für Google Apps, Zoho und Microsoft Office 365

Evernote erweitert seine Cloud-basierte Notizen- und Dokumenten-Plattform. Mit Evernote Business richtet sich der Service speziell an Unternehmen, um Mitarbeitern das ortsunabhängige Erstellen von Dokumenten und die Zusammenarbeit zu erleichtern. Damit macht Evernote erste Schritte in Richtung der Cloud-basierten Office Suites wie Google Apps, Zoho und Microsoft Office 365.

Evernote Business: Neuer Mitbewerb für Google Apps, Zoho und Microsoft Office 365

Speziell auf den Unternehmenseinsatz ausgerichtet

Evernote ist ein sehr einfach gehaltener Service und als eine Art „Sammelsystem“ von Informationen und Daten entstanden. Dabei ist der Service wirklich sehr nützlich. Auf Grund seines Cloud-basierten Ansatz, lassen sich nahezu auf jedem Gerät Notizen erstellen, die bei einer aktiven Datenverbindung nahtlos synchronisiert werden. Als Nutzer der Premium Version ist ebenfalls die Offline-Nutzung auf iOS, Android und Windows möglich. Existiert wieder eine Datenverbindung, werden die Daten anschließend automatisch synchronisiert.

Evernote Business wird Funktionen für die unternehmensweite Bereitstellung der Lösung implementieren, was ebenfalls das unternehmensweite Teilen individueller Notizen und Notizbücher beinhaltet. Für das Management stellt Evernote Business eine zentrale Konsole sowie einen „Customer Success Manager“ bereit, mit dem die Aktivitäten überwacht werden können. Zudem lässt sich den Mitarbeitern damit ein Support für die Nutzung der Plattform anbieten.

Großer Mittbewerb

Evernote navigiert mit Business langsam auf die bestehenden Lösungen der großen Anbieter wie Google Apps oder Microsoft Office 365 zu. Zwar verfügt Evernote, im Vergleich zu den genannten Anbietern, über deutlich weniger Funktionen (keine E-Mail, Kalender usw.). Allerdings ist Evernote bewusst sehr schmall und einfach gehalten und gerade deswegen für viele Benutzer sehr attraktiv. Darüber hinaus hat die Anwendung das Potential solche, ähnliche oder gar moderne Funktionen aufzurüsten, wenn die Plattform sich stetig erweitert.

Nach eigenen Angaben hat der Service bereits 40 Millionen registrierte Benutzer. Evernote Business wird im Dezember erscheinen.

Kategorien
News

Amazon Web Services präsentieren Amazon Glacier: Günstiger Cloud Storage für das Langzeit-Backup

Die Amazon Web Services (AWS) haben gestern Amazon Glacier vorgestellt. Dabei handelt es sich um einen Cloud Service für die Datenarchivierung bzw. für das Langzeit-Backup. Glacier soll Unternehmen dazu bewegen, ihre Tape Libraries aufzugeben und die Daten stattdessen kostengünstig in die Cloud zu verlagern. Dateien, die per Glacier gesichert werden, sollen laut Amazon eine Langlebigkeit von 99,999999999 Prozent aufweisen. Bei einer Speichermenge von 100 Milliarden Objekten entspricht das den Verlust von einem Objekt pro Jahr.

Amazon Web Services präsentieren Amazon Glacier: Günstiger Cloud Storage für das Langzeit-Backup

Amazon Glacier

AWS beschreibt Amazon Glacier als einen kostengünstigen Storage Service, der dafür entwickelt wurde, um Daten dauerhaft zu speichern. Zum Beispiel für die Datenarchivierung bzw, die Datensicherung. Der Speicher ist, entsprechend der aktuellen Marktsituation, sehr günstig. Kleine Datenmengen können ab 0,01 US-Dollar pro GB pro Monat gesichert werden. Um den Speicher so kostengünstig anzubieten, ist der Service, im Vergleich zu Amazon S3, für solche Daten gedacht, auf die selten zugegriffen wird und deren Zugriffszeit mehrere Stunden betragen darf.

Hintergrund: Amazon Glacier

Daten in Amazon Glacier werden als ein Archive gespeichert. Dabei kann ein Archiv aus einer einzigen oder mehreren einzelnen zusammengefassten Dateien bestehen, die in einem sogenannten Tresor organisiert werden können. Der Zugriff auf einen Tresor kann über den AWS Identity and Access Management-Service (IAM) gesteuert werden. Um ein Archiv von Glacier zu laden, ist ein Auftrag erforderlich. Die Bearbeitung so eines Auftrags benötigt, laut Amazon, in der Regel zwischen 3,5 bis 4,5 Stunden.

Tape Library Ade

Mit Amazon Glacier nimmt AWS den Kampf mit on-Premise Speichersystemen, in erster Linie mit den, im Unternehmensumfeld stark verbreiteten, Tape Libraries auf. Insbesondere die hohe Datenredundanz und der Preis sind ausschlaggebende Argumente gegen die in die Jahre gekommene Tape Technologie.

Anstatt auf gewohnte Speichersysteme, verlässt sich Amazon Glacier auf kostengünstige Commodity Hardware. (Der ursprüngliche Ansatz, Cloud Computing kostengünstig anzubieten.) Für eine hohe Datenredundanz besteht das System aus einer sehr großen Menge von Speicher-Arrays, die sich aus einer Vielzahl von kostengünstigen Festplatten zusammensetzen.

Wie Werner auf seinem Blog schreibt, wird Amazon Glacier in naher Zukunft mir Amazon S3 verschmelzen, um Daten zwischen den beiden Services nahtlos übertragen zu können.

Mit Amazon Glacier zeigen die Amazon Web Services wieder einmal, dass sie der disruptivste und mit Abstand innovativste Cloud Computing Anbieter im Bereich Infrastructure-as-a-Service sind.


Bildquelle: All Things Distributed

Kategorien
News

AWS Elastic Beanstalk unterstützt nun Python und eine nathlose Datenbankintegration

AWS Elastic Beanstalk unterstützt nun auch Python Applikationen. Das hat Amazon auf seinem Blog angekündigt. Elastic Beanstalk ist eine Art Platform-as-a-Service (PaaS) von Amazon über den PHP, Java, .NET und nun auch Python Anwendungen ausgerollt und verwaltet werden können. Dazu wird der jeweilige Anwendungscode in die Amazon Cloud hochgeladen und Elastic Beanstalk sorgt für das hochfahren entsprechender Amazon EC2 Instanzen, Load Balancer, das Auto Scaling und Monitoring.

AWS Elastic Beanstalk unterstützt nun Python und eine nathlose Datenbankintegration

Python in der Amazon Cloud

Elastic Beanstalk ist in der Lage Python Applikationen auszuführen, die für den Apache HTTP Server und WSGI bestimmt sind. Das bedeutet, dass Beanstalk ebenfalls Django und Flask Applikationen unterstützt. Neben der AWS Management Console lassen sich Anwendungen zusätzlich über eb und Git mit der Kommandozeilen ausrollen.

Integration mit Amazon RDS

Sollte eine Anwendung eine relationale Datenbank benötigen, ist Elastic Beanstalk in der Lage, eine Amazon RDS Datenbank Instanz für die Anwendung zu starten. Die RDS Datenbank Instanz wird dazu automatisch so konfiguriert, dass sie mit der Amazon EC2 Instanz kommuniziert, auf welcher sich die eigentliche Anwendung befindet.

Anpassen der Python Umgebung

Die eigene Python Laufzeitumgebung für Elastic Beanstalk kann mit einer Reihe von deklarativen Textdateien innerhalb der Anwendung angepasst werden. Sollte die Anwendung bspw. eine requirements.txt in der oberen Verzeichnisebene benötigen, sorgt Elastic Beanstalk mittels pip automatisch dafür, dass die entsprechenden Abhängigkeiten installiert werden.

Darüber bietet Elastic Beanstalk nun einen neuen Konfigurations-Mechanismus, mit dem Pakete über yum installiert, Skripte eingerichtet und Umgebungsvariablen gesetzt werden können. Dazu muss lediglich ein „.ebextensions“ Verzeichnis innerhalb der Python Anwendung erstellt und dieses in die „python.config“ eingetragen werden. Elastic Beanstalk lädt diese Konfigurationsdatei und installiert anschließend die yum Pakete, führt die Skripte aus und setzt die Umgebungsvariablen.

Snapshot der Logdateien erstellen

Um Probleme zu debuggen können ab sofort Snapshots aus der AWS Management Console erstellt werden. Elastic Beanstalk fasst die ersten 100 Zeilen aus verschiedenen Logdateien zusammen. Darunter die Apache Error Log. Die Snapshots werden in Amazon S3 gespeichert und automatisch nach 15 Minuten gelöscht.

Kategorien
Analysen

Schatten-IT gewinnt weiter an Bedeutung: IT-Abteilungen verlieren immer mehr Einfluss

Das die Schatten-IT im Zusammenspiel mit dem Cloud Computing stark wachsen wird und in Zukunft immer mehr an Bedeutung gewinnt, haben Dietmar Wiedemann und ich bereits Mitte 2011 beschrieben (Erstveröffentlichung, 16.08.2011). Nun hat eine Studie der Wirtschaftsprüfer von PricewaterhouseCoopers (PwC) ergeben, dass mehr als 30 Prozent der IT-Ausgaben nicht aus dem offiziellen IT-Budget stammen und damit um die IT-Abteilungen herum eingekauft wird.

Die IT-Abteilung wird übergangen

Die jeweiligen Unternehmensbereiche umgehen mittlerweile die IT-Abteilungen, um ihre eigenen Entscheidungen zu treffen, welche Cloud-basierte Applikationen oder mobile Endgeräte sie einsetzen wollen. Der CIO und die IT-Mitarbeiter haben also immer weniger Kenntnisse darüber, was für IT-Lösungen tatsächlich im Unternehmen eingesetzt werden und verlieren die Kontrolle darüber.

Bis zu 30 Prozent der Ausgaben fließen an der IT-Abteilung vorbei

Basierend auf einer Umfrage „Raising Your Digital IQ“, befragte PwC 500 US-amerikanische Unternehmen mit einem Jahresumsatz von etwa 500 Millionen US-Dollar. PwC schätzt, dass zwischen 15 Prozent bis zu 30 Prozent der IT-Ausgaben an der IT-Abteilung vorbei ausgegeben wird.

Dabei machen Cloud Services den größten Anteil an Ausgaben aus, die nicht über den gewöhnlichen Einkaufsprozess stattfinden. In den meisten Fällen fällt diese Form der Schatten-IT erst dann auf, wenn die Bereichsleiter mit den Cloud Services zu den IT-Abteilungen gehen und einfordern, dass die Unternehmensdaten zur Analyse mit den Daten aus der Cloud integriert werden.

Schatten-IT ist ein evolutionärer Schritt

Für mich kommt diese Entwicklung, wich ich bereits 2011 geschrieben habe, nicht überraschend. Die IT-Abteilungen gelten seit Jahren als die Spielverderber und Innovationsbremsen in den Unternehmen. Lange saßen sie am längeren Hebel, wenn es darum ging, dem Mitarbeiter oder den Projekten spezifischen Anwendungen oder Hardware zu besorgen. Das dauerte z.T. mehrere Wochen, gar Monate. Mit dem Einzug des Cloud Computing, BYOD und der Consumerization of IT (CoIT) wandelt sich das Bild. IT-Abteilungen werden nicht überflüssig, aber sie müssen langsam damit beginnen, von ihrem Thron herunterzukommen und mit den Mitarbeitern und Kollegen auf einer Ebene kommunizieren.

Schatten-IT schafft Probleme

CIOs sollten natürlich mit Bedenken der Schatten-IT entgegentreten. Nicht nur, dass sie dadurch die Kontrolle über ihre IT-Infrastruktur verlieren und die Heterogenisierung voranschreitet. Wie sollen sie damit umgehen, wenn ein Mitarbeiter selbstverständlich erwartet, dass sein Android oder iPhone integriert werden soll, das Unternehmen aber eine Blackberry Strategie verfolgt? Oder wenn das Smartphone plötzlich keine Verbindung mehr zum Provider aufbaut? Wer ist dann dafür verantwortlich? Eine weitere Herausforderung besteht zudem darin, wenn Daten unter dem Radar der IT-Abteilung in einem Cloud Service verschwinden.

Ich habe bereits das Thema voranschreitende Heterogenisierung angesprochen. IT-Abteilungen kämpfen grundsätzlich mit Insellösungen in ihrer IT-Umgebung. Es gibt nun einmal nicht die homogone IT-Infrastruktur, wo jedes Rad in das andere fasst bzw. jede Schnittstelle perfekt mit der anderen integriert ist. Durch die Schatten-IT werden sich die Insellösungen weiter vergrößern. Es werden immer mehr voneinander unabhängige Silos von Daten und Plattformen enstehend, jede mit einer eigenen proprietären Schnittstelle.

Schatten-IT treibt die Innovationskraft

IT-Abteilungen mögen die Schatten-IT als eine Anarchie der eigenen Kollegen verstehen. Damit könnten sie auf der einen Seite sogar recht haben. Ich würde es allerdings eher als einen Hilfeschrei der Kollegen verstehen, die einfach nicht mehr auf die IT-Abteilung warten wollen bzw. können. Schließlich nimmt der Druck in den Fachabteilungen ständig zu, dem Markt Innovationen und neue Lösungen zu präsentieren.

Schatten-IT fördert meiner Meinung nach die Innovationskraft im Unternehmen. Und das nicht nur auf Grund von Cloud Services. Die Fachabteilungen tun gut daran, die Zügel in die Hand zu nehmen und den IT-Abteilungen zu zeigen, was sie benötigen. IT-Abteilungen werden versuchen den unerlaubten Zugriff auf Cloud-basierte Lösungen zu unterbinden. Das wird die Produktivität der Fachabteilungen jedoch wieder vermindern. Besser wäre es, wenn die IT-Abteilungen, für das Wohl des Unternehmens, sich frühzeitig mit neuen Technologien und Trends auseinanderzusetzen, diese evaluieren und den Kollegen präventiv anbieten, anstatt nur auf die Entscheidungen der Fachabteilungen zu reagieren.

Lösung: Kommunikation

Wie kann der Schatten-IT vorgebeugt oder gegen eine bestehende entgegengewirkt werden? Zwei Wörter: Miteinander reden! (Zwischenmenschliche Kommunikation!)

Weitere Artikel zum Thema Schatten-IT


Bildquelle: http://www.hotpixel.ch

Kategorien
News

Die Amazon Web Services erweitern Amazon RDS um weitere Funktionen für Oracle Datenbanken

Die Amazon Web Services haben vier neue Funktionen für Amazon RDS for Oracle präsentiert. Darunter die Möglichkeit, die Datenbank in einer Private Cloud zu betreiben. Dazu können Unternehmen nun RDS (Relational Database Service) Instanzen mit einer Oracle Datenbank innerhalb einer VPC (Virtual Private Cloud) nutzen. Administratoren erhalten, im Vergleich zu einer Standard Instanz oder einer virtuellen Maschine, damit mehr Kontrolle.

Die Amazon Web Services erweiterten Amazon RDS um weitere Funktionen für Oracle Datenbanken

Erweiterter Oracle Support

Weitere neue Funktionen sind die Unterstüzung für Oracle APEX (Application Express), XML DB und Time Zone. Mit Time Zone können Administratoren Informationen zu Timestamps persistent speichern, wenn Benutzer die Amazon Web Services über mehrere Zeitzonen hinweg verteilt einsetzen.

Bei APEX handelt es sich um eine freies Web-basiertes Entwicklungstool für Oracle Datenbanken. Mit dem Tool sollen ebenfalls Entwickler mit geringen Programmierkenntnissen Anwendungen entwickeln und ausrollen können. Das Entwicklungs-Framework für APEX bietet Wizards und Eigenschaftsfenster für die jeweiligen Objekte, mit denen Anwendungen geschrieben und gewartet werden sollen. Amazon RDS unterstützt die APEX Version 4.1.1.

XML DB ist eine Funktion von Oracle Datenbanken und bietet native XML Speicher- und Abfrage-Möglichkeiten.

Amazon RDS for Oracle

Mit Amazon RDS lassen sich Oracle Database 11g auf der Amazon Cloud bereitstellen. Der Service bietet Datenbank-Administrationsaufgaben wie das Provisioning, Backups, Software-Patches, Monitoring und Hardware-Skalierung.

Unternehmen können entweder ihre eigenen Datenbanken-Lizenzen nutzen oder lassen Amazon sich um die Lizenzierung kümmern. Die Preise betragen dann 0,11 Dollar pro Stunde bzw. 0,16 Dollar pro Stunde.

Erst kürzlich hatte Amazon eine Reihe von Verbesserungen für seinen Cloud-basierten Datenbank-Service Dynamo vorgestellt. Darunter die Aktualisierung der DynamoDB Management-Konsole.

Kategorien
News

Rackspace bietet OpenStack Private Cloud zum kostenlosen Download

Rackspace bietet ab sofort seine Rackspace Private Cloud Software, auf Basis von OpenStack „Essex“, zum kostenlosen Download (1,8GB) an. Dabei handelt es sich um dieselbe Version, die Rackspace einsetzt, um die selbst gehostete Private Cloud zu betreiben.

Ubuntu 12.04 LTS, KVM, Horizon und mehr

Die Rackspace Private Cloud Software, mit dem Codenamen „Alamo“, umfasst Rackspace Chef-konfigurierte Version von OpenStack „Essex“ und ist zu 100% Open-Source. Die neue OpenStack Version „Folsom“ wird voraussichtlich im September erscheinen.

Alamo beinhaltet Ubuntu 12.04 LTS als Host Betriebssystem und einen KVM Hypervisor. Zum weiteren Umfang gehören das Horizon Dashboard, Nova Compute, Nova Multi Scheduler, Keystone Integrated Authentication, die Glance Image Library und verschiedene APIs. Rackspace arbeitet darüber hinaus mit weiteren Partner wie Red Hat zusammen, um in der Zukunft weitere Host Betriebssysteme und OpenStack Distributionen anzubieten.

Die gesamte „Alamo“ Version umfasst einen Installer, mit dem Unternehmen innerhalb von ein paar Minuten eine eigene Private Cloud ausrollen sollen können.

OpenStack für die Masse

Rackspace gibt zu, dass OpenStack zu Recht kritisiert wurde, nur von OpenStack Experten installiert und betrieben werden zu können. Mit „Alamo“ möchte Rackspace nun auch nicht Entwicklern die Chance geben, eine eigene OpenStack Cloud unter 30 Minuten installieren zu können.

Rackspace ist sich selbst darüber im Klaren, dass sie nicht direkt von dem Angebot der Private Cloud Software profitieren werden, da die Lösung als Open-Source lizensiert wurde. Allerdings erhofft sich das Unternehmen Einnahmen durch Support und weitere Services rund um die Software. Daher bietet Rackspace zusammen mit der Veröffentlichung der Private Cloud Software einen „Escalation Support Service“ an, der einen 24/7 Telefonsupport umfasst. Im Laufe des Jahres sollen weitere Services wie eine Cloud Monitoring Lösung folgen.

Ein sinnvoller Schritt

Rackspace macht mit der kostenlosen Veröffentlichung seiner OpenStack Private Cloud Version einen Schritt in die richtige Richtung. Viele etablierte und neue Cloud Anbieter sind mittlerweile auf den OpenStack Zug aufgesprungen und nutzen die Open-Source Cloud für eigene Infrastructure Services (z.B. HP), aber auch als unterliegende Architektur für Software-as-a-Service Angebote (z.B. Deutsche Telekom).

Insbesondere für reine Infrastruktur-Anbieter ist es daher sehr schwierig geworden, ihren Kunden einen wahren Mehrwert gegenüber den anderen Anbietern zu geben, die ebenfalls auf OpenStack setzen. Der einzige Weg sich zu differenzieren besteht daher darin, u.a. weitere Services und einen sehr guten Support rund um die eigene OpenStack Distribution anzubieten.

Kategorien
News

Checkliste: Kriterien zur Auswahl eines Cloud Computing Anbieter

Cloud Computing Anbieter haben auf Unternehmen den größten Einfluss auf dem Weg in die Cloud. Dazu zählen die Eigenschaften und der Charakter des Anbieters bzgl. des Umgangs mit seinen Kunden und wie dieser arbeitet. Die größte Herausforderung stellt zudem die Selektion eines oder mehrerer Anbieter dar, um die Ansprüche des Unternehmens in Bezug auf die Integrationsmöglichkeiten, die Unterstützung der Geschäftsprozesse etc. so optimal wie möglich zu erfüllen.

Diese Checkliste hilft bei der Bestimmung von Kriterien für die Auswahl eines Cloud Computing Anbieter.

Checkliste: Kriterien zur Auswahl eines Cloud Computing Anbieter by René Büst