Kategorien
Grundlagen

Was ist iPaaS?

Eine der größten Herausforderungen bei der Nutzung von Cloud Services ist die saubere und sorgfältige Integration. Um die Anforderungen an sicheren und zuverlässigen Cloud-Integrations-Lösungen zu erfüllen, haben bereits einige Anbieter damit begonnen sogenannte Integration Platform-as-a-Services (iPaaS) anzubieten.

Bei iPaaS handelt es sich also um cloud-basierte Integrationslösungen, denen derzeit eine immer größere Bedeutung zugesprochen werden. Ein Grund warum iPaaS wohl eine Zukunft besitzt ist neben dem sehr interessanten technologischen Nutzen und den Möglichkeiten das Research Paper „Gartner Reference Model for Integration PaaS„. Diese wachsende Aufmerksamkeit ist ein gutes Zeichen für iPaaS Anbieter, aber es herrscht weiterhin noch Unklarheit darüber, was iPaaS tatsächlich ist oder wo der Nutzen liegt.

In einfachen Worten ausgedrückt ist iPaaS eine Plattform zum Erstellen und Bereitstellen von Integrationen innerhalb der Cloud und zwischen Clouds und Unternehmen. Mit iPaaS können Anwender „Integration Flows“ entwickeln, mit denen Anwendungen, die sich in der Cloud oder On-Premise befinden, untereinander verbunden werden und anschließend ausgerollt werden können ohne die dafür benötigte Hardware oder Middleware dafür installieren und verwalten zu müssen.

Eine schematische Darstellung von iPaaS via Mulesoft

In einer weitergehenden Definition und Spezifität von iPaaS erläutert Gartner eine Reihe von wichtigen Funktionen in seinem Referenzmodell. Dazu gehören Tools und Technologien, welche die Ausführung der „Integration Flows“ unterstützen, die Entwicklung und das Life Cycle Management von Integrationen, die Verwaltung und Überwachung der „Application Flows“, Governance und essentielle Cloud Funktionen wie Mandantenfähigkeit, Elastizität und Self-Provisioning.

Gartner sieht iPaaS ebenfalls als potenzielle Plattform für den Kauf, Verkauf und Austausch von „Integration Flows“ (out-of-the-box und custom-built) zwischen Anwendern, Dienstleistern und Integrationsanbietern.

Da sich das iPaaS Modell noch in einem frühen Stadium befindet, weist Gartner darauf hin, dass die iPaaS Angebote die sich derzeit auf dem Markt befinden möglicherweise nicht alle Funktionen des Referenzmodells aufweisen. Jedoch identifiziert Gartner drei Kategorien von iPaaS Anbietern, von denen jeder einen anderen Bereich der Integration betont:

  • E-Commerce und B2B-Integration
  • Cloud-Integration
  • Enterprise Service Bus (ESB) und Service Oriented Architecture (SOA) Infrastrukturen
Kategorien
News

Die Amazon Web Services veröffentlichen den "Amazon Simple Workflow" – Cloud-Based Workflow Management

Die Amazon Web Services erweitern ihre Cloud Angebote um den „Amazon Simple Workflow“. Dabei handelt es sich um einen Service für die Steuerung der Ablauforganisation.

Wie Jeff Barr auf dem offiziellen AWS Blog schreibt, ermöglicht der Amazon Simple Workflow Service (SWF) das Erstellen und Ausführen von verteilten und fehlertoleranten Anwendungen die sich über mehrere Cloud-basierte-, On-Premise- oder hybriden Systemen erstrecken. Der Amazon Simple Workflow kümmert sich dabei um die Koordination des Flusses von synchronen oder asynchronen Aufgaben.

Der Service kann für viele Arten von mehrstufigen Operationen inkl. der traditionellen Geschäftsprozesse (z.B. die Verarbeitung einer Bestellung oder das Hinzufügen eines neuen Mitarbeiters) eingesetzt werden. Dazu gehören ebenfalls das Einrichten einer komplexen Multi-Tier-Anwendung oder auch Umgang mit dem Entscheidungsprozess für ein Multi-Player Online-Spiel.

Der Amazon Simple Workflow stellt dazu die Infrastruktur bereit, mit der ein Workflow (wie bspw. der Oben) implementiert werden kann. Zu den Funktionen von SWF gehören u.a.:

  • Speichern von Metadaten zu einem Workflow und seiner Bestandteile.
  • Speichern von Aufgaben für Nodes und Warteschlange bis ein Node sie benötigt.
  • Weist einem Node Aufgaben zu.
  • Routed die Informationen zwischen den betroffenen Nodes und dem Workflow.
  • Verfolgt den Fortschritt der einzelnen Aufgaben eines Nodes, mit konfigurierbaren Timeouts.
  • Speichert den Workflow-Status permanent.

Preise

Der Amazon Simple Workflow wird wie alle AWS Dienste auf Basis von Pay-as-you-go abgerechnet. Es wird also nur dann berechnet, wenn der Service genutzt und die Leistung erbracht wird. Zunächst können alle AWS Kunden kostenlos starten. Es können 1.000 Workflows und 10.000 Aufgaben pro Monat erstellt werden, wobei diese für maximal 30.000 Workflow-Tage (kostenlos) laufen dürfen. (Ein aktiver Workflow pro Tag entspricht einem Workflow-Tag)

Die weiteren Kosten betragen:

  • Kosten für die Ausführung pro Workflow: 0,0001 US-Dollar und weitere 0,000005 US-Dollar pro Tag, wenn dieser für mehr als 24 Stunden aktiv bleibt.
  • Kosten für Tasks, Signals und Markers: 0,000025 US-Dollar für jeden ausgeführten Task, Timer, Signal und Marker.
  • Kosten für die Bandbreite: 0,10 US-Dollar für das erste Gigabyte an eingehenden Daten. Für das erste Gigabyte an ausgehenden Daten entstehen keine Kosten. Im Anschluss werden die üblichen AWS Gebühren erhoben.
Kategorien
Management

Private Cloud Computing

Matthias Rechenburg ist Projektmanager von openQRM und CEO der openQRM Enterprise. Im Interview spricht er über das Thema Private Cloud Computing und wie damit die Effizienz des Rechenzentrums verbessert werden kann.

CloudUser: Eine Private und eine Public Cloud haben prinzipiell dieselbe DNA. Was sind die Eigenschaften, die den Unterschied ausmachen?

Matthias Rechenburg: Die Grenzen zwischen Private und Public Clouds sind fließend. In einer Private Cloud werden die verfügbaren Cloud-Ressourcen (z.B. virtualisierte Hosts) “in-house” betrieben. Das heißt, ein in der eigenen Firma beschäftigter Systemadministrator oder die IT-Abteilung kümmert sich um die Verwaltung und Administration der Cloud. Ein Pool firmeneigener Server wird mithilfe einer Private Cloud den Mitarbeitern flexibel und dynamisch zur Verfügung gestellt.

Im Gegensatz dazu werden in Public Clouds “öffentliche” Ressourcen angeboten, die von “externen” Systemadministratoren des Public Cloud Anbieters zur Verfügung gestellt werden. Hierbei muss man speziell den Aspekt der Datensicherheit beachten, da firmeneigene Daten auf “extern” verwalteten Systemen gespeichert werden.

Eine Vermischung von Private und Public Clouds findet statt, wenn eigene und öffentliche Ressourcen verwendet werden. Man spricht dann von Hybrid Cloud Computing.

CloudUser: Böse Zungen behaupten, dass die Kostenvorteile, die man durch eine Public Cloud erhält, mit einer Private Cloud obsolet sind. “Es handelt sich dabei doch nur um Virtualisierung!” Wie stehst Du dazu?

Matthias Rechenburg: Die Private Cloud verbindet Virtualisierung mit kompletter Automation. Die Automation macht die Dynamik in der Cloud erst möglich. Eine Private Cloud ermöglicht es dem Betreiber, seine vorhandenen Ressourcen (Server Systeme) effizienter zu nutzen und die Zeit, die es benötigt, um ein neues System betriebsfertig bereitzustellen, erheblich zu reduzieren. Auch werden dank dem Cloud Abrechungssystem Ressourcen wieder freigestellt und können für andere Zwecke weitergenutzt werden. Das spart die Anschaffung neuer Server Systeme durch bessere Ausnutzung der vorhandenen Ressourcen.

Des Weiteren geht es beim Private Cloud Computing um den Betrieb von eigenen Systemen. Das heißt, der Cloud Betreiber muss sich nicht nur um die Virtualisierung kümmern, sondern um den kompletten Betrieb des Data-Centers. Hierbei lässt sich mithilfe von Standardisierung, die von der Cloud vorgegeben wird, und Automatisierung eine erhebliche Kostenersparnis erzielen. Z.B. bieten einige Cloud Systeme auch die Integration mit Out-of-Band Management, die automatisch Server, die momentan nicht benötigt werden, ausschalten und bei Bedarf wieder “wecken”.

Die möglichen Kostenersparnisse mittels Private Cloud Computing verteilen sich also auf unterschiedliche Aspekte :

  • bessere Ausnutzung vorhandener Hardware
  • effizientere Administration durch Standardisierung
  • Zeiteinsparung durch Automation
  • weniger Stromverbrauch durch intelligentes und automatisiertes Out-of-Band Management

CloudUser: Nachdem in den vergangenen Jahren zahlreiche Anläufe unternommen wurden, um eine Definition für Cloud Computing zu finden, wird sich nun auf den Unterschied zwischen einer Public Cloud und einer Private Cloud gestürzt. Wie würde die Definition einer Private Cloud von Dir lauten?

Matthias Rechenburg: Eine Private Cloud ist eine Abstraktion von “eigenen” Data-Center Ressourcen mittels eines “ Service”.

CloudUser: Mittlerweile setzen eine Vielzahl von Unternehmen auf Virtualisierung, um ihre Server zu konsolidieren und damit Platz einzusparen und Kosten zu reduzieren. In welchen Fällen sollte man weiterhin eine klassische Virtualisierung verwenden und wann zu einer Private Cloud wechseln?

Matthias Rechenburg: Mit Virtualisierung und klassischer Administration stößt man schnell auf Grenzen der Administrierbarkeit. Die Konsolidierung mithilfe von Virtualisierung hat normalerweise zur Folge, dass man nun viel mehr Systeme verwalten muss als zuvor. Der Systemadministrator ist bei der Verwaltung und dem Betrieb großer Rechenzentren immer noch das “Bottleneck”. Hier bietet Private Cloud Computing eine Lösung.

Eine Private Cloud passt z.B. perfekt in ein jedes QA- und Entwickler Team. Mittels effektiver Ressourcenplanung und optimierter Nutzung der vorhandenen Systeme lässt sich die Effizienz beider Teams erheblich steigern. Ein QA Mitarbeiter kann sich so zu jeder Zeit ein “frisches” Test-System bestellen und direkt nutzen, ohne auf Arbeiten des Systemadministrators warten zu müssen.

CloudUser: Welches ist Deiner Meinung nach der richtige Weg zur Nutzung einer Public Cloud? Sollte man mit einer Private Cloud beginnen, dann eine hybride Cloud betreiben und dann erst komplett in eine Public Cloud wechseln? Oder lieber konkrete Projekte direkt in eine Public Cloud verlagern?

Matthias Rechenburg: Ob man Private-, Public-, oder Hybrid-Cloud Computing verwendet, hängt immer stark davon ab, was man überhaupt bewerkstelligen möchte. Bessere Effizienz der eigenen Ressourcen bietet uns die Private Cloud. Lastverteilung und die Verwendung von extern verwalteten Ressourcen bietet uns die Public Cloud. Speziell für alle Anwendungen und Services, die hohe Lastspitzen (“peaks”) in der Ressourcen Nutzung aufweisen (z.B. Shopsysteme zum Weihnachtsgeschäft), sind speziell die Public Clouds eine gute Möglichkeiten diese Lastspitzen abzufangen ohne weiter eigene Ressourcen anschaffen zu müssen.

Nicht nur auf Grund der vollen Flexibilität, aber vor allem um den sogenannten “Vendor-lockin” in der Cloud zu vermeiden, ist Hybrid Cloud Computing ein sehr wichtiger Aspekt. Hybrid Cloud Computing bietet die Möglichkeit, jederzeit Dienste zwischen einer Private in einer Public Cloud zu migrieren aber auch verschiedene Public Cloud Anbieter nutzen zu können. Das heißt, man ist nicht mehr an einen speziellen Public Cloud Anbieter gebunden.

CloudUser: Wie stehst Du generell zu dem Einsatz von hybriden Clouds?

Matthias Rechenburg: Meiner Meinung nach ist der Aspekt des Hybrid Cloud Computing sehr wichtig. Nicht nur um einen “Vendor-lockin” zu vermeiden, aber auch um die volle Flexibilität für den Endbenutzer zu gewähren. Hybrid Cloud ermöglicht es, Dienste in der Privaten Cloud zu entwickeln und sie in der Public Cloud zu betreiben.

CloudUser: Das Thema Schnittstellen, vor allem offene Schnittstellen, wird im Cloud Computing heiß diskutiert. Speziell beim Einsatz einer Private Cloud ist das ein wichtiges Thema, wenn es darum geht, Services von einer Public Cloud zu adaptieren, um damit eine Hybrid Cloud aufzubauen. Wie siehst Du dort derzeit die vorhandenen Systeme und Angebote am Markt?

Matthias Rechenburg: Zitat John Willis : „Every Cloud needs an API“ (jede Cloud benötigt eine Programmier-Schnittstelle)

Die Schnittstellen von Clouds (APIs) werden hauptsächlich dafür genutzt, dem Cloud Betreiber eine Möglichkeit zu geben die Cloud Mechanismen in seine vorhandenen Geschäftsprozesse zu integrieren. Der Quasi-Standard wird von den Amazon Web Services, dem momentan größten Public Cloud Anbieter, vorgegeben, an denen sich eine Vielzahl von weiteren Cloud Projekten orientiert.

Eine gute API macht jedoch noch lange keine Hybrid Cloud!

CloudUser: Ein Unternehmen entscheidet sich dazu, eine Private Cloud aufzubauen. Sollten Sie sich für eine Open Source Variante entscheiden und auf den Support der Community setzen oder für eine proprietäre Variante (Closed Source), bei der ein Unternehmen 24×7 professionellen Support anbietet?

Matthias Rechenburg: Das hängt natürlich davon ab, ob das Unternehmen über eigene Systemadminstratoren und/ oder einer IT-Abteilung mit dem notwendigen Know-How verfügt, um eine Private Cloud selbst zu installieren. Open-Source hat auf jeden Fall immer den Vorteil der Unabhängigkeit meist gepaart mit der Option eines professionellen Support.

CloudUser: Wie kann Cloud Computing generell die Effizienz eines Rechenzentrums erhöhen?

Matthias Rechenburg: Generell sollte man sich die Frage stellen, ob man überhaupt ein eigenes Rechenzentrum betreiben möchte. Die derzeitigen Public Cloud Dienste bieten eine Vielzahl von Möglichkeiten ohne eigene Server auszukommen. Betreibt man eigene Rechenzentren, bietet eine Private Cloud die Verbesserung der Effizienz der eigenen Systeme durch Standardisierung und Automation. Ist ein Unternehmen Lastspitzen ausgesetzt, sollte es in jedem Fall eine Public Cloud in Betracht ziehen. Durch die Integration von intelligenten Data-Center Management Systemen lassen sich zudem noch erhebliche Stromkosten einsparen ohne an Hochverfügbarkeit zu verlieren.

CloudUser: Wie können sich Unternehmen vor dem gefürchteten Vendor-Lockin schützen?

Matthias Rechenburg: Meiner Meinung nach liegen die Beständigkeit und größtmögliche Flexibilität in freier open-source Software und offener, gut dokumentierter API’s.

Kategorien
Analysen

Die 10 Cloud Computing Trends für das Jahr 2012

Neben dem Thema Datenintegration gehören neue Management-Praktiken zu den wachsenden Trends im neuen Business Markt. Entscheider sehen darin insbesondere eine Möglichkeit das Wachstum ihres Unternehmens zu stärken. Es handelt sich dabei allerdings auch um eine Antwort auf die Herausforderungen und die irreversible Nachfrage nach Vielseitigkeit, dem Speichern, der Skalierbarkeit und der Komplexität im Umgang mit Informationen.

Als Folge dieses Trends setzen immer mehr Unternehmen verstärkt auf die Cloud, um hier die Datenintegration und das Datenmanagement, innerhalb einer darauf spezialisierten Infrastruktur, zu betreiben und somit eine zuverlässige Informationsstruktur sicherzustellen.

Die folgenden 10 Cloud Computing Trends werden im Jahr 2012 zu einer höheren Zuverlässigkeit sowie einer sicheren cloud-basierten Datenintegration und weiteren Datenmanagement-Lösungen führen.

1. B2B verbessert die Agilität

Im Bereich Business-to-Customer (B2C) liegt der Fokus derzeit verstärkt auf den Themen Soziale Netzwerke, Mobile Cloud sowie Cloud Services im Allgemeinen. Dieser Trend hat ebenfalls einen Einfluss auf den Bereich Business-to-Business (B2B) und erhöht die Agilität für B2B-Anwendungen. Damit wird ebenfalls das Thema Consumer-as-a-Service (CaaS)-Plattform vorangetrieben, da immer mehr Unternehmen ihren Fokus auf Commerce-APIs legen.

2. Die Geschäftstätigkeit überwacht die Anforderungen

Als eine Folge des Cloud Computing befinden sich Unternehmen nun in der Situation ihre Prozesse mit denen in der Cloud und der lokalen Infrastruktur zu integrieren, was wiederum Anforderungen an ein effizientes Business Activity Monitoring (BAM) stellt. Ein transparenter Einblick in die Geschäftsprozesse verbessert die Kundenaktivitäten und Cloud-Services und sorgt dafür, dass das operative Geschäft effizient arbeitet.

3. Cloud Services… verhandeln, verhandeln, verhandeln, …

Outsourcing verändert die Art wie wir Geschäfte machen. Jedoch führt das zu zusätzlichen Herausforderungen im Cloud-Management. Das Thema Cloud Services Brokerage (CSB) wird weiter an Popularität gewinnen, da hierdurch ein hohes Maß an Technologie-Management von Cloud-Services sowie Datenmanagement und Integration zwischen verschiedenen Cloud Anbietern (CRM, EAI oder B2B) angeboten wird.

4. Data Governance wird populär

Immer mehr Daten und Informationen werden in die Cloud verlagert. Das führt zu einer erhöhten Nachfrage nach mehr Cloud-Storage, einem einfacheren Zugriff auf diese Daten, agilere Geschäftsprozesse, Audit-Protokolle und eine höhere Sicherheit, was alles eine effizientere Data Governance erfordert.

5. EIA wird zum Standard

Enterprise Application Integration (EAI) wird für die meisten Unternehmen zur gängigen Praxis da der Fokus verstärkt auf Business-to-Business (B2B) ausgerichtet wird. Immer mehr Unternehmen gehen in die Cloud um EAI zu nutzen und darüber eine nahtlose Datenintegration ihrer Back-End-Systeme und ihrer Cloud-Plattform zu ermöglichen. Die Datenintegration wird zudem durch Cloud-Anwendungen und Software-as-a-Service (SaaS) verstärkt.

6. Das Speichern riesiger Datenmengen

Migrieren Unternehmen in die Cloud steigt dadurch die Nachfrage nach mehr Cloud-Storage, der den Zugriff von mehreren Geräten und Orten ermöglicht. Zusätzlich zur Menge, wird die Nachfrage nach Schnelligkeit, Zuverlässigkeit und Sicherheit steigen. Davon werden viele Unternehmen profitieren, u.a. aus dem Bereich der Cloud Services Brokerage, der Datenbereitstellung und weiterer Cloud-Services und Anwendungen.

7. Master Data Management (MDM)

Master Data Management (MDM) wird sich innerhalb der Cloud weiterentwickeln, da immer mehr Anbieter von Cloud-Lösungen darauf zurückgreifen. Damit werden vollständige Cloud Service Pakete angeboten, in denen Themen wie Aggregation, Anreicherung, Manipulation, und die Datenqualität innerhalb der Cloud-Plattform sichergestellt werden.

8. Neue Geschäftsprozessmodelle

Cloud Computing hat die Art wie Geschäfte gemacht werden und gearbeitet wird verändert, indem es die Effizienz der Wartungs- und Beschaffungsprozesse verbessert. Dieser Trend führt dazu, dass sich die Steuerung und Verwaltung der Daten und Informationen von der internen IT in Richtung der Cloud-Anbieter und Lieferanten verlagert. Unternehmen stehen dadurch in der Pflicht sich verstärkt auf die Verbesserung des Business Process Modeling (BPM) und weiterer Innovation zu konzentrieren.

9. PaaS Integration

Die Popularität von PaaS (Platform-as-a-Service) wird weiterhin zunehmen, da es Unternehmen nach wie vor den Zugriff auf skalierbare Cloud Infrastrukturen ermöglicht, auf denen Anwendungen bequem bereitgestellt werden können. Darüber hinaus sind Unternehmen derzeit bei der Evaluierung von iPaaS, dass sie bei der Integration und dem Management unterstützen soll, während die Geschäftstätigkeiten weiterhin On-Premise stattfinden.

10. Zuverlässige Sicherheit für Daten in der Cloud

Cloud Computing hat die Durchführung von persönlichen und geschäftliche Transaktionen revolutioniert, was ebenfalls zu mehreren Risiken geführt hat. Aus diesem Grund hat sich die Sensibilität hinsichtlich der Privatsphäre und der Datensicherheit in kleinen und großen Unternehmen verstärkt und hat z.T. neue Gesetze hervorgebracht. Über die Sicherheit wird ernsthaft nachgedacht und die Kunden haben ein hohes Schutzbedürfnis bzgl. ihrer Online-Transaktionen, Kreditkartendaten und persönlichen Informationen entwickelt. Das gilt es zu berücksichtigen und ernst zu nehmen.


Bildquelle: http://siliconangle.com

Kategorien
News

Equinix veröffentlicht die Ergebnisse des vierten Quartals 2011 sowie des Gesamtgeschäftsjahres 2011

Equinix Inc. hat die Quartalsergebnisse für das vierte Quartal 2011 sowie die Gesamtergebnisse für das zum 31. Dezember 2011 abgeschlossene Geschäftsjahr 2011 bekanntgegeben. Demnach beträgt der Gesamtumsatz 1.606,8 Millionen US-Dollar was zu einer Umsatzsteigerung von 32 Prozent gegenüber dem Geschäftsjahr 2010 führt. Das operative Ergebnis 2011 wurde mit 738,4 Millionen US-Dollar um 36 Prozent gegenüber dem Vorjahr gesteigert. Die Prognose für 2012 liegt bei einem Jahresumsatz von mehr als 1.870,0 Millionen US-Dollar und einem operativen Ergebnis von über 850,0 Millionen US-Dollar.

Im vierten Quartal 2011 konnte Equinix einen Gesamtumsatz in Höhe von 431,3 Millionen US-Dollar erzielen, was einer Steigerung um 3 Prozent gegenüber dem vorhergehenden Quartal und einem Plus von 25 Prozent gegenüber dem Vergleichsquartal des Vorjahres bedeutet. Für das am 31. Dezember 2011 beendete Geschäftsjahr 2011 konnte das Unternehmen einen Gesamtumsatz von 1.606,8 Millionen US-Dollar und damit eine Umsatzsteigerung von 32 Prozent gegenüber dem Geschäftsjahr 2010 verzeichnen. Diese Ergebnisse schließen Umsätze in Höhe von 17,3 Millionen US-Dollar im vierten Quartal 2011 sowie 46,9 Millionen US-Dollar für das gesamte Geschäftsjahr 2011 ein, die aus Geschäften von ALOG resultieren. Die wiederkehrenden Umsatzerlöse – vor allem resultierend aus den Leistungen Colocation, Verbindungen und Managed Services – lagen im vierten Quartal 2011 bei 410,7 Millionen US-Dollar und damit um 3 Prozent höher als im letzten Quartal. Für das gesamte Geschäftsjahr 2011, das am 31. Dezember 2011 abgeschlossen wurde, konnten wiederkehrende Umsatzerlöse in Höhe von 1.528,5 Millionen US-Dollar verzeichnet werden, was eine Umsatzsteigerung in Höhe von 32 Prozent gegenüber 2010 bedeutet. An einmaligen Einkünften wurde im vierten Quartal 2011 eine Summe in Höhe von 20,6 Millionen US-Dollar und im Gesamtgeschäftsjahr 2011 insgesamt 78,3 Millionen US-Dollar erzielt.

„2011 war ein äußerst wichtiges Jahr für uns“, sagte Steve Smith, President und CEO von Equinix. „Wir werden weiterhin den auf unserer globalen Plattform und der Stärke unserer Ecosysteme basierenden Wettbewerbsvorteil ausbauen, was unseren Kunden ein Wachstum durch die Erweiterung ihrer geografischen Präsenz und den Einsatz von neuen Infrastruktur-Applikationen erlaubt.“

Die Umsatzaufwendungen lagen im vierten Quartal 2011 bei 229,3 Millionen US-Dollar und damit um 1 Prozent höher als im vorausgegangenen Quartal. Für das Gesamtgeschäftsjahr 2011 wurden Umsatzaufwendungen in Höhe von 867,6 Millionen US-Dollar getätigt, was einer Steigerung um 29 Prozent gegenüber 2010 entspricht. Ohne die Kosten für Abschreibungen, Amortisationen, Wertzuwächsen und aktienbasierte Vergütungen in Höhe von 85,8 Millionen US-Dollar im vierten Quartal 2011 beziehungsweise 319,3 Millionen US-Dollar im Gesamtgeschäftsjahr 2011 betrugen die Umsatzaufwendungen im vierten Quartal 2011 143,5 Millionen US-Dollar und damit 1 Prozent weniger als im vorangegangenen Quartal sowie 548,3 Millionen US-Dollar für das Gesamtgeschäftsjahr 2011, was einer 27-prozentigen Steigerung gegenüber dem Gesamtgeschäftsjahr 2010 entspricht. Die Bruttogewinnspanne, definiert als Bruttogewinn abzüglich der Kosten für Abschreibungen, Amortisationen, Wertzuwächsen und aktienbasierte Vergütungen geteilt durch Einnahmen, lag im vierten Quartal 2011 bei 67 Prozent gegenüber 65 Prozent im vorangegangenen Quartal und 64 Prozent t im Vergleichsquartal des Vorjahres. Die Bruttogewinnspanne für das Gesamtgeschäftsjahr 2011 konnte mit 66 Prozent um 1 Prozent gegenüber dem Vorjahr gesteigert werden.

Die Verkaufsaufwendungen sowie generelle und administrative Kosten lagen im vierten Quartal 2011 bei 117,0 Millionen US-Dollar und damit 7 Prozent über den Aufwendungen im vorherigen Quartal. Für das Gesamtgeschäftsjahr 2011 lagen diese Aufwendungen bei 425,0 Millionen US-Dollar, was gegenüber 2010 einer Steigerung um 28 Prozent entspricht. Abzüglich der Kosten für Wertminderungen, Amortisationen und aktienbasierte Vergütungen in Höhe von 27,3 Millionen US-Dollar im vierten Quartal 2011 beziehungsweise 104,8 Millionen US-Dollar im Gesamtgeschäftsjahr 2011 lagen die Ausgaben für Verkaufsaufwendungen sowie generelle und administrative Aufgaben im vierten Quartal 2011 bei 89,7 Millionen US-Dollar und damit um 10 Prozent über den Kosten des vergangenen Quartals beziehungsweise mit 320,2 Millionen US-Dollar für das Gesamtgeschäftsjahr 2011 um 31 Prozent über diesem Wert für 2010.

Für Restrukturierungsmaßnahmen wurden im vierten Quartal 2011 insgesamt 1,3 Millionen US-Dollar und im Gesamtgeschäftsjahr 2011 insgesamt 3,5 Millionen US-Dollar aufgewendet, die vorrangig für einen Mietvertrag in New York eingesetzt wurden, der nicht benötigte Geschäftsflächen betraf. Die Akquisitionskosten betrugen 0,8 Millionen US-Dollar im vierten Quartal 2011 und 3,5 Millionen US-Dollar in dem am 31. Dezember 2011 beendeten Geschäftsjahr und waren vorrangig der Akquisition von ALOG zuzurechnen.

Die Aufwendungen für Zinsen beliefen sich im vierten Quartal 2011 auf 55,2 Millionen US-Dollar, was einer Steigerung um 8 Prozent gegenüber dem letzten Quartal entspricht. Für das gesamte Geschäftsjahr 2011 wurden Zinsaufwendungen in Höhe von 181,3 Millionen US-Dollar verbucht, was einer Steigerung gegenüber 2010 um 29 Prozent entspricht. Das Unternehmen verbuchte für das vierte Quartal 2010 einen Verlust aus Verbindlichkeiten in Höhe von 5,4 Millionen US-Dollar, der Verlust aus Verbindlichkeiten und Zinstilgungen für das am 31. Dezember 2010 beendete Gesamtgeschäftsjahr 2010 betrug 10,2 Millionen US-Dollar. Im zum 31. Dezember 2011 abgeschlossenen Geschäftsjahr 2011 hat das Unternehmen keine Schuldentilgung vorgenommen. An Einkommensteuerkosten verzeichnete Equinix 13,8 Millionen US-Dollar für das vierte Quartal 2011 gegenüber 5,3 Millionen US-Dollar im vorausgehenden Quartal. Für das Gesamtgeschäftsjahr 2011 verbuchte Equinix Einkommensteuerkosten in Höhe von 38,4 Millionen US-Dollar. Im vorherigen Geschäftsjahr lag dieser Wert bei 13,0 Millionen US-Dollar.

Das Nettoeinkommen lag im vierten Quartal 2011 bei 17,8 Millionen US-Dollar. Dies entspricht einem Grundnettoeinkommen von 0,36 US-Dollar pro Aktie und einem verwässerten Nettoeinkommen pro Aktie von 0,35 US-Dollar, basierend auf einer gewichteten Durchschnittsaktienmenge von 47,2 Millionen beziehungsweise einer Aktienmenge von 48,1 Millionen im vierten Quartal 2011. Das Nettoeinkommen für das gesamte Geschäftsjahr 2011 lag bei 94,0 Millionen US-Dollar. Dies ist äquivalent zu einem Grundnettoeinkommen von 1,76 US-Dollar pro Aktie und einem verwässerten Nettoeinkommen pro Aktie von 1,72 US-Dollar, wobei eine durchschnittliche Aktienmenge von 47,0 Millionen beziehungsweise 47,9 Millionen zum Ende des Geschäftsjahres am 31. Dezember 2011 zugrunde gelegt wurde.

Das operative Ergebnis (Adjusted EBITDA), definiert als Gewinne oder Verluste aus der Geschäftstätigkeit vor dem Abzug der Kosten für Wertminderungen, Amortisationen, Wertsteigerungen, aktienbasierte Vergütungen, Umstrukturierungen und Akquisitionen, lag im vierten Quartal 2011 bei 198,1 Millionen US-Dollar und damit um 3 Prozent höher als das Ergebnis des vorangegangenen Quartals. Für das Gesamtgeschäftsjahr 2011 wurde ein operatives Ergebnis von 738,4 Millionen US-Dollar erzielt, was einer Steigerung um 36 Prozent gegenüber 2010 entspricht.

„Der Bedarf an Rechenzentrums-Services ist hoch, die Dynamik von Angebot und Nachfrage sind für uns günstig, die Preise stabil. Dies bestärkt uns in unseren Investitionsplänen, sichert uns langfristige Wachstumschancen und verspricht für unsere Aktionäre hohe künftige Erträge“, so Steve Smith.

Die Investitionsausgaben, ermittelt aus den Bruttoinvestitionsausgaben abzüglich der angefallenen Nettoveränderungen für Eigentum, Anlagen und Geräte, lagen im vierten Quartal 2011 bei 189,8 Millionen US-Dollar, wovon für Investitionen in Erweiterungen 145,5 Millionen US-Dollar und für laufende Investitionsausgaben 44,3 Millionen US-Dollar aufgewendet wurden. Für das am 31. Dezember 2011 beendete Gesamtgeschäftsjahr 2011 lagen die Investitionsausgaben bei 685,3 Millionen US-Dollar, wovon 557,6 Millionen US-Dollar den Investitionen in Erweiterungen und 127,7 Millionen US-Dollar den laufenden Investitionsausgaben zuzurechnen sind. Darüber hinaus erwarb das Unternehmen im Geschäftsjahr 2011 Immobilien in Paris und Frankfurt für einen Barbetrag in Höhe von 28,1 Millionen US-Dollar.

Das Unternehmen kaufte im vierten Quartal 2011 insgesamt 900.000 Anteile seiner Stammaktien im Rahmen seines Aktienrückkaufprogramms für einen durchschnittlichen Preis von 99,57 US-Dollar pro Anteil zurück. Der Gesamtbetrag dieser Aufwendungen lag bei 86,7 Millionen US-Dollar.

Equinix konnte im vierten Quartal 2011 aus seiner Betriebstätigkeit einen Geldzufluss in Höhe von 187,3 Millionen US-Dollar generieren, im vorausgehenden Quartal lag diese Summe bei 141,9 Millionen US-Dollar. Für das gesamte am 31. Dezember 2011 beendete Geschäftsjahr 2011 lag der Geldzufluss aus dem operativen Geschäft bei 587,3 Millionen US-Dollar gegenüber 392,9 Millionen US-Dollar im Geschäftsjahr 2010. Für Investitionstätigkeiten wurden im vierten Quartal 2011 194,3 Millionen US-Dollar aufgewendet, im dritten Quartal 2011 waren es 808,7 Millionen US-Dollar. Für das Gesamtgeschäftsjahr 2011 verzeichnete das Unternehmen ein Investitionsvolumen in Höhe von 1.499,1 Millionen US-Dollar gegenüber 601,0 Millionen US-Dollar im Geschäftsjahr 2010. Der Cashflow aus Finanzierungstätigkeiten lag im vierten Quartal 2011 bei 83,4 Millionen US-Dollar und resultierte vornehmlich aus Aktienrückkäufen, die während des Quartals abgerechnet wurden. Im Gesamtgeschäftsjahr 2011 wurde eine Summe in Höhe von 748,7 Millionen US-Dollar für Finanzierungsaktivitäten aufgewendet.

Zum Stichtag 31. Dezember 2011 lag die Bilanz von Equinix an liquiden Mitteln, Wertpapieren und Investitionen bei 1.076,3 Millionen US-Dollar im Vergleich zu 592,8 Millionen US-Dollar am 31. Dezember 2010.

Kategorien
Analysen

Die Herausforderungen des Cloud Computing: Latenz der Datenverbindungen

Mit der Adaption von Cloud Computing Technologien und Services stehen Unternehmen Herausforderungen gegenüber, die es zu bewältigen gilt. Zum einen müssen organisatorische Voraussetzungen geschaffen und Aufklärungsarbeit innerhalb des Unternehmens geleistet werden, um die Akzeptanz und das Verständnis zu stärken. Zum anderen treffen aber auch viele “Widerstände” von außen auf das Unternehmen. Das sind neben Fragen bzgl. der Sicherheit und des Datenschutz ebenfalls Themen zur Verfügbarkeit und Performanz des ausgewählten Cloud Service sowie dessen Integrationsfähigkeit in die bereits bestehende IT-Infrastruktur und die nahtlose Unterstützung der vorhandenen Geschäftsprozesse. Und wie auch schon aus den klassischen Sourcingmöglichkeiten bekannt, besteht auch im Cloud Computing die Angst, in die Abhängigkeit eines einzigen Anbieters zu verfallen. So müssen auch hier die Interoperabilität und die Schnittstellen des Anbieters sowie ein Vergleich zu anderen Anbieteren vorgenommen werden.

Ist die Entscheidung für die Nutzung des Cloud Computing gefallen, ist es für Unternehmen zunächst an der Zeit, eine Ist-Analyse der bestehenden IT-Infrastruktur und Systeme vorzunehmen, um auf Basis dieser zu planen, welche Cloud Services adaptiert werden sollen. Hier kann bspw. eine Kosten-/ Nutzen-Analyse weiterhelfen, bei der auch eine Risikobewertung nicht fehlen sollte. Um erste Erfahrungen auf dem Cloud Computing Gebiet zu sammeln, sollte ein Pilotprojekt initiiert werden, welches auf Grund des Cloud Computing Konzepts schnell und kostengünstig gestartet werden kann. Dieses sollte einem Gesamtverantwortlichen “Cloud” untergeordnert sein, der als zentrale Stelle innerhalb der Organisation für die Adaption und Beratung der einzelnen Abteilungen für dieses Thema zuständig ist. Mit den gesammelten Erfahrungen können dann weitere Projekte gestartet werden und die Adaption unterschiedlicher Cloud Services sukzessive vorgenommen werden.

Latenz der Datenverbindungen

Längere Distanzen zwischen dem Anwender und der Anwendung in der Cloud führen zu einer höheren Latenz beim Datentransfer. Hinzu kommt eine nicht ausreichende Bandbreite sowie Protokolle, die nicht für weite Strecken geeignet sind. Das hat zur Folge, dass ebenfalls die Geschwindigkeit der Anwendung darunter leidet und der Anwender so mit einer langsamen Anwendung arbeiten muss, wie er es von seinem lokalen System in der Regel nicht gewohnt ist. So kann es im schlimmsten Fall dazu kommen, dass das Öffnen und Speichern von Dokumenten in der Cloud ein paar Minuten in Anspruch nehmen kann.

Dietmar Schnabel nennt Ansätze um den Zugriff auf Anwendungen, die sich in der Cloud befinden, zu beschleunigen.

Die Mehrzahl der Unternehmen mit verteilten Standorten leiten den Datenverkehr der Außenstellen zuerst in die Zentrale, wo er über ein Internetgateway inkl. einem Content-Filter in das Internet übertragen wird. Das Nadelöhr ist damit dieser zentrale Gateway, den sich alle Cloud Anwendungen teilen müssen.

Die Außenstellen müssen daher mit einem eigenen lokalen Internetzugang ausgestattet werden, um den zentralen Gateway zu entlasten und jeder Anwendung damit mehr Bandbreite zur Verfügung zu stellen. Dafür müssen in den Außenstellen jedoch dieselben Richtlinien gelten wie bei dem beschriebenen zentralen Ansatz. Hinzu kommt, dass ebenfalls Sicherheitsmaßnahmen für Phishing-Attacken, Malware, Viren, Trojaner usw. vorgenommen werden. Weiterhin sollten die Gateways in den Außenstellen über Caching Funktionen verfügen, um redundanten Datenverkehr zu vermeiden.

Mit der Priorisierung von Anwendungen kann zudem die Latenz bei empfindlichen Protokollen verringert werden. Damit kann bspw. E-Mail Datenverkehr zweitrangig behandelt werden, wo hingegen Echtzeitdaten wie VoIP Daten, Videostreams oder Remoteverbindungen bevorzugt behandelt werden und weiterhin eine Mindestbandbreite zugewiesen bekommen können.

Ebenfalls hilfreich können “[…] Algorithmen zur Optimierung von ineffizienten Protokollen wie etwa Microsoft CIFS oder MAPI […]” sein, mit denen die Reaktionszeit der Anwendungen in der Cloud erhöht werden.


Bildquelle: http://meship.com

Kategorien
News

Google schickt Google Drive gegen Dropbox und Box.net in den Cloud Storage Ring

Nach einer Vielzahl von Vermutungen und Gerüchten in den letzten Monaten steht Google kurz vor der Veröffentlichung seines Cloud Storage Services mit dem Namen „Google Drive“.

Der Service wird Nutzern einen Online-Speicher zum Ablegen von Dateien und dem rechner- und ortsunabhängigen Zugriff über eine Internetverbindung zur Verfügung stellen. Dabei soll der Inhalt, wie schon von Google Docs bekannt, via Links mit Dritten geteilt werden können und über eine Integration in Google+ verfügen.

Laut Steven Levys Buch, “In The Plex”, sollte GDrive, der Spitzname von Google Drive, bereits im Jahr 2008 unter Bradley Horowitz (Vice President Product Management für Google+) veröffentlicht werden. Jedoch war Sundar Pichai (Senior Vice President von Google Chrome), gegen die Veröffentlichung und schaffte es die Entscheider davon zu überzeugen und somit das Release zu verhindern.

Zu den aktuellen Top-Anbietern von web-basierten Onlinespeichern gehören Dropbox und Box.net. Dropbox hatte im vergangenen Oktober von mehr als 45 Millionen Mitgliedern berichtet und ein Übernahmeangebot durch Apple abgelehnt. Box.net hatte zum Ende von 2011 nach eigenen Angaben mehr als 8 Million Nutzer und lehnte ebenfalls diverse Übernahmeangebote ab.

Wenn die Gerüchte stimmen wird Google GDrive kostenlos für Endnutzer und Unternehmen anbieten. Kosten entstehend nur beim Upload großer Dateien. In diesem Fall könnte es für Dropbox und Box.net schwierig werden preislich mitzuhalten.

Kategorien
News

Xactly integriert Informatica Cloud

Die Informatica Corporation Anbieter von Datenintegrationssoftware, und die Xactly Corporation, Marktführer bei On-Demand Vertriebs-Provision und -Performance Management, haben ihre langjährige Partnerschaft ausgebaut: Xactly wird Informatica Cloud als seine Kernkomponente in sein beliebtes Angebot Xactly Express integrieren.

Das Cloud-basierte Xactly Express ist die branchenweit erste Software zur eigenhändigen Verwaltung von Vertriebsprovisionen, die grundlegend auf der Force.com-Plattform von salesform.com basiert. Unternehmen nutzen Xactly Express, um die Leistung ihrer Vertriebsteams zu steigern, indem sie das Provisionsmanagement automatisieren und den Vertriebsmitgliedern in Echtzeit Einsicht in ihre Provisionspläne und die jeweilige Umsetzung ermöglichen – und zwar direkt über die Salesforce CRM-Schnittstelle.

„Informatica Cloud wird uns helfen, die Realisierungszeiten zu beschleunigen, indem wir eine integrierte Datenumgebung für die Vertriebsleistung unserer Kunden schaffen,“ erklärt Scott Broomfield, General Manager bei Xactly. „Xactly Express liefert eine unschlagbare Lösung für das Provisionsmanagement für unsere Kunden. Informatica Cloud schafft dabei zusätzliche Wertigkeit, indem es eine nahtlose Datenkonnekitvität in der Cloud als Komponente hinzufügt.“

Kategorien
Management

Die Evolution des Web Hosting

Die folgende Graphik illustriert die Entwicklung des Web Hosting von 1991 bis 2012.


Kategorien
News

Rackspace möchte in Zukunft mit Entwicklern von OpenStack Private Cloud Distributionen zusammenarbeiten

Rackspace plant die Integration von kommerziellen Private Cloud OpenStack Distributionen in seine „Rackspace Cloud: Private Edition“.

Die „Rackspace Cloud: Private Edition“ wurde Ende 2011 eingeführt, mit der Unternehmen eigene Private Clouds auf Basis von OpenStack aufbauen können. In diesem Zusammenhang wurde eine Referenz Architektur spezifiziert in der mögliche Hardware- und Software Optionen niedergeschrieben sind. Kunden die sich an diese Referenz Architektur halten sind berechtigt den offiziellen Rackspace Support zu nutzen.

Rackspace hat darüber hinaus viel Eigenarbeit in das OpenStack Private Cloud Angebot stecken müssen, da zu diesem Zeitpunkt noch nicht ausreichend und für den kommerziellen Zweck verfügbare Ressourcen vorhanden waren. Rackspace sieht sich weniger als Softwareanbieter und nutzt lieber soweit fertige Softwaresysteme, aber das lies sich zu Beginn nicht verhindern.

Da nun andere Anbieter damit begonnen haben fertige OpenStack Distributionen für Private Clouds einzuführen, möchte Rackspace einige dieser mit in die eigene Referenz Architektur integrieren. Dabei möchte Rackspace zudem eine hohe Vielfalt an unterschiedlichen Distributionen und Betriebssystemen anbieten.

Neben Rackspace sind mit Piston, Nebula, Suse und Cloudscaling weitere Unternehmen am Markt, die Private Clouds auf Basis von OpenStack anbieten oder weitere Produkte dafür entwickeln.