Kategorien
News

T-Systems geht in die Cloud

Mit einer kostenlosen Testphase für bereits vorhandene Unternehmenskunden startet nun auch T-Systems als ein großes deutsches Unternehmen mit einem Infrastructure as a Service Angebot in die Cloud. Die Pilotphase beginnt noch im November 2010 und wird im Februar 2011 enden.

Mit diesem Angebot wird T-Systems in direkter Konkurrenz zu den Amazon Web Services stehen. Das könnte Erfolg versprechend sein, wird alleine die finanzielle Kraft von T-Systems betrachtet.

T-Systems stützt sich vor allem auf die oft diskutierten Bereiche Zugriffskontrolle, Datenschutz und Datensicherheit, sowie die Service Level Agreements (SLAs). Alles im Hinblick auf eine höchstmögliche Skalierbarkeit.

Alle Rechenzentren und damit sämtliche Daten des Kunden werden sich in Deutschland befinden und nach der ISO Sicherheitsnorm 27001 zertifiziert und können darüber hinaus ebenfalls von den Kunden selbst auditiert werden.

Kategorien
Management

Woran erkennt man echtes Cloud Computing?

Ich werde oft gefragt, woran man ein echtes Cloud Computing Angebot erkennt. Oft heißt es: „Hey, wir lassen unsere Datenverarbeitung von einem Dienstleister in seinem Rechenzentrum machen. Dann nutzen wir doch die Cloud, oder?“

Hm, Vorsicht! Cloud Computing wurde in letzter Zeit von den Marketingabteilungen einiger Anbieter missbraucht, wodurch eine Verwässerung des Begriffs stattgefunden hat. Was damals z.B. ein „Managed Server“ war ist nun ein „Cloud Server“. Letztendlich wurde aber nur der Aufkleber getauscht. Das wird auch als Cloudwashing bezeichnet.

Um ein echtes Cloud Computing Angebot zu identifizieren, sollte auf die folgenden Eigenschaften des Angebots geachtet werden:

  • On Demand:
    Ich beziehe die Ressourcen zu dem Zeitpunkt, wenn ich Sie auch tatsächlich benötige. Anschließend „gebe ich sie wieder zurück“.
  • Pay as you Go:
    Ich bezahle nur für die Ressourcen, die ich auch tatsächlich nutze, wenn ich sie nutze. Dabei wird entweder z.B. pro Benutzer, pro Gigabyte oder pro Minute/ Stunde abgerechnet.
  • Keine Grundgebühr:
    Bei einem Cloud Computing Angebot zahle ich keine monatliche/ jährliche Grundgebühr!
  • Hohe Verfügbarkeit:
    Wenn ich die Ressourcen benötige, kann ich sie zu diesem Zeitpunkt auch nutzen.
  • Hohe Skalierbarkeit:
    Die Ressourcen lassen sich automatisiert meinen Bedürfnissen anpassen. Das bedeutet, dass sie entweder mit meinen Ansprüchen wachsen, wenn ich mehr Leistung benötige oder sich verkleinern, wenn die Anforderungen wieder abnehmen.
  • Hohe Zuverlässigkeit:
    Die von mir genutzten Ressourcen sind zu dem Zeitpunkt wenn ich sie nutze tatsächlich verfügbar, worauf ich mich verlassen kann.
  • Blackbox:
    Ich muss mich nicht darum kümmern, wie es im Inneren des Cloud Angebots aussieht. Ich nutze einfach den Service über eine offene, gut dokumentierte Schnittstelle.
  • Automatisierung:
    Nachdem ich eine Grundeinrichtung bzgl. meiner Bedürfnisse vorgenommen habe, sind von mir keine weiteren manuellen Eingriffe während der Nutzung des Angebots notwendig. Ich muss z.B. die Leistung der Server oder die Größe des Speicherplatzes nicht manuell anpassen. Dafür werden mir Möglichkeiten zur Automation bereitgestellt.
  • Zugriff über das Internet:
    Darüber kann diskutiert werden. Allerdings ist der Kostenvorteil den man durch Cloud Computing erhält obsolet, wenn eine teure exklusive Mietleitung benötigt wird, um bspw. die Ressourcen eines Anbieters zu nutzen.
  • Keine zusätzlichen Installationen:
    Bei einem SaaS Angebot erfolgt die vollständige Nutzung über den Webbrowser ohne dabei eine weitere Softwarekomponenten wie z.B. Java (Umgebung) installieren zu müssen.
Kategorien
Services Tutorials

Erste Schritte mit der domainFACTORY “JiffyBox”

Nach der Vorstellung und weiteren Hintergrundinformationen zur domainFACTORY “JiffyBox”, gibt dieses Tutorial einen Einblick in das Innere. Dazu habe ich von der domainFACTORY GmbH einen kostenlosen Testzugang erhalten, für den ich mich auf diesem Wege bedanken möchte!

Erstellen einer JiffyBox

Zunächst melden wir uns dazu unter https://admin.jiffybox.de mit einem gültigen Benutzernamen und Passwort an, die wir unter https://www.jiffybox.de beantragen können.

Nach einer erfolgreichen Anmeldung werden wir im Control Panel begrüßt, wo wir im ersten Schritt mittels „Jetzt Trial-Server bestellen“ einen kostenlosen Test der JiffyBox vornehmen können oder uns über „Neue JiffyBox erstellen“ eine neue JiffyBox erzeugen. Wir wählen hier den zweiten Schritt.

Wir geben der neuen JiffyBox einen Namen, wählen einen Tarif, hier „CloudLevel 1 – mit 1 GB Arbeitsspeicher und 50 GB Festplatte für 0,02 € / Stunde“ und eine Linux Distribution, hier „Ubuntu 10.04 LTS“. Würden wir bereits über eine JiffyBox verfügen, hätten wir als Distribution ebenfalls ein Backup als Quelle angeben können.

Unter dem Punkt „Erweitert“ können wir der JiffyBox ein selbst gewähltes Root Passwort zuweisen. Anschließend wählen wir „Erstellen“.

Die JiffyBox wird nun automatisch im Hintergrund erzeugt. Statusinformationen zeigen dabei den aktuellen Vorgang!

Zurück im „Control Panel“ sehen wir die erzeugte JiffyBox und können nun mittels „Konfigurieren“ weitere Einstellungen vornehmen, die JiffyBox „Starten“, „Einfrieren“ oder wieder vollständig „Löschen“.

Hinter dem Menüpunkt „Voreinstellungen“ verbirgt sich das Schlüsselmanagement, wo wir mehrere SSH-Public-Keys eintragen können.

Über den Punkt „Alle Meldungen“ gelangen wir in den Statusbereich. Hier erhalten wir detailliert alle Informationen zu allen Vorgängen innerhalb unseres Accounts.

Weitere Informationen

Über den Menüpunkt „Account“ gelangen wir direkt zu den Stammdaten.

Weiterhin können wir über „Kundenservice“ direkt elektronischen Kontakt zu dem domainFACTORY Support aufnehmen und erhalten einen historischen Überblick über alle bisherigen Anfragen.

Wir können zusätzlich über den Menüpunkt „Passwörter“, unsere Passwörter für das JiffyBox Control Panel und dem Telefon Support eigenständig ändern. Zudem erhalten wir einen Überblick über alle bisher gestellten Rechnungen durch domainFACTORY über den Punkt „Rechnungen“.

Der Menüpunkt „Verbräuche“ gibt einen genauen Überblick zu den bisher entstandenen Kosten zu allen JiffyBoxen und dem verbrauchten Traffic.

Weiterhin erhalten wir einen detaillierten Überblick über die Nutzung jeder einzelnen, in unserem Account vorhandenen, JiffyBox.

Sowie vom derzeit verbrauchten Traffic.

Ein weiteres interessantes Feature ist die Möglichkeit zur Begrenzung der Kosten. Hier kann ein Betrag (in EUR) als Obergrenze eingetragen werden und die Folgeaktion, die stattfinden soll, wenn der Betrag erreicht wird.

Um die JiffyBox über Skripte zu steuern, haben wir über den Menüpunkt „API-Zugriff“ die Möglichkeit, einen API-Token zu erzeugen. Weitere Informationen für die Nutzung der API sind in der PDF-Datei „JiffyBox-API“ zu finden.

Arbeiten mit der JiffyBox

Zurück im Control Panel wollen wir nun ein Blick hinter die Konfigurationsmöglichkeiten einer JiffyBox werfen. Wie wir sehen werden, stehen uns dazu viele Möglichkeiten zur Verfügung. Wir wählen dazu unter „Ihre JiffyBoxen“ die Aktion „Konfigurieren“.

Wir erhalten zunächst einen Überblick zu allen notwendigen Informationen, wie der aktuellen IP-Adresse und dem aktuellen Hostnamen, dem genutzten Tarif, dem verfügbaren Arbeitsspeicher und der Festplattengröße, sowie der für diese JiffyBox verwendeten Linux Distribution.

Über „Profile und Festplatten“ können wir weitere Konfigurationen am System, der Festplattengröße und deren Zuordnung vornehmen.

Hinter „Netzwerk“ verbergen sich weitere Informationen zu den IP und DNS Informationen. Hier haben wir die Möglichkeit den „Reverse-DNS“ Namen zu ändern und eine weitere IP-Adresse zu bestellen.

Von jeder JiffyBox werden automatisch tägliche Backups erstellt. Dennoch haben wir die Option über den Menüpunkt „Backups“ ein manuelles Backup zu starten, bzw. eigene Backup Pläne zu erstellen.

Über „Konsole und Recovery“ steht uns der Zugriff mittels einer Web-Konsole und per SSH-Konsole zur Verfügung. Weiterhin kann ein Recovery-System aktiviert werden, um die JiffyBox im Notfallmodus zu starten.

Um die JiffyBox nun zu nutzen, wählen wir im Control Panel unter „Ihre JiffyBoxen“ lediglich „Starten“.

Mittels eines SSH-Clients, hier Putty, verbinden wir uns mit der JiffyBox. Die dazu benötigte IP-Adresse bzw. den DNS-Namen erhalten wir unter dem Menüpunkt „Netzwerk“ in dem Konfigurationsbereich der JiffyBox.

Anschließend melden wir uns mit dem Benutzer „root“ und dem von uns bei dem Erstellen der JiffyBox unter „Erweitert“ gewählten Passwort an.

Damit sind wir mit unserer ersten eigenen JiffyBox verbunden.

Um die JiffyBox wieder zu beenden, wählen wir im Control Panel für die entsprechende JiffyBox „Stoppen“.

Und dann „Herunterfahren“.

Die JiffyBox wird anschließend automatisch heruntergefahren. Eine Statusmeldung informiert uns über den erfolgreichen Vorgang.

Die JiffyBox kann anschließend wieder angepasst, gestartet, eingefriert oder gelöscht werden.

Die Verbrauchsanzeige informiert uns darüber, dass für eine Gesamtdauer von 1:33:36 Stunden bisher 0,03 EUR entstanden sind.

Kategorien
Services

Hintergründe zur domainFACTORY "JiffyBox"

Mit der JiffyBox verfügt domainFACTORY, als einer der wenigen deutschen Webhoster, über ein Cloud Computing Angebot, mit dem zu jeder Zeit virtualisierte und skalierbare Server on Demand genutzt werden können.

Nach der grundlegenden Vorstellung der JiffyBox, schauen wir heute ein wenig hinter die Kulissen, um wichtige Fragen zu klären.

Erfahrung

Cloud Computing ist (speziell in Deutschland) ein Frage des Vertrauens. Wo ein StartUp zunächst für seine Akzeptanz kämpfen muss, hat es ein bereits etablierter Anbieter vermeintlich einfacher. domainFACTORY gehört mit seinen 10 Jahren und nach eigener Aussage mehr als 100.000 Kunden eher zum alten Eisen der Webhosting Szene in Deutschland, ganz dem Motto: „Je älter der Wein desto besser…“.

Kundenservice

Viele Anbieter (vor allem die Großen), vernachlässigen zunehmend den Kundenservice. Das musste ich bereits häufiger am eigenen Leib erfahren. Entweder existiert keine Kundenhotline, was zur Folge hat, das der Support per E-Mail sich schon einmal bis zu einer Woche oder länger hinziehen kann, oder die Hotline ist so teuer, das man sich am Ende auch einen Server kaufen könnte. domainFACTORY hingegen, und das kann ich wiederum aus eigener Erfahrung bestätigen, bietet seinen Kunden eine kostenlose(!) (und wirklich gute) Hotline für alle Fragen.

Das Rechenzentrum

Die Rechenzentren von domainFACTORY stehen in Deutschland, besser gesagt in München und unterliegen somit dem deutschen Recht. Hier ein paar Fakten über das Rechenzentrum (via domainFACTORY)

  • geschützte Lage unter der Erde
  • unterbrechungsfreie Video-Überwachung der Außen- und Innenräume
  • Zugangskontrolle mittels personalisierter Kennkarten
  • Netzwerküberwachung rund um die Uhr
  • vollklimatisierte Räume mit modernsten Luftzirkulationseinrichtungen
  • redundante Stromzuführungen in die Gebäude
  • unterbrechungsfreie / redundante Stromversorgung
  • Notstromversorgung mittels mehrerer Dieselgeneratoren
  • Einsatz präventiver Brandschutzsicherungen
  • direkte Anbindung an den DECIX-Knotenpunkt
  • direkte Anbindung an das Lambdanet-Netzwerk
  • direkte Anbindung an den INXS-Knotenpunkt München
  • direkte Anbindung an TeliaSonera
  • eigener 10 Gbit Backbone, Peering mit diversen Anbietern

JiffyBox vs. vServer

Ein gewöhnlicher vServer (virtual Server) verfügt über lange Vertragslaufzeiten, in denen monatlich in der Regel hohe Kosten entstehen. Die Leistung eines Servers kann somit immer erst zum Ende einer Abrechnungsperiode bzw. der Vertragslaufzeit angepasst werden. Hat man sich nicht für einen dedizierten Root-Server entschieden, müssen alle Ressourcen, wie RAM und die CPU-Leistung mit mehreren Nutzern auf einem System geteilt werden.

Die Abrechnung der JiffyBox erfolgt basierend auf der tatsächlichen Nutzung der Ressourcen pro Stunde und ohne bindende Vertragslaufzeiten. Ganz nach dem Vorbild des Cloud Computing. Die Leistung einer einzelnen Jiffy-Box kann dabei je nach den aktuellen Bedürfnissen skaliert werden. Die jeweiligen Ressourcen stehen dabei dediziert zur Verfügung.

Abrechnung & Rechnungsstellung der JiffyBox

Die Abrechnung der JiffyBox erfolgt monatlich. Das bedeutet, man erhält eine Rechnung zu den entstandenen Kosten des Vormonats. Im JiffyBox Control-Panel können die aktuell entstandenen Kosten mittels eines Nutzungsprotokoll eingesehen werden.

Kündigung einer JiffyBox

Da die Abrechnung einer JiffyBox anhand ihrer tatsächlichen Nutzung erfolgt und es keine Vertragslaufzeit gibt, muss diese nicht gekündigt werden. Um eine „Kündigung“ vorzunehmen, reicht es aus, die JiffyBox im Control-Panel zu löschen.

Verfügbarkeit der JiffyBox

domainFACTORY gewährleistet eine Verfügbarkeit im Jahresdurchschnitt von 99,0 Prozent.

Weitere IP-Adressen

Grundsätzlich steht jeder JiffyBox eine feste, öffentliche IP-Adresse zur Verfügung. Weiterhin kann für jeden Server eine zusätzliche interne IP-Adresse hinzugefügt werden, mit der ein kostenloser Datentransfer zwischen mehreren JiffyBoxen erfolgen kann.

Jedem JiffyBox Account können insgesamt drei öffentliche IP-Adressen zugewiesen werden. Für jede weitere IP-Adresse entstehen dabei einmalige Kosten in der Höhe von 9,95 EUR. Allerdings muss bei der Bestellung einer weiteren IP-Adresse eine plausible Begründung angegeben werden!

Die JiffyBox und ihre Hardware

Die Hosts auf denen die JiffyBoxen betrieben werden, basieren auf Intel-Nehalem-Dual-Xeon-CPUs. Dabei verfügt jedes Hostsystem über redundante Netzteile, die über separate Stromkreise versorgt werden. Die Absicherung des Speichers erfolgt über RAID10-Arrays.

JiffyBox: Virtualisierungsplattform und Betriebssysteme

Als Hypervisor setzt die JiffyBox Xen im Paravirtualisierungs-Modus ein. Damit können auf ihr alle Betriebssysteme genutzt werden, deren Kernel auf die Xen-Paravirtualisierung angepasst wurde.

Backups

Backups werden täglich, vollautomatisiert und kostenlos durchgeführt und auf einem hochverfügbaren Cluster-Storage gesichert. Jedes Backup wird dabei redundant an zwei unterschiedlichen Stellen im Rechenzentrum abgelegt. Über der Control-Panel können neben den bereits vorhandenen Backups zusätzlich manuelle Sicherungen gestartet werden.

Anzahl gleichzeitig genutzter JiffyBoxen

Innerhalb eines JiffyBox Accounts können gleichzeitig bis zu 20 Server konfiguriert und betrieben werden. Für mehr als 20 Server besteht die Möglichkeit, den Support zu kontaktieren.

Kritikpunkt: Warum nur 20 Server? Cloud Computing bedeutet, dass ich unbegrenzt Rechenleistung und Speicherplatz erhalte wenn ich diese benötige, ohne zwischendurch zum Telefon zu greifen! Die Skalierbarkeit ist somit deutlich eingegrenzt!

Wer kann die JiffyBox nutzen?

Die JiffyBox kann derzeit nur von Kunden aus Deutschland und Österreich betrieben werden.

Hilfe rund um die JiffyBox

Kategorien
Services

Die domainFACTORY "JiffyBox"!

Mit der JiffyBox stellte domainFACTORY bereits vor längerer Zeit, als einer der wenigen deutschen Anbieter, ein Infrastructure as a Service Angebot vor.

Bei der JiffyBox handelt es sich um skalierbare virtuelle Rootserver, die on Demand bezogen werden können und sich zu jedem Zeitpunkt beliebig den eigenen Bedürfnissen anpassen lassen. Die einzelnen Server lassen sich im laufenden Betrieb bei Bedarf einfrieren und duplizieren. Dabei kann die Kopie unter einer anderen IP-Adresse angesprochen werden, um zunächst einen Test außerhalb der Produktivumgebung durchzuführen.

Wie es sich bei einem Cloud Computing Produkt gehört, erfolgt die Abrechnung pro Stunde (Pay as you Go) und eine Grundgebühr, sowie eine Mindestvertragslaufzeit und Kündigungsfristen existieren nicht.

Ein Kunde kann bei der Bestückung seines Servers neben der Installation einer eigenen Distribution zwischen unterschiedlichen Linux-Systemen, darunter CentOS, Debian Lenny, Fedora oder Ubuntu wählen und kann sich hier weiterhin zwischen 32- und 64-Bit-Varianten entscheiden.

Die JiffyBox lässt sich mittels SSH, einer Webkonsole und einer graphischen Weboberfläche konfigurieren und verwalten und ist über eine statische IP-Adresse anzusprechen. Über das Webinterface lassen sich neben automatisierten Backups, die täglich stattfinden und zum Standardumfang gehören, zusätzlich weitere Backups konfigurieren.

Features

Tarife

Preise

Alle Preise im Detail: https://www.jiffybox.de/preisuebersicht.html

Kategorien
News

cloudControl ist live!

eco Hosting Award Sieger cloudControl startet als erster europäischer PHP Platform-as-a-Service Anbieter

Ab sofort bietet cloudControl ihre hochverfügbare und skalierbare Platform-as-a-Service Lösung erstmalig öffentlich zugänglich an und macht damit die Bandbreite der Vorteile des Cloud Computings endlich auch für alle PHP Entwickler verfügbar. Dem Start ging eine geschlossene Testphase voraus, bei der über 100 ausgesuchte Entwickler die Plattform auf Herz und Nieren testen konnten und deren Feedback in die Entwicklung einfloss.

Die Platform-as-a-Service Lösung des Potsdamer Startups schafft dabei die optimale Umgebung für die Entwicklung und das Hosting komplexer Webanwendungen wie Online Shops, Content Management Systeme oder webbasierten Unternehmensanwendungen (Software-as-a-Service). Damit gehören das aufwendige Administrieren, die zeit intensive Planung zur Skalierung und Hochverfügbarkeit, sowie das ständige Updaten der Serverkomponenten der Vergangenheit an. Die Plattform übernimmt all dies völlig selbstständig, so dass die Entwickler sich voll und ganz auf die Entwicklung ihrer Anwendung konzentrieren können.

Im Gegensatz zum Mitbewerb setzt cloudControl bei der eigenen Lösung auf eine offene Plattform. Basierend auf die bewährten LAMP-Stack Komponenten kann des Weiteren ein Lock-In Effekt vermieden werden. Entsprechend dem Cloud Computing Prinzip wird die Leistung rein verbrauchsgenau abgerechnet und auf eine Mindestvertragslaufzeit wird von vornherein verzichtet. Gleichzeitig mit dem Start werden eine Reihe neuer Addons wie Memcached und MongoDB sowie ein graphisches Interface und die Möglichkeit mehr Leistung in Anspruch zu nehmen, zur Verfügung gestellt.

“Wir sind stolz als eins der wenigen europäischen Unternehmen in diesem aufstrebenden Markt ganz vorne mit dabei zu sein.” kommentierte Philipp Strube, Gründer und CEO cloudControls, den Schritt aus dem geschlossenen Test heraus.

Bereits 2009 überzeugte das Konzept den Verband der deutschen Internetwirtschaft (eco) und führte zur Auszeichnung mit dem eco Award 2009 in der Kategorie Hosting.

Experten wie Gartner und IDC bescheinigen dem Thema Platform-as-a-Service in Zukunft die vorherrschende Technologie zur Entwicklung von Applikationen zu werden. Sowohl klassische Betriebssystem Hersteller wie Microsoft, als auch Virtualisierungsanbieter wie VMware und Internetriesen wie Google und Amazon haben diesen Trend erkannt und investieren massiv in Platform-as-a-Service Lösungen. Die Vorteile für die Anwendungsentwickler – wie sinkender Administrations- und Wartungsaufwand und dadurch voller Fokus auf die eigene Applikation – liegen auf der Hand.

Kategorien
Management

Finanzielle Betrachtung: Cloud Computing vs. eigene IT-Infrastruktur

Cloud Computing Anbieter stellen Unternehmen erweiterbare, zuverlässige, flexible und kostengünstige Plattformen für Cloud Services zur Verfügung. Viele Unternehmen setzen bereits Cloud-Anwendungen erfolgreich ein. Andere befinden sich derzeit in der Bewertungsphase um die Kosten und Nutzen einer Umstellung der gesamten IT-Infrastruktur auf Cloud-Computing zu evaluieren. Dieser Artikel beschreibt die beim Cloud Computing entstehenden Kosten im Vergleich zu den Kosten der klassischen IT-Infrastrukturen.

Dazu wird ein Vergleich der Betriebskosten wie z.B. Hardware, Datenhaltung, Sicherheit, Strom und Personal angestellt. Neben den direkten Kosten werden ebenfalls die indirekten Kosten für den Betrieb eines Rechenzentrums diskutiert.

Direkte Kosten


Nutzung bestehender Hardware

Die Serverauslastung in klassischen unternehmenseigenen Rechnenzentren liegt im Jahresmittel bei einem Maximum von ca. 20%. Investitionen in Virtualisierungstechnologien (bspw. der Aufbau einer Private Cloud) können die Serverauslastung verbessern. Dennoch haben Unmfragen unter IT-Entscheidern ergeben, dass der maximale Nutzungsgrad durch Virtualisierung den Wert von 25% nicht übersteigt.

Die Nutzung bestehender Hardware gehört zu den Kernkompetenzen von Cloud Computing Anbietern, wodurch Unternehmen einen enorm Vorteil erhalten können. Auf Basis der Preismodelle des Cloud Computing, bei der die Abrechnung nach der tatsächlichen Nutzung erfolgt, kann eine Auslastung von 100% erreicht werden. Der Cloud Computing Anbieter erzielt wiederum seinen Benefit über einen großen Kundenstamm, um damit die Gesamtauslastung seiner eingesetzten Hardware zu optimieren.

Die Lastverteilung innerhalb der Systeme des Cloud Anbieters findet auf Basis von Kunden aus unterschiedlichen Branchen statt. Die Anforderungen der jeweiligen Kunden divergieren, wodurch sich Lastspitzen- und einbrüche über einen Tag gegenseitig ausgleichen. Bspw. gibt es Unternehmen, deren Webshop am Tag Hochkonjunktur hat. In der Nacht dagegen aber wenig besucht wird. Und Unternehmen, die in der Nacht ihre Batchverarbeitungen durchführen, dafür am Tag aber minimale Ressourcen benötigen.

Hinzu kommt, das Cloud Anbieter auf Grund einer hohen Kundenanzahl höhere Investitionen in ihre Infrastruktur vornehmen können, als es ein einzelnes Unternehmen tätigen könnte, was die Effizienz der Infrastruktur erhöht und wiederum allen Kunden zu gute kommt.

Mit Cloud Computing Konzepten wie das Auto Scaling oder das Elastic Load Balancing, wie es z.B. die Amazon Web Services anbieten, haben Unternehmen die Möglichkeit ihre genutzten Ressourcen je nach Bedarf automatisch zu skalieren und damit eine Auslastung von nahezu 100% zu erzielen.

Kosten der Hardware

Unternehmen investieren über Jahre hinweg viele Millionen Euro in die Erweiterung und Wartung ihrer Infrastruktur. Dazu gehören die Anfangsinvestitionen in die Rechenzentren und die zwingend erforderliche technologische Aufrüstung aller Systeme. Ab einem Zeitpunkt bleiben die Kosten zwar gleich, was sich aber ebenfalls auf die Leistung der Systeme auswirkt.

Cloud Anbieter machen sich das Skalierungskonzept des Cloud Computing zu nutze, indem sie sich eine immens große Hardwarelandschaft zu niedrigen Kosten aufbauen, von der ebenfalls die Kunden des Cloud Anbieters hinsichtlich der Kosten und Leistung profitieren. Weiterhin profitieren beide von dem Konzept des Pay-per-Use, da die Kosten für die Kühlung, sowie die Stromkosten eines einzelnen Systems von der Nutzung abhängig sind. Ein einzelnes Unternehmen hat in seinem eigenen Rechenzentrum nicht die Möglichkeit diese Kosten zu kontrollieren.

Wirtschaftliches Strommanagement

Um die Wirtschaftlichkeit des Strommanagement zu messen, wird die sogenannte Stromnutzungseffizienz betrachtet. Im Schnitt liegt diese in Rechenzentren bei ca. 2,5. Das bedeutet, dass jedes Watt an Strom das für die Server verbraucht wird, 1,5 Watt an Fixkosten benötigt wird. Damit Unternehmen allerdings Strom sparen, müssen sie dafür sorgen, dass alle technischen sowie IT-Ressourcen auch dementsprechend eingesetzt werden. Unternehmen die eigene Rechenzentren betreiben stehen daher vor der Herausforderung, die Investitionen zu erhöhen, um die Effizienz der Stromnutzung zu erhöhen. Allerdings sehen viele nicht den Nutzen dieser Investitionen.

Cloud Computing Anbieter hingegen investieren hohe Summen in ihre Rechenzentren, was dazu führt dass die Effizienz weit über den eigentlichen Durchschnitt liegt.

Redundanzeffekte

Unternehmen stehen immer mehr vor der Herausforderung, über eine zuverlässige und hochverfügbare IT-Infrastruktur zu verfügen. Dazu benötigen Sie neben zuverlässigen Sicherheits- und Speicherlsöungen ebenfalls eine zuverlässige Netzwerkinfrastruktur inkl. redundanter Hardware sowie Transitverbindungen und physikalischen (Backup)-Leitungen zwischen den einzelnen Rechenzentren.

Dieses Konzept ist nicht mit einer gewöhnlichen RAID Konfiguration zu vergleichen. Weiterhin müssen neben einer Sicherung und der Bereitstellung einer zuverlässigen Netzwerkinfrastruktur auch ein Konzept für ein Worst-Case Szenario vorhanden sein. Dazu gehört das Bereitstellen von Daten (Informationen) und Applikationen in mehreren verteilten Rechenzentren auf Basis einer hochverfügbaren Software oder bekannten Hot- oder Cold Standby Konzepten. Um ein vollständiges Backupkonzept zu realisieren ist es unumgänglich dazu alle aktiven vorhandenen Rechenzentren und die darin betriebenen Server ständig zu nutzen. Sollte ein Rechenzentrum nicht dauerhaft in Betrieb sein, wird es in dem Moment wo es benötigt wird, nicht wie erwartet zur Verfügung stehen und betriebsbereit sein. Die Kosten und die Komplexität hinter diesem Konzept dürfen dabei von den Unternehmen nicht vernachlässigt werden.

Cloud Computing Anbieter können das oben genannte Konzept auf Basis der breiten Kundenbasis bereitstellen und dazu mehrere Verfügbarkeitszonen anbieten. So verfügen bspw. die Amazon Web Services über die sogenannten Availability Zones.

Sicherheit

Ein beliebter Punkt der auf Grund von Kosten von Unternehmen gerne vernachlässigt wird, ist das Sicherstellen, der Schutz und die Verfügbarkeit der Unternehmensdaten, die im Regelfall unternehmenskritisch sind. Zu den Investitionen gehören dabei Netzwerkhardware und Softwarelizenzen zur Erhöhung der Sicherheit, Kosten für das Personal, Kosten durch Vorgaben von Behörden und physikalische Sicherheitsvorkehrungen wie Chipkarten etc.

Optimierte Bereitstellung

Klassische Rechenzentren sind nicht hinsichtlich der Skalierbarkeit konzipiert. Das führt zu Kapazitätsproblemen, die auf Grund zeitlicher Diskrepanzen, von der Bestellung der Hardware bis zur Installation und Bereitstellung, entstehen. Ein vollständiger Bereitstellungsprozess kann schon einmal mehrere Monate in Anspruch nehmen. Unternehmen „lösen“ diese Probleme, indem sie ihre Infrastruktur überdimensionieren. Das führt allerdings zu höheren und Kosten und treibt die Uneffizienz des Rechenzentrums voran, da dadurch viele Systeme einfach nicht benötigt werden.

Cloud Computing Anbieter können sich auf Grund einer breiten Kundenbasis eine Überdimensionierung ihrer Kapazitäten leisten. Sie nutzen dazu Skaleneffekte und haben damit bessere Verhandlungsmöglichkeiten mit ihren Zulieferern und können damit ihre Investitionen amortisieren.

Mitarbeiter

Mitarbeiter in einem Rechenzentrum gehören, auch wenn es nicht offensichtlich ist, heutzutage zu den wichtigeren Personen im Unternehmen. Diese verursachen natürlich auch Kosten. Die Arbeit in einem Rechenzentrum sollte aber nicht unterbewertet werden. Das Personal ist hier neben der Verwaltung der heterogenen Serverlandschaft für das Sicherstellen neuer Systeme etc. und den Entwurf neuer Rechenzentrumskonzepte zuständig. Weiterhin müssen die Verträge mit Zulieferern immer wieder neue verhandelt und die Skalierbarkeit des Rechenzentrums sichergestellt werden.

Weiterhin muss 7x24x365 ein Team in jedem Rechenzentrum vor Ort sein, um den reibungsfreien Betrieb zu garantieren, der für ein Unternehmen heutzutage unerlässlich ist.

Indirekte Kosten


Wartung und Betrieb

Die Betrachtung der direkten Kosten sollte nicht vernachlässigt werden. Jedoch sollte nicht der Fehler gemacht werden, nicht die indirekten Kosten zu betrachten. Dazu gehören die Kosten für den Betrieb und die Wartung der Infrastruktur. Für die Verwaltung einer heute gängigen hochverfügbaren IT-Infrastruktur ist ein entsprechend ausgebildetes Personal notwendig. Das führt dazu, dass Unternehmen hier mehr in das Personal investieren müssen, um die Risiken zu minimieren, dabei aber den Fokus auf ihre Chancen zur Erweiterung ihres Kerngeschäfts verlieren.

Erweiterung

Die IT-Budgets vieler Unternehmen werden immer mehr gekürzt, wodurch nicht ausreichend Kapital zur Verfügung steht, um die Infrastruktur nach den gewünschten und eigentlich benötigten Bedürfnissen auszubauen. Aus diesem Grund werden die meisten Projekte nicht realisiert.

Neue Chancen

Auf Grund der Flexibilität einer Cloud Infrastruktur erhalten Unternehmen die Gelegenheit, ihre Kernkompetenzen direkt umzusetzen und neue Ideen und Projekte zu testen. Weiterhin sollte die Skalierbarkeit einer Cloud Infrastruktur nicht vernachlässigt werden. So können Webseiten Lastspitzen z.B. zu Weihnachten ohne bedenken überstehen. Forschungsunternehmen haben die Möglichkeit sich Rechnerleistungen für umfangreiche Simulationen zu mieten, ohne dabei in eigene Ressourcen zu investieren.

Fazit


Cloud Computing sollte nicht nur als ein Konzept betrachtet werden um Kosten zu minimieren. Unternehmen erhöhen damit deutlich ihre Produktivität und können im Vergleich zum eigenen Rechenzentrum flexibler und schneller Reagieren, indem sie Ressourcen on-Demand nutzen können.

Kategorien
Management

Ökonomische Vorteile durch Cloud Computing

Mittels Cloud Computing erhalten Unternehmen Zugriff auf Rechen-, Speicher-, Datenbank- und andere in der Cloud verfügbare IT-Infrastrukturdienste je nach Bedarf. Dabei werden nur die Ressourcen berechnet, die auch tatsächlich verwenden werden. Das führt dazu, dass Kosten verringert, der Cashflow optimiert, Geschäftsrisiken minimiert und die Einnahmen maximiert werden.

Verringern der Kosten und optimieren des Cashflow

Durch die Nutzung zuverlässiger und skalierbarer Infrastruktur eines Cloud Anbieter werden hohe Investitionsausgaben für eigene Server oder Rechenzentren vermieden. Auf Basis des Cloud Computing Konzepts und der darin eingesetzten Technologien, können entsprechend der tatsächlichen Anforderungen der Anwendungen nach Bedarf Ressourcen hinzufügen oder entfernen werden. Die IT-Betriebskosten und der Cashflow wird dadurch verbessert, indem die Anschaffungskosten zum Aufbau einer Infrastruktur vermieden werden und nur für die Ressourcen gezahlt wird, die auch tatsächlich verwenden finden.

Minimieren der geschäftlichen Risiken

Der Einsatz einer elastischen und je nach Bedarf verfügbaren Cloud Infrastruktur führt zu einer vereinfachten Kapazitätsplanung und der Minimierung sowohl des finanziellen, eine zu große Anzahl von Servern zu besitzen, als auch das geschäftliche Risiko, nicht ausreichend Server zur Verfügung zu haben. Das Konzept hinter dem Cloud Computing geht davon aus, keine Verträge oder langfristige Bindungen einzugehen. Das führt zu einer maximalen Flexibilität.

Maximieren der Einnahmen

Cloud Computing bietet das Potential die Einnahmen zu maximieren, indem mehr Zeit, Ressourcen und Investitionen dafür eingesetzt werden können, um sich auf die eigenen Kernkompetenzen zu konzentrieren und sich damit vom Wettbewerb zu differenzieren. Die verwendete IT-Infrastruktur erledigt dafür einfach ihren Dienst. Mit Cloud Computing können IT-Ressourcen bei Bedarf innerhalb von Minuten bereitgestellt werden, um bspw. Geschäftsanwendungen in ein paar Tagen anstatt in Monaten zur Verfügung zu stellen. Weiterhin können Cloud Infrastrukturen als kostengünstige Testumgebungen genutzt werden, um neue Geschäftsmodelle auszuprobieren oder Projekte einmalig durchzuführen, um damit neue Einnahmen zu generieren.

Kategorien
Services

Oracle Cloud Office

Mit seinem Cloud Office stellte Oracle auf seiner OpenWorld seine Antwort für Webbasierte und mobile Collaboration Suites vor. Es basiert auf dem Open Document Format (ODF), wodurch ein Austausch mit lokalen OpenOffice Installationen stattfinden kann und ist zu Microsoft Office kompatibel.

Das Cloud Office richtet sich in erster Linie an Unternehmen, für die Oracle das Cloud Office in seiner eigenen Public Cloud hostet und an Service Provider (wie Telekommunikationsanbieter und Internet Service Provider), die ihren Geschäfts- und Privatkunden eigene Office-Lösungen anbieten möchten.

Link: www.oracle.com/office

Kategorien
Management

Cloud Computing ist eine Frage des Vertrauens, der Verfügbarkeit und Sicherheit!

Trotz der vielen Vorteile die uns Cloud Computing bietet, wie skalierbare Rechenleistung oder Speicherplatz, steht und fällt die Akzeptanz mit dem Vertrauen in die Cloud. Dazu greife ich drei grundlegende Fakten heraus, mit denen sich Anbieter auseinandersetzen müssen, wenn sie Services auf Basis von Cloud Computing anbieten wollen.

Verfügbarkeit

Durch den Einsatz z.B. der Amazon Web Services (AWS) oder Google Apps, kann nicht mit derselben Verfügbarkeit gerechnet werden, als wenn man die Anwendungen lokal auf einem System verwendet. AWS garantiert bspw. eine 99.9% Verfügbarkeit für die Simple Storage Services (S3) und 99,95% für die Elastic Compute Cloud (EC2). Google verspricht mit seine „Google Apps Premier Edition“, die u.a. Mail, Calendar, Docs, Sites und Talk enthält, ebenfalls eine Verfügbarkeit von 99,9%.

Im Februar 2008 war Amazon S3 während eines Ausfalls vollständig nicht erreichbar und Google hatte im Mai 2009 ebenso einen Ausfall zu verweisen.

Und blicken wir auf das durch einen Bagger zerstörte Unterseekabel zurück, dass für die Internetversorgung im mittleren Osten zuständig ist, können Google und Amazon ihre SLA Versprechen gar nicht einhalten. Ich weiß, dass SLAs immer nur bis zu bestimmten Übergangspunkten definiert werden. Aber dennoch, auf solche Probleme hat ein Anbieter nun einmal keinen Einfluss und das muss mit bedacht werden.

Unternehmen müssen behutsam ihre kritischen (Geschäfts)-Prozesse von den weniger kritischen identifizieren. Nach dieser Klassifizierung sollten sie sich überlegen, die Kritischen im eigenen Rechenzentrum zu verarbeiten und die weniger Kritischen zu einem Cloud Anbieter auszulagern. Das bedeutet sicherlich einen nicht unerheblichen Aufwand, nährt aber die Vorteile.

Cloud Anbieter müssen für eine dauerhafte und stabile Verfügbarkeit ihrer Services sorgen. Eine Verfügbarkeit von 99,9% ist derzeit der Standard und wird von jedem Cloud Anbieter beworben. Stellt sich natürlich die Frage, ob das für die meisten Unternehmen (psychologisch) ausreicht. Denn das Gefühl, eine 100% Verfügbarkeit zu erhalten, wenn man alles selber macht, überwiegt. Daher wird sich Cloud Computing gefallen lassen müssen, 100% Verfügbarkeit als Zielvorgabe zu haben! Das Stromnetz sollte hierbei erneut das Vorbild sein! Natürlich sieht sich die Cloud weiteren Schwierigkeiten gegenübergestellt, kein Frage. Innerhalb der Cloud sind die 100% leicht zu erreichen. Dabei sollte der Weg in die Cloud (siehe oben) aber nicht vernachlässigt werden. Ein Unternehmen wird keine Cloud Services oder Cloud Anwendungen für kritische Geschäftsprozesse einsetzen, wenn die Verfügbarkeit nicht eindeutig geklärt ist.

Sicherheit

Wichtige Dateien höchstmöglich gegen den Fremdzugriff zu schützen hatte schon immer einen besonderen Stellenwert im Bereich der Informationstechnologie. Durch den Einsatz von Cloud Computing lagern Unternehmen ihre Informationen außerhalb ihres eigenen Bereichs aus und übertragen dazu die Daten über ein öffentliches Datennetzwerk.

SLAs (Service Level Agreements) sind in diesem Zusammenhang essentiell wichtig, da sie bis ins Detail beschreiben sollten, welche Maßnahmen Cloud Computing Anbieter bzgl. der Planung und Organisation zum Schutz der Daten unternehmen. Das kann früher oder später natürlich zu Rechtsstreitigkeiten führen, wenn ein Anbieter sich nicht daran hält und nicht behutsam mit sensiblen Daten umgeht.

Um diese Problematiken zu umgehen ist eine Hybrid Cloud ein guter Ansatz. Das Unternehmen verfügt über eine Private Cloud, in der alle kritischen Unternehmensdaten verarbeitet und gespeichert werden und bindet bei Bedarf die Public Cloud eines Anbieters an, um weitere Services der Private Cloud hinzuzufügen. Dazu sind natürlich gesicherte Netzwerkverbindungen unverzichtbar, die heutzutage aber ein Standard sein sollten. Dieser Ansatz löst natürlich nicht die Problematik, was mit meinen Daten passiert, wenn ich sie in die „Blackbox“ übertrage.

Vertrauen

Insbesondere Versicherungs- und Finanzdienstleister sehen bzgl. des Data Managements und lokalen Datenschutzgesetzen im Thema Cloud Computing eine riesige Hürde. Der Einsatz einer Private Cloud stellt keine Probleme dar. Allerdings stehen dem Nutzen einer Public Cloud zu viele Argumente entgegen. Versicherungsunternehmen arbeiten mit sehr sensiblen (sozialen) Daten, wodurch kein Brief auf einem externen System geschrieben oder gespeichert werden darf. Unter anderem ist es einem deutschen Versicherungsunternehmen gesetzlich nicht gestattet, seine Daten auf einem Server in Amerika zu speichern

Cloud Computing Anbieter müssen daher dafür Sorgen ihre Dienstleistungen und vor allem wie sie arbeiten transparent und offen zu zeigen. Transparenz ist im Cloud Computing enorm wichtig für ein Unternehmen, dass seine Daten einem Anbieter anvertraut und bei dem die Daten vermeintlich auf dem selben physikalischen System gespeichert sind wie die eines Mitbewerbers. Denn Transparenz schafft Vertrauen!