Kategorien
Grundlagen

Eigenschaften einer Cloud

Neben den bekannten Eigenschaften des Cloud Computing existieren weitere typische Begebenheiten, die eine Cloud auszeichnen. Dazu gehören neben allgemeinen ebenfalls technische Eigenschaften und der Blickwinkel aus der Sicht eines Unternehmens.

Allgemeine Eigenschaften

  • Elastizität
    Die Cloud erlaubt das hoch- und herunterskalieren von Ressourcen je nach Bedarf. Die dafür benötigte Zeit liegt im Bereich von Sekunden oder Minuten jedoch nicht Wochen oder Monaten.
  • Skaleneffekte
    Der Cloud Computing Anbieter ist in der Lage Skaleneffekte auszunutzen und kann die für das Cloud Computing benötigte Infrastruktur wie Strom, Kühlung, Bandbreite und Hardware zum bestmöglichen Preis beschaffen.
  • Pay as you Go
    Dabei handelt es sich mehr um eine allgemeine als um eine geschäftliche Eigenschaft. Techniker werden durch den Einsatz der Cloud Entscheidungen bei der Zuweisung von Ressourcen treffen, die unmittelbare Auswirkungen auf den Ressourcenverbrauch und die Höhe der Gesamtkosten haben. Damit hat in Zukunft jeder die Aufgabe, das Unternehmen effizienter zu führen.

Technische Eigenschaften

  • Schnelle Skalierbarkeit
    Weitere Ressourcen können innerhalb von Minuten on-Demand gekauft werden, um bei Bedarf unerwarteten Situationen gerecht zu werden. Dazu gehören z.B. umfangreiche Berechnungen oder eine unerwartet hohe Besucherzahl auf der Webseite. Werden die Ressourcen nicht länger benötigt, können sie der Cloud zurückgegeben werden.
  • Die Ressourcen sind abstrakt und unkompliziert
    Die Hardware, die für den Betrieb einer Cloud benötigt wird, ändert sich und wird ständig verbessert. Jedoch ist es die Aufgabe des Cloud Computing Anbieters dafür zu sorgen. Ein Cloud Computing Nutzer muss sich mit den Details hinter einer Cloud nicht mehr auseinandersetzen.
  • Eine Cloud besteht aus einzelnen Bausteinen
    Die IT-Ressourcen eines Cloud Computing Anbieters bestehen aus kleinen Bausteinen. Das bedeutet, sie sind einzeln verfügbar und werden jeweils einzeln berechnet. Ein Nutzer hat die Möglichkeit entweder keine, alle oder nur ein paar Ressourcen zu nutzen, welche ihm als Service durch die Cloud bereitgestellt werden.
  • Experimentieren ist kostengünstig
    Cloud Computing entfernt die wirtschaftliche Hürde zum Experimentieren. Dadurch können neue Ideen ausprobiert werden, ohne langfristig in die dafür benötigte Hardware zu investieren, indem auf temporäre Ressourcen zurückgegriffen wird.

Eigenschaften aus der Sicht eines Unternehmens

  • Keine Vorabinvestitionen
    Cloud Computing wurde geschaffen, um Ressourcen bei Bedarf nutzen zu können. Aus diesem Grund sind keine einmaligen und großen Investitionen notwendig, bevor der eigentliche Bedarf auftritt.
  • Aus fixen kosten werden variable Kosten
    Anstatt sich auf eine feste Anzahl von Ressourcen über einen langen Vertragszeitraum (in der Regel ein bis drei Jahre) festzulegen, ermöglicht es Cloud Computing den Ressourcenverbrauch in Echtzeit zu verändern.
  • Investitionen werden zu Betriebskosten
    Investitionen werden in der Regel auf einen langen Zeitraum verteilt und führen damit zu einer mehrjährigen Verpflichtung, eine bestimmte Menge von Ressourcen zu nutzen. Die Betriebskosten hingegen beziehen sich auf die tatsächliche Nutzung des Cloud Service und können in Echtzeit verändert werden.
  • Die Ressourcenzuteilung wird granularer
    Cloud Computing ermöglicht eine minimale Nutzung in Bezug auf die Zeit und Ressourcen, bspw. Servernutzung pro Stunde und einzelne Bytes des genutzen Speichers.
  • Das Unternehmen gewinnt an Flexibilität
    Da ein Unternehmen sich nicht mehr langfristig an Ressourcen bindet, ist es in der Lage, schneller auf Änderungen bzgl. der benötigten Mengen und der Art der Geschäftstätigkeit zu reagieren.
  • Der Anbieter steht mehr unter Beobachtung
    Das Kerngeschäft des Cloud Computing Anbieters besteht darin, seine Cloud für die öffentliche Nutzung bereitzustellen. Somit hat er einen starken Anreiz seine Services so bereitzustellen, dass sie zuverlässig, anwendbar und kostengünstig sind. Die Cloud spiegelt also die Kernkompetenzen eines Anbieters wieder.
  • Die Kosten sind inhaltsorientierter
    Durch das flexible Ressourcenzuweisungsmodell des Cloud Computing ist es genauso leicht 100 Server für eine Stunde zu beziehen und zu betreiben wie einen Server für 100 Stunden. Das fördert das innovative Denken hinsichtlich der Lösungen von Problemen, die nur durch eine große Skalierung ermöglicht werden.
Kategorien
News

Die Attraktivität von Security-as-a-Service steigt

Der Einsatz von Cloud Computing in deutschen Unternehmen ist im Vergleich zur weltweiten Akzeptanz eher bescheiden. Verwunderlich ist jedoch die relativ hohe Adaption von Security-as-a-Service.

So ergab eine Umfrage des Branchenverbandes BITKOM zusammen mit der Uni Regensburg, dass schon jedes sechste Unternehmen ihre Virenlösungen oder Authentifizierungsservices aus der Cloud eines Anbieters bezieht. Insbesondere Finanz- und IT-Dienstleister sind hier die Vorreiter, wenn es um die Nutzung von Security-as-a-Service geht. So nutzt knapp jedes dritte Unternehmen dieser Branchen einen Security Service aus der Cloud.

Die Studie soll als eine Bestandsaufnahme der derzeitigen Verbreitung sowie der zukünftigen Entwicklung von
Security-as-a-Service Lösungen dienen und analysiert dazu den aktuellen wahrgenommene Nutzen und die Risikofaktoren des Einsatzes solcher Services.

Kernergebnisse der Studie

Treiber für den Einsatz von Security-as-a-Service Lösungen sind Kostenvorteile sowie die Möglichkeit, vorhandene Ressourcen auf das Kerngeschäft zu konzentrieren. Zu den Hemmnisse gehören insbesondere strategische sowie sicherheitsbezogene Risiken. Hinzu kommen Probleme, die bei der Einführung und beim Customizing der Sicherheitslösungen erwartet werden.

Mittelfristig hat jedes vierte der befragten Unternehmen das Ziel, Security-as-a-Service Lösungen einzusetzen. So setzen bereits heute nach eigenen Angaben etwa 20 Prozent der Unternehmen solche Lösungen ein. Allerdings spielen Security-as-a-Service Lösungen für Großunternehmen derzeit eine größere Rolle als für kleine oder mittelständische Betriebe.

An der Studie nahmen ca. 200 Unternehmen aus unterschiedlichen Branchen teil.

Studie: Akzeptanz von Security as a Service

Kategorien
News

Best in Cloud – Die Gewinner stehen fest

Erstmalig hat das Magazin COMPUTERWOCHE in diesem Jahr ihren Wettbewerb „Best in Cloud“ veranstaltet, dessen Ziel darin besteht, aus diversen Cloud Computing Angeboten und Projekten die besten zu identifzieren und zu prämieren.

Zu den Finalisten gehörten 35 Unternehmen, die in sieben themenspezifischen Kategorien aufgeteilt wurden. Diese wurden dann während des Events von einer renommierten Jury bewertet.

Die Gewinner

Infrastructure as a Service (IaaS)

    BT (Germany) GmbH & Co. oHG
    Projekt: Virtual Data Centre – Private-Cloud-Projekt mit MPLS-Anbindung im BT Data Centre.

Platform as a Service (PaaS)

    Infopark
    Projekt: Airport Nürnberg auf Wolke 7 – Webauftritt, CMS und WebCRM als Plattform aus der Cloud.

Software as a Service (SaaS) – Public Cloud

    forcont Business Technology GmbH
    Projekt: Elektronische Personalakte als SaaS-Angebot.

Software as a Service (SaaS) – Private Cloud

    Zendesk
    Projekt: Helpdesk-SW/Ticketing aus der Cloud.

Software as a Service (SaaS) – Hybrid Cloud

    SupplyOn AG
    Projekt: Collaboration-Plattform für die Automobil- und Fertigungsindustrie; hier mit Hybrid-Cloud-Projekt „AirSupply“ vertreten, das europäischen Luftfahrtunternehmen ein einheitliches Supplier-Portal zur Verfügung stellt.

Cloud Enabling Software

    Fujitsu
    Projekt: Diperia – Digitale Personalakte: Ein Webangebot, gestrickt für Kendox.

Sonderprojekte

    Ubigrate GmbH
    Projekt: Einsatz eines Behältermanagementsystems – SaaS-Lösung für das Verwalten von Behältern, die Pool Packaging.

Die Kategorien und ihre Finalisten

Infrastructure as a Service (IaaS)

  • Arago AG
  • Bechtle GmbH & Co. KG
  • BT (Germany) GmbH & Co. oHG
  • FRITZ & MACZIOL GmbH
  • UBL Informationssysteme GmbH

Platform as a Service (PaaS)

  • Fabasoft
  • IBM
  • Infopark
  • Lufthansa Systems AG
  • T-Systems International GmbH

Software as a Service (SaaS) – Hybrid Cloud

  • NetApp und Cloud Germany
  • Drivve
  • Retarus GmbH
  • Strato AG
  • SupplyOn AG

Software as a Service (SaaS) – Public Cloud

  • Cotendo (DACH)
  • forcont Business Technology GmbH
  • Salesforce.com
  • SAP Deutschland AG & Co. KG
  • Scopevisio AG

Software as a Service (SaaS) – Private Cloud

  • Brainloop AG
  • Materna GmbH
  • Pervasive Software
  • Wassermann AG
  • Zendesk

Cloud Enabling Software

  • Arvato Systems GmbH
  • CA Technologies
  • CANCOM AG
  • Fujitsu
  • Veeam Software

Sonderprojekte

  • CAS Software AG
  • CEMA AG
  • Finanz Informatik Technologie Service
  • Fraunhofer Innovationscluster
  • Ubigrate GmbH
Kategorien
Grundlagen

Schlüsseltechnologien des Cloud Computing

Seit dem Beginn des neuen Jahrhunderts hat die Informationstechnologie viele neue Technologien hervorgebracht, die nun zusammen dafür genutzt werden IT-Ressourcen je nach Bedarf bereitzustellen. Durch die Kombination von Internet-Technologien wie Web-Browser, virtualisierte Server, Parallel-Computing und Open Source Software haben sich für die Bereitstellung von Computer Ressourcen völlig neue Möglichkeiten ergeben. Der Begriff Cloud Computing beschreibt die Kombination dieser genannten Technologien am besten.

IT-Anbieter sind dazu übergegangen aus dem Ergebnis dieser Konsolidierung Pakete zu schnüren und Unternehmen anzubieten, die ihre klassischen IT-Aufgaben auslagern wollen. Dazu gehören bspw. der Betrieb des eigenen Rechenzentrums oder die Anschaffung und Wartung von Unternehmensanwendungen wie Enterprise Resource Planning (ERP), Customer Relationship Management (CRM), Human Resource Information System (HRIS) oder weiteren Anwendungen, die lediglich dazu dienen, den Betrieb des Unternehmens zu unterstützen.

Grid Computing

Beim Grid Computing handelt es sich um eine Form des verteilten Rechnens. Die Idee entstand erstmalig im Jahr 1997 am Argonne National Laboratory. Dabei wird eine Art virtueller Supercomputer auf Basis eines Cluster von lose gekoppelter Computer aufgebaut. Ein Grid ist so konzipiert, dass die Ressourcen nicht einer zentralen Instanz zugeordnet sind. Dabei werden offene und standardisierte Protokolle und Schnittstellen verwendet, um damit Speicher- und Rechenkapazitäten über das Internet zur Verfügung zu stellen. Auf Basis des Grid Computing sollen Rechenleistungen und Daten über Organisationsgrenzen hinweg auf eine sichere und effiziente Art gemeinsam genutzt werden. Damit sollte die Möglichkeit geschaffen werden, rechenintensive Probleme zu lösen, für die nicht ausreichend lokale Ressourcen zur Verfügung stehen. Zu den grundlegenden Konzepten des Grid Computing gehören die Standardisierung, die Automatisierung sowie die Abstraktion von der Hardware. Über standardisierte Schnittstellen erfolgt der Zugriff auf alle verfügbaren Rechnersysteme innerhalb des Grids, die über einen automatisierten Verteilungsalgorithmus ihre Aufgaben erhalten. Auf Basis der Standardisierung findet der Zugriff auf die unterschiedlichen Ressourcen statt.

Das Cloud Computing erbt von dem Grid Computing grundlegende Konzepte und Technologien. So ermöglicht das Grid Computing bspw. der IT-Infrastruktur die Flexibiltät und Elastizität. Das Grid Computing bildet die Grundlage für Infrastructure-as-a-Service, indem es die Basiskonzepte für die standardisierten und hochskalierbaren Systemarchitekturen bereitstellt, die als abstrahierte virtuelle IT-Services verwendet werden können. Zudem ist die Erweiterung des Grid Computing mittels Rechen-, Speicher- und Netzwerkkapazitäten bei Bedarf das Grundkonzept für eine Cloud Computing Infrastruktur. Neben der optimierten Ressourcennutzung, dem Zugriff über das Internet und dem effizienteren Betrieb der Infrastrukturen wurden ebenfalls die Standardisierung, Automatisierung, und die Kosten- und Effizienzgewinne vom Grid Computing übernommen.

Virtualisierung

Virtualisierung wird als eine Emulation oder Simulation von Hardware-Ressourcen, bei der die Hardware vom Betriebsystem entkoppelt wird und sich dadurch der Grad der Flexibilität erhöht, charakterisiert. Ressourcen erhalten damit eine zentrale und einheitliche Sicht unabhängig von dem tatsächlichen physikalischen Ort, an dem sie sich befinden.

Zwei Bereiche sind die treibenden Faktoren der Virtualisierung in der IT. Bei dem einen handelt es sich um die Serverkonsolidierung, womit die Anzahl der physikalischen Serversysteme innerhalb eines Rechenzentrums gesenkt wird. Bei dem zweiten Bereich handelt es sich um die Anwendungsvirtualisierung. Damit wird die Bereitstellung der Anwendungen beschleunigt, wodurch ebenfalls die Flexibilität des Unternehmens steigt. Weiterhin sorgt Virtualisierung für einen optimierten Auslastungsgrad der IT-Ressourcen, der mit Hilfe einer intelligenten Verteilung der Applikationen auf die freien Ressourcen auf 70%-90% gesteigert werden kann. Das führt ebenfalls zu höheren Kosteneinsparungen. Eine Virtualisierungssoftware sorgt für die Aufteilung eines physikalischen Servers in mehrere virtuelle und ermöglicht damit die parallele Bereitstellung der Cloud Services für mehrere Kunden. Damit wird die IT-Infrastruktur eines Cloud Anbieters konsolidiert und kostengünstig betrieben, was zu kostengünstigen Cloud Services führt.

Beim Cloud Computing wird die Virtualisierung genutzt, um dem Nutzer Ressourcen bei Bedarf automatisiert und flexibel bereitzustellen. Ohne diese Technologie und ihre Konzepte wäre Cloud Computing daher nicht möglich.

Software-as-a-Service

Das Konzept des Software-as-a-Service gilt als einer der führenden Treiber des Cloud Computing in den vergangenen Jahren. Dabei stellen Anbieter ihre Software nach Bedarf über das Internet dem Nutzer bereit. Dieser kann über einen Standard Webbrowser darauf zugreifen und muss stattdessen keine Software auf dem üblichen Weg mehr kaufen und auf seinem lokalem System installieren.

Speziell der Gedanke einen Service, in diesem Fall Software, nach Bedarf zu nutzen und nicht im Vorweg darin zu investieren, gehört zu den zentralen Ideen des Cloud Computing.

Service Oriented Architecture

Die Service Oriented Architecture (SOA) hat dazu beigetragen, dass überhaupt (verteilte) Softwarekomponenten entwickelt werden konnten, die für das Cloud Computing benötigt werden. Eine SOA wird dabei auch als ein Paradigma bzw. ein Softwarearchitekturkonzept beschrieben. Dabei werden die Daten und der zur Ausführung notwendige Programmcode so gekapselt, dass diese als Service von einer anderen Anwendung aufgerufen und damit wiederverwendet werden können.

Um mit Cloud Computing mehr als nur Infrastructure-as-a-Service anbieten zu können, ist das Architekturkonzept einer SOA unentbehrlich. Dabei wird eine SOA dafür verwendet, um Anwendungen in einzelne Services aufzuteilen, dass jeder einzelne Service einen eigenen Geschäftsprozess darstellt. Mittels standardisierter Schnittstellen können diese gemeinsam verteilt genutzt werden. Mit einer SOA können diese Services so kombiniert werden, dass die Veränderungen innerhalb der Geschäftsprozesse softwaretechnisch schnell nachvollzogen werden können. Somit kann die IT-Strategie ebenfalls schneller an die geänderte Unternehmensstrategie angepasst werden und führt damit zu einer höheren Flexibilität und Agilität und erhöht die Wettbewerbsfähigkeit.

Open Source Software

Aktuelle Internettechnologien (z.B. Apache, MySQL), Entwicklungsumgebungen, Frameworks (z.B. Ruby, PHP) und Infrastrukturtechnologien (z.B. Linux, XEN) zeigen den Einfluss von Open Source Software auf die heutigen Infrastrukturen. So ist bspw. die Cloud der Amazon Web Services die größte XEN Installation weltweit.

Web Services

Web Services werden sehr oft im gleichen Atemzug mit einer SOA genannt, basieren letztendlich aber nur auf ihrem Architekturkonzept. Bei einem Web Service handelt es sich um eine Softwareapplikation, die mittels einer standardisierten Schnittstelle bei Bedarf aufgerufen werden kann. Web Services sind damit auch die Grundlage von Mashups.

Die Amazon Web Services sind das beste Beispiel dafür, dass Web Services zu den grundlegenden Technologien des Cloud Computing gehören. So handelt es sich um jeden angebotenen Service wie bspw. Amazon EC2 oder Amazon S3 jeweils um einen eigenen Web Service, der separat über eine eigene Schnittstelle unabhängig angesprochen werden kann.

Kategorien
Services @en

The Future of Cloud Computing? Private Cloud Management-as-a-Service"

When companies thinking about Cloud Computing they are always faced with topics like security and data privacy. Their fear and the risk is to high to suffer from data loss or that trespassers get access to the business critical data. The way into the public cloud is therefore increasingly weighed. The swedish company Witsbits comes up with a new concept I would call “Private Cloud Management-as-a-Service”. Quasi the swedish solution to face Cloud Computing.

The idea is relatively easy to understand. Using a bootable USB-stick or CD-ROM – with a Witsbit cloud-key stored on it – the administrator is preparing the physical servers on which the virtual machines (KVM) will be hosted afterwards. Based on the cloud-key the servers automatically connect to the Witsbits Management Platform. From here the administrator can manage the private cloud in the own data center/ server room using a centralized and web based surface.

The target group of this solution are small and medium-sized enterprises. Whereby I see a huge potential for systems houses and consultants, which are going to offer their customers a private cloud (flexibilization of existing local resources) or just want to manage the servers remote.

For the establishment no installation is required whereby the start-up can be done relatively quick. At the moment, Witsbits offers two different billing options: Free and Premium. The option „Free“ is, like the name means, free. However, the use is limited to 8 GB of VRAM (The maximum total amount of Virtual Machine primary memory (RAM) under management at any given time.). The option „premium“ costs $ 3 per month per 1 GB of VRAM, where there is no limit to the VRAM.

Kategorien
Grundlagen

Die historische Entwicklung des Cloud Computing

Historisch betrachtet reichen die Ideen und Konzepte des Cloud Computing bis in die 1960er Jahre zurück. Bereits damals enstanden die Ideen, IT-Ressourcen wie Rechenleistung und Anwendungen als ein Utility einer breiten Masse gegen eine Nutzungsgebühr zur Verfügung zu stellen. Auf Grund der damals dafür notwendigen, aber noch nicht vorhandenen technischen Voraussetzungen wie schnelle und stabile Internetverbindungen sowie der Mehrbenutzerfähigkeit von IT-Systemen, war der Durchbruch nicht möglich.

Vor ca. 10 Jahren begannen IT-Dienstleister erneut damit, ihren Kunden IT-Ressourcen in Form von Anwendungen anzubieten, welche sie flexibel nach der tatsächlichen Verwendung abrechnen konnten, so wie es von der Nutzung des Strom- und Wassernetzes bekannt ist. Die zu verarbeitenden Daten befinden sich dabei im Rechenzentrum eines Drittanbieters. Der Kunde greift mittels seines Webbrowser über eine Webseite auf diese Daten zu. Ursprünglich hieß diese Art des Geschäftsmodells Application Service Providing (ASP). Heute hat es die Bezeichnung Software-as-a-Service (SaaS), ein Teilbereich des Cloud Computing.

Die bekanntesten Vertreter und Vorreiter der Technologien, Ideen und Konzepte des Cloud Computing sind Google, Salesforce und Amazon.

Google konzentriert sich neben seiner Cloud Office Suite (Google Apps) inkl. E-Mail, Kalender, Textverarbeitung und Tabellenkalkulation auf das Bereitstellen einer Entwicklungsinfrastruktur (Google AppEngine). Salesforce hat sich dagegen auf Unternehmenssoftware wie z.B. dem Customer Relationship Management (CRM) spezialisiert und steht damit in direkter Konkurrenz zu den klassischen Anbietern wie z.B. SAP. Weiterhin steht mit Force.com jedoch auch eine Entwicklungsinfrastruktur in deren Cloud bereit. Google und Salesforce gehören damit zu den Anbietern von SaaS und Platform-as-a-Service (PaaS) Diensten.

Amazon hingegen ist mit seinen Amazon Web Services (AWS) ein Anbieter aus dem Bereich der Infrastructure-as-a-Services (IaaS) sowie PaaS und stellt mit der Amazon Elastic Compute Cloud (EC2) Rechenleistung und den Amazon Simple Storage Services (S3) Speicherplatz in seiner Cloud zur Verfügung.

Um zu verstehen, warum diese drei Anbieter ihre eigenen Infrastrukturen nach den Prinzipien des Cloud Computing einer breiten Masse bereitstellen können, gilt es hinter die Kulissen zu schauen und deren Beweggründe zu verstehen.

Auf Basis dieses Verständnisses, lässt sich sehr gut verdeutlichen, wie es zu der Entwicklung des Cloud Computing gekommen ist.


Beweggründe von Google, Salesforce und Amazon

Um die Beweggründe zu verstehen, muss zunächst die triviale Frage erörtert werden, warum jeder der genannten Anbieter selbst nicht auf den Einsatz der Prinzipien und Technologien des Cloud Computing in seinen Infrastrukturen verzichten kann.

Abgesehen von Salesforce, hatte keiner dieser drei Anbieter das ursprüngliche Ziel gehabt Cloud Computing Dienste anzubieten. Vielmehr ist es aus einer Notwendigkeit entstanden. Um ihre Kerngeschäfte überhaupt effizient betreiben zu können, waren sie gezwungen, Cloud Computing Technologien zu entwickeln und selber einzusetzen.

Warum benötigt Salesforce Cloud Computing?
Wie bereits oben erwähnt, hat Salesforce von Anfang an sein Kerngeschäft darauf ausgerichtet, Unternehmensanwendungen auf Basis von Software-as-a-Service anzubieten. Sie mussten somit eine eigene hochskalierbare und hoch verfügbare IT-Infrastruktur aufbauen, um ihren Kunden die angebotenen Services jederzeit zuverlässig bereitzustellen. Sonst hätte das Geschäftsmodell nicht funktioniert.

Warum benötigt Google Cloud Computing?
Wird das Kerngeschäft von Google genauer betrachtet, steht hier die Suche und die damit zusammenhängende Indizierung des Internets im Vordergrund. Für beides wird eine enorme Rechenleistung benötigt, die nur durch den Aufbau einer entsprechend leistungsfähigen IT-Infrastruktur bereitgestellt werden kann. Zudem möchte Google seinen Nutzern einen zuverlässigen und vor allem schnellen Dienst während der Suche von Informationen im Internet bereitstellen, wodurch auch hier die Aspekte der Hochskalierbarkeit und Hochverfügbarkeit von besonderer Bedeutung sind.

Warum benötigt Amazon Cloud Computing?
Amazons Kerngeschäft ist der Webshop auf Amazon.com. Hierbei handelt es sich um die größte E-Commerce Plattform der Welt mit Millionen Kunden und Transaktionen pro Tag. Auf Grund dessen gilt es für Amazon über eine hochskalierbare und hochverfügbare IT-Infrastruktur zu verfügen, um seinen Kunden einen zuverlässigen Service zu bieten.
Nach Aussage von, CTO von Amazon, liegen Amazons Beweggründe für den Einstieg in das Cloud Computing darin, dass die Infrastuktur innerhalb eines Jahrzehnts immer weiterentwickelt wurde, um die Evolution der Amazon E-Commerce Plattform stetig voranzutreiben. Währenddessen wurden verteilte Software und Vorgehensweisen entwickelt, welche in einem großen Umfang zu hohen Leistungen, Zuverlässigkeit, Betriebsqualität und Sicherheit geführt haben. Zur selben Zeit wurde festgestellt, dass der programmatische Zugriff auf den Amazon Katalog und weitere E-Commerce Dienste zu einer enormen und unerwarteten Innovation durch ein sehr großes Ökosystem von Entwicklern führt. Dadurch entstand schließlich der Gedanke, eine Amazon Kompetenz – der Aufbau von hochskalierbarer Systemsoftware – über eine Service Schnittstelle anzubieten und darüber einfache Infrastrukturbausteine bereitzustellen. Das sollte auf der ganzen Welt zu Innovationen führen, da sich Entwickler somit nicht mehr um den Kauf, Aufbau und die Wartung einer Infrastruktur kümmern müssen. Da aus eigener Erfahrung die Kosten für die Wartung einer zuverlässigen und skalierbaren Infrastruktur in einem traditionellen, redundanten Rechenzentrumsmodell ca. 70% der Zeit und Aufwände betragen und die Investitionen des geistigen Kapitals ebenfalls erhebliche Kosten verursachen, bestanden die ersten Überlegungen darin, Services bereitzustellen, welche die Kosten auf 30% oder weniger reduzieren. Zudem wurde erkannt, dass die generelle Rechnerauslastung sowohl bei großen und mittelständischen Unternehmen als auch bei Startups dramatisch klein (weniger als 20%, oft sogar weniger als 10%) und oft einer erheblichen Periodizität ausgesetzt ist. Die Bereitstellung von Diensten auf Basis eines on-Demand Models unter der Nutzung eines Pay as you Go Preismodells sollte dieses radikal verändern. Die Geschichte über den Verkauf von Überkapazitäten soll demnach ein Mythos sein. Jedoch hätte Amazon zunächst ohne den Aufbau der Infrastruktur seine Amazon Web Services in der Form niemals anbieten können. Die für den Webshop entwickelte Infrastruktur diente dafür als die entscheidende Grundlage.


Gemeinsamkeiten zur Bewältigung der Herausforderungen

Betrachten wir nun die Gemeinsamkeiten bzw. Herausforderungen, die bewältigt werden müssen um das jeweilige Kerngeschäft zu betreiben, wird deutlich, wie es zu der Technologie bzw. dem Geschäftsmodell gekommen ist, das als Cloud Computing bezeichnet wird. Gleichzeitig gelten diese Gemeinsamkeiten als die drei typischen Charakteristika des Cloud Computing. Dazu gehören:

Hohe Skalierbarkeit

  • Salesforce
    Die Unternehmensanwendungen von Salesforce sind auf kleine Startups bis hin zu großen Unternehmen ausgelegt. Die Infrastruktur muss dementsprechend mit großen Anfragemengen umgehen können.
  • Google
    Die Menge an Suchanfragen für einen bestimmten Zeitraum sind nicht exakt vorhersagbar, daher muss die Infrastruktur auch mit einer unerwartet hohen Belastung zurechtkommen. Zudem ist eines von Googles Mottos schließlich, dass schneller besser als langsam ist.
  • Amazon
    Speziell in saisonal bedingten Zeiten wie z.B. Weihnachten steigen die Anfragen an den Webshop exponentiell, wodurch die Infrastruktur stetig mitwachsen muss.

Hohe Verfügbarkeit

  • Salesforce
    Kunden von Salesforce nutzen geschäftskritische Unternehmensanwendungen und speichern ihre Daten in der Cloud von Salesforce, auf die sie jederzeit zugreifen müssen.
  • Google
    Google ist zum Inbegriff der Suche im Internet geworden. Sollte die Webseite mal nicht erreichbar sein, würde das einen enormen Imageverlust bedeuten.
  • Amazon
    Ein Webshop wie Amazon.com ist nicht vergleichbar mit einem gewöhnlichen Einzelhandelsgeschäft. Kunden können hier rund um die Uhr einkaufen, was bedeutet, dass der Shop 24/7 erreichbar sein muss.

Hohe Zuverlässigkeit

  • Salesforce
    Kunden von Salesforce müssen sich auf die einwandfreie Datenhaltung und Funktion der genutzten Anwendungen verlassen können.
  • Google
    Nutzer der Google Suchmaschine müssen sich auf die Suchergebnisse verlassen können. Das impliziert ebenfalls eine zuverlässige Indizierung.
  • Amazon
    Ein Kunde muss sich während eines Bestellvorgangs darauf verlassen können, dass alle Transaktionen die zu dieser Bestellung gehören, zuverlässig abgeschlossen werden.

Fazit

Nur durch die Konzeption und den Aufbau einer hoch skalierbaren sowie äußerst zuverlässigen Infrastruktur, die jederzeit verfügbar ist, können Salesforce, Google und Amazon ihre Kerngeschäfte optimal und einwandfrei betreiben und Ihren Kunden damit den größtmöglichen Nutzen bieten.

Kategorien
Grundlagen

Cloud Computing – Das neue Paradigma

Cloud Computing bezeichnet in erster Linie ein Servicemodell, bei dem auf (theoretisch unbegrenzte) IT-Ressourcen wie Rechenleistung, Speicherplatz, Applikationen und andere Arten von Services on-Demand zugegriffen werden kann. Dabei werden auf Basis des Pay as you Go Konzeptes nur die Ressourcen berechnet, die zu diesem Zeitpunkt auch tatsächlich genutzt werden.

Die eigentliche Verarbeitung findet in den Rechenzentren auf den Servern der Cloud Computing Anbieter statt. Dadurch hat die Relevanz heutiger leistungsfähiger Endgeräte stark abgenommen, wodurch auch mittels Smartphones und Netbooks, die nur über beschränkte Ressourcen verfügen, komplexe Anwendungen genutzt werden können.

Die Umsetzung des On-Demand Modells, die dynamische Zuweisung von Ressourcen nach Bedarf, erfolgt über die Abstrahierung mittels einer weiteren Ebene, der Virtualisierung. Anstatt der Miete eines physikalischen Servers werden virtuelle Maschinen eingesetzt, deren Ressourcen wie Speicherkapazitäten und Rechenleistung je nach den aktuellen Anforderungen dynamisch mitwachsen oder sich verkleinern. Ressourcen wie bspw. der Langzeitspeicher werden dabei bewusst getrennt von den verarbeitenden Ressourcen gehalten und separat angebunden, um die Flexibilität und Verfügbarkeit der Daten zu erhöhen.

Die Ressourcen aus der Cloud eines Anbieters sind somit weitaus skalierbarer als es die klassischen IT-Infrastrukturen sein können. Müssen unerwartete Spitzenlasten über einen unbekannten Zeitraum überbrückt werden, stehen die dafür benötigten Ressourcen umgehend zur Verfügung und können anschließend wieder heruntergefahren werden. Abgerechnet werden hierbei nur die Ressourcen, die auch tatsächlich für diesen Zeitraum genutzt wurden.

Unternehmen sind die Probleme zur Bewältigung von Spitzenlasten bekannt. Um dem gerecht zu werden sind sie klassisch vorgegangen und haben ihre IT-Infrastrukturen überdimensionert, um immer ausreichend Ressourcen vorzuhalten, die nur für wenige Zeiträume im Jahr, wie z.B. Weihnachten oder dem Jahresabschluss, benötigt werden. Dies führt jedoch dazu, dass die Server im Jahresmittel zu 20% genutzt werden und die restlichen 80% dem Unternehmen nicht helfen das eigentliche Geschäftziel zu verfolgen. Im Gegenteil: Durch die hohen Investitionskosten für Hard- und Software sowie Wartung, Personal etc. wurden immense Summen in einen Bereich des Unternehmens investiert, der in den Führungsebenen seit jeher als klassischer Kostenfaktor betrachtet wird.

Im Cloud Computing werden die Ressourcen alle als “… as-a-Service” aus der Cloud angeboten. Dazu gehören Rechnerleistung und Speicher, Programmierungebungen und Software. Diese Bereiche werden weiter unten im Kapitel noch detaillierter beschrieben. Diese Dienste werden bei Bedarf aus der Cloud bezogen.

Das Wort der Cloud abstrahiert sich aus der Illustration der klassischen Netzwerktechnik. Um die Details eines unbekannten Netzwerkes, in der Regel das Internet, nicht genauer beschreiben zu müssen, wird sich hier an der Abbildung einer Wolke (Cloud) bedient. Abgebildet auf das Cloud Computing bedeutet dies für einen Cloud Computing Nutzer, dass er sich um die Details der IT-Infrastruktur bei dem Cloud Computing Anbieter nicht mehr kümmern muss. Er bezieht lediglich die Ressourcen, die er zu einem bestimmten Zeitpunkt benötigt und nur diese werden anschließend abgerechnet.

Kategorien
Services @en

"MARS-o-Matic" or design your (cloud) infrastructure the mobile way.

As you might have seen the world becomes more and more mobile. And even IT-infrastructure designer or should I better use the new paradigm „cloud designer“ 😉 need new ways to work independently from a „fat“ notebook and use new technologies like the iPad or Android tablets.

My friends from the automation experts arago aka Chris Boos and Roland Judas introduced me to their new idea of designing infrastructures on the go. A really convenient solution.

They call it „MARS-o-Matic“ an App for the Apple iPad that allows you to design your IT-infrastructure and let benchmark it against industry standards or other automated best-practice environments. Whereby you can benchmark and optimize your or other infrastructure environments based on a lightweight and reusable model.

With this you are able to design everything visual and mobile while an XML-based data set is created in the background which you can export to other applications like a CMDB, a BSM dashboard or a service directory.

MARS-o-Matic is useful for project manager, IT-architects or consultants for planning IT infrastructures or if they want to know how much their IT operations will cost. Furthermore CIOs and IT operations manager can compare their current operation cost with industry best practices managed services offerings and other automated IT operations. And even CFOs or procurement manager have benefits if they want to benchmark a managed service against an outsourcing offer.

MARS-o-Matic is currently available as a private beta version. So if you would like to test it, just contact Chris and Roland at “Get@mars-o-matic.com”.

Kategorien
Events

Technische & Juristische Cloud Computing Sicherheit in der Mainmetropole! – Die SecTXL '11 kommt nach Frankfurt

Nach der ersten und erfolgreichen Veranstaltung in Hamburg im vergangenen August wird die SecTXL ’11 dieses Jahr am 22. November ebenfalls Halt in Frankfurt machen.

Der Hype um das Thema Cloud Computing hat sich mittlerweile auch in Deutschland gelegt und immer mehr Unternehmen entscheiden sich für den Einsatz dieses neuen Paradigma, womit die heiße Phase der Adaption begonnen hat. Neben technischen Herausforderungen stehen Unternehmen daher ebenfalls Fragen bzgl. der Datensicherheit, des Datenschutzes sowie rechtlicher Themen gegenüber. Aber auch in Bezug auf die Themen der IT-Governance sowie der IT-Compliance gilt es viele Fragestellungen zu klären.

Die SecTXL ‘11 | Frankfurt nimmt sich am 22.11.2011 in Frankfurt genau diesen Themen an und konzentriert sich mit ihrem Leitsatz „Juristische und Technische Sicherheit für die Cloud!“ ganzheitlich auf den Bereich der Cloud Computing Sicherheit. Neben fachlichen Vorträgen von Rechtsanwälten und Experten aus den Bereichen des Datenschutzes und der Datensicherheit werden ebenfalls technische Probleme und deren Lösungen von IT-Architekten vorgestellt. Damit werden Möglichkeiten aufgezeigt, wie sich Unternehmen in Zeiten des Cloud Computing aus dem Blickwinkel der Sicherheit verhalten müssen.

Während themenspezifischer Q&A Panels erhalten die Teilnehmer die Gelegenheit mit den Referenten hautnah zu diskutieren und alle Ihre offenen Fragen beantworten zu lassen.

Die SecTXL ’11 | Frankfurt beginnt um 09:00 Uhr im „DE-CIX Convention Center“, Lindleystraße 12, 60314 Frankfurt am Main. Eine Karte kostet im Early Bird bis zum 31.Oktober 149 EUR exkl. Ust. und Gebühren. Ab dem 01. November dann zum Normalpreis für 249 EUR exkl. Ust. und Gebühren.

Referenten und Ihre Themen

  • Andreas Weiss (Director | EuroCloud Deutschland_eco e.V.)
  • „Cloud Computing ist die Zukunft – aber sicher!“

  • Eva Schlehahn (Assessorin jur. | ULD Schleswig-Holstein)
  • „Konzepte & Bedingungen für vertrauenswürdiges Cloud Computing“

  • Georg Meyer-Spasche (Rechtsanwalt/ Partner | Osborne Clarke)
  • „Datenschutz in der Cloud. So geht’s richtig!“

  • Dr. Dietmar Wiedemann (Senior Consultant | Proventa AG)
  • „Cloud Governance – die Wolke fest im Griff“

  • Jan Schneider (IT-Rechtsanwalt | SKW Schwarz Rechtsanwälte)
  • „Cloud-Compliance – Was Provider und Nutzer beachten müssen“

  • Ulf Feger (Competence Leader IBM Tivoli – Cloud & Cloud Security)
  • „Der Weg zur Cloud Security – ein Transformationsprozess!“

  • Markus Mertes (Director | Panda Security)
  • „Cloud-Security – Kollektive Intelligenz gegen die Cyber-Mafia“

Die kostenpflichtige Anmeldung und weitere Informationen sind unter http://sectxl.com zu finden.

Weitere Ressourcen

Webseite: http://sectxl.com
Agenda: http://sectxl.com/agenda
Twitter: @SecTXL
Facebook: https://www.facebook.com/pages/SecTXL/120006891387270

Kategorien
News

Weltwirtschaftskrise dämpft Investition in ERP-Systeme

Laut einer Studie des börsennotierten Marktforschungsunternehmens Forrester Research, veröffentlicht im Mai 2011, hat die Weltwirtschaftskrise die Neigung der Unternehmer, in Enterprise Resource Planning (ERP) – Systeme zu investieren, gedämpft. 75% der IT-Entscheider, die von Forrester befragt wurden, sagten, dass sie dieses Jahr keine Investition in ERP-Systeme planen. Die Untersuchung hat aber gezeigt, dass fast 2/3 der Unternehmen der Ansicht sind, ihre ERP-Systeme in derzeitigem Zustand gut genug sind für die nächsten zwei Jahre. Sie möchten aber auch abwarten, bis die andauernde Erneuerungen der Systeme stabilisiert haben und ihre Lieferanten die nächste Version der Produkte freigeben.

Dennoch erwartet die Studie, dass das gesamte Volumen des ERP-Markts von US$ 45.5 Milliarden in 2011 auf US$ 50.3 in 2015 wachsen wird. Die Einnahmequelle der Lieferanten wird sich allerdings ändern. Ihre Lizenzeinnahmen werden sinken. Dafür werden Einnahmen durch die jährlichen Wartungsverträge, die bereits im Jahr 2010 51% des Umsatzes betrugen, steigen. Die SaaS (Software as a Service)-basierte ERP-Lösungen, die zur Zeit mit US$1 Milliarde zum Gesamtumsatz beitragen, wird bis 2015 jedes Jahr um 21% wachsen.

Die Lieferanten von ERP-Systemen müssen ihre Vermarktungsstrategie erweitern, wenn sie den Kampf um den Marktanteil erfolgreich bestehen wollen. Cloud-basiertes Managed Hosting sowie die Erweiterbarkeit der Lösungen nach individuellem Bedarf der Anwender wird zu einer Anzahl von hybriden Varianten führen, die die Wünsche einer Vielzahl von Anwendern abdecken werden. Führend ERP-Anbieter wie SAP und ORACLE haben bereits damit begonnen. Die OnDemand Lösung von SAP, Business ByDesign ist dafür ein Bespiel, ebenso wie die künftigen Fusion-Anwendungen von ORACLE.

Die Studie erfasste 2403 IT-Entscheider aus USA, Kanada, Frankreich, Deutschland und Großbritannien.