Kategorien
Literatur

Buch – Cloud Computing Explained: Implementation Handbook for Enterprises

Titel: Cloud Computing Explained: Implementation Handbook for Enterprises

Autor: John Rhoton

Beschreibung:
„Cloud Computing Explained provides an overview of Cloud Computing in an enterprise environment. There is a tremendous amount of enthusiasm around cloud-based solutions and services as well as the cost-savings and flexibility that they can provide. It is imperative that all senior technologists have a solid understanding of the ramifications of cloud computing since its impact is likely to permeate the entire IT landscape. However, it is not trivial to introduce a fundamentally different service-delivery paradigm into an existing enterprise architecture. This book describes the benefits and challenges of Cloud Computing and then leads the reader through the process of assessing the suitability of a cloud-based approach for a given situation, calculating and justifying the investment that is required to transform the process or application, and then developing a solid design that considers the implementation as well as the ongoing operations and governance required to maintain the solution in a partially outsourced delivery model.“

Bestellmöglichkeit: Amazon

Cover:

Kategorien
Literatur

Buch – Cloud Computing Best Practice Guide: Strategies, Methods and Challenges To Managing Services in the Cloud

Titel: Cloud Computing Best Practice Guide: Strategies, Methods and Challenges To Managing Services in the Cloud

Autor: Ivanka Menken, Gerard Blokdijk

Beschreibung:
„This book is for business people who want to know how cloud computing will facilitate new breakthroughs in business innovation, how work gets done in organizations, how companies will interact with each other in value chains, and how management will change. If you are in some way responsible for the success of your company, you should read this book. If you are a CEO or CIO, you should definitely read this book.
Modern Chief Information Officers (CIOs) and IT managers are entering a new era of information technology, the era of the ‚cloud‘. While many critics claim that there is not a great deal that is actually new with the concept of cloud computing; few would deny the likelihood of it becoming a dominant force in years to come.

Regardless of which definition of cloud computing that you subscribe to (and there are many), the continual drive for increased cost-effectiveness, agility, quality and responsiveness will mean that no CIO can ignore exploring the business case for its potential adoption. Some may claim exemption due to real (or imagined) risks in security, privacy, visibility, availability or latency as reasons for their resistance. But like all technological revolutions, the marketplace and economy will eventually respond as the possibility of strategic disadvantage looms.

As with all practical and common sense approaches though, first consider the problem(s) that cloud computing offers may offer solutions to. While many vocal supporters praise the benefits that cloud computing models bring, fewer have clearly defined the actual problems that have been solved or reasoned why other possible alternatives were not as suitable. So before CIOs spend large amounts of time investigating the virtues of different vendor offerings, thought should be given as to why their current offerings and management practices may (or may not) be stifling business growth, productivity or profitability.

To help individuals navigate through these largely uncharted waters, Managing Services in the Cloud analyzes and explains the strategies, methods and challenges involved with the adoption and ongoing management of cloud computing models as part of their IT service provision.“

Bestellmöglichkeit: Amazon

Cover:

Kategorien
Services

Was ist “Amazon S3?”

Amazon Simple Storage Service (Amazon S3) [1] stellt über einen Webservice eine Schnittstelle bereit, um darüber von überall aus eine unbegrenzte Menge an Daten zu speichern und diese wieder abzurufen.

Amazon S3 Funktionsweise

  • Speichern, Lesen und Löschen einer unbegrenzten Anzahl von Objekten (Dateien). Jedes Objekt kann eine Größe von 1 Byte bis zu 5 GByte haben.
  • Jedes Objekt wird in einem sogenannten Bucket gespeichert und kann über einen eindeutigen Key angesprochen werden.
  • Ein Bucket wird in einer von vielen Regionen gespeichert, wobei eine bestimmte Region z.B. auf Grund von Latenzzeiten zu bevorzugen ist. Jeder Bucket verfügt über einen eindeutigen Identifier und ist damit in der gesamten Amazon Cloud einmalig vorhanden.
  • Objekte die in einer bestimmten Region gespeichert werden, können auch nur in dieser Region wieder angesprochen werden. Sind z.B. Daten in Europa (Irland) gespeichert, kann auf diese Daten auch nur innerhalb von Europa zugegriffen werden. Ein Zugriff aus den USA auf die Daten ist in diesem Fall nicht möglich.
  • Über Authentifizierungs-Mechanismen wird sichergestellt, dass die Daten vor unbefugtem Zugriff geschützt sind. Die Objekte können als privat oder öffentlich gekennzeichnet werden. Jeder Benutzer kann unterschiedliche Zugriffsrechte auf Objekte erhalten.
  • Der Zugriff erfolgt über REST und SOAP Schnittstellen.
  • Amazon S3 ist protokollunabhängig, wobei HTTP das Standard Protokoll ist.


[2]

Amazon S3 Design Anforderungen

In Amazon S3 sollen Daten preiswert und sicher gespeichert werden und darüber hinaus zu jeder Zeit verfügbar sein, wenn sie benötigt werden.

  • Skalierbar: Amazon S3 skaliert anhand des verfügbaren Speicherplatz, der Anzahl der aktuellen Anfragen sowie der Anzahl der Benutzer um eine unbegrenzte Anzahl von Web-Anwendungen bereitzustellen. Indem das System weitere Knoten zur Verfügung gestellt bekommt wird die Verfügbarkeit, Geschwindigkeit, Kapazität, Robustheit und der Durchsatz erhöht.
  • Zuverlässig: Daten werden dauerhaft und mit einer Verfügbarkeit von 99,99% gespeichert. Es darf kein Single Point of Failure vorhanden sein. Alle Fehler müssen toleriert und durch das System automatisch repariert werden.
  • Fast: Die Geschwindigkeit muss hoch genug sein, um High-Performance-Anwendungen zu unterstützen. Die Server-seitige Latenz darf im Vergleich zur Internet Latenz keine Bedeutung haben. Jeder Performance-Engpass kann durch das einfache Hinzufügen von weiteren Knoten gelöst werden.
  • Preiswert: Amazon S3 besteht aus kostengünstiger Standard Hardware. Dadurch ist der Ausfall eines einzelnen Knoten der Normalfall, was aber nicht das gesamte System betreffen darf.
  • Einfach: Der Aufbau von hoch skalierbarem, zuverlässigen, schnellen und kostengünstigen Speicherplatz ist schwierig. Darüber hinaus muss jede Anwendung darauf von überall aus zugreifen können. Die Anforderung besteht also darin, Amazons interne Anwendungen (die Amazon Webseite) und zusätzlich parallel die Anwendungen von externen Entwicklern hoch performant zu handhaben.


[3]

Amazon S3 Design Grundsätze

Folgenden Grundsätze für das Design von verteilten Systemen werden für Amazon S3 eingesetzt:

  • Dezentralisierung: Vollständiger Einsatz von Technologien zur Dezentralisierung um Engpässe und Single Point of Failure zu vermeiden.
  • Asynchronität: Das System macht unter allen Umständen Fortschritte.
  • Autonomität: Das System ist so ausgelegt, dass einzelne Komponenten ihre Entscheidungen auf Basis lokaler Informationen treffen können.
  • Lokale Verantwortung: Jede Komponente ist selbst für seine eigene Konsistenz verantwortlich und muss diese auch selber erreichen.
  • Kontrollierte Nebenläufigkeit: Alle Operationen sind so ausgelegt, dass keine oder nur eine begrenzte Kontrolle der Konsistenz erforderlich ist.
  • Fehlertoleranz: Das System behandelt den Ausfall von Komponenten wie gewöhnliche Operationen und wird dadurch gar nicht oder nur minimal Unterbrochen.
  • Kontrollierte Parallelität: Parallelität kann genutzt werden, um die Leistung und Robustheit der Wiederherstellung zu verbessern, bzw. neue Knoten zu verwenden. Ein einziger Dienst sollte nicht alles für jeden bereitstellen. Stattdessen sollten kleine Komponenten verwendet werden, die als Bausteine für andere Dienste genutzt werden können.
  • Symmetrie: Alle Knoten im System sind bzgl. ihrer Funktionalität identisch und benötigen keine oder nur minimale knotenspezifische Konfigurationen um ausgeführt zu werden.
  • Einfachheit: Das System sollte so einfach wie möglich (aber nicht einfacher) gemacht werden.

Preise

Alle Preise sind hier zu finden: Amazon S3 Preise

Quellen:

[1] Amazon S3
[2] Graphik: Amazon S3 (1)
[3] Graphik: Amazon S3 (2)

Kategorien
Literatur

Buch – Dot Cloud: The 21st Century Business Platform Built on Cloud Computing

Titel: Dot Cloud: The 21st Century Business Platform Built on Cloud Computing

Autor: Peter Fingar

Beschreibung:
„Shift happens. The unexpected matters. Remember how the retail book industry was slow to grasp an understanding of the Internet before it got “Amazoned?“ Well, here we go again, only this time the shift could be even greater, and it’s happening in the midst of economic turmoil. Right now, there’s something in the air, something really big. It’s so big that to many it’s hidden in plain sight. To others it’s as clear as seeing a cloud in the sky. In fact, that something is indeed the Cloud, the 21st century business platform.

Just as it was with that new-fangled “Internet“ thing a decade ago, the Cloud and the technologies of Cloud Computing suffer from confusion and hype. And pat definitions won’t do when it comes to understanding these two new buzzwords. But, as they are game-changing phenomena, business leaders–and the rest of us–must gain an understanding of what these terms really mean and how they will affect us, just as much as the Internet affected us all. In Dot.Cloud business strategy expert and former CIO, Peter Fingar, explains the main ideas of Cloud Computing in lay terms. Peter also does some old-fashioned reporting to bring together the ideas of the movers and shakers who are actively building the Cloud.

But this is not a technical book about Cloud Computing technologies; it’s a business book. It’s about what the Cloud portends for business … about transformation in the ways companies are managed … about business models for the 21st century. It’s about how companies carry out their work in the Cloud instead of office buildings and skyscrapers, and how they manage their business processes in the Cloud. It’s also about human interactions in the Cloud, and about the end of management and the rise of self-organizing, self-managed “Bioteams.“

Even more, it’s about unlocking human potential in business, about unleashing passion. All this points to your company’s future, and your future, set in the context of the biggest economic downturn since World War II. So ultimately, it’s about lighting a fire in you.

According to Jim Sinur, Vice President of Gartner, “To say that we are living in interesting times is an understatement, and Peter has captured the essence of how business will work going forward. Dot.Cloud is both visionary and realistic in that each of the pieces of the vision have working examples today, but not woven together like in this writing. The goal of the virtual business platform is not just a dream, but attainable once all the contributing pieces are brought together. Peter brings them together here in a way that will work under any number of situations, across just about any industry.“

Gregory Simpson, Chief Technology Officer of GE, remarked, “Dot.Cloud isn’t just about the Cloud; it’s really about embracing change in the workplace. It pulls together elements of Web 2.0, BPM and other dreaded three-letter acronyms, as well social and economic trends, to give you a vision for how harnessing the Cloud can transform the way your company works. Peter’s unique ability to pull all of these concepts together in an understandable fashion make this a business book for the future, and the future is now!““

Bestellmöglichkeit: Amazon

Cover:

Kategorien
Literatur

Buch – Everyware: The Dawning Age of Ubiquitous Computing

Titel: Everyware: The Dawning Age of Ubiquitous Computing

Autor: Adam Greenfield

Beschreibung:
„Ubiquitous computing–almost imperceptible, but everywhere around us–is rapidly becoming a reality. How will it change us? how can we shape its emergence?
Smart buildings, smart furniture, smart clothing… even smart bathtubs. networked street signs and self-describing soda cans. Gestural interfaces like those seen in Minority Report. The RFID tags now embedded in everything from credit cards to the family pet.
All of these are facets of the ubiquitous computing author Adam Greenfield calls „everyware.“ In a series of brief, thoughtful meditations, Greenfield explains how everyware is already reshaping our lives, transforming our understanding of the cities we live in, the communities we belong to–and the way we see ourselves.“

Bestellmöglichkeit: Amazon

Cover:

Kategorien
Services

Was ist "Amazon EC2?"

Amazon EC2 (Amazon Elastic Compute Cloud) [1] ist ein Webservice für die Bereitstellung von hoch skalierbarer Rechnerkapazität und wurde entwickelt, um die Entwicklung von skalierbare Web-Anwendungen für Entwickler einfacher zu machen. Die angemietete Rechnerleistung befindet sich in den weltweit verteilten Rechenzentren von Amazon und kann über eine Webservice Schnittstelle vollständig konfiguriert und kontrolliert werden.

Durch das Hinzufügen und Starten von Serverinstanzen innerhalb von Minuten kann die verwendete Infrastruktur in kurzer Zeit je nach den aktuellen Anforderungen skaliert werden. Ist die Last hoch, werden mehr Instanzen hinzugefügt, nimmt die Last wieder ab, werden die nicht mehr benötigten Kapazitäten entfernt.

Da nur für die Ressourcen bezahlt wird, die auch tatsächlich verwendet werden, erhält man dadurch eine bessere Kosteneffizienz. Der Normalfall besteht in der Anschaffung eigener überdimensionierter Systeme, die im Gesamtdurchschnitt nur zu 20% ausgelastet sind. Die restlichen 80% werden nur während Spitzenlasten genutzt und verursachen sonst nur unnötige Kosten.

Amazon EC2 Funktionsweise

Die virtuelle Umgebung von Amazon EC2 wird mittels einer Webservice Schnittstelle angesprochen, über die auf Serverinstanzen mit einer vielzahl unterschiedlicher Betriebssysteme zugegriffen werden kann. Die Betriebssysteme können wie eigene „lokale“ Betriebssysteme mit Software erweitert und können ebenfalls mit Zugriffsberechtigungen konfiguriert werden.


[2]

Eine einfache Vorgehensweise

  • Auswahl und Start eines bereits vor-konfigurierten Images (Vorlage). Alternativ kann auch ein eigenes Amazon Machine Image (AMI) erstellt werden. Dieses beinhaltet dann eigene Anwendungen, Bibliotheken, Daten und Konfigurationen.
  • Konfiguration der Sicherheitseinstellungen und des Netzwerkzugriffs auf die jeweilige EC2 Instanz.
  • Auswahl des Instanz Typs und des Betriebssystems.
  • Festlegen des Orts, wo die Server ausgeführt werden sollen (USA, Europa, …).
  • Festlegen einer statischen IP-Adresse.
  • Hinzufügen von Speicherplatz.

Leistungen im Überblick

  • Elastisch: Rechnerkapazität kann je nach Bedarf innerhalb von Minuten vergrößert und verkleinert werden. Dabei kann man einen aber auch tausend Server Instanzen gleichzeitg nutzen, die mittels der Web Service API angesprochen werden und automatisch skalieren.
  • Vollständige Kontrolle: Für jede Server Instanz besteht vollständiger Root-Zugriff.
  • Flexibilität: Man kann zwischen mehreren Instanzen Typen, Betriebssystemen und Software-Pakete wählen. Die Serverhardware kann so konfiguriert werden, dass der Speicher, die CPU, und die Größe der Boot-Partition, optimal für das Betriebssystem und die Anwendung ausgelegt sind.
  • Amazon Web Services: Vollständige Unterstützung und Integration mit den anderen Amazon Web Services wie Amazon Simple Storage Service (Amazon S3), Amazon SimpleDB und Amazon Simple Queue Service (Amazon SQS).
  • Zuverlässig: Das Service Level Agreement von Amazon EC2 besagt 99,95% Verfügbarkeit für jede Amazon EC2 Region.
  • Sicherheit: Amazon EC2 stellt folgende Sicherheitsfunktionen bereit:

    • Über die Webservice Schnittstelle kann eine Firewall für den Zugriff auf die jeweilige Instanz und zwischen einzelnen Instanzen/ Gruppen von Instanzen konfiguriert werden.
    • Mittels der Amazon Virtual Private Cloud (Amazon VPC) können die Instanzen in einen eigenen (privaten) IP-Adressbereich verlagert werden. Darüber hinaus kann über die (haus)-eigene Infrastruktur mit einem IPSec VPN auf diese Instanzen in der Amazon Cloud zugegriffen werden.
  • Kostengünstig:

    • On-Demand Instanzen: Bei On-Demand Instanzen zahlt man nur für die Rechnerkapazität die tatsächlich genutzt wird. Die Abbrechnung erfolg dabei pro Stunde ohne langfristige Verpflichtungen einzugehen. Dadurch entfällt die Überdimensionierung der Serverlandschaft um Lastspitzen auszugleichen.
    • Reservierte Instanzen: Instanzen können für eine niedrige, einmalige Zahlung pro Instanz reserviert werden. Im Gegenzug erhält man einen Rabatt auf die Nutzungsgebühr (Stundenpreis) für diese Instanz. Anschließend ist diese Instanz ohne weitere Verpflichtungen reserviert und kann wie gewohnt genutzt werden.
    • Spot Instanzen: Hier bietet man auf ungenutzte Amazon EC2 Kapazitäten. Dazu teilt man Amazon mit, welche EC2 Instanz man gerne haben möchte und was man bereit ist dafür zu bezahlen. Anhand von Angebot und Nachfrage wird ein Spot-Preis ermittelt.


[3]

Funktionen

  • Amazon Elastic Block Store
    Amazon Elastic Block Store (EBS) dienen zur dauerhaften Speicherung der Amazon EC2-Instanzen. Neben aktiven können auch Instanzen gespeichert werden, die gerade nicht verwendet werden. Die Volumes können als Boot Partition für EC2-Instanzen verwendet werden oder direkt an eine bereits gestartete EC2-Instanz angeschlossen werden. Die EBS-Volumes werden automatisch in eine einfache Verfügbarkeitszone repliziert und ein Snapshot kann zusätzlich in Amazons S3 Dienst abgelegt werden. Dieser Snapshot wird dann über mehrere Verfügbarkeitszonen verteilt. Ein Snapshot kann, wenn gewünscht, als Ausgangspunkt für einen neuen Amazon EBS dienen.

  • Mehrere Standorte
    Amazon EC2 Instanzen können an mehreren Standorten verteilt werden. Die Standorte sind dabei in Regionen und Verfügbarkeitszonen aufgeteilt. Verfügbarkeitszonen sind unterschiedliche Orte, die entwickelt wurden, um von Fehlern in anderen Verfügbarkeitszonen nicht betroffen zu sein. Zudem haben unterschiedliche Verfügbarkeitszonen unterschiedliche Latenzzeiten in einer Region. Durch den Einsatz von separaten Verfügbarkeitszonen wird eine Anwendung von Ausfällen an einzelnen Standorten nicht betroffen. Die einzelnen Verfügbarkeitszonen sind geografisch in verschiedenen Orten und Ländern verteilten. Dazu gehören derzeit der Osten der USA (Northern Virginia), der Westen der USA (Northern California) und Europa (Irland).
  • Elastische IP-Adressen
    Elastische IP-Adressen sind statische IP-Adressen die für dynamisches Cloud Computing entwickelt wurden. Diese IP-Adresse ist mit dem AWS-Account und nicht mit einer konkreten Instanz verknüpft. Im Fehlerfall einer Instanz wird die IP-Adresse des betroffenen Servers auf einen funktionieren Server neu gemapped.
  • Amazon Virtual Private Cloud
    Mit der Virtual Private Cloud die EC2-Instanzen innerhalb der Amazon Cloud in das eigenen Firmennetz eingebunden werden. Sie fungieren dann im Prinzip als lokal vorhandene Server und können auf andere Systeme zugreifen, genau so wie auf sie zugegriffen werden kann.
  • Amazon CloudWatch
    Wird HIER beschrieben.
  • Auto Scaling
    Wird HIER beschrieben.
  • Elastic Load Balancing
    Wird HIER beschrieben.

Typen von Instanzen

Standard Instanzen

  • Small Instance: 1.7 GB Arbeitsspeicher, 1 EC2 Prozessor, 160 GB Speicherplatz, 32-bit Plattform
  • Large Instance: 7.5 GB Arbeitsspeicher, 4 EC2 Prozessoren, 850 GB Speicherplatz, 64-bit Plattform
  • Extra Large Instance:15 GB Arbeitsspeicher, 8 EC2 Prozessoren, 1690 GB Speicherplatz, 64-bit Plattform

High-Memory Instanzen

  • High-Memory Double Extra Large Instance: 34.2 GB Arbeitsspeicher, 13 EC2 Prozessoren, 850 GB Speicherplatz, 64-bit Plattform
  • High-Memory Quadruple Extra Large Instance: 68.4 GB Arbeitsspeicher, 26 EC2 Prozessoren, 1690 GB Speicherplatz, 64-bit Plattform

High-CPU Instanzen

  • High-CPU Medium Instance: 1.7 GB Arbeitsspeicher, 5 EC2 Prozessoren, 350 GB Speicherplatz, 32-bit Plattform
  • High-CPU Extra Large Instance: 7 GB Arbeitsspeicher, 20 EC2 Prozessoren, 1690 GB Speicherplatz, 64-bit Plattform

EC2 Prozessor: Ein EC2 Prozessor ist mit mit einem 1.0-1.2 GHz 2007 Opteron bzw. 2007 Xeon Prozessor vergleichbar.

Betriebssysteme und Software

Betriebssysteme

Folgende vorkonfigurierte Amazon Machine Images (AMI) stehen zur Verfügung:

  • Red Hat Enterprise Linux
  • Windows Server 2003/2008
  • Oracle Enterprise Linux
  • OpenSolaris
  • openSUSE Linux
  • Ubuntu Linux
  • Fedora
  • Gentoo Linux
  • Debian

    Des Weiteren können vorkonfigurierte AMIs inkl. vorinstallierter Software genutzt werden. Folgende Softwarelösungen stehen zur Verfügung:

Datenbanken

  • IBM DB2
  • IBM Informix Dynamic Server
  • Microsoft SQL Server Standard 2005
  • MySQL Enterprise
  • Oracle Database 11g

Batch-Verarbeitung

  • Hadoop
  • Condor
  • Open MPI

Web Hosting

  • Apache HTTP
  • IIS/Asp.Net
  • IBM Lotus Web Content Management
  • IBM WebSphere Portal Server

Anwendungsentwicklung

  • IBM sMash
  • JBoss Enterprise Application Platform
  • Ruby on Rails

Applikationserver

  • IBM WebSphere Application Server
  • Java Application Server
  • Oracle WebLogic Server

Video Encoding & Streaming

  • Wowza Media Server Pro
  • Windows Media Server

Preise

Alle Preise für

  • Datentransfer
  • Amazon Elastic Block Store
  • Elastic IP Addresses
  • Amazon CloudWatch
  • Elastic Load Balancing

sind hier zu finden: Amazon EC2 Preise

Quellen:

[1] Amazon EC2
[2] Graphik: Amazon EC2 (1)
[3] Graphik: Amazon EC2 (2)

Kategorien
Videos

Video-Tutorial: Einrichten einer GoGrid Cloud Infrastruktur

Das Video zeigt, wie auf der Cloud Infrastruktur von GoGrid ein Web-, Applikations- und Datenbankserver eingerichtet wird.

via YouTube

Kategorien
Videos

Video: Cloud Computing in den Medien

Über Cloud Computing wurde auch bereits in den Medien (3sat) berichtet.

http://www.youtube.com/watch?v=8eq5M9_FpP4

via YouTube

Kategorien
Literatur

Buch – Google Apps Deciphered: Compute in the Cloud to Streamline Your Desktop

Titel: Google Apps Deciphered: Compute in the Cloud to Streamline Your Desktop

Autor: Scott Granneman

Beschreibung:
„Use Google Apps to Improve Productivity and Collaboration, Reduce Costs, and Eliminate Technology Hassles!

Google Apps gives you virtually all the business and productivity software you need–all of it free, or available at extremely low cost. Because the suite of Google Apps runs on Google’s network in the cloud, you avoid the hassles that go with desktop software. Getting started with Google Apps is easy–but if you want to make the most of it, you’ll need expert guidance that Google’s online help doesn’t provide. Get all the help you need, right here.

This is your start-to-finish guide to setting up Google Apps, migrating to it, customizing it, and using it to improve productivity, communications, and collaboration. Scott Granneman introduces every leading component individually, and shows exactly how to make them work together for you on the web or by integrating them with your favorite desktop apps. You’ll find practical insights on Google Apps email, calendaring, contacts, wikis, word processing, spreadsheets, presentations, video, and even Google’s new web browser Chrome. And, drawing on his extensive experience helping companies move to Google Apps, Granneman presents tips and tricks you simply won’t find anywhere else. Coverage includes

  • Choosing the right edition of Google Apps for you
  • Setting up Google Apps so it will be easier to use and manage
  • Migrating your email, contacts, and calendars to Google Apps
  • Administering and securing Google Apps
  • Integrating Google Apps with other software and services
  • Leveraging Google Sites to collaborate across teams, organizations, or the entire world
  • Making the most of Google Talk voice calls and instant messaging
  • Implementing Google’s office productivity tools, including Docs, Spreadsheets, and Presentations
  • Using policy management and message recovery to control and secure your messaging
  • Customizing efficient Google Apps Start Pages for you and your colleagues
  • Sharing important and useful videos with your colleagues
  • Maximizing the innovative features of Google’s new web browser, Chrome

Bestellmöglichkeit: Amazon

Cover:

Kategorien
Literatur

Dissertation: "Scalable Cluster Technologies for Mission-Critical Enterprise Computing" von Dr. Werner Vogels

Die Dissertation „Scalable Cluster Technologies for Mission-Critical Enterprise Computing“ von Dr. Werner Vogels gehört zu den grundlegenden Forschungsarbeiten des Cloud Computing. Ein Blick auf die Infrastruktur von Amazon zeigt, wer der aktuelle CTO und für den Aufbau der hochskalierbaren Infrastruktur sowie die Cloud Angebote verantwortlich ist – Werner Vogels.

Die Arbeit beschreibt Einsatzmöglichkeiten von hochskalierbaren Cluster-Technologien für den unternehmenskritischen Bereich.

Auch einer der Doktorväter der Arbeit sollte genannt werden und wird dem einen oder anderen bekannt sein – Prof.Dr. A.S. Tanenbaum.

Ein kurzer Auszug:

Enterprise computing has changed significantly in the past decade. In the past, the workloads at corporate datacenters were dominated by centralized processing using a limited number of big database servers, mainly handling online transaction processing (OLTP) and batch processing tasks in support of the back-office process. The organization of these datacenters has evolved from mainframe-oriented into a large collection of flexible application servers providing a very diverse set of services. These services still include the traditional order processing and inventory control, but now also provide internal and external information portals, continuous data-mining operations, pervasive integration of customer relationship management information, email and other collaboration services, and a variety of computational services such as financial forecasting.

An important observation is that these services have become essential to the successful operation of the enterprise, and that any service interruption, either through failure or through performance degradation, could bring the activities of the enterprise to a halt. The mission-critical nature of these services requires them to be scalable, highly-available, and with robust performance guarantees. Organizing these services into compute clusters appeared a logical step as cluster technology held the promise of cost-effective scalability and was considered to be a good basis for implementing a highly-available service organization.

Die Dissertation wurde an der Vrije Universiteit Amsterdam geschrieben und kann HIER direkt heruntergeladen werden.