Kategorien
News

Swisscom wird Mitglied im Red Hat Cloud Ecosystem

Red Hat hat die Swisscom IT Services, eine Tochtergesellschaft des größten Schweizer Telekommunikationsanbieters Swisscom, in seinem Ecosystem der Certified Cloud Provider aufgenommen.

Zeitgleich mit dem Start seines Public Cloud Infrastructure-as-a-Service (IaaS), der sich in erster Linie an Unternehmen in der Schweiz richtet, hat Swisscom seine technologische Zusammenarbeit mit Red Hat weiter ausgebaut. Swisscom nutzt bereits seit vielen Jahren Red Hat Enterprise Linux inklusive Virtualisierung, JBoss Enterprise Middleware und Red Hat Network Satellite Systems Management. Ab sofort bietet das Unternehmen in seiner IaaS Cloud auch Red Hat Enterprise Linux an. Unternehmen können die Betriebssystemplattform in einer virtuellen Maschine stundenweise oder auch ein ganzes Jahr lang einsetzen.

„Wir freuen uns, dass wir die Zusammenarbeit mit Red Hat in der Cloud weiter ausbauen können“, sagt Eduard Modalek, Head Product Portfolio Management bei Swisscom IT Services. „Gemeinsam haben wir die Voraussetzungen für die Integration und den Support der Lösungen von Red Hat geschaffen. Unsere IaaS-Kunden haben damit weit umfangreichere Möglichkeiten, Cloud-Computing sehr flexibel zu nutzen.“

„Aufgrund der Kooperation zwischen Swisscom und Red Hat können Unternehmen abhängig von ihrem jeweiligen Bedarf Cloud-Services einsetzen“, erklärt Scott Crenshaw, Vice President und General Manager der Cloud Business Unit bei Red Hat. „Um Mitglied im Red Hat Cloud Ecosystem zu werden, musste Swisscom einen anspruchsvollen Zertifizierungsprozess durchlaufen und eine hohe Qualität und Konsistenz seiner Services nachweisen. Für Red Hat ist dies ein wichtiger Meilenstein bei der Bereitstellung von Open-Cloud-Technologien.“

Kategorien
News

Red Hat kündigt Storage Appliance für die AWS Cloud an

Mit einer virtuellen Storage Appliance will der Open Source Gigant Red Hat nun auch innerhalb der Amazon Web Services ein Wort mitreden. Neben der perfekten AWS-Integration soll die Appliance ebenso durch eine hohe Performance überzeugen.

Bei der virtuellen Appliance soll es sich im Prinzip um einen NAS (Network Attached Storage) in der Cloud handeln. Diese wurde als Software auf Amazon’s EC2 (Elastic Compute Cloud) und EBS (Elastic Block Storage) implementiert und ermöglicht das Betreiben eines NAS direkt in der Cloud.

Die Daten werden über mehrere EBS-Datenträger verteilt, um die Leistung zu verbessern und die Latenz zu reduzieren sowie Performance Probleme innerhalb der Amazon Cloud zu begegnen. Die Appliance wird als ein fertiges AMI (Amazon Machine Image) bereitgestellt und unterstützt NFS, CIFS sowie HTTP und Parallel NFS (pNFS). Die Basis der Appliance bildet die Gluster Virtual Storage Appliance. Das Unternehmen sowie das Produkt hatte Red Hat im vergangenen Oktober übernommen.

Für eine hohe Verfügbarkeit des Storage ist die Red Hat Virtual Storage Appliance in der Lage synchrone Replikationen innerhalb einer AWS Region und über mehrere Availability Zones durchzführen. Asynchrone Replikationen sind auch zwischen unterschiedlichen AWS Regionen möglich. So können Nutzer für das Aufsetzen eines hochverfügbaren Systems eine bestimmte Anzahl von Appliances in unterschiedliche Availability Zones verteilen und zwei Kopien der Daten in der selben Region vorhalten. Somit werden die Daten für den Fall einer Wiederherstellung auch in eine weitere Region repliziert.

Die Kosten einer Appliance betragen 7.500 Dollar pro Node inkl. Premium Support. Zusätzlich fallen noch die Kosten durch die Amazon Cloud an.

Red Hat wird die Appliance zunächst nur für die Amazon Cloud anbieten. In Zukunft sollen aber auch andere Cloud Anbieter unterstützt werden.

Kategorien
Analysen

Amazon Web Services vs. Microsoft Windows Azure – Ein direkter Vergleich

Viele Unternehmen befinden sich derzeit in der Evaluation von Public Cloud Services wie IaaS. Die ersten Gedanken streifen dann die beiden großen und vermeintlich bekanntesten Anbieter in der Szene – die Amazon Web Services und Microsoft Windows Azure.

Beide verfügen mittlerweile über ein sehr umfangreiches und stetig wachsendes Angebot an Cloud Services. Möchte man beide Portfolios jedoch miteinander vergleichen steigen die Herausforderungen mit der Anzahl der Services.

Amazon Cloud vs. Windows Azure

Die folgende Tabelle stellt das Cloud Service Portfolio 1:1 gegenüber und schafft Klarheit, wer in welchem Bereich was anbietet, wie der Name des jeweiligen Service lautet und unter welcher URL weitere Informationen zu diesem zu finden sind.

Funktion

Amazon Web Services

Microsoft Windows Azure

Rechenleistung

Virtuelle Maschinen Elastic Compute Cloud Role Instances
High Performance Computing Cluster Compute Instances HPC Scheduler
MapReduce Elastic Map Reduce Hadoop on Azure
Dynamische Skalierung Auto Scaling Auto Scaling Application Block

Speicher

Unstrukturierter Speicher Simple Storage Service Azure Blob
Flexible Entities SimpleDB Azure Tables
Block Level Storage Elastic Block Store Azure Drive
Archivierung Amazon Glacier
Stroage Gateway AWS Storage Gateway

Datenbanken

RDBMS Relational Database Service SQL Azure
NoSQL DynamoDB Azure Tables

Caching

CDN CloudFront CDN
In-Memory ElastiCache Cache

Netzwerk

Load Balancer Elastic Load Balancer Fabric Controller / Traffic Manager
Hybrid Cloud Virtual Private Cloud Azure Connect
Peering Direct Connect
DNS Route 53

Messaging & Anwendungen

Async Messaging Simple Queue Service Azure Queues
Push Notifications Simple Notification Service Service Bus
Bulk Email Simple Email Service
Workflows Amazon Simple Workflow Service
Suche Amazon CloudSearch

Monitoring

Ressourcen Monitoring CloudWatch System Center

Sicherheit

Identitätsmanagement Identity Access Management Azure Active Directory

Deployment

Ressourcenerstellung CloudFormation
Web Application Container Elastic Beanstalk Web Role
Kategorien
News

Cloudscaling veröffentlicht einen AWS-Clone auf Basis von OpenStack als Private Cloud Plattform für Unternehmen

Auf Basis von OpenStack hat der US-amerikanische Cloud-Anbieter Cloudscaling eine Plattform veröffentlicht, mit der Unternehmen sich eine eigene Private Cloud aufbauen können.

Hierbei ist Cloudscaling nicht der erste Anbieter der den OpenStack Weg geht. Bereits im vergangenen November hatte Rackspace ein ähnliches Angebot veröffentlicht.

Die neue Plattform – Cloudscaling OCS – integriert das Open Cloud OS, welches vollständig auf OpenStack basiert und Verwaltungs-und Sicherheitsfunktionen umfasst. Darüber hinaus stehen dem Kunden neben kompletten Hardware Blueprints ebenfalls detaillierte Hardware-Konfigurationen für Rechen-, Speicher und Netzwerk-Umgebungen zur Verfügung.

Nach eigenen Angaben hat sich Cloudscaling mit dem neuen Angebot das Ziel gesetzt, eine AWS ähnliche Cloud bereizustellen, mit der sich Kunden eine Private Cloud nach den eigenen Wünschen und Bedürfnissen aufbauen können.

Kategorien
News

Mit UptimeCloud die Kosten in der Cloud in Echtzeit ermitteln

Mit UptimeCloud steht ein neuer gehosteter Service für das Monitoring der Kosten auf den Amazon Web Services bereit, der Nutzern bei der Verwaltung und der Vorhersage zukünftiger Ausgaben unterstützen soll.

Dazu steht dem Benutzer ein Dashboard zur Verfügung, auf dem er die Echtzeit-Kosten der AWS Nutzung einsehen sowie Prognosen für die Ausgaben der nächsten Stunden, Tage, Wochen, Monate oder Jahre erhält und ihm darüber hinaus Empfehlungen ausgeprochen werden, wie er Kosten einsparen kann.

Mit dem Forecast können Benutzer ein monatliches Budget festlegen und erhalten eine Benachrichtigung, sobald die Kosten die Marke überschreiten. Wenn sich das Verhalten der Cloud-Nutzung ändern sollte, zeigt UptimeCloud dem Anwender zudem wie sich diese Änderungen auf die Kosten auswirken wird. Darüber hinaus steht ebenfalls ein detaillierter Überblick zur unternehmensweiten Cloud Nutzung zur Verfügung. So können alle Kosten pro Anwendung, Projekt, Benutzer, Benutzerkonto, Instanz und weiteren Faktoren, inkl. Forecast, eingesehen werden. UptimeCloud greift dabei u.a. auch auf das von Amazon bereitgestellte AWS-Identity-und Access-Management-Tool zurück. Das bedeutet, dass somit ebenfalls Informationen über Ressourcen, die von einzelnen Personen in einem Unternehmen verwendet werden, dargestellt werden können.

Auf Basis von Empfehlungen hilft UptimeCloud den Benutzern ebenfalls die Kosten zu senken. Wobei sich dieses derzeit nur auf die bessere Ausnutzung der AWS Preise konzentriert und nicht bei der Optimierung der Infrastruktur hilft.

Unternehmen können UptimeCloud für 30 Tage kostenlos testen. Anschließend wird pro Anzahl der laufenden Instanzen auf AWS abgerechnet. Die Kosten für 101 bis 250 Instanzen belaufen sich auf 295 Dollar pro Monat, für 1.001 bis 2.500 Instanzen 1.845 Dollar pro Monat und für 5.001 bis 10.000 Instanzen 5.945 Dollar pro Monat.

Kategorien
News

Mit DomainWatch eine Google Apps Domain überwachen

Mit DomainWatch erhalten Administratoren eine neue Sicherheitssuite für Google Apps, mit der sie Zugriffs- und Austauschrichtlinien für die (mobilen) Mitarbeiter vornehmen können.

DomainWatch ist ein webbasierter und gehosteter Service von BetterCloud einem Startup aus New York. Administratoren erhalten damit einen Überblick zu den eingesetzten Google Apps Ressourcen wie Docs, Presentations, Calendar, Sites usw. Mit einem Richtlinien-Editor lassen sich Regeln für das Teilen und dem Zugriff für einzelne Benutzer und Gruppen auf die jeweiligen Ressourcen definieren.

DomainWatch wurde vollständig auf der Google App Engine entwickelt und wird dort ebenfalls betrieben. Nach der Konfiguration greift der Service über die Google Apps API auf die Google Apps Domain zu, um darüber die Ressourcen bspw. Dokumente, Kalender usw. zu scannen und alle notwendigen Informationen wie Name, Autoren, Freigabeeinstellungen usw. zu ermitteln. Diese Einzelheiten werden anschließend indiziert und über ein Dashboard zugänglich gemacht. Für einen vollständigen Scan einer großen Google Apps Domain benötigt DomainWatch nach Aussage des Anbieters ca. eine Stunde.

Mit dem Richtlinien-Editor lässt sich festlegen, wer welche Daten wie teilen darf. Diese Regeln können auf einzelne Benutzer, Gruppen und über Organisationsgrenzen hinweg zugeordnet werden. Mit den Regeln überwacht DomainWatch die Ressourcen und kann damit gegen mögliche Verstöße von Freigabeeinstellungen reagieren.

Das Dashboard erstellt eine einzelne zusammengefasste Sicht auf alle Kalender, Dokumente und Sites einer Google Apps Domain. All diese Ressourcen können basierend auf neun Kriterien durchsucht und gefiltert werden. Regeln können in einem Schritt genauso erstellt oder geändert werden wie das Ändern der Eigentumsrechte einer kompletten Docs Sammlung.

DomainWatch versichert, dass es selbst keinen Zugriff auf die Dokumente hat und nur die Ergebnisse des Scans über die Google Apps API speichert.

Im vergangenen November hat BetterCloud mit dem Betatest der Anwendung begonnen und hat DomainWatch nun über den Google Apps Marketplace bereitgestellt. Der Preis pro Jahr und pro Benutzer beträgt 8 US-Dollar. Kunden aus dem Bildungsbereich erhalten darüber hinaus eine Ermäßigung.

Kategorien
News

Cloudyn – Überwachen und Optimieren der AWS Nutzung

Läuft mein Cloud-Service und wenn ja, läuft dieser effizient? Diese Fragen müssen sich Unternehmen stellen, wenn Sie sich für Cloud Computing entscheiden. Eine Möglichkeit besteht in der Nutzung der anbietereigenen Monitoringtools wie bspw. Amazon CloudWatch. Jedoch sollte auch der Einsatz einer unabhängigen Lösung in Betracht gezogen werden.

Mit Cloudyn steht nun ein weiterer gehosteter Dienst zur Verfügung, mit dem die eigene Cloud Nutzung überwacht werden kann und welcher Empfehlungen ausspricht, um die Nutzung zu optimieren und darüber hinaus ebenfalls Kosten einzusparen.

Der Service steht Anfangs nur für Kunden der Amazon Web Services zur Verfügung. Cloudlyn plant für das zweite Quartal allerdings ebenfalls die Unterstützung für Rackspace und weiterer Provider in der Zukunft. Der Service steht derzeit bis zum 1. Mai 2012 für jeden kostenlos bereit. Danach wird für die Nutzung eine Servicegebühr erhoben.

Für die Anmeldung benötigt der Nutzer seine AWS Logindaten. Cloudyn analysiert die Datenbanken, Server und Speicher die das Unternehmen auf AWS im Einsatz hat und untersucht die Nutzungsmuster von CPU, Speicher, I/O und Netzwerk. Auf einem Dashboard werden dem Nutzer anschließend die Instanzen aufgelistet die nicht oder nur wenig genutzt werden und auf welchen Dienst diese am häufigsten zugreifen. Auf dieser Basis werden dann Empfehlung für eine optimalere Nutzung ausgesprochen.

Nachdem Cloudlyn eine Woche lang die Nutzungsmuster analysiert hat, erhält der Anwender eine Reihe von Szenarien zur Optimierung und zum Senken der Kosten. Die Szenarien zeigen auf wo Anpassungen gemacht werden können und wie viel Kapital damit am Ende eingespart werden könnte. Wie bspw. die Eliminierung nicht benötigter aber aktuell aktiver Ressourcen.

Kategorien
Analysis

The Mobile Cloud is the real mega-trend

Strictly speaking, the two megatrends mobile computing and cloud computing are already underway side by side for several years.

What many providers e.g. Apple has avoided for years, Google already paid in the introduction of Android, and has recognized special value to the enormous growth potential. Thus, for example Google oriented its services like mail, calendar, etc. and the app deployment on their cloud based market.

The first Android device (HTC Dream | T-Mobile G1) was launched on 22. of October 2008. The target group was primarily private users with a Google account who wanted to sync their e-mails, appointments, contacts etc. After a year, the system developed slowly but surely coming to a mobile platform for the corporate use. The update to Android 1.6 also brought the long awaited opportunity to connect to a remote site via a VPN. Connections could be made ​​here by the use of PPTP and L2TP (PSK IPsec or IPsec CRT).

For using Android in the enterprise a lot of apps have been released in the last two years. But in my opinion the biggest advantage for the use in the enterprise is the portability. Beside on smartphones Android can also be used on netbooks, tablets or any other devices like mobile data acquisition units, cash registers, and any embedded systems.

Optimal scenario

The simplest Android related scenario and yet with the least effort is the full use of the Google infrastructure. This assumes, however, that the company already use Google Apps for e-mail communication and managing calendar and contacts. Android per se is fully integrated into the Google infrastructure. Thus, all the changes for example in the mailbox or the calendar are automatically synchronized with the Google servers. Therefore, the data of a user is always up to date, regardless of the used workstation (desktop, mobile, etc.). Please note, this is the optimal scenario and can not be implemented without additional effort, for example when you are using an Exchange
Server.

Ideal for a cloud strategy

Android follows the idea of cloud computing. This means that the data lie in a server farm on the Internet and synchronize in this case with the mobile device. If a company decides e.g. for the above scenario where the data is stored at Google, they can be dispensed with the provision and maintenance of a mobile infrastructure in their own data center, which is a clear cost advantage. By storing company data on servers and not on the mobile device, the data are protected. The mobile device can be blocked centrally in the event of theft or other mishaps at any time or administered centrally in general. Telephone conversations can take place via the corporate network. The talks will be launched from the mobile device and then routed over the corporate network. The advantage is the clear separation of private and business calls, using a single phone number and access to the central contact database of the company. In addition to (mobile) telephone conferences on the enterprise network regardless of location / time and any number of users is the ability to query the current status of each user to see as if he/ she is just available. Further, Sales representatives have access to all data (eg CRM or ERP) from anywhere via a (mobile) Internet connection.

Conclusion

The Mobile Cloud is not an issue for the future but for some time now arrived in the present. It is where the two megatrends mobile computing and cloud computing merge to a hyper-trend (if one may call it so) and allow companies and their employees thus enabling access to all data from each place and at any time.

Kategorien
Analysen

Die Herausforderungen des Cloud Computing: Integration von Systemen, Anwendungen und Prozessen

Mit der Adaption von Cloud Computing Technologien und Services stehen Unternehmen Herausforderungen gegenüber, die es zu bewältigen gilt. Zum einen müssen organisatorische Voraussetzungen geschaffen und Aufklärungsarbeit innerhalb des Unternehmens geleistet werden, um die Akzeptanz und das Verständnis zu stärken. Zum anderen treffen aber auch viele “Widerstände” von außen auf das Unternehmen. Das sind neben Fragen bzgl. der Sicherheit und des Datenschutz ebenfalls Themen zur Verfügbarkeit und Performanz des ausgewählten Cloud Service sowie dessen Integrationsfähigkeit in die bereits bestehende IT-Infrastruktur und die nahtlose Unterstützung der vorhandenen Geschäftsprozesse. Und wie auch schon aus den klassischen Sourcingmöglichkeiten bekannt, besteht auch im Cloud Computing die Angst, in die Abhängigkeit eines einzigen Anbieters zu verfallen. So müssen auch hier die Interoperabilität und die Schnittstellen des Anbieters sowie ein Vergleich zu anderen Anbieteren vorgenommen werden.

Ist die Entscheidung für die Nutzung des Cloud Computing gefallen, ist es für Unternehmen zunächst an der Zeit, eine Ist-Analyse der bestehenden IT-Infrastruktur und Systeme vorzunehmen, um auf Basis dieser zu planen, welche Cloud Services adaptiert werden sollen. Hier kann bspw. eine Kosten-/ Nutzen-Analyse weiterhelfen, bei der auch eine Risikobewertung nicht fehlen sollte. Um erste Erfahrungen auf dem Cloud Computing Gebiet zu sammeln, sollte ein Pilotprojekt initiiert werden, welches auf Grund des Cloud Computing Konzepts schnell und kostengünstig gestartet werden kann. Dieses sollte einem Gesamtverantwortlichen “Cloud” untergeordnert sein, der als zentrale Stelle innerhalb der Organisation für die Adaption und Beratung der einzelnen Abteilungen für dieses Thema zuständig ist. Mit den gesammelten Erfahrungen können dann weitere Projekte gestartet werden und die Adaption unterschiedlicher Cloud Services sukzessive vorgenommen werden.

Integration von Systemen, Anwendungen und Prozessen

Für den Einsatz im Unternehmen ist es entscheidend, dass sich Cloud Services miteinander aber vor allem in die bereits bestehenden Systeme ohne großen Aufwand integrieren lassen, so dass die Geschäftsprozesse vollständig und performant unterstützt werden. Eine nicht ganzheitlich vorgenommene Integration mehrerer und unabhängiger Einzelsysteme kann zu einer Beeinträchtigung des Gesamtprozesses führen.

Dr. Michael Pauly nennt die notwendigen Maßnahmen für die Integrationsfelder Infrastruktur, Applikationen und Geschäftsprozesse.

Für den Bereich der Infrastruktur gilt es, die Services und Komponenten auf Basis von Standardschnittstellen anzubinden und mittels einer verschlüsselten Kommunikation sowie Firewalls die Sicherheit zu gewährleisten. Damit werden die Grundlagen geschaffen, um eine Integration und Kombination der Cloud Services zwischen mehreren Anbietern und den Bestandssystemen vorzunehmen. Auf Basis der Antwortzeiten der gekoppelten Systeme wird die Performanz und letztendlich die Akzeptanz und erfolgreiche Integration gemessen.

Für die Integration von Applikationen sind offene APIs (Application Programming Interfaces) von besonderer Bedeutung und für eine erfolgreiche Integration mit anderen Applikationen unerlässlich. Auf Service Ebene bieten sich serviceorientierte Architekturen für die Kopplung an. Zudem ist “[…] eine Festlegung eines Satzes gemeinsamer Protokolle und Standards für eine funktionierende Integration von Cloud Services auf Applikationsebene unerlässlich.”

Die Wichtigkeit der Integration wird offensichtlich, wenn es darum geht, dass Geschäftsprozesse durch Applikationen unterstützt werden sollen. Hier muss ganz besonders auf eine enge und nahtlose Kopplung der Prozesse geachtet werden, speziell dann, wenn die Cloud Services von mehreren verschiedenen Anbietern miteinander verknüpft werden. Wenn Cloud Services für einen Geschäftsprozess oder Teile davon verantwortlich sind, müssen vorab die Risiken im Detail bestimmt werden. Dazu gehören die Folgen, mit denen innerhalb des Geschäftsprozesses bzw. im Unternehmen zu rechnen sind, wenn der Cloud Service nicht zur Verfügung steht. Wie schaut es mit Toleranzgrenzen aus und welche Alternativen stehen zur Verfügung um den Prozess zu unterstützen.


Bildquelle: http://www.dataintegrationblog.com

Kategorien
Management

Interview mit Volker Ludwig (Interxion)

Im Rahmen des CloudOps Summit 2011 in Frankfurt haben wir mit einzelnen Referenten Interviews geführt. Heute: Volker Ludwig.

Wo sehen Sie derzeit noch die größten Herausforderungen des Cloud Computing?
Cloud Computing bricht in Unternehmen etablierte und gewachsene Strukturen systematisch auf. Dedizierte und fragmentierte Insellösungen werden konsolidiert und es soll eine übergreifende Infrastruktur etabliert werden, die flexibel, skalierbar, und gleichzeitig leistungsfähiger sowie kosteneffizienter als die alte ist. Das Potenzial der Technologie ist zweifelsohne groß, jedoch muss sie sich zunächst verankern, insbesondere in den Köpfen der Entscheidern. Ich halte deshalb nichts von vorzeitigen Problematisierungen, sondern plädiere dafür, dieser Innovation die notwendige Reifezeit zu gewähren.

Wie sehen Sie den Cloud Computing Markt in 10 Jahren?
Die zunehmende Digitalisierung der Gesellschaft in Kombination mit verstärkter Internet-Nutzung und erhöhtem Datenwachstum sowie dem Bedarf der Nutzer von überall auf Daten zugreifen zu können, werden die Verbreitung von Cloud Computing vorantreiben. Sowohl Privatnutzer als auch Unternehmen werden verstärkt Applikationen in die Wolke verlegen, um von der hohen Flexibilität und Kosteneffizienz zu profitieren. Unternehmen erhalten darüber hinaus die Chance, ihre Schnelligkeit beim Go to Market ihrer Produkte und Dienstleistungen signifikant zu erhöhen. Generell werden wir feststellen, dass sich die Nutzer genau die Form von Cloud Computing aussuchen werden, die ihren individuellen Anforderung am nächsten kommt. Die Frage lautet also Public-, Private- oder Hybrid-Cloud.

Wie sehen Sie den Cloud Computing Standort Deutschland?
Grundsätzlich verfügt Deutschland über einen Markt, der ein großes Potenzial für die Nachfrage nach solchen Dienstleistungen bietet. Zudem verfügt das Land über eine herausragende digitale Infrastruktur in Form von Rechenzentrumskapazitäten, Glasfasernetzen und Stromkapazitäten, die zur Etablierung von Cloud-Services notwendig sind. Es sind also alle maßgeblichen Voraussetzungen für „Clouds Made in Germany“, die besonders im Bezug auf Datenschutz und der Begegnung gesetzlicher und regulatorischer Anforderungen spitze sein werden, vorhanden. Dies wird zusehends zum Wettbewerbskriterium. Gleichzeitig ist insbesondere der Standort Frankfurt auch für internationale Cloud Provider von zentraler Bedeutung. Selbst wenn sie ihre Cloud-Fabriken nicht in Deutschland betreiben, so binden sie sich in der Regel an den zentralen Datenumschlagplatz in Frankfurt an. Sie bekommen dadurch Zugang zu allen Kommunikationsnetzbetreibern und optimieren ihre Netzwerklatenz.


Über Volker Ludwig

Volker Ludwig, MBA, ist seit dem Jahr 2001 für Interxion tätig und zeichnet für die Bereiche Marketing und Öffentlichkeitsarbeit in Deutschland verantwortlich. Er trägt in dieser Funktion maßgeblich zur Planung der strategischen Marketingmaßnahmen sowie zur Erhöhung des Bekanntheitsgrads des Colocation-Anbieters bei. Vor seinem Einstieg bei Interxion arbeitete Volker Ludwig in verschiedenen verantwortungsvollen Positionen im Bereich Werbung/Marketing.