Kategorien
Analysis

Multi-Cloud is "The New Normal"

Not least the disaster of Nirvanix had shown that one should not rely on a single cloud provider. But regardless of spreading the risk, the usage of a multi-cloud strategy is a recommended approach which already is conscious or unconscious practionzed.

Hybrid or multi-cloud?

What actually means multi-cloud? Or what is the difference to a hybrid cloud? Well, by definition a hybrid cloud connects a private cloud or an on-premise IT infrastructure with a public cloud to supply the local infrastructure with further resources on-demand. This resources could be compute power, storage but even services or software. Is a local email system integrated with a SaaS CRM system it can spoken about a hybrid cloud. That means a hybrid cloud stands not just for IaaS or PaaS scenarios.

The multi-cloud approach extends the hybrid cloud idea by the amount of connected clouds. Exactly spoken, this can be n-clouds which are integrated in some kind of forms. Here, for example, cloud infrastructures are connected that applications can use different infrastructures or services in parallel or depending on the workload or the current price. Even the parallel or distributed storage of data over multiple clouds is imaginable to ensure the availability and redundance of the data. At the moment multi-cloud is intensively discussed in the IaaS area. Therefore taking a look on Ben Kepes‘ and Paul Miller’s Mapping Session on multi-cloud as well as Paul’s Sector RoadMap: Multicloud management in 2013 is recommendable.

What is often neglected, multi-cloud has a special importance in the SaaS area. The amount of new SaaS applications is growing from day to day and with that the demand to integrate this varying solutions and let exchange the data. Today, the cloud market moves uncontrolled into the direction of isolated applications while each solution offers an added value, but in the result leads to many small data silos. With this kind of progress enterprises already fought vainly in pre cloud times.

Spread the risk

Even if the cloud marketing always promise the availability and security of data, systems and applications, the responsibilty to ensure this lies in the own hands (This refers to an IaaS public cloud.). Although cloud vendor mostly provide ways and means using IaaS, the customer has to do things on its own. Outages known from the Amazon Web Services or unpredictable closures like Nirvanix should lead to more sensitivity while using cloud services. The risk needs to be spread consciously. Here not all eggs shut be put into one basked but strategically distributed over severall.

Best-of-Breed

The best-of-breed strategy is the most widespread approach within IT enterprise architectures. Here multiple integrated industry solution for various sections within a company are used. The idea behind best-of-breed is to use the best solution in each case, an all-in-one solution usually cannot offer. This means one assembled the best services and applications for its purpose. Following this approach in the cloud, one is already in a multi-cloud scenario what means that approxiamtely 90 percent of all companies using cloud services are multi-cloud users. If the used cloud services are integrated remains doubtful.

Which is recommended on the one hand, is on the other side unavoidable in many cases. Although there are already a few good all-in-one solutions on the market. Nevertheless, most pearls are implemented independently, and must be combined with other solutions, for example email and office /collaboration with CRM and ERP. In respect of the risk this has its advantage, especially in the cloud. If a provider fails only a partial service is not available and not the overall productivity environment.

Avoid data silos: APIs and integration

Such best-of-breed approaches cloud marketplaces attempt to create, by grouping individual cloud solutions into different categories to offer companies a broad portfolio of different solutions, with which a cloud productivity suite can be put together.

Nevertheless, very highly controlled and supposedly integrated marketplaces show a crucial point with massive integration problems. There are many individual SaaS applications that do not interact. This means that there is no common database and for example the email service can not access the data in the CRM service and vice versa. This creates, as described above, individual data silos and isolated applications within the marketplace.

This example also illustrates the biggest problem with a multi-cloud approach. The integration of the many different and usually independent operating cloud services and their interfaces to each other.

Multi-cloud is „The New Normal“ in the cloud

The topic of multi-cloud is currently highly debated especially in IaaS environment to spread the risk and to take advantage of the cost and benefits of different cloud infrastructures. But even in the SaaS environment the subject must necessarily become a greater importance to avoid data silos and isolated applications in the future, to simplify the integration and to support companies in their adaptation of their best-of-breed strategy.

Notwithstanding these expectations, the multi-cloud use is already reality by companies using multiple cloud solutions from many different vendors, even if the services are not yet (fully) integrated.

Kategorien
News

INSIGHTS Report: arago veröffentlicht die AutoPilot Community Edition und kündigt Knowledge Community TabTab an

Die Frankfurter arago AG hat mit der Autopilot Community Edition erstmalig eine kostenlose Version ihrer wissensbasierten Automatisierungslösung für den IT-Betrieb veröffentlicht. Die Version richtet sich an kleinere Unternehmen und Startups, die den finanziellen Kraftakt nicht stemmen können, um in eine moderne Automatisierungsplattform zu investieren.

INSIGHTS Report: arago veröffentlicht die AutoPilot Community Edition und kündigt Knowledge Community TabTa… by René Büst

Kategorien
Analysen

Wir leben bereits in einer Multi-Cloud getriebenen Welt

Nicht zuletzt das Disaster um Nirvanix hat gezeigt, dass man sich nicht auf einen einzelnen Cloud-Anbieter verlassen. Aber auch ungeachtet der Risikostreuung ist der Einsatz einer Multi-Cloud Strategie ein empfehlenswerter Ansatz, der bereits von vielen heute schon bewusst oder unbewusst praktiziert wird.

Hybrid oder Multi-Cloud?

Was bedeutet genau Multi-Cloud? Oder was ist der Unterschied zu einer Hybrid Cloud? Nun, eine Hybrid Cloud verbindet von ihrer Definition her eine eigene Private Cloud bzw. eine on-Premise IT-Infrastruktur mit einer Public Cloud, um die lokalen Infrastrukturen bei Bedarf mit weiteren Ressourcen zu versorgen. Bei diesen Ressourcen kann es sich um Rechenleistung, Speicherplatz aber auch Services in Form von Software handeln. Wird ein lokales E-Mail System mit einem SaaS CRM-System integriert, kann durchaus von einer Hybrid Cloud gesprochen werden. Eine Hybrid Cloud gilt also nicht nur für IaaS bzw. PaaS Szenarien.

Ein Multi-Cloud Konzept erweitert den Hybrid Cloud Gedanken um die Anzahl der zu verbindenden Clouds. Genauer gesagt kann es sich dabei um n-Clouds handeln die in irgendeiner Form miteinander integriert sind. Dabei werden bspw. Cloud-Infrastrukturen so miteinander verbunden, dass die Applikationen verschiedene Infrastrukturen oder Services parallel oder je nach Auslastung oder aktuellen Preisen nutzen. Auch das parallele oder verteilte Speichern von Daten über mehrere Clouds ist vorstellbar, um die Verfügbarkeit und Redundanz der Daten sicherzustellen. Aktuell wird sehr intensiv über Multi-Cloud im IaaS-Umfeld diskutiert. Siehe dazu auch Ben Kepes‘ und Paul Miller’s Mapping Session zum Thema Multi-Cloud sowie Paul’s Sector RoadMap: Multicloud management in 2013.

Was oft vergessen wird ist, dass Multi-Cloud insbesondere im SaaS-Umfeld seine Bedeutung hat. Die Anzahl neuer SaaS-Applikationen wächst täglich und damit auch der Bedarf, diese unterschiedlichen Lösungen miteinander zu integrieren und Daten austauschen zu lassen. Aktuell bewegt sich der Cloud-Markt unkontrolliert auf viele kleine Insellösungen zu, die jede für sich zwar einen Mehrwert bieten, in der Summe jedoch zu vielen kleinen Dateninseln führen. Mit solchen Entwicklungen haben in Unternehmen schon in vor Cloud Zeiten zu kämpfen gehabt und das vergebens.

Risiken streuen

Auch wenn das Cloud-Marketing ständig die Verfügbarkeit und Sicherheit der Daten, Systeme und Applikationen verspricht, liegt die Verantwortung dies sicherzustellen in den eigenen Händen (Das bezieht sich auf eine IaaS Public Cloud). Zwar stellen die Cloud-Anbieter hierfür weitestgehend alle Mittel und Wege zur Verfügung, im IaaS-Bereich muss sich der Kunde aber selbst darum kümmern. Ausfälle wie die der Amazon Web Services oder unvorhergesehene Schließungen wie die von Nirvanix sollten zu mehr Sensibilität bei der Nutzung von Cloud-Services führen. Die Risiken müssen bewusst gestreut werden. Dabei sollten sich nicht alle Eier in einem Nest befinden, sondern strategisch über mehrere verteilt werden.

Best-of-Breed

Die Best-of-Breed Strategie ist der meist verbreitetste Ansatz in IT-Unternehmensarchitekturen. Dabei werden mehrere Branchenlösungen für verschiedene Teilbereiche innerhalb des Unternehmens eingesetzt und miteinander integriert. Die Idee hinter Best-of-Breed besteht darin, die jeweils beste Lösung zu nutzen, die eine All-in-one Lösung in der Regel nicht bieten kann. Man stellt sich also die für seinen Zweck besten Services und Applikationen zusammen.

Verfolgt man diesen Ansatz in der Cloud, befindet man sich direkt in einem Multi-Cloud Szenario, was bedeutet, dass schätzungsweise 90% aller Unternehmen die Cloud-Services nutzen, Multi-Cloud Nutzer sind. Ob die eingesetzten Cloud-Services auch miteinander integriert sind bleibt zu bezweifeln. Was auf der einen Seite empfehlenswert ist, lässt sich auf der anderen Seite in vielen Fällen auch nicht vermeiden. Zwar existieren bereits ein paar gute All-in-one Lösungen am Markt. Dennoch sind die meisten Perlen eigenständig implementiert und müssen mit anderen Lösungen kombiniert werden, z.B. E-Mail und Office/ Collaboration mit CRM und ERP. Das hat von der Risikobetrachtung, insbesondere in der Cloud, seinen Vorteil. Fällt ein Anbieter aus, ist auch nur ein Teil-Service nicht erreichbar und nicht direkt die gesamte Produktivitäts-Umgebung.

Insellösungen vermeiden: Schnittstellen und Integration

Solche Best-of-Breed Ansätze versuchen Cloud-Marktplätze zu schaffen, indem sie einzelne Cloud-Lösungen in unterschiedlichen Kategorien zusammenfassen und Unternehmen damit ein umfangreiches Portfolio verschiedener Lösungen bieten, mit der sich eine Cloud-Produktivitäts-Suite zusammenstellen lässt. Dennoch zeigen, obwohl sehr stark kontrollierte und vermeintlich integrierte Marktplätze an einer entscheidenden Stelle massive Probleme mit der Integration. Es existieren viele einzelne SaaS-Applikationen die nicht zusammenspielen. Das bedeutet, dass keine gemeinsame Datenbasis existiert und das z.B. der E-Mail Service nicht auf die Daten im CRM-Service zugreifen kann und umgekehrt. Damit entstehen wieder, wie bereits oben beschrieben, einzelne Datensilos und Insellösungen innerhalb des Marktplatzes.

Dieses Beispiel zeigt auch die größte Problematik mit einem Multi-Cloud Ansatz. Die Integration der vielen verschiedenen und normalerweise voneinander unabhängig agierenden Cloud-Services und deren Schnittstellen zueinander.

Multi-Cloud ist „The New Normal“ in der Cloud

Das Thema Multi-Cloud wird derzeit insbesondere im IaaS-Umfeld stark diskutiert, um das Risiko zu streuen und die Kosten und Leistungen unterschiedlicher Cloud-Infrastrukturen optimal ausnutzen zu können. Aber ebenfalls im SaaS-Umfeld muss das Thema unbedingt eine höhere Bedeutung zugesprochen werden, um Daten- und Insellösungen in Zukunft zu vermeiden, die Integration zu vereinfachen und Unternehmen bei ihrer Adaption ihrer Best-of-Breed Strategie zu unterstützen.

Ungeachtet diesen Erwartungen ist der Multi-Cloud Einsatz bereits Realität, indem Unternehmen mehrere Cloud Lösungen von vielen unterschiedlichen Anbietern einsetzen, auch wenn diese noch nicht (vollständig) miteinander integriert sind.

Kategorien
Analysis

Fog Computing: Data, Information, Application and Services needs to be delivered more efficient to the enduser

You read it correctly, this is not about CLOUD Computing but FOG Computing. After the cloud is on a good way to be adapted in the broad, new concepts follow to enhance the utilization of scalable and flexible infrastructures, platforms, applications and further services to ensure the faster delivery of data and information to the enduser. This is exactly the core function of fog computing. The fog ensures that cloud services, compute, storage, workloads, applications and big data be provided at any edge of a network (Internet) on a trully distributed way.

What is fog computing?

The fog hast he task to deliver data and workloads closer to the user who is located at the edge of a data connection. In this context it is also spoken about „edge computing“. The fog is organizationally located below the cloud and serves as an optimized transfer medium for services and data within the cloud. The term „fog computing“ was characterized by Cisco as a new paradigm , which should support distributed devices during the wireless data transfer within the Internet of Things. Conceptual fog computing builds upon existing and common technologies like Content Delivery Networks (CDN), but based on cloud technologies it should ensure the delivery of more complex services.

As more and more data must be delivered to an ever-growing number of users, concepts are necessary which enhance the idea of the cloud and empower companies and vendors to provide their content over a widely spread platform to the enduser. Fog computing should help to transport the distributed data closer to the enduser and thus decrease latency and the number of required hops and therefore better support mobile computing and streaming services. Besides the Internet of Things, the rising demand of users to access data at any time, from any place and with any device, is another reason why the idea of fog computing will become increasingly important.

What are use cases of fog computing?

One should not be too confused by this new term. Although fog computing is a new terminology. But looking behind the courtain it quickly becomes apparent that this technology is already used in modern data centers and the cloud. A look at a few use cases illustrates this.

Seamless integration with the cloud and other services

The fog should not replace the cloud. Based on fog services the cloud should be enhanced by isolating the user data which are exclusively located at the edge of a network. From there it should allow administrators to connect analytical applications, security functions and more services directly to the cloud. The infrastructure is still based entirely on the cloud concept, but extends to the edge with fog computing.

Services to set vertical on top of the cloud

Many companies and various services already using the ideas of fog computing by delivering extensive content target-oriented to their customer. This includes among others webshops or provider of media content. A good example for this is Netflix, who is able to reach its numerous globally distributed customers. With the data management in one or two central data centers, the delivery of video-on-demand service would otherwise not be efficiently enough. Fog computing thus allows providing very large amounts of streamed data by delivering the data directly performant into the vicinity of the customer.

Enhanced support for mobile devices

With the steadily growth of mobile devices and data administrators gain more control capabilities where the users are located at any time, from where they login and how they access to the information. Besides a faster velocity for the enduser this leads to a higher level of security and data privacy by data can be controlled at various edges. Moreover fog computing allows a better integration with several cloud services and thus ensures an optimized distribution across multiple data centers.

Setup a tight geographical distribution

Fog computing extends existing cloud services by spanning up an edge network which consist of many distributed endpoints. This tight geographical distributed infrastructure offers advantages for variety of use cases. This includes a faster elicitation and analysis of big data, a better support for location-based services by the entire WAN links can be better bridged as well as the capabilities to evaluate data massively scalable in real time.

Data is closer to the user

The amount of data caused by cloud services require a caching of the data or other services which take care of this subject. This services are located close to the enduser to improve latency and optimize the data access. Instead of storing the data and information centralized in a data center far away from the user the fog ensures the direct proximity of the data to the customer.

Fog computing makes sense

You can think about buzzwords whatever you want. Only if you take a look behind the courtain it’s becoming interesting. Because the more services, data and applications are deployed to the end user, the more the vendors have the task of finding ways to optimize the deployment processes. This means that information needs to be delivered closer to the user, while latency must be reduced in order to be prepared for the Internet of Things. There is no doubt that the consumerization of IT and BYOD will increasing the use and therefore the consumption of bandwidth.

More and more users rely on mobile solutions to run their business and to bring it into balance with the personal live. Increasingly rich content and data are delivered over cloud computing platforms to the edges of the Internet where at the same time are the needs of the users getting bigger and bigger. With the increasing use of data and cloud services fog computing will play a central role and help to reduce the latency and improve the quality for the user. In the future, besides ever larger amounts of data we will also see more services that rely on data and that must be provided more efficient to the user. With fog computing administrators and providers get the capabilities to provide their customers rich content faster and more efficient and especially more economical. This leads to faster access to data, better analysis opportunities for companies and equally to a better experience for the end user.

Primarily Cisco will want to characterize the word fog computing to use it for a large-scale marketing campaign. However, at the latest when the fog generates a similar buzz as the cloud, we will find more and more CDN or other vendors who offer something in this direction as fog provider.

Kategorien
Analysen

Fog Computing: Daten, Informationen, Anwendungen und Services müssen effizienter zum Endnutzer

Richtig gelesen, hier geht es nicht um CLOUD Computing sondern um FOG Computing. Nachdem sich die Cloud auf einem guten Weg befindet in der Breite adaptiert zu werden, folgen erste Konzepte, um die Nutzung skalierbarer und flexibler Infrastrukturen, Plattformen und Applikationen um weitere Services zu erweitern, um die Daten und Informationen schneller an den Endnutzer auszuliefern. Das ist im Kern genau die Aufgabe des Fog Computing. Der Fog soll dafür sorgen, dass Cloud Services, Rechenleistung, Speicherplatz, Workloads, Anwendungen und große Datenmengen an jegliche Ecken (Edge) eines Netzwerkes (Internet) auf einer echten verteilten Art und Weise bereitgestellt werden.

Was bedeutet Fog Computing?

Der Fog hat die Aufgabe, Daten und Workloads näher an den Nutzer zu bringen, der sich am Rande einer Datenverbindung befindet. In diesem Zusammenhang wird dann auch vom „Edge Computing“ gesprochen. Der Fog befindet sich organisatorisch unterhalb der Cloud und dient als optimiertes Übertragungsmedium für die Services und Daten, die sich in der Cloud befinden. Der Begriff „Fog Computing“ wurde von Cisco als ein neues Paradigma geprägt, der verteilte Endgeräte innerhalb des Internet of Things bei dem kabellosen Datentransfer unterstützen soll. Fog Computing baut konzeptionell auf bestehende und weit verbreitete Technologien wie den Content Delivery Networks (CDN) auf, soll aber, auf Grund von Cloud Technologien, das Bereitstellen von viel komplexeren Services ermöglichen.

Da immer größere Datenmengen an eine immer größer werdende Anzahl an Benutzern ausgeliefert werden müssen, sind Konzepte notwendig, welche die Idee der Cloud verbessern und es Unternehmen und Anbietern ermöglichen, ihre Inhalte an den Endkunden über eine geographisch weit verbreitete Plattform bereitzustellen. Fog Computing soll dabei helfen, die verteilten Daten näher an den Endkunden zu transportieren und dabei die Latenz und Anzahl der dafür benötigten Hops zu verringern und Mobile Computing und Streaming Services dadurch besser zu unterstützen. Neben dem Internet of Things ist die steigende Nachfrage der Nutzer, zu jeder Zeit, von jedem Ort und mit jedem Gerät auf ihre Daten zugreifen zu können, ein weiterer Grund, warum die Idee des Fog Computing an Bedeutung zunehmen wird.

Was sind Use Cases von Fog Computing?

Man sollte sich von diesem neuen Begriff nicht zu sehr verwirren lassen. Zwar handelt es sich beim Fog Computing um eine neue Terminologie. Schaut man jedoch hinter die Fassade wird schnell deutlich, dass diese Technologie bereits in modernen Rechenzentren und der Cloud eingesetzt wird. Der Blick auf ein paar Use Cases verdeutlicht dies.

Nahtlose Integration mit der Cloud und anderweitigen Services

Der Fog soll die Cloud nicht ersetzen. Durch Fog Services soll die Cloud erweitert werden, indem die Nutzerdaten isoliert werden, die sich ausschließlich am Rande (Edge) eines Netzwerks befinden. Von dort aus soll es Administratoren ermöglicht werden, analytische Auswertungen, Sicherheitsfunktionen und weitere Services direkt mit eigenen Cloud Modell zu verbinden. Die Infrastruktur wird hierbei weiterhin vollständig auf dem Cloud Konzept basieren, am Rande jedoch um das Fog Computing erweitert.

Services die vertikal auf der Cloud aufsetzen

Viele Unternehmen und unterschiedliche Arten von Services nutzen bereits die Ideen des Fog Computing, indem sie umfangreiche Inhalte zielgerichtet an ihre Kunden ausliefern. Dazu gehören u.a. Webshops oder Anbieter von Medieninhalten. Ein gutes Beispiel hierfür ist Netflix, die damit ihre zahlreichen weltweit verteilten Kunden erreichen können. Mit der Datenhaltung in einem oder zwei zentralen Rechenzentren wäre die Auslieferung des Video on-Demand Service sonst nicht effizient möglich. Fog Computing ermöglicht somit das Bereitstellen von sehr großen gestreamten Datenmengen, indem die Daten performant direkt in die Nähe des Endkunden ausgeliefert werden.

Bessere Unterstützung für mobile Endgeräte

Mit dem stetigen Wachstum mobiler Endgeräte und Daten erhalten Administratoren durch Fog Computing mehr Kontrollmöglichkeiten darüber, wo sich die Nutzer gerade befinden, von wo sie sich anmelden und wie sie auf Informationen zugreifen. Dies führt neben einer höheren Geschwindigkeit für den Endnutzer ebenfalls zu einer höheren Sicherheit und Datenschutz, indem die Daten an unterschiedlichen Eckpunkten kontrolliert werden können. Zudem erlaubt Fog Computing eine bessere Integration mit verschiedenen Cloud Services und sorgt somit für eine optimierte Verteilung über mehrere Rechenzentren hinweg.

Aufbau einer sehr engen geographischen Verteilung

Fog Computing erweitert bestehende Cloud Services, indem es ein Edge Network aufspannt, das aus vielen verteilten Endpunkten besteht. Diese dichte geographisch verteilte Infrastruktur bietet Vorteile für unterschiedliche Use Cases. Dazu gehören eine schnellere Erhebung und Analyse von Big Data, eine bessere Unterstützung für Location-based Services indem sich die gesamten WAN Strecken besser überbrücken lassen, sowie die Möglichkeit, Daten in Echtzeit und dazu noch massiv skalierbar auszuwerten.

Daten befinden sich nah beim Nutzer

Die Menge an Daten, die durch Cloud Services entsteht, erfordert das Caching der Daten oder weitere Services, die sich dieser Thematik annehmen. Diese Services befinden sich in der Nähe des Endnutzers, um damit die Latenz zu verbessern und den Datenzugriff zu optimieren. Anstatt die Daten und Informationen zentral in Rechenzentren weit entfernt von dem jeweiligen Nutzer abzulegen, sorgt der Fog für die direkte Nähe der Daten beim Kunden.

Fog Computing ergibt einen Sinn

Man kann von Buzzwords halten was man möchte. Erst wenn man hinter die Kulisse schaut wird es interessant. Denn je mehr Services, Daten und Applikationen für den Endnutzer bereitgestellt werden, desto mehr haben die Hersteller die Aufgabe Wege zu finden, um die Bereitstellungsprozesse zu optimieren. Das bedeutet, dass Informationen näher an den Nutzer herangetragen und gleichzeitig die Latenzen verringert werden müssen, um auf das Internet of Things vorbereitet zu sein. Es besteht kein Zweifel daran, dass die Consumerization of IT und BYOD die Nutzung und demnach den Verbrauch an Bandbreiten ansteigen lassen werden.

Immer mehr Nutzer greifen auf mobile Lösungen zurück, um ihre Geschäfte abzuwickeln und mit dem Privatleben in Einklang zu bringen. Immer reichhaltigere Inhalte und Daten werden über Cloud Computing Plattformen an die „Ecken“ des Internets ausgeliefert wo gleichzeitig die Bedürfnisse der Anwender immer größer werden. Mit der Zunahme der Daten-und Cloud-Services Nutzung wird Fog Computing eine zentrale Rolle spielen und dabei helfen die Latenzen zu verringern und die Qualität für den Nutzer zu verbessern. In Zukunft werden wir neben immer größeren Datenmengen ebenfalls mehr Services sehen, die auf Daten zurückgreifen und dem Nutzer effizienter bereitgestellt werden müssen. Administratoren und Anbieter erhalten durch Fog Computing die Möglichkeit ihren Kunden umfangreiche Inhalte deutlich schneller und effizienter und vor allem viel wirtschaftlicher bereitzustellen. Dies führt zu einem schnelleren Zugriff auf die Daten, bessere Auswertungsmöglichkeiten für Unternehmen und gleichermaßen zu einer verbesserten Nutzung für den Endnutzer.

In erster Linie wird Cisco das Wort Fog Computing prägen wollen, um es für s(eine) groß angelegte Marketingkampagne zu nutzen. Allerdings, spätestens wenn der Fog einen ähnlichen Buzz wie die Cloud erzeugt, werden wir immer mehr CDN oder anderweitige Hersteller, die etwas in die Richtung anbieten, als Fog-Anbieter wiederfinden.

Kategorien
Comment

AWS Activate. Startups. Market share. Any questions?

Startups are the groundwork for the success of the Amazon Web Services. With them, the IaaS market leader has grown. Based on an official initiative AWS builds out this customer target market and will leave the rest of IaaS providers further in the rain. Because with the exception of Microsoft and Rackspace, nothing happens in this direction.

AWS Activate

It’s no secret that AWS is specifically „bought“ the favor of startups. Apart from the attractive service portfolio founders, who are supported by Accelerator, obtain AWS credits in the double digits to start their ideas on the cloud infrastructure.

With AWS Activate Amazon has now launched an official startup program to serve as a business enabler for developers and startups. This consists of the „Self-Starter Package“ and the „Portfolio Package“.

The Self-Starter Package is aimed at startups that are trying their own luck and includes the well-known free AWS offering, which may take any new customer. In addition, an AWS Developer Support for a month, „AWS Technical Professional“ training and discounted access to solutions of SOASTA or Opscode are included. The Portfolio Package is for startups that are in a accelerator program. These will get AWS credits worth between $1,000 and $15,000 and a month or one year of free AWS business support. There are also „AWS Technical Professional“ and „AWS Essentials“ training included.

Any questions on the high market shares?

With this initiative, the Amazon Web Services will keep making the pace in the future. With the exception of Microsoft, Google and Rackspace, AWS positioned oneself as the only platform for users to implement their own ideas. All other vendors rather embrace corporate customers, who are more hesitant to jump on the cloud train, and do not offer the possibilities of the AWS cloud infrastructure by far. Instead of interpret the portfolio on cloud services, they try to catch customers with compute power and storage. But, infrastructure from the cloud means more than just infrastructure.

Kategorien
Kommentar

AWS Activate. Startups. Marktanteile. Noch Fragen?

Startups sind die Grundlage für den Erfolg der Amazon Web Services (AWS). Mit ihnen ist der IaaS-Marktführer groß geworden. Anhand einer offiziellen Initiative baut AWS diesen Zielkundenmarkt weiter aus und wird die restlichen IaaS-Anbieter damit weiter im Regen stehen lassen. Denn von deren Seite, mit Ausnahme von Microsoft und Rackspace, passiert nichts.

AWS Activate

Es ist kein Geheimnis das AWS sich gezielt die Gunst der Startups „erkauft“. Abgesehen von dem attraktiven Service Portfolio haben Gründer, die von Accelerator unterstützt werden, AWS Credits im zweistelligen Bereich erhalten, um ihre Ideen auf der Cloud Infrastruktur zu starten.

Mit AWS Activate hat Amazon nun ein offizielles Startup-Programm gestartet, um als Business-Enabler für Entwickler und Startups zu dienen. Dieses besteht aus dem „Self-Starter Package“ und dem „Portfolio Package“.

Das Self-Starter Package richtet sich an Startups, die ihr Glück auf eigene Faust versuchen und beinhaltet das bekannte kostenlose AWS-Angebot, welches jeder Neukunde in Anspruch nehmen kann. Hinzu kommen ein AWS Developer Support für einen Monat, „AWS Technical Professional“ Training und ein vergünstigter Zugriff auf Lösungen von SOASTA oder Opscode. Das Portfolio Package ist für Startups die sich in einem Accelerator Programm befinden. Diese erhalten AWS Credits im Wert zwischen 1.000 Dollar und 15.000 Dollar sowie ein Monat bis ein Jahr kostenlosen AWS Business Support. Hinzu kommen „AWS Technical Professional“ und „AWS Essentials“ Trainings.

Noch Fragen wegen der hohen Marktanteile?

Angesichts dieser Initiative werden die Amazon Web Services auch in Zukunft alleine weiter vorne weglaufen. Mit Ausnahme von Microsoft, Google und Rackspace, positioniert sich nur AWS als Plattform für Nutzer, die dort ihre eigenen Ideen umsetzen können. Alle anderen Anbieter umarmen lieber Unternehmenskunden, die eher zögerlich auf den Cloud Zug aufspringen und bieten bei weitem nicht die Möglichkeiten einer AWS Cloud Infrastruktur. Anstatt das Portfolio auf Cloud-Services auszulegen, wird stattdessen mit Rechenleistung und Speicherplatz versucht auf Kundenfang zu gehen. Dabei hat Infrastruktur aus der Cloud mehr zu bedeuten als nur Infrastruktur.

Kategorien
Analysis

Nirvanix. A living hell. Why multi-cloud matters.

One or two will certainly have heard of it. Nirvanix has oneself transported to the afterlife. The enterprise cloud storage service, which had a wide cooperation with IBM, on September 16, 2013 suddenly announced its closure and initially granted its existing customers a period of two weeks to migrate their data. The period has been extended to October 15, 2013 as customers need more time for migration. As a Nirvanix customer reported, it has stored 20 petabytes of data.

The end of Nirvanix

Out of nowhere enterprise cloud storage provider Nirvanix announced its end on September 16, 2013. To date its not declared how it happened. Rumor has it that a further round financing failed. Other reasons are seemingly on the faulty management. Thus, the company had five CEOs since 2008 until today. One should also not forget the strong competition in the cloud storage environment. Firstly, in recent years, many vendors have tried their luck. On the other hand the two top dogs Amazon Web Services with Amazon S3, and Microsoft with Azure Storage reduce the prices of their services in regular cycles, which are also enterprise-ready. Even to be named as one of the top cloud storage service provider by Gartner couldn’t help Nirvanix.

Particularly controversial is the fact that in 2011, Nirvanix has completed a five-year contract with IBM to expand IBM’s SmartCloud Enterprise storage services with cloud-based storage. As IBM has announced, stored data on Nirvanix will be migrated to the IBM SoftLayer object storage. As an IBM customer, I would still ask carefully about my stored data.

Multi-Cloud: Spread your eggs over multiple nests

First, a salute to the venture capital community. If it’s true that Nirvanix had to stop the service due to a failed round financing, then we see what responsibility is in their hands. Say no more.

How to deal with such a horror scenario like Nirvanix as cloud user? Well, as you can see a good customer base and partnerships with global players seems to be no guarantee that a service survived long term. Even Google currently plays its cloud strategy on the back of its customers and makes no binding commitment over the long-term consist of its services on the Google Cloud Platform, such as the Google Compute Engine (GCE). On the contrary, it is assumed that the GCE will not survive as long as other well-known Google services.

Backup and Multi-Cloud

Even if the cloud storage provider has to ensure the availability of the data, as a customer you have a duty of care and must be informed about the state of your data and – even in the cloud – take care of redundancy and backup. Meanwhile functions in the most popular cloud storage services are integrated to make seamless backups of the data and create multiple copies.

Although we are in the era of cloud, yet still applies: Backup! You should therefore ensure that a constantly checked(!) and a reliable backup and recovery plan exist. Furthermore, sufficient bandwidth must be available to move the data as soon as possible. This should also be checked at regular intervals using a migration audit to act quickly in the case of all cases.

To just move 20 petabytes of data is no easy task. Therefore you have to think about other approaches. Multi-cloud is a concept which is gaining more and more importance in the future. At it data and applications are distributed (in parallel) across multiple cloud platforms and providers. On this my analyst colleagues and friends Paul Miller and Ben Kepes already had discussed during their mapping session at the GigaOM Structure in San Francisco. Paul subsequently had written an interesting sector roadmap report on multi-cloud management.

Even next to Scalr, CliQr, RightScale and Enstratius already exist some management platforms for multi-cloud, we still find ourselves in a very early stage in terms of use. schnee von morgen webTV by Nikolai Longolius for example, is primarily on the Amazon Web Services and has developed a native web application 1:1 for the Google App Engine as a fallback scenario. This is not a multi-cloud approach, but shows its importance to achieve less effort for a provider-cross high availability and scalability. As Paul’s Sector Roadmap shows, it is in particular the compatibility of the APIs that must be attributed a great importance. In the future companies can no longer rely on a single provider, but distribute their data and applications across multiple providers to drive a best-of-breed strategy and to specifically spread the risk.

This should also be taken into consideration when simply store „only“ data in the cloud. The golden nest is the sum of a plurality of distributed.

Kategorien
Analysen

Nirvanix. Die Hölle auf Erden. Warum ein Multi-Cloud Ansatz zwangsläufig notwendig ist.

Der eine oder andere wird bestimmt davon gehört haben. Nirvanix hat sich selbst ins Jenseits befördert. Der Enterprise Cloud Storage Service, der unter anderem eine große Kooperation mit IBM eingegangen war, hatte am 16. September 2013 plötzlich die Schließung angekündigt und seinen bestehenden Kunden zunächst eine Frist von zwei Wochen eingeräumt, ihre Daten zu migrieren. Der Zeitraum wurde mittlerweile auf den 15. Oktober 2013 verlängert, da die Kunden mehr Zeit für die Migration benötigen. Wie ein Nirvanix Kunde berichtet, hat dieser dort 20 Petabyte an Daten gespeichert.

Das Ende von Nirvanix

Wie aus dem nichts hat der Enterprise Cloud Storage Anbieter Nirvanix am 16. September 2013 sein Ende erklärt. Bis heute ist nicht bekanntgegeben worden, wie es dazu gekommen ist. Gerüchte sagen, dass eine weitere Finanzierungsrunde fehlgeschlagen sei. Weitere Gründe liegen scheinbar am fehlerhaften Management. So hatte das Unternehmen seit 2008 bis heute fünf CEOs. Vergessen sollte man allerdings auch nicht den starken Konkurrenzkampf im Cloud Storage Umfeld. Zum einen haben in den vergangenen Jahren viele Anbieter ihr Glück versucht. Zum anderen senken die beiden Platzhirsche Amazon Web Services mit Amazon S3 und Microsoft mit Azure Storage in regelmäßigen Zyklen die Preise für ihre Services, die ebenfalls Enterprise-fähig sind. Auch hat es für Nirvanix nichts genützt von Gartner als einer der Top Cloud Storage Service Anbieter genannt zu werden.

Besonders brisant ist die Tatsache, dass Nirvanix in 2011 einen fünf Jahres Vertrag mit IBM abgeschlossen hat, um IBMs SmartCloud Enterprise Storage Services um Cloud-basierte Speicherkapazitäten zu erweitern. Wie IBM angekündigt hat, sollen auf Nirvanix gespeicherte Daten auf den IBM SoftLayer Object Storage umgezogen werden. Als IBM Kunde würde ich trotzdem vorsichtig anfragen, wie es um meine gespeicherten Daten steht.

Multi-Cloud: Die Eier müssen über mehrere Nester verteilt werden

Zunächst ein Gruß an die Venture Capital Gemeinde. Wenn es stimmt, dass Nirvanix auf Grund einer fehlgeschlagenen Finanzierungsrunde den Dienst einstellen musste, dann sehen wir, was für eine Verantwortung mittlerweile in deren Händen liegt. Mehr braucht man dazu nicht schreiben.

Wie soll man als Cloud-Nutzer mit so einem Horror-Szenario wie dem von Nirvanix umgehen? Nun, wie man sieht scheint eine gute Kundenbasis und Kooperationen mit globalen Playern kein Garant dafür zu sein, dass ein Service langfristig überlebt. Auch Google spielt derzeit seine Cloud-Strategie auf dem Rücken seiner Kunden aus und trifft keine verbindliche Zusage über das langfristige bestehen seiner Services auf der Google Cloud Platform, wie etwa der Google Compute Engine (GCE). Im Gegenteil, es ist davon auszugehen, dass die GCE nicht lange überleben wird wie andere bekannte Google Services auch.

Backup und Multi-Cloud

Auch wenn der Cloud Storage Anbieter für die Verfügbarkeit der Daten zu sorgen hat, trägt man als Kunde eine Sorgfaltspflicht und die muss darin bestehen, dass man über den Zustand seiner Daten informiert ist und – auch in der Cloud – für Redundanzen und Backups sorgt. Mittlerweile sind Funktionen in den gängigsten Cloud Storage Services integriert, um nahtlose Backups der Daten vorzunehmen und mehrfache Kopien zu erstellen.

Zwar befinden wir uns im Zeitalter der Cloud, dennoch gilt weiterhin: Datensicherung! Man sollte daher sicherstellen, dass ständig ein getestetes(!) und zuverlässiges Backup sowie ein Wiederherstellungsplan existieren. Weiterhin muss ausreichend Bandbreite zur Verfügung stehen, um schnellstmöglich die Daten verschieben zu können. Auch das sollte in regelmäßigen Abständen anhand eines Migration-Audit überprüft werden, um im Fall aller Fälle schnell handeln zu können.

20 Petabyte an Daten mal eben so zu verschieben ist keine leichte Aufgabe. Daher muss man sich über andere Ansätze Gedanken machen. Multi-Cloud ist ein Konzept was in Zukunft immer stärker an Bedeutung gewinnen wird. Dabei werden Daten und Applikationen über mehrere Cloud-Plattformen und Anbieter hinweg (parallel) verteilt. Darüber hatten bereits meine Analysten Kollegen und Freunde Paul Miller und Ben Kepes während ihrer Mapping Session auf der GigaOM Structure in San Francisco diskutiert. Paul hatte im Anschluss daran einen interessanten Sector RoadMap Report zum Thema Multicloud Management geschrieben.

Auch wenn neben Scalr, CliQr, Rightscale und Enstratius bereits einige Management Plattformen für Multi-Cloud existieren, befinden wir uns immer noch in einem sehr frühen Stadium was die Nutzung angeht. schnee von morgen webTV von Nikolai Longolius bspw. setzt primär auf die Amazon Web Services und hat als Fallback Szenario eine native Web-Applikation 1:1 für die Google App Engine entwickelt. Das ist kein Multi-Cloud Ansatz, zeigt aber dessen Bedeutung, um weniger Aufwand für eine Anbieterübergreifende Hochverfügbarkeit und Skalierbarkeit zu erreichen. Wie Pauls Sector Roadmap gut zeigt, ist es insbesondere die Kompatibilität der APIs, der eine große Bedeutung zugesprochen werden muss. Unternehmen werden sich in Zukunft nicht mehr nur auf einen Anbieter verlassen können, sondern ihre Daten und Applikationen über mehrere Anbieter verteilen, um eine Best-of-Breed-Strategie zu fahren und das Risiko gezielt zu streuen.

Das sollte auch in Erwägung gezogen werden, wenn man einfach „nur“ Daten in der Cloud speichert. Das goldene Nest ist die Summe aus mehreren verteilten.

Kategorien
Events

Veranstaltungstipp: CSC Cloud Strategie Forum

Am 22.10.13 lädt CSC zu einem kostenlosen Cloud Strategie Forum nach München ein. Nach einem Impulsvortrag von CSCs Mark Masterson werde ich eine dynamisch gehaltene Diskussionsrunde führen und zeigen, was die Cloud für Unternehmen bereithält, welche Herausforderungen auf dem Weg zu einer eigenen Cloud Strategie gemeistert werden müssen und was keinesfalls missachtet werden sollte.

Agenda

  • Impulsvortrag von Mark Masterson, „Resident Troublemaker“.
  • Dynamische Diskussionsrunde geführt von René Büst, Cloud Analyst, Top 50 Cloud Computing Blogger weltweit.
  • Gemeinsames Abendessen mit vielen Gelegenheiten zum Networking.

Inhalte des Vortrags zur Diskussionsrunde

  • Use Case Identifikation und Potentiale von Cloud Computing.
  • Anforderungen die zu beachten sind.
  • Cloud Enterprise Architecture – Überblick
  • Cloud Governance – Überblick
  • Cloud Skills – Überblick
  • Marktüberblick IaaS

Weitere Informationen und die Anmeldung

  • Wann: 22. Oktober 2013, 16:00 Uhr
  • Wo: Mandarin Oriental Hotel, Neuturmstrasse 1, 80331 München

Die kostenlose Anmeldung ist unter CSC Cloud Strategie Forum zu finden.