Kategorien
Analysen

Dropbox Alternativen für die Unternehmens-IT

Die Popularität einfach bedienbarer Cloud-Storage-Dienste wie Dropbox bereitet IT-Verantwortlichen Kopfzerbrechen. Dabei bietet der Markt inzwischen auch Enterprise-taugliche Lösungen. Dieser Artikel stellt Cloud-Services für den professionellen Einsatz vor.

Dieser Artikel ist exklusiv im IDG-Netzwerk erschienen und kann unter „Cloud Storage treibt die Schatten-IT: Dropbox Alternativen für Unternehmen“ gelesen werden.

Kategorien
News @en

INSIGHTS Paper: Automation concepts and solutions for IT operations

Companies are attempting to reduce IT costs while simultaneously increasing efficiency and productivity by standardizing their IT environments with virtualization technologies and Cloud Computing. However, in most cases, companies overlook the fact that standardization alone is no longer enough to achieve these objectives. The main reasons for productivity losses lie in the IT operation itself, where human error during routine tasks lead to further errors due to inattentiveness or work overload and time pressure. The introduction of customized automation solutions, which are managed and controlled by intelligent expert systems, unburden employees and prevent errors. Furthermore, on average, over half of all IT activities are invested in the manual processing of routine tasks. These include the administration of applications, systems and the infrastructure.

What concepts currently exist in the large market for automation technologies? What impact do modern solutions have on companies and which could potentially lead to a paradigm shift? This paper answers these questions and introduces a selection of three providers. Not all providers on the market can be taken into account due to their extensive number. Besides large providers such as CA, HP, IBM and Automic there are also a large number of small providers, such as NetIQ or Kaseya. Instead, this paper focuses on three providers whose solutions print media suggests offer huge potential. These include the BMC Bladelogic Automation Suite, the IPsoft IPCenter and the arago AutoPilot.

INSIGHTS Paper: Automation concepts and solutions for IT operations (BMC Bladelogic vs. IPsoft IPCenter vs…. by New Age Disruption

Kategorien
Analysis

My cloud computing predictions for 2014

The year 2013 is coming to an end and it is once again time to look into the crystal ball for the next year. To this end, I’ve picked out ten topics that I believe will be relevant in the cloud area.

1. The AWS vs. OpenStack API discussion will never end

This prediction is also valid for the years 2015, 2016, etc. It sounds like fun at first. However, these discussions are annoying. OpenStack has more important issues to address than the never-ending comparisons with Amazon Web Services (AWS). Especially since the troubles constantly come from outside, that does not help. If the OpenStack API is supposed to be 100% compatible with the AWS API, then OpenStack can be renamed in Eucalyptus!

The OpenStack community must find its own way and make it possible for service providers, away from the industry leader AWS, to be able to build up their own offerings. However, this mammoth task is again only in the hands of the provider. Eventually, OpenStack is just a large construction kit for building cloud computing infrastructures. What happens at the end (business model) is not the task of the OpenStack community.

Read more: „Caught in a gilded cage. OpenStack providers are trapped.

2. Security gets more weight

Regardless of the recent NSA scandal, the security and confidence of (public) cloud providers have always been questioned. In the course of this (public) cloud providers are better positioned to provide desired data protection than most of the world’s businesses. This is partly due to the extensive resources (hardware, software, data center and staff) that can be invested in the development of strong security solutions. In addition, as data protection is part of (public) cloud providers’ core business, its administration by the provider can ensure smoother and safer operations.

Trust is the foundation of any relationship. This applies to both private and business environments. The hard-won confidence of the recent years is being put to the test and the provider would do well to open further. „Security through obscurity“ is an outdated concept. The customers need and want more clarity about what is happening with their data. This will vary depending on the world’s region. But at least in Europe, customers will continually put their providers to the test.

Read more: „How to protect companies’ data from surveillance in the cloud?

3. Private cloud remains attractive

The private cloud is financially and in terms of resource allocation (scalability, flexibility) not the most attractive form of cloud. Nevertheless, it is, despite the predictions of some market researchers, not losing its significance. On the contrary, here, despite the cost pressures, the sensitivity of the decision makers who want retain control and sovereignty over the data and systems is underestimated. This is also reflected in recent figures from Crisp Research. According to this, only about 210 million euros were spent on public infrastructure-as-a-service (IaaS) in Germany in 2013. By contrast, investment for private cloud infrastructure has exceeded 2.3 billion euros.

A recent study by Forrester also shows:

„From […] over 2,300 IT hardware buyers, […] about 55% plan to build an internal private cloud within the next 12 months.“

This does not mean that Germany has to be the land of private clouds. Finally, it’s always about the specific workload and use case, which is running in a private or public cloud. But there is clear trend towards a further form of cloud computing usage in the future.

4. Welcome hosted private cloud

After Salesforce has also jumped on the train, it is clear that enterprise customers can not make friends with the use of a pure public cloud. In cooperation with HP, Salesforce has announced a dedicated version of its cloud offering – „Salesforce Superpod“.

This extreme change in Salesforce strategy confirms our results from the exploration of the European cloud market. Companies are interested in cloud computing and its properties (scalability, flexibility or pay-per-use). However, they admit to themselves that they do not have the knowledge and time, nor is it their core business to operate IT systems; they instead let the cloud provider take care of this, expecting a flexible type of managed services. Public cloud providers are not prepared for this, because their business is to provide highly standardized infrastructure, platforms, applications and services. The remedy is that the provider secures specially certified system integrators alongside.

Here is an opportunity for providers of business clouds. Cloud providers that do not offer a public cloud model, can on the basis of managed services help the customer find the way to master the cloud and can take over the operations, supplying an “everything from one source” service offer. This typically does not happen on shared infrastructure but within a hosted private cloud or a dedicated cloud where a customer is explicitly in an isolated area. Professional services round off the portfolio with integration, interfaces and development. Due to the exclusivity and higher safety (usually physical isolation), business clouds are more expensive than public clouds. However, considering the effort that a company must make to operate itself in one or another public cloud to actually be successful or in getting the help of a certified system integrator, then the public cloud cost advantage is almost eliminated.

5. Hybrid cloud remains the continuous burner

The hybrid cloud is always a hot topic during the discussions about the future of the cloud. But it is real. Worldwide, the public cloud is initially mainly used to get access to resources and systems easily and conveniently in the short term. In the long run, this will form into a hybrid cloud, by IT departments that bring their own infrastructure to the level of a public cloud (scalability, self-service, etc.) to serve their internal customers. In Germany and Europe, it is exactly the opposite. Here private clouds are preferred, because the topics privacy and data security have a top priority. Europeans must and will get used to the public cloud to connect certain components – even some critical systems – to a public cloud.

The hybrid cloud is about the mobility of the data. This means that the data are rather held locally in an own infrastructure environment, shifted to another cloud for processing, e.g. public cloud, then being placed back within the local infrastructure. This must not always refer to the same cloud of a provider, but depending on the cost, service level and requirements more clouds are involved in the process.

6. Multi-cloud is reality

The topic of multi-cloud is currently highly debated, especially in IaaS context, with the ultimate goal being to spread the risk and take advantage of the costs and benefits of different cloud infrastructures. But even in the SaaS environment the subject must necessarily become of greater importance to avoid data silos and isolated applications in the future, to simplify the integration and to support companies in their adaptation of their best-of-breed strategies.

Notwithstanding these expectations, the multi-cloud use is already reality in companies using multiple cloud solutions from many different vendors, even if the services are not yet (fully) integrated.

Read more: „Multi-Cloud is “The New Normal”„.

7. Mobile cloud finally arrives

Meanwhile, there are providers who have discovered the mobile cloud slogan for their marketing. Much too late. The fact is that, since the introduction of the first smartphones, we are living in a mobile cloud world. The majority of all data and information, which we can access from smartphones and tablets, are no longer on the local device but on a server in the cloud.

Solutions such as Amazon WorkSpaces or Amazon AppStream support this trend. Even if companies are still careful with the outsourcing of desktops, Amazon WorkSpaces will strengthen this trend, from which also vendors such as Citrix and VMware will benefit. Amazon AppStream underlines the mobile cloud to the full extent by graphic-intensive applications and games that are processed entirely in the cloud and only streamed to the device.

Read more: „The importance of mobile and cloud-based ways of working continues to grow„.

8. Hybrid PaaS is the top trend

The importance of platform-as-a-service (PaaS) is steadily increasing. Observations and discussions with vendors that have found no remedy against Amazon AWS in the infrastructure-as-a-service (IaaS) environment so far show that they will expand their pure compute and storage offerings vertically with a PaaS and thus try to win the favor of the developer.

Other trends show that private PaaS and hosted private PaaS try to gain market share. With the Application Lifecycle Engine, cloudControl has enclosed its public PaaS in a private PaaS that enterprises can use to operate an own PaaS in a self-managed infrastructure. In addition, a bridge to a hybrid PaaS can be spanned. IaaS provider Pironet NDH has adapted the Windows Azure Pack from Microsoft to offer on this basis an Azure PaaS in a hosted private environment. This is interesting, since it closes the gap between a public and a private PaaS. With a private PaaS companies have the complete control over the environment, but they also need to build and manage it. Within a hosted version, the provider takes care of it.

9. Partner ecosystems become more important

Public cloud providers should increasingly take care to build a high quality network of partners and ISVs to pave the way for customers to the cloud. This means that the channel should be strongly embraced to address a broader base of customers who are potential candidates for the cloud. However, the channel will struggle with the problem of finding enough well-trained staff for the age of the cloud.

10. Cloud computing becomes easier

In 2014 more offerings will appear on the market, making the use of cloud computing easier. With these offers, the „side issues“ of availability and scalability need to be given less attention. Instead, cloud users can focus on their own core competencies and invest their energy into developing the actual application.

An example: Infrastructure-as-a-service market leader Amazon AWS says that IT departments using the AWS public cloud no longer need to take care about the procurement and maintenance of the necessary physical infrastructure. However, the complexity has shifted to a higher level. Even if numerous tutorials and white papers already exist, AWS does not stress upon the fact that scalability and availability within a scale-out cloud infrastructure can be arbitrarily complicated. These are costs that should never be neglected.

Hint: (Hosted) Community Clouds

I see a growing potential for the community cloud (more in German), which currently has no wide distribution. In this context, I also see a shift from a currently pronounced centralization to a semi-decentralized nature.

Most companies and organizations see in the public cloud a great advantage and want to benefit in order to reduce costs, to consolidate IT and equally get more scalability and flexibility. On the other hand, future-proof, trust, independence and control are important “artifacts” that no one would like to give up.

The community cloud is the medium to achieve both. It combines the future-proof, trust, independency and control characteristics with the benefits of a public cloud that come from a real cloud infrastructure.

Some solutions that can be used as a basis for creating own professional clouds already exist. However, one should always keep close watch on the basic infrastructure that forms the backbone of the entire cloud. In this context, one should not underestimate the effort it takes to build, properly operate and maintain a professional cloud environment. Furthermore, the cost of the required physical resources needs to be calculated.

For this reason, for many small and medium-sized enterprises, as well as shared offices, co-working spaces or regular project partnerships, it makes sense to consider the community cloud. This type of cloud environment will offer the benefits of the public cloud (shared environment) while providing the future-proof, trust, independence and control requirements, alongside cost advantages that can be achieved among others by dynamic resource allocation. For this purpose, one should think about building a team that exclusively takes care of the installation, operations, administration and maintenance of the community cloud. In this case, the availability of own data center or a co-location is not a prerequisite. Instead, an IaaS provider can serve as an ideal partner for a hosted community cloud.

Kategorien
Analysen

Meine Cloud Computing Vorhersagen für 2014

Das Jahr 2013 neigt sich dem Ende und es ist wieder einmal an der Zeit in die Glaskugel für das kommende Jahr zu schauen. Hierzu habe ich mir zehn Themen herausgegriffen von denen ich glaube, dass Sie im Cloud Bereich relevant sein werden.

1. Die AWS vs. OpenStack API Diskussion wird niemals enden

Diese Vorhersage gilt übrigens auch für die Jahre 2015, 2016 usw. Sie hört sich im ersten Moment lustig an. Allerdings nerven diese Diskussionen langsam. OpenStack hat ganz andere Probleme, als sich ständig mit den Amazon Web Services (AWS) vergleichen zu lassen. Zumal die Unruhen, die ständig von außen hinein getragen werden, nicht weiterhelfen. Wenn die OpenStack API zu 100% kompatibel mit der AWS API sein soll, dann kann sich OpenStack gleich in Eucalyptus umbenennen!

Die OpenStack Community muss ihren eigenen Weg finden und es den Service Providern ermöglichen, abseits vom Branchenprimus AWS, eigene Angebote aufbauen zu können. Allerdings liegt diese Mammutaufgabe wiederum nur in den Händen der Anbieter. Schließlich handelt es sich bei OpenStack nur um einen großen Baukasten von Lösungen für den Aufbau von Cloud Computing Infrastrukturen. Was am Ende (Geschäftsmodell) dabei herauskommt, ist nicht die Aufgabe der OpenStack Community.

Mehr unter „Gefangen im goldenen Käfig. OpenStack Provider sitzen in der Falle.

2. Die Sicherheit erhält mehr Gewicht

Unabhängig von dem jüngsten NSA Skandal wurde schon immer die Sicherheit und das Vertrauen von (Public) Cloud Anbietern in Frage gestellt. Dabei sind (Public) Cloud Anbieter sicherheitstechnisch besser aufgestellt, als es die meisten Unternehmen weltweit sein können. Das liegt zum einen an den Ressourcen (Hardware, Software, Rechenzentrum und Personal) die in das Thema Sicherheit investiert werden. Zum anderen aber insbesondere daran, dass es sich dabei um ihr Kerngeschäft handelt, den reibungslosen und sicheren Betrieb sicherzustellen.

Vertrauen ist die Grundlage einer jeden Beziehung. Das gilt sowohl im privaten als auch im geschäftlichen Umfeld. Das hart erarbeitete Vertrauen der letzten Jahre wird derzeit auf die Probe gestellt und die Anbieter tun gut daran, sich weiter zu öffnen. „Security through obscurity“ ist ein veraltetes Konzept. Die Kunden benötigen und wollen mehr Klarheit darüber, was mit ihren Daten passiert. Das wird sich je nach Region der Erde unterscheiden. Aber zumindest in Europa werden die Kunden ihren Anbieter deutlich härter auf die Probe stellen.

Mehr unter „Wie schützen Unternehmen ihre Daten gegen die Überwachung in der Cloud?

3. Die Private Cloud bleibt attraktiv

Die Private Cloud ist finanziell und hinsichtlich der Ressourcenallokation (Skalierbarkeit, Flexibilität) nicht die attraktivste Form der Cloud. Dennoch wird sie, ungeachtet der Prognosen mancher Marktforscher, nicht ihre Bedeutung verlieren. Im Gegenteil, hier wird die Sensibilität der Entscheider trotz des Kostendrucks unterschätzt, welche die Kontrolle und Hoheit über die Daten und Systeme behalten wollen. Das spiegelt sich auch in aktuellen Zahlen von Crisp Research wieder. Demnach wurden in Deutschland im Jahr 2013 nur etwa 210 Millionen Euro für Public Infrastructure-as-a-Service (IaaS) ausgegeben. Hingegen lagen die Investitionen für Private Cloud Infrastrukturen bei 2,3 Milliarden Euro.

Eine aktuelle Studie von Forrester zeigt zudem:

„From […] over 2,300 IT hardware buyers, […] about 55% plan to build an internal private cloud within the next 12 months.“

Das heißt nun nicht, dass Deutschland das Land der Private Clouds werden muss. Schließlich geht es immer um den spezifischen Workload und Use Case, der in einer Private oder Public Cloud abgebildet wird. Es zeigt aber einen deutlichen Trend hin zu einer weiteren Form wie Cloud Computing in Zukunft genutzt wird.

4. Willkommen Hosted Private Cloud

Nachdem ebenfalls Salesforce auf den Zug aufgesprungen ist, wird klar, dass Unternehmenskunden sich mit der Nutzung einer reinen Public Cloud nicht anfreunden können. In Kooperation mit HP hat Salesforce eine dedizierte Variante seiner Cloud Angebote angekündigt – „Salesforce Superpod“.

Dieser extreme Wandel in Salesforce Strategie bestätigt unsere Untersuchung des europäischen Cloud Markts. Unternehmen sind interessiert an Cloud Computing und dessen Eigenschaften (Skalierbarkeit, Flexibilität oder Pay per use). Allerdings gestehen sie sich selbst ein, dass sie nicht über das Wissen und die Zeit verfügen oder es einfach nicht (mehr) zu ihrem Kerngeschäft gehört, IT-Systeme zu betreiben und dies stattdessen von dem Cloud-Anbieter übernehmen lassen. Es geht also um eine flexible Art von Managed Services. Darauf sind Public Cloud Anbieter nicht vorbereitet, da ihr Geschäft darin besteht, hochstandardisierte Infrastrukturen, Plattformen, Applikationen und Services bereitzustellen.

Hier besteht die Chance für Anbieter von Business Clouds. Also Cloud Anbieter, die kein Public Cloud Modell fahren, sondern anhand von Managed Services den Kunden dabei helfen, den Weg in die Cloud zu meistern und den Betrieb übernehmen und damit einen „Alles aus einer Hand“ Service bieten. Das erfolgt im Normalfall nicht auf einer Shared-Infrastructure sondern innerhalb einer Hosted Private Cloud bzw. einer Dedicated Cloud bei der sich ein Kunde explizit in einem isolierten Bereich befindet. Professional Services runden das Portfolio ab, die bei der Integration, Schnittstellen und der Weiterentwicklung helfen. Business Clouds sind auf Grund dieser Serviceleistungen, Exklusivität und höherer Sicherheit (in der Regel physikalische Isolation) teurer als Public Clouds. Betrachtet man jedoch den Aufwand, den man als Unternehmen selbst in der einen oder anderen Public Cloud betreiben muss, um tatsächlich erfolgreich zu sein oder sich Hilfe von einem der zertifizierten Systemintegratoren holt, dann ist der Kostenvorteil meist eliminiert.

5. Die Hybrid Cloud bleibt der Dauerbrenner

Die Hybrid Cloud ist ein Dauerbrenner während der Diskussionen um die Zukunft der Cloud. Aber sie ist real. International wird die die Public Cloud zunächst überwiegend eingesetzt, um kurzfristig auf Ressourcen und Systeme ohne großen Aufwand und bequem Zugriff zu erhalten. Langfristig betrachtet wird sich dies in eine Hybrid Cloud formen, indem IT-Abteilungen auch ihre eigenen Infrastrukturen auf das Level einer Public Cloud (Skalierbarkeit, Self-Service, usw.) bringen, um ihre internen Kunden zu versorgen. In Deutschland und Europa ist es genau umgekehrt. Hier wird bevorzugt auf Private Clouds gesetzt, da die Themen Datenschutz und Datensicherheit höchste Priorität besitzen. Europäer müssen und werden sich erst an die Public Cloud gewöhnen, um gewisse Teile – zum Teil auch kritischere Systeme – mit einer Public Cloud zu verbinden oder teilweise darin auszulagern.

Grundsätzlich wird es bei der Hybrid Cloud verstärkt um die Beweglichkeit der Daten gehen. Das bedeutet, dass die Daten eher lokal in einer eigenen Infrastruktur gehalten werden und für die Verarbeitung in eine andere Cloud, z.B. Public Cloud, verschoben wird, um anschließend wieder innerhalb der lokalen Infrastruktur abgelegt zu werden. Dabei muss es sich nicht immer wieder um dieselbe Cloud eines Anbieters handeln, sondern je nach Kosten, Service Level und Anforderungen mehrere Clouds betreffen.

6. Die Multi Cloud ist Realität

Das Thema Multi-Cloud wird derzeit insbesondere im IaaS-Umfeld stark diskutiert, um das Risiko zu streuen und die Kosten und Leistungen unterschiedlicher Cloud-Infrastrukturen optimal ausnutzen zu können. Aber ebenfalls im SaaS-Umfeld muss das Thema unbedingt eine höhere Bedeutung zugesprochen werden, um Daten- und Insellösungen in Zukunft zu vermeiden, die Integration zu vereinfachen und Unternehmen bei ihrer Adaption ihrer Best-of-Breed Strategie zu unterstützen.

Ungeachtet diesen Erwartungen ist der Multi-Cloud Einsatz bereits Realität, indem Unternehmen mehrere Cloud Lösungen von vielen unterschiedlichen Anbietern einsetzen, auch wenn diese noch nicht (vollständig) miteinander integriert sind.

Mehr unter „Wir leben bereits in einer Multi-Cloud getriebenen Welt„.

7. Die Mobile Cloud kommt endgültig an

Mittlerweile gibt es Anbieter, die den Mobile Cloud Claim für ihr Marketing entdeckt haben. Viel zu spät. Tatsache ist, dass wir seit der Einführung der ersten Smartphones in einer Mobile Cloud Welt leben. Der Großteil aller Daten und Informationen, auf die wir von Smartphones und Tablets zugreifen, befinden sich nicht mehr auf dem lokalen Endgerät sondern auf einem Server in der Cloud.

Lösungen wie Amazon WorkSpaces oder Amazon AppStream unterstützen diesen Trend. Auch wenn Unternehmen noch vorsichtig mit dem Auslagern von Desktops sind, wird Amazon WorkSpaces diesen Trend stärken, wovon auch Anbieter wie Citrix und VMware profitieren werden. Amazon AppStream unterstreicht die Mobile Cloud im vollen Umfang, indem graphikintensive Anwendungen und Spiele vollständig in der Cloud verarbeitet und nur auf das Endgerät gestreamed werden.

Mehr unter „Die Mobile Cloud ist der wahre Megatrend“ und „Die Bedeutung von mobilen und cloud-basierten Arbeitsweisen wächst stetig„.

8. Hybrid PaaS ist der Top-Trend

Die Bedeutung von Platform-as-a-Services (PaaS) nimmt stetig zu. Beobachtungen und Gespräche mit Anbietern, die bisher kein Mittel gegen Amazon AWS im Infrastructure-as-a-Service (IaaS) Umfeld gefunden haben, zeigen, dass diese ihre reinen Compute und Storage Angebote vertikal um einen PaaS erweitern werden und damit versuchen, die Gunst der Entwickler zu gewinnen.

Andere Trends zeigen, dass Private PaaS bzw. Hosted Private PaaS versuchen Marktanteile zu gewinnen. cloudControl hat mit der Application Lifecycle Engine seinen Public PaaS in einen Private PaaS gekapselt, mit dem Unternehmen einen eigenen PaaS in einer selbstverwalteten Infrastruktur betreiben können. Zusätzlich lässt sich eine Brücke zu einem Hybrid PaaS aufspannen. IaaS Anbieter Pironet NDH hat das Windows Azure Pack von Microsoft adaptiert, um auf dieser Basis einen Azure PaaS innerhalb einer gehosteten privaten Umgebung anzubieten. Das ist aus diesem Grund interessant, da hiermit die Lücke zwischen einem Public und einen Private PaaS geschlossen wird. Mit einem Private PaaS haben Unternehmen zwar wieder vollständige Kontrolle über die Umgebung, müssen diese aber ebenfalls aufbauen und verwalten. Innerhalb einer gehosteten Variante sorgt der Anbieter dafür.

9. Partner Ökosysteme werden wichtiger

Public Cloud Anbieter sollten sich verstärkt darum kümmern, ein hochqualitatives Netzwerk von Partnern und ISVs aufzubauen, um Kunden den Weg in die Cloud zu ebnen. Das bedeutet, dass der Channel verstärkt in Anspruch genommen werden sollte, um auf eine breite Basis von Kunden zu treffen, die potentielle Kandidaten für die Cloud sind. Der Channel wird jedoch mit dem Problem kämpfen, ausreichend gut ausgebildete Mitarbeiter für das Zeitalter der Cloud zu finden.

10. Cloud Computing wird einfacher

In 2014 werden Angebote auf dem Markt erscheinen, welche die Nutzung des Cloud Computing einfacher machen. Bei diesen Angeboten muss den „Randthemen“ der Verfügbarkeit und Skalierbarkeit weniger Beachtung gewidmet werden. Stattdessen können sich Cloud Nutzer auf ihre tatsächlichen Kernkompetenzen konzentrieren und ihre Energie in die Entwicklung der eigentlichen Applikation investieren.

Ein Beispiel: Infrastructure-as-a-Service Marktführer Amazon AWS sagt zwar, dass sich IT-Abteilungen durch die Nutzung der AWS Public Cloud nicht mehr um die Beschaffung und Wartung der notwendigen physikalischen Infrastruktur kümmern müssen. Stattdessen verlagert sich die Komplexität jedoch eine Ebene höher. Auch wenn mittlerweile zahlreiche Tutorials und Whitepaper existieren, spricht AWS öffentlich nicht aussagekräftig darüber, dass Skalierbarkeit und Verfügbarkeit innerhalb einer Scale-out Cloud Infrastruktur beliebig kompliziert werden kann. Das sind Kosten die niemals vernachlässigt werden dürfen.

Ein Tipp: (Hosted) Community Clouds

Ich sehe ein wachsendes Potential für die Community Cloud (MEHR HIER), die derzeit noch keine große Verbreitung hat. In diesem Zusammenhang sehe ich zudem einen Wechsel von einer zurzeit stark ausgeprägten Zentralität zu einer Semi-Dezentralität.

Die meisten Unternehmen und Organisationen sehen in der Public Cloud einen großen Vorteil und wollen in ihren Genuss kommen, um Kosten zu reduzieren, ihre IT zu konsolidieren und gleichermaßen mehr Skalierbarkeit und Flexibilität erhalten. Auf der anderen Seite sind Zukunftssicherheit, Vertrauen, Unabhängigkeit und Kontrolle wichtige Artefakte, die niemand gerne aufgeben möchte.

Die Community Cloud ist der Mittelweg, um beides zu erreichen. Zukunftssicherheit, Vertrauen, Unabhängigkeit und Kontrolle durch den Einfluss, was in der Community Cloud passiert und die Vorteile einer Public Cloud, durch das Partizipieren von einer echten Cloud Infrastruktur.

Es stehen mittlerweile einige Lösungen bereit, die als Basis für die eigene professionelle Cloud genutzt werden können. Dabei sollte man jedoch immer ein Auge auf die grundlegende Infrastruktur richten, die das Rückgrat der gesamten Cloud bildet. In diesem Zusammenhang darf man auch nicht den Aufwand unterschätzen, den es bedeutet, eine professionelle Cloud-Umgebung aufzubauen, ordnungsgemäß zu betreiben und zu warten. Weiterhin sind die Kosten für die notwendigen physikalischen Ressourcen zu kalkulieren.

Aus diesem Grund macht es für viele kleinere und mittlere Unternehmen, aber auch Bürogemeinschaften, Co-Working Spaces oder regelmäßige Projektpartnerschaften Sinn, den Community Cloud Gedanken in Betracht zu ziehen, um in den Genuss der Public Cloud (Shared Umgebung) zu kommen aber weiterhin Einfluss auf die Zukunftssicherheit, das Vertrauen, die Unabhängigkeit und Kontrolle der Umgebung zu haben und Kostenvorteile u.a. durch Ressourcenallokation zu erzielen. Hierzu sollte man sich zudem überlegen, ein Team aufzubauen, dass sich exklusiv um den Aufbau, Betrieb, die Administration und Wartung der Community Cloud kümmert. Dafür ist kein eigenes Rechenzentrum oder eine Co-Location erforderlich. Ein IaaS-Anbieter kann dazu als ideale Basis für eine Hosted Community Cloud dienen.

Kategorien
Analysis

Criteria for selecting a cloud storage provider

Who is searching for secure and enterprise ready options for Dropbox should have a closer look to the vendors. The quest for a cloud storage vendor depends in most cases on the individual requirements. These decision makers previously need to debate and define. In particular, this includes classifying the data. Here is defined which data is stored in the cloud and which is still located in an own on premise infrastructure. During the selection of a cloud storage vendor companies should regard the following characteristics.

Configuration and integration

The storage service should be able to integrate in existing or further cloud infrastructure in a simple manner. Thus users are empowered to expand the existing storage through a hybrid scenario cost-efficient. In addition, data can be migrated from the local storage into the cloud in a self-defined period. This leads to the option to disclaim an own storage system for specific data in the long run. It is the same with the straightforward and seamless export of data from the cloud that needs to be ensured.

A further characteristic is the interaction of the cloud service with internal systems like directory services (Active Directory or LDAP) for a centralized collection of data providing to applications. For an easy and holistic administration of user access to the storage resources this characteristic is mandatory. For this, the vendor should provide an open and well documented API to realize the integration. Alternatively he can also deliver a native software.

Platform independence to access data from everywhere

The mobility for the employees become more and more important. For companies it is of vital importance to appoint their working habits and deliver appropriate solutions.

In the best case the cloud provider should enable a platform independent access to the data by providing applications for all common mobile and local operating systems as well as an access over a web interface.

Separation of sensitive and public data

To give employees data access over mobile and web applications further security mechanisms like DMZs (demilitarized zone) and right controls on granular file level are necessary. A cloud storage provider should have functions to separate data with a higher security demand from public data. Companies who want to provide the data from an own infrastructure need to invest in further security systems or find a vendor who has integrated these type of security.

Connection to external cloud services

A cloud storage can be used as a common and consistent data base for various cloud services to integrate services like software-as-a-service (SaaS) or platform-as-a-service (PaaS). The cloud storage serves as a central storage. For this purpose the vendor needs to provide an open API to realize the connectivity.

Cloud storage – Eco- and partner system

Especially for storage vendors who exclusively dispose cloud solutions, a big ecosystem of applications and services is attractive and important to expand the storage service with further value added functions. This includes, for example, an external word processor to edit documents within the storage with multiple colleagues.

Size of the vendor – national and international

The track record is the most important evidence for the past success giving a statement about the popularity based on well-known customer and succeeded projects. This aspect can be considered for a national as well as an international footprint. Besides its available capacity and therefore its technology size, for a cloud storage vendor the international scope is also vital importance. If a company wants to enable its worldwide employees to access a central cloud storage, but decides for a vendor who just have data centers in the US or Europe, not only the latency can lead to problems. Insofar the scalability regarding the storage size as well as the scope are a crucial criteria.

In addition, it is interesting to look at the vendor’s roadmap: What kind of changes and enhancements are planned for the future? Are these enhancements interesting for the customer compared to another potential vendor who does not consider this?

Financial background

A good track record is not the only reason while choosing a vendor. Not least the drama of smashup storage vendor Nirvanix has shown that the financial background must be considered. Especially during the risk assessment a company should take a look on the vendor’s current financial situation.

Location and place of jurisdiction

The location where the company data is stored becomes more and more important. The demand for the physical storage of the data in the own country increasingly rises. This is not a German phenomenon. Even the French, Spain or Portuguese expect their data stored in a data center in the own country. (http://research.gigaom.com/report/the-state-of-europes-homegrown-cloud-market/) The Czechs prefer a data center in Austria instead of Germany. More relaxed are the Netherlands on this topic. Thereby the local storage of the data is basically not a guarantee for the legal compliance of the data. However, it becomes easier to apply local laws.

Most of the US vendor cannot fulfill a physical locality of the data in each European country. The data centers are either located in Dublin (Ireland) or Amsterdam (Netherlands) and just comply with European law. Although many vendors joined Safe Harbor which allows to legally transfer personal data into the US. However, it is just a pure self-certification that based on the NSA scandal is challenged by the Independent Regional Centre for Data Protection of Schleswig-Holstein (Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein (ULD)).

Cloud storage – Security

Regarding the topic of security it is mostly all about trust. This, a vendor only achieves with openness. He needs to show his hands to his customers technologically. Especially IT vendors are often criticize when it’s about talking on their proprietary security protocols. Mostly the critics are with good cause. But there are also vendors who willingly talk about it. These companies need to be find. Besides the subjective topic of trust it is in particular about the implemented security which is playing a leading role. Here it’s important to look on the current encryption mechanism a vendors is using. This includes: Advanced Encryption Standard – AES 256 for encrypting the data, Diffie-Hellman and RSA 3072 for key exchange.

Even the importance of the end-to-end encryption of the whole communication rises. This means, that the whole process a user is running through the solution, from the starting point until the end, is completely encrypted. This includes among others: The user registration, the login, the data transfer (send/ receive), the transfer of the key pairs (public/ private key), the storage location on the server, the storage location of the local device as well as the session while a document is edit. In this context it is to advise against separate tools who try to encrypt a non-secure storage. Security and encryption is not a feature, but rather a main function and belongs into the field of activity of the storage vendor. He has to ensure a high integrated security and a good usability at once.

In this context it is also important that the private key for accessing the data and systems is exclusively in the hands of the user. It also should be stored encrypted on the user’s local system. The vendor should have no capabilities to restore this private key. He should never be able to access the stored data. Note: There are cloud storage vendors that are able to restore the private key and are also able to access the user’s data.

Certification for the cloud

Certifications are a further attribute for the quality of storage vendors. Besides the standards like ISO 27001, with which the security of information and IT environments are rated, there also exist national and international certificates by approved certification centers.

These independent and professional certificates are necessary to get an honest statement on the quality and characteristic of a cloud service, the vendor and all down streamed processes like security, infrastructure, availability, etc. Depending on how good the process and the auditor is, a certification can also lead to an improvement of the product, by the auditor proactively gives advices for security and further functionality.

Kategorien
Analysen

Kriterien zur Auswahl eines Cloud Storage Anbieter

Die Suche nach einem Cloud-Storage-Anbieter hängt in den meisten Fällen mit den individuellen Anforderungen zusammen, die der Service erfüllen soll. Diese müssen Entscheider im Vorfeld erörtern und festlegen. Dazu gehört vor allem die Klassifizierung der Daten. Dabei wird definiert, welche Daten in der Cloud und welche in der eigenen On-premise-Infrastruktur gespeichert werden.

Dieser Artikel ist exklusiv im IDG-Netzwerk erschienen und kann unter „Wenn Dropbox die falsche Lösung ist: Cloud Storage – wie Sie den richtigen Anbieter finden“ gelesen werden.

Kategorien
Analysis

The Amazon Web Services to grab at the enterprise IT. A reality check.

The AWS re:Invent 2013 is over and the Amazon Web Services (AWS) continue to reach out to the corporate clients with some new services. After AWS has established itself as a leading infrastructure provider and enabler for startups and new business models in the cloud, the company from Seattle tries to get one foot directly into the lucrative business environment for quite some time. Current public cloud market figures for 2017 from IDC ($107 billion) and Gartner ($244 billion) to give AWS tailwind and encourage the IaaS market leader in its pure public cloud strategy.

The new services

With Amazon WorkSpaces, Amazon AppStream, AWS CloudTrail and Amazon Kinesis, Amazon introduced some interesting new services, which in particular address enterprises.

Amazon WorkSpaces

Amazon WorkSpaces is a service which provides virtual desktops based on Microsoft Windows, to build an own virtual desktop infrastructure (VDI) within the Amazon Cloud. As basis a Windows Server 2008 R2 is used, which rolls out desktops with a Windows 7 environment. All services and applications are streamed from Amazon data centers to the corresponding devices, for what the PCoIP (PC over IP) by Teradici is used. It may be desktop PCs, laptops, smartphones or tablets. In addition, Amazon WorkSpaces can be combined with a Microsoft Active Directory, what simplifies the user management. By default, the desktops are delivered with familiar applications such as Firefox or Adobe Reader/ Flash. This can be adjusted as desired by the administrators.

With Amazon WorkSpaces Amazon enters a completely new territory in which Citrix and VMware, two absolute market players, already waiting. During VMworld in Barcelona, VMware just announced the acquisition of Desktone. VDI is basically a very exciting market segment because it redeemed the corporate IT administration tasks and reduces infrastructure costs. However, this is a very young market segment. Companies are also very careful when outsourcing their desktops as, different from the traditional on-premise terminal services, the bandwidth (network, Internet, data connection) is crucial.

Amazon AppStream

Amazon AppStream is a service that serves as a central backend for graphically extensive applications. With that, the actual performance of the device on which the applications are used, should no longer play a role, since all inputs and outputs are processed within the Amazon Cloud.

Since the power of the devices is likely to be more increasingly in the future, the local power can probably be disregarded. However, for the construction of a real mobile cloud, in which all the data and information are located in the cloud and the devices are only used as consumers, the service is quite interesting. Furthermore, the combination with Amazon WorkSpaces should be considered, to provide applications on devices that serve only as thin clients and require no further local intelligence and performance.

AWS CloudTrail

AWS CloudTrail helps to monitor and record the AWS API calls for one or more accounts. Here, calls from the AWS Management Console, the AWS Command Line Interface (CLI), own applications or third party applications are considered. The collected data are stored either in Amazon S3 or Amazon Glacier for evaluation and can be viewed via the AWS Management Console, the AWS Command Line Interface or third-party tools. At the moment, only Amazon EC2, Amazon ECS, Amazon RDS and Amazon IAM can be monitored. Amazon CloudTrail can be used free of charge. Costs incurred for storing the data to Amazon S3 and Amazon Glacier and for Amazon SNS notifications.

AWS CloudTrial belongs, even if it is not very exciting (logging), to the most important services for enterprise customers that Amazon has released lately. The collected logs assist during compliance by allowing to record all accesses to AWS services and thus demonstrate the compliance of government regulations. It is the same with security audits, which thus allow to comprehend vulnerabilities and unauthorized or erroneous data access. Amazon is well advised to expand AWS CloudTrail as soon as possible for all the other AWS services and make them available worldwide for all regions. In particular, the Europeans will be thankful.

Amazon Kinesis

Amazon Kinesis is a service for real-time processing of large data streams. To this end, Kinesis is able to process data streams of any size from a variety of sources. Amazon Kinesis is controlled via the AWS Management Console by assigning and saving different data streams to an application. Due to Amazon’s massive scalability there are no capacity limitations. However, the data are automatically distributed to the global Amazon data centers. Use cases for Kinesis are the usual suspects: Financial data, social media and data from the Internet of Things/ Everything (sensors, machines, etc.).

The real benefit of Kinesis, as big data solution, is the real-time processing of data. Common standard solutions on the market process the data via batch. Means the data can never be processed direct in time and at most a few minutes later. Kinesis removes this barrier and allows new possibilities for the analysis of live data.

Challenges: Public Cloud, Complexity, Self-Service, „Lock-in“

Looking at the current AWS references, the quantity and quality is impressive. Looking more closely, the top references are still startups, non-critical workloads or completely new developments that are processed. This means that most of the existing IT systems, we are talking about, are still not located in the cloud. Besides the concerns of loss of control and compliance issues, this depends on the fact that the scale-out principle makes it to complicated for businesses to migrate their applications and systems into the AWS cloud. In the end it boils down to the fact, that they have to start from scratch, because a non-distributed developed system is not working the way it should run on a distributed cloud infrastructure – key words: scalability, high availability, multi-AZ. These are costs that should not be underestimated. This means that even the migration of a supposedly simple webshop is a challenge for companies that do not have the time and the necessary cloud knowledge to develop the webshop for the (scale-out) cloud infrastructure.

In addition, the scalability and availability of an application can only be properly realized on the AWS cloud when you stick to the services and APIs that guarantee this. Furthermore, many other infrastructure-related services are available and are constantly being published, which make life clearly easier for the developer. Thus the lock-in is preprogrammed. Although I am of the opinion that a lock-in must not be bad, as long as the provider meets the desired requirements. However, a company should consider in advance whether these services are actually needed mandatory. Virtual machines and standard workloads are relatively easy to move. For services that are very close engaged into the own application architecture, it looks quite different.

Finally. Even if some market researchers predict a golden future for the public cloud, the figures should be taken with a pinch of salt. Cloud market figures are revised downwards for years. You also have to consider in each case how these numbers are actually composed. But that is not the issue here. At the end of the day it’s about what the customer wants. At re:Invent Andy Jassy once again made ​​clear that Amazon AWS is consistently rely on the public cloud and will not invest in own private cloud solutions. You can interpret this as arrogance and ignorance towards customers, the pure will to disruption or just self-affirmation. The fact is, even if Amazon will probably build the private cloud for the CIA, they have not the resources and knowledge by far to act as a software provider on the market. Amazon AWS is a service provider. However, with Eucalyptus they have set up a powerful ally on the private cloud side, which makes it possible to build an AWS-like cloud infrastructure in the own data center

Note: Nearly all Eucalyptus customers should also be AWS customers (source: Eucalyptus). This means conversely, that some hybrid cloud infrastructures exist between on-premise Eucalyptus infrastructures and the Amazon public cloud.

Advantages: AWS Marketplace, Ecosystem, Enabler, Innovation Driver

What is mostly ignored during the discussions about Amazon AWS and corporate customers is the AWS Marketplace. In addition, Amazon also does not advertised it too much. Compared to the cloud infrastructure, customers can use to develop their own solutions, the marketplace offers full-featured software solutions from partners (eg SAP), which can be automatically rolled out on the AWS infrastructure. The cost of using the software are charged per use (hour or month). In addition, the AWS fees for the necessary infrastructure are charged. Herein lies the real added value for companies to easily outsource their existing standard systems to the cloud and to separate from the on-premise systems.

One must therefore distinguish strictly between the use of infrastructure for in-house development and operation of ready-made solutions. Both are possible in the Amazon cloud. There is also the ecosystem of partners and system integrators which help AWS customers to develop their solutions. Because, even if AWS itself is (currently still) a pure infrastructure provider, they must equally be understood as a platform for other providers and partners who operate their businesses on it. This is also the key success and advantage over other providers in the market and will increase the long-term attractiveness of corporate customers.

In addition, Amazon is the absolute driving force for innovation in the cloud, no other cloud provider technologically is able to reach at the moment. For this purpose, it does not require re:Invent. Instead, it shows almost every month anew.

Amazon AWS is – partly – suitable for enterprise IT

Depending on the country and use case the requirements vary, Amazon has to meet. European customers are mostly cautious with the data management and store the data rather in their own country. I already met with more than one customer, who was technically confident but storing the data in Ireland was not an option. In some cases it is also the lack of ease of use. This means that a company dones’t want to (re)-develop its existing application or website for the Amazon infrastructure. Reasons are the lack of time and the knowledge to implement, what may results in a longer time to market. Both can be attributed to the complexity to achieve scalability and availability at the Amazon Web Services. After all, there are not just a few API calls. Instead, the entire architecture needs to be oriented on the AWS cloud. In Amazon’s case its about the horizontal scaling (scale-out) which makes this necessary. Instead, companies prefer vertical scaling (scale-up) to migrate the existing system 1:1 and not to start from scratch, but directly achieve success in the cloud.

However, the AWS references also show that sufficient use cases for companies exist in the public cloud in which the data storage can be considered rather uncritical, as long as the data are classified before and then stored in an encrypted way.

Analysts colleague Larry Carvalho has talked with a few AWS enterprise customers at re:Invent. One customer has implemented a hosted website on AWS for less than $7,000, for what an other system integrator wanted to charge $ 70,000. Another customer has calculated that he would pay for an on-premise business intelligence solution including maintenance about $200,000 per year. On Amazon AWS he only pays $10,000 per year. On the one hand these examples show that AWS is an enabler. However, on the other hand, that security concerns in some cases are yield to cost savings.

Kategorien
Analysen

Die Amazon Web Services greifen nach der Enterprise IT. Ein Realitätscheck.

Die AWS re:Invent 2013 ist vorbei und die Amazon Web Services (AWS) haben mit einigen neuen Services begonnen, die Hände weiter nach den Unternehmenskunden auszustrecken. Nachdem sich AWS als führender Infrastrukturanbieter und Enabler für Startups und neue Geschäftsmodelle in der Cloud etabliert hat, versucht das Unternehmen aus Seattle schon seit geraumer Zeit einen Fuß direkt in das lukrative Unternehmensumfeld zu bekommen. Aktuelle Public Cloud Marktzahlen für das Jahr 2017 von IDC (107 Milliarden Dollar) und Gartner (244 Milliarden Dollar) geben AWS Rückenwind und bestärken den IaaS Marktführer in seiner reinen Public Cloud Strategie.

Die neuen Services

Mit Amazon WorkSpaces, Amazon AppStream, AWS CloudTrail und Amazon Kinesis hat Amazon interessante neue Services präsentiert, die insbesondere Unternehmenskunden adressieren.

Amazon WorkSpaces

Amazon WorkSpaces ist ein Service, der virtuelle Desktops auf Basis von Microsoft Windows bereitstellt, mit dem sich eine eigene Virtual Desktop Infrastructure (VDI) innerhalb der Amazon Cloud aufbauen lässt. Als Basis kommt der Windows Server 2008 R2 zum Einsatz, der Desktops mit einer Windows 7 Oberfläche ausrollt. Alle Services und Applikationen werden aus Amazon Rechenzentren auf die entsprechenden Endgeräte gestreamt, wobei das PCoIP (PC over IP) von Teradici zum Einsatz kommt. Dabei kann es sich um Desktop-PCs, Notebooks, Smartphones oder Tablets handeln. Zudem lässt sich Amazon WorkSpaces mit einer Microsoft Active Directory kombinieren, was die Benutzerverwaltung vereinfacht. Standardmäßig werden die Desktops mit bekannten Anwendungen wie Firefox oder Adobe Reader/ Flash ausgeliefert. Dies lässt sich von den Administratoren beliebig anpassen.

Mit Amazon WorkSpaces betritt Amazon völlig neues Terrain, in welchem mit Citrix und VMware bereits zwei absolute Marktgrößen warten. VMware hatte erst während der VMworld in Barcelona die Übernahme von Desktone bekanntgegeben. VDI ist grundsätzlich ein sehr spannendes Marktsegment, da es die Unternehmens-IT von Administrationsaufgaben erlöst und Infrastrukturkosten reduziert. Allerdings handelt es sich hierbei um ein noch sehr junges Marktsegment. Unternehmen sind zudem noch sehr vorsichtig bei der Auslagerung ihrer Desktops, da anders als bei klassischen on-Premise Terminal Services, die Bandbreite (Netzwerk, Internet, Datenverbindung) von entscheidender Bedeutung ist.

Amazon AppStream

Amazon AppStream ist ein Service, der als ein zentrales Backend für graphisch umfangreiche Applikationen dient. Damit soll die eigentliche Leistung des Endgeräts, auf dem die Applikationen genutzt werden, keine Rolle mehr spielen, da sämtliche Ein- und Ausgaben innerhalb der Amazon Cloud verarbeitet werden.

Da die Leistung der Endgeräte in Zukunft wahrscheinlich eher noch mehr zunehmend wird, muss die lokale Leistung vermutlich nicht berücksichtigt werden. Allerdings ist der Service für den Aufbau einer echten Mobile Cloud, bei der sich sämtliche Daten und Informationen in der Cloud befinden und die Geräte lediglich als Konsumenten genutzt werden, durchaus interessant. Weiterhin ist die Kombination mit Amazon WorkSpaces zu betrachten, um Applikationen auf Endgeräte bereitzustellen, die lediglich als ThinClients dienen und keine weitere lokale Intelligenz und Leistung benötigen.

AWS CloudTrail

AWS CloudTrail hilft beim Überwachen und Aufzeichnen der AWS API Aufrufe von einem oder mehrerer Accounts. Dabei werden Aufrufe über die AWS Management Console, dem AWS Command Line Interface (CLI), von eigenen Anwendungen oder Anwendungen von Drittanbietern berücksichtigt. Die erhobenen Daten werden entweder in Amazon S3 oder Amazon Glacier zur Auswertung gespeichert und lassen sich über die AWS Management Console, dem AWS Command Line Interface oder Tools von Drittanbietern betrachten. Derzeit lassen sich nur Amazon EC2, Amazon ECS, Amazon RDS und Amazon IAM überwachen. Amazon CloudTrail kann kostenlos genutzt werden. Kosten entstehen für das Speichern der Daten auf Amazon S3 und Amazon Glacier sowie für die Benachrichtigungen über Amazon SNS.

AWS CloudTrial gehört, auch wenn er nicht sehr spannend ist (Logging), zu den wichtigsten Services für Unternehmenskunden, die Amazon in letzter Zeit veröffentlicht hat. Die gesammelten Logdateien helfen bei der Compliance, indem sie sämtliche Zugriffe auf AWS Services aufzeichnen und damit das Einhalten von gesetzlichen Rahmenbedingungen nachweisen können. Ebenso verhält es sich mit Sicherheitsaudits, bei denen sich damit Sicherheitslücken und unberechtigte oder fehlerhafte Zugriffe auf Daten nachvollziehen lassen. Amazon ist gut beraten, AWS CloudTrail schnellstmöglich über alle weiteren AWS Services zu erweitern und für sämtliche Regionen weltweit verfügbar zu machen. Insbesondere die Europäer werden es danken.

Amazon Kinesis

Amazon Kinesis ist ein Service zur Echtzeitverarbeitung von großen Datenströmen. Hierzu ist Kinesis in der Lage Datenströme beliebiger Größe aus einer Vielzahl unterschiedlicher Quellen zu verarbeiten. Die Steuerung erfolgt aus der AWS Management Console, indem sich einer Anwendung unterschiedliche Datenströme zuweisen und darüber speichern lassen. Auf Grund von Amazons massiver Skalierbarkeit bestehen keine Kapazitätsbegrenzungen. Allerdings werden die Daten automatisch auf die weltweiten Amazon Rechenzentren verteilt. Als Use Cases für Kinesis gelten die üblichen Verdächtigen: Finanzdaten, Social Media sowie Daten aus dem Internet of Things/ Everything (Sensoren, Maschinen usw.).

Der eigentliche Vorteil von Kinesis, als Big Data Lösung, besteht in der Echtzeitverarbeitung von Daten. Gängige Standard-Lösungen am Markt verarbeiten die Daten via Batch, wodurch die Daten niemals zum direkten Zeitpunkt, sondern maximal ein paar Minuten später verarbeitet werden können. Kinesis hebt diese Barriere auf und ermöglicht neue Möglichkeiten zur Auswertung von Live-Daten.

Herausforderungen: Public Cloud, Komplexität, Self-Service, „Lock-in“

Schaut man auf die aktuellen AWS Referenzen, ist die Quantität als auch die Qualität beeindruckend. Schaut man genauer hin, handelt es sich bei den Top-Referenzen allerdings weiterhin um Startups, unkritische Workloads oder komplett neue Entwicklungen die dort verarbeitet werden. Das bedeutet, dass die meisten bestehenden IT-Systeme, um die es tatsächlich geht, sich noch gar nicht in der Cloud befinden. Das hängt neben den Bedenken vor dem Kontrollverlust und Compliance Themen damit zusammen, dass das Scale-out Prinzip es für Unternehmen beliebig kompliziert macht, ihre Anwendungen und Systeme in die AWS-Cloud zu migrieren. Am Ende läuft es darauf hinaus, dass sie von Vorne beginnen müssen, da ein nicht verteilt entwickeltes System nicht so funktioniert, wie es auf einer verteilten Cloud Infrastruktur laufen sollte – Stichworte: Skalierbarkeit, Hochverfügbarkeit, Multi-AZ. Das sind Kosten die nicht unterschätzt werden sollten. Das führt dazu, dass selbst die Migration eines vermeintlich einfachen Webshops zu Herausforderungen für Unternehmen werden, die nicht über die Zeit und das notwendige Cloud-Wissen verfügen, um den Webshop für die (Scale-out) Cloud Infrastruktur neu zu entwickeln.

Hinzu kommt, dass sich die Skalierbarkeit und Verfügbarkeit einer Applikation auf der AWS Cloud nur sauber realisieren lässt, wenn man sich an die Services und APIs hält, mit denen dies sichergestellt wird. Weiterhin stehen viele weitere infrastrukturnahe Services zur Verfügung bzw. werden ständig veröffentlicht, die das Leben für den Entwickler sichtlich einfacher machen. Der Lock-in ist damit vorprogrammiert. Zwar bin ich auf dem Standpunkt, dass ein Lock-in nichts Schlechtes sein muss, solange der Anbieter die gewünschten Anforderungen erfüllt. Dennoch sollte sich ein Unternehmen vorher überlegen, ob diese Services tatsächlich zwingend benötigt werden. Virtuelle Maschinen und Standard-Workloads lassen sich relativ einfach umziehen. Bei Services, die sehr nah in die eigene Applikationsarchitektur eingreifen, sieht es anders aus.

Zum Schluss. Auch wenn einige Marktforscher der Public Cloud eine goldende Zukunft prophezeien, sollte man die Zahlen nicht zu sehr auf die Goldwaage legen. Cloud Marktzahlen werden schon seit Jahren immer mal wieder nach unten korrigiert. Außerdem muss man im Einzelfall betrachten, wie sich diese Zahlen tatsächlich zusammensetzen. Aber darum geht es hier nicht. Am Ende des Tages geht es darum, was der Kunde will. Andy Jassy hat auf der re:Invent noch einmal deutlich gemacht, dass Amazon AWS konsequent auf die Public Cloud setzen wird und in keine eigenen Private Cloud Lösungen investieren wird. Man kann dies nun als Arroganz und Ignoranz gegenüber den Kunden, dem puren Willen nach Disruption oder einfach nur Selbstbestätigung interpretieren. Fakt ist, auch wenn Amazon wohl die Private Cloud für die CIA bauen wird, haben sie bei weitem nicht die Ressourcen und Kenntnisse, um als Softwareanbieter am Markt aufzutreten. Amazon AWS ist ein Service-Anbieter. Allerdings haben sie mit Eucalyptus einen starken Verbündeten auf der Private Cloud Seite, der es ermöglicht eine AWS-ähnliche Cloud Infrastruktur im eigenen Rechenzentrum aufzubauen.

Anmerkung hierzu: Nahezu alle Eucalyptus Kunden sollen ebenfalls AWS Kunden sein (Quelle: Eucalyptus). Das bedeutet im Umkehrschluss, dass einige Hybrid Cloud Infrastrukturen zwischen on-Premise Eucalyptus Infrastrukturen und der Amazon Public Cloud bestehen.

Vorteile: AWS Marketplace, Ökosystem, Enabler, Innovationstreiber

Was bei den ganzen Diskussionen um Amazon AWS und Unternehmenskunden leider immer wieder kläglich vergessen und auch von Amazon viel zu wenig beworben wird, ist der AWS Marketplace. Im Vergleich zu der Cloud Infrastruktur, die Kunden nutzen können, um eigene Lösungen zu entwickeln, bietet der Marketplace voll funktionsfähige Softwarelösungen von Partnern (z.B. SAP), die auf der AWS Infrastruktur automatisch ausgerollt werden können. Die Kosten für die Nutzung der Software werden pro Stunde oder pro Monat abgerechnet. Hinzu kommen die AWS Gebühren für die dafür benötigte Infrastruktur. Hier steckt der eigentliche Mehrwert für Unternehmen, ihre bestehenden Standardsysteme bequem in die Cloud auszulagern und sich von den on-Premise Systemen zu trennen.

Man muss bei den Amazon Web Services daher strikt zwischen der Nutzung von Infrastruktur für die Eigenentwicklung und dem Betrieb von fertigen Lösungen trennen. Beides ist in der der Amazon Cloud möglich. Hinzu kommt das Ökosystem von Partnern und Systemintegratoren, die AWS Kunden dabei helfen, ihre Lösungen zu entwickeln. Denn auch wenn AWS selbst (derzeit noch) ein reiner Infrastruktur Anbieter ist, müssen sie gleichermaßen als Plattform für andere Anbieter und Partner verstanden werden, die darauf ihre Geschäfte betreiben. Darin besteht auch der maßgebliche Erfolg und Vorteil gegenüber anderen Anbietern am Markt und wird langfristig die Attraktivität bei den Unternehmenskunden erhöhen.

Hinzu kommt, dass Amazon der absolute Innovationstreiber in der Cloud ist, dem kein anderer Cloud-Anbieter derzeit technologisch das Wasser reichen kann. Dazu bedarf es keiner re:Invent. Stattdessen zeigt sich dies nahezu jeden Monat von Neuem.

Amazon AWS ist – bedingt – tauglich für die Enterprise IT

Je nach Land und Use Case variieren die Anforderungen, die Amazon für Unternehmen erfüllen muss. Europäische Kunden sind hier meist bedachter mit der Datenhaltung und speichern die Daten lieber im eigenen Land. Ich saß schon mit mehr als einem Kunden zusammen, der technisch überzeugt war aber das Speichern der Daten in Irland nicht in Frage kam. In einigen Fällen ist es aber auch die fehlende Einfachheit der Nutzung. Das bedeutet, dass ein Unternehmen seine bestehende Anwendung oder Webseite nicht für die Amazon Infrastruktur (neu) entwickeln möchte. Gründe hierfür sind die fehlende Zeit und das Wissen um dies umzusetzen, was gleichzeitig zu einen längeren Time to Market führen würde. Beides lässt sich auf die Komplexität zurückführen, um auf den Amazon Web Services Skalierbarkeit und Verfügbarkeit zu erreichen. Es sind nun einmal nicht nur ein paar API-Aufrufe. Stattdessen muss die vollständige Architektur auf die AWS Cloud ausgerichtet werden. In Amazons Fall liegt es insbesondere an der horizontalen Skalierung (scale-out) die dies erforderlich macht. Die Unternehmen würden lieber die vertikale Skalierung (scale-up) bevorzugen, um das bestehende System 1:1 migrieren zu können und nicht von vorne zu beginnen, sondern direkt in der Cloud Erfolge zu erzielen.

Die AWS Referenzen zeigen allerdings auch, dass ausreichend Use Cases für Unternehmen in der Public Cloud existieren, bei denen die Datenhaltung eher als unkritisch betrachtet werden kann, solange die Daten vorher klassifiziert und anschließend verschlüsselt abgelegt werden.

Analysten Kollege Larry Carvalho hat sich auf der re:Invent mit ein paar AWS Unternehmenskunden unterhalten. Ein Kunde hat eine gehostete Webseite auf AWS für weniger als $7.000 Dollar implementiert, wofür ein anderer Systemintegrator $70.000 berechnen wollte. Ein anderer Kunde hat ausgerechnet, dass er für eine on-Premise Business Intelligence Lösung inkl. Wartung etwa $200.000 pro Jahr zahlen würde. Auf Amazon AWS lediglich $10.000 pro Jahr. Diese Beispiele zeigen, dass AWS auf der einen Seite ein Enabler ist. Auf der anderen Seite aber auch, dass die Sicherheitsbedenken in einigen Fällen den Kosteneinsparungen in den Unternehmen weichen werden.

Kategorien
Comment

The keys belong into the hands of the users: TeamDrive receives fourth ULD data privacy recertification in a row

The confidence in an encrypted communication for the transmission of sensitive information over the Internet is becoming increasingly important. Here, the Independent Regional Centre for Data Protection of Schleswig-Holstein
(Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein (ULD)) lead by Thilo Weichert is a pioneer when it comes to independent verification and certification of privacy and security-related issues in the field of information technology. In recent years TeamDrive has established itself as the Dropbox alternative for the enterprise and in terms of safety sets consistently on an end-to-end encryption. The vendor from Hamburg, Germany and Gartner Cool Vendor 2013 in Privacy successfully received its fourth ULD data privacy recertification in a row.

The keys belong exclusively into the hands of the users

As part of the recertification the security of TeamDrive in version 3 was increased again. In addition to the 256-bit AES end-to-end encryption, the security has been further enhanced with an RSA 3072 encryption. The importance of the end-to-end encryption of all communication still rises. This means that the whole process, which a user passes through the solution, is encrypted continuously from start to the end.

In this context it is very important to understand that the private key which is used to access the data and the system only may exclusively be owned by the user. And is only stored encrypted on the local system of the user. The vendor may have no ways to restore this private key and never get access to the stored data.

Despite all the promises, encryption is useless if providers like Dropbox or Box have the key and can decrypt all the data. The control over this exclusively belongs into the hands of the users. This must be taken into account by each company when choosing a trusted vendor.

Kategorien
News

INSIGHTS Paper: Automatisierungskonzepte und Lösungen für den IT-Betrieb

Unternehmen versuchen, durch die Standardisierung ihrer IT-Umgebungen mit Virtualisierungstechnologien und Cloud Computing, die IT-Kosten zu reduzieren und gleichzeitig mehr Effizienz und Produktivität zu erreichen. In den meisten Fällen wird dabei jedoch übersehen, dass Standardisierung alleine nicht mehr ausreicht, um diese Ziele zu erreichen. Die Hauptursachen für Produktivitätsverluste liegen im IT-Betrieb selbst, indem menschliches Versagen während Routineaufgaben durch Unaufmerksamkeiten oder Arbeitsüberlastungen und Zeitdruck zu weiteren Fehlern führt. Mit einer bedarfsgerechten Einführung von Automatisierungslösungen, die durch intelligente Expertensysteme kontrolliert und gesteuert werden, lassen sich die Mitarbeiter entlasten und somit Fehler vermeiden. Hinzu kommt, dass im Schnitt über die Hälfte aller IT-Ausgaben für das manuelle Bearbeiten von Routineaufgaben investiert wird. Dazu gehören unter anderem die Verwaltung von Applikationen, Systemen und der Infrastruktur.

Welche Konzepte existieren derzeit im großen Markt für Automatisierungstechnologien? welche Auswirkungen haben moderne Lösungen auf Unternehmen und können möglicherweise für einen Paradigmenwechsel sorgen? Dieses Paper beantwortet die Fragen und stellt eine Auswahl von drei Anbietern vor. Auf Grund der Vielzahl können nicht alle Anbieter am Markt berücksichtigt werden. Neben den großen Anbietern wie CA, HP, IBM und Automic existieren mit NetIQ oder Kaseya ebenfalls viele kleine. Stattdessen beschränkt sich das Paper auf drei Anbieter, die in der Presse den Eindruck erwecken mit ihren Lösungen großes Potential zu bieten. Dazu zählen die BMC Bladelogic Automation Suite, das IPsoft IPCenter und der arago AutoPilot.

Automatisierungskonzepte- und Lösungen für den IT-Betrieb (BMC Bladelogic vs. IPsoft IPCenter vs. arago Aut… by New Age Disruption