Kategorien
Services

TeamDrive SecureOffice: Sichere und nahtlose Bearbeitung von Dokumenten für Smartphones und Tablets

Unter dem Namen „TeamDrive SecureOffice“ haben der deutsche Anbieter für sichere Enterprise-Cloud-Storage Lösungen TeamDrive und der Smart Office Hersteller Picsel die erste sichere Office-Lösung für iOS und Android Smartphones sowie Tablets auf den Markt gebracht. TeamDrive SecureOffice präsentiert sich als erste Dropbox-artige Synchronisations-Lösung mit eingebautem Office, Ende-zu-Ende Verschlüsselung und nahtloser Bearbeitung von Dokumenten.

Ende-zu-Ende Verschlüsselung für Unternehmen und Behörden

Mit der Integration von TeamDrives – auf Sicherheit geprüfter und zertifizierter – Synch- & Share-Technologie, zusammen mit Picsels Smart Office Lösung für mobile Endgeräte, wollen die Unternehmen einen Meilenstein rundum sichere Produktivitätslösungen für mobilen Endgeräte setzen. Nach Aussage beider Unternehmen, gilt TeamDrive SecureOffice als erste Technologie seiner Art, welche den Bedarf von Unternehmen und Behörden nach einer kompletten Ende-zu-Ende-Verschlüsselung deckt und gleichzeitig die gemeinsame Datennutzung durch verschiedene Benutzer über mobile Endgeräte erlaubt.

Eine Sandbox sorgt für nahtlose Sicherheit auf dem Endgerät

Auf Basis einer Sandbox-Technologie sollen gemeinsam genutzte Dokumente niemals die sichere Umgebung der Anwendung verlassen. Dazu wird eine komplette Ende-zu-Ende-Verschlüsselung geschaffen, wenn Mitarbeiter ihre Dateien von mobilen Endgeräten aus abrufen und versenden. Das wird dadurch realisiert, indem die Daten in der sicheren TeamDrive Umgebung gespeichert werden und der Aufruf bspw. eines Word Dokuments direkt an die SmartOffice Implementation weitergegeben wird, die innerhalb der Sandbox gekapselt ist. Mit der Integration von Smart Office in TeamDrive wird die verschlüsselte Synchronisationslösung für iPhones, iPads und Android-Smartphones realisiert.

Hinweis: Auf Android Geräten muss die Verschlüsselung für das Device selbst und die SD-Karte extra aktiviert werden, um die nahtlose Sicherheit sicherzustellen. Auf dem iPhone und iPad ist dies automatisch aktiv.

Funktionen von TeamDrive SecureOffice

TeamDrive SecureOffice Nutzern stehen zahlreiche Funktionen zur Verfügung. Dazu gehören:

  • Unterstützung mehrerer Betriebssysteme.
  • Leistungsstarke Ansichts- und Bearbeitungsfunktionen.
  • Umfassende Unterstützung von Dateiformaten wie Microsoft Word, PowerPoint, Excel und Adobe PDF.
  • Automatische Dokumentenanpassung durch Zoomen und Schwenken.

Weiterhin erwartet die Nutzer eine sichere Drucklösung für mobile Geräte sowie die Möglichkeit, Dateien aus einer Office-Anwendung nach Adobe PDF zu exportieren und PDF-Dokumente mit Kommentaren zu versehen.

Die sichere mobile Kollaboration nimmt immer weiter an Bedeutung zu

Die sichere Nutzung von Unternehmensdaten hat höchste Priorität. Durch den weiterhin anhaltenden Wandel zu einer mobilen Gesellschaft, wird sich auch das Arbeitsverhalten und wie künftig zusammengearbeitet wird, verändern. Die Duldung und Einführung von Bring Your Own Device (BYOD) in Unternehmen hat zu einer neuen Dimension von Schutzbedürfnissen geführt, die für jede Organisation eine besondere Herausforderung darstellt, um unternehmenskritische Daten und geistiges Eigentum bestmöglich zu schützen. Es sind daher neue Technologien erforderlich, die vor dem Verlust von sensiblen Daten während der Nutzung von mobilen Endgeräten schützen und die einfache Nutzung dabei nicht aus dem Auge verlieren.

TeamDrive gilt nachweislich als der sicherste deutsche Anbieter von Sync-, Share- und Cloud-Storage Lösungen. Das Unternehmen nutzt seine Expertise und die bewährte Sicherheitstechnologie in Kombination mit Picsels Smart Office, um die Produktivität von Mitarbeitern durch den Einsatz von mobilen Endgeräten zu steigern. Gleichzeitig gehen beide Unternehmen mit ihrer Sandbox-Technologie neue Wege und geben den kritischen Themen Datensicherheit und Datenverlust damit einen besonderen Stellenwert.

Für große Unternehmen, Behörden und jede andere Organisation, die mit besonders sensiblen Daten arbeitet, ist es von entscheidender Bedeutung, sich auf die mobilen Arbeitsgewohnheiten ihrer Mitarbeiter einzustellen und mit entsprechenden Lösungen zu reagieren. Ein erster Blick auf die Android Version der App zeigt: Der nahtlose Workflow von Picsels Smart Office für mobile Endgeräte in Kombination mit TeamDrives Cloud-basierter Synchronisations- und Verschlüsselungstechnologie für Unternehmen, kann dabei helfen, dieses Ziel zu erreichen.

Kategorien
Services @en

openQRM 5.1 is available: OpenStack and Eucalyptus have a serious competitor

openQRM project manager Matt Rechenburg already told me some of the new features of openQRM 5.1 at the end of July. Now the final release has been released with additional functions. The overall picture looks really promising. Although the heading at first can suspect that openQRM is something completely new, which is trying to outstrip OpenStack or Eucalyptus. But this is not by a long shot. openQRM already exists since 2004 and has built up a wide range of functions over the years. The open source project from Cologne, Germany unfortunately lost a little in the crowd, because the marketing machines behind OpenStack and Eucalypts run at full speed and the loudspeakers are many times over. Certainly, openQRM must not hide from them. On the contrary, with version 5.1, Rechenburg’s team again has vigorously gain functions and particular enhances the user experience.

The new features in openQRM 5.1

openQRM-Enterprise sees in the hybrid cloud an important significance for the future of cloud as well. For this reason, openQRM 5.1 was extended with a plugin to span a hybrid cloud with the cloud infrastructures of the Amazon Web Services (AWS), Eucalyptus Cloud and Ubuntu Enterprise Cloud (UEC). Thus, openQRM is using AWS as well as Eucalyptus and UEC as a resource provider for more computing power and memory and is able to manage public cloud infrastructures as well as local virtual machines. This allows administrators, based on openQRM, to transparently provide their end-users Amazon AMIs via a cloud portal and to monitor the state of the virtual machines via Nagios.

Another new feature is the tight integration of Puppet. With that end-users can order virtual machines as well as public cloud infrastructures with personalized, managed software stacks. The best technical renovation is the consideration of the Amazon Web Services high-availability concept. Does an Amazon EC2 instance fail, automatically a new one starts. openQRM 5.1 is even able to offset the outage of an entire Amazon Availability Zone (AZ). Is an AZ not available anymore the correlate EC instance will be started in another Availability Zone of the same region.

According to CEO Matt Rechenburg, openQRM-Enterprise expands the open source solution openQRM consistently with cloud spanning management solutions in order to empower its customers to flexibility grow beyond the borders of their own IT capabilities.

In addition to technical enhancements much emphasis was placed on ease of use as well. In openQRM 5.1 the user interface for the administrator was completely revised. This ensures a better overview and user guide. Even the dashboard, as a central point has benefited greatly, by all of the information such as the status of the data center, are displayed at a glance.

New features have been introduced for the openQRM-Enterprise Edition, too. This includes a new plugin for role-based access rights management, which allows fine-grained setting permissions for administrators within the entire openQRM system. With that complete enterprise topologies can be mapped to openQRM roles in order to restrict administrators who are responsible only for virtualization in the enterprise to the management and provisioning of virtual machines.

Further renovations in openQRM 5.1 include an improved support for virtualization technology KVM, by now using it for KVM GlusterFS volumes as well. In addition, VMware technologies are better supported. This means that now even existing VMware ESX systems can be managed as well as local or over the network bootable VMware ESX machines and can be install and managed.

openQRM takes a big step forward

Although openQRM significantly longer exists on the market as OpenStack or Eucalyptus. Nevertheless, the level of awareness of both projects is larger. This is mainly due to the substantial marketing efforts of both the OpenStack community and of Eucalyptus. But technological and functional openQRM must not hide. On the contrary, openQRMs functions is many times more powerful than that of OpenStack or Eucalyptus. Where the two focus exclusively on the topic of cloud, openQRM also has a complete data center management solution included.

Due to the long history openQRM has received many new and important features in recent years. However, as a result it also lose track of what the solution is able to afford. But who has understood, that openQRM is composed of integrated building blocks such as „Data Center Management“, „Cloud Backend“ and „Cloud Portal“, will recognize that the open source solution, especially in the construction of private clouds, provides an advantage over OpenStack and Eucalyptus. Especially the area of ​​data center management must not be neglected for building a cloud to keep track and control of its infrastructure.

With version 5.0, the structures already begun to sharpen and to summarize the individual functions into workflows. This was worked out by the 5.1 release once again. The new look and layout of the openQRM backend has been completely overhauled. It looks tidier and easier to use and will positive surprise all customers.

The extension with the hybrid cloud functionality is an important step for the future of openQRM. The result of the Rackspace 2013 Hybrid Cloud survey showed that 60 percent of IT decision-makers have the hybrid cloud as the main goal in mind. Here 60 percent will or have withdrawn their applications and workloads in the public cloud. 41 percent left the public cloud partially. 19 percent want to leave the public cloud even completely. The reasons for the use of a hybrid cloud rather than a public cloud are higher security (52 percent), more control (42 percent) and better performance and higher reliability (37 percent). The top benefits, which hybrid cloud users report, including more control (59 percent), a higher security (54 percent), a higher reliability (48 percent), cost savings (46 percent) and better performance (44 percent).

openQRM not surprisingly orientates at the current public cloud leader Amazon Web Services. Thus, in combination with Eucalyptus or other Amazon compatible cloud infrastructures, openQRM can also be used to build massively scalable hybrid cloud infrastructures. For this purpose openQRM focuses on its proven plugin-concept and integrates Amazon EC2, S3 and Eucalyptus exactly this way. Besides its own resources from a private openQRM Cloud, Amazon and Eucalyptus are used as further resource providers to get more computing power quickly and easily.

The absolute killer features include the automatic applications deployment using Puppet, with which the end-user to conveniently and automatically can provide EC2 instances with a complete software stack itself, as well as the consideration of the Amazon Availability Zone-wide high-availability functionality, which is neglected by many cloud users again and again due to ignorance. But even the improved integration of technologies such as VMware ESX systems should not be ignored. Finally, VMware is still the leading virtualization technology on the market. Thus openQRM also increases its attractiveness to be used as an open source solution for the management and control of VMware environments.

Technological and functional openQRM is on a very good path into the future. However, bigger investments in public relations and marketing are imperative.

Kategorien
Services

openQRM 5.1 ist verfügbar: OpenStack und Eucalyptus haben einen ernsthaften Konkurrenten

openQRM Projektmanager Matt Rechenburg hatte mir Ende Juli schon einige neue Features von openQRM 5.1 verraten. Jetzt ist das endgültige Release mit weiteren Funktionen veröffentlicht worden. Das Gesamtbild sieht wirklich vielversprechend aus. Zwar lässt die Überschrift im ersten Moment vermuten openQRM wäre etwas vollkommen Neues, was nun versucht OpenStack oder Eucalyptus den Rang abzulaufen. Das ist bei weitem nicht so. openQRM existiert bereits seit 2004 und hat im Laufe der Jahre eine große Funktionsvielfalt aufgebaut. Das Open-Source Projekt aus Köln geht in der Masse leider etwas unter, weil die Marketing-Maschinen hinter OpenStack und Eucalypts auf Hochtouren laufen und deren Lautsprecher um ein Vielfaches größer sind. Dabei muss sich openQRM vor beiden nicht verstecken. Im Gegenteil, mit der Version 5.1 hat das Team um Rechenburg noch einmal kräftig an Funktionen zugelegt und insbesondere die Benutzerfreundlichkeit erhöht.

Die neuen Funktionen in openQRM 5.1

Auch openQRM-Enterprise sieht in dem Hybrid Cloud Modell eine wichtige Bedeutung für die Zukunft der Cloud. Aus diesem Grund wurde openQRM 5.1 mit einem Plugin für die Unterstützung der Amazon Web Services (AWS), Eucalyptus Cloud und Ubuntu Enterprise Cloud (UEC) erweitert, um mit diesen drei Cloud Infrastrukturen eine Hybrid Cloud aufzuspannen. Damit bindet openQRM sowohl AWS als auch Eucalyptus und UEC als weitere Ressourcen-Anbieter für Rechenleistung und Speicherplatz ein und ist damit in der Lage Public Cloud Infrastrukturen als auch lokale virtuelle Maschinen zu verwalten. Damit erhalten Administratoren die Möglichkeit anhand von openQRM ihren Endnutzern über ein Cloud-Portal z.B. Amazon AMIs transparent bereitzustellen und über Nagios den Zustand der virtuellen Maschinen zu überwachen.

Eine weitere neue Funktionalität ist die sehr enge Integration von Puppet, mit der Endnutzer lokale virtuelle Maschinen ebenso wie Public Cloud Infrastrukturen mit personalisierten, verwalteten Software-Stacks bestellen können. Die wohl beste technische Erneuerung ist das Berücksichtigen des High-Availability Konzepts der Amazon Web Services. Fällt eine Amazon EC2-Instanz in einen Fehlerzustand, wird automatisch eine neue gestartet. openQRM 5.1 ist dabei sogar in der Lage, den Ausfall einer gesamten Amazon Availability Zone (AZ) zu kompensieren. Sollte eine AZ nicht mehr erreichbar sein, wird die entsprechende EC2-Instanz in einer anderen Availability Zone derselben Region gestartet.

openQRM-Enterprise baut die Open-Source Lösung openQRM konsequent um Cloud-übergreifende Verwaltungslösungen aus, um seinen Kunden damit zu ermöglichen, flexibel über die Grenzen ihrer eigenen IT-Kapazitäten hinweg zu wachsen, so CEO Matt Rechenburg.

Neben technischen Erweiterungen wurde ebenfalls viel Wert auf die Benutzerfreundlichkeit gelegt. Die Benutzeroberfläche für den Administrator wurde in openQRM 5.1 vollständig überarbeitet. Damit wird für eine bessere Übersichtlichkeit und Benutzerführung gesorgt. Auch das Dashboard, als zentrale Anlaufstelle hat davon stark profitiert, indem alle Informationen, wie der Status des Rechenzentrums, auf einen Blick angezeigt werden.

Für die openQRM Enterprise Edition wurden ebenfalls neue Funktionen vorgestellt. Dazu gehört ein neues Plugin für die rollenbasierte Zugriffsrechteverwaltung, die eine feingranulare Einstellung von Berechtigungen für Administratoren innerhalb des gesamten openQRM-Systems erlaubt. Damit lassen sich komplette Unternehmenstopologien auf openQRM-Rollen abbilden, um Administratoren, die im Unternehmen nur für die Virtualisierung zuständig sind, auf die Verwaltung und Bereitstellung virtueller Maschinen einzuschränken.

Weitere Erneuerungen in openQRM 5.1 sind eine verbesserte Unterstützung der Virtualisierungstechnologie KVM, indem nun ebenfalls GlusterFS für KVM-Volumes genutzt werden kann. Zudem werden VMware Technologien ab sofort besser unterstützt. Das bedeutet, dass sich nun auch bestehende VMware ESX Systeme verwalten, sowie lokale oder über das Netzwerk startbare VMware ESX Maschinen installieren und verwalten lassen.

openQRM macht einen großen Schritt nach vorne

Zwar existiert openQRM bereits deutlich länger am Markt als OpenStack oder Eucalyptus. Dennoch ist der Bekanntheitsgrad beider Projekte größer. Das liegt vorwiegend an den großangelegten Marketing-Aktivitäten sowohl von der OpenStack Community als auch von Eucalyptus. Technologisch und Funktional muss sich openQRM aber keinesfalls verstecken. Im Gegenteil, openQRMs Funktionsumfang ist um ein Vielfaches mächtiger als der von OpenStack oder Eucalyptus. Wo sich die beiden ausschließlich auf das Thema Cloud konzentrieren, liefert openQRM zudem eine vollständige Data Center Management Lösung inklusive.

Auf Grund der langen Historie hat openQRM in den vergangenen Jahren viele neue und wichtige Funktionen erhalten. Allerdings ist dadurch ebenfalls ein wenig der Überblick verloren gegangen, was die Lösung überhaupt im Stande ist zu leisten. Wer jedoch verstanden hat, dass sich openQRM aus den ineinander integrierten Bausteinen „Data Center Management“, „Cloud-Backend“ und „Cloud-Portal“ zusammensetzt, wird erkennen, dass ihm die Open-Source Lösung, insbesondere beim Aufbau von Private Clouds, einen Vorsprung gegenüber OpenStack und Eucalyptus ermöglicht. Speziell der Bereich Data Center Management darf für den Aufbau einer Cloud nicht vernachlässigt werden, um den Überblick und die Kontrolle über seine Infrastruktur zu behalten.

Mit der Version 5.0 wurde bereits damit begonnen die Strukturen zu schärfen und die einzelnen Funktionen zu Workflows zusammenzufassen. Dieses wurde durch das Release 5.1 noch einmal besser herausgearbeitet. Die neue Optik und Aufteilung des openQRM-Backends wurde vollständig überarbeitet, wirkt aufgeräumter und dadurch übersichtlicher in der Handhabung und wird alle Kunden positiv überraschen.

Die Erweiterung um die Hybrid-Cloud Funktionalität ist ein wichtiger Schritt für die Zukunft von openQRM. Das Ergebnis der Rackspace 2013 Hybrid Cloud Umfrage hat gezeigt, dass 60 Prozent der IT-Entscheider die Hybrid Cloud als Hauptziel vor Augen haben. Dabei wollen bzw. haben ebenfalls 60 Prozent ihre Applikationen und Workloads aus der Public Cloud abgezogen. 41 Prozent haben angegeben die Public Cloud teilweise verlassen zu wollen. 19 Prozent wollen die Public Cloud sogar vollständig verlassen. Die Gründe für den Einsatz einer Hybrid Cloud anstatt einer Public Cloud sind eine höhere Sicherheit (52 Prozent), mehr Kontrolle (42 Prozent) sowie eine bessere Performance und höhere Zuverlässigkeit (37 Prozent). Zu den Top Vorteilen, von denen Hybrid Cloud Nutzer berichten, gehören mehr Kontrolle (59 Prozent), eine höhere Sicherheit (54 Prozent), eine höhere Zuverlässigkeit (48 Prozent), Kostenvorteile (46 Prozent) und eine bessere Performance (44 Prozent).

openQRM orientiert sich dabei nicht überraschend am aktuellen Public Cloud Marktführer Amazon Web Services. Damit lässt sich die Cloud-Infrastruktursoftware ebenfalls in Kombination mit Eucalyptus und anderen Amazon kompatiblen Cloud-Infrastrukturen nutzen, um eine massiv skalierbare Hybrid-Cloud Infrastruktur aufzubauen. Dabei setzt openQRM auf sein bewährtes Plugin-Konzept und bildet Amazon EC2, S3 und Eucalyptus genau so ab. Amazon und Eucalyptus werden, neben eigenen Ressourcen aus einer privaten openQRM Cloud, damit zu einem weiteren Ressourcen Provider, um schnell und unkompliziert mehr Rechenleistung zu erhalten.

Zu den absoluten Killerfeatures gehören meiner Ansicht nach das automatische Applications Deployment mittels Puppet, mit dem End-Nutzer sich bequem und automatisiert EC2 Instanzen mit einem vollständigen Softwarestack selbst bereitstellen können, sowie die Berücksichtigung der Amazon Availability Zone übergreifenden High-Availability Funktionalität, die von vielen Cloud-Nutzern aus Unwissenheit immer wieder vernachlässigt wird. Aber auch die verbesserte Integration von VMware Technologien wie ESX Systemen sollte nicht unbeachtet bleiben. Schließlich ist VMware noch die führende Virtualisierungstechnologie am Markt. Damit erhöht openQRM ebenfalls seine Attraktivität, um als Open-Source Lösung zur Steuerung und Kontrolle von VMware Umgebungen eingesetzt zu werden.

Technologisch und Funktional ist openQRM auf einem sehr guten Weg in die Zukunft. Es muss allerdings mehr in die Öffentlichkeitsarbeit und das Marketing investiert werden.

Kategorien
Analysis

Amazon EBS: When does Amazon AWS eliminate its single point of failure?

Immediately the Amazon Web Services again stood still in the US-EAST-1 region in North Virginia. First, on 19 August 2013, which apparently also drag Amazon.com under and recently on 25 August 2013. Storms to have been the cause. Of course it has thereby again caught the usual suspects, especially Instagram and Reddit. It seems that Instagram strongly rely on its cloud architecture that blows up in its face regularly when the lightning strikes in North Virginia. However, also Amazon AWS should start to change its infrastructure, because it can’t go on like this.

US-EAST-1: Old, cheap and fragile

The Amazon region US-EAST-1 is the oldest and most widely used region in Amazon’s cloud computing infrastructure. This is on the one hand related to the cost which are considerably cheaper in comparison to other regions. Whereby the Oregon region has been adjusted in price. Secondly, because of the age, here are also many old customers with probably not optimized system architectures for the cloud.

All eggs in one nest

The mistake most users commit is that they only rely on one region, in this case, US-East-1. Should this fail, also the own service is of course no longer accessible. This applies to all of Amazon’s worldwide regions. To overcome this situation, a multi-region approach should be chosen by the application is scalable and highly available distributed over several regions.

Amazon EBS: Single Point of Failure

I have already suggested in the last year that the Amazon Web Services have a single point of failure. Below are the status messages of 25 August 2013 which underline my thesis. The first time I become aware of it was a blog post by the Amazon AWS customer awe.sm who tell about their experiences in the Amazon cloud. The bold points are crucial.

EC2 (N. Virginia)
[RESOLVED] Degraded performance for some EBS Volumes
1:22 PM PDT We are investigating degraded performance for some volumes in a single AZ in the US-EAST-1 Region
1:29 PM PDT We are investigating degraded performance for some EBS volumes and elevated EBS-related API and EBS-backed instance launch errors in a single AZ in the US-EAST-1 Region.
2:21 PM PDT We have identified and fixed the root cause of the performance issue. EBS backed instance launches are now operating normally. Most previously impacted volumes are now operating normally and we will continue to work on instances and volumes that are still experiencing degraded performance.
3:23 PM PDT From approximately 12:51 PM PDT to 1:42 PM PDT network packet loss caused elevated EBS-related API error rates in a single AZ, a small number of EBS volumes in that AZ to experience degraded performance, and a small number of EC2 instances to become unreachable due to packet loss in a single AZ in the US-EAST-1 Region. The root cause was a „grey“ partial failure with a networking device that caused a portion of the AZ to experience packet loss. The network issue was resolved and most volumes, instances, and API calls returned to normal. The networking device was removed from service and we are performing a forensic investigation to understand how it failed. We are continuing to work on a small number of instances and volumes that require additional maintenance before they return to normal performance.
5:58 PM PDT Normal performance has been restored for the last stragglers of EC2 instances and EBS volumes that required additional maintenance.

ELB (N. Virginia)
[RESOLVED] Connectivity Issues
1:40 PM PDT We are investigating connectivity issues for load balancers in a single availability zone in the US-EAST-1 Region.
2:45 PM PDT We have identified and fixed the root cause of the connectivity issue affecting load balancers in a single availability zone. The connectivity impact has been mitigated for load balancers with back-end instances in multiple availability zones. We continue to work on load balancers that are still seeing connectivity issues.
6:08 PM PDT At 12:51 PM PDT, a small number of load balancers in a single availability zone in the US-EAST-1 Region experienced connectivity issues. The root cause of the issue was resolved and is described in the EC2 post. All affected load balancers have now been recovered and the service is operating normally.

RDS (N. Virginia)
[RESOLVED] RDS connectivity issues in a single availability zone
1:39 PM PDT We are currently investigating connectivity issues to a small number of RDS database instances in a single availability zone in the US-EAST-1 Region
2:07 PM PDT We continue to work to restore connectivity and reduce latencies to a small number of RDS database instances that are impacted in a single availability zone in the US-EAST-1 Region
2:43 PM PDT We have identified and resolved the root cause of the connectivity and latency issues in the single availability zone in the US-EAST-1 region. We are continuing to recover the small number of instances still impacted.
3:31 PM PDT The majority of RDS instances in the single availability zone in the US-EAST-1 Region that were impacted by the prior connectivity and latency issues have recovered. We are continuing to recover a small number of remaining instances experiencing connectivity issues.
6:01 PM PDT At 12:51 PM PDT, a small number of RDS instances in a single availability zone within the US-EAST-1 Region experienced connectivity and latency issues. The root cause of the issue was resolved and is described in the EC2 post. By 2:19 PM PDT, most RDS instances had recovered. All instances are now recovered and the service is operating normally.

Amazon EBS is the basis of many other services

The bold points are therefore of crucial importance, since all of these services are dependent on a single service at the same time: Amazon EBS. To this result awe.sm came during their analysis. How awe.sm has determined, EBS is nine times out of ten the main problem of major outages on Amazon. How in the outage above.

Among the services that are dependent on Amazon EBS include the Elastic Load Balancer (ELB), the Relational Database Service (RDS) or Elastic Beanstalk.

Q: What is the hardware configuration for Amazon RDS Standard storage?
Amazon RDS uses EBS volumes for database and log storage. Depending on the size of storage requested, Amazon RDS automatically stripes across multiple EBS volumes to enhance IOPS performance.

Source: http://aws.amazon.com/rds/faqs/

EBS Backed
EC2: If you select an EBS backed AMI
ELB: You must select an EBS backed AMI for EC2 host
RDS
Elastic Beanstalk
Elastic MapReduce

Source: Which AWS features are EBS backed?

Load balancing across availability zones is excellent advice in principle, but still succumbs to the problem above in the instance of EBS unavailability: ELB instances are also backed by Amazon’s EBS infrastructure.

Source: Comment – How to work around Amazon EC2 outages

As you can see more than a few services depend on Amazon EBS. This means, conversely, if EBS fails these services are also no longer available. Particularly tragic is the case with the Amazon Elastic Load Balancer (ELB), which is responsible for directing the traffic in case of failure or heavy load. Thus, if Amazon EBS fails and the data traffic should be transmitted to another region, this does not work because the load balancer also dependents on EBS.

I may be wrong. However, if you look at the past failures the evidence indicates that Amazon EBS is the main source of error in the Amazon Cloud.

It may therefore be allowed to ask the question whether constantly the same component of its infrastructure blow up in a leader’s face, which, in principle, is to be regarded as a single point of failure? And whether an infrastructure-as-a-service (IaaS) provider, who has experienced the most outages of all providers in the market, can be described under this point of view as a leader. Even if I frequently preach that a user of a public IaaS must take responsibility for the scalability and high availability on its own, the provider has the duty to ensure that the infrastructure is reliable.

Kategorien
Analysen

Amazon EBS: Wann beseitigen die Amazon Web Services ihren Single Point of Failure?

Innerhalb kürzester Zeit standen die Amazon Web Services in der Region US-EAST-1 in North Virginia wieder still. Zum einen am 19. August 2013, wobei anscheinend ebenfalls Amazon.com mit in die Tiefe gezogen wurde und zuletzt am 25. August 2013. Ursachen sollen wieder Unwetter gewesen sein. Dabei hat es dann natürlich auch wieder die üblichen Verdächtigen, allen voran Instagram und Reddit, erwischt. Instagram scheint vehement auf seine Cloud-Architektur zu vertrauen, die ihnen regelmäßig um die Ohren fliegt, wenn in North Virginia der Blitz einschlägt. Allerdings muss auch Amazon AWS scheinbar langsam etwas an seiner Infrastruktur verändern, denn so darf es nicht weitergehen.

US-EAST-1: Alt, günstig und brüchig

Die Amazon Region US-East-1 ist die älteste und meist genutzte Region in Amazons Cloud Computing Infrastruktur. Das hängt zu einem damit zusammen, das die Kosten im Vergleich zu anderen Regionen hier deutlich günstiger sind, wobei die Region Oregon mittlerweile preislich angepasst wurde. Zum anderen befinden sich hier auf Grund des Alters auch viele ältere Kunden mit vermutlich nicht für die Cloud optimierten Systemarchitekturen.

Alle Eier in einem Nest

Den Fehler, den die meisten Nutzer begehen ist, dass sie sich nur auf eine Region, in diesem Fall US-East-1, verlassen. Fällt diese aus, ist auch der eigene Service natürlich nicht mehr erreichbar. Das gilt für alle weltweiten Amazon Regionen. Um diese Situation zu umgehen, sollte ein Multi-Regionen Konzept gewählt werden, indem die Anwendung skalierbar und hochverfügbar über mehrere Regionen verteilt wird.

Amazon EBS: Single Point of Failure

Ich habe bereits im vergangenen Jahr die These aufgestellt, dass die Amazon Web Services über einen Single Point of Failure verfügen. Im Folgenden sind die Statusmeldungen vom 25. August 2013 zu sehen, die meine These unterstreichen. Das erste Mal bin ich durch einen Blogeintrag vom Amazon AWS Kunden awe.sm darauf aufmerksam geworden, die von ihren Erfahrungen in der Amazon Cloud berichten. Die fett markierten Stellen sind von entscheidender Bedeutung.

EC2 (N. Virginia)
[RESOLVED] Degraded performance for some EBS Volumes
1:22 PM PDT We are investigating degraded performance for some volumes in a single AZ in the US-EAST-1 Region
1:29 PM PDT We are investigating degraded performance for some EBS volumes and elevated EBS-related API and EBS-backed instance launch errors in a single AZ in the US-EAST-1 Region.
2:21 PM PDT We have identified and fixed the root cause of the performance issue. EBS backed instance launches are now operating normally. Most previously impacted volumes are now operating normally and we will continue to work on instances and volumes that are still experiencing degraded performance.
3:23 PM PDT From approximately 12:51 PM PDT to 1:42 PM PDT network packet loss caused elevated EBS-related API error rates in a single AZ, a small number of EBS volumes in that AZ to experience degraded performance, and a small number of EC2 instances to become unreachable due to packet loss in a single AZ in the US-EAST-1 Region. The root cause was a „grey“ partial failure with a networking device that caused a portion of the AZ to experience packet loss. The network issue was resolved and most volumes, instances, and API calls returned to normal. The networking device was removed from service and we are performing a forensic investigation to understand how it failed. We are continuing to work on a small number of instances and volumes that require additional maintenance before they return to normal performance.
5:58 PM PDT Normal performance has been restored for the last stragglers of EC2 instances and EBS volumes that required additional maintenance.

ELB (N. Virginia)
[RESOLVED] Connectivity Issues
1:40 PM PDT We are investigating connectivity issues for load balancers in a single availability zone in the US-EAST-1 Region.
2:45 PM PDT We have identified and fixed the root cause of the connectivity issue affecting load balancers in a single availability zone. The connectivity impact has been mitigated for load balancers with back-end instances in multiple availability zones. We continue to work on load balancers that are still seeing connectivity issues.
6:08 PM PDT At 12:51 PM PDT, a small number of load balancers in a single availability zone in the US-EAST-1 Region experienced connectivity issues. The root cause of the issue was resolved and is described in the EC2 post. All affected load balancers have now been recovered and the service is operating normally.

RDS (N. Virginia)
[RESOLVED] RDS connectivity issues in a single availability zone
1:39 PM PDT We are currently investigating connectivity issues to a small number of RDS database instances in a single availability zone in the US-EAST-1 Region
2:07 PM PDT We continue to work to restore connectivity and reduce latencies to a small number of RDS database instances that are impacted in a single availability zone in the US-EAST-1 Region
2:43 PM PDT We have identified and resolved the root cause of the connectivity and latency issues in the single availability zone in the US-EAST-1 region. We are continuing to recover the small number of instances still impacted.
3:31 PM PDT The majority of RDS instances in the single availability zone in the US-EAST-1 Region that were impacted by the prior connectivity and latency issues have recovered. We are continuing to recover a small number of remaining instances experiencing connectivity issues.
6:01 PM PDT At 12:51 PM PDT, a small number of RDS instances in a single availability zone within the US-EAST-1 Region experienced connectivity and latency issues. The root cause of the issue was resolved and is described in the EC2 post. By 2:19 PM PDT, most RDS instances had recovered. All instances are now recovered and the service is operating normally.

Amazon EBS bildet die Basis vieler anderer Services

Die fett markierten Stellen sind aus diesem Grund von entscheidender Bedeutung, da alle diese Services gleichzeitig von einem einzigen Service abhängig sind: Amazon EBS. Zu dieser Erkenntnis ist awe.sm während seiner Analyse gekommen. Wie awe.sm festgestellt hat, ist EBS so gut wie immer das Hauptproblem größerer Ausfälle bei Amazon. So auch in dem obigen Ausfall. Mehr zum Amazon Elastic Block Store.

Zu den Services die von Amazon EBS abhängig sind gehören u.a. der Elastic Load Balancer (ELB), die Relational Database Service (RDS) oder Elastic Beanstalk.

Q: What is the hardware configuration for Amazon RDS Standard storage?
Amazon RDS uses EBS volumes for database and log storage. Depending on the size of storage requested, Amazon RDS automatically stripes across multiple EBS volumes to enhance IOPS performance.

Quelle: http://aws.amazon.com/rds/faqs/

EBS Backed
EC2: If you select an EBS backed AMI
ELB: You must select an EBS backed AMI for EC2 host
RDS
Elastic Beanstalk
Elastic MapReduce

Quelle: Which AWS features are EBS backed?

Load balancing across availability zones is excellent advice in principle, but still succumbs to the problem above in the instance of EBS unavailability: ELB instances are also backed by Amazon’s EBS infrastructure.

Quelle: Kommentar – How to work around Amazon EC2 outages

Wie man sieht hängen nicht wenige Services von Amazon EBS ab. Das bedeutet im Umkehrschluss, fällt EBS aus, sind diese Services ebenfalls nicht mehr verfügbar. Besonders tragisch verhält es sich mit dem Amazon Elastic Load Balancer (ELB), der dafür zuständig ist, im Fehlerfall oder bei großer Last den Datenverkehr zu leiten. Fällt also Amazon EBS aus und soll der Datenverkehr daraufhin in eine andere Region übertragen werden, funktioniert das nicht, da der Load Balancer ebenfalls von EBS abhängig ist.

Ich kann mich irren. Schaut man sich jedoch die vergangenen Ausfälle an, sprechen die Indizien dafür, dass Amazon EBS die zentrale Fehlerquelle innerhalb der Amazon Cloud ist.

Es darf daher die Frage erlaubt sein, ob einem Leader ständig dieselbe Komponente seiner Infrastruktur um die Ohren fliegen darf, die im Prinzip sogar als Single Point of Failure zu betrachten ist? Und ob ein Infrastructure-as-a-Service (IaaS) Anbieter, der die meisten Ausfälle von allen Anbietern am Markt zu verzeichnen hat, unter diesem Gesichtspunkt als Leader zu bezeichnen ist. Auch wenn ich immer wieder propagiere, dass man als Nutzer eines Public IaaS selbst für die Skalierbarkeit und Hochverfügbarkeit sorgen muss, hat der Anbieter selbst dennoch die Pflicht dafür zu sorgen, dass die Infrastruktur zuverlässig funktioniert.

Kategorien
Events

Der CloudOps Summit 2013 startet mit "Facing Complexity" in sein drittes Jahr

Am 25. September 2013 startet der CloudOps Summit 2013 in sein drittes Jahr. Mit dem Leitthema „Facing Complexity“ bestätigt die führende Cloud Computing Veranstaltung in Deutschland ihren Ruf, indem Sie über den Telerrand hinausschaut, und die Cloud als Auslöser für den derzeit stattfindenden Wandel in der IT sieht. Auch ich werde in diesem Jahr wieder vor Ort sein und in meinem Vortrag auf die versteckte Komplexität des Cloud Computing hinweisen, die immer wieder gerne übersehen wird. Alle Leser haben darüber hinaus die Chance auf eine von fünf Freikarten oder können kostengünstiger am CloudOps Summit teilnehmen.

Facing Complexity

Der CloudOps Summit hat in diesem Jahr das Leitthema „Facing Complexity“ gewählt, da sich Cloud Computing im Alltag vieler Unternehmen fest etabliert hat und zur Neudefinition der Wertschöpfungsbeziehungen beiträgt. Daher ist es umso wichtiger, sich mit dem derzeit stattfindenden Wandel in der IT auseinanderzusetzen, der weitaus tiefgreifender ist als „nur“ Cloud Computing. Seit jeher wird versucht mit herkömmlichen IT-Konzepten die Komplexität zu verhindern oder zu minimieren. Doch spätestens seit den erfolgreichen Cloud-Implementierungen im High-Tech-Bereich hat sich gezeigt, dass der Schlüssel zum Erfolg im gezielten Umgang mit der unvermeidlichen Komplexität liegt.

In drei Tracks zeigen Referenten, wie sich der IT-Betrieb aufstellen muss, damit er mit dem stetigen Wandel und den schier unendlichen Abhängigkeiten umgehen kann (Operating Complexity). Weitere Themen sind der Wandel in der IT und seine Auswirkungen auf die Enterprise-IT (Changing Business) – z. B. durch neuartige Wertschöpfungsverhältnisse oder die sich verändernde Rollenverteilung zwischen Kunden und Anbietern – sowie das Zusammenwachsen von Entwicklung und Betrieb im Enterprise-Umfeld und den daraus resultierenden Herausforderungen für die IT (DevOps). Eine Schlüsselrolle fällt in allen drei Tracks den Themen Analytics und Knowledge Management zu, die das Rückgrat für extrem automatisierte Service-Konzepte bilden.

Cloud: Die Komplexität steckt im Detail

Mein Vortrag „Cloud Computing muss einfacher werden – Die Komplexität steckt im Detail“ orientiert sich am Claim und wird verdeutlichen, dass die Komplexität des Cloud Computing mit der richtigen Nutzung zunimmt und zeigt Ideen und Konzepte, wie damit in Zukunft umgegangen werden muss.

Freikarten und Rabattcode

Bei den Freikarten greife ich ganz unkompliziert auf First-come, first-served zurück. Wer Interesse hat kostenlos zum CloudOps Summit zu kommen, der schickt mir einfach eine E-Mail mit dem Betreff „CloudOps Summit Freikarte“ und begründet, warum er diese haben möchte.

Wer nicht in den Genuss einer Freikarte kommen sollte, der hat die Chance über den Rabattcode: COS-DOLYNZJ9 mit einer Ermäßigung von 30 Prozent am CloudOps Summit 2013 teilzunehmen. Weitere Informationen gibt es unter www.cloudops.de.

Kategorien
News

Webinar: Evaluieren Sie in 6 Schritten Ihre Cloud Strategie

Nur etwa dreißig Prozent der deutschen Unternehmen verfügen derzeit über eine formale Cloud-Strategie, so unsere Kollegen von IDC. Dabei darf diese unter keinen Umständen vernachlässigt werden. Unternehmen legen damit fest, welche Anforderungen an eine Cloud-Umgebung bestehen, welche Teile der IT in einer Private oder Public Cloud genutzt werden und welche Schritte zur Umsetzung notwendig sind.

In einem einstündigen kostenlosen Webinar am 02. September um 16:00 Uhr zeigen wir, zusammen mit unserem Partner der Proventa AG, die wichtigsten Elemente einer nachhaltigen Cloud Computing Strategie. Dazu begrüßen Sie unser Cloud Computing Analyst & Advisor René Büst sowie der Dr. Dietmar Wiedemann, Senior Consultant bei der Proventa AG.

Inhalte des Webinar

In dem einstündigen Webinar zeigen die beiden Cloud Experten am 02. September ab 16:00 Uhr auf, wie CIOs eine nachhaltige Cloud Computing Strategie entwickeln und wie sie dabei vorgehen. Dabei werden wir folgende Fragen beantworten:

  • Warum ist Cloud Computing für den Unternehmenserfolg aus IT-Sicht essenziell?
  • Welche Potenziale birgt Cloud Computing für Unternehmen?
  • Wie treffen Unternehmen die Entscheidung für die Cloud?
  • Welche Use Cases eignen sich besonders für Cloud Computing?
  • Welche Schritte sind für die Strategieentwicklung notwendig?
  • Welche Anbieter bieten welche Services?
  • Wie sichert eine durchdachte Cloud-Governance die Vorteile und minimiert die Risiken des Cloud Computing?

Mit dem Webinar erhalten alle Teilnehmer kompakt, fokussiert und praxisbezogen die notwendigen Bausteine, um selbst eine eigene Cloud Computing Strategie zu entwickeln und nachhaltig umzusetzen.

In vielen Unternehmen fehlt eine klare Cloud Computing Strategie

Laut dem Marktforschungsunternehmen IDC weisen nur rund dreißig Prozent der deutschen Unternehmen eine formale Cloud-Strategie auf. Mit einer solchen Strategie legen Unternehmen fest, welche Anforderungen an eine Cloud-Umgebung bestehen, welche Teile der IT in einer Private oder Public Cloud genutzt werden und welche Schritte zur Umsetzung notwendig sind. „Die Bereitschaft, in die Cloud zu gehen, ist bei vielen Unternehmen trotz PRISM und Co. gegeben. Was den meisten CIOs allerdings noch fehlt, ist eine klar definierte Cloud-Strategie. Vielerorts setzen viele Firmen Cloud Services bisher noch punktuell und ohne strategische Weitsicht ein.“ so Dietmar Wiedemann, Cloud-Experte der Proventa AG und Leiter des Fachbereichs Cloud Computing im Bundesverband der Dienstleister für Online Anbieter e.V. (BODA). Demnach bleiben die wichtigen Fragen offen, etwa wie man die Cloud-Strategien entwickelt und umsetzt, um einen echten Mehrwert für die Organisation zu schaffen.

Mit einer Cloud Computing Strategie lässt sich Schatten-IT vermeiden

Fachabteilungen investieren vermehrt selbstständig in Informations- und Kommunikationstechnologien, lassen IT-Innovationen entwickeln oder besorgen sie kurzer Hand aus der Cloud. Diese Entwicklungen, die unter dem Stichwort Schatten-IT diskutiert werden, beunruhigen CIOs. „Mit der richtigen IT-Strategie lässt sich die Schatten-IT aber auch präventiv verhindern, eindämmen und beseitigen.“ sagt René Büst,  Principal Analyst und Senior Advisor von New Age Disruption. Ein vielversprechender Ansatz sei beispielsweise der Aufbau eines eigenen Cloud-Service-Portals für die Mitarbeiter, über welches diese kontrolliert auf interne und externe Cloud Services zugreifen können, so Büst. Die IT-Abteilung wird dadurch immer mehr zum Service Broker und kann durch die Nutzung externer Ressourcen (hybrid Modell) sicherstellen, dass die Mitarbeiter mit einer hohen Servicegüte rechnen können.

Anmeldung zum Webinar

Die Anmeldung für das Webinar „In sechs Schritten zu Ihrer erfolgreichen Cloud-Strategie.“, am 02. September 2013, um 16:00 Uhr, ist unter https://attendee.gotowebinar.com/register/906375066186336000 zu finden.

Nach der Anmeldung erhält jeder Teilnehmer eine Bestätigungs-E-Mail mit den Informationen zur Teilnahme an dem Webinar.

Kategorien
Analysis

Cloud storage Box could become a threat for Dropbox and Microsoft SkyDrive

To become more attractive for private users and small businesses, the cloud storage provider Box has expanded its pricing model. Immediately in addition to the existing plans for private, business and enterprise customers a Starter plan can be selected as well, which is interesting for both small businesses and freelancers as well as private customers.

Private customers get more free storage, small businesses a new plan

The offer for private users has been increased from formerly free 5GB to 10GB. In addition, the portfolio was extended with a new Starter plan, which should be target at smaller companies. This offers 100GB disk space for 1 to max. 10 users per company account for $ 5 per user per month.

Box, that addressed large companies in the first place, thus hoped that smaller enterprise customers and consumers increased to store their data in the cloud, rather than save it to error-prone local media. According to CEO Aaron Levie, Box is particularly driven by the issues of information and collaboration. Whether it is a global corporation, a small business or a freelancer, in the end it is important that you are able to share content and access it securely and reliably from anywhere, so Levie.

The new Starter plan is just a hook

To be honest, the new Starter plan is very interesting as it meets the needs of a specific target group. However, these are not small companies, but definitely private users and freelancers. The features that are offered around the storage are definitely on enterprise level. In addition to various safety features (no end-to-end encryption) at different levels, integration options over apps on the basis of an ecosystem of third party developers are available. However, 100GB are far too little for small businesses, especially since this account is designed for 1 to 10 users. 10 GB per user is very scarce very quickly. In addition, many other interesting and important features for businesses are offered just with the next plan „Business“ for $15 per user per month. Where at least three users are need to set up. This will include 1000GB storage and other security functions on folder and file level per user, integration into an Active Directory, Google Apps and Salesforce, an advanced user management, etc. So, at the end of the day, the Starter plan just serves as a hook to drum up business customer.

On the other hand, this plan is a very interesting deal for private users and freelancers who need more features at a cheaper price and a similar performance like Dropbox. Since, although the free plan was extended to 10GB, but the free limit of 50GB has been dropped. Who now needs more than 10GB must buy 100GB for $10 per month. It therefore makes a lot more sense for private users to opt for a Starter plan and only pay $5 per month or $60 per year.

The Starter plan may well ensure that Dropbox and Microsoft SkyDrive losing market share if this renewal gets around. Particular SkyDrive should dress up warmly. Although Microsoft’s cloud storage is well integrated with the Windows operating systems and continues to be the cheapest on the market. However, SkyDrive is very slow and the user experience is below average. Just to highlight a tiny but crucial detail that makes Box simply better. Transparency, what is happening in the background. By way of comparison: Box has a small app for Windows in which the status is displayed. Here you can see: the progress in percent; the approximate time until the upload is completed; the file that is being processed; how many files need to be processed; how many files are processed in total. Microsoft SkyDrive shows nothing of this. The user is completely left in the dark.

Dropbox is known as performance king. Also the ease of use is good. Nevertheless, the Box Starter plan, due to its extended functional possibilities at a cheaper price and a similar performance, has certainly the potential to compete Dropbox.

Note: Due to the current security situation, it is pointed out that Box is a U.S. based provider and the data is stored in the United States. Although, the data is stored server side encrypted. However, Box doesn’t offer an end-to-end encryption (only SSL during transmission). The key for on Box‘ infrastructure encrypted data are owned by Box and not by the user. For this reason, Box has the opportunity to decode the data independent to allow third parties access it anytime.

Kategorien
Analysen

Cloud Storage Box könnte Dropbox und Microsoft SkyDrive Marktanteile kosten

Um für private Anwender und kleine Unternehmen attraktiver zu werden, hat der Cloud Storage Anbieter Box sein Preismodell erweitert. Ab sofort kann neben den bestehenden Tarifen für Privatanwender, Business- und Enterprise-Kunden ebenfalls ein Starter-Tarif gewählt werden, der sowohl für kleine Unternehmen und Freelancer aber auch Privatkunden interessant ist.

Privatkunden bekommen mehr kostenlosen Speicherplatz, kleine Unternehmen einen eigenen Tarif

Das Angebot für private Nutzer wurde von ehemals kostenlosen 5GB auf 10GB erhöht. Zudem wurde das Portfolio um einen neuen Starter-Tarif erweitert, der sich insbesondere an kleinere Unternehmen richten soll. Dieser bietet 100GB Speicherplatz für 1 bis max. 10 Benutzer pro Unternehmensaccount für 4EUR pro Benutzer pro Monat.

Box, die in erster Linie große Unternehmen ansprechen, erhofft sich damit, dass kleinere Unternehmenskunden und Endkunden verstärkt ihre Daten in der Cloud speichern, anstatt diese auf fehleranfälligen lokalen Datenträgern speichern bzw. sichern. Nach Aussage von CEO Aaron Levie wird Box insbesondere durch die Themen Informationen und Collaboration vorangetrieben. Ob es sich nun um einen global agierenden Konzern, ein kleines Unternehmen oder einen Freelancer handelt, am Ende geht es darum, dass man in der Lage ist, Inhalte zu teilen und von überall darauf zuverlässig und sicher zuzugreifen, so Levie.

Der neue Starter-Tarif ist nur ein Haken

Man muss ehrlich sagen, dass der neue Start-Tarif sehr interessant ist, da er die Bedürfnisse einer bestimmten Zielgruppe erfüllt. Allerdings handelt es sich dabei nicht um kleine Unternehmen, sondern Freelancer und auf jeden Fall Privatanwender. Die Funktionen die um den Speicherplatz herum angeboten werden sind definitiv auf Unternehmenslevel. Neben diversen Sicherheitsfunktionen (keine Ende-zu-Ende Verschlüsselung) auf unterschiedlichen Ebenen, stehen Integrationsmöglichkeiten über Apps auf Basis eines Ökosystems von externen Entwicklern zur Verfügung. Jedoch sind 100GB für kleine Unternehmen viel zu wenig, zumal dieses Konto für 1 bis 10 Benutzer ausgelegt ist. 10 GB pro Nutzer wird sehr schnell sehr eng. Hinzu kommt, dass viele weitere interessante und wichtige Funktionen für Unternehmen erst mit der nächsten Tarifstufe „Business“ für 12 EUR pro Benutzer pro Monat angeboten werden. Wobei mindestens drei Benutzer einzurichten sind. Dazu gehören dann 1000GB Speicherplatz sowie weitere Sicherheitsfunktionen auf Ordner- und Dateiebene pro Benutzer, Integrationsmöglichkeiten in eine Active Directory, Google Apps und Salesforce, eine erweiterte Benutzerverwaltung usw. Daher muss man zusammenfassend sagen, dass der Starter-Tarif einzig und alleine als Haken dient, um Unternehmen an Land zu ziehen.

Auf der anderen Seite ist dieser Tarif für Privatnutzer und Freelancer sehr interessant, die mehr Funktionen zu einem günstigeren Preis und zu einer ähnlichen Performance benötigen wie bei Dropbox. Denn, zwar wurde der kostenlose Privatkundentarif auf 10GB erweitert, dafür ist aber die kostenlose Obergrenze von 50GB weggefallen. Wer nun mehr als die 10GB benötigt, muss 100GB für 9 EUR pro Monat kaufen. Es macht daher also ebenfalls als Privatnutzer viel mehr Sinn, sich für einen Starter Tarif zu entscheiden und nur 4 EUR pro Monat bzw. 48 EUR pro Jahr zu bezahlen.

Der Starter Tarif kann durchaus dafür sorgen, dass Dropbox und Microsoft SkyDrive Marktanteile verlieren, wenn sich diese Erneuerung herum spricht. Insbesondere SkyDrive sollte sich warm anziehen. Zwar ist Microsofts Cloud Storage gut in die Windows Betriebsysteme integriert und weiterhin der preisgünstigste am Markt. Allerdings ist SkyDrive sehr langsam und die Benutzerfreundlichkeit ist unterdurchschnittlich. Nur um ein winziges aber entscheidendes Detail hervorzuheben, was Box ganz einfach besser macht. Die Transparenz, das was gerade im Hintergrund passiert. Zum Vergleich: Box hat eine kleine App unter Windows in welcher der Status angezeigt wird. Hier ist zu sehen: Der Fortschritt in Prozent; die ungefähre Zeit die noch verbleibt bis der Upload abgeschlossen ist; die Datei die gerade verarbeitet wird; wie viele Dateien noch verarbeitet werden müssen; wie viele Dateien insgesamt verarbeitet werden. Microsoft SkyDrive zeigt nix von alledem an. Man wird als Nutzer vollständig im dunklen stehen gelassen.

Dropbox ist als Performancekönig bekannt. Auch die Benutzerfreundlichkeit ist gut. Dennoch hat der Box Starter Tarif, auf Grund seiner erweiterten Funktionsmöglichkeiten zu einem günstigeren Preis und einer ähnlichen Performance, durchaus das Potential Dropbox Konkurrenz zu machen.

Anmerkung: Aufgrund der aktuellen Sicherheitslage wird darauf hingewiesen, dass Box ein U.S. amerikanischer Anbieter ist und die Daten in den USA gespeichert werden. Zwar werden diese dort Serverseitig verschlüsselt gespeichert. Box bietet allerdings keine Ende-zu-Ende Verschlüsselung an (nur SSL bei der Übertragung). Die Schlüssel für die auf Box‘ Infrastruktur verschlüsselt gespeicherten Daten befinden sich ebenfalls im Besitz von Box und nicht des Benutzers. Aus diesem Grund hat Box zu jeder Zeit die Möglichkeit Daten eigenständig zu entschlüsseln, um Dritte darauf Zugriff zu gewähren.

Kategorien
Analysis

Google Apps vs. Microsoft Office 365: What do the assumed market shares really tell us?

The blog of UserActivion compares at regular intervals the spread of office and collaboration solutions from Google Apps and Microsoft Office 356. I have accidentally become aware of the market shares per industry, thanks Michael Herkens. The result is from July and shows the market shares of both cloud solutions for June. The post also shows a comparison to the previous month May. What stands out here is that Google Apps is by far in the lead in any industry. With the size and general dissemination of Microsoft that’s actually unusual. Therefore, to take a look behind the scenes make sense.

Google Apps with a clear lead of Office 365

Trusting the numbers from UserActivion, Google Apps has a significant advantage in the sectors of trade (84.3 percent), technology (88.2 percent), education (77.4 percent), health care (80.3 percent) and governments (72.3 percent).

In a global comparison, it looks similar. However, Office 365 has caught up with May in North America, Europe and Scandinavia. Nevertheless, the current ratio is, according to UserActivion, at 86:14 for Google Apps. In countries such as Norway and Denmark is a balanced ratio of 50:50.


Source: useractivation.com


Source: useractivation.com

Do the Google Apps market shares have a significance?

This question is relatively easy to answer. They have a significance on the dissemination of Google Apps. However, they say nothing about what sales Google makes with these market shares. As measured by this, the expected ratio between Google Apps and Office 365 looks a little different. Why?

Well, Google Apps has become such a big market share because the Google Apps Standard version (no longer exists) for a given number of users and the Google Apps for Education could be used for a very very long time for free of charge. The Education version is still free. This naturally leads to the fact that also a lot of users who have their own domain, have chosen a free Google Apps Standard version, which even after the discontinuation of the version may continue to be used. The only limitation are the maximum users per domain.

So it comes, for example, that only I as a single person have registered nine (9) Google Apps Standard accounts over the last years. Most of them I still have. I currently use two of them (Standard, Business) active and pay for one (Business).

The Google Apps market shares must therefore be broken down as follows:

  • Google Apps users.
  • Not active Google Apps users.
  • Active Google Apps users who do not pay.
  • Active Google Apps users who pay.

If this ratio is now weighted and applied to the market share in terms of turnover, Microsoft would fare better. Why?

At the end of the day it is about cash. From the beginning Microsoft has nothing to give away. Admittedly Office 365 can be tested for free for a short time. Subsequently, the decision is made for a paid plan or not. This means that it is assumed that each Office 365 client, who no longer is in the testing phase, at the same time is an active paying user. Surely Google receives from the non-paying active users insights about their behavior and can place a bit of advertising. But the question remains how much that really matters.

This does not mean that Google Apps has not widely prevalent. But it shows that the strategy of Google rises at least in one direction. Give away of accounts for free to get market share pays (naturally). It also shows that market shares are not simultaneously mean profitability. Most people like to take what they get for free – the Internet principle. The fact that Google has to slowly start to monetize its customer base can be seen by the discontinuation of the free standard version. It appears that the critical mass has been reached.

Compared to Google Apps, Microsoft was to late with Office 365 on the market and must catch up once strong. On top of that Microsoft has (apparently) nothing to give away. Assuming that the numbers of UserActivion are valid, another reason may be, that the website and the offer of Office 365 – compared to Google Apps – are far too opaque and complicated. (Hint: Just visit the websites.)

Google copied the Microsoft principle

In conclusion, based on the UserActivion numbers, it can be said that Google is on the best way to apply the Microsoft principle to itself. Microsoft’s way into the enterprise went over the home user of Windows, Office and Outlook products. The strategy worked. Who even works in the evening with the known programs from Redmond has it during the day at work much easier because it is so familiar. Even the recommendations for a Microsoft product by the employees were inevitable. The same applied to the Windows server. If a Windows operating system is so easy to use and configure, then a server can not ultimately be much more complicated. With it the decision makers could be taken on board. A similar principle can be seen at Google. Google Apps is nothing more than a best of the Google services for end users, GMail, GDocs, etc. packed in a suite. Meanwhile, the dissemination of these services is also relatively high, thus it can be assumed that most IT decision makers are familiar with it, too. It is therefore interesting to see how the real(!) market share between Google Apps and Office 365 to develop.