Kategorien
News

Amazon S3 erreicht 1 Billion gespeicherte Objekte

Die Grenze ist geknackt. Seit dem Ende der letzten Woche sind über eine Billion Objekte (1.000,000,000,000) im Cloud Storage Amazon S3 gespeichert. Jeff Barr vergleicht die Zahl mit etwa 142 Objekte die damit auf jedem Erdbewohner anfallen würden, oder 3,3 Objekte für jeden Stern in unserer Galaxie. Würde man ein Objekt pro Sekunde zählen, wäre man damit 31.710 Jahre beschäft alle zu zählen. Beeindruckend!

Amazon S3 erreicht 1 Billion gespeicherte Objekte

1 Billion Objekte entstehen nicht von alleine

Verantwortlich für diese atemberaubende Zahl, Amazon S3 existiert erst seit 6 Jahren, sind natürlich die Kunden. Trotz neuer Funktionen wie Amazon S3 – Object Expiration, mit der einzelne Objekte quasi ein Verfallsdatum erhalten, und wodurch bereits über 125 Milliarden Objekte gelöscht wurden, hat die Datenmenge explosionsartig zugenommen.

Natürlich entstehen solche Datenmengen nicht von alleine und Amazon trägt mit neue Funktionen wie bspw. dem API Zugriff auf die Abrechnungsdaten sein übliches dazu bei, dass immer mehr Daten gespeichert werden müssen. Dennoch ist diese hohe Frequenz nicht verwunderlich. Amazon S3 ist nun einmal der Dreh und Angelpunkt in der Amazon Cloud, wenn es darum geht „irgendetwas“ permanent zu speichern.


Bildquelle: http://www.businesscomputingworld.co.uk

Kategorien
Services

17+ Cloud Storage Alternativen zu Google Drive

Google besetzt mittlerweile viele wichtige Bereiche im IT-Markt. Schon lange konzentriert sich das Unternehmen aus Mountain View nicht mehr nur auf die Suche. Neben Android im mobilen Bereich greift Google mit Google+ auch seit längerem im Social Media Umfeld an. Was noch fehlte war der attraktive Markt für Cloud Storage Lösungen. Aber auch hier hat sich kürzlich etwas getan. Mit Google Drive hat Google seinen Cloud Storage veröffentlicht.

Nach positiven Reaktion gab es allerdings ebenfalls Kritiken an Google Drive. Google könnte die Daten, die auf Google Drive abgelegt werden, nutzen, um weitere Analysen darauf durchzuführen. Das Google die Daten nicht ganz egal sind, zeigen bereits die in Google Drive integrierten Services zum Taggen der Bilder. Es lohnt sich also, Alternativen anzuschauen, um nicht alle Daten in die Hände des Suchmaschinenprimus zu geben. Dafür stelle ich euch 17 Alternativen zu Google Drive kurz vor. Die Liste ist bestimmt nicht vollständig. Wenn etwas fehlt, bitte einfach bescheid sagen.

Amazon S3 + CloudBerry

CloudBerry gehört zu den ersten Cloud Storage Lösungen für den Privatkundensektor. Dabei handelt es sich bei CloudBerry lediglich um einen Client für den Zugriff auf Cloud Speicher. Der bekannteste Speicher den CloudBerry unterstützt ist Amazon S3. Mehr unter http://www.cloudberrylab.com.

Dropbox

Dropbox ist der wohl beliebteste Cloud Storage weltweit. Es gibt proprietäre Clients für Windows, Mac, Linux, Android und iOS. 2GB bekommt man als Nutzer kostenlos geschenkt. Weitere 50GB kosten 9,99 Dollar pro Monat bzw. 99,00 Dollar pro Jahr. Mehr unter https://www.dropbox.com.

Box

Box konzentriert sich mit seinem Angebot eher auf den Einsatz im geschäftlichen Bereich, was zum einen die Preise zeigen. Der Cloud Speicher verfügt über eine 256-bit SSL Verschlüsselung sowie eine Integration in Google Apps, Salesforce und viele weitere Anwendungen. Mobile Anwendungen stehen für Android, iOS und Blackberry bereit. Mehr unter http://box.com.

Mozy

Mozy gehört zu VMware und EMC und gehört zu den ersten Cloud Storage Lösungen auf dem Markt. Mozy konzentriert sich sowohl auf Privat- und Unternehmenskunden. 2GB gibt es für Privatkunden kostenlos. 50GB kosten 4,99 EUR pro Monat für einen Computer. Mehr unter http://mozy.com.

Carbonite

Carbonite fokussiert ebenfalls Privat- und Unternehmenskunden. Unbegrenzter Speicherplatz kostet 59,00 US-Dollar pro Computer pro Jahr. Clients sind für Windows und Mac verfügbar. Mehr unter http://www.carbonite.com.

EVault

EVault ist ein Angebot vom Speicher- und Festplattenpioneer Seagte. Die Lösung richtet sich gezielt an Unternehmen und keine Privatkunden. Mehr unter https://www.evault.com.

SugarSync

SugarSync ermöglicht den Zugriff auf die Daten und deren Synchronisation über mehrere Plattformen. Neben Windows und Mac Clients unterstützt SugarSync ebenfalls mobile Endgeräte, darunter iPhone/iPad, Android, BlackBerry, Symbian und Windows Mobile. 5GB Speicherplatz gibt es gratis. 30 GB kosten 4,99 Dollar pro Monat bzw. 49,99 Dollar pro Jahr. Weitere Kapazitätsstufen sind 60GB und 100GB. Mehr unter https://www.sugarsync.com.

Symantec: Norton Online Backup

Über seine SymantecCloud bietet der Sicherheitsspezialist ebenfalls eine Online Backup Lösung für Privat- und Unternehmenskunden an. Mehr unter http://www.symanteccloud.com.

LiveDrive

Der britische Cloud Storage Anbieter bietet unbegrenzten Speicherplatz. Für 5,95 EUR pro Monat können Daten von einem Windows PC oder Mac in der Cloud gespeichert werden. Die Synchronisationsfunktion kostet 9,95 EUR pro Monat. Mehr unter http://www.livedrive.com.

Windows SkyDrive

Microsoft SkyDrive bietet 7GB kostenlosen Speicherplatz. Das Kontigent kann z.B. mit 20GB Speicher für 8,00 EUR pro Jahr erweitert werden. Der Zugriff erfolgt über den Microsoft Live Account. http://skydrive.com

Symform

Symform verfolgt einen Community Cloud Storage Ansatz. Jeder Nutzer stellt eigenen nicht benötigten Speicherplatz zur Verfügung und erhält im Gegenzug Symform Speicherplatz. Mehr unter http://www.symform.com.

ZipCloud

ZipCloud bietet unbegrenzten Speicherplatz inkl. Verschlüsselung für 6,95 Dollar pro Monat. Mehr unter http://www.zipcloud.com.

JustCloud

JustCloud bietet ebenfalls unbegrenzten und verschlüsselten Speicherplatz. Die Daten können zudem über mehrere Rechner synchronisiert werden. Preise konnte ich der Seite nicht entnehmen. Mehr unter http://www.justcloud.com.

UbuntuOne

UbuntuOne ist das Cloud Storage Angebot der gleichnamigen Linux Distribution. Es ermöglicht die Datensynchronisation und 5GB kostenlosen Speicherplatz sowie einen Musik Streaming Service. Weitere 20GB Speicherplatz kosten 2,99 Dollar pro Monat. Mehr unter https://one.ubuntu.com.

MyPCBackup

MyPCBackup bietet unbegrenzten Speicherplatz und die Synchronisation über mehrere Computer. Preise konnte ich der Seite nicht entnehmen. Mehr unter http://www.mypcbackup.com.

TeamDrive

TeamDrive bietet eine Cloud Storage Lösung für Privat- und Unternehmenskunden an. Der Service aus Deutschland bietet zudem eine Rechteverwaltung auf Benutzerebene. Unterstützt werden alle gängigen Systeme, darunter Windows, Linux, Mac, Android und iOS. Der kostenlose 2GB Speicherplatz kann z.B. mit 10GB für 5,99 EUR pro Monat erweitert werden. Mehr unter http://teamdrive.com.

CloudSafe

CloudSafe kommt ebenfalls aus Deutschland und bietet neben dem Speichern ebenfalls Möglichkeiten für die Kollaboration. 2GB kostenloser Speicherplatz sind pro Account bereits enthalten. Weitere 5GB kosten 2,99 EUR pro Monat. Mehr unter http://cloudsafe.com.

Wuala

Wuala ist ein Cloud Storage Anbieter aus der Schweiz. Hier bekommt man zunächst 5GB kostenlosen Speicherplatz, der z.B. mit 20 GB für 29 EUR pro Jahr erweitert werden kann. Die Verschlüsselung (AES, RSA und SHA) findet auf dem Rechner lokal statt, bevor die Daten in die Cloud geschoben werden. Clients gibt es für Windows, Mac, Linux sowie iOS und Android. Mehr unter http://wuala.com.

Ich bin bekennender Dropbox Nutzer. Schaue ich mir aber das eine oder andere Angebot und vor allem das Preisleistungsverhältnis genauer an, kann sich das bald ändern. Was mir zudem aufgefallen ist, dass sich ein paar der genannten Services vom Erscheinungsbild sehr ähneln (Vorsicht!)…


Bildquelle: http://www.miamism.com

Kategorien
News

Amazon S3 speichert 905 Milliarden Objekte – Die Billion steht kurz bevor

Wie groß ist der Cloud Storage Service – Amazon S3 – der Amazon Web Services tatsächlich? Diese Frage hat Jeff Barr kürzlich in einem Beitrag auf dem Unternehmensblog beantwortet. Die Zahlen sind riesig!

Amazon S3 speichert 905 Milliarden Objekte

Zum Ende des ersten Quartals 2012 zählt das Unternehmen 905 Milliarden gespeicherte Objekte im Amazon S3 Cloud Storage. Hinzu kommen 650,000 Anfragen pro Sekunde, die je nach Auslastung jedoch stark ansteigen. Zudem werden nach Angaben von Amazon anhand der S3 APIs, AWS Import/Export, dem AWS Storage Gateway und weiteren Backup Tools über 1 Milliarde Objekte pro Tag hinzugefügt.

Die obere Graphik zeigt den immensen Wachstum von Amazon S3. Im vierten Quartal 2006 waren es 2,9 Milliarden Objekte. Im Jahr 2008 40 Milliarden und 2010 bereits 262 Milliarden Objekte. Im vierten Quartal 2011 762 Milliarden und mit dem letzten Stand 905 Milliarden Objekte. Nimmt man Amazons Aussage – das über 1 Milliarde Objekte pro Tag hinzukommen, sollte die Billion in kürzester Zeit erreicht sein.

Kategorien
News

Die Amazon Web Services hosten Katalog für Humangenetik in der Cloud

Die Amazon Web Services (AWS) und das U.S. National Institutes of Health (NIH) haben die komplette Datenbank des 1000 Genomes Project als Public Data Set in die Amazon Cloud migriert. Damit haben Wissenschaftler nun ständigen Zugang zu 200 Terabyte an genetischen Daten zur Erforschung von Krankheiten. Ein weiterer idealer Anwendungsfall für Cloud Computing und Big Data.

Die Kooperation, die offiziell während des White House Big Data Summit angekündigt wurde, ermöglicht es Wissenschaftlern kostenlos auf die weltweit größte Sammlung von Daten zur Humangenetik zuzugreifen Bei dem 1000 Genomes Project handelt es sich um ein internationales Forschungsprojekt, das von einem Konsortium bestehend aus 75 Unternehmen und Organisationen koordiniert wird. Das Ziel des Projekts ist die Erstellung des detailreichsten Katalogs von genetischen Variationen bei Menschen.

Dazu hat das Projekt bereits 200 Terabyte an genetischen Daten inkl. DNS Sequenzen von mehr als 1.700 Personen gesammelt, auf die Wissenschaftler nun kostenlos über die AWS Cloud zugreifen können. Das Projekt verfolgt das Ziel die Gene von weltweit über 2.600 Individuen aus 26 Bevölkerungen bereitzustellen. Das 1000 Genomes Project startete 2008 mit ein paar Terabytes an Daten in seine Pilotphase. Bereits 2010 wurde ein kleiner Teil als Public Data Set auf AWS veröffentlicht.

Bei den Amazon Public Data Sets handelt es sich um ein öffentliches zentrales Repository von unterschiedlichen Daten, die auf Amazon S3 und Amazon EBS gespeichert sind. Auf diese Daten kann direkt zugegriffen werden, z.B. über Amazon EC2 oder Amazon EMR (Elastic MapReduce) ohne diese großen Datenmengen auf lokale Server herunterzuladen.

Amazon hat neben dem 1000 Genomes Project ebenfalls Public Data Sets vom NASA Jet Propulsion Laboratory, Langone Medical Center an der New York University, Unilever, Numerate, Sage Bionetworks oder Ion Flux gespeichert.

Die Nutzung der Public Data Sets ist kostenlos. Kosten entstehen für die Verarbeitung der Daten auf der Amazon Cloud wie z.B. Amazon EC2.

In diesem Zusammenhang sehr interessant: Nach der Cloud, wird Amazon auch der Big Data Gigant?

Weiterführende Informationen


Bildquelle: http://www.ige3.unige.ch

Kategorien
Management

Performance König Amazon? – AWS hängt Azure und Rackspace beim Datentransfer ab!

Sollen Daten aus dem Storage Service der Amazon Cloud zu Mittbewerbern wie Windows Azure und Rackspace übertragen werden, dauert dieser Vorgang 10 mal länger als der Transfer von Azure und Rackspace in die Amazon Cloud, das ergaben Testergebnisse des Speicherhersteller Nasuni.

Performance König Amazon?

Nasuni führte dazu fünf Testreihen durch, bei der in jedem Fall 12TB an Daten zwischen zwei Cloud Services übertragen wurden. Die Ergebnisse zeigen, dass die Datenübertragung von Amazon S3 zu Azure oder Rackspace deutlich mehr Zeit in Anspruch nimmt, als die Übertragung der Daten vom Mittbewerb in die Amazon Cloud. So dauert bspw. der Transfer von 12TB Daten von Amazon zu Azure 40 Stunden, wohingegen dieselbe Datenmenge von Azure zu Amazon nur 4 Stunden benötigt.

Der Transfer von Rackspace in Richtung Amazon benötigte 5 Stunden. Die Übertragung von Amazon zu Rackspace hingegen fast eine Woche. Der Transfer zwischen zwei Amazon Buckets dauerte 4 Stunden. Die Tests beschränkten sich dabei nur auf den Transfer zwischen Public Cloud Anbietern und nicht zwischen dem Rechenzentrum eines Nutzers und einem der genannten Cloud Services bzw. dem Rücktransfer von einem Public Cloud Anbieter in das eigene Rechenzentrum.

Die Testergebnisse variieren zudem von der Tageszeit und der Anzahl der für den Datentransfer eingesetzten Rechner. Dennoch zeigen die Ergebnisse den kleinsten zeitlichen Horizont, den es benötigt, um 12TB zu transferieren.

Im Folgenden sind die Ergebnisse zu finden, die zeigen, wie lange es benötigt 12TB an Daten zwischen den einzelnen Cloud Anbietern zu übertragen.

  • Amazon S3 zu Amazon S3 “Bucket”: 4 Stunden
  • Amazon S3 zu Windows Azure: 40 Stunden
  • Amazon S3 zu Rackspace: Knapp eine Woche
  • Microsoft Windows Azure zu Amazon S3: 4 Stunden
  • Rackspace zu Amazon S3: 5 Stunden

Ergebnisse des Cloud Storage Performance Tests.

Ergebnisse des Cloud Storage Performance Tests.

Nasuni kommt zu dem Ergebnis, dass die Hauptprobleme derzeit bei den Schreibvorgängen, also dem Speichern der Daten, in der Cloud liegen. Alle Datenübertragungen Richtung Amazon S3 betrugen zwischen 4 und 5 Stunden, wohingegen das Schreiben Microsoft Windows Azure und Rackspace erheblich länger dauerte.

Gründe für die langsame Amazon-zu-Azure Migration sieht Nasuni darin begründet, dass die Tests das Daten-Limit von Windows Azure erreicht haben könnten. Woran es genau liegt, darauf hat Nasuni keine Antwort. Es könnte an langsamen eingehenden Netzwerkverbindungen aber auch an einer technologischen Beschränkung liegen.

Aussagen von Microsoft bzgl. der Performance Unterschiede gibt es laut Nasuni bisher nicht. Jedoch bemerkte Nasuni bei Amazon S3 keine Performance Einschränkungen und führt die Leistungen auf die Architektur oder Bandbreite von Azure zurück.

Während der Migration von Amazon zu Rackspace bemerkte Nasuni ebenfalls eine schwache eingehende Datentransferrate und zieht hier Rückschlüsse auf eine schlechte Performance bei anderen OpenStack basierten Clouds, da auch Rackspace den Open Source Cloud Stack einsetzt und das Projekt massiv unterstützt.


Bildquelle: http://wikimedia.org, http://blogspot.com/

Kategorien
News

Amazon erweitert S3 um Regeln für Buckets

Amazon erweitert mit dem heutigen Tag sein Amazon S3 Angebot um die sogenannten Bucket Policies. Damit besteht nun die Möglichkeit, Regeln auf Basis von bedingten Regeln zu erstellen, um damit den Zugriff auf die Buckets und Objekte zu steuern.

Auf Basis dieser Regeln stehen nun folgende Möglichkeiten für die Zugriffsbeschränkung bereit:

  • Authentifizierte Zugriffe: Auf Basis eines AWS Accounts den Zugriff erlauben oder verbieten.
  • Query-String-Authentifizierung mit zeitlich begrenzten URLs: Für den temporären Zugriff auf die Ressourcen.
  • Beschränkungen auf Basis von Anfragen: Den Zugriff auf Basis von Anfrage-Attributen wie z.B. den HTTP Referrer und die IP Adresse erlauben oder verbieten.

Weiterhin können damit ab sofort Sicherheitsregeln definiert werden, die auf mehr als ein Objekt angewendet werden können. Einschließlich aller Objekte oder eine Teilmenge der Objekte in einem Bucket.

Kategorien
Services

Die Amazon S3 Konsole

Mit der Amazon S3 Konsole hat Amazon seine AWS Management Console erweitert. Wie schon von den bisherigen Konsolen, wie z.B. der für EC2 bekannt, handelt es sich um eine Weboberfläche, mit der sämtliche Amazon S3 Ressourcen verwaltet werden können. Dazu gehören das Erstellen neuer Buckets sowie das Hochladen von Objekten.

Um die Amazon S3 Konsole zu nutzen, reicht es aus sich mit seinem AWS Benutzeraccount und dem dazugehörigen Passwort anzumelden. Die Access Key ID und der Secrect Access Key werden nicht benötigt, diese werden automatisch durch AWS im Hintergrund geladen.

Damit integriert die AWS Management Console mit Amazon S3, Amazon EC2, Amazon CloudFront, Amazon Elastic MapReduce und Amazon RDS nun fünf Services an einer zentralen Stelle.

Mit der Amazon S3 Konsole können weiterhin Ordner angelegt, sowie Objekte der Öffentlichkeit zugänglich gemacht werden. Ordner und Objekte die mit S3 Tools von einem Drittanbieter erstellt wurden, können mit der Konsole ebenfalls bearbeitet werden.

Die Amazon S3 Konsole ist unter http://console.aws.amazon.com/s3 zu finden.

Kategorien
Services

JungleDisk

JungleDisk ist das Cloud Storage Angebot von Rackspace Cloud. Dabei handelt es sich im Prinzip um eine Schicht (Applikation) zwischen dem Benutzer bzw. dem lokalen PC/Server und dem Speicherdienst Amazon S3 oder dem von Rackspace.

Die Daten können bei Amazon S3 dabei wahlweise in den USA oder Europa gespeichert werden, was sich in den Preisen und der Geschwindigkeit (Latenz/ Laufzeiten) wiederspiegelt. Die Preise der jeweiligen Angebote setzen sich aus einer festen Grundgebühr (in USD) plus dem tatsächlich genutzen Speicherplatz auf S3 zusammen. Der genutzte Speicherplatz wird dabei mit den bekannten Gebühren von Amazon S3 verrechnet. In diesem Fall ist daher auch ein Amazon AWS Account erforderlich. Man bezahlt also hier – abgesehen von der Grundgebühr – nur für den Speicherplatz, der auch wirklich genutzt wird.

Die Abbrechnung erfolgt vollständig über Amazon. Man erhält am Anfang des Monats eine Rechnung von Amazon über die Grundgebühr der JungleDisk. Die Rechnung über den genutzen Speicherplatzverbrauch findet über den Amazon AWS Account statt.

JungleDisk stellt als einer der wenigen Anbieter für die drei großen Betriebssysteme Windows, Linux und MAC native Clients zur Verfügung. Weiterhin kann der Zugriff auf die gespeicherten Daten mittels einer Weboberfläche oder des iPhones stattfinden.

Die Datenübertragung und die Daten selber sind mit einer 256 bit AES Verschlüsselung gesichert. Zusätzlich können die Buckets auf Amazon S3 mit einem weiteren Passwort geschützt werden.

JungleDisk ist, wie es auf dem ersten Blick erscheint kein reines Tools für das Backup in der Cloud. Daten können ebenfalls damit über mehrere Rechner synchronisiert werden, was die Kollaboration verbessert.

Im Folgenden werden die vier Angebote der JungleDisk, die sich in die Bereiche Business und Personal unterteilen, vorgestellt.


Business Class

Die Business Class besteht aus der Workgroup Edition und der Server Edition. Dabei ist die Workgroup Edition auf Desktop PCs von kleinen bis mittleren Unternehmen ausgerichtet, mit der Backups erstellt, sowie Daten ausgetauscht und synchronisiert werden können. Die Server Edition dient zum Backup eines Servers und verfügt über Möglichkeiten das System per Fernwartung zu verwalten.

Workgroup Edition

Mit der Workgroup Edition können Daten mittels „Master Accounts“ zwischen mehreren Benutzer ausgetauscht und synchronisiert werden. Dabei werden Teamgrößen von 2 – 100 Mitgliedern unterstützt. Die Benutzer können damit auf einfache Weise miteinander zusammenarbeiten und haben Zugriff auf ihre Daten auch dann, wenn Sie gerade nicht mit dem Internet verbunden sind. Wenn eine Internerverbindung wieder vorhanden ist, werden automatische alle Änderungen mit der Cloud synchronisiert. Der Zugriff auf die Daten kann ebenfalls über eine Weboberfläche oder ein iPhone erfolgen. Zudem steht eine protable Version zur Verfügung, die von einem USB-Stick ausgeführt werden kann. Die Daten werden mit einer 256 bit AES Verschlüsselung geschützt.

Preise

  • 4 USD pro Benutzer pro Monat + Gebühren von Amazon S3 (siehe unten)

Server Edition

Die Server Edition richtet sich an Windows und Linux Server. Mit ihr stehen im Prinzip unbegrenzte Speicherkapazitäten für Backups in der Cloud zur Verfügung. Die Abbrechnung erfolgt hier nach dem pay per use Modell, es entstehen also nur Kosten für den tatsächlich genutzten Speicherplatz.

Zur Verwaltung der Backups stehen Tools für Windows, Linux und Mac Clients zur Verfügung, die auch parallel auf unterschiedlichen Maschinen genutzt werden können. Die Daten werden mit einer 256 bit AES Verschlüsselung geschützt. Weitere Funktionen sind erweiterte Kompressionsmechanismen und die Möglichkeit der Deduplication.

Preise

  • 5 USD pro Server pro Monat + Gebühren von Amazon S3 (siehe unten)


Personal

Die Angebote aus dem Bereich Personal setzen sich aus dem Simply Backup und der Desktop Edition zusammen. Bei dem Simply Backup handelt es sich lediglich um die Möglichkeit automatisierter Backups, wobei die Desktop Edition Elemente der Workgroup Edition beinhaltet.

Simply Backup

Mit Simply Backup können die Daten auf einem Rechner zeitgesteuert und automatisiert auf Amazon S3 oder Rackspace gesichert und im Fehlerfall z.B. von der letzten Nacht oder der letzten Woche wiederhergestellt werden. Clients sind für Windows und Mac OS vorhanden. Die Daten werden mit einer 256 bit AES Verschlüsselung geschützt.

Preise

  • 2 USD pro Monat + Gebühren von Amazon S3 (siehe unten)

Desktop Edition

Die Desktop Edition beinhaltet alle Funktionen des Simply Backup und bietet darüber hinaus die Möglichkeit die JungleDisk wie eine lokale Festplatte (als Netzlaufwerk) auf dem Computer einzubinden. Somit kann direkt von und auf diesem Netzlaufwerk gearbeitet werden. Weiterhin können ausgewählte Ordner mit der JungleDisk synchronisiert werden. Damit hat man die Möglichkeit seine Daten über mehrere Rechner hinweg zu synchronisieren, da sich die Daten zentral in der JungleDisk befinden und mit dem lokalen Rechner abgeglichen werden. Somit stehen auf jedem Rechner und an jedem Ort (vorausgesetzt eine Internetverbindung ist vorhanden) immer die aktuellen Daten zur Verfügung. Der Zugriff auf die Daten kann aber auch dann erfolgen, wenn gerade keine Internetverbindung vorhanden ist, da die Daten ebenfalls lokal gespeichert werden. Ist die Internerverbindung wieder vorhanden, werden automatische alle Änderungen mit der Cloud synchronisiert. Der Zugriff auf die Daten kann ebenfalls über eine Weboberfläche oder ein iPhone erfolgen. Es stehen Clients für Windows, Mac OS und Linux zur Verfügung. Die Daten werden mit einer 256 bit AES Verschlüsselung geschützt.

Preise

  • 3 USD pro Monat + Gebühren von Amazon S3 (siehe unten)


Screenshots

Konfigurationsmenü

Auswählen der Dateien für das Backup

Backupvorgang

Activity Monitor

Wiederherstellen von Dateien

Verbindung zu einem Server herstellen


Amazon S3 Gebühren


Quelle

Kategorien
Services

Peecho's Printcloud – Printing as a Service

Mit der Printcloud bietet das Unternehmen Peecho aus den Niederlanden einen Cloud Service, mit der ein einheitlicher Zugang zu allen Druckumgebungen auf der ganzen Welt ermöglicht wird. Es reicht dafür aus, lediglich eine eigene Benutzerschnittstelle zu erstellen. Der Rest wird von der Printcloud auf Basis von pay-per-use und ohne eine erforderliche Menge abgewickelt. Der gesamte Prozess vom Auftragseingang über die Verarbeitung bis hin zur Produktion und dem Versand von personalisierten Produkten wird von der Printcloud übernommen.

Was bietet die Printcloud?

  • Grafik-Design
    Vollständige Unterstützung von Adobe Indesign IDML. Weltweit kann jeder Graphikdesigner für ein Unternehmen, dass die Printcloud nutzt, Produkte entwerfen.
  • Einfache Konnektivität
    Mit Hilfe der REST API kann sich jede Anwendung (z.B. eine Webseite, eine mobile Anwendung, eine Desktop Anwendung oder ein Gadget eines Sozialen Netzwerks) mit der Printcloud verbinden.
  • Software
    Programme stehen für das iPhone und Adobe Flex zur Verfügung.
  • Skalierbarkeit
    Auf Grund von Cloud Computing Technologien können die Kapazitäten in wenigen Minuten erhöht werden, wodurch kein Engpass entsteht.
  • Weltweite Produktion
    Auf Basis von Druckstandards wie JDF und JMT kommuniziert die Printcloud mit einem weltweiten Netzwerk von Druckumgebungen, um das endgültig gedruckte Produkt so nah wie möglich am Ziel der Auslieferung zu produzieren und dadurch die Versandkosten zu minimieren.
  • Faire Abbrechung
    Es müssen keine langfristigen Verträge eingegangen werden was ebenfalls bedeutet, dass Terminierungsentgelte, Vorab-Investitionen oder Einrichtungskosten entstehen. Die Abbrechnung erfolgt vollständig auf einer pay per use Basis. Es wird also tatsächlich nur das bezahlt, was genutzt wird.

Funktionen

  • Produktkatalog
    Es steht ein Produktkatalog für Anwendungen/ Produkte von Kunden bereit, die schnell erstellt werden können.
  • Produktvorlagen
    Schnelle Erstellung von Produktvorlagen durch die Nutzung von Adobe InDesign IDML.
  • Einkaufswagen
    Es können mehrere Produkte in einer Bestellung zusammengefasst werden.
  • Abbrechnung
    Die Rechnungsstellung an die Endkunden kann von der Printcloud ebenfalls übernommen werden.
  • Gutschein-Codes
    Für werden mobile Zahlungen oder Marketing-Kampagnen können Gutschein-Codes erstellt werden.
  • Status-Updates
    Der Status des gesamten Prozessverlaufs kann zu jederzeit mittels einer eigens entwickelten Anwendung oder via der Webseite der Printcloud dem Endkunden angezeigt werden.

  • REST API
    Zur Kommunikation steht eine REST API zur Verfügung.
  • iPhone
    Hilfe bei der Entwicklung einer iPhone Anwendung für eigene Produkte mittels der Printcloud Open Source iPhone Anwendung.
  • Adobe Flex
    Vollständige Unterstützung von Adobe Flex.
  • Skalierbarkeit
    Hohe Skalierbarkeit und Verfügbarkeit durch Cloud Computing Technologien.
  • Weltweite Produktion
    Mit der Printcloud kann jede Druckumgebung auf der ganzen Welt angesprochen werden.

Technik

Die Printcloud Plattform basiert vollständig auf der Architektur der Amazon Web Service.

  • Simple Storage Service
    Alle Daten werden in Amazons Cloudspeicher Simple Storage Service (S3), wodurch eine unbegrenzte Menge an Daten verwaltet und gespeichert werden kann und von überall aus verfügbar ist.
  • Elastic Compute Cloud
    Das Versprechen der Skalierbarkeit realisiert die Printcloud durch den Einsatz von Amazons Elastic Compute Cloud (EC2), mit der je nach Bedarf die Systeme erweitert oder verkleinert werden können und damit saisonale Lastspitzen abgefangen werden können.
  • Simple Queue Service
    Mit dem Amazon Simple Queue Service (SQS) werden die einzelnen Prozesse der Printcloud separiert, wodurch kein neuer Auftrag den gesamten Prozess stören kann.
  • Relational Database Service
    Mit dem Relational Database Service (RDS) steht der Printcloud eine skalierbare Datenbank in der Cloud zur Verfügung.
  • Cloudfront
    Mit Amazon CloudFront werden die benötigten Daten eines Druckauftrags der am nächsten gelegenen Druckumgebung des Auslieferungsorts bereitgestellt.

Für Druckereien

Die Printcloud stellt Anwendungen von Drittanbietern (Händlern) eine REST API für die Kommunikation bereit. Der gesamte Prozess vom Auftragseingang über die Verarbeitung bis hin zur Produktion und dem Versand von personalisierten Produkten wird von der Printcloud für den Händler übernommen.

Aus der Sicht einer Druckerei arbeitet Peecho als eine Art Broker für die eigenen Produkte. Dazu steht ein einziger Einstiegspunkt zur Verfügung, wodurch Peecho’s Partner ihren Kunden jegliche Art von Produkt anbieten können. Diese Produkte können in verschiedenen Produktionsstätten auf der ganzen Welt hergestellt werden.

Die Infrastruktur basiert vollständig auf den Amazon Web Services, wobei Technologien wie Elastic Load Balancing und Auto-Scaling genutzt werden, um innerhalb von wenigen Minuten die Skalierung der Systeme vorzunehmen.

Der (Kommunikations)-Prozess zwischen einem Partner und der Printcloud funktioniert wie folgt:

Die Ausgabe der Printcloud für 2D Drucker basiert auf den folgenden Elementen:

  • Job Ticket in JMF (Job Messaging Format) und JDF (Job Definition Format).
  • Produktbeschreibung als Adobe Indesign IDML (InDesign Markup Language).

Die Bestellungen werden dabei nicht direkt zu den Druckereien geschickt, um diese nicht zu überlasten. Vielmehr basiert der gesamte Vorgang auf dem Pull Mechanismus, wodurch die Druckereien die Möglichkeiten haben, die Arbeitslast selber zu bestimmen und können die Aufträge in ihren Produktionsfluss integrieren.

  • Erster Schritt: Ein Jobticket beziehen
    Jeder Job wird einer Druckerei in einer eigenen Amazon SQS Job Ticket Queue abgelegt. Diese können z.B. mittels SOAP abgefragt werden. Das Job Ticket basiert auf einer kleinen XML Datei, in der ein Zeiger auf die Produktionsdatei und die Produkbeschreibung zeigt. Mit der JDF Datei kann die Druckerei entscheiden, wann und wie das Produkt gedruckt werden soll.

    Ist das Ticket von der Druckerei heruntergeladen worden, wird der Status des Tickets auf „Queue“ gesetzt, was gleichermaßen bedeutet, dass der Auftrag in Produktion ist.

  • Zweiter Schritt: Das Produkt erhalten
    Jedes Job Ticket zeigt zusätzlich auf einer Produktdatei, die in Amazon S3 gespeichert ist. Auf diesen Service kann mit SOAP oder REST mittels eines Schlüssels oder direkt mit einer URL zugegriffen werden. Abhängig von der Job Beschreibung kann die Druckerei die Produktdatei herunterladen, wenn sie bereit sind zu produzieren.
  • Dritter Schritt: Produzieren, Versenden und auf „versendet“ setzen
    Jetzt kann die Druckerei die IDML Datei in ein für sie passendes Format übersetzen, wie z.B. PDF oder PPML. Die Druckerei produziert das Produkt und versendet es an die Empfänger. Anschließend wird der Status des Job Tickets auf „versendet“ gesetzt.

    Für die ersten Schritte wird eine Open Source Beispielanwendung bereitgestellt, die Job Tickets und Produkt Dateien aus der Printcloud in einen bestimmten Ordner herunterlädt.

Quelle

  • PRINTCLOUD by Peecho

Kategorien
Tutorials

Erste Schritte mit dem CloudBerry S3 Explorer

Letzte Woche hab ich den CloudBerry S3 Explorer vorgestellt. Heute zeige ich die ersten Schritte und Funktionen, um damit einen Amazon S3 Account zu verwalten.

Verbindung zum Amazon S3 Account

Nach dem Start legen wir für den CloudBerry Explorer zunächst unseren Amazon S3 Account an, um uns später damit zu verbinden. Dazu gehen wir auf „File >> Amazon S3 Accounts“ klicken dort auf „Add“ und fügen unseren S3 Account hinzu, indem wir einen beliebigen Namen zur Anzeige für CloudBerry wählen und unseren von Amazon vergebenen „Access Key“ und „Secret Key“ eingeben. Die Werte für den „Access Key“ und den „Secret Key“ erhalten wir direkt im Amazon S3 Account auf der AWS Webseite unter „Security Credentials“.

Um uns nun mit unserem S3 Account zu verbinden wählen wir auf einer der CloudBerry Explorer Seiten „Source >> [Name des eben angelegten S3 Accounts]“

Erstellen eines Amazon S3 Bucket

Um einen neuen Bucket zu erstellen klicken wir auf „New Bucket“, geben dem Bucket einen Namen und wählen die Region in welcher der Bucket abgelegt werden soll.

Unser Bucket mit dem Namen „clouduser“ ist für die Region „US“ angelegt.

Nachdem der Bucket erstellt wurde, sollten wir die Zugriffsrechte überprüfen. Dazu klicken wir mit der rechten Maustaste auf den Bucket und wählen „ACL >> ACL Settings“.

Dateien können nun hochgeladen werden, indem sie einfach von der einen Seite (lokaler Rechner) des CloudBerry Explorers auf die andere Seite (Amazon Bucket) verschoben werden.