Kategorien
News

Salesforce.com veröffentlicht Database.com

Mit Database.com (http://www.database.com) bringt salesforce.com die weltweit erste für Cloud Computing konzipierte Datenbank für Unternehmen auf den Markt. Database.com unterstützt sämtliche Programmiersprachen, Plattformen und Endgeräte. Database.com wird als eigenständiges salesforce.com-Produkt angeboten. Database.com unterstützt die Entwicklung der IT-Industrie hin zu mobilen Applikationen und Datenmodellen für soziale Funktionalitäten sowie für Push-Dienste. Mit dem neuen webbasierten Datenbanksystem können sich Entwickler voll auf die Programmierung konzentrieren anstatt sich mit Wartung von Datenbanken und Hardware zu beschäftigen. Dabei kombiniert Database.com die besten Eigenschaften von Datenbanken für Geschäftsanwendungen (z.B. User Management, Sicherheit bis auf Feldebene, Trigger, gespeicherte Prozeduren, Authentifizierung und leistungsfähige APIs) mit den Vorteilen von Cloud Computing.

Vorteile von Database.com gegenüber klassischen Client/Server-Datenbanken

  • Database.com ist offen. Ob Anwendungen für kleine Nutzergruppen oder skalierbare Lösungen, auf die hunderttausende User gleichzeitig zugreifen: Entwickler können ihre Applikationen in Java, C#, Ruby, PHP und anderen Programmiersprachen schreiben und auf jeder Plattform betreiben, egal ob Force.com, VMforce, Amazon EC2, Google AppEngine Heroku oder Microsoft Azure. Die Anwendungen laufen auf jedem Engerät wie z.B. Android Phone, Blackberry, iPad oder iPhone und rufen die Schnittstellen von Database.com sicher über das Internet auf.
  • Database.com ist bewährt und sicher. Database.com profitiert von der Sicherheit der weltweiten Serviceinfrastruktur von salesforce.com, die SSL, Single-Sign On, Identitätsprüfung und Anti-Phishing-Tools umfasst. Zudem bietet sie sicheren Zugang durch vielfältige nutzer- und rollenspezifische Einstellmöglichkeiten sowie Datensicherheit bis auf Feldebene. Database.com wurden einige der strengsten Sicherheitszertifizierungen der Branche verliehen, wie zum Beispiel ISO 27001, SAS 70 Type II und SysTrust.
  • Database.com ist nicht nur die Datenbank, auf der sämtliche Services von salesforce.com laufen, sondern mit mehr als 20 Milliarden Datensätzen und über 25 Milliarden Transaktionen pro Quartal auch auch eine der größten Unternehmensdatenbanken weltweit.

Eigenschaften von Database.com

  • Relationale Datensicherung mit Tabellen, Bezügen, zahlreichen Feldtypen, Triggern, gespeicherten Prozeduren, Abfragesprache und Enterprise Search
  • Speicherung von Dateien wie Dokumente, Videos, Bilder etc.
  • SOAP und REST APIs für einfachen Zugriff auf die Database.com-Daten
  • Datenmodell für soziale Funktionalitäten. Database.com umfasst ein vorgefertigtes Datenmodell für verbesserte Zusammenarbeit, das Feeds, Nutzerprofile und Statusaktualisierungen unterstützt sowie ein Modell, mit dem es möglich ist, Datenbankeinträgen zu folgen. Zudem enthält Database.com APIs für die Interaktion mit den sozialen Komponenten der Datenmodelle. Entwickler können so beispielsweise Follower für Datenbankeinträge festlegen oder Datenfeeds anfordern, um Aktualisierungen in Echtzeit darzustellen.
  • Automatische Anpassung. Database.com unterstützt die Skalierung von Anwendungen über das Internet. Umfasst sind automatische Anpassungen, Upgrades, Remote-Datensicherung und -replikation sowie das automatische Anlegen von Umgebungen für Entwicklung, Tests und Schulungen.
  • Identitäten und Authentifizierung. Der Zugriff auf Database.com kann über oAuth oder SAML gesteuert werden. Die von Database.com unterstützten Funktionen für die Nutzerverwaltung umfassen Identitäten/Profile und Authentifizierung.
  • Sicherheit bis auf Feldebene. Point & Click-Werkzeuge erlauben es, den Datenzugriff bis auf Feldebene zu definieren. Die regelgesteuerte Filterlogik kann für sämtliche Datenbankabfragen von Anwendungen, die auf Basis von Database.com entwickelt wurden, genutzt werden.
  • Leistungsfähige Enterprise Search Dienste in Database.com erlauben eine Volltextsuche, die automatisch die Sicherheitsregeln des Unternehmens berücksichtigt.
  • Werkzeuge. Database.com enthält eine neue Entwicklerkonsole und ETL-Werkzeuge. Zudem stellt salesforce.com auf www.database.com eine Reihe von Entwickler Toolkits zur Verfügung, die die Anwendungsentwicklung beschleunigen. Diese umfassen Java, .NET, Ruby, PHP, iOS, Android, Google AppEngine, Google Data, Microsoft Azure, Amazon Web Services, Facebook, Twitter sowie Adobe Flash/Flex.

Preise und Verfügbarkeit

Aktuell ist die allgemeine Verfügbarkeit von Database.com für 2011 geplant.
Die Einstiegsnutzung von Database.com wird voraussichtlich kostenlos sein. Für grundlegende Database.com-Leistungen wie Datenbankzugriff, die Speicherung von Dateien und die automatische Wartung sind die folgenden Preisstaffelungen vorgesehen

  • Kostenlos für 3 Nutzer und bis zu 100.000 Datenbankeinträge und 50.000 Tranksaktionen/Monat
  • 10 Euro für je 100.000 weitere Datenbankeinträge
  • 10 Euro für je 150.000 weitere Transaktionen

Database.com Enterprise Services werden 10 Euro/User pro Monat kosten und Nutzeridentitäten, Authentifizierung und Kontrolle des Datenbankzugriffs auf Feldebene umfassen. Sowohl die allgemeine Verfügbarkeit als auch die angegebenen Preise können Änderungen unterliegen. Kunden sollten ihre Kaufentscheidungen auf aktuell verfügbare Produkteigenschaften gründen.

Kategorien
News

Salesforce.com kündigt Chatter Free an

Mit Chatter Free stellt salesforce.com seinen Kunden eine neue, kostenlose Version von Salesforce Chatter zur Verfügung. Bei Chatter handelt es sich um eine Kollaborations-Applikation und -Plattform für Unternehmen. Mit Funktionen wie Profilen, Statusaktualisierungen und Echtzeit-Benachrichtigungen können Mitarbeiter auf Chatter nicht nur Personen folgen – vergleichbar Facebook und Twitter -, sondern auch Dokumenten, Geschäftsprozessen und Anwendungsdaten.

Mit Hilfe des von Facebook bekannten viralen Einladungsmodells kann jeder Mitarbeiter seine Kollegen zur Zusammenarbeit in Salesforce Chatter einladen, selbst wenn sie noch keine salesforce.com-Nutzer sind. Chatter Free beschleunigt so die Verbreitung sozialer Kollaboration im gesamten Unternehmen. Da Chatter auf der Force.com-Plattform aufsetzt, ist zugleich sichergestellt, dass die Mitarbeiter nur die Informationen einsehen können, für die sie autorisiert sind.

Chatter Free bietet unternehmensweit soziale Kollaborationsfunktionen, wie

  • Profile
  • Statusaktualisierungen
  • Echtzeit-Benachrichtigungen
  • Das Teilen von Daten
  • Gruppen
  • Filter
  • Einladungen
  • Chatter Desktop
  • Chatter Mobile

Salesforce Chatter bringt bestehenden salesforce.com-Kunden den Vorteil der Social Collaboration-Technologie. Mit Chatter Plus können Unternehmen diese Funktionen auch für zusätzliche Mitarbeiter, die die salesforce.com-Lösungen nicht nutzen, verfügbar machen. Zudem können die Anwender mit Chatter Plus auch Accounts, Kontakten, Dashboards, Reports, Kalendern und Aktivitäten folgen sowie benutzerspezifische Objekte oder die Chatter API nutzen.

Kategorien
News

Amazon stellt Cloud DNS Dienst Amazon Route 53 vor

Bei Amazon Route 53 handelt es sich um einen hochverfügbaren und skalierbaren DNS (Domain Name System) Web Service. Route 53 verbindet Nutzeranfragen effektiver mit einer Infrastruktur die sich innerhalb der Amazon Web Services (AWS) befindet, wie bspw. einer Amazon Elastic Compute Cloud (Amazon EC2) Instanz, einem Amazon Elastic Load Balancer oder einem Amazon Simple Storage Service (Amazon S3) Bucket. Route 53 kann darüber hinaus ebenfalls dazu verwendet werden, um Nutzer zu einer Infrastruktur ausserhalb von AWS zu routen.

Route 53 löst DNS Anfragen mit einer geringen Latenz auf, indem ein globales Netzwerk von DNS Servern genutzt wird. Anfragen an eine Domain werden automatisch an den nächstgelegenen DNS Server weitergleitet und damit mit der best möglichen Performanz beantwortet. Route 53 stellt eine Web Service Schnittstelle bereit, über die Public DNS Einträge erstellt und verwaltet werden können und ist vollständig in alle bereits vorhandenen Amazon Web Services integriert. Zum Beispiel kann durch die Nutzung des AWS Identity and Access Management (IAM) in Kombination mit Route 53 bestimmt werden, wer Änderungen an den DNS Einträgen vornehmen kann.

Für die Nutzung von Route 53 müssen, wie bei alle anderen Amazon Web Services, keine langen Vertragslaufzeiten eingegangen oder Mindestumsätze generiert werden. Die Abrechnung erfolgt pro Domain, die mit dem Service verwaltet wird und pro Abfrage, die von Route 53 beantwortet wird.

Kategorien
News

Salesforce.com erhält TÜV Zertifizierung

Als erster Cloud Computing Anbieter in Deutschland hat Salesforce.com die Anforderungskriterien für das TÜV-Siegel „Geprüfter Datenschutz – Cloud Computing V1.0“ erfüllt. Im Vordergrund des Audits stand die Gewährleistung des Schutzes personenbezogener Daten auf Grundlage deutscher Datenschutzgesetze. Zertifiziert wurden die CRM-Lösungen von salesforce.com für Marketing, Sales und Service, die Force.com Entwicklungsplattform sowie die Kollaborationslösung Chatter.

Im Rahmen des Zertifizierungsprozesses wurden folgende vier Kernelemente einer umfassenden Prüfung unterzogen:

    (1) Die Grundanforderung an eine Datenschutzorganisation.
    (2) Die Datenschutzkonformität von Prozessen mit personenbezogenen Daten.
    (3) Die Bewertung technischer und organisatorischer Maßnahmen.
    (4) Die Anforderungen an die Datensicherheit im Rahmen des Datenschutzes.

Salesforce.com erfüllt bereits seit mehreren Jahren die internationalen IT-Sicherheitsstandards, wie ISO 27001 und SYSTRUST.

Kategorien
News

T-Systems geht in die Cloud

Mit einer kostenlosen Testphase für bereits vorhandene Unternehmenskunden startet nun auch T-Systems als ein großes deutsches Unternehmen mit einem Infrastructure as a Service Angebot in die Cloud. Die Pilotphase beginnt noch im November 2010 und wird im Februar 2011 enden.

Mit diesem Angebot wird T-Systems in direkter Konkurrenz zu den Amazon Web Services stehen. Das könnte Erfolg versprechend sein, wird alleine die finanzielle Kraft von T-Systems betrachtet.

T-Systems stützt sich vor allem auf die oft diskutierten Bereiche Zugriffskontrolle, Datenschutz und Datensicherheit, sowie die Service Level Agreements (SLAs). Alles im Hinblick auf eine höchstmögliche Skalierbarkeit.

Alle Rechenzentren und damit sämtliche Daten des Kunden werden sich in Deutschland befinden und nach der ISO Sicherheitsnorm 27001 zertifiziert und können darüber hinaus ebenfalls von den Kunden selbst auditiert werden.

Kategorien
News

Amazon Web Services erhalten ISO 27001 Zertifizierung

Die Amazon Web Services haben die ISO 27001 Zertifizierung erhalten. Die ISO 27001 Zertifizierung umfasst die AWS Infrastruktur, die Rechenzentren und die Services. Zu den zertifizierten Services gehören Amazon Elastic Compute Cloud (Amazon EC2), Amazon Simple Storage Service (Amazon S3) und Amazon Virtual Private Cloud (Amazon VPC).

Die ISO 27001 Norm ist ein globaler Sicherheitsstandard, der bestimmte Anforderungen an ein Information Security Management System stellt. Um die Zertifizierung zu erreichen, muss ein Unternehmen versichern, dass es über ein systematisches und kontinuierliches Konzept zur Verwaltung der sensiblen Unternehmens- und Kundendaten verfügt.

Die Amazon Web Services und alle ihre AWS Regionen sind bzgl. dieses weltweiten Sicherheitsstandards nun vollständig kompatibel und somit weltweit anerkannt. Weiterhin hat AWS ein offizielles Programm für die Aufrechterhaltung dieser Zertifizierung etabliert.

Kategorien
News

Amazon EC2 stellt Cluster GPU Instanzen vor

Mit den Cluster GPU Instanzen für Amazon EC2 führt Amazon einen neuen Instanz Typ ein, mit dem die Rechenleistung der GPU Prozessoren nun auch in der Cloud genutzt werden können. Grafikprozessoren (GPU) werden zunehmend dafür genutzt, um die Leistung von vielen alltäglichen Berechnungen zu beschleunigen. Aufgrund der einzigartigen infrastrukturellen Herausforderungen und hohen Kosten für diese Technologie, haben viele Unternehmen jedoch nicht die Möglichkeit GPUs für ihre Berechnungen zu nutzen.

Amazon Cluster GPU Instanzen verfügen über 22 GB Arbeitsspeicher, 33,5 EC2 Compute Units und nutzen das Amazon EC2 Cluster Netzwerk, welches über einen hohen Durchsatz und eine niedrige Latenz verfügt. Ideal also für High Performance Computing (HPC) und datenintensive Anwendungen.

Jede GPU Instanz verfügt über zwei NVIDIA Tesla® M2050 GPUs, die eine Spitzenleistung von mehr als eine Billion Flops mit doppelter Genauigkeit liefert. Durch die Nutzung der parallelen Rechenleistung von Hunderten von Kernen in den neuen GPU-Instanzen können dadurch viele Workloads immens beschleunigt werden. Speziell das Rendering von Graphiken und konstruktive Entwicklungen können davon stark profitieren.

Spezifikation einer Cluster GPU Instanz:

  • 22 GB Arbeitsspeicher
  • 33,5 EC2 Compute Units (2 x Intel Xeon X5570, Quad-Core “Nehalem” Architektur)
  • 2 x NVIDIA Tesla “Fermi” M2050 GPUs
  • 1690 GB Instanzspeicher
  • 64-bit Plattform
  • I/O Leistung: 10 Gigabit Ethernet
  • API Name: cg1.4xlarge

Weitere Informationen sind unter http://aws.amazon.com/ec2/hpc-applications zu finden.

Kategorien
News

Amazon S3 stellt "Multipart Upload" vor

Die Amazon Web Services haben ihren Dienst Amazon S3 um die Funktion „Multipart Upload“ erweitert. Dadurch können die Daten laut Amazon deutlich schneller und flexibler nach S3 hochgeladen werden.

Mittels „Multipart Upload“ kann ein einzelnes Objekt in Teile zerlegt werden, welche anschließend separat hochgeladen werden. Jedes Teil ist ein Bestandteil der Daten des ganzen Objektes, wobei der Upload der einzelnen Teile unabhängig und in beliebiger Reihenfolge erfolgen kann.

Sollte die Übertragung eines einzelnen Teilstück fehlschlagen, kann dieses erneut übertragen werden, ohne dabei andere Teilstücke zu beeinflussen. Nachdem alle Teilstücke übertragen wurden, befindet sich das Objekt wieder als ein vollständiges, einzelnes Objekt innerhalb von Amazon S3.

Multipart Upload verfügt über folgende Funktionen:

  • Parallele Uploads: Paralleles Hochladen mehrerer Teile eines Objekts um den Durchsatz zu verbessern.
  • Anhalten: Ein Upload kann gestartet, zwischendurch auf unbestimmte Zeit angehalten und anschließend weiter ausgeführt werden.
  • Fortfahren: Ein Upload kann fortgeführt werden, nachdem er angehalten, unterbrochen oder nur teilweise Übertragen wurde.
  • Uploads unbekannter Größe: Der Upload von Daten kann beginnen, bevor die gesamte Größe des Objekts bekannt ist.

Weiterhin wurden die AWS Java, .NET und PHP SDKs aktualisiert, um die „Multipart Upload“ Funktion zu unterstützen.

Kategorien
News

Amazon S3 reduziert die Preise für seinen Speicher

Rückwirkend zum 01. November 2010 hat Amazon S3 seine Preise für die „Standard“ und „Reduced Redundancy Storage“ Tarife in allen Regionen reduziert. Des Weiteren wurde der Schwellwert für die „volume based discounts“ von 50 auf 1 Terabyte verkleinert.

Die folgende Tabelle zeigt die preislichen Änderungen:

Alt Neu
Erste 1TB $0.150 $0.140
Nächsten 49TB $0.150 $0.125
Nächsten 50TB $0.140 $0.110
Nächsten 400TB $0.130 $0.110
Nächsten 500TB $0.105 $0.095
Nächsten 4000TB $0.080 $0.080 (keine Änderung)
Über 5000TB $0.055 $0.055 (keine Änderung)

Die Preise gelten für den Amazon S3 Standard Storage in den Regionen US-Standard, EU-West, und AP-East. Die neuen Preise für die Region US-West sowie dem „Reduced Redundancy Storage“ können auf der Amazon S3 Webseite nachgelesen werden.

Kategorien
News

openQRM integriert Ubuntu Enterprise Cloud, Amazon EC2 und Eucalyptus

Gesponsert durch die openQRM Enterprise, veröffentlicht das openQRM project ein neues Plugin, das Hybrid Cloud Computing ermöglicht.

Mit dem Plugin erhalten openQRM Nutzer nun die Möglichkeit, ihre selbst verwalteten Systeme transparent und vollautomatisiert zwischen Private und Public Clouds zu migrieren. Das Importieren bereits vorhandener Cloud Instanzen aus der Ubuntu Enterprise Cloud (UEC), Amazon EC2 oder Eucalyptus kann damit ohne großen Aufwand erfolgen. Dasselbe gilt ebenso für den Export der Systeme aus der openQRM Cloud heraus. Cloud Transparenz! Über die graphische Web Oberfläche können alle dafür benötigten Schritte der Migration durchgeführt werden. Damit können dem eigenen Rechenzentrum nach Bedarf externe Ressourcen von Public Cloud Anbietern hinzugefügt werden.

Durch die Nutzung einer agilen Privat zu Public oder Public zu Private Migration, kann damit kontrolliert werden, welche Daten und Dienste in einem sicheren Bereich bereitgestellt werden sollen. Somit können sensible Systeme innerhalb des eigenen Rechenzentrums betrieben und alle weiteren ressourcenintensiven Systeme zu Cloud Anbietern verlagert werden.

Ein Überblick über die neuen Funktionen zeigt das Video am Ende dieses Artikels.

Für alle die einen tieferen Einblick in eine Hybrid Cloud Lösung haben möchten, stellt openQRM Enterprise ein detailliert beschriebenes How to auf ihren Webseiten zur Verfügung. Dieses kann hier heruntergeladen werden.

Das Plugin steht bereits auf der Seite des openQRM project unter http://sourceforge.net/projects/openqrm zum Download bereit.