Kategorien
News

Salesforce.com und BCM veröffentlichen IT Service Management RemedyForce

Mit RemedyForce veröffentlichen Salesforce.com und BMC gemeinsam webbasiertes IT Management-Tool. RemedyForce ist eine IT Service Management-Suite mit konsolidierten Service Desk-Funktionen, deren Leistungen für die Nutzer von Cloud-Lösungen optimiert wurden.

Eigenschaften von RemedyForce

Kategorien
News

Amazon S3 unterstützt nun große Objekte

Amazon hat die Größenbeschränkung einzelner Objekte von Amazon S3 erhöht. Konnte ein Objekt vormals eine maximale Größe von 5 Gigabyte betragen, besteht nun die Möglichkeit ein einzelnes Objekt in der maximalen Größe von 5 Terrabyte in die Amazon Cloud hochzuladen.

Damit können nun hochauflösende Videos, große Backup Dateien, wissenschaftliche Auswertungen oder andere große Datenmengen innerhalb von Amazon S3 gespeichert und referenziert werden.

Um Objekte größer 5 Gigabyte zu speichern, empfiehlt Amazon die Nutzung der „Multipart Upload“ Funktion, mit der Uploads parallel vorgenommen werden können.

Kategorien
News

Salesforce.com veröffentlicht Database.com

Mit Database.com (http://www.database.com) bringt salesforce.com die weltweit erste für Cloud Computing konzipierte Datenbank für Unternehmen auf den Markt. Database.com unterstützt sämtliche Programmiersprachen, Plattformen und Endgeräte. Database.com wird als eigenständiges salesforce.com-Produkt angeboten. Database.com unterstützt die Entwicklung der IT-Industrie hin zu mobilen Applikationen und Datenmodellen für soziale Funktionalitäten sowie für Push-Dienste. Mit dem neuen webbasierten Datenbanksystem können sich Entwickler voll auf die Programmierung konzentrieren anstatt sich mit Wartung von Datenbanken und Hardware zu beschäftigen. Dabei kombiniert Database.com die besten Eigenschaften von Datenbanken für Geschäftsanwendungen (z.B. User Management, Sicherheit bis auf Feldebene, Trigger, gespeicherte Prozeduren, Authentifizierung und leistungsfähige APIs) mit den Vorteilen von Cloud Computing.

Vorteile von Database.com gegenüber klassischen Client/Server-Datenbanken

  • Database.com ist offen. Ob Anwendungen für kleine Nutzergruppen oder skalierbare Lösungen, auf die hunderttausende User gleichzeitig zugreifen: Entwickler können ihre Applikationen in Java, C#, Ruby, PHP und anderen Programmiersprachen schreiben und auf jeder Plattform betreiben, egal ob Force.com, VMforce, Amazon EC2, Google AppEngine Heroku oder Microsoft Azure. Die Anwendungen laufen auf jedem Engerät wie z.B. Android Phone, Blackberry, iPad oder iPhone und rufen die Schnittstellen von Database.com sicher über das Internet auf.
  • Database.com ist bewährt und sicher. Database.com profitiert von der Sicherheit der weltweiten Serviceinfrastruktur von salesforce.com, die SSL, Single-Sign On, Identitätsprüfung und Anti-Phishing-Tools umfasst. Zudem bietet sie sicheren Zugang durch vielfältige nutzer- und rollenspezifische Einstellmöglichkeiten sowie Datensicherheit bis auf Feldebene. Database.com wurden einige der strengsten Sicherheitszertifizierungen der Branche verliehen, wie zum Beispiel ISO 27001, SAS 70 Type II und SysTrust.
  • Database.com ist nicht nur die Datenbank, auf der sämtliche Services von salesforce.com laufen, sondern mit mehr als 20 Milliarden Datensätzen und über 25 Milliarden Transaktionen pro Quartal auch auch eine der größten Unternehmensdatenbanken weltweit.

Eigenschaften von Database.com

  • Relationale Datensicherung mit Tabellen, Bezügen, zahlreichen Feldtypen, Triggern, gespeicherten Prozeduren, Abfragesprache und Enterprise Search
  • Speicherung von Dateien wie Dokumente, Videos, Bilder etc.
  • SOAP und REST APIs für einfachen Zugriff auf die Database.com-Daten
  • Datenmodell für soziale Funktionalitäten. Database.com umfasst ein vorgefertigtes Datenmodell für verbesserte Zusammenarbeit, das Feeds, Nutzerprofile und Statusaktualisierungen unterstützt sowie ein Modell, mit dem es möglich ist, Datenbankeinträgen zu folgen. Zudem enthält Database.com APIs für die Interaktion mit den sozialen Komponenten der Datenmodelle. Entwickler können so beispielsweise Follower für Datenbankeinträge festlegen oder Datenfeeds anfordern, um Aktualisierungen in Echtzeit darzustellen.
  • Automatische Anpassung. Database.com unterstützt die Skalierung von Anwendungen über das Internet. Umfasst sind automatische Anpassungen, Upgrades, Remote-Datensicherung und -replikation sowie das automatische Anlegen von Umgebungen für Entwicklung, Tests und Schulungen.
  • Identitäten und Authentifizierung. Der Zugriff auf Database.com kann über oAuth oder SAML gesteuert werden. Die von Database.com unterstützten Funktionen für die Nutzerverwaltung umfassen Identitäten/Profile und Authentifizierung.
  • Sicherheit bis auf Feldebene. Point & Click-Werkzeuge erlauben es, den Datenzugriff bis auf Feldebene zu definieren. Die regelgesteuerte Filterlogik kann für sämtliche Datenbankabfragen von Anwendungen, die auf Basis von Database.com entwickelt wurden, genutzt werden.
  • Leistungsfähige Enterprise Search Dienste in Database.com erlauben eine Volltextsuche, die automatisch die Sicherheitsregeln des Unternehmens berücksichtigt.
  • Werkzeuge. Database.com enthält eine neue Entwicklerkonsole und ETL-Werkzeuge. Zudem stellt salesforce.com auf www.database.com eine Reihe von Entwickler Toolkits zur Verfügung, die die Anwendungsentwicklung beschleunigen. Diese umfassen Java, .NET, Ruby, PHP, iOS, Android, Google AppEngine, Google Data, Microsoft Azure, Amazon Web Services, Facebook, Twitter sowie Adobe Flash/Flex.

Preise und Verfügbarkeit

Aktuell ist die allgemeine Verfügbarkeit von Database.com für 2011 geplant.
Die Einstiegsnutzung von Database.com wird voraussichtlich kostenlos sein. Für grundlegende Database.com-Leistungen wie Datenbankzugriff, die Speicherung von Dateien und die automatische Wartung sind die folgenden Preisstaffelungen vorgesehen

  • Kostenlos für 3 Nutzer und bis zu 100.000 Datenbankeinträge und 50.000 Tranksaktionen/Monat
  • 10 Euro für je 100.000 weitere Datenbankeinträge
  • 10 Euro für je 150.000 weitere Transaktionen

Database.com Enterprise Services werden 10 Euro/User pro Monat kosten und Nutzeridentitäten, Authentifizierung und Kontrolle des Datenbankzugriffs auf Feldebene umfassen. Sowohl die allgemeine Verfügbarkeit als auch die angegebenen Preise können Änderungen unterliegen. Kunden sollten ihre Kaufentscheidungen auf aktuell verfügbare Produkteigenschaften gründen.

Kategorien
News

Salesforce.com kündigt Chatter Free an

Mit Chatter Free stellt salesforce.com seinen Kunden eine neue, kostenlose Version von Salesforce Chatter zur Verfügung. Bei Chatter handelt es sich um eine Kollaborations-Applikation und -Plattform für Unternehmen. Mit Funktionen wie Profilen, Statusaktualisierungen und Echtzeit-Benachrichtigungen können Mitarbeiter auf Chatter nicht nur Personen folgen – vergleichbar Facebook und Twitter -, sondern auch Dokumenten, Geschäftsprozessen und Anwendungsdaten.

Mit Hilfe des von Facebook bekannten viralen Einladungsmodells kann jeder Mitarbeiter seine Kollegen zur Zusammenarbeit in Salesforce Chatter einladen, selbst wenn sie noch keine salesforce.com-Nutzer sind. Chatter Free beschleunigt so die Verbreitung sozialer Kollaboration im gesamten Unternehmen. Da Chatter auf der Force.com-Plattform aufsetzt, ist zugleich sichergestellt, dass die Mitarbeiter nur die Informationen einsehen können, für die sie autorisiert sind.

Chatter Free bietet unternehmensweit soziale Kollaborationsfunktionen, wie

  • Profile
  • Statusaktualisierungen
  • Echtzeit-Benachrichtigungen
  • Das Teilen von Daten
  • Gruppen
  • Filter
  • Einladungen
  • Chatter Desktop
  • Chatter Mobile

Salesforce Chatter bringt bestehenden salesforce.com-Kunden den Vorteil der Social Collaboration-Technologie. Mit Chatter Plus können Unternehmen diese Funktionen auch für zusätzliche Mitarbeiter, die die salesforce.com-Lösungen nicht nutzen, verfügbar machen. Zudem können die Anwender mit Chatter Plus auch Accounts, Kontakten, Dashboards, Reports, Kalendern und Aktivitäten folgen sowie benutzerspezifische Objekte oder die Chatter API nutzen.

Kategorien
News

Amazon stellt Cloud DNS Dienst Amazon Route 53 vor

Bei Amazon Route 53 handelt es sich um einen hochverfügbaren und skalierbaren DNS (Domain Name System) Web Service. Route 53 verbindet Nutzeranfragen effektiver mit einer Infrastruktur die sich innerhalb der Amazon Web Services (AWS) befindet, wie bspw. einer Amazon Elastic Compute Cloud (Amazon EC2) Instanz, einem Amazon Elastic Load Balancer oder einem Amazon Simple Storage Service (Amazon S3) Bucket. Route 53 kann darüber hinaus ebenfalls dazu verwendet werden, um Nutzer zu einer Infrastruktur ausserhalb von AWS zu routen.

Route 53 löst DNS Anfragen mit einer geringen Latenz auf, indem ein globales Netzwerk von DNS Servern genutzt wird. Anfragen an eine Domain werden automatisch an den nächstgelegenen DNS Server weitergleitet und damit mit der best möglichen Performanz beantwortet. Route 53 stellt eine Web Service Schnittstelle bereit, über die Public DNS Einträge erstellt und verwaltet werden können und ist vollständig in alle bereits vorhandenen Amazon Web Services integriert. Zum Beispiel kann durch die Nutzung des AWS Identity and Access Management (IAM) in Kombination mit Route 53 bestimmt werden, wer Änderungen an den DNS Einträgen vornehmen kann.

Für die Nutzung von Route 53 müssen, wie bei alle anderen Amazon Web Services, keine langen Vertragslaufzeiten eingegangen oder Mindestumsätze generiert werden. Die Abrechnung erfolgt pro Domain, die mit dem Service verwaltet wird und pro Abfrage, die von Route 53 beantwortet wird.

Kategorien
Management

Cloud Computing löst nicht alle Probleme automatisch…

…, im Gegenteil, es schafft zunächst Probleme! Vor allem dann, wenn man selber als Anbieter Cloud Computing Services bereitstellen möchte.

Es ist ein Irrglaube, wenn man denkt, dass der Aufbau einer Private Cloud impliziert, sich anschließend nicht mehr um die Hochverfügbarkeit der eigenen Infrastruktur (physikalische Maschinen, virtuelle Maschinen, Master-Slave-Replikation, Hot-Standby, etc.) kümmern zu müssen. Das macht dann ja schließlich die Cloud alleine.

Achtung!!! Die Cloud bereitet einem (Private) Cloud Betreiber beim Aufbau zunächst mehr Probleme als man denkt.

Eine Cloud funktioniert nicht von alleine. Sie muss entwickelt und mit Intelligenz ausgestattet werden. Das gilt für den Aufbau einer Private Cloud genau so wie für die Nutzung eines Public Cloud Angebots (im Falle von IaaS). Dazu müssen Skripte geschrieben, womöglich Software neu entwickelt werden, die auf der Cloud verteilt läuft. Weiterhin ist es wichtig, die Whitepaper des jeweiligen Anbieter zu lesen, KnowHow(!) aufzubauen und zu verstehen, wie die Cloud arbeitet, um sie für die eigenen Bedürfnisse nutzen zu können. Eine weitere Möglichkeit besteht natürlich darin, sich (zusätzlich) von Profis beraten zu lassen.

Das ist bspw. bei der Nutzung des Public Cloud Angebots der Amazon Web Services auch nicht anders. Wenn eine Instanz A ein Problem hat, dann kann sie plötzlich nicht mehr erreichbar sein, wie jeder normale physikalische Server nun einmal auch. Nun könnte man denken: „Dann nehme ich als Backup für Instanz A halt noch eine Instanz B dazu!“ Und dann? Man könnte nun denken, dass die Instanz B automatisch die Aufgaben der Instanz A übernimmt. So einfach ist das aber nicht!

Skripte etc. müssen vorab dafür sorgen, dass die Instanz B die Aufgaben von Instanz A übernehmen soll, wenn diese plötzlich nicht mehr erreichbar ist. Auch die Instanz B muss dafür zunächst vorbereitet werden.

Dazu kann z.B. der eigentliche (wichtige) Inhalt der Instanz A inkl. aller Konfigurationen etc. in ein EBS (Elastic Block Store) und nicht auf dem lokalen Instanzspeicher gespeichert werden. Anschließend muss ein Skript dafür sorgen, dass die Instanz B automatisch mit den Konfigurationen und allen Daten aus dem EBS hochgefahren wird, wenn die Instanz A nicht mehr verfügbar ist.

Die Cloud gibt uns im Bereich Infrastructure as a Service letztendlich nur die Möglichkeit, aus einem quasi unendlich großen Pool von Ressourcen die (unendliche) Anzahl an Ressourcen zu dem Zeitpunkt zu bekommen, wenn wir sie benötigen. Wir erhalten von dem Anbieter somit ein eigenes hochskalierbares virtuelles Rechenzentrum. Das bedeutet aber im Umkehrschluss für den Betreiber einer Cloud (Private, Public), dass er ebenfalls die Menge an physikalischen Ressourcen vorhalten muss, damit die angefragten virtuellen Ressourcen jederzeit bereitgestellt werden können und damit immer ausreichend Ressourcen für die Nutzer zur Verfügung stehen.

Kategorien
News

Salesforce.com erhält TÜV Zertifizierung

Als erster Cloud Computing Anbieter in Deutschland hat Salesforce.com die Anforderungskriterien für das TÜV-Siegel „Geprüfter Datenschutz – Cloud Computing V1.0“ erfüllt. Im Vordergrund des Audits stand die Gewährleistung des Schutzes personenbezogener Daten auf Grundlage deutscher Datenschutzgesetze. Zertifiziert wurden die CRM-Lösungen von salesforce.com für Marketing, Sales und Service, die Force.com Entwicklungsplattform sowie die Kollaborationslösung Chatter.

Im Rahmen des Zertifizierungsprozesses wurden folgende vier Kernelemente einer umfassenden Prüfung unterzogen:

    (1) Die Grundanforderung an eine Datenschutzorganisation.
    (2) Die Datenschutzkonformität von Prozessen mit personenbezogenen Daten.
    (3) Die Bewertung technischer und organisatorischer Maßnahmen.
    (4) Die Anforderungen an die Datensicherheit im Rahmen des Datenschutzes.

Salesforce.com erfüllt bereits seit mehreren Jahren die internationalen IT-Sicherheitsstandards, wie ISO 27001 und SYSTRUST.

Kategorien
Management @en

How can you identify true Cloud Computing?

People often ask me, how they can identify a true Cloud Computing offering. Often they say: „Hey, our data is processed by a service provider in his data center. Well, we are using the Cloud, right?“

Hm, Careful! Many marketing departments of webhosting provider abused Cloud Computing in the last month, whereby a dilution of the term has taken place. What you have known as a „Managed Server“ before is now a „Cloud Server“. Eventually they just change the badge.

To identify a true Cloud Computing offering, you shall take care of the following characteristics:

  • On Demand:
    I obtain the resources at the moment, when I actually need them. Afterwards I just „give them back“.
  • Pay as you Go:
    I just pay for the resources which I am actually using, when I am using them. Thereby it will be deducted per user, per gigabyte or per minute/hour.
  • No basic fee:
    Using a Cloud Computing offering I do not have to pay a monthly/annual basic fee!
  • High Availability:
    When I need the resources I can use them exactly at this time.
  • High Scalability:
    The resources adapt to my needs. This means that they either grow with my needs, if I need more performance or they become smaller if the requirements decrease.
  • High Reliability:
    Resources I am using during a specific period of time are actually available when I need them.
  • Blackbox:
    I don’t have to care about the things inside the Cloud offering. I just use the service over an open, well documented API.
  • Automation:
    After the establishment regarding my needs, I do not have to take any interventions manually, while using the offering. That means, I do not have to change the performance of the Server or the size of the storage space manually. The Cloud provider allocates capabilities (like tools etc.) for automation.
  • Access via the Internet:
    This is discussible! However, the cost advantage which is obtained by Cloud Computing is obsolete if an expensive exclusive leased line is required, for example to use the resources of a provider.
Kategorien
Events

CloudOps Summit – Run your Cloud.

Im Laufe diesen Jahres hat das Thema Cloud Computing in atemberaubender Geschwindigkeit an Bedeutung gewonnen und steht kurz davor, die Bereitstellung von IT-Services nachhaltig zu prägen. Die neuen Möglichkeiten, die Cloud Computing in Form von öffentlichen Angeboten (Public Cloud) und Privaten Cloud-Verfahren (Private Cloud) bietet, äussern sich in einer bisher unvorstellbarer Flexiblität und Vielseitigkeit hinsichtlich Bereitstellung, Kapazitäten und Vergütungsmodellen. Für den Betrieb dieses derartiger Infrastrukturen ergeben sich für die Provider, Software-Hersteller, Endkunden ebenfalls eine Fülle neue Herausforderungen.

Der CloudOps Summit 2010 am 17.03.2011 will den Focus auf den Betrieb und die Architektur von Cloud Computing Infrastrukturen legen und eine Brücke zwischen den bislang oft Marketing-getriebenen Angeboten hin zum Betrieb und den Architekten solcher Lösungen schlagen.

Unter dem Motto “Run your Cloud” werden sich ca. 200 bis 300 Teilnehmer im neuen Hörsaalzentrum der Universität Frankfurt am Campus Westend treffen, um die Themen Cloud Computing und den Betrieb von dynamischen Infrastrukturen diskutieren.

Kategorien
News

T-Systems geht in die Cloud

Mit einer kostenlosen Testphase für bereits vorhandene Unternehmenskunden startet nun auch T-Systems als ein großes deutsches Unternehmen mit einem Infrastructure as a Service Angebot in die Cloud. Die Pilotphase beginnt noch im November 2010 und wird im Februar 2011 enden.

Mit diesem Angebot wird T-Systems in direkter Konkurrenz zu den Amazon Web Services stehen. Das könnte Erfolg versprechend sein, wird alleine die finanzielle Kraft von T-Systems betrachtet.

T-Systems stützt sich vor allem auf die oft diskutierten Bereiche Zugriffskontrolle, Datenschutz und Datensicherheit, sowie die Service Level Agreements (SLAs). Alles im Hinblick auf eine höchstmögliche Skalierbarkeit.

Alle Rechenzentren und damit sämtliche Daten des Kunden werden sich in Deutschland befinden und nach der ISO Sicherheitsnorm 27001 zertifiziert und können darüber hinaus ebenfalls von den Kunden selbst auditiert werden.