Suchen

Derzeit 20 Betatester mit Zugriff auf den Datawarehouse-Service Amazon Web Services goes Datawarehouse und kündigt Redshift an

Redakteur: Ulrich Roderer

Amazon stellt mit Redshift einen Data Warehouse Service in Petabyte-Größenordnung in die Cloud. Redshift soll die Geschwindigkeit der Abfrage-Performance bei der Analyse praktisch jeder Datensatzgröße drastisch zu erhöhen.

Amazon startet mit Redshift einen Datawarehaouse-Service in der Cloud.
Amazon startet mit Redshift einen Datawarehaouse-Service in der Cloud.
(Archiv: Vogel Business Media)

Mit ein paar Klicks in der AWS Management Konsole können Kunden einen Redshift Clusters starten. Dies beginnt mit ein paar hundert Gigabyte und einer erhöhbaren Skalierung auf ein Petabyte oder mehr, für unter 1.000 Dollar pro Terabyte pro Jahr. Damit spielt Amazon den Preisbrecher.

Redshift verwaltet alle Aufgaben, die für Datawarehousing benötigt werden: vom Setup über den Betrieb und Provisioning bis hin zur Maintanance. Ein Cluster soll sich einfach und ohne Downtime je nach Kapazitätsanforderung skalieren lassen. Der Service überwacht dabei selbstständig den Zustand des Clusters und ersetzt automatisch Komponenten bei Bedarf.

In den letzten zwei Jahren haben uns Kunden immer wieder gebeten, einen Datawarehouse-Service für AWS anzubieten”, sagt Raju Gulabani, Vice President of Database Services, AWS.

Amazon Redshift nutzt mehrere Techniken, darunter Columnar Data Storage, hohe Kompressionsraten sowie hochperfomantes I/O und Netzwerk. Verteilte und parallele Abfragen über einen Cluster kostengünstiger Nodes soll eine hohe Leistung garantieren, ohne dass Kunden die Abfragen von Hand tunen müssten. Redshift ist zertifiziert von bejannten BI-Tool-Anbietern wie Jaspersoft und MicroStrategy.

Amazon Redshift nutzt Komponenten von ParAccel und ist wird mit zwei Nodevarianten mit zwei oder 16 Terabytes angeboten. Ein Cluster kann bis zu 100 Nodes enthalten. Amazon berechnet 0.85 Dollar pro Stunde für ein 2-Terabyte Datawarehouse.

(ID:37020580)