In-Memory rettet vor der Datenflut und sorgt für RoI - auch im Mittelstand

Die Big-Data-Lüge

| Redakteur: Ulrike Ostler

Der Titel des Artikels und das Bild sind dem Whitepaper von SAP "Intelligenz für jedermann" entlehnt.
Der Titel des Artikels und das Bild sind dem Whitepaper von SAP "Intelligenz für jedermann" entlehnt. (Bild: SAP-Whitepaper "Intelligenz für jedermann")

„Wie Rotkäppchen und der böse Wolf oder die Mär vom drohenden Weltuntergang ist auch das Big-Data-Phänomen eine Fiktion. Eine Erfindung.“ So beginnt Irfan Khan, SVP und CTO beim SAP-Unternehmen Sybase, sein White Paper „Intelligenz für Jedermann“.

Geradezu ein Armageddon beschwörten Analysten und Medien herauf, schreibt Khan, die IT-Welt scheine in der Big-Data-Welle unterzugehen. Doch der Sybase-Experte beruhigt: „Hier mein Rat: Entspannen Sie sich. Big Data ist halb so schlimm, wie uns momentan weisgemacht wird.“

An dieser Stelle könnte der Artikel und das White Paper beendet sein, doch ganz so harmlos kommt die Datenschwemme doch nicht daher. Khan zitiert das Marktforschungsunternehmen IDC, nach dem sich in den meisten Unternehmen das Datenvolumen bis 2020 um das 35-Fache aufblähen wird.

Insgesamt gibt es weltweit rund drei Milliarden Computer; alleine 2010 wurden 352 Millionen Geräte ausgeliefert. Schon 2009 wurden laut IDC 2009 weltweit 800.000 Petabyte an Daten erzeugt und gespeichert; bis 2020 soll das Datenvolumen auf runde 35 Zettabyte ansteigen.

Big Data in Memory

Wie Carsten Bange vom Business Application Research Center (BARC) ausführt, kennzeichnet Big Data jedoch nicht nur die schiere Menge. Vielmehr gehören für ihn in die Definition das Merkmal „poly-strukturierter Daten“, also Daten, die in unterschiedlichen Graden strukturiert sind (siehe: Abbildung 1) und die Anforderung, Daten möglichst schnell zu erfassen, zu speichern und auszuwerten. In Englisch fallen hier die Begriffe „volume“, „velocity“ und „variety“, bekannt auch als „die 3 Vs“.

Wie Khan ausführt, brauchen sich Unternehmen Dank einer verfügbaren spaltenorientierten Analyse-Infrastruktur heute keine Sorgen über Big Data zu machen. Denn: „Massive Datenmengen, selbst wenn sie so heterogen sein sollten wie unstrukturierte Daten, können in spaltenorientierten Data Warehouses problemlos analysiert werden“.

Kein Grund zur Panik!

Spaltenorientierte Data Warehouses aber zeichneten sich durch ihre hohe Verarbeitungsgeschwindigkeit, hohe Kompressionsfähigkeit (siehe: Abbildung 3 und 4) und ausgezeichnete Skalierbarkeit aus. Das bedeutet unter anderem auch, dass so viele Anwender und Daten hinzu kommen können, wie zur Erledigung der jeweiligen Aufgabe vonnöten sind.

Dazu das Beispiel der deutschen Citigroup-Tochter aus dem SAP-Sybase-Whitepaper: „Ihre spaltenorientierte Datenbank enthält Handelsdaten aus vier Jahren (13,2 Millionen Transaktionen!) und erzielt eine Komprimierungsrate von 43 Prozent. Ein herkömmliches zeilenbasiertes System würde demgegenüber jeden Deal, den die Citigroup-Tochter in ihrer Datenbank speichert, um 4 Prozent vergrößern.“

Ergänzendes zum Thema
 
Nachrichten-Flut

Eine spaltenorientierte Datenbank indexiert die Daten, sobald sie in das System geladen werden, ohne eine Meta-Ebene über die Rohdaten zu legen. Die spaltenorientierte Ablage, auch im Hauptspeicher, hat zudem den Vorteil, dass die Verarbeitung sich parallelisieren lässt, man spricht von „Massively Parallel Processing“ (MPP).

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben
vom Inhalt ja schon interessant, ...  lesen
posted am 18.09.2012 um 13:58 von Unregistriert


Mitdiskutieren

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 35544410 / Data)