TNS Infratest und T-Systems studieren: Wer braucht HANA?

Big Data und In-Memory sind zwei Paar Schuhe

| Redakteur: Ulrike Ostler

TNS Infratest hat im Auftrag von T-Systems die internationale Verbreitung von Massendaten-Auswertungen untersucht. Die bekanntesten In-Memory-Anwendungen sind laut Studie "Quo vadis Big Data" Microsoft SQL Server 2012, SAP HANA und IBM Solid DB.
TNS Infratest hat im Auftrag von T-Systems die internationale Verbreitung von Massendaten-Auswertungen untersucht. Die bekanntesten In-Memory-Anwendungen sind laut Studie "Quo vadis Big Data" Microsoft SQL Server 2012, SAP HANA und IBM Solid DB. (Bild: TNS Infrastest/T-Systems)

In-Memory gilt als wesentlicher Baustein zur Bewältigung von Big Data. Doch das kostet: In den USA, wo derzeit die Technik am meisten verbreitet ist, kalkulieren die Unternehmen ein Budget zwischen 500.000 und einer Million Euro ein. Zwei von fünf Unternehmen rechnen mit Ausgaben von mehr als 1 Million Euro. Die Studie von TNS Infratest und T-Systems fand aber noch mehr heraus:

Wenn von Big Data die Rede ist, wird gerne auf Social Media, Video-Inhalte und Sensoren in allen möglichen Maschinen und Netzen verwiesen. Vor allem diese lassen über die Unternehmen sintflutartige Datenmengen hereinbrechen. Auch die Studie, die T-Systems bei TNS Infrastest in Auftrag gegeben hat, „Quo vadis Big Data“, macht da keine Ausnahme.

Demnach durchbrach bereits 2010 die weltweit in einem Jahr erzeugte Gesamtmenge an Informationen die Zettabyte-Schallmauer. Nur zur Erinnerung: Das sind 1.000.000.000.000.000.000.000 Byte, eine Zahl mit 21 Nullen.

Erheblich dazu beigetragen haben Facebook, hier werden täglich im 20-Minuten-Rhythmus 2,7 Millionen Bilder eingestellt, und YouTube. Im Jahr 2010 wurden dort 700 Milliarden Videos abgespielt.

Big Data rollt heran

Dazu kommen die neuen digitalen und mobilen Medien, die eine Erzeugung sowie Vervielfältigung von Texten, Bildern, Audio- und Video-Dateien in bisher unbekanntem Maße ermöglichen. Neuerungen wie das Internet der Dinge, Smart Systems für die intelligente Steuerung des Energieverbrauchs, sensorgesteuerte Haushaltsgeräte oder die Anforderung der Verknüpfung, Weiterleitung und standortunabhängigen Nutzung von Informationen sorgen zudem für neue und neuartige Daten.

Dementsprechend messen unternehmensbezogene Dienstleister Big Data „die größte Relevanz und einen hohen Investitionsbedarf“ bei. Einen erhöhten Bedarf diagnostiziert TNS Infratest außerdem im öffentlichen Sektor sowie für die Energie- und Wasserversorger festzustellen (siehe: Abbildung 1 und 2).

Ergänzendes zum Thema
 
Die Befragung

Auffällig „reserviert“ falle hingegen die Bewertung durch die Banken- und Versicherungsbranche als auch vom Handel auf. Hinsichtlich des Bankenwesens können Gründe hierfür in der vorrangigen Verarbeitung strukturierter Daten als auch einem traditionell leistungsfähigen Daten-Management-System liegen.

Die Probleme wachsen über die Datenbanken hinaus

Doch Big Data umfasst nicht nur das Kriterium der schieren Menge, die es zu erfassen und zu analysieren gilt, sondern auch die neue Struktur. In der Studie heißt es: „Neue Verarbeitungssysteme müssen in der Lage sein, einen Nutzen aus der Vielzahl an unterschiedlichen Arten ziehen zu können. Dabei steht nicht unbedingt die Varianz, sondern eher die Struktur von Daten im Fokus.“

Mit der steigenden Menge an unterschiedlichen Daten aber, die zudem in kürzester Zeit verarbeitet werden müssen, kommen die bisherigen Datenbank-Management-Systeme nicht mehr klar und Techniken wie MapReduce-Ansätze, NoSQL-Datenbanken für die Verarbeitung von unstrukturierten Daten oder In-Memory-Verfahren für die Bewältigung der Anforderungen nötig.

Denn während klassische Datenbanken den Festplattenspeicher zum Ablegen von Informationen verwenden, halten In-Memory-Systeme die Informationen im Arbeitsspeicher eines Rechners vor und bieten auch die Möglichkeit einer spaltenorientierten Datenhaltung. Dadurch lassen deutlich höhere Zugriffsgeschwindigkeiten erzielen. SSDs beispielsweise, 2,5 Zoll, besitzen aktuell bereits 1,6 Terabyte Speicherkapazität und erlauben 120.000 I/Os pro Sekunde.

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 35199060 / Strategien)