TNS Infratest und T-Systems studieren: Wer braucht HANA? Big Data und In-Memory sind zwei Paar Schuhe

Redakteur: Ulrike Ostler

In-Memory gilt als wesentlicher Baustein zur Bewältigung von Big Data. Doch das kostet: In den USA, wo derzeit die Technik am meisten verbreitet ist, kalkulieren die Unternehmen ein Budget zwischen 500.000 und einer Million Euro ein. Zwei von fünf Unternehmen rechnen mit Ausgaben von mehr als 1 Million Euro. Die Studie von TNS Infratest und T-Systems fand aber noch mehr heraus:

Firmen zum Thema

TNS Infratest hat im Auftrag von T-Systems die internationale Verbreitung von Massendaten-Auswertungen untersucht. Die bekanntesten In-Memory-Anwendungen sind laut Studie "Quo vadis Big Data" Microsoft SQL Server 2012, SAP HANA und IBM Solid DB.
TNS Infratest hat im Auftrag von T-Systems die internationale Verbreitung von Massendaten-Auswertungen untersucht. Die bekanntesten In-Memory-Anwendungen sind laut Studie "Quo vadis Big Data" Microsoft SQL Server 2012, SAP HANA und IBM Solid DB.
(Bild: TNS Infrastest/T-Systems)

Wenn von Big Data die Rede ist, wird gerne auf Social Media, Video-Inhalte und Sensoren in allen möglichen Maschinen und Netzen verwiesen. Vor allem diese lassen über die Unternehmen sintflutartige Datenmengen hereinbrechen. Auch die Studie, die T-Systems bei TNS Infrastest in Auftrag gegeben hat, „Quo vadis Big Data“, macht da keine Ausnahme.

Demnach durchbrach bereits 2010 die weltweit in einem Jahr erzeugte Gesamtmenge an Informationen die Zettabyte-Schallmauer. Nur zur Erinnerung: Das sind 1.000.000.000.000.000.000.000 Byte, eine Zahl mit 21 Nullen.

Erheblich dazu beigetragen haben Facebook, hier werden täglich im 20-Minuten-Rhythmus 2,7 Millionen Bilder eingestellt, und YouTube. Im Jahr 2010 wurden dort 700 Milliarden Videos abgespielt.

Big Data rollt heran

Dazu kommen die neuen digitalen und mobilen Medien, die eine Erzeugung sowie Vervielfältigung von Texten, Bildern, Audio- und Video-Dateien in bisher unbekanntem Maße ermöglichen. Neuerungen wie das Internet der Dinge, Smart Systems für die intelligente Steuerung des Energieverbrauchs, sensorgesteuerte Haushaltsgeräte oder die Anforderung der Verknüpfung, Weiterleitung und standortunabhängigen Nutzung von Informationen sorgen zudem für neue und neuartige Daten.

Dementsprechend messen unternehmensbezogene Dienstleister Big Data „die größte Relevanz und einen hohen Investitionsbedarf“ bei. Einen erhöhten Bedarf diagnostiziert TNS Infratest außerdem im öffentlichen Sektor sowie für die Energie- und Wasserversorger festzustellen (siehe: Abbildung 1 und 2).

Bildergalerie
Bildergalerie mit 13 Bildern

Auffällig „reserviert“ falle hingegen die Bewertung durch die Banken- und Versicherungsbranche als auch vom Handel auf. Hinsichtlich des Bankenwesens können Gründe hierfür in der vorrangigen Verarbeitung strukturierter Daten als auch einem traditionell leistungsfähigen Daten-Management-System liegen.

Die Probleme wachsen über die Datenbanken hinaus

Doch Big Data umfasst nicht nur das Kriterium der schieren Menge, die es zu erfassen und zu analysieren gilt, sondern auch die neue Struktur. In der Studie heißt es: „Neue Verarbeitungssysteme müssen in der Lage sein, einen Nutzen aus der Vielzahl an unterschiedlichen Arten ziehen zu können. Dabei steht nicht unbedingt die Varianz, sondern eher die Struktur von Daten im Fokus.“

Mit der steigenden Menge an unterschiedlichen Daten aber, die zudem in kürzester Zeit verarbeitet werden müssen, kommen die bisherigen Datenbank-Management-Systeme nicht mehr klar und Techniken wie MapReduce-Ansätze, NoSQL-Datenbanken für die Verarbeitung von unstrukturierten Daten oder In-Memory-Verfahren für die Bewältigung der Anforderungen nötig.

Denn während klassische Datenbanken den Festplattenspeicher zum Ablegen von Informationen verwenden, halten In-Memory-Systeme die Informationen im Arbeitsspeicher eines Rechners vor und bieten auch die Möglichkeit einer spaltenorientierten Datenhaltung. Dadurch lassen deutlich höhere Zugriffsgeschwindigkeiten erzielen. SSDs beispielsweise, 2,5 Zoll, besitzen aktuell bereits 1,6 Terabyte Speicherkapazität und erlauben 120.000 I/Os pro Sekunde.

In-Memory lernt ohne Big Data laufen

Heute sind lediglich 15 Prozent der Daten strukturiert, also passend für relationale Datenbanken.
Heute sind lediglich 15 Prozent der Daten strukturiert, also passend für relationale Datenbanken.
(Bild: TNS Infratest/T-Systems)
Trotzdem rennen die Unternehmen den Anbietern von In-Memory-Produkten nicht gerade die Bude ein. Insgesamt setzen 16 Prozent der befragten Unternehmen und öffentlichen Einrichtungen eine solche Technik ein, in den USA mehr als ein Drittel in der Schweiz und in Österreich 2 beziehungsweise 3 Prozent.

Das liegt an mehreren Faktoren:

  • Die meisten Unternehmen sehen überhaupt keinen konkreten Investitionsbedarf aufgrund von Big Data (siehe: Abbildung 3). Relevanz und Investitionsbedarf sehen vor allem Unternehmen aus den USA, Russland und Spanien. Im Vergleich zum Durchschnitt abgeschwächte Bedeutung hat das Thema in Deutschland, Österreich und der Schweiz sowie in Frankreich.
  • Vielmehr sieht sich die Mehrheit der Befragten gut aufgestellt, wenn es um ihre Data-Management-Strategie geht (siehe: Abbildung 4). Die Angaben der deutschen IT-Entscheider bewegen sich im Einklang mit den Gesamtergebnissen. Die Hälfte der Befragten sagen, ihre Strategie sei „entwickelt“ oder gar „sehr entwickelt“. Somit bringen die Firmen Big Data und In-Memory-Technik nicht zwangsläufig in Verbindung.
  • Allerdings speziell der öffentliche Sektor sowie der Handel sehen sich relativ zu den anderen Branchen hinsichtlich der Datenhaltung und Verarbeitung noch nicht ausreichend vorbereitet.
  • Die fehlende Deckungsgleichheit von In-Memory-Technik und Big Data zeigt sich auch dort, wo sie bereits im Einsatz ist. „Aktuell setzt fast die Hälfte der befragten „Unternehmen und öffentlichen Institutionen In-Memory-Technologien in erster Linie für Budget-to-Report-Prozesse (B2R) ein“, heißt es in der Studie, also „vorrangig für die Planung, Formulierung und Erstellung von wirtschaftlichen Bewertungen einzelner Geschäftsprozesse (siehe: Abbildung 5, 6).
  • In Deutschland Big Data zeigt sich, obwohl Big Data vergleichsweise „reserviert“ beurteilt wird, In-Memory-Technik bei der Hälfte der deutschen Befragten eine wichtige Rolle im Rahmen des Daten-Managements spielt. Der Grund dafür könnte sein, so die Studie, dass In-Memory-Technologien für Neuerungen wie mobile Technologien eingesetzt werden sollen. Diese werden aber erst in zweiter Linie mit Big Data identifiziert.
  • Zudem erfordert die Einführung einer In-Memory-Datenbank jede Menge Know-how und Budget (siehe: Abbildung 7): „Die Einführung einer In-Memory-Datenbank stellt ein eigenständiges IT-Projekt dar und erfordert dadurch höchste Fachkompetenz des Projekt-Teams, das für die Implementierung zuständig ist“, besagt die Studie.

Wer fliegt auf In-Memory?

Allerdings sind die Unternehmen, die bereits In-Memory-Techniken verwenden sehr zufrieden: „90 Prozent der ICT-Entscheider, die bereits Erfahrungswerte zu der Technologie teilen können, beurteilen die Erfahrungen als sehr gut beziehungsweise gut – und dies, obwohl die befragten Unternehmen sich oft schwer getan haben, Kosten und Nutzen in eigenen Assessments ex ante abzuschätzen“, heißt es.

Bildergalerie
Bildergalerie mit 13 Bildern

So sieht es also danach aus, als komme der In-Memory-Markt in Schwung, wenngleich Big Data eher als ferne Bedrohung wahrgenommen wird (siehe: Abbildung 8). Die Untersuchung zeigt, dass in deutschen Unternehmen 43 Prozent der Befragten In-Memory-Technik zur Datenauswertung bereits im Einsatz haben oder dies für die nahe Zukunft planen.

Generell geben 43 Prozent der Befragten eine „hohe“ oder „sehr hohe“ Kaufbereitschaft an. Rund 23 Prozent haben die Beschaffung von In-Memory-Datenbanken geplant und in ihre IT-Strategie aufgenommen (siehe: Abbildung 9).

Die Dienstleister öffnen den Geldbeutel

Dabei weichen allerdings die Angaben in einzelnen Ländern (siehe: Abbildung 10) und in den verschiedenen Branchen (siehe: Abbildung 11) recht unterschiedlich aus, insbesondere dann, wenn die konkrete Kaufbereitschaft von In-Memory-Technologien in Zusammenhang mit der allgemeinen Investitionsbereitschaft in puncto Big Data betrachtet wird.

„Während die Dienstleistungsbranche sowohl durch eine hohe In-Memory-Einsatzbereitschaft als auch einen hohen Investitionsbedarf hinsichtlich Big Data gekennzeichnet ist, haben der Handel, der Kommunikations- sowie der Finanzsektor niedrigen Big-Data-Investitionsbedarf und eine hohe Bereitschaft In-Memory-Verfahren einsetzen zu wollen.“

Diese Tatsache deutet laut Studie darauf hin, dass der Dienstleistungssektor die Technik als geeignetes Mittel für die Bewältigung der Big-Data-Herausforderungen sieht. Im Handel und der Kommunikationsbranche hingegen findet keine vordergründige Verknüpfung von In-Memory-Technologien und Big Data statt.

Zweifel zeigen offenbar der öffentliche Sektor und die Vorsorgungsunternehmen; ausgerechnet diese kennzeichnen sich durch „hohen Big-Data-Investitionsbedarf“ und „niedrigen Einsatzwillen hinsichtlich In-Memory-Technologien“.

SQL Server 2012 schlägt HANA

Immer schneller müssen Unternehmen aus Unmengen von Daten entscheidungsrelevate Informationen extrahieren.
Immer schneller müssen Unternehmen aus Unmengen von Daten entscheidungsrelevate Informationen extrahieren.
(Bild: TNS Infratest/T-Systems)
Wenn es um In-Memory-Produkte geht, hat das Marketing von SAP offenbar einen guten Job gemacht. Das Produkt „SAP HANA“ ist jetzt seit rund einem Jahr auf dem Markt und bereits 63 Prozent der Befragten kennen die Technik, 28 Prozent der Entscheider bauen eine In-Memory-Strategie darauf auf.

Damit liegt HANA im Bekanntheits-Ranking auf Platz 2, hinter dem Microsoft-Produkt „SQL Server 2012“, das seit dem jüngsten Release In-Memory-fähig ist. Die Studienmacher geben allerdings zu bedenken, „dass der Begriff SQL per se den Anschein von Bekanntheit vermittelt, da es sich hierbei um einen Standard im Bereich der Datenbanken handelt.“

Mit einbezogen in die Liste der bekanntesten In-Memory-Datenbanken wurden auch „Solid DB“ von IBM sowie „Times Ten“ von Oracle. Ein Viertel gibt an, „ASE 15.5“ von Sybase (gehört mittlerweile zu SAP) sowie „Gemstone“ von VMware zu kennen (siehe: Abbildung 12).

SAP plant ...

Allerdings gehen die Erwartungen von SAP an HANA und die der Anwender weit auseinander: SAP plant mit der In-Memory-Technologie das gesamte hauseigene Softwareportfolio zu erneuern. Schon mittelfristig will SAP die Technik als grundlegende Datenbank für alle neuen SAP-Applikationen nutzen.

Das entsprechende Projekt „Orange“ soll 2013 abgeschlossen sein und den Anwendern ermöglichen, bestehende Datenbanken für das bisherige „SAP Business Information Warehouse“ (BW) zu ersetzen. Die HANA-Appliance würde damit zum „single point of entry“.

Bildergalerie
Bildergalerie mit 13 Bildern

Doch das Potenzial könnte noch größer sein. Insbesondere die Positionierung von SAP HANA als Datenbank für die gesamte SAP Business Suite ab 2013 sei eine Entwicklung, die einen Paradigmenwechsel in der Nutzung und grundsätzlichen Architektur komplexer Datenbanklandschaften für transaktionale Systeme initiieren könnte, lautet die Überlegung der Studie.

Die SAP-Sicht divergiert stark von der Anwenderwunschliste

"Big Data ist kein Buzzwort mehr", steht in der Studie "Quo vadis Big Data", und weiter: "Der Datanschatz muss aber durch die Unternehmen gehoben werden."
"Big Data ist kein Buzzwort mehr", steht in der Studie "Quo vadis Big Data", und weiter: "Der Datanschatz muss aber durch die Unternehmen gehoben werden."
(Bild: TNS Infratest/T-Systems)
Doch das sehen die gefragten IT-Entscheider ganz anders (siehe: Abbildung 13). Jeder siebte geht davon aus, dass sich HANA als „Nischenprodukt im SAP-Umfeld“ positionieren wird. Rund 6 Prozent betrachten HANA offenbar als Hype.

Zumindest jeder fünfte Entscheider erwartet oder wünscht sich eine „primary persistence“, sprich: eine Nutzung von SAP HANA als primäre Datenbank für transaktionale und analytische Anwendungen. Und 36 Prozent der Befragten sehen in SAP HANA ein Instrument „um gezielt Performance-kritische Bereiche zu unterstützen und präferiert demnach die Stellung des Moduls als „analytics-sidecar“ von SAP BW“. Die zu erwartenden Kosten dürften bei diesen Betrachtungen eine nicht ganz unerhebliche Rolle spielen, so die Studie.

Für den Studienauftraggeber T-Systems spielt auch die Art und Weise, wie HANA in den Unternehmen implementiert wird, eine bedeutsame Rolle. Doch da sieht es, zumindest auf den ersten Blick, nicht gut aus für Service-Provider. Denn HANA wird von den befragten Entscheidern präferiert im eigenen Rechenzentrum gesehen – on premise, vor allem in Deutschland.

In Memory gehört ins eigene Rechenzentrum, so der Wille

Doch der Verzicht auf eigene Hardware und die Verlagerung der Ressourcen auf IT-Provider ist bereits für die Hälfte der Studienteilnehmer eine Option. Ein Fünftel sieht seine Anwendungen am ehesten auf einer dedizierten Hardware beim IT-Service-Provider. Einen Einsatz auf einem virtualisierten System würden 19 Prozent vorziehen.

Bildergalerie
Bildergalerie mit 13 Bildern

Doch fast jedes zehnte Unternehmen kann sich vorstellen, HANA über eine Cloud-basierte Lösung eines Providers zu nutzen, um die Kosten verbrauchsabhängig abrechnen zu können. „5 Prozent gehen sogar so weit und würden lediglich die mit SAP HANA erstellten Auswertungsergebnisse somit „as a service“ je nach Bedarf einkaufen“, sagt die Studie.

In Memory geht nicht ohne Servive-Provider, so die Realität

Die Versorgungsunternehmen allerdings, die Big Data eine große Bedeutung zumessen aber Investitionen in In-Memory-Technik scheuen, sperren sich vor allem gegen ein Auslagern von IT oder Services. Sie „legen am stärksten Wert auf Sicherheit“, drücken es die Studienmacher aus. Nahezu jedes zweite Unternehmen dieser Branche will HANA in eigenen Datacenter vor Ort betreiben.

Allerdings: „Vor dem Hintergrund der Neuartigkeit und der Komplexität von In-Memory-Anwendungen sind Unternehmen aktuell nicht in der Lage, diese ohne Hilfestellung von Lösungsanbietern zu implementieren.“ Die Studie zitiert eine Untersuchung von der Unternehmensberatung McKinsey, nach der alleine in den USA in den kommen Jahre bis zu 190.000 Big-Data-Spezialisten gebraucht werden.

Artikelfiles und Artikellinks

(ID:35199060)