DataCenter
Study 2015

> Jetzt mitmachen!

Auf die richtige Mischung kommt es an

Data Governance und Sicherheit bei Big Data Analysen

02.04.14 | Autor / Redakteur: Barbara Radatz / Ulrike Ostler

So einfach ist das nicht, wenn Anwender verschiedene Datenquellen mixen wollen.
Bildergalerie: 1 Bild
So einfach ist das nicht, wenn Anwender verschiedene Datenquellen mixen wollen. (Bild: Pentoho)

Dass Big Data wichtig ist, bezweifelt keiner mehr. Die eigentliche Wertschöpfung für Anwender entsteht aus den Informationen, die sich aus der Kombination verschiedenster Datenquellen ergibt. Aber: Daten-Aktualität, Qualität und Integrität müssen gewährleistet sein.

Unternehmen und Institutionen, die Geschäftsentscheidungen nur auf der Basis von Daten aus ihren relationalen Datenbanken treffen, können in einer Zeit, wo der Anteil von unstrukturierten Daten stetig wächst, schnell ins Hintertreffen geraten.

Um die bestmöglichste Entscheidung zu treffen, müssen Unternehmen auf eine möglichst große Anzahl von aktuellsten Informationen zugreifen können – auf die logische Verknüpfung von Daten aus operativen Unternehmensanwendungen, sozialen Netzwerken, Sensoren oder Weblogs kommt es also an.

In Zeiten wo ganze Branchen, wie Banken und Finanzdienstleister, Medien, die Musikindustrie oder Telcos ihre schrumpfenden Gewinnspannen gegen neue flexiblere digitale Startups verteidigen müssen, wird es für diese traditionellen Akteure unerlässlich, die Fülle ihrer Kundendaten zu nutzen, um ihren Status Quo mindestens wahren zu können.

Das Verknüpfen von Kundendaten, Social Media Feeds, Transaktionsdaten und Kundendiensteinträgen hilft diesen Branchen, die Kunden besser zu verstehen. Mit gezielten personalisierten Dienstleistungen und Service-Erlebnissen kann durch dieses Verständnis die Kundenloyalität gesteigert und das Abwandern zu anderen neuen Anbietern verhindert werden.

Das Verbinden von vielen Datentöpfen

Das Verknüpfen verschiedener Datenquellen erlaubt es den traditionellen Branchen, ihren Umsatz zu schützen und auszubauen. Eine Mischung, die es in sich hat und auch die klassischen Informationsarchitekturen mit dem Data Warehouse an seine Grenzen bringt.

Große und unstrukturierte Datenmengen in ein zentrales Data Warehouse zu laden ist nicht nur unpraktisch, sondern wird auch schnell zu teuer und die Performanz leidet erheblich. In unser schnelllebigen Zeit können es sich Unternehmen nicht mehr leisten, zu warten, dass Daten erst extrahiert, gereinigt, transformiert und gespeichert werden, bevor sie gemischt und analysiert werden können.

Aus diesem Grund stehen heute die traditionellen relationalen Data Warehouses neben den neuen Big Data Infrastrukturen wie „Hadoop“ oder NoSQL und es gibt neue agilere Informationsarchitekturen, die den Datenfluss von der Quelle bis zur Analyse managen.

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 42613685) | Fotos: Pentaho - Pentoho