Auf die richtige Mischung kommt es an

Data Governance und Sicherheit bei Big Data Analysen

02.04.14 | Autor / Redakteur: Barbara Radatz / Ulrike Ostler

So einfach ist das nicht, wenn Anwender verschiedene Datenquellen mixen wollen.
So einfach ist das nicht, wenn Anwender verschiedene Datenquellen mixen wollen. (Bild: Pentoho)

Dass Big Data wichtig ist, bezweifelt keiner mehr. Die eigentliche Wertschöpfung für Anwender entsteht aus den Informationen, die sich aus der Kombination verschiedenster Datenquellen ergibt. Aber: Daten-Aktualität, Qualität und Integrität müssen gewährleistet sein.

Unternehmen und Institutionen, die Geschäftsentscheidungen nur auf der Basis von Daten aus ihren relationalen Datenbanken treffen, können in einer Zeit, wo der Anteil von unstrukturierten Daten stetig wächst, schnell ins Hintertreffen geraten.

Um die bestmöglichste Entscheidung zu treffen, müssen Unternehmen auf eine möglichst große Anzahl von aktuellsten Informationen zugreifen können – auf die logische Verknüpfung von Daten aus operativen Unternehmensanwendungen, sozialen Netzwerken, Sensoren oder Weblogs kommt es also an.

In Zeiten wo ganze Branchen, wie Banken und Finanzdienstleister, Medien, die Musikindustrie oder Telcos ihre schrumpfenden Gewinnspannen gegen neue flexiblere digitale Startups verteidigen müssen, wird es für diese traditionellen Akteure unerlässlich, die Fülle ihrer Kundendaten zu nutzen, um ihren Status Quo mindestens wahren zu können.

Das Verknüpfen von Kundendaten, Social Media Feeds, Transaktionsdaten und Kundendiensteinträgen hilft diesen Branchen, die Kunden besser zu verstehen. Mit gezielten personalisierten Dienstleistungen und Service-Erlebnissen kann durch dieses Verständnis die Kundenloyalität gesteigert und das Abwandern zu anderen neuen Anbietern verhindert werden.

Das Verbinden von vielen Datentöpfen

Das Verknüpfen verschiedener Datenquellen erlaubt es den traditionellen Branchen, ihren Umsatz zu schützen und auszubauen. Eine Mischung, die es in sich hat und auch die klassischen Informationsarchitekturen mit dem Data Warehouse an seine Grenzen bringt.

Große und unstrukturierte Datenmengen in ein zentrales Data Warehouse zu laden ist nicht nur unpraktisch, sondern wird auch schnell zu teuer und die Performanz leidet erheblich. In unser schnelllebigen Zeit können es sich Unternehmen nicht mehr leisten, zu warten, dass Daten erst extrahiert, gereinigt, transformiert und gespeichert werden, bevor sie gemischt und analysiert werden können.

Aus diesem Grund stehen heute die traditionellen relationalen Data Warehouses neben den neuen Big Data Infrastrukturen wie „Hadoop“ oder NoSQL und es gibt neue agilere Informationsarchitekturen, die den Datenfluss von der Quelle bis zur Analyse managen.

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Spamschutz 

Bitte geben Sie das Ergebnis der Rechenaufgabe (Addition) ein:
Kommentar abschicken

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 42613685) | Fotos: Pentaho, Pentoho

Themen-Newsletter Update Software on premise abonnieren.

Hat Ihnen dieser Artikel gefallen?
Wenn Sie wichtige Nachrichten in Zukunft nicht verpassen möchten, dann versorgen wir Sie über unseren Themenkanal-Newsletter gerne direkt mit den aktuellsten News und Fachbeiträgen aus diesem Themenumfeld. Jetzt abonnieren!

* Ich bin mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung und AGB einverstanden.
Spamschutz:
Bitte geben Sie das Ergebnis der Rechenaufgabe (Addition) ein.

Wir suchen die Top 20 der USV-Anlagen!

Welche USV finden Sie am besten? Welche fehlt? *
Bitte begründen Sie Ihre Empfehlung mit zwei, drei Stichworten.
Artikel: »Unterbrechungsfreie Stromversorgung: Anbieter und Techniken«
>> Teil 1
>> Teil 2
Senden