Grundvertrauen in die Daten schaffen Customer Journey, Predictive Analytics? Auf die Datenqualität kommt es an

Autor / Redakteur: Holger Stelz* / Ulrike Ostler

Vertrauen ist gut, Kontrolle ist besser! Dieser Leitspruch gilt für viele Lebens- und Geschäftsbereiche und selbstverständlich auch für Unternehmen, die sich der Herausforderung stellen, eine möglichst hohe Qualität ihrer Kundenstammdaten zu gewährleisten. Aus diesem Grund gibt es Verfahren und Systeme, die die Qualität von Daten optimieren.

Anbieter zum Thema

Datenqualität ist das Handwerkzeug und der Baustoff für die Digitale Transformation.
Datenqualität ist das Handwerkzeug und der Baustoff für die Digitale Transformation.
(Bild: Rainer Sturm / pixelio.de)

Wenn es dann allerdings darum geht, strategische Geschäftsentscheidungen zu treffen, ist ein Grundvertrauen in die Daten erforderlich, am Ende gilt also eher das Motto: Kontrolle ist gut, Vertrauen ist besser!

Denn unabhängig davon, ob Unternehmen ihre Kundenstammdaten als Grundlage für Maßnahmen verwenden, ihre Kunden auf deren Customer Journey zu begleiten, als Grundlage für Predictive Analytics-Prognosen oder als Grundlage für die digitale Transformation ihrer Vertriebs- oder Geschäftsprozesse, müssen sie darauf vertrauen können, dass die Qualität der zu Grunde gelegten Daten möglichst hoch ist.

Ansonsten laufen sie nämlich Gefahr, falsche Customer Journey -Maßnahmen zu ergreifen, falsche Predictive Analytics-Prognosen zu treffen und mit ihrer digitalen Transformation zu scheitern. Das so genannte „Grundvertrauen“ in die Qualität der Daten erhält damit eine zentrale Bedeutung.

Datenqualität: Was ist das?

Bevor sich ein Unternehmen Gedanken über die Optimierung der Datenqualität macht, muss zuerst einmal geklärt werden, was überhaupt unter dem Begriff „Datenqualität“ zu verstehen ist. In der Praxis werden in der Regel die folgenden Kriterien festgelegt, um die Qualität von Daten zu bewerten:

  • Eindeutigkeit (Zuordnung zu einer Person)
  • Konsistenz (Widerspruchsfreiheit der Datenbank)
  • Fehlerfreiheit (Genauigkeit)
  • Aktualität (kontinuierliche Aktualisierung)
  • Umfang (sachdienliche Informationen und Angaben)
  • Freiheit von Redundanz (Duplikate)
  • Referenzielle Integrität und eindeutige Vergabe von Schlüsseln/IDs

Wie diese Kriterien zeigen, gibt es eine ganze Reihe von „Stellschrauben“, an denen gedreht werden kann und muss, um das Qualitätsniveau zu halten und zu erhöhen. Auf der anderen Seite gibt es auch eine Vielzahl an Faktoren, die das Datenqualitätsniveau beeinträchtigen können.

Hase und Igel

Wenn Unternehmen das Ziel verfolgen, die Qualität ihrer Kundenstammdaten kontinuierlich und nachhaltig auf ein möglichst hohes Niveau zu bringen, gilt es, gleich eine ganze Reihe von Herausforderungen zu meistern. Zum einen sind Kundenstammdaten traditionell einem kontinuierlichen Wandel unterzogen, was dazu führt, dass es eigentlich nie einen „Status Quo“ gibt, sondern das Streben nach optimaler Datenqualität einem „Hase-und-Igel“-Spiel gleicht. Immer wenn das Unternehmen glaubt, ein höchstmögliches Datenqualitätsniveau erreicht zu haben, gibt es zeitgleich externe wie interne Faktoren, die dieses Niveau beeinträchtigen und wieder „nach unten“ ziehen.

Dazu gehören die kontinuierlichen Veränderungen der Kundendaten durch Umzüge, Namensänderungen, Wechsel des Arbeitsplatzes oder Ändern der Position und vor allem Fehler durch die für die Eingabe und Pflege der Kundenstammdaten verantwortlichen Mitarbeiter sind ein weiterer Risikofaktor. Und wenn die Daten dann, wie auch heute noch in vielen Unternehmen üblich, in unterschiedlichen Systemen erfasst und bearbeitet werden, drohen weitere Gefahren für die Datenqualität wie Duplikate oder unvollständige Daten, die das Unternehmen nur mit den entsprechenden Gegenmaßnahmen beseitigen kann.

Strategische, organisatorische und technische Maßnahmen zur Optimierung der Datenqualität

Zu den Maßnahmen, die ein Unternehmen im Bereich Datenqualität ergreifen kann, gehören zuerst einmal strategische Maßnahmen, die sicherstellen, dass ein möglichst hohes Qualitätsniveau erreicht wird. Ein zentraler Aspekt besteht dabei darin, bei allen Mitarbeitern, die mit den Kundendaten in Berührung gelangen, das Bewusstsein zu wecken und zu schärfen, mit welchem „Schatz“ sie da täglich zu tun haben und das Verständnis zu erreichen, dass dieser Schatz möglichst sorgsam gehegt und gepflegt werden muss, um die strategischen Ziele des Unternehmens zu erreichen.

Darüber hinaus muss es natürlich organisatorische Maßnahmen wie Workflows, Checklisten und Scorecards geben, die sicherstellen, dass die Daten bei ihrem ersten Kontakt im Unternehmen sorgfältig, präzise und vollständig erfasst und dann während ihres gesamten Lebenszyklus im Unternehmen ebenso sorgfältig, präzise und vollständig gepflegt und aktualisiert werden.

Speziell für Predictive Analytics entwickelte Uniserv in Kooperation mit der Hochschule der Medien (HdM) Stuttgart einen Prototyp auf der Basis des "Ground Truth".
Speziell für Predictive Analytics entwickelte Uniserv in Kooperation mit der Hochschule der Medien (HdM) Stuttgart einen Prototyp auf der Basis des "Ground Truth".
(Bild: Uniserv)

Nicht weniger wichtig sind entsprechende technische Maßnahmen zur Optimierung und Sicherung einer nachhaltigen Datenqualität. Dazu können beispielsweise an den Stellen, an denen Daten in das Unternehmen gelangen, so genannte „DQ-Checks“ eingerichtet werden, die sicherstellen, dass die Daten bereits beim ersten Erfassen eine möglichst hohe Qualität haben und dass ein „schleichendes Verschmutzen“ der Daten verhindert wird, indem nur Daten in das System aufgenommen werden,

die dem Verwendungszweck angemessen sind. In der Praxis werden dazu entsprechende „DQ-Firewalls“ eingerichtet, man spricht auch von „First Time Right“.

Eine weitere technische Maßnahme kann das Einrichten eines Master Data Management-(MDM)-Hubs sein, in dem die in den unterschiedlichen Systemen erfassten und bearbeiteten Daten zu einem so genannten „Golden Record“ aggregiert werden. Damit wird erreicht, dass die bereits erwähnten Datensilos „aufgebrochen“ werden, das heißt: die unterschiedlichen Systeme, in denen Kundendaten heute immer noch getrennt voneinander gespeichert werden , zum Beispiel CRM, Systeme für den Vertrieb und Marketing, für Automation, Tickets und Services, ERP, Anwendungen für Buchhaltung und Controlling.

Darüber hinaus kann sichergestellt werden, dass Änderungen am Datensatz in einem System in allen anderen Systemen synchronisiert werden. Diese Automatisierung verringert darüber hinaus das Risiko von Fehlern bei manuellen Arbeiten an den Kundenstammdaten.

Der digitale Kunde und seine Spuren im Internet

In Zeiten einer zunehmenden Digitalisierung reichen die genannten strategischen, organisatorischen und technischen Maßnahmen zur Optimierung der Datenqualität heute allerdings nicht mehr aus. Diese Digitalisierung des Kundenkontakts und die damit verbundene zunehmende Nutzung sozialer Netzwerke haben dazu geführt, dass der Kunde dort Spuren hinterlässt – etwa in Form von Kommentaren und Bewertungen der von ihm erworbenen Produkte oder genutzten Dienstleistungen.

Im Gegensatz zur bisherigen analogen Welt spricht der digitale Kunde also nicht mehr nur MIT dem Unternehmen, sondern in immer stärkeren Maße auch ÜBER das Unternehmen, ohne dass dabei ein direkter One-to-One-Kontakt mit dem Unternehmen entsteht.

Big Data werden Smart Data... ,wenn die Datenqualität stimmt ...

Das Entstehen von Big Data in Verbindung mit leistungsstarken Cloud-Technologien hat zudem dazu geführt, dass es für Unternehmen mittlerweile möglich ist, diese „Spuren“ des digitalen Kunden zu lesen und auszuwerten. Allerdings gilt auch hier „Qualität geht vor Quantität“. Viele Unternehmen „ächzen“ derzeit bereits unter der Fülle an Daten, die in den unterschiedlichsten Monitoring-Systemen erfasst werden und suchen verzweifelt nach Möglichkeiten, sich einen Durchblick im „Big-Data-Dschungel“ zu verschaffen.

Dabei ist mittlerweile den meisten Verantwortlichen in Unternehmen klar, dass es mit der Datenfülle allein nicht getan ist und es vielmehr darum geht, die RICHTIGEN Daten an der RICHTIGEN Stelle über einen Kunden zu sammeln und zu einem Gesamtbild, der 360-Grad-Sicht auf den Kunden, zu aggregieren. Nur so werden aus „Big Data“ „Smart Data“, die dem Unternehmen eine aktuelle, vollständige und präzise Grundlage für seine strategischen Geschäftsentscheidungen liefern, auf die er sich voller Vertrauen verlassen kann.

Ground Truth für den Weg zum Golden Profile

Das Grundvertrauen von Unternehmen in ihre Daten gehört zu den wichtigsten Voraussetzungen für unternehmerischen Erfolg. Ein möglichst hohes Datenqualitätsniveau ist dabei ein zentraler Erfolgsfaktor. Mit „Ground Truth“ hat die Firma Uniserv eine Lösungs- und Prozess-Methodik entwickelt, die Unternehmen entsprechend dabei unterstützt, in einem mehrstufigen Vorgehen letztendlich das „Golden Profile“ eines jeden Kunden zu erstellen, das dessen Adressdaten, sein Kaufverhalten, seine Interessen und Vorlieben, aber auch seine Kommunikation und Interaktion mit dem Unternehmen zu einem zentralen Datensatz aggregiert.

Darüber hinaus werden in den Golden Profiles die „Spuren“ integriert, die der Kunde im Internet und den sozialen Netzwerken hinterlässt. Sprich: Die Stammdaten eines jeden Kunden (Golden Record) sowie die Bewegungsdaten (Transaktions- und Interakionsdaten) werden zusammengeführt (Golden Profile). Ground Truth sorgt darüber hinaus für eine kontinuierliche Aktualisierung dieser Daten sowie eine Synchronisierung der Daten über die unterschiedlichen Datenquellen hinweg.

Holger Stelz: „Kontrolle ist gut, Vertrauen ist besser: Die Umkehrung des eingangs zitierten Leitspruchs gilt insbesondere, wenn es darum geht, Kundenstammdaten als Grundlage für strategische Entscheidungen zu verwenden. Nur wenn das Grundvertrauen in diese Daten nachhaltig gewährleistet ist, werden Unternehmen die richtigen strategischen Entscheidungen treffen.“
Holger Stelz: „Kontrolle ist gut, Vertrauen ist besser: Die Umkehrung des eingangs zitierten Leitspruchs gilt insbesondere, wenn es darum geht, Kundenstammdaten als Grundlage für strategische Entscheidungen zu verwenden. Nur wenn das Grundvertrauen in diese Daten nachhaltig gewährleistet ist, werden Unternehmen die richtigen strategischen Entscheidungen treffen.“
(Bild: Uniserv)

Speziell für Predictive Analytics entwickelte Uniserv in diesem Zusammenhang in Kooperation mit der Hochschule der Medien (HdM) Stuttgart einen Prototyp auf der Basis des Ground Truth. Anhand dieses Prototypen sollte die Bedeutung der Datenqualität als kritischer Erfolgsfaktor für die Güte von Prognosen veranschaulicht werden.Im Rahmen einer Bachelor-Arbeit wurde dieser Zusammenhang nun auch erstmals empirisch untersucht.

Der Autor der Arbeit, Paul Titze, Student am Fachbereich Information und Kommunikation des Studiengangs Wirtschaftsinformatik und digitale Medien an der HdM, überprüfte mithilfe verschiedener Testszenarien, in denen Datenanalysen mit Hilfe von Stammdaten von verschiedener Qualität durchgeführt wurden, den Zusammenhang zwischen qualitativ hochwertigen Stammdaten und den Ergebnissen der Analyse via Supervised Machine Learning. Ergebnis: Vor allem beim Supervised Learning, bei dem die Stammdaten die Grundlage für das Lernen des Algorithmus bilden, konnten mit einer durch Stammdaten-Management qualitativ hochwertig aufbereiteten Datengrundlage deutlich bessere Vorhersagen erzielt werden als beim Machine Learning mit einem unbehandelten Datenset.

* Holger Stelz ist Director Marketing und Business Development bei der Uniserv GmbH.

Artikelfiles und Artikellinks

(ID:44412882)