Viele Daten – das ist gar nicht das Problem Weshalb die meisten Big-Data-Projekte scheitern

Autor / Redakteur: Ales Zeman / Ulrike Ostler |

Nicht nur die NSA, sondern auch die meisten Unternehmen verfügen schon seit Jahren über Massendaten und Dokumente, die sie mithilfe von Business Intelligence oder Data-Warehousing auswerten und bereitstellen. Trotzdem: Das Gros der Big-Data-Projekte scheitert.

Anbieter zum Thema

Da braucht so machner Big-Data-Architekt einen Stressball ....
Da braucht so machner Big-Data-Architekt einen Stressball ....
(Bild: Norman Pogson)

Ohne eine Big-Data-Strategie verliert ein Unternehmen schnell den Überblick über seine Daten und verpasst wichtige Wettbewerbschancen. Aber die bisherigen Verfahren stoßen angesichts der Datenflut schlichtweg an ihre Grenzen. Denn die Auswertung dauert zu lange und verliert für die Entscheidungsvorbereitung an Wert.

Wer Big-Data nutzen will, braucht neben neuen Hard- und Software-Infrastrukturen eine klare Roadmap, mit der sich Unternehmen Schritt für Schritt Big Data annähern können. Dazu gehört es vor allem, Transparenz im Datenbestand, in den Datenquellen und in der Datenvielfalt herzustellen, um die Daten überhaupt effektiv managen, validieren und analysieren zu können.

Informationssicherheit als Herausforderung

Auch die Informationssicherheit und der Datenschutz unterliegen ganz neuen Anforderungen. Zu einer der ersten Maßnahmen vor der Umsetzung von Big Data gehört daher der Aufbau einer Data Governance, die Prozesse und Verantwortlichkeiten festlegt und Compliance-Richtlinien definiert. Schließlich darf nicht außer Acht gelassen werden, dass die Total Cost of Ownership steigen, insbesondere dann, wenn die Auswertung komplexer Daten in Echtzeit erfolgen soll.

Diese Herausforderungen führen dazu, dass klare Verantwortlichkeiten und Prozesse im Umgang mit Big Data definiert werden müssen. Der aktuelle Leitfaden des Branchenverbands Bitkom zum Management von Big-Data-Projekten zeigt eine Reihe weiterer Herausforderungen auf:

  • Total Cost of Ownership: Heterogene und komplexe Informationslandschaften führen zu steigenden Betriebskosten.
  • Datenverluste: Unternehmen müssen sicherstellen, dass sie alle wesentlichen Daten und Informationen erfassen und diese nicht verlorengehen. Durch schnell wachsende Volumina stellt sich diese Aufgabe in einer neuen Dimension.
  • IT-Sicherheit, Betrugs- und Manipulations-Prävention: Volumen, Komplexität und Wert von Informationen verstärken die Notwendigkeit, Betrug und Manipulation vorzubeugen.
  • Transparenz: Das immense Volumen sowie die Vielfalt der Informationen erhöhen die Bedeutung geeigneter Datenstrukturen. Klare Datenstrukturen und Abläufe sind aber die Grundlage, um die Interpretation der Daten, die Informationsflüsse, die Verantwortlichkeiten und damit die Transparenz über das Datenuniversum zu ermöglichen
  • Dateninterpretation, Validierung: Das immense Volumen sowie die Vielfalt der Informationen erhöhen die Anforderungen an die problemadäquate Interpretation der Daten sowie die
  • Sicherstellung ihrer Aktualität: Die Früherkennung von Signalen wichtiger Veränderungen nimmt an Bedeutung zu. Gleichzeitig gilt es, Fehlinterpretationen zu verhindern.
  • Entscheidungsbasis: Hohes Datenvolumen und zunehmend volatile Märkte erfordern und erschweren gleichzeitig eine schnelle und akkurate Datenanalyse als Basis für Management-Entscheidungen.

Nur die Unternehmen, welche die Herausforderungen aktiv angehen und bewältigen profitieren von Big Data und realisieren Geschäftsvorteile.

Artikelfiles und Artikellinks

(ID:42298288)