Datenmodell und Data-Governance-System etablieren Keine KI ohne kohärente Datenstrategie

Ein Gastbeitrag von Christoph Riedlberger* 5 min Lesedauer

Anbieter zum Thema

Voraussetzung für die erfolgreiche Umsetzung einer KI-Strategie ist eine umfassende Datenverarbeitung sowie die Etablierung eines effektiven Data-Governance-Systems. Dabei kommt DevOps-Teams eine zentrale Rolle zu.

Was sind die Voraussetzungen, damit Unternehmen tatsächlich im gewünschten Ausmaß vom Einsatz generativer KI profitieren können?(Bild:  Antonio - stock.adobe.com / KI-generiert)
Was sind die Voraussetzungen, damit Unternehmen tatsächlich im gewünschten Ausmaß vom Einsatz generativer KI profitieren können?
(Bild: Antonio - stock.adobe.com / KI-generiert)

Unternehmen setzen heute schon auf KI, um Produkte weiterzuentwickeln, die Kundenzufriedenheit zu erhöhen und ihre Effizienz zu steigern. So nutzt der Pharmakonzern Novartis in nahezu jeder Phase seiner Produktionsprozesse Maschinelles Lernen: von der frühen Suche nach neuen Wirkstoffen über die sorgfältige Prüfung eines geeigneten Wirkstoffs bis hin zur Herstellung und Auslieferung der Medikamente.

Die AXA Schweiz verwendet KI bereits seit 2016 in der Kundeninteraktion, Prozessautomatisierung und Betrugserkennung. Inzwischen verbessern KI-Assistenten auch das Kundenerlebnis und automatisieren interne Geschäftsprozesse mit ChatGPT. Datenschutz- und KI-Risikobewertungen sowie ein KI-Inventar sorgen für Transparenz und Sicherheit.

Bei der BMW Group ist derweil eine Datenplattform im Einsatz, die es ermöglicht, durch Machine Learning neue datengetriebene Produkte schnell auf den Markt zu bringen. Zudem helfen per Self-Service abrufbare Daten aus unterschiedlichen Unternehmensbereichen dabei, fundierte Entscheidungen zu treffen.

Skalierbarkeit als Schlüssel zum Erfolg

Die aufgeführten Beispiele zeigen, dass die umfassende Nutzung von Daten in Kombination mit KI enorme Vorteile für Unternehmen mit sich bringt. Allerdings ist jede KI nur so gut wie die Daten, mit denen sie trainiert wird. Der Übergang zu einem digitalen und datengesteuerten Ansatz ist für viele Unternehmen eine große Herausforderung.

Um den Anforderungen einer heutigen Datenlandschaft gerecht zu werden, müssen neue Datenmodelle und -plattformen effizient skalierbar sein. Nur so können Unternehmen die exponentiell wachsende Menge und Vielfalt von Daten aus unterschiedlichen Quellen optimal nutzen und sich entscheidende Wettbewerbsvorteile sichern. Insbesondere das Auflösen von Datensilos für eine durchgängige und effiziente Datenverarbeitung spielt dabei eine wichtige Rolle.

Die Umsetzung einer ganzheitlichen Datenstrategie betrifft insbesondere das Arbeitsumfeld von DevOps-Teams und Softwareentwicklern. Mit der Entwicklung und Integration neuer IT-Systeme unter Berücksichtigung von Legacy-Systemen, Datenqualität und Sicherheitsniveaus stehen die Teams vor einer Bandbreite komplexer Aufgaben.

Herausforderungen bei der Datenverarbeitung

Zunächst müssen DevOps-Teams Systeme integrieren, die effizient mit der wachsenden Datenmenge und -komplexität skalieren können – und zwar so, dass Kosten und Leistung im richtigen Verhältnis stehen. Darüber hinaus müssen sie sicherstellen, dass die Datenqualität durch Validierungs-, Bereinigungs- und Transformationsprozesse über Pipelines und Speichersysteme hinweg gewährleistet ist.

Robuste Sicherheitsmaßnahmen zum Schutz sensibler Daten und zur Einhaltung regulatorischer Anforderungen sind ebenfalls unerlässlich. Dazu gehören etwa Verschlüsselung, Zugangskontrollen und Audit-Trails für Daten, wobei die besonderen Risiken für generative KI zu berücksichtigen sind.

Entwickler und Entwicklerinnen stehen oft vor der Herausforderung, neue Datenplattformen und KI-Funktionen nahtlos in eine bestehende IT-Infrastruktur einzubinden. Dies umfasst die Integration von Legacy-Systemen, die ursprünglich nicht dafür konzipiert wurden.

Neue Anforderungen erfordern neue Fähigkeiten

Um den genannten Herausforderungen in Bezug auf Skalierbarkeit, Datenqualität und Sicherheit gerecht zu werden, sind eine Reihe von Kompetenzen erforderlich, die sich DevOps-Teams und Softwareentwickler aneignen müssen. Dazu gehören:

  • Data Engineering: Entwurf und Verwaltung skalierbarer und zuverlässiger Daten-Pipelines, die große Datenmengen verarbeiten können
  • Verständnis zu verschiedenen Datenplattformen wie Data Warehouses und Data Lakes
  • Kenntnisse im Bereich der Datenverarbeitungs-Frameworks, etwa Apache Spark und Hadoop
  • Expertise bezüglich Cloud-Infrastrukturen für die Datenspeicherung und -verarbeitung sowie die Bereitstellung von KI-Modellen auf Plattformen wie AWS, Google Cloud und Azure
  • Wissen um den Lebenszyklus von KI/ML-Modellen (MLOps), um diese optimal entwickeln und bereitstellen zu können: Implementierung von CI/CD-Pipelines für Modelle und Sicherstellen der Modellleistung im produktiven Einsatz
  • Know-how hinsichtlich Data Governance und Compliance, um für mehr Datenqualität, -sicherheit und -konformität, insbesondere im Hinblick auf Vorschriften wie die DSGVO und industriespezifischen Regulierungen zu sorgen
  • Monitoring-Kompetenzen, d. h. Überwachungs- und Protokollierungs-Frameworks für datenintensive und KI-gestützte Systeme unter Verwendung von Tools wie Prometheus, Grafana und DataDog
  • Beherrschen von Skriptsprachen wie Python und Bash, um Aufgaben, wie die Bereitstellung von Infrastruktur und Datenpipeline-Workflows, zu automatisieren.

Warum es diese Fähigkeiten braucht, zeigen die Entwicklung eines Datenmodells und einer skalierbaren Datenplattform in der Praxis.

Das Erstellen eines Datenmodells erfordert Teamwork

Da keine Person allein über das eben genannte Wissen verfügt, erfordert die Erstellung und Optimierung eines Datenmodells im DevOps-Kontext das kollektive Know-how und die enge Zusammenarbeit verschiedener Rollen.

Data Scientists beispielsweise sind in erster Linie für den Entwurf des initialen Datenmodells verantwortlich. Sie analysieren die verfügbaren Daten, wählen geeignete Algorithmen aus und testen verschiedene Modellierungsansätze. Ihre Aufgabe ist es, sicherzustellen, dass das Modell die zugrunde liegenden Datenmuster effektiv erfasst und für die geplanten Anwendungen geeignet ist.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Im Anschluss haben Softwareentwickler und Data Engineers die Aufgabe, die erstellten Modelle in die bestehende IT-Infrastruktur zu integrieren. In kurzen Zyklen, die eine kontinuierliche Integration sowie Optimierungen durch regelmäßiges Feedback ermöglichen, implementieren sie APIs, die dafür sorgen, dass andere Systeme auf die Modelle zugreifen können.

Insbesondere in Umgebungen, in denen künstliche Intelligenz eingesetzt wird, spielen DevOps Engineers eine entscheidende Rolle an der Schnittstelle zwischen der Entwicklung und der operativen Nutzung von Datenmodellen. Ihre Aufgabe ist es, eine robuste, skalierbare und sichere Infrastruktur zu schaffen, die es ermöglicht, das Datenmodell und die KI-Anwendungen effizient zu betreiben, kontinuierlich zu verbessern und an neue Geschäftsanforderungen und technologische Entwicklungen anzupassen.

Die Etablierung eines Data-Governance-Systems

Die Einführung einer skalierbaren Datenplattform ist jedoch nur der Anfang. Um die Datenqualität sicherzustellen, sensible Informationen zu schützen, den Datenzugriff zu regeln und die Einhaltung von Compliance-Vorschriften zu gewährleisten, ist ein effektives Data-Governance-System unerlässlich.

Zu diesem Zweck müssen Unternehmen zunächst definieren, wie Daten gesammelt, gespeichert, verarbeitet und gemeinsam genutzt werden sollen. Entsprechende Richtlinien werden am besten unter der Verantwortung eines Chief Data Officers in Zusammenarbeit mit allen Stakeholdern erstellt, damit die Compliance-Regeln zu den Geschäftsprozessen des jeweiligen Unternehmens passen.

Insbesondere die technischen Teams sollten dabei eingebunden werden, denn DevOps-Engineers spielen eine entscheidende Rolle bei der technischen Umsetzung der Data Governance, z. B. bei der Einrichtung eines sicheren Datenzugriffs und der Überwachung der Einhaltung der Richtlinien in den Entwicklungsprozessen.

Automatisierte Compliance- und Governance-Prüfungen innerhalb der CI/CD-Pipelines tragen dazu bei, Fehler zu minimieren und die Einhaltung von Standards sicherzustellen. Trotzdem ist es notwendig, alle technischen und nicht-technischen Beteiligten in den Grundsätzen der Data Governance zu schulen. Dazu gehört das Verständnis der Bedeutung von Datenschutz, -qualität und -zugriffskontrollen.

Letztlich gilt es zu beachten, dass Data Governance kein einmaliger Prozess ist. Neue Geschäftsanforderungen und technologische Entwicklungen erfordern eine kontinuierliche Überwachung und Anpassung.

Wettbewerbsfähig in die Zukunft

Fest steht: Um sich zukunftssicher aufzustellen, müssen Unternehmen ihr Geschäftsmodell und ihre Strategie anhand der Möglichkeiten, die ihnen KI bietet, weiterentwickeln. Voraussetzung hierfür ist die Integration einer umfassenden Datenstrategie sowie die Förderung einer datengetriebenen Kultur, die Silos aufbricht, eine kollaborative Umgebung schafft und so Innovationen ermöglicht und beschleunigt. Da vielen Unternehmen hierfür das notwendige Know-how und die Ressourcen fehlen, ist die Kooperation mit einem spezialisierten Dienstleister oftmals empfehlenswert.

* Über den Autor
In seiner Rolle als Business Consultant bei Avenga agiert Christoph Riedlberger für Kunden als Impulsgeber, Sparringspartner und Koordinator für digitale Transformationsprojekte. Dabei nutzt er seine umfangreiche Erfahrung in der Steuerung von IT-Projekten und einem soliden technischen Hintergrund aus Studium und freiberuflicher Tätigkeit als Softwareentwickler, um komplexe Geschäftsprozesse effizient und nachhaltig zu gestalten.

Bildquelle: Avenga

(ID:50056204)