Voraussetzung für die erfolgreiche Umsetzung einer KI-Strategie ist eine umfassende Datenverarbeitung sowie die Etablierung eines effektiven Data-Governance-Systems. Dabei kommt DevOps-Teams eine zentrale Rolle zu.
Was sind die Voraussetzungen, damit Unternehmen tatsächlich im gewünschten Ausmaß vom Einsatz generativer KI profitieren können?
(Bild: Antonio - stock.adobe.com / KI-generiert)
Unternehmen setzen heute schon auf KI, um Produkte weiterzuentwickeln, die Kundenzufriedenheit zu erhöhen und ihre Effizienz zu steigern. So nutzt der Pharmakonzern Novartis in nahezu jeder Phase seiner Produktionsprozesse Maschinelles Lernen: von der frühen Suche nach neuen Wirkstoffen über die sorgfältige Prüfung eines geeigneten Wirkstoffs bis hin zur Herstellung und Auslieferung der Medikamente.
Die AXA Schweiz verwendet KI bereits seit 2016 in der Kundeninteraktion, Prozessautomatisierung und Betrugserkennung. Inzwischen verbessern KI-Assistenten auch das Kundenerlebnis und automatisieren interne Geschäftsprozesse mit ChatGPT. Datenschutz- und KI-Risikobewertungen sowie ein KI-Inventar sorgen für Transparenz und Sicherheit.
Bei der BMW Group ist derweil eine Datenplattform im Einsatz, die es ermöglicht, durch Machine Learning neue datengetriebene Produkte schnell auf den Markt zu bringen. Zudem helfen per Self-Service abrufbare Daten aus unterschiedlichen Unternehmensbereichen dabei, fundierte Entscheidungen zu treffen.
Skalierbarkeit als Schlüssel zum Erfolg
Die aufgeführten Beispiele zeigen, dass die umfassende Nutzung von Daten in Kombination mit KI enorme Vorteile für Unternehmen mit sich bringt. Allerdings ist jede KI nur so gut wie die Daten, mit denen sie trainiert wird. Der Übergang zu einem digitalen und datengesteuerten Ansatz ist für viele Unternehmen eine große Herausforderung.
Um den Anforderungen einer heutigen Datenlandschaft gerecht zu werden, müssen neue Datenmodelle und -plattformen effizient skalierbar sein. Nur so können Unternehmen die exponentiell wachsende Menge und Vielfalt von Daten aus unterschiedlichen Quellen optimal nutzen und sich entscheidende Wettbewerbsvorteile sichern. Insbesondere das Auflösen von Datensilos für eine durchgängige und effiziente Datenverarbeitung spielt dabei eine wichtige Rolle.
Die Umsetzung einer ganzheitlichen Datenstrategie betrifft insbesondere das Arbeitsumfeld von DevOps-Teams und Softwareentwicklern. Mit der Entwicklung und Integration neuer IT-Systeme unter Berücksichtigung von Legacy-Systemen, Datenqualität und Sicherheitsniveaus stehen die Teams vor einer Bandbreite komplexer Aufgaben.
Herausforderungen bei der Datenverarbeitung
Zunächst müssen DevOps-Teams Systeme integrieren, die effizient mit der wachsenden Datenmenge und -komplexität skalieren können – und zwar so, dass Kosten und Leistung im richtigen Verhältnis stehen. Darüber hinaus müssen sie sicherstellen, dass die Datenqualität durch Validierungs-, Bereinigungs- und Transformationsprozesse über Pipelines und Speichersysteme hinweg gewährleistet ist.
Robuste Sicherheitsmaßnahmen zum Schutz sensibler Daten und zur Einhaltung regulatorischer Anforderungen sind ebenfalls unerlässlich. Dazu gehören etwa Verschlüsselung, Zugangskontrollen und Audit-Trails für Daten, wobei die besonderen Risiken für generative KI zu berücksichtigen sind.
Entwickler und Entwicklerinnen stehen oft vor der Herausforderung, neue Datenplattformen und KI-Funktionen nahtlos in eine bestehende IT-Infrastruktur einzubinden. Dies umfasst die Integration von Legacy-Systemen, die ursprünglich nicht dafür konzipiert wurden.
Neue Anforderungen erfordern neue Fähigkeiten
Um den genannten Herausforderungen in Bezug auf Skalierbarkeit, Datenqualität und Sicherheit gerecht zu werden, sind eine Reihe von Kompetenzen erforderlich, die sich DevOps-Teams und Softwareentwickler aneignen müssen. Dazu gehören:
Data Engineering: Entwurf und Verwaltung skalierbarer und zuverlässiger Daten-Pipelines, die große Datenmengen verarbeiten können
Verständnis zu verschiedenen Datenplattformen wie Data Warehouses und Data Lakes
Kenntnisse im Bereich der Datenverarbeitungs-Frameworks, etwa Apache Spark und Hadoop
Expertise bezüglich Cloud-Infrastrukturen für die Datenspeicherung und -verarbeitung sowie die Bereitstellung von KI-Modellen auf Plattformen wie AWS, Google Cloud und Azure
Wissen um den Lebenszyklus von KI/ML-Modellen (MLOps), um diese optimal entwickeln und bereitstellen zu können: Implementierung von CI/CD-Pipelines für Modelle und Sicherstellen der Modellleistung im produktiven Einsatz
Know-how hinsichtlich Data Governance und Compliance, um für mehr Datenqualität, -sicherheit und -konformität, insbesondere im Hinblick auf Vorschriften wie die DSGVO und industriespezifischen Regulierungen zu sorgen
Monitoring-Kompetenzen, d. h. Überwachungs- und Protokollierungs-Frameworks für datenintensive und KI-gestützte Systeme unter Verwendung von Tools wie Prometheus, Grafana und DataDog
Beherrschen von Skriptsprachen wie Python und Bash, um Aufgaben, wie die Bereitstellung von Infrastruktur und Datenpipeline-Workflows, zu automatisieren.
Warum es diese Fähigkeiten braucht, zeigen die Entwicklung eines Datenmodells und einer skalierbaren Datenplattform in der Praxis.
Das Erstellen eines Datenmodells erfordert Teamwork
Da keine Person allein über das eben genannte Wissen verfügt, erfordert die Erstellung und Optimierung eines Datenmodells im DevOps-Kontext das kollektive Know-how und die enge Zusammenarbeit verschiedener Rollen.
Data Scientists beispielsweise sind in erster Linie für den Entwurf des initialen Datenmodells verantwortlich. Sie analysieren die verfügbaren Daten, wählen geeignete Algorithmen aus und testen verschiedene Modellierungsansätze. Ihre Aufgabe ist es, sicherzustellen, dass das Modell die zugrunde liegenden Datenmuster effektiv erfasst und für die geplanten Anwendungen geeignet ist.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Im Anschluss haben Softwareentwickler und Data Engineers die Aufgabe, die erstellten Modelle in die bestehende IT-Infrastruktur zu integrieren. In kurzen Zyklen, die eine kontinuierliche Integration sowie Optimierungen durch regelmäßiges Feedback ermöglichen, implementieren sie APIs, die dafür sorgen, dass andere Systeme auf die Modelle zugreifen können.
Insbesondere in Umgebungen, in denen künstliche Intelligenz eingesetzt wird, spielen DevOps Engineers eine entscheidende Rolle an der Schnittstelle zwischen der Entwicklung und der operativen Nutzung von Datenmodellen. Ihre Aufgabe ist es, eine robuste, skalierbare und sichere Infrastruktur zu schaffen, die es ermöglicht, das Datenmodell und die KI-Anwendungen effizient zu betreiben, kontinuierlich zu verbessern und an neue Geschäftsanforderungen und technologische Entwicklungen anzupassen.
Die Etablierung eines Data-Governance-Systems
Die Einführung einer skalierbaren Datenplattform ist jedoch nur der Anfang. Um die Datenqualität sicherzustellen, sensible Informationen zu schützen, den Datenzugriff zu regeln und die Einhaltung von Compliance-Vorschriften zu gewährleisten, ist ein effektives Data-Governance-System unerlässlich.
Zu diesem Zweck müssen Unternehmen zunächst definieren, wie Daten gesammelt, gespeichert, verarbeitet und gemeinsam genutzt werden sollen. Entsprechende Richtlinien werden am besten unter der Verantwortung eines Chief Data Officers in Zusammenarbeit mit allen Stakeholdern erstellt, damit die Compliance-Regeln zu den Geschäftsprozessen des jeweiligen Unternehmens passen.
Insbesondere die technischen Teams sollten dabei eingebunden werden, denn DevOps-Engineers spielen eine entscheidende Rolle bei der technischen Umsetzung der Data Governance, z. B. bei der Einrichtung eines sicheren Datenzugriffs und der Überwachung der Einhaltung der Richtlinien in den Entwicklungsprozessen.
Automatisierte Compliance- und Governance-Prüfungen innerhalb der CI/CD-Pipelines tragen dazu bei, Fehler zu minimieren und die Einhaltung von Standards sicherzustellen. Trotzdem ist es notwendig, alle technischen und nicht-technischen Beteiligten in den Grundsätzen der Data Governance zu schulen. Dazu gehört das Verständnis der Bedeutung von Datenschutz, -qualität und -zugriffskontrollen.
Letztlich gilt es zu beachten, dass Data Governance kein einmaliger Prozess ist. Neue Geschäftsanforderungen und technologische Entwicklungen erfordern eine kontinuierliche Überwachung und Anpassung.
Wettbewerbsfähig in die Zukunft
Fest steht: Um sich zukunftssicher aufzustellen, müssen Unternehmen ihr Geschäftsmodell und ihre Strategie anhand der Möglichkeiten, die ihnen KI bietet, weiterentwickeln. Voraussetzung hierfür ist die Integration einer umfassenden Datenstrategie sowie die Förderung einer datengetriebenen Kultur, die Silos aufbricht, eine kollaborative Umgebung schafft und so Innovationen ermöglicht und beschleunigt. Da vielen Unternehmen hierfür das notwendige Know-how und die Ressourcen fehlen, ist die Kooperation mit einem spezialisierten Dienstleister oftmals empfehlenswert.
* Über den Autor In seiner Rolle als Business Consultant bei Avenga agiert Christoph Riedlberger für Kunden als Impulsgeber, Sparringspartner und Koordinator für digitale Transformationsprojekte. Dabei nutzt er seine umfangreiche Erfahrung in der Steuerung von IT-Projekten und einem soliden technischen Hintergrund aus Studium und freiberuflicher Tätigkeit als Softwareentwickler, um komplexe Geschäftsprozesse effizient und nachhaltig zu gestalten.