Immer mehr Unternehmen setzen auf KI/ML-gestützte Software, um ihre Geschäftsmodelle zu optimieren. Das Potential der neuen Technologie ist groß. Effektivität und Effizienz der bestehenden Geschäftsprozesse können erhöht und neue lukrative Geschäftsmodelle erschlossen werden.
Bei der KI-Integration wird die Produktivität gesteigert - aber dabei sollte auch die Sicherheit beachtet werden.
(Bild: Rawpixel.com - stock.adobe.com)
Entsprechend fieberhaft wird in Unternehmen an der Entwicklung neuer KI/ML-gestützter Softwarelösungen gearbeitet. Was dort jedoch häufig übersehen wird: Mit der zunehmenden Integration von KI und ML in Softwareentwicklungsprozesse wachsen auch die Anforderungen an deren Sicherheit. Hoch soll sie sein – aber ohne die Produktivität zu beeinträchtigen.
Software, die KI und ML nutzen, helfen Unternehmen, bestehende Geschäftsprozesse zu optimieren und neue Geschäftsfelder zu erschließen. Was im derzeitigen Entwicklungsboom von KI/ML-Modellen jedoch häufig übersehen wird: Mit der Integration von KI und ML gewinnt die Absicherung von Software-Lieferketten zunehmend an Komplexität. Es wächst die Zahl potenzieller Einfallstore für Angreifer.
Unsichere Komponenten, fehlerhafte Quellcodes und risikobehaftete Container-Images – um nur einige Gefahrenpunkte zu nennen - können von diesen leicht ausgenutzt werden. Traditionelle Sicherheitsansätze und DevSecOps-Tools allein genügen hier nicht. Um im Bereich der KI/ML-Entwicklung erfolgreich für Sicherheit zu sorgen, müssen weitere Maßnahmen ergriffen werden.
Komponenten, Quellcode, Container, Artefakte
Zunächst einmal müssen die Komponenten Quellcode, Container und Artefakte verstärkt in den Blick genommen werden. Softwareentwicklungsmodelle setzen sich – wie allgemein bekannt – aus einer Vielzahl von Komponenten zusammen. Manche dieser Komponenten sind mehr, andere weniger sicher – und stellen somit potenzielle Einfallstore für Angreifer dar. Wie können diese nun besser abgesichert werden?
Um Modelle zu erstellen, nutzen Data Scientists Open Source-Frameworks und -Bibliotheken, wie z. B. TensorFlow und PyTorch. Der Zugriff auf diese Abhängigkeiten sollte über eine vertrauenswürdige Quelle – und nicht direkt über das Internet – erfolgen, begleitet von regelmäßigen Schwachstellenscans. Zusätzlich sollten, um die ungewollte Bereitstellung bereits bekannter unsicherer Komponenten zu verhindern, Modellentwicklungs-Tools, wie MLflow, Qwak und AWS Sagemaker, mit einem einheitlichen System zur Aufzeichnung von Modell-Artefakten verbunden werden. So kann sichergestellt werden, dass jede zum Einsatz gebrachte Modellkomponente auch wirklich sicher ist.
Für den Quellcode ihrer Modelle setzen Data Scientists und ML-Ingenieure in aller Regel auf Programmiersprachen wie Python, C++ und R. Um sicherzustellen, dass sich im Quellcode keine Fehler eingeschlichen haben, die die Sicherheit des Modells beeinträchtigen könnten, sollte der Quellcode mit einer Static Application Security Testing (SAST)-Lösung überprüft und anschließend nachkorrigiert werden. Und schließlich: Um Modelle für Trainings bereitzustellen und es anderen Entwicklern und Anwendungen zu ermöglichen, auf Modelle zuzugreifen, werden Container-Images genutzt. Um zu verhindern, dass hier Risiken in andere Entwicklungs-Umgebungen eingeschleppt werden, sollte jedes Container-Image einem abschließenden Scan unterzogen werden.
Die Integrität der KI/ML-Modelle sicherstellen
Die zuvor beschriebenen Maßnahmen heben die Sicherheit und die Transparenz des Entwicklungsprozesses von KI/ML-Modellen bereits merklich an. Doch wie ist es um die Sicherstellung der KI/ML-Integrität bestellt? Sobald ein goldenes Modell identifiziert wurde, wird dieses in aller Regel weiterentwickelt, um es als Service offenzulegen, an dem weitere Developer andocken können. Ein ML-Ingenieur fügt zu diesem Zweck zusätzliche Bibliotheken hinzu, damit das Modell über eine API aufgerufen werden kann. Dadurch entsteht ein neues Image, das dann wieder den herkömmlichen Softwareentwicklungszyklus durchläuft.
Zusätzlich zu den bereits erwähnten Maßnahmen sollten, um gewährleisten zu können, dass an der Anwendung auf dem Weg zum Release keine Änderungen mehr vorgenommen werden, alle Modell-Komponenten so früh wie möglich in der MLOps-Pipeline signiert und ab dann als unveränderliche Einheit betrachtet und gehandhabt werden. Ferner sollte die Anwendung, während sie innerhalb die MLOps-Pipeline durchläuft, automatisch noch einmal gescannt werden – als Teil des Promotion-Prozesses. So können etwaige Integrationsprobleme so früh wie möglich erkannt und rechtzeitig behoben werden.
KI/ML-Modellsicherheit ohne Produktivitätsverlust
Um die Sicherheit von KI/ML-Modellen zu gewährleisten, ohne dabei die Produktivität zu beeinträchtigen, ist es entscheidend, dass alle Aspekte der MLOps-Pipelines abgesichert werden. Dies sollte jedoch so geschehen, dass die Agilität der Modellentwicklung erhalten bleibt und nicht negativ beeinflusst wird. Eine Möglichkeit, dies zu erreichen, ist die Nutzung von Standard-APIs für den Zugriff auf Artefakte, da diese eine nahtlose Integration und Konsistenz in den Entwicklungsprozessen fördern.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Darüber hinaus spielen Sicherheitstools und -prozesse eine zentrale Rolle. Sie sollten so konzipiert sein, dass sie sich mühelos in verschiedene KI/ML-Lösungen integrieren lassen. Diese Tools bieten Schutz vor potenziellen Bedrohungen und stellen sicher, dass Sicherheitsmaßnahmen konsequent angewendet werden, ohne den Arbeitsablauf zu stören.
Moderne Tools wie JFrog Xray und Curation sind besonders hilfreich, da sie es Data Scientists und ML-Ingenieuren ermöglichen, stets über die aktuellen Sicherheitsrichtlinien ihres Unternehmens informiert zu sein. Diese Tools überwachen kontinuierlich die Sicherheitslage und bieten Echtzeit-Updates und -Benachrichtigungen, wodurch die Einhaltung von Sicherheitsstandards erleichtert wird.
Zusätzlich können solche Tools automatisierte Sicherheitsüberprüfungen durchführen und Schwachstellen frühzeitig erkennen und beheben. Dies sorgt dafür, dass Sicherheitsprobleme bereits in der Entwicklungsphase adressiert werden, bevor sie in die Produktion gelangen. Dadurch wird nicht nur die Sicherheit erhöht, sondern auch der Entwicklungsprozess beschleunigt, da weniger Zeit für nachträgliche Fehlerbehebungen benötigt wird.
Sean Pratt Senior Product Marketing Manager bei JFrog.