KI und ML in der Softwareentwicklung KI-Integration, Sicherheit und Produktivität erfolgreich vereint

Von Sean Pratt 4 min Lesedauer

Anbieter zum Thema

Immer mehr Unternehmen setzen auf KI/ML-gestützte Software, um ihre Geschäftsmodelle zu optimieren. Das Potential der neuen Technologie ist groß. Effektivität und Effizienz der bestehenden Geschäftsprozesse können erhöht und neue lukrative Geschäftsmodelle erschlossen werden.

Bei der KI-Integration wird die Produktivität gesteigert - aber dabei sollte auch die Sicherheit beachtet werden.(Bild:  Rawpixel.com - stock.adobe.com)
Bei der KI-Integration wird die Produktivität gesteigert - aber dabei sollte auch die Sicherheit beachtet werden.
(Bild: Rawpixel.com - stock.adobe.com)

Entsprechend fieberhaft wird in Unternehmen an der Entwicklung neuer KI/ML-gestützter Softwarelösungen gearbeitet. Was dort jedoch häufig übersehen wird: Mit der zunehmenden Integration von KI und ML in Softwareentwicklungsprozesse wachsen auch die Anforderungen an deren Sicherheit. Hoch soll sie sein – aber ohne die Produktivität zu beeinträchtigen.

Software, die KI und ML nutzen, helfen Unternehmen, bestehende Geschäftsprozesse zu optimieren und neue Geschäftsfelder zu erschließen. Was im derzeitigen Entwicklungsboom von KI/ML-Modellen jedoch häufig übersehen wird: Mit der Integration von KI und ML gewinnt die Absicherung von Software-Lieferketten zunehmend an Komplexität. Es wächst die Zahl potenzieller Einfallstore für Angreifer.

Unsichere Komponenten, fehlerhafte Quellcodes und risikobehaftete Container-Images – um nur einige Gefahrenpunkte zu nennen - können von diesen leicht ausgenutzt werden. Traditionelle Sicherheitsansätze und DevSecOps-Tools allein genügen hier nicht. Um im Bereich der KI/ML-Entwicklung erfolgreich für Sicherheit zu sorgen, müssen weitere Maßnahmen ergriffen werden.

Komponenten, Quellcode, Container, Artefakte

Zunächst einmal müssen die Komponenten Quellcode, Container und Artefakte verstärkt in den Blick genommen werden. Softwareentwicklungsmodelle setzen sich – wie allgemein bekannt – aus einer Vielzahl von Komponenten zusammen. Manche dieser Komponenten sind mehr, andere weniger sicher – und stellen somit potenzielle Einfallstore für Angreifer dar. Wie können diese nun besser abgesichert werden?

Um Modelle zu erstellen, nutzen Data Scientists Open Source-Frameworks und -Bibliotheken, wie z. B. TensorFlow und PyTorch. Der Zugriff auf diese Abhängigkeiten sollte über eine vertrauenswürdige Quelle – und nicht direkt über das Internet – erfolgen, begleitet von regelmäßigen Schwachstellenscans. Zusätzlich sollten, um die ungewollte Bereitstellung bereits bekannter unsicherer Komponenten zu verhindern, Modellentwicklungs-Tools, wie MLflow, Qwak und AWS Sagemaker, mit einem einheitlichen System zur Aufzeichnung von Modell-Artefakten verbunden werden. So kann sichergestellt werden, dass jede zum Einsatz gebrachte Modellkomponente auch wirklich sicher ist.

Für den Quellcode ihrer Modelle setzen Data Scientists und ML-Ingenieure in aller Regel auf Programmiersprachen wie Python, C++ und R. Um sicherzustellen, dass sich im Quellcode keine Fehler eingeschlichen haben, die die Sicherheit des Modells beeinträchtigen könnten, sollte der Quellcode mit einer Static Application Security Testing (SAST)-Lösung überprüft und anschließend nachkorrigiert werden. Und schließlich: Um Modelle für Trainings bereitzustellen und es anderen Entwicklern und Anwendungen zu ermöglichen, auf Modelle zuzugreifen, werden Container-Images genutzt. Um zu verhindern, dass hier Risiken in andere Entwicklungs-Umgebungen eingeschleppt werden, sollte jedes Container-Image einem abschließenden Scan unterzogen werden.

Die Integrität der KI/ML-Modelle sicherstellen

Die zuvor beschriebenen Maßnahmen heben die Sicherheit und die Transparenz des Entwicklungsprozesses von KI/ML-Modellen bereits merklich an. Doch wie ist es um die Sicherstellung der KI/ML-Integrität bestellt? Sobald ein goldenes Modell identifiziert wurde, wird dieses in aller Regel weiterentwickelt, um es als Service offenzulegen, an dem weitere Developer andocken können. Ein ML-Ingenieur fügt zu diesem Zweck zusätzliche Bibliotheken hinzu, damit das Modell über eine API aufgerufen werden kann. Dadurch entsteht ein neues Image, das dann wieder den herkömmlichen Softwareentwicklungszyklus durchläuft.

Zusätzlich zu den bereits erwähnten Maßnahmen sollten, um gewährleisten zu können, dass an der Anwendung auf dem Weg zum Release keine Änderungen mehr vorgenommen werden, alle Modell-Komponenten so früh wie möglich in der MLOps-Pipeline signiert und ab dann als unveränderliche Einheit betrachtet und gehandhabt werden. Ferner sollte die Anwendung, während sie innerhalb die MLOps-Pipeline durchläuft, automatisch noch einmal gescannt werden – als Teil des Promotion-Prozesses. So können etwaige Integrationsprobleme so früh wie möglich erkannt und rechtzeitig behoben werden.  

KI/ML-Modellsicherheit ohne Produktivitätsverlust 

Um die Sicherheit von KI/ML-Modellen zu gewährleisten, ohne dabei die Produktivität zu beeinträchtigen, ist es entscheidend, dass alle Aspekte der MLOps-Pipelines abgesichert werden. Dies sollte jedoch so geschehen, dass die Agilität der Modellentwicklung erhalten bleibt und nicht negativ beeinflusst wird. Eine Möglichkeit, dies zu erreichen, ist die Nutzung von Standard-APIs für den Zugriff auf Artefakte, da diese eine nahtlose Integration und Konsistenz in den Entwicklungsprozessen fördern.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Darüber hinaus spielen Sicherheitstools und -prozesse eine zentrale Rolle. Sie sollten so konzipiert sein, dass sie sich mühelos in verschiedene KI/ML-Lösungen integrieren lassen. Diese Tools bieten Schutz vor potenziellen Bedrohungen und stellen sicher, dass Sicherheitsmaßnahmen konsequent angewendet werden, ohne den Arbeitsablauf zu stören.

Moderne Tools wie JFrog Xray und Curation sind besonders hilfreich, da sie es Data Scientists und ML-Ingenieuren ermöglichen, stets über die aktuellen Sicherheitsrichtlinien ihres Unternehmens informiert zu sein. Diese Tools überwachen kontinuierlich die Sicherheitslage und bieten Echtzeit-Updates und -Benachrichtigungen, wodurch die Einhaltung von Sicherheitsstandards erleichtert wird.

Zusätzlich können solche Tools automatisierte Sicherheitsüberprüfungen durchführen und Schwachstellen frühzeitig erkennen und beheben. Dies sorgt dafür, dass Sicherheitsprobleme bereits in der Entwicklungsphase adressiert werden, bevor sie in die Produktion gelangen. Dadurch wird nicht nur die Sicherheit erhöht, sondern auch der Entwicklungsprozess beschleunigt, da weniger Zeit für nachträgliche Fehlerbehebungen benötigt wird.

Sean Pratt
Senior Product Marketing Manager bei JFrog.

Bildquelle: JFrog

(ID:50157464)