Künstliche Intelligenz beschert uns ein tolles Tool nach dem anderen – und eine riesige, neue Angriffsfläche für Cyber-Kriminelle. Aber auch die Gegenseite ist aktiv. Hier stellen wir einige prominente Projekte zum Thema vor.
Filiz Elmas, Leiterin Strategische Entwicklung Künstliche Intelligenz bei DIN, Christoph Winterhalter, Vorsitzender des Vorstandes von DIN, Robert Habeck, Vizekanzler und Bundesminister für Wirtschaft und Klimaschutz, Prof. Dr. Wolfgang Wahlster, CEA des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) und Michael Teigeler, Geschäftsführer Deutsche Kommission Elektrotechnik Elektronik Informationstechnik in DIN und VDE (DKE) (v.l.n.r.)
Natürlich gibt es weitere Expertengruppen, Standardisierungsgremien, NGOs, Behörden, Forschungsinstitute und so weiter, die sich der Sicherheit in AI-Anwendungen und deren Entwicklung beschäftigen – und die nicht erst seit ChatGPT das Thema der Öffentlichkeit schmackhaft gemacht hat.
Ob man nun selbst KI-Dienste entwickelt oder sie „nur“ in der Entwicklung einsetzt, es ist in jedem Fall dazu geraten, sich für das Thema zu sensibilisieren. Im Folgenden haben wir eine Leseliste mit interessanten Seiten und Projekten zusammengestellt, der Fokus liegt dabei auf öffentlichen und Non-Profit-Organisationen.
Bundesamt für Sicherheit in der Informationstechnik
Erster Anlaufpunkt beim Thema Cyber Security ist in Deutschland das BSI, das auch ein eigenes Kompetenzzentrum Künstliche Intelligenz betreibt und Ansprechpartner für die Bundesverwaltung ist.
Ein guter Einstiegspunkt ist die BSI-Übersichtsseite der KI-Projekte und -Veröffentlichungen. Hier finden Sie unter anderem das Übersichtsdokument „Sicherer, robuster und nachvollziehbarer Einsatz von KI“ als Zusammenfassung aller BSI-internen KI-Security-Bemühungen. Hinzu kommen Papers in Zusammenarbeit mit TÜV, Fraunhofer und weiteren Experten, KI-Theorie, konkrete Beispiele etwa zu KI im Rahmen des autonomen Fahrens, Definitionen und mehr.
Lesetipp: Unter dem Titel „AI security concerns in a nutshell – Practical AI-Security guide“ findet sich unten auf der Seite ein sehr schönes, bündiges Dokument, das auf gerade mal 7 Seiten die wichtigsten Attacken auf KI-Systeme erläutert.
Von besonderem praktischen Nutzen dürfte der Artificial Intelligence Cloud Service Compliance Criteria Catalogue (AIC4) sein: Der Kriterien-Katalog AIC4 ist eine Erweiterung des bekannten C5 (Cloud Computing Compliance Criteria Catalogue), der Mindestanforderungen für den Betrieb/Bezug von Cloud-Diensten formuliert.
Deutsches Institut für Normierung e.V.
Von der DIN gibt es die „Deutsche Normungs-Roadmap Künstliche Intelligenz“ mit Empfehlungen zur Standardisierungen im KI-Umfeld. Im Wesentlichen werden Normierungsbedarfe festgestellt und das Ziel „KI Made in Germany“ als Qualitätssiegel ausgegeben. Neben einer 16-seitigen Zusammenfassung liefert vor allem das Hauptwerk auf 452 Seiten ausführliche Informationen zu den drängenden Themen.
Hierzu zählen, um ein paar Stichpunkte zu servieren: KI-Strategie der Bundesregierung/der EU, Normierung und Standardisierung national und international, Forschungsprojekte, Ethik, Quanten-KI, Industrielle Automation, Mobilität, Medizin, Umwelt, Anforderungen und konkrete Bedarfe. Das DIN-Dokument stammt aus dem Dezember 2022 und ist ein sehr guter Einstiegspunkt, der ziemlich umfassend informiert und sehr gut strukturiert ist.
European Telecommunications Standards Institute
Als Europäische Standardisierungsorganisation agiert die ETSI in einem ähnlichen Umfeld wie die DIN – mit einem Herz für Abkürzungen: Zuständig für den KI-Bereich ist die Industry Specification Group (ISG) Securing Artificial Intelligence (SAI), kurz ETSI ISG SAI. Die Gruppe konzentriert sich auf drei Kernthemen: KI als Security-Helfer, Abschwächung von und Schutz vor Attacken auf die KI selbst.
Dort findet sich eine ganze Reihe recht aktueller Veröffentlichungen, beispielsweise zu Supply Chain Security, eine Abhandlung über die Rolle von Hardware in der KI und eine (empfehlenswerte) Threat-Ontologie. Wer im europäischen Raum wirtschaftet, sollte hier ab und an vorbeischauen.
ENISA
ENISA meint die ehemalige European Network and Information Security Agency, die mittlerweile als European Union Agency for Cybersecurity auftritt. Allzu viel gibt es derzeit im Fachbereich KI-Sicherheit noch nicht zu lesen, aber einen Bookmark ist die Seite wert. Durchaus relevant ist nämlich die Veröffentlichung „Securing Machine Learning Algorithms“, die auf der Webseite verwirrenderweise unter der Überschrift „Cybersecurity of AI and Standardisation“ angeboten wird.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Darin gibt es eine sehr ausführliche Auswertung von Fachliteratur, mit dem Ziel, besonders dringliche Gefahren zu identifizieren, Lücken im Kontrollsystem aufzuzeigen, Security-Empfehlungen zu geben und letztlich einen Überblick zu bekommen – insbesondere in Form ausufernder Listen. Keine leichte Kost, aber durchaus interessant, wenn Sie an großen Projekten arbeiten oder einen umfassenden, wissenschaftlichen Einstieg suchen.
AI HLEG
Noch Europa, nun die EU-Kommission: Die High-Level Expert Group on Artificial Intelligence (AI HLEG) hat 2018 einige Papers veröffentlicht, die vor allem in Gesetzgebungsvorhaben mit eingeflossen sind. Das wohl wichtigste Werk: „Ethik-Leitlinien für eine vertrauenswürdige KI“ https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.
Das Dokument gliedert sich in drei Bereiche: Zunächst kommen ethische Grundlagen, hier geht es um Grundsätze wie Achtung der menschlichen Autonomie, Schadensverhütung oder Fairness. Anschließend werden auf Basis dieser Grundsätze konkrete Anforderungen an KI-Systeme formuliert, etwa die Beteiligung aller Interessensträger über den gesamten Lebenszyklus inklusive Schulungsförderungen. Zuletzt werden diese Anforderungen in eine Checkliste überführt, die die operative Umsetzung begleiten soll.
Hier finden sich auf insgesamt 8 Seiten Aspekte wie dieser: „Haben Sie die weiter reichenden gesellschaftlichen Auswirkungen der Nutzung des KI-Systems über die einzelnen (End-)Nutzer hinausgehend bewertet und dabei beispielsweise andere, möglicherweise indirekt betroffene Akteure berücksichtigt?“ Wer sich auch einmal losgelöst von der Technik mit der Materie auseinandersetzen möchte, liegt hier richtig.
Microsoft
Natürlich schweigt auch die Privatwirtschaft nicht, Microsoft beispielsweise hat schon 2021 ein Framework für Best Practices unter dem Titel „AI Security Risk Assessment“ auf Github veröffentlicht. Microsoft bietet hier auf rund 20 Seiten konkrete Handlungsempfehlungen.
Beispielsweise rät das Unternehmen mit Blick auf das Risiko der Datenmanipulation während des Lebenszyklus, dass Datensätze mit kryptografischen Mitteln eindeutig identifizierbar sein sollten. Das Projekt ist spannend, scheint aber nicht mehr aktiv gepflegt zu werden – dennoch eine nette Abwechslung zu den vielen theoretischen Grundlagen.
Weitere Leseempfehlungen
Um all die bis hierher vorgestellten Ressourcen zu lesen, bräuchte es schon ziemlich viel Regenwetter – aber für alle Fälle, zum Schluss noch ein paar Kurztipps:
ISO/IEC AWI 2790: Leitfaden zu AI-Cybersecurity – bislang nicht veröffentlichter Draft.
Fraunhofer AISEC: AI steht hier zwar für „Angewandte und Integrierte“ statt für Artificial Intelligence, aber auch KI-Themen fallen freilich darunter – News, Artikel, Projekte.
IEEE SA: Standardisierungsgruppe der IEEE mit Standards zu Autonomous and Intelligent Systems.