Nicht nur Unternehmen setzen generative KI (GenAI / GenKI) in immer größerem Umfang ein, sondern auch Cyberkriminelle. Sie nutzen die Technologie beispielsweise, um Mitarbeiter noch raffinierter zu manipulieren. Doch auch Sicherheitsexperten profitieren von generativen Fähigkeiten in ihren Security-Tools.
Noch lassen sich die Möglichkeiten von generativer KI im Security-Bereich nicht in vollem Umfang abschätzen, aber GenAI ist schon heute ein hilfreiches Werkzeug, um Cyberattacken zu simulieren oder Bedrohungen zu analysieren.
(Bild: Grandpas - stock.adobe.com)
Generative KI ist ein Multitalent. Sie beantwortet Fragen, generiert Bilder, optimiert Quellcode und kann noch vieles mehr – kein Wunder, dass sie zu einem ernstzunehmenden Wirtschaftsfaktor wird und Unternehmen auf ihren Einsatz drängen. Der Unternehmensberatung McKinsey zufolge könnte der jährliche Produktivitätszuwachs der Weltwirtschaft durch ChatGPT und Co. zwischen 2,6 und 4,4 Billionen US-Dollar liegen. Das entspräche etwa der Wirtschaftsleistung von Großbritannien.
Allerdings wissen nicht nur Unternehmen generative KI zu schätzen, sondern auch Cyberkriminelle. Sie nutzen die Technologie beispielsweise, um mit geringem Aufwand neue Malware zu erstellen oder bestehende Schadprogramme immer wieder zu verändern, damit traditionelle Sicherheitslösungen sie nicht mehr erkennen. Ebenso einfach können sie Phishing-Mails in verschiedenen Sprachen generieren, die äußerst überzeugend wirken und sich nicht so einfach wie frühere Versuche an holprigen Formulierungen oder Rechtschreib- und Grammatikfehlern erkennen lassen. Sogar ganze E-Mail-Konversationen mit potenziellen Opfern sind möglich, um diese so lange zu manipulieren, bis sie auf einen Link klicken, ein Kennwort preisgeben oder eine Zahlung anweisen.
Öffentliche KI-Tools versuchen solche kriminellen Aktivitäten zwar zu verhindern und blockieren inzwischen selbst trickreich formulierte Anfragen recht zuverlässig. Im Darknet finden sich jedoch längst Alternativen wie WormGPT und FraudGPT, die speziell für die Zwecke von Cyberkriminellen trainiert wurden. Frei im Internet verfügbare Sprachmodelle, die auch viele Unternehmen nutzen, machen das möglich.
Hinzu kommt, dass generative KI nicht auf Text oder Quellcode beschränkt ist, sondern auch Stimmen und Gesichter realer Personen erzeugen kann, sogenannte Deepfakes. Das Trainingsmaterial – ein paar Fotos, Videos und Sprachaufnahmen – findet sich häufig online, etwa auf Unternehmens- und Veranstaltungswebsites, in sozialen Netzwerken oder auf Video- und Podcast-Portalen. Mit den Deepfakes können Cyberkriminelle ihre Betrugsmaschen, vor allem Phishing und CEO-Fraud, weiter verfeinern und arglose Anwender noch leichter austricksen. Darüber hinaus werden die Deepfakes künftig wahrscheinlich verstärkt genutzt, um biometrische Authentifizierungsverfahren zu umgehen. Die Marktforscher von Gartner rechnen damit, dass solche Attacken bis 2026 dazu führen werden, dass 30 Prozent der Unternehmen eine Gesichtserkennung nicht mehr für zuverlässig halten.
Unterstützung für Sicherheitsexperten
Auf der anderen Seite ist GenAI ein hilfreiches Werkzeug, wenn es darum geht, Cyberkriminelle abzuwehren. Im einfachsten Fall können KI-Tools beispielsweise helfen, Awareness-Trainings für die Mitarbeiter zu verbessern – etwa, indem sie Inhalte erstellen, Beispiele für Betrugsversuche liefern oder rund um die Uhr als Ansprechpartner bei Fragen zu Sicherheitsthemen bereitstehen. Sicherheitsexperten wiederum können sich einen schnellen Überblick verschaffen und etwa technische Dokumente zu neuen Taktiken, Angriffswellen oder Sicherheitskonzepten zusammenfassen lassen.
Doch die Möglichkeiten reichen noch viel weiter, wenn generative KI mehr und mehr in Sicherheitslösungen integriert wird. Statt sich durch komplexe Konfigurationen zu arbeiten, Richtlinien mühsam von Hand anzupassen oder Reports selbst zu erstellen, können Sicherheitsexperten den Tools künftig Anweisungen in natürlicher Sprache erteilen. Das entlastet die im Markt nur schwer zu bekommenden Fachkräfte erheblich und spart viel Zeit, die sie in tiefergehende Analysen potenzieller Bedrohungen oder die Weiterentwicklung von Security-Konzepten stecken können.
Gerade bei der Analyse von Bedrohungen bietet generative KI ein riesiges Potenzial, können die Modelle doch beispielsweise in wenigen Sekunden verdächtige Skripte untersuchen und genau auflisten, was die Skripte tun, welche Systeme sie kontaktieren und wie vertrauenswürdig diese sind, welches Risiko besteht und welche Maßnahmen zur Eindämmung der Bedrohung notwendig sind. Sicherheitsexperten sparen sich das mühsame Reverse Engineering von möglicherweise schädlichem Code und können umgehend mit der Incident Response beginnen.
Verbesserung der Bedrohungserkennung
Generative KI kann zudem eingesetzt werden, um Cyberattacken zu simulieren und sowohl Sicherheitsteams als auch die Erkennungsalgorithmen von Security-Lösungen in einer geschützten Umgebung zu trainieren. In den Lösungen selbst verbessert die KI die Bedrohungserkennung – schließlich ist sie ausgesprochen gut darin, große Datenmengen zu analysieren und aus ihnen zu lernen, sodass sie Anomalien aufspüren und künftig vielleicht sogar ein Stück weit vorhersagen kann. Das wird nicht immer mit hundertprozentiger Zuverlässigkeit funktionieren, könnte Sicherheitsteams aber in bestimmten Fällen einen zeitlichen Vorteil verschaffen, damit sie sich auf wahrscheinliche Bedrohungsszenarien vorbereiten können.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Noch lassen sich die Möglichkeiten, die GenAI im Security-Bereich bietet, gar nicht in vollem Umfang abschätzen – vielleicht erstellen spezialisierte Modelle bald schon passgenaue Patches für Schwachstellen in Software-Anwendungen. Viele Sicherheitslücken finden sie ja bereits heute, wenn sie für automatisierte Code-Analysen und Tests hinzugezogen werden.
Letztlich lässt sich generative KI also, wie so viele Technologien, für gute wie auch schlechte Zwecke einsetzen. Aufgrund des enormen Produktivitätsgewinns, den GenAI ermöglicht, dürfte der Nutzen die Risiken jedoch klar überwiegen, und das nach Einschätzung von IT-Entscheidern und Security-Experten auch im Bereich IT-Sicherheit. Laut dem „Global Data Protection Index – Special Edition 2024“ von Dell Technologies sind lediglich 27 Prozent der Befragten der Meinung, GenAI sei ein Vorteil für Cyberkriminelle und werde die Gefahr von Angriffen erhöhen. 52 Prozent hingegen sehen die Vorteile auf Seiten der Verteidiger und gehen davon aus, GenAI werde helfen, Cyberkriminelle abzuwehren und das Sicherheitsniveau anzuheben.
Über den Autor: Ingo Gehrke ist Senior Director und General Manager Medium Business bei Dell Technologies in Deutschland.