So profitieren auch Sicherheitsexperten von generativer KI GenAI ist nicht nur ein Cybercrime-Tool

Ein Gastbeitrag von Ingo Gehrke 4 min Lesedauer

Anbieter zum Thema

Nicht nur Unternehmen setzen generative KI (GenAI / GenKI) in immer größerem Umfang ein, sondern auch Cyberkriminelle. Sie nutzen die Technologie beispielsweise, um Mitarbeiter noch raffinierter zu manipulieren. Doch auch Sicherheitsexperten profitieren von generativen Fähigkeiten in ihren Security-Tools.

Noch lassen sich die Möglichkeiten von generativer KI im Security-Bereich nicht in vollem Umfang abschätzen, aber GenAI ist schon heute ein hilfreiches Werkzeug, um Cyberattacken zu simulieren oder Bedrohungen zu analysieren.(Bild:  Grandpas - stock.adobe.com)
Noch lassen sich die Möglichkeiten von generativer KI im Security-Bereich nicht in vollem Umfang abschätzen, aber GenAI ist schon heute ein hilfreiches Werkzeug, um Cyberattacken zu simulieren oder Bedrohungen zu analysieren.
(Bild: Grandpas - stock.adobe.com)

Generative KI ist ein Multitalent. Sie beantwortet Fragen, generiert Bilder, optimiert Quellcode und kann noch vieles mehr – kein Wunder, dass sie zu einem ernstzunehmenden Wirtschaftsfaktor wird und Unternehmen auf ihren Einsatz drängen. Der Unternehmensberatung McKinsey zufolge könnte der jährliche Produktivitätszuwachs der Weltwirtschaft durch ChatGPT und Co. zwischen 2,6 und 4,4 Billionen US-Dollar liegen. Das entspräche etwa der Wirtschaftsleistung von Großbritannien.

Allerdings wissen nicht nur Unternehmen generative KI zu schätzen, sondern auch Cyberkriminelle. Sie nutzen die Technologie beispielsweise, um mit geringem Aufwand neue Malware zu erstellen oder bestehende Schadprogramme immer wieder zu verändern, damit traditionelle Sicherheitslösungen sie nicht mehr erkennen. Ebenso einfach können sie Phishing-Mails in verschiedenen Sprachen generieren, die äußerst überzeugend wirken und sich nicht so einfach wie frühere Versuche an holprigen Formulierungen oder Rechtschreib- und Grammatikfehlern erkennen lassen. Sogar ganze E-Mail-Konversationen mit potenziellen Opfern sind möglich, um diese so lange zu manipulieren, bis sie auf einen Link klicken, ein Kennwort preisgeben oder eine Zahlung anweisen.

Öffentliche KI-Tools versuchen solche kriminellen Aktivitäten zwar zu verhindern und blockieren inzwischen selbst trickreich formulierte Anfragen recht zuverlässig. Im Darknet finden sich jedoch längst Alternativen wie WormGPT und FraudGPT, die speziell für die Zwecke von Cyberkriminellen trainiert wurden. Frei im Internet verfügbare Sprachmodelle, die auch viele Unternehmen nutzen, machen das möglich.

Hinzu kommt, dass generative KI nicht auf Text oder Quellcode beschränkt ist, sondern auch Stimmen und Gesichter realer Personen erzeugen kann, sogenannte Deepfakes. Das Trainingsmaterial – ein paar Fotos, Videos und Sprachaufnahmen – findet sich häufig online, etwa auf Unternehmens- und Veranstaltungswebsites, in sozialen Netzwerken oder auf Video- und Podcast-Portalen. Mit den Deepfakes können Cyberkriminelle ihre Betrugsmaschen, vor allem Phishing und CEO-Fraud, weiter verfeinern und arglose Anwender noch leichter austricksen. Darüber hinaus werden die Deepfakes künftig wahrscheinlich verstärkt genutzt, um biometrische Authentifizierungsverfahren zu umgehen. Die Marktforscher von Gartner rechnen damit, dass solche Attacken bis 2026 dazu führen werden, dass 30 Prozent der Unternehmen eine Gesichtserkennung nicht mehr für zuverlässig halten.

Unterstützung für Sicherheitsexperten

Auf der anderen Seite ist GenAI ein hilfreiches Werkzeug, wenn es darum geht, Cyberkriminelle abzuwehren. Im einfachsten Fall können KI-Tools beispielsweise helfen, Awareness-Trainings für die Mitarbeiter zu verbessern – etwa, indem sie Inhalte erstellen, Beispiele für Betrugsversuche liefern oder rund um die Uhr als Ansprechpartner bei Fragen zu Sicherheitsthemen bereitstehen. Sicherheitsexperten wiederum können sich einen schnellen Überblick verschaffen und etwa technische Dokumente zu neuen Taktiken, Angriffswellen oder Sicherheitskonzepten zusammenfassen lassen.

Doch die Möglichkeiten reichen noch viel weiter, wenn generative KI mehr und mehr in Sicherheitslösungen integriert wird. Statt sich durch komplexe Konfigurationen zu arbeiten, Richtlinien mühsam von Hand anzupassen oder Reports selbst zu erstellen, können Sicherheitsexperten den Tools künftig Anweisungen in natürlicher Sprache erteilen. Das entlastet die im Markt nur schwer zu bekommenden Fachkräfte erheblich und spart viel Zeit, die sie in tiefergehende Analysen potenzieller Bedrohungen oder die Weiterentwicklung von Security-Konzepten stecken können.

Gerade bei der Analyse von Bedrohungen bietet generative KI ein riesiges Potenzial, können die Modelle doch beispielsweise in wenigen Sekunden verdächtige Skripte untersuchen und genau auflisten, was die Skripte tun, welche Systeme sie kontaktieren und wie vertrauenswürdig diese sind, welches Risiko besteht und welche Maßnahmen zur Eindämmung der Bedrohung notwendig sind. Sicherheitsexperten sparen sich das mühsame Reverse Engineering von möglicherweise schädlichem Code und können umgehend mit der Incident Response beginnen.

Verbesserung der Bedrohungserkennung

Generative KI kann zudem eingesetzt werden, um Cyberattacken zu simulieren und sowohl Sicherheitsteams als auch die Erkennungsalgorithmen von Security-Lösungen in einer geschützten Umgebung zu trainieren. In den Lösungen selbst verbessert die KI die Bedrohungserkennung – schließlich ist sie ausgesprochen gut darin, große Datenmengen zu analysieren und aus ihnen zu lernen, sodass sie Anomalien aufspüren und künftig vielleicht sogar ein Stück weit vorhersagen kann. Das wird nicht immer mit hundertprozentiger Zuverlässigkeit funktionieren, könnte Sicherheitsteams aber in bestimmten Fällen einen zeitlichen Vorteil verschaffen, damit sie sich auf wahrscheinliche Bedrohungsszenarien vorbereiten können.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Noch lassen sich die Möglichkeiten, die GenAI im Security-Bereich bietet, gar nicht in vollem Umfang abschätzen – vielleicht erstellen spezialisierte Modelle bald schon passgenaue Patches für Schwachstellen in Software-Anwendungen. Viele Sicherheitslücken finden sie ja bereits heute, wenn sie für automatisierte Code-Analysen und Tests hinzugezogen werden.

Letztlich lässt sich generative KI also, wie so viele Technologien, für gute wie auch schlechte Zwecke einsetzen. Aufgrund des enormen Produktivitätsgewinns, den GenAI ermöglicht, dürfte der Nutzen die Risiken jedoch klar überwiegen, und das nach Einschätzung von IT-Entscheidern und Security-Experten auch im Bereich IT-Sicherheit. Laut dem „Global Data Protection Index – Special Edition 2024“ von Dell Technologies sind lediglich 27 Prozent der Befragten der Meinung, GenAI sei ein Vorteil für Cyberkriminelle und werde die Gefahr von Angriffen erhöhen. 52 Prozent hingegen sehen die Vorteile auf Seiten der Verteidiger und gehen davon aus, GenAI werde helfen, Cyberkriminelle abzuwehren und das Sicherheitsniveau anzuheben.

Über den Autor: Ingo Gehrke ist Senior Director und General Manager Medium Business bei Dell Technologies in Deutschland.

(ID:50164776)