Um eine KI-Anwendung testen und bewerten zu können, bieten sich Sandboxes an. Wie bei dem Verdacht auf Schadsoftware kann eine geschützte Umgebung auch bei KI gefährliches oder unerwünschtes Verhalten sichtbar machen, ohne Produktivsysteme und reale Daten zu gefährden. Es gibt bereits zahlreiche Lösungen auf dem Markt. Wir geben einen Überblick.
Meta nutzt eine AI Sandbox, um Funktionen für Werbetreibende zu optimieren.
(Bild: Meta)
Umfragen zeigen immer wieder, dass die Unternehmen in Deutschland noch unsicher sind, wenn es um die Verwendung von Künstlicher Intelligenz (KI) geht. Bedenken bestehen nicht nur wegen Datensicherheit und Datenschutz, sondern auch regulative Vorgaben wie der AI Act der EU und die Bestimmung der Risiken, die mit einer KI-Anwendung verbunden sind, machen die Entscheidung für KI schwierig. Dabei sehen die Unternehmen durchaus Vorteile durch KI.
Wie aber kann man die Vorgaben zur Transparenz und Risikobewertung einhalten? Zum einen fehlen die Fachkräfte, um eine Bewertung sinnvoll möglich zu machen. Zum anderen erscheint vielen eine KI als Blackbox. Erst an dem Verhalten kann man sehen, was darin steckt, so scheint es, dann aber könnte es schon zu spät sein. Also verzichtet man lieber auf einen Test oder sogar ganz auf KI-Anwendungen.
Die Bewertung von Malware zeigt den Weg
In der Security ist das Problem gut bekannt: Man muss Risiken bestimmen, man braucht Transparenz, es gibt wenige Fachkräfte, und am besten könnte man das Risiko, das von einer Datei oder Anwendung ausgeht, sehen, wenn man sie aktiv werden lässt. Um hier aber Gefahren zu minimieren, nutzt man Sandboxing für Dateien, deren Risiken man noch nicht kennt.
Für KI-Anwendungen bietet sich das gleiche an, anstatt einer Sandbox, in die man mögliche Malware sperrt, nutzt man eine Artificial Intelligence (AI) Sandbox, in die man die KI steckt, also eine Art Käfig für die KI, die an einem Ausbruch gehindert werden soll.
Greg Ceccarelli, Chief Product Officer bei Pluralsight, erklärt zum Beispiel: „Organisationen, die die KI-Sandboxes von Pluralsight nutzen, verfügen über eine sichere Umgebung, in der sie ihre Mitarbeiter weiterbilden können, ohne befürchten zu müssen, dass unbeabsichtigte Cloud-Computing-Kosten entstehen oder das mit dem Lernen in einer Produktionsumgebung verbundene Risiko besteht.“
„Da 52 Prozent der IT-Führungskräfte GenAI bereits für Schulungen nutzen oder testen, verbessern und erweitern die innovativen KI-Sandbox-Umgebungen von Pluralsight bestehende Schulungsprogramme“, so IDC Research Director Gina Smith. „Um erfolgreiche KI-Implementierungen sicherzustellen, brauchen Technologen die Freiheit, in einer sicheren Umgebung mit KI zu experimentieren.“
Mit einer Prompt-Sandbox können Anwender die Tools und Techniken der LLM-Entwicklung erlernen, indem sie die Ergebnisse für zwei LLMs gleichzeitig vergleichen. Mithilfe von KI-Cloud-Sandboxen können Mitarbeitende eine Live-Sandbox-Sitzung auf Amazon Web Services, Azure oder Google Cloud initiieren, um Fähigkeiten im Umgang mit den KI-Diensten des Cloud-Anbieters zu üben.
Beispiel: AI Sandbox von Meta
Meta hat seit rund einem Jahr eine AI Sandbox für Werbetreibende. „Die AI Sandbox dient uns als Testumgebung für frühe Versionen neuer Tools und Funktionen, einschließlich KI-gestützter Werbetools“, so Meta. Ziel sei es, herauszufinden, was für Werbetreibende funktioniert, und diese Funktionen in den Anzeigentools einfach nutzbar zu machen.
Zuerst hat Meta Tools wie Text Variation, Background Generation und Image Outcropping entwickelt, um beispielsweise den Anzeigentext ansprechender zu gestalten oder Teile des Werbematerials zu verbessern.
Regulatives Sandboxing für KI
Auch EU-Institutionen und andere öffentliche Stellen sehen Potenzial in AI Sandboxes. So findet sich in den KI-Grundsätzen der OECD: „Regierungen sollten ein politisches Umfeld fördern, das einen agilen Übergang von der Forschungs- und Entwicklungsphase zur Bereitstellungs- und Betriebsphase für vertrauenswürdige KI-Systeme unterstützt. Zu diesem Zweck sollten sie den Einsatz von Experimenten in Betracht ziehen, um eine kontrollierte Umgebung bereitzustellen, in der KI-Systeme getestet und gegebenenfalls skaliert werden können.“
Der Think Tank des EU-Parlaments erklärte: „Das Gesetz über künstliche Intelligenz (AI Act) sieht die Einrichtung koordinierter Regulatory Sandboxes für KI vor, um Innovationen im Bereich der künstlichen Intelligenz in der gesamten EU zu fördern“. Eine regulatorische Sandbox ist demnach ein Tool, das es Unternehmen ermöglicht, unter der Aufsicht einer Regulierungsbehörde neue und innovative Produkte, Dienstleistungen oder Unternehmen zu erkunden und damit zu experimentieren.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Es soll Innovatoren Anreize bieten, ihre Innovationen in einer kontrollierten Umgebung zu testen, den Regulierungsbehörden ein besseres Verständnis der Technologie ermöglichen und langfristig die Wahlmöglichkeiten der Verbraucher fördern. Allerdings bergen regulatorische Sandboxen auch das Risiko, missbräuchlich eingesetzt oder missbraucht zu werden, und benötigen für ihren Erfolg den entsprechenden rechtlichen Rahmen, so der Think Tank.
Trotzdem ist der Nutzen von Sandboxes auch für KI unbestritten, man muss aber schauen, wie die Sandbox gegen Ausbruch geschützt wird, was alles in die Sandbox mit hinein kommt und nach welchen Regeln die KI in der Sandbox arbeiten darf. Dann kann AI Sandboxing viel zur Risikobewertung und Transparenz bei KI-Anwendungen beitragen.