Künstliche Intelligenz, die halluziniert und solche, die Datacenter ändert ChatGPT-Plug-Ins und -Alternativen

Von Anna Kobylinska und Filipe Martins* Lesedauer: 8 min |

Anbieter zum Thema

Künstliche Intelligenz (KI) verändert die Art und Weise, wie Betreiber ihre Datacenter-Anlagen einrichten und „verdichten“ (Facebooks neue Architektur lässt grüßen). Die KI will im Datencenter autark coden und orchestrieren, Metriken beobachten, Abläufe dokumentieren und dem Kundendienst zu neuer Produktivität verhelfen. OpenAI hat es mit „ChatGPT“ vorgemacht. Die Aufholjagd hat begonnen.

Generative Künstliche Intelligenz sorgt in den Rechenzentren für neues Interieur; denn die KI will gerechnet sein. Aber sie greift auch tief in die IT-Prozesse selbst ein, unterstützt Cyber-Angriffe und hilft bei deren Abwehr, ermöglicht sogar ein Coding. Die Reaktion der Anwender ist unterschiedlich: Bosch entwickelt ein eignes  'GPT', Italien sperrt „ChatGPT“, Kanada strengt Unterstuchung wegen Datenschutzverletungen gegen OpenAI an, Apple, JPMorgan, Bank of America, Goldman Sachs und Citigroup untersagen teilweise die ChatGPT-Nutzung, ....
Generative Künstliche Intelligenz sorgt in den Rechenzentren für neues Interieur; denn die KI will gerechnet sein. Aber sie greift auch tief in die IT-Prozesse selbst ein, unterstützt Cyber-Angriffe und hilft bei deren Abwehr, ermöglicht sogar ein Coding. Die Reaktion der Anwender ist unterschiedlich: Bosch entwickelt ein eignes 'GPT', Italien sperrt „ChatGPT“, Kanada strengt Unterstuchung wegen Datenschutzverletungen gegen OpenAI an, Apple, JPMorgan, Bank of America, Goldman Sachs und Citigroup untersagen teilweise die ChatGPT-Nutzung, ....
(Bild: frei lizenziert_ Gerd Altmann / Pixabay)

Der globale Markt für Artificial Intelligence boomt. Einer Einschätzung von Grand View Research zufolge dürfte das Marktvolumen zwischen dem Jahr 2023 und 2030 mit einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von 37,3 Prozent expandieren.

Frances Karamouzis, Vice President und Analyst bei Gartner, beobachtet: „Die Begeisterung für generative KI zeigt keine Anzeichen einer Abschwächung.“ Laut einer Umfrage des Instituts Gartner vom März und April 2023 befinden sich derzeit 70 Prozent der Organisationen in der "Erkundungsphase" der Forschung und Implementierung generativer KI. Eine von fünf der befragten Organisationen (19 Prozent) hat es mit ihrer KI bereits in die spätere Pilot- oder Produktionsphase geschafft.

Laut einer Umfrage des Digitalverbands Bitkom unter 203 Tech-Startups kommt in mehr als der Hälfte der jungen Unternehmen (53 Prozent) generative KI zur Textgenerierung zum Einsatz. Weitere 11 Prozent nutzen solche Tools noch nicht, haben dies aber bereits geplant. Weitere 21 Prozent würden es im Prinzip nicht ausschließen. „Startups sind Vorreiter beim Einsatz neuer Technologien“, resümiert Niklas Veltkamp, Mitglied der Bitkom-Geschäftsleitung.

Eine so schnelle und breite Nutzung generativer KI durch Gründerinnen und Gründer sollte aus seiner Sicht ein Signal an die gesamte Wirtschaft sein. „Wir sollten außerdem alles daransetzen, KI nicht nur einzusetzen, sondern auch zu entwickeln.“

Die meisten KI-Buzzwords sind laut Gartners „Hype Cycle for Artificial Intelligence“ vom Juli 2022 noch weit davon entfernt, das „Tal der Enttäuschung“ (im O-Ton: Trough of Disillusionment) auf dem Weg hin zur Erkenntnisphase (Slope of Enlightenment) und dem Plateau der Produktivität (Plateau of Productivity) zu passieren.
Die meisten KI-Buzzwords sind laut Gartners „Hype Cycle for Artificial Intelligence“ vom Juli 2022 noch weit davon entfernt, das „Tal der Enttäuschung“ (im O-Ton: Trough of Disillusionment) auf dem Weg hin zur Erkenntnisphase (Slope of Enlightenment) und dem Plateau der Produktivität (Plateau of Productivity) zu passieren.
(Bild: Gartner)

KIs ziehen ins Rechenzentrum im Schnellverfahren ein (siehe auch: „Das goldene KI-Kalb; Mehr oder weniger gewollt - ChatGPT im Rechenzentrum“) . Der Einsatz von KI-Werkzeugen im Rechenzentrum verspricht den Betreibern einen massiven Wettbewerbsvorsprung durch kürzere Reaktionszeiten, niedrigere Kosten, eine bessere Kapazitätsauslastung und vieles andere.

KI im Kundendienst

Rechenzentrumsbetreiber können bereits mit KI-Assistenten wie ChatGPT und seinen Alternativen wie „Marmor“ oder „Perplexity.ai“ ihrem Kundendienst zu einer höheren Produktivität verhelfen. KI-getriebene Anwendungen können viele Arten von Benutzeranfragen eigenständig bearbeiten und ihren Dienst nahezu kostenneutral rund um die Uhr bereitstellen. Sie leisten eine schnelle Hilfestellung bei der Fehlerbehebung und können sogar bei grundlegenden Aufgaben des System-Monitoring und -Managements in die Bresche springen.

Der geschickte Einsatz von KI-Werkzeugen verbessert nicht nur die Kundenzufriedenheit, sondern reduziert auch die Belastung menschlicher Mitarbeiter – nahezu kostenneutral für den Datacenter-Betreiber. So kann ChatGPT routinemäßige Wartungsanfragen blitzschnell bearbeiten, Orchestrierungscode schreiben, betriebliche Probleme aus Sensordaten ablesen, Kapazitätsplanung optimieren und dergleichen anderes.

Aktivieren von „ChatGPT“-Plug-Ins: Klick und schon kann man das eigene Netzwerk mit ChatGPT durchsuchen.
Aktivieren von „ChatGPT“-Plug-Ins: Klick und schon kann man das eigene Netzwerk mit ChatGPT durchsuchen.
(Bild: Open AI /Autoren)

Der geschickte Einsatz von KI kann das Personal entlasten, die Wartezeiten der Nutzer verkürzen, Abläufe beschleunigen und optimieren, Kosten senken und Effizienz verbessern und dadurch unterm Strich Werte schaffen – daran ist eigentlich nichts auszusetzen. Doch mit dem Einsatz einer autarken KI kommen auf Rechenzentrumsbetreiber nicht zuletzt auch neuartige Risiken zu.

OpenAI hat für ChatGPT mit einem Marktplatz für Drittanbieter-Plug-Ins ein ganzes Ökosystem aufgebaut. Plug-ins verbinden ChatGPT mit externen Apps und erweitern die KI um neue Fähigkeiten. Sie sind bisher allerdings nur in der Beta-Version von ChatGPT verfügbar:

„ChatGPT“-Plugins erweitern die KI um eine Vielzahl zusätzlicher Features wie die Fähigkeit, mit PDF-Dokumenten über ihren Inhalt zu 'chatten'.
„ChatGPT“-Plugins erweitern die KI um eine Vielzahl zusätzlicher Features wie die Fähigkeit, mit PDF-Dokumenten über ihren Inhalt zu 'chatten'.
(Bild: Open AI/Autoren)

  • Ein Plugin für ChatGPT mit der Bezeichnung „Cloudflare Radar“ bietet zum Beispiel Echtzeit-Einblicke in Internet-Verkehrs- und Bedrohungsmuster aus der Sicht von Cloudflare.
  • „ChatWithGit“ ermöglicht das Durchsuchen von Github-Repositories, um benötigten Code aufzufinden.

KI-gestützte Cyber-Sicherheit

KI-gestützte Tools wie „Deepcode“ können potenzielle Probleme wie Bugs und andere Schwachstellen in Code aufspüren. Deepcode analysiert Code-Muster und vergleicht sie mit einer großen Datenbank bekannter Probleme und bewährter Verfahren.

Die Gründer von Deepcode (von links nach rechts): Veselin Raychev, CTO; Boris Paskalev, CEO; und Martin Vechev, Leiter des Secure, Reliable, und Intelligent Systems Lab.
Die Gründer von Deepcode (von links nach rechts): Veselin Raychev, CTO; Boris Paskalev, CEO; und Martin Vechev, Leiter des Secure, Reliable, und Intelligent Systems Lab.
(Bild: ETH Zürich)

Das Tool lässt sich in verschiedene Entwicklungsumgebungen integrieren, einschließlich Visual Studio Code, GitHub und Bitbucket. Es stammt aus der Feder von Forschern der ETH Zürich, wurde in ein eigenständiges Unternehmen ausgegliedert und dann an Snyk verkauft.

Die maschinellen Lernfähigkeiten von Deepcode machen es besonders wertvoll für die Analyse großer Codebasen und die Identifizierung komplexer Probleme. Deepcode bildet das KI-Herzstück von „Snyk Code“ des gleichnamigen Unicorns.

Die KI-gestützten Angriffe

Die zunehmende Verwendung von KI-Werkzeugen geht mit dem verstärkten Aufkommen KI-gesteuerter Cyber-Angriffe einher. In einer von Blackberry durchgeführten Umfrage unter IT-Führungskräften gaben 53 Prozent der Befragten an, dass KIs inspirierenden Cyber-Tätern dabei helfen könnten, überzeugendere Phishing-E-Mails zu erzeugen. Weitere 49 Prozent bestätigten der KI die Fähigkeit, Hackern zu destruktiveren Coding-Kompetenzen zu verhelfen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Die fortschreitende Entwicklung von KI-Tools kann es Angreifern tatsächlich ermöglichen, personalisierte, realistischere Phishing-E-Mails zu erstellen, die schwerer zu erkennen und zu verhindern sind. Durch die Fähigkeit von KI-Modellen, natürliche Sprache zu verstehen und zu generieren, könnten Hacker ihre Angriffe raffinierter gestalten und gezielter auf menschliche Schwachstellen abzielen.

Das Aufkommen von KI-getriebenen Entwicklerassistenten dürfte zu komplexeren Angriffsmethoden gegen digitale Infrastrukturen führen, vom Rechenzentrum bis an die Edge. Unternehmen wären gut beraten, „KI-umfassende“ Sicherheitsstrategien zu entwickeln und sich eine regelmäßige Aktualisierung ihrer Verteidigungssysteme und der Kompetenzen menschlicher Mitarbeiter vorzunehmen.

KI-gestütztes Kodieren

Leistungsstarke Entwicklungsumgebungen und Code-Editoren können Entwicklern schon seit geraumer Zeit mit Features wie maßgeschneiderten Code-Beispielen, Kontext-basierten Vorschlägen und automatischer Code-Vervollständigung unter die Arme greifen. Aber sie konnten nicht eigenständig coden.

Hyperscaler stolpern übereinander in ihren Bemühungen, auf Biegen und Brechen KI-gestützte Tools und Dienste zu veröffentlichen. In der Abbildung: die öffentliche Vorstellung von „Amazon Codewhisperer“.
Hyperscaler stolpern übereinander in ihren Bemühungen, auf Biegen und Brechen KI-gestützte Tools und Dienste zu veröffentlichen. In der Abbildung: die öffentliche Vorstellung von „Amazon Codewhisperer“.
(Bild: Amazon)

Mit dem Aufkommen der neuesten Generation von KI-gestützten Entwicklerwerkzeugen wie „Microsoft Github Copilot“ („Dein KI-Programmierpartner“) und „Amazon Codewhisperer“ eröffnen sich Entwicklern neue Horizonte.

Schön sauber kommentiert: In diesem Beispiel hat „Codewhisperer“ in Python einen Abschnitt Code verfasst, der AWS-APIs aufruft, um Dateien auf „Amazon Simple Storage“-Service zu übertragen.
Schön sauber kommentiert: In diesem Beispiel hat „Codewhisperer“ in Python einen Abschnitt Code verfasst, der AWS-APIs aufruft, um Dateien auf „Amazon Simple Storage“-Service zu übertragen.
(Bild: AWS)

OpenAI bietet mit dem so genannten Codex ebenfalls eine solche maschinell lernende Software-Entwicklungsplattform, die Orchestrierungs- oder Anwendungscode aus einer Beschreibung in natürlicher Sprache und/oder aus dem Kontext der bestehenden Codebasis generieren kann – samt benutzerdefinierter Variablennamen und Aufrufe externer Module oder APIs.

Codex verdankt seine Fähigkeiten zur Verarbeitung natürlicher Sprache dem KI-Modell GPT. Zusätzlich wurde es auf zahllosen Gigabytes Python-Code aus 54 Millionen Github-Repositories trainiert. So kann Codex Anweisungen in natürlicher Sprache in Code umsetzen – und andersherum.

In einem typischen Anwendungsfall von Codex trägt der/die Entwicklerin die Aufforderung in Form eines Kommentars ein, zum Beispiel:

// orchestriere 500 Container auf der Basis des Image So-und-so

Die KI schlägt daraufhin einen Codeblock vor, der diese Aufforderung erfüllt, gegebenenfalls noch ergänzt um eine Schritt-für-Schritt-Anleitung. OpenAI brüstet sich inzwischen mit der Unterstützung von zahlreichen Sprachen zusätzlich zu Python, darunter Go, JavaScript, Perl, PHP, Ruby, Shell, Swift und Typescript.

Github Copilot debütierte ursprünglich als eine Erweiterung für „Visual Studio“-Code. Ein Jahr später fand das Werkzeug Eingang in „Microsofts Visual Studio“-IDE. Anhand von Milliarden von Codezeilen 'ausgebildet', lässt sich das Werkzeug mit Aufforderungen in natürlicher Sprache dazu verleiten, ganz brauchbare Software zu coden – in Dutzenden von Sprachen, wenn's sein muss.

Copilot sendet Schnipsel des Codes seiner Nutzer an die Server von Microsoft. Das Werkzeug verwendet den gesammelten Code aus der Inferenz und der Interaktion mit dem Benutzer, um das Modell zu trainieren. Dies kann dazu führen, dass der Code an andere Organisationen weitergegeben wird (es sei denn, der Nutzer aktiviert die Opt-out-Option – muss man halt wissen). Allen KI-Modellen von GitHub Copilot liegen unter anderem OpenAI-Daten zugrunde.

Die Implikationen für Automatisierung und Orchestrierung containerisierter Anwendungen durch eine autarke KI sind sicherlich nicht von der Hand zu weisen (zu den Herausforderungen der Orchestrierung verteilter Clouds siehe auch den Bericht „Der Kanon für „cloudifizierte“ Infrastrukturen: LOKI und StarlingX“).

'Mal eben so: Ein Sortieralgorithmus in Python; eine ChatGPT-Alternative mit der Bezeichnung „perplexity.ai“ macht es möglich.
'Mal eben so: Ein Sortieralgorithmus in Python; eine ChatGPT-Alternative mit der Bezeichnung „perplexity.ai“ macht es möglich.
(Bild: perplexity.ai/Autoren)

Mit Hilfe von ML (Maschinellem Lernen) und NLP (Natural Language Processing) können Entwickler die Codebasis, die Metadaten, Metriken der Observability und andere Informationen in ihren Softwareprojekten untersuchen, um Bugs oder Performance-Engpässe ausfindig zu machen und zu beheben. Dies macht es wiederum möglich, einige Abläufe, beispielsweise Unit-Tests, intelligent zu automatisieren. Mit KI-gestützten „Slack“-ähnlichen Kommunikations-Tools können Entwickler ihre Softwareprojekte dokumentieren.

KI-gestützte Entwicklerassistenten können anhand einer Beschreibung der gewünschten Geschäftslogik oder Funktionalität in natürlicher Sprache die benötigten Automatisierungs- oder Orchestrierungsskripte autark coden. Sie können die Anweisungen in einer Vielzahl von Sprachen erfassen und sich nebenbei auch bei der automatischen Erkennung von Verwundbarkeiten in einer bestehenden Codebasis einbringen.

Der Einsatz KI-gestützter Entwicklungswerkzeuge wirft dennoch einige ethische und juristische Fragen auf, unter anderem auch welche im Hinblick auf den Schutz personenbezogener Daten und des geistigen Eigentums. ChatGPT steht aktuell unter Verdacht, sensible Daten seiner Nutzer anderen offengelegt zu haben. Andere KIs haben sich auch schon zu Patentverletzungen verleiten lassen.

KI-Halluzinationen

Tools für KI-gestützte Software-Entwicklung werden von Algorithmen angetrieben, die mit großen Mengen an bestehendem Softwarecode trainiert worden sind. Für das Trainingsmaterial muss hauptsächlich quelloffener Code herhalten. Es ließe sich in vielen Fällen sicherlich das Argument aufstellen, dass jener Code, den die betreffende KI aus quelloffenen Trainingsdaten erzeugt hat, ein derivatives Werk darstellt. Der Knackpunkt an der Sache: Einige Open-Source-Lizenzen verbieten die Kommerzialisierung derivativer Werke.

Zahlreiche gravierende KI-Pannen – im Fachjargon „KI-Halluzinationen“ – lassen auch durchaus Zweifel an dem unbeaufsichtigten, ungeprüften Einsatz der Technologie aufkommen. Kein Wunder, dass die Regulierungsbehörden auf die Bremse treten.

Alle KI-Pioniere hatten anfangs ihre liebe Mühe gehabt, ihren KIs Grenzen aufzuzeigen. Google musste sich seinerzeit für Pannen der Bilderkennung in den Boden schämen, Microsoft für respektlose Tweets seines KI-Bots „Tay“. Aus dem „Amazon Experimental Hiring“Tool ist nie etwas geworden, weil die KI nur ein bestimmtes Geschlecht einstellen wollte.

Lehrgeld

Facebook musste das Projekt „M2“ beenden, da Maschinen miteinander im Geheimcode kommunizierten, um der Überwachung durch Menschen zu entkommen… Ob Diskriminierung, Beleidigungen oder Wahnvorstellungen: Einer lernwilligen KI ist eine böse Überraschung möglicherweise kein Fremdwort.

Googles Muttergesellschaft Alphabet musste die Lektion neulich ein zweites Mal auf die harte Tour lernen. Ein Fehlverhalten der Google-KI in der ChatGPT-Alternative „Bard“ führte wiederholt zu inakkuraten Antworten und soll Alphabet in kürzester Zeit um 100 Milliarden Dollar an Marktkapitalisierung gebracht haben. Die persistente Ignoranz der KI hat die Investoren beunruhigt.

Beim Einsatz von KI-generiertem Code betreten Unternehmen in vielerlei Hinsicht unerforschtes Terrain. Zu den Risiken zählt nicht zuletzt auch die Gefahr einer schleichenden Bindung an den KI-Anbieter, die mit dem Verlust eigener Kompetenzen zwangsweise einhergeht. Sollte eine KI, die Softwarecode schreibt, Amok gelaufen sein, könnte sie absichtlich Bugs oder Backdoors erzeugen und so den Entwicklern das eine oder andere Kuckucksei unbemerkt ins Nest legen.

*Das Fazit des Autorenduos

Das Autorenduo Anna Kobylinska und Filipe Pereia Martins arbeitet für McKinley Denali Inc. (USA). Das Fazit der beiden lautet:

OpenAI schreibt dem eigenen „ChatGPT“ ein großes Potenzial im Bereich des Rechenzentrumsbetriebs und -Managements zu. Doch auch die Konkurrenz schläft nicht. Die Datacenter-Branche tritt in die Ära KI-getriebener Transformation ein.

KI-gestützte Datacenter-Assistenten haben ein besonderes Feature: Sie werden mit der Zeit immer schlauer, je mehr man sie nutzt – bis sie sich einmal unersetzlich machen.

Doch selbst die fortgeschrittensten ML-Modelle können noch gelegentlich unerwünschte Resultate aus dem Hut zaubern. Experten warnen: KI-basierte Tools sollten nur unter angemessener Aufsicht und Kontrolle verwendet werden, um sicherzustellen, dass sie den beabsichtigten Zweck erfüllen und nichts kaputt machen.

Artikelfiles und Artikellinks

(ID:49665931)