Grenzen und Möglichkeiten der künstlichen Intelligenz Ab wann ist KI gleichzusetzen mit der menschlichen Intelligenz?

Von Ihar Rubanau 6 min Lesedauer

Anbieter zum Thema

Die Fortschritte bei großen Sprachmodellen wie ChatGPT haben neue Debatten über künstliche Intelligenz entfacht. Was steckt hinter den Konzepte und Herausforderungen der künstlichen allgemeinen Intelligenz (AGI) und was sind die möglichen Auswirkungen auf unsere Zukunft?

Über Grenzen und Möglichkeiten der künstlichen Intelligenz.(Bild:  Dall-E / KI-generiert)
Über Grenzen und Möglichkeiten der künstlichen Intelligenz.
(Bild: Dall-E / KI-generiert)

Im ersten Artikel der Reihe „Artificial Intelligence Seasons“ wurde bereits der bevorstehende Sturm der technologischen Singularität beschrieben. Hierbei ist die künstliche allgemeine Intelligenz (AGI) eines der Konzepte, das am stärksten gehypt wird. Schauen wir uns einmal genauer an, was AGI beinhaltet und welche Auswirkungen es hat.

AGI vs. Menschliche Intelligenz

Überraschenderweise liegt keine einheitliche Definition für „allgemeine Intelligenz“ oder „Intelligenz“ vor. Historisch gesehen herrschte die Meinung vor, dass nur Menschen als intelligent bezeichnet werden können. Daher wurden Tiere wie Hunde, Katzen, Elefanten oder sogar Schimpansen nicht als intelligent angesehen. Dies bringt uns zu der etwas tristen Erkenntnis, dass sich „Intelligenz“ in der Regel ausschließlich auf „menschliche Intelligenz“ bezieht. Obwohl wir wissen, dass Hunde und Katzen ausgeklügelte Jagdstrategien entwickeln können, Elefanten zeichnen und Schimpansen zählen und Wörter verstehen können - der Schimpanse Koko lernte ganze 1000 Zeichen! Diese Fähigkeiten werden vom Neocortex gesteuert, einem Gehirnareal, das bei Säugetieren allgemein vorkommt.

Eine neue, weitreichende Sichtweise ist die Annahme, dass der Entwicklungsprozess selbst eine eigene Intelligenz besitzt: Wenn man beispielsweise bei einer Kaulquappe (dem Vorläufer eines Frosches) die Gesichtsorgane manuell verschiebt, werden diese Gesichtsorgane mit zunehmender Reife der Kaulquappe wieder an die richtige Stelle zurückwandern. Levin definiert ‚Intelligenz‘ als die Fähigkeit, dasselbe Ziel auf unterschiedliche Weise erreichen zu können. Im Laufe der Jahre haben er und andere solche Fälle von Anpassungsfähigkeit dokumentiert.

Doch was ist eigentlich so einzigartig am menschlichen Gehirn? Kurz gesagt: Der Neocortex des Menschen ist größer - im Verhältnis zur Körpermasse. Eingehende Antwort: Es verfügt über eine größere Kapazität, die es dem Menschen ermöglicht, Sprache zu bilden und logisch zu denken. Durch Sprache wird die Kommunikation und der Wissenstransfer erleichtert, was die menschliche Evolution in den letzten 20.000 Jahren enorm beschleunigt hat. Wie produziert das menschliche Gehirn Sprache? Die meisten Wissenschaftler bezeichnen es als „Neubildungsphänomen“. Dieses Phänomen wird in einem vor Kurzem im Quanta Magazine erschienenen Artikel treffend beschrieben: „Die Welt ist voller Neubildungsphänomenen: Großmuster und Organisation, die aus unzähligen Interaktionen zwischen Bestandteilen entstehen. Es liegt jedoch keine anerkannte wissenschaftliche Theorie vor, die die Neubildung erklären könnte. Das Verhalten eines komplexen Systems kann grob als Neubildung bezeichnet werden, wenn es nicht allein aus den Eigenschaften der Teile vorhergesagt werden kann.“ In einfachen Worten: Auf einer bestimmten Ebene der Gehirnkapazität (neuronales Netz) kann Sprache aus komplexen Verhaltensweisen subtiler Prozesse im Gehirn entstehen – klingt gut. Leider beantwortet dies jedoch nicht die zentrale Frage: Wie?

Fassen wir zusammen: Intelligenz ist nicht klar definiert und galt traditionell als ausschließlich menschliche Eigenschaft. Tiere zeigen jedoch kognitive Fähigkeiten, die von ihrem Neocortex gesteuert werden, was diese Ansicht infrage stellt. Darüber hinaus deuten Entwicklungsprozesse wie die Neuanordnung der Gesichtsorgane bei Kaulquappen auf eine angeborene Intelligenz hin. Der größere Neocortex des menschlichen Gehirns unterstützt Sprache und logisches Denken, die für Kommunikation und Wissenstransfer von entscheidender Bedeutung sind. Die genauen Entstehungsmechanismen dieser Fähigkeiten sind jedoch noch unklar, was auf Lücken in unserem Verständnis von Intelligenz hinweist.

Könnte ChatGPT als Junior-AGI angesehen werden?

Große Sprachmodelle (Large Language Models, LLM) wie ChatGPT und Google Gemini sind in erster Linie statistische Modelle, die auf mathematischen Formeln zum Erkennen von Mustern aufgebaut sind. Dem gegenüber lernt und passt sich der menschliche Neocortex auf Basis von komplexen Mustern an. Es werden Verfahren wie Word2vec eingesetzt, um die Korrelation zwischen Wörtern darzustellen, indem sie diese als Vektoren in einem hochdimensionalen Raum wiedergeben, um ihre Bedeutungen und Beziehungen zu erfassen. Bislang hätte wohl niemand darauf gewettet, dass Sprachmodelle Anzeichen von intelligentem Verhalten zeigen würden. Ab GPT-3.5 zeigten diese Modelle eine menschenähnlichen Gesprächsfähigkeiten. Dies löste eine Debatte darüber aus, ob solche Modelle als primitive AGI zu betrachten sind. Mit dem neuesten GPT-4.0, der es Menschen ermöglicht, fast jede Prüfung besser als ein Durchschnittsmensch zu bestehen, hat sich diese Debatte noch verschärft.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Um die Auswirkungen dieser Debatte zu verstehen, können wir uns das berühmte Gedankenexperiment „Chinese Room“ von John Searle vor Augen führen.

Der „Chinese Room“ geht davon aus, dass ein Computer Symbole verarbeiten kann, um das Verstehen einer Sprache nachzuahmen, ohne sie wirklich zu verstehen. So veranschaulicht er den Unterschied zwischen syntaktischer Verarbeitung und tatsächlichem Verstehen. Dieses Konzept ist äußerst wichtig, um die Grenzen der aktuellen LLM verstehen zu können, die trotz ihrer beeindruckenden Fähigkeiten die von ihnen verarbeitete Sprache nicht wirklich begreifen. Heutige LLM können als frühe AGI betrachtet werden, die große philosophische und wissenschaftliche Debatten auslösen und unermessliche Möglichkeiten für zukünftige Veränderungen eröffnen. Stellen Sie sich Roboter wie einen Atlas vor, die sprechen, aussehen und sich bewegen wie Menschen und in naher Zukunft auf Parkplätzen, in Cafés, Supermärkten und sogar als Lehrer tätig sind. In Anbetracht dieser potenziellen Zukunft wird deutlich, wie wichtig die anhaltende Debatte über die wahre Natur der Intelligenz in künstlichen Systemen ist.

Werden sich LLM zu ausgereiften AGI entwickeln?

Statistische Modelle sind begrenzt und werden niemals die Fähigkeiten des menschlichen Neocortex erreichen. Lassen Sie uns dieses Thema jedoch aus der Perspektive von Datenwissenschaftlern und -experten, die direkt mit Daten arbeiten, betrachten. Haben Sie den Text auf den Bildern in diesem Artikel bemerkt? Wenn ja, haben Sie vielleicht schon entdeckt, dass der Text oft aus einer zufälligen Anordnung von Buchstaben besteht. Dies erinnert uns daran, dass es sich bei LLM um statistische Modelle handelt. Die Wörter auf dem Bild wurden aufgrund ihrer statistischen Nähe zu Ihrer Eingabeaufforderung ausgewählt und nicht aufgrund der von Ihnen beabsichtigten Bedeutung. Diese Einschränkung unterstreicht die derzeitige Kluft zwischen computergenerierten Inhalten und echtem menschlichem Verständnis. Aber wer weiß? Mit fortschreitender Entwicklung könnte GPT-6 über so viele Anpassungsparameter und verfeinerte Algorithmen verfügen, dass kein sichtbarer Unterschied mehr zwischen der „Illusion des Wissens“ und „menschlichem Wissen“ vorliegen wird. Eine solche Entwicklung könnte die Trennlinien noch weiter verwischen und neue Fragen über die Zukunft der KI und deren Rolle in unserem Leben aufwerfen.

Datenwissenschaftler in der Schusslinie – wer überlebt den Sturm?

Eine drängende Frage unter IT- und Datenwissenschaftlern ist, ob Modelle wie ChatGPT unsere derzeitigen Aufgaben in naher Zukunft ersetzen werden. Die meisten Entwickler behaupten, dass diesen Modellen das „menschenähnliche Verständnis“ fehlt und sie daher nicht vollständig übernehmen können. Umgekehrt sind viele der Meinung, dass diese Modelle tatsächlich die meisten Aufgaben automatisieren werden, mit Ausnahme dessen, was wir als „Denkvermögen“ bezeichnen. Daher könnte eine angemessenere Frage lauten: „Wie sehr werden sie unsere Arbeit verbessern?“ Von diesem Standpunkt aus werden diese Modelle unseren Umgang mit der Suche nach Informationen, Codes und sogar der Kommunikation grundlegend verändern.

Viele von uns verwenden ChatGPT oder Gemini täglich. Es ist wohlbekannt, dass LLM nicht immer die besten Antworten bereitstellen, oft mit typischen Antworten und manchmal mit irreführenden und ineffektiven Lösungen. Die Zeit, welche die Menschen mit LLM aufwenden, nimmt jedoch im Vergleich zu anderen „klassischen“ Tools dramatisch zu.

Ein neuer und vielversprechender Trend ist die Schaffung zahlreicher spezialisierter Agenten, die jeweils bestimmte Aufgaben übernehmen. Während ein Agent beispielsweise den Ausgangstext verfasst, wird dieser von einem anderen geprüft und korrigiert und von einem weiteren optimiert. Im Gegensatz zu bestehenden Systemen, bei denen ein einziges KI-Modell mehrere Funktionen weniger effizient ausführt, kann dieser Multi-Agent-Ansatz Hunderte von Agenten einsetzen, die sich jeweils mit einer bestimmten Funktion befassen, wodurch die Effizienz und Präzision enorm zunimmt und potenziell viele traditionelle Aufgaben durch Automatisierung ersetzt werden können.

Ich gehe davon aus, dass LLM in den nächsten drei bis fünf Jahren eine Vielzahl typischer datenwissenschaftlicher Tätigkeitsbereiche ersetzen werden. Zu diesen Aufgaben gehören das Programmieren, das Erstellen genauer Zusammenfassungen und Schlussfolgerungen und sogar die Auswahl und Entscheidung für die am besten geeigneten Modelle für verschiedene Anwendungsbereiche. Dieser Wandel wird die datenwissenschaftlichen Arbeitsabläufe beträchtlich optimieren, die Prozesse effizienter gestalten und die Notwendigkeit menschlicher Eingriffe bei Routineaufgaben möglicherweise verringern. Mit der Weiterentwicklung der LLM wird sich auch deren Fähigkeit zum Umgang mit komplexen datenwissenschaftlichen Funktionen verbessern, was zu genaueren und schnelleren Ergebnissen führt.

Ihar Rubanau
Ihar Rubanau ist leitender Datenwissenschaftler bei der Sigma Software Group.

Bildquelle: Sigma Software Group

(ID:50114880)