Die Fortschritte bei großen Sprachmodellen wie ChatGPT haben neue Debatten über künstliche Intelligenz entfacht. Was steckt hinter den Konzepte und Herausforderungen der künstlichen allgemeinen Intelligenz (AGI) und was sind die möglichen Auswirkungen auf unsere Zukunft?
Über Grenzen und Möglichkeiten der künstlichen Intelligenz.
(Bild: Dall-E / KI-generiert)
Im ersten Artikel der Reihe „Artificial Intelligence Seasons“ wurde bereits der bevorstehende Sturm der technologischen Singularität beschrieben. Hierbei ist die künstliche allgemeine Intelligenz (AGI) eines der Konzepte, das am stärksten gehypt wird. Schauen wir uns einmal genauer an, was AGI beinhaltet und welche Auswirkungen es hat.
AGI vs. Menschliche Intelligenz
Überraschenderweise liegt keine einheitliche Definition für „allgemeine Intelligenz“ oder „Intelligenz“ vor. Historisch gesehen herrschte die Meinung vor, dass nur Menschen als intelligent bezeichnet werden können. Daher wurden Tiere wie Hunde, Katzen, Elefanten oder sogar Schimpansen nicht als intelligent angesehen. Dies bringt uns zu der etwas tristen Erkenntnis, dass sich „Intelligenz“ in der Regel ausschließlich auf „menschliche Intelligenz“ bezieht. Obwohl wir wissen, dass Hunde und Katzen ausgeklügelte Jagdstrategien entwickeln können, Elefanten zeichnen und Schimpansen zählen und Wörter verstehen können - der Schimpanse Koko lernte ganze 1000 Zeichen! Diese Fähigkeiten werden vom Neocortex gesteuert, einem Gehirnareal, das bei Säugetieren allgemein vorkommt.
Eine neue, weitreichende Sichtweise ist die Annahme, dass der Entwicklungsprozess selbst eine eigene Intelligenz besitzt: Wenn man beispielsweise bei einer Kaulquappe (dem Vorläufer eines Frosches) die Gesichtsorgane manuell verschiebt, werden diese Gesichtsorgane mit zunehmender Reife der Kaulquappe wieder an die richtige Stelle zurückwandern. Levin definiert ‚Intelligenz‘ als die Fähigkeit, dasselbe Ziel auf unterschiedliche Weise erreichen zu können. Im Laufe der Jahre haben er und andere solche Fälle von Anpassungsfähigkeit dokumentiert.
Doch was ist eigentlich so einzigartig am menschlichen Gehirn? Kurz gesagt: Der Neocortex des Menschen ist größer - im Verhältnis zur Körpermasse. Eingehende Antwort: Es verfügt über eine größere Kapazität, die es dem Menschen ermöglicht, Sprache zu bilden und logisch zu denken. Durch Sprache wird die Kommunikation und der Wissenstransfer erleichtert, was die menschliche Evolution in den letzten 20.000 Jahren enorm beschleunigt hat. Wie produziert das menschliche Gehirn Sprache? Die meisten Wissenschaftler bezeichnen es als „Neubildungsphänomen“. Dieses Phänomen wird in einem vor Kurzem im Quanta Magazine erschienenen Artikel treffend beschrieben: „Die Welt ist voller Neubildungsphänomenen: Großmuster und Organisation, die aus unzähligen Interaktionen zwischen Bestandteilen entstehen. Es liegt jedoch keine anerkannte wissenschaftliche Theorie vor, die die Neubildung erklären könnte. Das Verhalten eines komplexen Systems kann grob als Neubildung bezeichnet werden, wenn es nicht allein aus den Eigenschaften der Teile vorhergesagt werden kann.“ In einfachen Worten: Auf einer bestimmten Ebene der Gehirnkapazität (neuronales Netz) kann Sprache aus komplexen Verhaltensweisen subtiler Prozesse im Gehirn entstehen – klingt gut. Leider beantwortet dies jedoch nicht die zentrale Frage: Wie?
Fassen wir zusammen: Intelligenz ist nicht klar definiert und galt traditionell als ausschließlich menschliche Eigenschaft. Tiere zeigen jedoch kognitive Fähigkeiten, die von ihrem Neocortex gesteuert werden, was diese Ansicht infrage stellt. Darüber hinaus deuten Entwicklungsprozesse wie die Neuanordnung der Gesichtsorgane bei Kaulquappen auf eine angeborene Intelligenz hin. Der größere Neocortex des menschlichen Gehirns unterstützt Sprache und logisches Denken, die für Kommunikation und Wissenstransfer von entscheidender Bedeutung sind. Die genauen Entstehungsmechanismen dieser Fähigkeiten sind jedoch noch unklar, was auf Lücken in unserem Verständnis von Intelligenz hinweist.
Könnte ChatGPT als Junior-AGI angesehen werden?
Große Sprachmodelle (Large Language Models, LLM) wie ChatGPT und Google Gemini sind in erster Linie statistische Modelle, die auf mathematischen Formeln zum Erkennen von Mustern aufgebaut sind. Dem gegenüber lernt und passt sich der menschliche Neocortex auf Basis von komplexen Mustern an. Es werden Verfahren wie Word2vec eingesetzt, um die Korrelation zwischen Wörtern darzustellen, indem sie diese als Vektoren in einem hochdimensionalen Raum wiedergeben, um ihre Bedeutungen und Beziehungen zu erfassen. Bislang hätte wohl niemand darauf gewettet, dass Sprachmodelle Anzeichen von intelligentem Verhalten zeigen würden. Ab GPT-3.5 zeigten diese Modelle eine menschenähnlichen Gesprächsfähigkeiten. Dies löste eine Debatte darüber aus, ob solche Modelle als primitive AGI zu betrachten sind. Mit dem neuesten GPT-4.0, der es Menschen ermöglicht, fast jede Prüfung besser als ein Durchschnittsmensch zu bestehen, hat sich diese Debatte noch verschärft.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Um die Auswirkungen dieser Debatte zu verstehen, können wir uns das berühmte Gedankenexperiment „Chinese Room“ von John Searle vor Augen führen.
Der „Chinese Room“ geht davon aus, dass ein Computer Symbole verarbeiten kann, um das Verstehen einer Sprache nachzuahmen, ohne sie wirklich zu verstehen. So veranschaulicht er den Unterschied zwischen syntaktischer Verarbeitung und tatsächlichem Verstehen. Dieses Konzept ist äußerst wichtig, um die Grenzen der aktuellen LLM verstehen zu können, die trotz ihrer beeindruckenden Fähigkeiten die von ihnen verarbeitete Sprache nicht wirklich begreifen. Heutige LLM können als frühe AGI betrachtet werden, die große philosophische und wissenschaftliche Debatten auslösen und unermessliche Möglichkeiten für zukünftige Veränderungen eröffnen. Stellen Sie sich Roboter wie einen Atlas vor, die sprechen, aussehen und sich bewegen wie Menschen und in naher Zukunft auf Parkplätzen, in Cafés, Supermärkten und sogar als Lehrer tätig sind. In Anbetracht dieser potenziellen Zukunft wird deutlich, wie wichtig die anhaltende Debatte über die wahre Natur der Intelligenz in künstlichen Systemen ist.
Werden sich LLM zu ausgereiften AGI entwickeln?
Statistische Modelle sind begrenzt und werden niemals die Fähigkeiten des menschlichen Neocortex erreichen. Lassen Sie uns dieses Thema jedoch aus der Perspektive von Datenwissenschaftlern und -experten, die direkt mit Daten arbeiten, betrachten. Haben Sie den Text auf den Bildern in diesem Artikel bemerkt? Wenn ja, haben Sie vielleicht schon entdeckt, dass der Text oft aus einer zufälligen Anordnung von Buchstaben besteht. Dies erinnert uns daran, dass es sich bei LLM um statistische Modelle handelt. Die Wörter auf dem Bild wurden aufgrund ihrer statistischen Nähe zu Ihrer Eingabeaufforderung ausgewählt und nicht aufgrund der von Ihnen beabsichtigten Bedeutung. Diese Einschränkung unterstreicht die derzeitige Kluft zwischen computergenerierten Inhalten und echtem menschlichem Verständnis. Aber wer weiß? Mit fortschreitender Entwicklung könnte GPT-6 über so viele Anpassungsparameter und verfeinerte Algorithmen verfügen, dass kein sichtbarer Unterschied mehr zwischen der „Illusion des Wissens“ und „menschlichem Wissen“ vorliegen wird. Eine solche Entwicklung könnte die Trennlinien noch weiter verwischen und neue Fragen über die Zukunft der KI und deren Rolle in unserem Leben aufwerfen.
Datenwissenschaftler in der Schusslinie – wer überlebt den Sturm?
Eine drängende Frage unter IT- und Datenwissenschaftlern ist, ob Modelle wie ChatGPT unsere derzeitigen Aufgaben in naher Zukunft ersetzen werden. Die meisten Entwickler behaupten, dass diesen Modellen das „menschenähnliche Verständnis“ fehlt und sie daher nicht vollständig übernehmen können. Umgekehrt sind viele der Meinung, dass diese Modelle tatsächlich die meisten Aufgaben automatisieren werden, mit Ausnahme dessen, was wir als „Denkvermögen“ bezeichnen. Daher könnte eine angemessenere Frage lauten: „Wie sehr werden sie unsere Arbeit verbessern?“ Von diesem Standpunkt aus werden diese Modelle unseren Umgang mit der Suche nach Informationen, Codes und sogar der Kommunikation grundlegend verändern.
Viele von uns verwenden ChatGPT oder Gemini täglich. Es ist wohlbekannt, dass LLM nicht immer die besten Antworten bereitstellen, oft mit typischen Antworten und manchmal mit irreführenden und ineffektiven Lösungen. Die Zeit, welche die Menschen mit LLM aufwenden, nimmt jedoch im Vergleich zu anderen „klassischen“ Tools dramatisch zu.
Ein neuer und vielversprechender Trend ist die Schaffung zahlreicher spezialisierter Agenten, die jeweils bestimmte Aufgaben übernehmen. Während ein Agent beispielsweise den Ausgangstext verfasst, wird dieser von einem anderen geprüft und korrigiert und von einem weiteren optimiert. Im Gegensatz zu bestehenden Systemen, bei denen ein einziges KI-Modell mehrere Funktionen weniger effizient ausführt, kann dieser Multi-Agent-Ansatz Hunderte von Agenten einsetzen, die sich jeweils mit einer bestimmten Funktion befassen, wodurch die Effizienz und Präzision enorm zunimmt und potenziell viele traditionelle Aufgaben durch Automatisierung ersetzt werden können.
Ich gehe davon aus, dass LLM in den nächsten drei bis fünf Jahren eine Vielzahl typischer datenwissenschaftlicher Tätigkeitsbereiche ersetzen werden. Zu diesen Aufgaben gehören das Programmieren, das Erstellen genauer Zusammenfassungen und Schlussfolgerungen und sogar die Auswahl und Entscheidung für die am besten geeigneten Modelle für verschiedene Anwendungsbereiche. Dieser Wandel wird die datenwissenschaftlichen Arbeitsabläufe beträchtlich optimieren, die Prozesse effizienter gestalten und die Notwendigkeit menschlicher Eingriffe bei Routineaufgaben möglicherweise verringern. Mit der Weiterentwicklung der LLM wird sich auch deren Fähigkeit zum Umgang mit komplexen datenwissenschaftlichen Funktionen verbessern, was zu genaueren und schnelleren Ergebnissen führt.
Ihar Rubanau Ihar Rubanau ist leitender Datenwissenschaftler bei der Sigma Software Group.