Verloren im Labyrinth der IT-Begriffe? Hier finden Sie Definitionen und Basiswissen zu Rechenzentrums-IT und -Infrastruktur.

Können KI-Modelle klassische mathematische Lösungsmethoden ersetzen? Was sind Künstliche Neuronale Netze?

Von Jürgen Höfling und M.A. Jürgen Höfling

Künstliche Neuronale Netze (KNN) sind die Basis für die Mechanismen des Maschinellen Lernens, sie interpretieren tendenziell ganze Lebens- und Wissensbereiche neu, so auch beispielsweise die „klassische Mathematik“ und vermutlich auch das, was man in fünf Jahren „Datacenter“ nennt.

Anbieter zum Thema

Neuronale Netze verbinden Intuition und symbolische Mathematik.
Neuronale Netze verbinden Intuition und symbolische Mathematik.
(Bild: von Gerd Altmann auf pixabay)

Neuronale Netze sind das zentrale Paradigma der Künstlichen Intelligenz, sozusagen das KI-Modell schlechthin, aus dem sich Detailmodelle wie beispielsweise Graph Neural Networks (GNN) oder Pre-trained Transformer (GPT) ausdifferenzieren. Durch die Analogiebildung zwischen Künstlichen Neuronalen Netzen und ihrem biologischen Pendant und den damit verbundenen (oder postulierten?) Lernprozessen sind die Künstlichen neuronalen Netze (KNN) auch mit den vielfältigen Mechanismen verbunden, die mittlerweile unter den Begriff Maschinelles Lernen (ML) subsumiert werden.

ML-Verfahren brillieren besonders in den verschiedenen Ausprägungen der Mustererkennung, sei es in der Verarbeitung natürlicher Sprache (automatische Übersetzung, intelligente maschinelle Kommunikationssysteme etc.) oder in der Bilderkennung, bei deren die stochastischen Ansätze von KNN besonders gut geeignet sind.

Diskretisierte Lösungen von Differenzialgleichungen

Bei nicht-stochastischen Teilen der klassischen Mathematik (beispielsweise der Differenzial- und Integralrechnung), sprich: bei Formeln, die exakt gelöst werden müssen, hatten ML-Methoden bisher eher „schlechte Karten“. Das scheint sich jetzt langsam zu ändern. So sind in den letzten Jahren verstärkt Forschungsarbeiten entstanden, die den Zusammenhang von tiefen neuronalen Netzen – also Netzen mit vielen „Black-Box-Zwischenschichten“ zwischen Eingang und Ausgangsfunktion – und gewöhnlichen und partiellen Differenzialgleichungen herausarbeiten.

So lassen sich Neuronale Netze ausreichend gut als Diskretisierung der Lösung von solchen Gleichungen darstellen. Jedem diskreten Zeitschritt tj wird dabei eine Schicht j eines neuronalen Netzes zugeordnet. Vor allem Mathematiker und Informatiker, die haupt- oder nebenamtlich im Umfeld von Google, Facebook und Co. Forschung betreiben, sind hier zu nennen, an vorderster Stelle die „Google Scholars“ Eldad Haber, Lars Ruthotto und Eran Triester, die über den Zusammenhang zwischen tiefen neuronalen Netzen und gewöhnlichen Differenzialgleichungen sowie über den Zusammenhang zwischen partiellen Differenzialgleichungen und gefalteten neuronalen Netzwerken (Convolutional Neural Networks) forschen.

Intuition und symbolische Mathematik

Während die Gruppe um Haber und Ruthotto eher das regelbasierte Prinzip bei der Lösung von Differenzialgleichungen als Ausgangspunkt nimmt und dann danach sucht, inwieweit das approximative Konzept von neuronalen Netzen dazu passt, gehen die Mathematiker Guillaume Lample und Francois Charton, beide in Diensten der Facebook-AI-Forschung, gerade den umgekehrten Weg.

In dem Artikel “Deep Learning for Symbolic Mathematics” von 2019 schreiben Lample und Charton progammatisch: „In dem vorliegenden Artikel betrachten wir Mathematik und besonders die symbolischen Rechenmethoden als Gebiet, das mit Methoden der natürlichen Sprachverarbeitung („NLP-models“) modelliert werden kann.“ (Übersetzung aus dem Englischen vom Autor). Konkret wende man „sequence-to-sequence-models”, also künstliche Neuronale Netze, auf zwei klassische Sektoren der symbolischen Mathematik an, nämliche Integration von Funktionen und gewöhnliche Differenzialgleichungen.

Lample und Charton sehen in Künstlichen Neuronalen Netzen besonders für den Bereich der Integration einen Erfolg versprechenden Lösungsschlüssel, weil im Gegensatz zur regelbasierten Differenzialrechnung die Integration einen größeren Anteil an Intuition verlange. Wörtlich schreiben sie: „Integration könnte ein Beispiel für den erfolgreichen Einsatz von Mustererkennung [in der symbolischen Mathematik] sein.“

Und sie führen ein Beispiel auf: Wenn jemand vom Fach gebeten werde, einen Ausdruck wie yy´(y2 +1)-1/2 zu integrieren, würden sie oder er versuchsweise davon ausgehen, dass ein Teil der Stammfunktion einen Term enthält, der der Quadratwurzel von y2 + 1 ähnelt.

Gleichungen und Lösungen als Bäume

Um die Intuitionen, die Mathematiker-innen bei komplexen Aufgaben wie der Integration von Funktionen leiten, maschinell nachzuspielen, zerlegen die Facebook-Forscher große, unübersichtliche Funktionen in einzelne Terme und führen eine Baumstruktur für mathematische Ausdrücke ein, die man aus der formalen Grammatiktheorie à la Chomsky kennt und die eine entscheidende Rolle bei der Computerisierung von natürlicher Sprache spielt beziehungsweise in den letzten Jahrzehnten spielte. „Google Translate“ oder „DeepL“ sind einige praktische Ergebnisse dieser Entwicklung.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Lample und Charton wandeln Differenzialgleichungen ersten und zweiten Grads sowie Funktionen, bei denen ein Integral gefunden werden soll, in Baumstrukturen um. Dann zeigen sie, wie man Datenmengen zum überwachten Erlernen der Integrationstechnik beziehungsweise zur Lösung von Differenzialgleichungen erzeugt.

Schließlich wenden sie Künstliche Neuronale Netze auf diese Terme an, um zu zeigen, wie Maschinen (und auch Menschen?) sich an Lösungen lernend herantasten. Wie bei der automatischen Übersetzung werden „Gleichungsbäume“ in „Lösungsbäume“ transformiert. Nach Angaben der beiden Forscher erreichen sie mit ihrer Methode „bessere Ergebnisse“ als gängige Computer-Algebra-Programme wie Matlab und Mathematica“.

Mathematik als Entdeckungsfahrt

Traditionell orientierte Mathematiker werden sicher Einwände gegenüber dieser Art „generativer Lösungsmathematik“ formulieren. Liefert sie grundsätzlich und zuverlässig Lösungen oder immer nur partiell, eben dann, wenn die jeweils gestellte Aufgabe mit dem 'Vokabular' im verwendeten Trainings-Set, sprich den einzelnen Termen,verträglich ist? Oder noch härter: Verstehen die eingesetzten Netze eigentlich, was sie machen oder produzieren sie nur in schematischer Form Lösungsausdrücke, die sie inhaltlich nicht nachvollziehen können?

Der letztgenannte Einwand ist delikat, weil er ein philosophisches Grundproblem berührt: Was heißt überhaupt Verstehen?

Übersetzen kann man beispielsweise einen englischen Text ins Deutsche auch dann, wenn man in inhaltlich nicht in allen Details verstanden hat, sprich wenn man nicht jedes erwähnte Detail korrekt erklären kann. Und kann man nicht auch Mathematik weitgehend mechanisch erlernen. Das kreative Element fehlt dann natürlich, aber das führt sowieso in eine andere Liga.

Für Lample und Charton jedenfalls ist die „Mathematik der neuronalen Netze“ überhaupt keine bloße Mechanik. Im Gegenteil: Sie glauben, dass sich mit ihrer Methode neue Theoreme und Beweise finden lassen. Mathematik weniger als Algorithmus denn als Entdeckungsfahrt zu neuen Lösungen? Mehr noch: auch zu neuen Problemen, die bisher noch gar nicht gesehen wurden.

(ID:47884405)