Verloren im Labyrinth der IT-Begriffe? Hier finden Sie Definitionen und Basiswissen zu Rechenzentrums-IT und -Infrastruktur.

Modelle der Künstlichen Intelligenz Was ist ein Graph Neural Network (GNN)?

Von M.A. Jürgen Höfling

Anbieter zum Thema

Auch Algorithmen haben Ecken und Kanten. Wenn man diese Ecken und Kanten mit möglichst viel Information ausstattet, entsteht ein künstliches neuronales Gebilde, das sich für maschinelle Lernvorgänge eignet, ganz ohne menschliche Eingriffe.

Künstliche Neuronale Netze versuchen, biologische Prozesse technisch nachzubilden.
Künstliche Neuronale Netze versuchen, biologische Prozesse technisch nachzubilden.
(Bild von Gerd Altmann auf Pixabay)

Die Rechenzentrumsinfrastruktur ist an vielen Punkten im Wandel. Die Frage, wie effizient die Energie verwendet wird, ist dabei wohl die wichtigste. Wichtig ist aber auch, für was diese Energie verwendet wird. S

oftwaredefinierte Architekturen werden viel Energie verbrauchen, aber (hoffentlich) auch zur Effizienz beitragen. Beispielsweise auf der Basis von KI-Algorithmen, die das Lernen der Maschinen schneller und effizienter machen.

Lernen ist beim Menschen und in der übrigen Natur eine neuronale Angelegenheit, deshalb nehmen sich entsprechende Algorithmen schon seit mehr als einem halben Jahrhundert Prozesse aus der Humanbiologie zum Vorbild. Künstliche Neuronale Netze sind aber lange an mangelnder Rechen-Power und zu geringen Datenvolumina gescheitert. Erst immer stärkere Grafikprozessoren (Nvidia, AMD, Intel, Graphcore etc.) und die Fähigkeit, riesige Datenmengen schnell auszuwerten („Big Data“) brachten die Wende.

Entsprechende Algorithmen wie beispielsweise das Graph Neural Network (GNN) tangieren das moderne Rechenzentrum sowohl als Infrastruktur für die komplexen maschinellen Lernprozesse als auch als Zielobjekt, das durch diese neuen Herangehensweisen seinerseits transformiert wird. Eine auch bloß summarische Durchsicht der unzähligen Titel, die auf Github allein zu GNN aufgelistet sind, zeigt, was der Autor meint.

Auf die Ecken und Kanten kommt es an

Wir versuchen hier die Problematik einmal ohne mathematische Definitionen und Formeln rein intuitiv zu beschreiben. Eine (wenn auch große Menge) von Einzeldaten macht den Lernvorgang sowohl im Bereich des Menschen und der übrigen Natur als auch besonders im Maschinenbereich schwerfällig bis fast unmöglich.

Bei keinerlei vorgegebener Verbindung zwischen einzelnen Daten muss eine solche mühsam durch Versuch und Irrtum hergestellt werden, sprich es müssen Verbindungslinien zwischen zwei oder mehreren Daten hergestellt werden. Dabei entsteht eine Baumstruktur als Unterform eines Graphen.

Lernhilfen beschleunigen jedenfalls den Prozess. Ein solcher Lernbeschleuniger ist eine semantische Belegung nicht nur der Knoten eines Graphen, sondern auch der Verbindungslinien. Noch mehr Information entsteht, wenn die Verbindungslinien gerichtet sind. Und wenn sie darüber hinaus in ihrem Beitrag für die Gesamtinformation gewichtet sind. Zu guter Letzt wird die transportierte Information um ein Mehrfaches gesteigert, wenn möglichst große Graphen mit Knoten, die interagieren, zur Verfügung stehen. Hier kommt Big Data ins Spiel.

Konstruktion von Realitätsausschnitten

Bei Graph Neural Networks sind die Verbindungslinien zwischen Einzeldaten, die so genannten Kanten, genauso wichtig wie die Knotenpunkte selbst. Ein solches Diagramm hat genügend semantischen Inhalt – sowohl was die ontologischen Entitäten betrifft als besonders auch ihre Relationen untereinander -, um einen Realitätsausschnitt abzubilden, sei dieser aus den Naturwissenschaften, der Programmierung, dem Finanzwesen oder auch der Gestaltung eines Datacenter.

Hier kann dann Deep Learning ansetzen, also maschinelles Lernen, das ohne zusätzliche Hilfestellungen aus Daten und ihren Verbindungen in immer neuen Durchläufen stabile Erkenntnisse gewinnt. Ein Graph Neural Network ermöglicht genau das.

In einem solchen Netzwerk sammeln Knoten Informationen von ihren Nachbarn, die aus dem Nachrichtenaustausch zwischen den einzelnen Knoten herrühren. Der Neuronale Graph lernt, indem der Nachrichtenaustausch zwischen den Knoten abgehört und dann in andere Knoten (in gleicher oder ähnlicher Form) eingebaut wird. Ein solcher Prozess entspricht der frühkindlichen Lernphase, in der Eltern oder Erzieher imitiert werden und im Anschluss neue und manchmal überraschende Verbindungen zusammengebaut werden.

Die Lösung als Black Box?

Ein ungelöstes Problem bei solchen neuronalen Graphen sei die Intransparenz (Black Box) der Lösung, sprich die mangelnde Nachvollziehbarkeit von außen, heißt es mitunter in der Literatur.

Dem Autor mag diese Behauptung nicht einleuchten. Warum sollte man den Deep Learning-Prozess nicht so gestalten, dass er jederzeit (zumindest bei Bedarf) einsehbar ist? Wer das für nicht lösbar hält oder für nebensächlich, der begibt sich nach Meinung des Autors in schwieriges ethisches Fahrwasser, in dem wir uns den Maschinen ausliefern. Jedenfalls tangiert diese Problematik die ethischen Grundlagen der Künstlichen Intelligenz.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Das Fraunhofer-Institut SCAI (Algorithmen und wissenschaftliches Rechnen), das sich speziell im Produktionsbereich mit der automatischen Extraktion wesentlicher Informationen aus Daten beschäftigt, hält jedenfalls im Blick auf diese Anwendungen drei Aspekte eines gelernten Modells für relevant: Transparenz, Interpretierbarkeit und Erklärbarkeit.

„Ein Ansatz für Maschinelles Lernen (ML) ist transparent, wenn der Weg, wie das Modell aus Trainingsdaten extrahiert wird und wie neue Vorhersagen generiert werden, vom Entwickler des ML-Ansatzes beschrieben und motiviert werden kann“, schreiben die Forscher von Fraunhofer SCAI. Zum Begriff der Interpretierbarkeit wird ausgeführt: „Im Idealfall kann man in diesem Zusammenhang die Frage beantworten, ob wir verstehen können, worauf der ML-Algorithmus seine Entscheidung stützt?"

Was die Erklärbarkeit von ML-Algorithmen betrifft, so muss diese nach Meinung der Fraunhofer-Forscher Begriffe wie Sicherheit/Vertrauen, Verantwortlichkeit, Reproduzierbarkeit, Übertragbarkeit, Robustheit oder auch „Feststellung nicht übereinstimmender Zielvorstellungen“ enthalten.

GNN als Basis für Deep Learning

Trotz der angesprochenen Probleme sind Graph Neural Networks gute Werkzeuge bei der Algorithmisierung nicht überwachter Lernprozesse. Und die Vorteile von Deep Learning sind eklatant. Denn während bei einem überwachten Lernprozess wie beispielsweise einer Bildklassifikation die einzelnen Bildelemente (in einer Verkehrssituation können das zum Beispiel die Elemente Fußgänger, Radfahrer, Auto, Radweg und Ampel sein) manuell etikettiert („gelabelt“) werden müssen, geschieht das bei nicht-überwachtem Lernen mit Hilfe von Wahrscheinlichkeitsmodellen automatisch. Und zwar zunehmend schneller und besser.

Artikelfiles und Artikellinks

(ID:47800617)