FPGAs anstelle von GPUs Verbundprojekt will bei KI-Rechnereien massiv Strom sparen

Von lic.rer.publ. Ariane Rüdiger 1 min Lesedauer

Anbieter zum Thema

Dem hohen Energieverbrauch der KI beim Anlernen von Modellen und der Inferenz rückt ein Vorhaben der Universität Paderborn zu Leibe. Es verspricht, in günstigstenfalls sehr erheblich zu verringern. Das Ziel: bis zu 90 Prozent.

Für Schulklassen der Oberstufe, Berufsschulen sowie Kurse von Fachhochschulen und anderen Universitäten bietet das Paderborn Center for Parallel Computing die Integration eines Rechenzentrumsbesuchs in den Lehrplan beziehungsweise IT-Unterricht an:
Für Schulklassen der Oberstufe, Berufsschulen sowie Kurse von Fachhochschulen und anderen Universitäten bietet das Paderborn Center for Parallel Computing die Integration eines Rechenzentrumsbesuchs in den Lehrplan beziehungsweise IT-Unterricht an: Anfragen stellen
(Bild: PC2)

Geleitet wird das Vorhaben von Professor Marco Platzner vom Institut für Informatik der Universität Paderborn, Kooperationspartner sind die Hochschule Hamm-Lippstadt, die Fachhochschule Südwestfalen, das HPC-Unternehmen Megware (Chemnitz) und die AMD Research Labs in Irland. Außerdem wurden Erkenntnisse des Fachgebiets Technische Informatik und des Paderborn Center for Parallel Computing (PC2) in das Projekt eingebracht. Das Projekt wurde vom Bundesministerium für Umwelt, Klimaschutz, Naturschutz und Nukleare Sicherheit mit etwa 1,5 Millionen Euro über drei Jahre gefördert.

Prof. Dr. Marco Platzner vom Institut für Informatik der Universität Paderborn, nutzt FPGAs für energieeffizientere tiefe neuronale Netze. (Bild:  Universität Paderborn)
Prof. Dr. Marco Platzner vom Institut für Informatik der Universität Paderborn, nutzt FPGAs für energieeffizientere tiefe neuronale Netze.
(Bild: Universität Paderborn)

Der Schlüssel, um das ehrgeizige Ziel zu erreichen ist die Verwendung von FPGAs (Field Programmable Gate Arrays), also jeweils anwendungsspezifisch programmierten und umprogrammierbaren Schaltkreisen. Ihr Programmierung erfordert etwas mehr Aufwand, erhöht jedoch dramatisch die Anpassungsmöglichkeiten an individuelle Anforderungen.

Dabei werden tiefe Neuronale Netze (DNNs, Deep Neural Networks) mit Hilfe dreier maßprogrammierter FPGAs angelernt, auf denen dann auch Inferenzläufe stattfanden. Verwendet wurde dafür die Open-Source-Software FINN von AMD/Xilinx, das die beiden Firmen eigens für diesen Zweck entwickelt haben.

Verteilung von DNNs

Die Paderborner Forscher verteilten zudem DNNs auf mehrere Schaltkreise, damit sie effizienter laufen, und beseitigten unnötige Verbindungen innerhalb der KI-Modelle. Außerdem erweiterten sie FINN durch Erweiterungen, mit deren Hilfe sich der Energiebedarf einzelner Komponenten besser prognostizieren lässt.

Sie konnten auf diese Weise den Verbrauch kompletter Inferenzläufe messen und mit anderen Technologien vergleichen. Das Ergebnis war eine um das Zehnfache verbesserte Energieeffizienz gegenüber GPUs. Der Erweiterungscode für FINN ist als Open Source zugänglich.

Allerdings bezieht Nvidia einen Großteil seiner Marktpower aus dem Software-Universum, das die Firma rund um seine GPUs aufgebaut hat. Wer immer den GPUs den Platz streitig machen will, muss auch hierfür praxistaugliche Alternativen oder brauchbare Brückentechniken anbieten.

(ID:50812146)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung