Maschinelles Lernen direkt im Gerät kann unzählige Produkte revolutionieren. Hierfür müssen die Algorithmen jedoch auf eingebetteten Komponenten laufen. Das birgt einige Herausforderungen. Doch die lassen sich lösen.
Machine-Learning-Modelle laufen in aller Regel nicht auf eingebetteter Hardware oder mobilen Geräten.
Um Lösungen auf Basis von maschinellem Lernen zu entwickeln, sind mehrere technische Disziplinen erforderlich. Die meisten Unternehmen haben allerdings nur einige davon im Haus verfügbar. Häufig werden dann Data Scientists, Ingenieure für maschinelles Lernen und Softwareentwickler eingestellt, die Modelle für maschinelles Lernen erstellen, trainieren, abstimmen und testen können.
Die Krux: Diese Modelle laufen in aller Regel nicht auf eingebetteter Hardware oder mobilen Geräten. Denn die meisten Machine Learning Engineers haben noch nie Modelle auf eingebetteter Hardware eingesetzt und kennen sich mit den eingeschränkten Ressourcen nicht aus. Für den Einsatz von trainierten Modellen auf mobilen SoCs, FPGAs und Mikroprozessoren muss das Modell optimiert und quantisiert werden.
Bildergalerie
Halbleiterhersteller stehen wiederum vor der Aufgabe, Produkte zu entwickeln, die neue Anforderungen an Leistung, Kosten und Formfaktor erfüllen – und das unter engen Time-to-Market-Vorgaben. Bei Schnittstellen, Ein- und Ausgängen sowie Speichernutzung ist Flexibilität gefragt, damit die Lösungen unterschiedliche Anwendungsfälle abdecken.
Optimierung und Quantisierung erleichtert durch TensorFlow Lite
Dank Googles TensorFlow Lite ist das in den letzten Jahren etwas einfacher geworden. Die Open-Source-Plattform für maschinelles Lernen enthält jetzt auch Skripte, mit denen sich Machine-Learning-Modelle in einer „Flatbuffers“-Datei (oder *tflite) optimieren und quantisieren lassen. Dabei werden Parameter genutzt, die für eine bestimmte Einsatzumgebung konfiguriert wurden.
Im Idealfall kann eine Embedded-Hardware-Lösung die Flatbuffer-Dateien aus TensorFlow direkt importieren, ohne auf proprietäre oder hardwarespezifische Optimierungstechniken außerhalb des TensorFlow-Ökosystems zurückgreifen zu müssen. Dann können Software- und Hardware-Ingenieure die quantisierte und optimierte Flatbuffer-Datei einfach auf FPGAs, SoCs und Mikrocontrollern einsetzen.
SoC, MCU und FPGA im Vergleich
Embedded-Hardware-Plattformen verfügen nur über eingeschränkte Ressourcen, sind wenig entwicklungsfreundlich und anspruchsvoll beim Einsatz. Dafür winken als Belohnung ein geringer Stromverbrauch, niedrige Kosten und Lösungen mit geringen Abmessungen. Was bieten SoCs, Mikrocontroller und FPGAs?
SoCs haben die höchste Leistung und viele gängige Schnittstellen, aber in der Regel auch den höchsten Stromverbrauch. Durch die schnittstellenspezifischen Ein- und Ausgänge belegen sie viel Chipfläche. Das macht sie relativ kostenintensiv.
Mikrocontroller punkten mit sehr geringem Stromverbrauch und kleinem Formfaktor, dafür sind sie aber oft sehr begrenzt bei der Machine-Learning-Leistung und den Modellfähigkeiten. Modelle, die am oberen Ende des Produktportfolios angesiedelt sind, bieten meist nur spezialisierte Schnittstellen, wie Kameras oder digitale Mikrofone.
FPGAs besetzen einen breiten Bereich zwischen Mikrocontrollern und SoCs. Sie sind mit einer großen Auswahl an Gehäusen und flexiblen Ein- und Ausgängen erhältlich. Damit können sie jede für eine bestimmte Anwendung benötigte Schnittstelle aufnehmen, ohne Siliziumfläche zu verschwenden. Zudem sorgen die Konfigurationsmöglichkeiten dafür, dass sich Kosten und Stromverbrauch mit der Leistung und der Integration zusätzlicher Funktionen skalieren lassen. Problematisch bei der Nutzung von FPGAs für maschinelles Lernen ist deren mangelnde Unterstützung und Integration in SDK-Plattformen wie TensorFlow Lite.
Hybride µSoC-FPGAs mit zusätzlichem PSRAM
Um diese Schwachstelle zu beseitigen, stellt Gowin Semiconductor auf seiner GoAI-2.0-Plattform ein SDK zur Verfügung, das Modelle und Koeffizienten extrapoliert sowie C-Code für den in den FPGAs integrierten ARM-Cortex-M-Prozessor und Bitstream bzw. Firmware für die FPGAs generiert.
Eine weitere Herausforderung besteht im großen Bedarf an Flash und RAM von Machine-Learning-Modellen. Neue hybride µSoC-FPGAs wie der Gowin GW1NSR4P erfüllen diesen, indem sie 4–8 MB zusätzliches PSRAM einbetten. Beim GW1NSR4P ist das speziell für den GoAI-2.0-Coprozessor zur beschleunigten Verarbeitung und Speicherung von Faltungs- und Pooling-Schichten vorgesehen. Es wird in Verbindung mit seinem Hardware Cortex-M-IP verwendet, der die Schichtparameter sowie die Modellverarbeitung und Ausgabeergebnisse steuert.
Viele Anbieter programmierbarer Halbleiter sorgen zudem mit Design-Services-Programmen für steilere Lernkurven bei ihren Kunden bei der Nutzung von eingebetteter Hardware für maschinelles Lernen. Das gilt auch für Gowin: Das GoAI-Design-Services-Programm unterstützt Nutzer, die eine Ein-Chip-Lösung für die Klassifizierung oder Implementierungsunterstützung von getesteten trainierten Modellen „von der Stange“ suchen, die aber nicht wissen, wie sie die Embedded Hardware ansprechen sollen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Mit derartigen Programmen unterstützen und entlasten die Anbieter die Unternehmen, sodass diese weniger Ressourcen im Bereich des Embedded Machine Learnings und der Implementierung auf eingebetteter Hardware benötigen (TinyML) und sich stärker auf ihre Produktentwicklung konzentrieren können.
Fazit
Lokales, eingebettetes maschinelles Lernen ist aktuell ein beliebtes und ständig wachsendes Feld für viele Produktentwickler. Allerdings gibt es erhebliche Herausforderungen, da Ingenieure verschiedener Disziplinen und Fachgebiete für die Entwicklung dieser Lösungen nötig sind. Einige Anbieter von programmierbaren Halbleitern beantworten diese durch die Nutzung populärer Ökosystem-Tools für eingebettete Hardware sowie mit Geräten mit flexiblen Schnittstellen und erweiterten Speichern, neue Software-Tools und Design-Services.
Dieser Beitrag stammt ursprünglich von unserem Partnerportal Aktuelle-Technik.ch.
* Zibo Su ist Product Manager Digital bei Rutronik, Daniel Fisher ist Senior FAE EMEA bei Gowin Semiconductor.