Flex Logix entwickelt eigenen Chip Inferenz-Chip bringt KI in Edge-Anwendungen
Anbieter zum Thema
Flex Logix, vorrangig Anbieter von Embedded FPGAs und IP-Blöcken, präsentiert erstmals einen eigenen Chip: „InferX X1“ ist ein Co-Prozessor, der sich gezielt an KI-Inferenz in Low-End-Edge-Anwendungen richtet, die nicht die Rohleistung von High-End-Rechenzentrum-Chips benötigen

Der Flex Logix Inferx X1-Chip soll sich nach Angaben der Herstellers besonders gut für Gateways und Low-End-Edge-Server eignen, um in KI-Anwendungen vor Ort mehr Durchsatz für die KI-Inferenzierung nutzen zu können, ohne auf die strom- und leistungshungrigen Anforderungen einer Rechenzentrums-Anwendung angewiesen zu sein.
Der Chip bietet demnach eine Leistung bei kleinen Losgrößen, die der von Inferenz-Chips im Rechenzentrum nahe kommt und einen hohen Durchsatz in Edge-Anwendungen mit nur einem einzigen DRAM bietet. Laut Flex Logix soll dies sowohl den Anspruch an die Leistungsstärke des Systems – und damit den Ressourcen- und Energiebedarf – als auch die Kosten niedrig halten. Dabei habe man insbesondere von der Erfahrung profitiert, die man bei der Entwicklung seiner patentierten eFPGA-Interconnects gewonnen habe.
Flex Logix ist vorwiegend im Markt Markt mit maßgeschneiderten embedded-FPGA-Lösungen (eFPGA) tätig. Im Herbst 2018 präsentierte das Unternehmen mit seiner „neuronalen Netzmaschine“ „Nnmax“, einem lizenzierbaren IP-Block für FPGAs und SoCs, erstmals eine Lösung für KI-Inferenz. Das Unternehmen behauptet, dass die Engine mehr als 100 Billionen Operationen pro Sekunde (TOPS) neuronaler Referenzkapazität in einer modularen, skalierbaren Architektur liefern kann, die einen Bruchteil der DRAM-Bandbreite konkurrierender Technologien erfordert.
Große Leistung bei knappen Ressourcen
Laut Geoff Tate, CEO von Flex Logix, bietet der Inferx X1, wenn man von der niedrigen DRAM-Bandbreite ausgeht, den vierfachen Durchsatz pro Watt und den dreifachen Durchsatz pro Dollar als der „Tesla T4“ SoC von Nvidia. Dieser GPU-basierte Ansatz gilt derzeit als der „Goldstandard“ für KI-Anwendungen in High-End-Rechenzentrumsservern. Außerdem übertreffe der Inferx laut Tate bestehende Edge Inference Chips wie Intels Myriad X und „Nvidias Jetson Nano“ bei der Inferenzierung von Benchmarks wie „YoloV2“, „YoloV3“ und „Google Net“ im erheblichen Maße.
Tate führte weiter aus, dass der Markt für KI in Edge-Servern durch den Mangel an Chips mit der notwendigen Leistung zu einem angemessenen Baustein-Preis eingeschränkt ist. Der Leistungsvorteil des Inferx X1 Chips sei daher besonders stark auf die niedrigen Losgrößen ausgelegt, die in Edge-Anwendungen benötigt werden, in denen es typischerweise nur eine Kamera oder einen Sensor gibt.
Inferx unterstützt Integer 8, 16 und bfloat 16 Numerik mit der Möglichkeit, sie über verschiedene Ebenen (Layers) hinweg zu mischen, was eine einfache Portierung von Modellen mit optimiertem Durchsatz bei maximaler Präzision ermöglicht. Darüber hinaus erlaubt Inferx die Winograd-Transformation für den ganzzahligen 8-Modus für gängige Faltungsoperationen (convolution operations).
Der Durchsatz für diese Funktionen, die vor allem in CNNs zum Einsatz kommen, sollen dadurch um das 2,25fache beschleunigt werden. Gleichzeitig minimiert der Chip die für diese Operationen notwendige Bandbreite, indem er On-Chip-, On-the-Fly-Konvertierung von Gewichten in den Winograd-Modus durchführt. Um einen Genauigkeitsverlust zu vermeiden, werden Winograd-Berechnungen mit 12 Bit Genauigkeit durchgeführt.
Verfügbar ab dem dritten Quartal 2019
Die Nnmax-IP-Blöcke für neuronale Inferenz befinden sich derzeit noch in der Entwicklung, sollen aber ab dem dritten Quartal 2019 für die Integration in SoCs zur Verfügung stehen. Ebenfalls im dritten Quartal soll das Tape-Out des Inferx X1 erfolgen, Chip-Muster und Entwicklungsboards sollen kurz darauf ebenfalls zur Verfügung stehen. Ein konkreter Preis für die beiden Lösungen ist noch nicht bekannt. Laut Geoff Tate soll der Inferx X1 aber nur „einen Bruchteil“ der Kosten eines Nvidia Tesla T4 betragen. Laut verschiedenen Marktberichten liegt dessen Preis derzeit bei zirka 3.000 Dollar.
Hinweis: Der Artikel entstammt dem Partnerportal „Elektronik Praxis“
(ID:45871639)