Alles Künstliche Intelligenz - erst recht im Auto Nvidia-Chef ruft die KI-Ära aus
Wer in dieser Woche die „GTC Europe 2017“, die GPU Technology Conference von Nvidia, besucht hat, hätte meinen können, man betrete einen Autosalon. Denn das autonome Fahren ist das Paradebeispiel für die Anwendung Künstlicher Intelligenz (KI) und von Audi bis Post, von Uni Stuttgart bis Tesla zeigte die Automobilbranche, was es bereits zu bestaunen gibt. Was es dafür braucht, ist Software und jede Menge Rechen-Power, am besten für den Hersteller mithilfe der Nvidia-GPUs.
Anbieter zum Thema

In seiner Eröffnungsrede machte Nvidia-Gründer und jetziger -CEO Jensen Huang deutlich: Die Performance von GPUs nimmt deutlich stärker zu als Moore´s Law für die CPU-Entwicklung errechnet, nämlich um 1,5x pro Jahr. Somit würden GPUs in 15 Jahren 1.000-mal schneller als CPUs sein. Die aktuelle Variante der „Tesla GV100“-Karte „Volta“ besteht aus über 21 Milliarden Transistoren (xtors), enthält 5120 „Shader“-Rechenkerne und leistet 120 Tflops (Tera floating point operations per second). Das entspricht laut Huang unter Umständen der Leistung eines Server-Rack.
Eine solche Leistung kommt jedoch lediglich zustande, wenn die 640 als „Tensor-Core“ bezeichneten, auf Deep-Learning-Computing optimierte Einheiten die dafür spezialisierten „CUDA TensorOP“-Instruktionen verarbeiten. Ansonsten besteht die Gleitkommaleistung in 7,5 TFlops bei doppelter Genauigkeit (Double Precision).
Dennoch: Der Erfolg der GPUs scheint unaufhaltsam. So stecken die Nvidia-Karten in nahezu jeder Hypercloud – AWS, Google, Azure, Baidu, Alibaba zum Beispiel, und in fast jedem Supercomputer. Somit sieht Huang die jüngsten Nobelpreise in Chemie und Physik auch ein bisschen als Nvidia-Erfolg.
Den Nobelpreis für Physik erhielten die US-Forscher Rainer Weiss, Barry Barish und Kip Thorne. Sie konnten den ersten direkten Nachweis im All entstehender Gravitationswellen erbringen (siehe: Abbildung).
Der Nobelpreis für Chemie ging in diesem Jahr an den Schweizer Jacques Dubochet, den gebürtigen Deutschen Joachim Frank (USA) und Richard Henderson aus Großbritannien. Sie entwickelten die „Kryo-Elektronenmikroskopie“. Damit lassen sich dreidimensionale Bilder von gefrorenen Biomolekülen anfertigen (siehe: Abbildung 3).
Damit ist Nvidia nun auf vier Anwendungsgebieten präsent: 1. Computer-Grafik, 2. Wissenschaft und Forschung. 3. Deep Learning und 4. Datenanalyse – und überall spielt Künstliche Intelligenz eine zunehmend bedeutsame Rolle. „KI ist die Killerapplikation für GPUs“, so Huang.
Dass Grafiken immer besser werden, ist eh klar. Dass sie animiert werden, auch schon. Doch nun landen die Simulationen in einem virtuellen 3D-Labor. Huang stellte auf der GTC Europe das „Nividia Holodeck“ vor, derzeit mit 90 Frames pro Sekunde. Im Mittelpunkt lässt sich ein neues, fotorealistisches McLaren-Modell erkennen. Das „Design-Lab der Zukunft“, so der Nvidia-Chef, soll den Konstrukteuren und Designern physische Beschaffenheiten simulieren. Als Avatare können sie die Außenhülle durchdringen und Änderungen vornehmen, etwa Lack und Form und das Auto zerlegen.
KI-Anwendungen im Hintergrund kann dabei helfen. So sei es grundsätzlich möglich, neue Bauteile, die ein Hersteller entwickelt hat, mitsamt der jeweiligen Eigenschaften, nicht nur in das Modell einzufügen, sondern auch im Zusammenspiel mit den anderen Bauteilen die damit einhergehenden Veränderungen zu simulieren. Im Falle des McLaren sind das um die 30.000 Bauteile, die Nvidia in einer Explosionsdarstellung zeigte.
KI findet zum einen im Rechenzentrum statt: etwa durch das Trainieren von neuronalen Netzen. Die Gegenseite, dort wo die Ergebnisse zur Anwendung zur Ausführung kommen, nennt sich Inference, in Deutsch Inferenz. Genügend Leistung auf all die Maschinen und Devices zu bringen, dass diese 'Endgeräte' auch funktionieren, ist eine „Herausforderung“, so Huang. Zum einen müssen die mehr oder weniger fest verdrahteten Rechner sehr hohe Leistung bringen, zum anderen dürfen sie nicht unendlich Strom schlucken. Er spricht von Tausenden Milliarden autonomer Maschinen, von denen nun die ersten entwickelt werden.
In dieses Umfeld gehört der programmierbare Inference Accelerator „TensorRT". Nach Firmenangaben lässt sich damit die Performance sowohl von Servern als auch von Edge-Devices von selbstfahrenden Autos bis zu Robotern beschleunigen. Für die Programmierung benötigen die Entwickler „Tensor RT”, mittlerweile in Version 3 verfügbar. Laut Huang sind Nvidia-GPUs im Zusammenspiel mit TensorRT, die alle AI-Services unterstützen – Sprach- und Bilderkennung, Empfehlungsapplikationen zum Beispiel – bis zu 40 mal schneller zu einem Zehntel der Kosten von CPU-basierten Anwendungen.
JD.com setzt die Technik im Bereich inference etwa im Rechenzentrum ein. Andy Chen, Senior Director zuständig für AI und Big Data erläutert: „Wir können nun simultan 1.000 HD-Video-Streams in Echtzeit abspielen, mit 20 mal weniger Server.“
Der GPU-Supercomputer
Allerdings verfügt Nvidia seit etwa einem Jahr über einen eigenen Server: Das System, dass für Wissenschaftsanwendungen und KI-Anwendungen gedacht ist, trägt die Bezeichnung „HGX“. Ursprünglich sei das System hauptsächlich dafür gedacht gewesen, zu zeigen, was alles mit den Grafikkarten gemacht werden kann. „Doch tatsächlich kaufen die Firmen das“, klingt Jim McHugh, Vice President und General Manager DGX Systems noch erstaunt.
Jedenfalls landet das „Raiden GPU-Subsystem“ des Center for Advanced Intelligence Project, “RIKEN”, das unter anderem auf Nvidia DGX-q, den Intel-Prozessor E5-2698v4 20C und 2,2 Gigahertz, Infiniband EDR und Fujitsu-Technik basiert auf Platz 4 der „Green500“-Liste.
Übrigens stammen 19 Prozent des Umsatzes aus dem Segment Enterprise-Computing, zu dem Hughs neben der üblichen Rechenzentrumsausstattung auch Supercomputing und professionelles Visualisieren zählt. Er fügt hinzu: „Der Bereich ist stark wachsend.“
Nvidia im selbstfahrenden Auto
Einen ähnlichen Effekt habe es, wenn Nvidia-Technik im Auto eingesetzt werde. Wer jetzt an einen Industrie-PC denkt, ist völlig falsch gewickelt. Um KI im Auto tatsächlich jederzeit nutzen zu können, brauche es kein 5G-Netz und keine Rechenzentren an den Straßen, so Johann Jungwirth, COO der Volkswagen AG. Das Auto der Zukunft ist eben nur autonom, wenn die Technik vor Ort ist und bleibt.
Das aber bedeutet nach heutigen Maßstäben; Das Fahrzeug muss mit einem Supercomputer ausgestattet sein. Die zugehörige Technik heißt etwa „Robotaxi Drive PX“ (siehe: Abbildung). Die Leitungsdaten für den Inferenz-Rechener: 320 TOPS CUDA Tensor Core, 16 x GMSL, 4 x 10 Gigabyte, 8x 1 Gigabyte, 16 x 10 Gigabyte, Auto-grade, ASIL D und Strombedarf: 500 Watt.
Das nun vorgestellte jüngste „Pegasus“-System ist nicht wie ursprünglich angekündigt flüssigkeitsgekühlt, sondern soll durch Luftkühlung auf Temperatur gehalten werden. Für COO Hughs ist der Supercomputer-Status der mobilen Rechner jedoch nur ein vorübergehender. Schließlich passe die Leistung eines Superrechners aus den Sechzigern längst auf jedes Smartphone.
So wird die Deutsche Post DHL Group zusammen mit dem Zulieferer ZF eine Flotte von selbstfahrenden, elektrisch betrieben Lieferfahrzeugen mit „Nvidia Drive PX“ ausstatten. 2018 sollen bereits erste Fahrzeuge dieser Klasse Pakete liefern. Die Auslieferung auf der so geannten „letzten Meile“, also von einem Verteilzentrum bis zur Haustür gilt als eine der komplexesten, aber auch am wenigsten gewinnbringenden Ausgaben eines Logistikdienstleisters.
Die elektrischen „Scooter“, von denen die Post gegenwärtig rund 3.400 betreibt, sollen mit den ZF-Sensoren ausgestattet werden, also Kameras, Lidar- und Radar-Sensoren, die in das „ProAI“-System von ZF passen. Der Prototyp besitzt sechs Kameras, einen Radar- und zwei Lidar-Sensoren.
Schon um die Lieferwagen zu entwickeln, nutzte DPDHL bereits Nvidia-Technik. Im Rechenzentrum kamen die DGX-1 Computer zum Einsatz, um Neuronale Netze zu trainieren. Die damit entwickelten KI-Modelle werden nun auf das Inferenz-System Drive PX übertragen.
Die Software
Dennoch ist die Auto-Hardware längst nicht alles, was Nvidia für Mobility jeder Art entwickelt. „Bei Nvidia arbeiten mehr Software- als Hardware-Entwickler“, so Hughs. So benötigt eine Auto-Applikation etwa ein Betriebssystem. VW-CDO Jungwirth sagt etwa: „Volkswagen will Software-, Hardware-Hersteller sein und Services bieten“ - man könnte vermuten, das sei das Profil eines klassischen IT-Systemhauses.
Das „Intelligence Experience Toolkit“ von Nvidia jedenfalls soll für erste Anwender noch in diesem Quartal verfügbar sein. Darüber hinaus strickt der GPU-Hersteller noch an vielen weiteren Anwendungen mit, etwa für die neue Branche selbstfahrender Taxen.
Aber auch zur Unterstützung autonom agierender Roboter macht das Unternehmen Angebote. Eines der interessantesten ist das Projekt „Isaak“. Der Roboter ist nämlich virtuell. Und das erspart allen denjenigen, die die Anfertigung von Robotern, etwa aus Kostengründen scheuen, eine Alternative zur Verfügung. Auf der GTC Europe zeigte Huang unter anderem, wie der Roboter trainiert wurde, um mit dem Hockey-Schläger einen Ball ins Tor zu befördern.
Isaac basiert auf einer weiterentwickelten Version von Epic Games' „Unreal Engine 4“ und nutzt die Simulationstechnik von Nvidia, Rendering und Deep-Learning-Techniken. Dazu gehört zudem ein Set an Referenz-Designs.
(ID:44944403)