Deep Learning funktioniert durch paralleles Rechnen

Nvidia, Chappie oder: Computer sind auch nur Menschen

Seite: 3/3

Anbieter zum Thema

Der Leistungssprung

Es lassen sich in kürzerer Zeit weitaus größere Trainingseinheiten verarbeiten und zudem ist weit weniger Rechenzentrumsinfrastruktur erforderlich. Hinsche erläutert: Im Jahr 2012 gab Google einen Algorithmus für das „Google Brain“ in Auftrag, bei dem es um die Klassifizierung von 10 Millionen Bildern bei 10.000 Parametern ging. Benötigt wurden 1.000 CPU Server, 2.000 CPUs mit insgesamt 16.000 Kernen. Das bedeutete den Verbrauch von 600 Kilowatt zu einem Preis von 5.000.000 Dollar.

Das Stafford Lab ermittelte kaum ein Jahr später ganz andere Zahlen; denn hier kamen 3 GPU-Accelerated Server zum Einsatz, 12 GPU und 18.432 Cores. Die Watt-Zahl sank auf 4 Kilowatt und der Preis auf 33.000 Dollar.

Bildergalerie
Bildergalerie mit 12 Bildern

Das Nvidia-Entwicklungs-Bibliothek für neuronale Netze trägt die Bezeichnung „cuDNN“ (siehe: Abbildung 11). Es unterstützt die Plattformen 64-bit-Linux, 64bit-Windows und Mac OSX, die Nvidia-GPUs Tegra K1 (L4T) sowie Kepler- und Maxwell-Architekturen. Nach Angaben von Maxim Milakov, Senior HPC DevTech Engineer bei Nvidia, Kann cuDNN Entwickler auf allen Ebenen des Trainings von neuronalen Netzen unterstützen und trägt erheblich zur Beschleunigung bei.

Sciencefiction und nahe Zukunft

Kürzlich lud Nvidia gemeinsam mit ihrem Partner Fuidyna GmbH (siehe Kasten) Wissenschaftler zum Filmstart von „Chappie“ ins Kino. In den Fimkritiken, wie „Nummer 5 weint“ steckt, dass denkende und fühlende Roboter lediglich eine Neuauflage eines bekannten Action-Stoffes sind.

Das kann man allerdings von „Jibo“ nicht sagen. Der „erste Familienroboter“, erfunden von der MIT-Professorin Cynthia Breazeal, kommt dank einer Fund-Raising-Kampagne in diesem Sommer dieses Jahres nicht in die Kinos, sondern ins Zuhause.

(ID:43256616)