Interview mit Stephan Gillich, Intel

„Wir decken die gesamte Bandbreite an KI-Anwendungsfällen ab“

| Redakteur: Sebastian Gerstl

"Intelligenz im KI-Zeitalter vermitteln": Innerhalb weniger Jahre hat sich Chiphersteller Intel ein großes Portfolio unterschiedlicher KI-Lösungen zugelegt. Wo liegen die Stärken der jeweiligen Hardware, was ist die Strategie des Unternehmens, in welche Märkte will man mit KI-Lösungen vordringen? Stephan Gillich von Intel stand im Interview Rede und Antwort.
"Intelligenz im KI-Zeitalter vermitteln": Innerhalb weniger Jahre hat sich Chiphersteller Intel ein großes Portfolio unterschiedlicher KI-Lösungen zugelegt. Wo liegen die Stärken der jeweiligen Hardware, was ist die Strategie des Unternehmens, in welche Märkte will man mit KI-Lösungen vordringen? Stephan Gillich von Intel stand im Interview Rede und Antwort. (Bild: Intel)

Ob auf KI abzielende FPGAs, SoCs oder sogar eigene dedizierte Neural-Network-Prozessoren: Wenn es um Training und Inferenz von Künstlicher Intelligenz geht, will sich Intel nicht nur auf einen Hardwaretypus festlegen. Ein Gespräch mit Stephan Gillich, Director of Artificial Intelligence and Technical Computing bei Intel Deutschland.

2016 hatte Intel-CEO Brian Krzanich einen Kurswechsel des Unternehmens ausgerufen: Angesichts eines schrumpfenden PC-Marktes wolle sich der Chiphersteller stärker auf Trend- und Wachstumsmärkte wie IoT oder Datenzentrum verlegen.

Die weitere Konzentration auf Künstliche Intelligenz - deren Training hohe Rechenleistung erfordert und die in der Anwendung auf Endgeräten meist eine schnelle Konnektivität zur Cloud benötigt - ist dahingehend nur logische Konsequenz. Mit gezielten Akqusitionen hat sich Intel ein vielfältiges Know-how zu dem Thema an Bord geholt - ebenso wie eine breite Palette an Hardware-Plattformen, die allesamt zum Training wie auch zur Inferenz von Neuronalen Netzwerken dienen.

FPGAs von Intel PSG (ehemals Altera) zum Maschinellen Lernen, Chips für Autonomes Fahren von Vision-Spezialist Mobileye, dedizierte Neural-Network-Prozessoren oder Package-Lösungen zur Beschleunigung von KIs auf USB-Stick von den eingekauften KI-Startups Nervana und Movidius - in nur wenigen Jahren hat Intel eine enorme Palette an einsatzfähiger KI-Hardware vorgestellt.

Was ist die Strategie, wo liegen die Stärken dieser verschiedenen Plattformen? Im Interview gibt Stephan Gillich, Director of Artificial Intelligence and Technical Computing – GTM, EMEA Datacenter Group, Intel Deutschland GmbH, zu diesen Themen Auskunft.

Stephan Gillich, Director of Artificial Intelligence and Technical Computing – GTM, EMEA Datacenter Group, Intel Deutschland GmbH: „Besonders die intelligente Sprach- und Bilderkennung wird in den nächsten Jahren weiterhin deutliche Fortschritte machen.“
Stephan Gillich, Director of Artificial Intelligence and Technical Computing – GTM, EMEA Datacenter Group, Intel Deutschland GmbH: „Besonders die intelligente Sprach- und Bilderkennung wird in den nächsten Jahren weiterhin deutliche Fortschritte machen.“ (Bild: Intel)

In welchen Bereichen werden Deep Learning (und KI im Allgemeinen) in der nahen Zukunft besonders wichtig werden und Anwendung finden?

Stephan Gillich: Künstliche Intelligenz (KI) eröffnet vor allem in der Datenanalyse neue Möglichkeiten. Mit ihrer Hilfe werden Big Data und das Internet der Dinge (IoT) strukturiert und in sinnvolle, verwertbare Ergebnisse umgewandelt. KI wird folglich überall dort verwendet, wo wir mit großen Datenmengen konfrontiert sind.

Die schnellste KI-Adoption erwarten wir in Bereichen mit klaren Anwendungsfällen, hoher Kaufkraft und der Notwendigkeit, schnelle und datenbasierte Entscheidungen zu treffen. Dazu gehören das Autonome Fahren, Konsumgüter, Einzelhandel sowie das Gesundheits- und Finanzwesen.

In welcher Form KI eingesetzt wird, hängt vom Anwendungsbereich ab. Besonders die intelligente Sprach- und Bilderkennung wird in den nächsten Jahren weiterhin deutliche Fortschritte machen. Chat Bots gewinnen an Präzision und sind vor allem im Endkundenbereich zunehmend präsent. Die Bilderkennung kommt verstärkt in der Medizin zum Einsatz: Tumore können durch KI schneller erfasst und genauer eingeordnet werden. So wird Ärzten in kürzerer Zeit die Erstellung eines effizienten und zielgerichteten Behandlungsplans ermöglicht.

Welche Strategie verfolgt Intel hinsichtlich Hardware, die auf Training und Einsatz von Künstlicher Intelligenz abzielt? Und wo wird diese Technologie vornehmlich eingesetzt?

Stephan Gillich: Intel bietet ein KI-Produktportfolio, das die gesamte Bandbreite vom Rechenzentrum über die Cloud bis hin zum Endgerät abdeckt. Die einzelnen Soft- und Hardware-Lösungen können dabei kombiniert und an den jeweiligen Verwendungszweck angepasst werden.

Bei einem breiten Feld von KI-Anwendungen im Rechenzentrum (darunter Reasoning Systeme, Machine Learning, Training und Inferenzen beim Deep Learning) werden Rechensysteme mit Intel Xeon Prozessoren verwendet. Vorteil ist, dass damit auch die klassische Datenanalyse auf diesen Systemen stattfindet. Bei Bedarf können die Xeon-basierten Plattformen mit Intels FPGAs (Field-Programmable-Gate-Arrays) beschleunigt werden, etwa für Echtzeitanalysen.

Auch der kommende Intel Nervana Neuronal Network Prozessor (NNP) wird zusammen mit Intel Xeon Prozessoren eingesetzt. Dabei ist er speziell auf die hohe Rechenbelastung zugeschnitten, die bei intensiven Trainings von komplexen neuronalen Netzen im Deep Learning auftritt.

Künstliche Intelligenz wird auch am Gateway und in Endgeräten (etwa Drohnen) eingesetzt. Jeder Anwendungsfall stellt dabei bestimmte Anforderungen an die verwendete Technologie. Dafür bietet das Intel Produktportfolio weitere bedarfsoptimierte Lösungen für Computervision (Movidius), intelligente Sprache und Audio (GNA), Cognitive Computing Software (Saffron) sowie das Autonome Fahren (Mobileye).

Den Nervana-Prozessor bezeichnet Intel gerne auch als den 'industrieweit ersten Neural Network Prozessor'. Welche speziellen Vorteile bietet ein dedizierter KI-Prozessor gegenüber anderen Ansätzen wie FPGAs, GPUs oder DSPs?

Stephan Gillich:In den vergangenen Jahren haben wir gewaltige Fortschritte im Bereich Künstliche Intelligenz gemacht. Das gilt besonders beim Deep Learning, das sich zur Schlüsseltechnologie im KI-Bereich entwickelt. Mit jeder Neuerung ändern sich auch die technischen Ansprüche: KI-Lösungen müssen zunehmend skalierbar und schnell sein, dabei immer größere Datenmodelle beherbergen.

Die Architektur des Intel NNP wurde speziell für Deep Learning Training entwickelt und zeichnet sich durch hohe Flexibilität und Skalierbarkeit sowie einen schnellen und leistungsfähigen Speicher aus. Große Datenmengen können direkt auf dem Chip gespeichert und in kürzester Zeit abgerufen werden. Zudem nutzt der Prozessor unterschiedliche Kanäle für Berechnungen und Datenmanagement, wodurch neue Daten schneller verfügbar sind.

Intel NNP verwendet zudem ein neues numerisches Datenformat, das auf Geschwindigkeit und Rechendichte ausgelegt ist. Schließlich ist der Prozessor hochgradig skalierbar: Zahlreiche NNPs können eng zusammenarbeiten und erfassen auf diese Art immer größere Datenmodelle.

Hinweis: Der Artikel erschien im Original auf der SchwesterpublikationElektronik Praxis“.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45346683 / Komponenten)