Intel Nervana: Erster dedizierter Prozessor für neuronale Netze
Anbieter zum Thema
Noch vor Ende des Jahres will Chip-Gigant Intel seinen Prozessor aus der „Nervana“ genanten Palette an KI-Produkten für die Entwicklung von Anwendungen im Bereich Künstlicher Intelligenz auf den Markt bringen. Für die Einführung arbeitet das Unternehmen eng mit Facebook zusammen.

Intel hat nach eigenen Angaben den industrieweit ersten hochintegrierten Silizium-Chip fertiggestellt, der speziell für das Berechnen neuronaler Netzwerke (Neural Network Processing, NNP) entwickelt wurde. Damit will das Unternehmen den noch jungen Markt für kognitive und künstliche Intelligenz erobern, der laut den Auguren von IDC bereits 2020 ein Umsatzvolumen von 46 Milliarden Dollar verspricht.
Der ASIC basiert auf der Technologie des gleichnamigen kalifornischen Deep-Learning-Spezialisten Nervana Systems. Intel hatte das Unternehmen 2016 übernommen und damit seine Marschrichtung in Richtung KI-Entwicklung forciert. Mit selbstlernenden Maschinen auf Basis der hauseigenen Xeon-Plattformen will Intel etablierten Projekten wie IBM Watson Konkurrenz machen.
:quality(80)/images.vogel.de/vogelonline/bdb/1158100/1158149/original.jpg)
Artificial Intelligence im Nervana
Intel will Rechenzentren künstlich intelligent machen
„In den letzten Monaten haben wir den neuen Unternehmensbereich AIPG geschaffen und strukturiert, Produktlinien definiert und Roadmaps erstellt“, erklärt Dr. Naveen Rao, Vice President and General Manager der neuen Artificial Intelligence Products Group (AIPG) von Intel. „Nun arbeiten wir daran, unsere Technologie- und Marktführerschaft im Bereich Deep-Learning auszubauen.“
Abkehr von gewohnter 32-/64-Bit Architektur
Laut Rao hat Nervana eine stark überarbeitete, generalisierte Speicherarchitektur. Statt aus klassischem Cache besteht das Speicher-Subsystem aus vier HBM2-Stapeln mit insgesamt 32 GByte. Das gesamte Speichermanagement erfolgt per Software. Nervana unterscheidet sich auch in einem weiteren Punkt stark von bekannten 32- oder 64-Bit-Prozessoren: Er basiert auf einer neuen, „Flexpoint“ genannten Architektur, die intern im Integer-Format rechnet. Damit könne Nervana die Genauigkeit bestimmen, mit der es die für neuronale Netze wichtigen Matrizen-Multiplikationen durchführt, unterstreicht Rao. Zudem ermögliche die Architektur eine viel höhere Parallelität.
„Nervana NNP“ wird KI-Berechnungen in vielen Bereichen revolutionieren, verspricht Rao: „NNPs sind heute endlich leistungsfähig genug, riesige Datenmengen intelligent zu verarbeiten.“ Unternehmen seien damit in der Lage, völlig neue KI-Anwendungen zu entwickeln. Damit will Intel seine Kunden dabei unterstützen, ihre Geschäftsmodelle zu transformieren und fit für die Zukunft zu machen.
Dem eigenen Zeitplan voraus
Denkbar sind viele Anwendungen, etwa in der Gesundheits- und Automobilbranche, in Social Media oder bei Wettervorhersagen. So könnte KI helfen, Diagnosen schneller und akkurater zu erstellen und so Krankheiten wie Krebs oder Parkinson effizienter zu bekämpfen. Nervana-basierte Automotive-Plattformen könnten schneller lernen und so das Entwickeln autonomer Fahrzeuge beschleunigen.
Intel-CEO Brian Krzanich betont, dass sein Unternehmen bereits mehrere Generationen des Nervana-NNPs in der Pipeline hat. Diese sollen sukzessive höhere Rechenleistungen bereitstellen und noch weiter skalierbar sein als die ersten Modelle. „Wir sind unserem Zeitplan voraus und werden unser im letzten Jahr definiertes Ziel übertreffen, bereits 2020 eine 100 Mal bessere KI-Performance zu erreichen“, ist Krzanich überzeugt. Dem aktuellen Modell mit dem internen Codenamen Lake Crest soll Ende 2018 der Spring Crest folgen.
Investitionen in weitere Zukunftstechnologien
Zusätzlich zu seinen KI-Bemühungen investiert Intel nach seinen Angaben in Zukunftstechnologien für Large-Scale-Computing-Anwendungen, zum Beispiel neuromorphes Rechnen und Quanten-Computing.
Die Entwicklung neuromorpher Prozessoren ist von der Anatomie des menschlichen Hirns inspiriert. Sie sollen den Aufbau von Computern mögliche machen, die Entscheidungen auf der Basis von Mustern und Assoziierungen fällen können. Erst vor kurzem hat Intel einen ersten Testchip für neuromorphes Rechnen vorgestellt. „Er lernt aus Daten und stellt Schlussfolgerungen an“, erklärt Krzanich. „Mit der Zeit wird er immer intelligenter, ohne dass er wie bisherige Chips trainiert werden muss.“
Derartigen selbstlernenden Chips sagt er eine große Zukunft voraus, die möglichen Anwendungen und der potenzielle Nutzen seien enorm. Schließlich könnten „diese Chips lernen, selbst komplexeste kognitive Aufgaben zu bearbeiten“, ist der Intel-Chef überzeugt. Dazu würden das Interpretieren von Herzrhythmusdaten und das Detektieren von Anomalien bei der Abwehr von Cyber-Gefahren zählen, aber auch das Komponieren von Musik.
Quantenrechner mit 49 QuBits bis Ende 2017
Quanten-Computer hingegen könnten, da sie viele Quantenbits (Qubits) anstelle von binären Bits einsetzen, um Größenordnungen mehr Berechnungen parallel durchführen als bisherige Computer. „Mit Quantenrechnern können wir Probleme lösen, an denen konventionelle Computer scheitern“, sagt Krzanich. Dazu zählt er Simulationen von Vorgängen in der Natur, zum Beispiel um die Forschung in der Chemie, Materialkunde und Molekularbiologie voranzubringen. Damit kämen Raumtemperatur-Supraleiter und völlig neue Medikamente in Reichweite.
Letzte Woche hatte Intel bekannt gegeben, dass es einen supraleitenden Testchip mit 17 Qubits an seinen Forschungspartner QuTech in den Niederlanden geliefert hat. Noch bis Ende 2017 soll ein weiterer Chip mit 49 QuBits folgen.
Intel folgt neuem Kurs
Diese Entwicklungen zeigen: Intel macht Ernst mit dem in diesem Jahr eingeläutetem Kurswechsel. Nach dem im April angekündigten Ausstieg aus dem Mobile-Markt steht die Produktion von SoCs und CPUs der Atom-Reihe vor dem Aus. Aufgrund langsamerer Fortschritte in der Fertigungstechnik hat sich der Konzern zudem vom bisherigen Tick-Tock-Entwicklungsmodell für Prozessoren verabschiedet.
Statt auf Desktop-PCs und Notebooks fokussiert sich Intel zunehmend auf Wachstumsbereiche wie Rechenzentren und das Internet der Dinge (IoT). Eigene Deep-Learning-Systeme wären dafür gut geeignet.
Hinweis: der Artikel erschien im Original auf im Portal der „Elektronik Praxis“
(ID:44963965)