Data-Centric Innovation Summit

Intel legt seine Datacenter-Strategie dar

| Autor / Redakteur: Dr. Dietmar Müller / Dietmar Müller

Intel legte auf seinem Data-Centric Innovation Summit in Santa Clara die Rechenzentrumsstrategie für die nahe Zukunft detailliert dar.
Intel legte auf seinem Data-Centric Innovation Summit in Santa Clara die Rechenzentrumsstrategie für die nahe Zukunft detailliert dar. (Bild: Gemeinfrei - Intel / CC0)

Intel hat auf seinem Data-Centric Innovation Summit in Santa Clara die Rechenzentrumsstrategie für die nahe Zukunft detailliert dargestellt. Erste Geige wird die künstliche Intelligenz spielen, die auf dem Rücken von „Xeon“-Chips ins Rechenzentrum einziehen soll.

Navin Shenoy, Executive Vice President und General Manager der Datacenter Group bei Intel, verwies zunächst auf die enorme Datenexplosion der vergangenen Jahre. „Ich finde es erstaunlich, dass in den vergangenen zwei Jahren 90 Prozent der Daten der Welt generiert wurden“, so Shenoy. „Analysten prognostizieren, dass diese Menge bis 2025 exponentiell um das Zehnfache wachsen und 163 Zetabyte erreichen wird.“

Das Netzwerk ist das Problem

Eine Kombination aus unterschiedlichen Technologien wie maschinelles Sehen, Edge Computing, Mapping, Cloud Computing und künstliche Intelligenz (KI) sollen helfen, diese Mengen zu bewältigen. Im Rechenzentrum behindere aber das Netzwerk den Fortschritt und bilde Engpässe, die es aufzulösen gelte. Und zwar mit Innovationen wie Silicon Photonics, das Laser in Silizium integriert, oder der „SmartNIC“-Produktlinie – Codename „Cascade Glacier“ –, die auf „Intel Arria 10 FPGAs“ aufbaut, Xeon-basierte Systeme deutlich beschleunigen und im ersten Quartal 2019 verfügbar sein soll.

Immer mehr komme es für Rechenzentren zudem darauf an, Daten wirtschaftlich abzuspeichern. Hier soll die Optane-Technik helfen, die 2019 mit der nächsten Generation von Xeon-Prozessoren allgemein verfügbar sein soll. Sie kombiniert 3D XPoint-Speichermedien, Arbeits- und Massenspeichercontroller, Intel Interconnect IP und Software.

Die so zusammengesetzten Bausteine sollen durch eine neu eingezogene Ebene in der Speicherhierarchie Antwortzeiten erzielen, die unter Last bis zu 40-mal kürzer sind als bei herkömmlichen Speichertechnologien wie Festplattenlaufwerke (HDDs) oder Solid-State-Laufwerke (SSDs) auf Serial ATA-Basis (SATA). Auf dem Flash Memory Summit wurden zudem neue Intel QLC 3D NAND-basierte Produkte präsentiert.

Kommende Xeons

Shenoy legte dann den Fahrplan für die nächste Generation der Xeon-Plattform dar: Noch dieses Jahr soll ein erweiterter AVX-Befehlssatzes für KI mit Namen „Vector Neural Network Instructions (VNNI) for Inference Acceleration“ in die „Cascade Lake"-Xeon-SP-Typen integriert werden, genannt „Deep Learning Boost“. Cascade Lake wird nach Aussagen von Shenoy doppelt so schnell arbeiten wie die aktuellen Xeon-SP-CPUs vom Typ „Skylake-SP“.

„Cooper Lake“ ist ein Intel Xeon-Prozessor, der wie Cascade Lake auf 14 Nanometer-Technologie basiert. Er wird „signifikanten Leistungsverbesserungen, neuen I/O-Features und neue Intel DL Boost-Fähigkeiten (Bfloat16)" offerieren, die zusammen mit „Optane“ die Leistung von KI/Deep Learning-Anwendungen verbessern soll. Er wird 2019 ausgeliefert.

2020 wird voraussichtlich „Ice Lake“ folgen, so Shenoy. Er basiert auf 10 Nanometer-Technologie und teilt sich die Plattform mit Cooper Lake.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45445688 / Komponenten)