Intel wehrt sich mit Performance-Vergleichen Intel-Technik für HPC: CPU, GPU, Software, Ethernet und Storage

Redakteur: Ulrike Ostler

Intel-Prozessoren sind die weltweit am meisten genutzte Compute-Architektur in Supercomputern. Allerdings sorgt Konkurrent AMD für Schlagzeilen bei Performance und Preis. Jetzt kontert Intel mit Benchmarks und kündigt zur „ISC 2021“ weitere Akzelleratoren, Netzwerk und Storage-Technik an.

Firmen zum Thema

Bei der Ankündigung neuer HPC-Technik von Intel geht es um Akzeleratoren, „XPU Architectures“, um „One API“, den Objektspeicher „Daos“ sowie Interconnect via Ethernet.
Bei der Ankündigung neuer HPC-Technik von Intel geht es um Akzeleratoren, „XPU Architectures“, um „One API“, den Objektspeicher „Daos“ sowie Interconnect via Ethernet.
(Bild: Intel)

Auf der International Supercomputing Conference (ISC) 2021, die in dieser Woche stattfindet, zeigt Intel, wie das Unternehmen mit neuen Technologien, Partnerschaften und Kunden seine führende Rolle im High Performance Computing (HPC) ausbauen will. Intel-Prozessoren sind die weltweit am meisten genutzte Compute-Architektur in Supercomputern, doch AMD findet mehr und mehr Abnehmer. Halbleiterhersteller Intel stellt nun seine Neuerungen zu „Xeon“-Prozessoren für HPC und Künstliche Intelligenz (KI), Innovationen in den Bereichen Memory, Software, Speicher der Exascale-Klasse und Netzwerk vor.

Bildergalerie
Bildergalerie mit 5 Bildern

Anfang des Jahres hat Intel seine 3. Generation der skalierbaren Xeon-Prozessoren vorgestellt. Im Vergleich zum Prozessor der vorangegangenen Generation liefert die neueste CPU eine bis zu 53 Prozent höhere Leistung in einigen HPC-Anwendungsbereichen, einschließlich Life Sciences, Finanzdienstleistungen und Fertigung (siehe: Abbildung 1).

Gegenüber Intels größtem Mitbewerber in der x86-Architektur biete der Intel-Prozessor eine verbesserte Leistung in vielen verbreiteten HPC-Workloads, lässt der Hersteller nun wissen. Mit dem skalierbaren „Intel Xeon 8358“ laufe – verglichen mit einem „AMD Epyc 7543“ – zum Beispiel NAMD um 62 Prozent, LAMMPS um 57 Prozent und RELION um 68 Prozent besser.

Binomiale Optionsbewertung sei mit einer um 37 Prozent höheren Leistung möglich. Monte-Carlo-Simulationen seien hingegen gar zweimal schneller, so dass Finanzunternehmen die Ergebnisse für die Preisfindung doppelt so schnell erzielen könnten.

Die skalierbaren Intel Xeon 8380 übertreffen den „AMD Epyc 7763“ auch bei wichtigen KI-Workloads mit einer um 50 Prozent besseren Leistung bei 20 gängigen Benchmarks.

HPC-Labore, Supercomputing-Zentren, Universitäten und OEMs nutzten Intels neueste Compute-Plattform, darunter Dell Technologies, HPE, Korea Meteorological Administration, Lenovo, Max Planck CDF, Oracle, die Universität Osaka und die Universität von Tokio*.

High Bandwidth Memory auf dem Chip

High Bandwidth Memory in skalierbaren Intel Xeon-Prozessoren der nächsten Generation integriert Workloads wie Modellierung und Simulation, zum Beispiel Computational Fluid Dynamics, Klima- und Wettervorhersage, Quantenchromodynamik), KI - Deep-Learning-Training und- Inferenz -, Analysen etwa im Bereich Big-Data, In-Memory-Datenbanken und Speichersysteme,

Die nächste Generation der skalierbaren Intel Xeon Prozessoren, Codename „Sapphire Rapids“ wird mit High Bandwidth Memory (HBM) ausgestattet sein (siehe: Abbildung 5), was die Speicherbandbreite der CPU drastisch erhöht und eine signifikante Leistungsverbesserung für HPC-Anwendungen ermöglicht, die speicherbandbreitensensitive Workloads nutzen.

Nutzer können die Workloads entweder ausschließlich mit High Bandwidth Memory oder in Kombination mit DDR5-Speicher bewältigen. Darüber hinaus eröffnet die auf Sapphire Rapids basierende Plattform neue Möglichkeiten um HPC zu beschleunigen, darunter die doppelte I/O-Bandbreite mit PCI Express 5.0 (im Vergleich zu PCI Express 4.0) und die Unterstützung von Compute Express Link (CXL) 1.1.

Höhere Bescheunigung

Sapphire Rapids ist außerdem für HPC-und KI-Workloads optimiert. Eine integrierte KI-Beschleunigungs-Engine mit der Bezeichnung „Advanced Matrix Extensions“ (AMX) bietet laut Intel eine signifikante Leistungssteigerung für Deep-Learning-Inferenz und-Training.

Bildergalerie
Bildergalerie mit 5 Bildern

Einige Kunden arbeiten bereits mit Sapphire Rapids, zum Beispiel das LRZ (siehe: Phase 2 beginnt; Lenovo und Intel liefern die Hauptbestandteile der LRZ-Supercomputers-Ausbau , Cineca und das Argonne National Lab sowie Crossroads-Systemteams im Los Alamos National Lab und Sandia National Lab.

Doch nicht nur das: Das Hochleistungsrechenzentrum in Garching wird auch mit den Anfang des Jahres erstmals in Betrieb genommenen (Power On) „Intel Xe“- GPUs (Codename „Ponte Vecchio“) ausgerüstet. Ponte Vecchio ist eine auf der Xe-Architektur basierende GPU, die für HPC-und KI-Workloads optimiert ist und wird dank der „Foveros“-3D-Packaging-Technologie mehrere Chips im Package integrieren – beispielsweise HBM-Speicher. Der Grafikprozessor wird in einem OAM-Formfaktor (OCP Accelerator Module) und in Subsystemen erhältlich sein und so über die für HPC-Anwendungen erforderlichen Scale-up-und Scale-out-Möglichkeiten verfügen.

Erweiterung von Intel Ethernet für High Performance Computing

Auf der ISC 2021 kündigte Intel außerdem „High-Performance Networking with Ethernet“ (HPN) an. Dieses erweitert die Ethernet-Technologie für kleinere Cluster im HPC-Segment, indem es Standard-Netzwerkadapter und -Controller der „Intel-Ethernet-800“-Serie, Switches, die auf „P4“-programmierbaren Ethernet-ASICs der „Intel-Tofino“-Serie basieren und die Intel-Software „Ethernet Fabric Suite“ verwendet. Die Software ist Intels 3. Generation der HPC-Fabric-Software und bietet laut Hersteller eine mit Infiniband vergleichbare Anwendungsleistung zu geringeren Kosten.

Kommerzieller Support von Daos

Darüber hinaus kündigt Intel auch den kommerziellen Support für Daos an. Das Akronym stehtt für Distributed Application Object Storage und ist ein Open-Source-Software-definierter Objektspeicher, der den Datenaustausch zwischen HPC-Architekturen von Intel optimiert. Er wird bereits von dem Argonne National Laboratory*, dem LRZ und dem Joint Institute for Nuclear Research* (JINR) genutzt.

Der Daos-Support steht Intel-Partnern ab sofort als L3-Support-Angebot zur Verfügung und soll es ihnen ermöglicht, in Kombination mit ihren Dienstleistungen eine komplette schlüsselfertige Speicherlösung bereitzustellen. Zu den frühen Partnern für den neuen kommerziellen Support gehören neben Intels eigenen Datacenter Building Blocks auch HPE, Lenovo, Supermicro, Brightskies, Croit, Nettrix, Quanta und die RSC Group.

Artikelfiles und Artikellinks

(ID:47483310)