Die Intel Xeon Scalable Prozessoren Intel-Edelmetall für Server
Bis zu 28 Kerne, AVX 512 und Mesh-Architektur statt Ringbus. Das sind einige der Neuerungen von Intels neuen Xeon-Prozessoren mit „Skylake-SP“-Architektur. Intel hat auch die Nomenklatur geändert: Statt „E3“, „E5“ und „E7“ gibt es nun Bronze, Silber, Gold und Platin.
Anbieter zum Thema

Intel hat die Ablösung für seine bisherigen Xeon-Prozessoren auf „Broadwell“ fertig. Die unter dem Namen Skylake-SP entwickelten CPUs tragen offiziell die Bezeichnung „Intel Xeon Scalable Prozessoren“, was wohl darauf hinweisen soll, dass alle neu präsentierten Xeon-Modelle auf den selben Sockel „P3“ mit 3647 Pins passen. Intel gliedert die neuen Xeons in die Klassen Bronze, Silber, Gold und Platinum.
Die Bronze- und die Silber-Modelle sind nur auf Dual-Socket-Mainboards lauffähig, die Gold-Modelle auch in Quad-Socket-Systemen und die Platinum-Varianten schließlich auch auf Systemen mit acht Prozessorsockeln. Der Unterschied zwischen Bronze und Silber liegt darin, dass den Bronze-Modellen Hyperthreading und Turbo-Boost-2 fehlen.
Im Gegensatz zu den jüngst vorgestellten Core-X-Prozessoren basieren alle neuen Xeon-Modelle auf der selben Skylake-SP-Architektur. Hergestellt werden die CPUs im weiterentwickeltem 14-Nanometer-Prozess von Intel.
Gegenüber den Xeons der direkten Vorgängergeneration sollen die Skylake-SP-Prozessoren einen durchschnittlichen Leistungszuwachs um den Faktor 1,65 liefern. Im Vergleich zu einem vier Jahre alten Xeon-System auf „Sandy-Bridge„“-Basis soll ein neuer Xeon-Server der selben Klasse sogar die vierfache Leistung liefern. Um das zu erreichen, hat Intel bei Skylake-SP auch einigen Aufwand betrieben.
Netz statt Ring: Die Mikroarchitektur
Bei Skylake-SP bekommt man nun bis zu 28 Cores in den Platinum-Spitzenmodellen. Bei Broadwell-SP war noch bei 24 Cores das Ende der Fahnenstange erreicht. Da das mit „Nehalem-EX“ eingeführte Ringbus-Konzept schon hier an seine Grenzen stieß – die CPU koppelte zwei Ringe mit jeweils 12 Cores zusammen – nutzt Intel nun für die Verbindung der Cores mit den beiden Speichercontrollern, den PCI-Express-Controllern und den UPI-Links eine Mesh-Struktur.
Sie ist prinzipiell auch für mehr als 28 Cores geeignet, wie bereits Intels aktueller HPC-Prozessor „Xeon Phi“ zeigt: Bei „Knights Landing“ sind 72 Cores über ein Mesh verbunden, während AMD bei seinem „Epyc“ mit 32 Cores aufwartet. Sie sind allerdings in vier Einheiten mit je acht Prozessorkernen aufgeteilt.
Geändert hat Intel auch die Cache-Architektur. Bei den Skylake-SP-Xeons ist der Level-2-Cache pro Kern nun statt 256 Kilobyte ein Megabyte (MB) groß. Die zusätzlichen 768 Kilobyte hat Intel quasi an den ursprünglichen Skylake-Core angeflanscht.
Der gemeinsam genutzte Level-3-Cache ist dafür pro Core bei den meisten Modellen nur noch 1,37 MB groß. Einige Modelle mit einer geringeren Anzahl von Kernen verfügen aber auch über deutlich größere L3-Caches mit Größen von bis zu 4,125 MB pro Core.
Bei Broadwell lag die minimale Größe bei 2,5 MB. Er ist dafür nun aber bei Skylake-SP exclusive. Von der Änderung der Cache-Architektur mit dem größeren schnellen L2-Cache sollen laut Intel vor allem typische Datacenter-Anwendungen profitieren, etwa Workloads mit vielen Threads. Auch die Performance oder die Zahl virtueller Maschinen, die auf dem Server laufen können, sollen steigen.
Daneben hat Intel gegenüber Broadwell noch einige Optimierungen an der Mikroarchitektur vorgenommen, die so etwa zehn Prozent mehr Integer-Befehle pro Takt verarbeiten kann. Einen deutlichen Geschwindigkeitsschub soll AVX-512 bringen. Für Anwendungen, die Intels neue AVX-512-Instruktionen verwenden, verspricht der CPU-Hersteller eine 60 Prozent höhere Performance als sie mit den bisherigen 256-Bit-AVX-Befehlen möglich war.
AVX-512 ist einer der Punkte, bei dem es Unterschiede zwischen den verschiedenen Xeon-Klassen gibt: Die Bronze-, Silber- und Gold-Modelle der Serie 5100 verfügen nur über eine Fused-Multiply-Add-Einheit (FMA) pro Kern, bei den Gold-6100- und den Platinum-Modellen ist eine weitere FMA-Unit an den Core angeflanscht. Allerdings werden die Kerne bei einigen besonders aufwändigen AVX-512-Instruktionen in einen noch niedrigeren Takt geschaltet, als bisher.
Speicheranbindung und UPI statt QPI
Die beiden DDR4-Speicher-Controller der Skylake-SP-Prozessoren verfügen nun über jeweils drei Speicherkanäle, die bei Platinum und den Gold-6100-Modellen auch DDR4-2.666-Speicher unterstützen. Gold-5100- und Silber-Prozessoren sind hier auf DDR4-2.400 limitiert, die Bronze-Prozessoren auf DDR4-2.133. Unterstützt werden zwei DIMMs pro Kanal. AMD Epyc verfügt über insgesamt acht Speicherkanäle und maximal zwei TB RAM und ist hier also weiterhin im Vorteil.
Die maximale Größe des Speichers bei den neuen Xeon-Prozessoren hängt vom konkreten Prozessormodell ab: Bei Platinum und Gold gibt es spezielle Modelle, die bis zu 1,5 TB RAM unterstützen, die Regel sind 768 GB pro Sockel.
Punkten kann Intel dagegen bei der Anzahl der Prozessoren pro Mainboard: Während AMD maximal zwei CPUs unterstützt, sind mit den Platinum-Xeons Systeme mit bis zu acht Prozessoren möglich. Für die Verbindung zwischen den Prozessoren verwendet Intel mit „Ultra Path Interconnect“ (UPI) eine neue Technik als Ablösung für „Quick Path Interconnect“ (QPI).
UPI-Links sollen laut Intel mit weniger Energie auskommen und auch eine höhere Übertragungsleistung liefern. Xeon Bronze, Silber und Gold-5100 verfügen über zwei UPI-Links, Gold-6100 und Platinum über drei UPI-Links. Mit drei Links lassen sich auch schnellere Quad-CPU-Verbindungen mit Ring und Crossbar realisieren. Die Geschwindigkeit der UPI-Links ist bei Xeon Bronze und Silber auf 9,6 GT/s beschränkt, Xeon Gold und Platinum können 10,4 GT/s übertragen.
Der PCI-Express-Controller ist bei Skylake-SP nicht mehr an einer Stelle konzentriert, sondern auf drei mit dem Mesh verbundene Einheiten mit jeweils 16 PCI-Express-3.0-Lanes aufgeteilt. Damit ist ein Flaschenhals im System beseitigt. Alle neuen Xeon-Prozessoren verfügen über 48 Lanes. Eine der drei PCI-E-Einheiten ist zudem noch für die Verbindung über vier DMI3-Lanes zum Chipsatz zuständig.
Chipsatz schnellem Netzwerk und Kryptografie-Beschleunigung
Der zweite Bestandteil der „Intel Purley“-Plattform ist neben dem Skylake-SP-Prozessor der Chipsatz, den Intel auf den Codenamen „Lewisburg“ getauft hat. Von ihm gibt es sechs verschiedene Modellvarianten mit unterschiedlichem Funktionsumfang. Das Basismodell ist der C621, der neben der Grundausstattung mit 20 PCIe-3.0-Lanes und 24 High-Speed-I/O-Lanes (HSIO) über vier GBit-Ethernet-Ports verfügt.
Die (HSIO)-Ports können vom Mainboard-Hersteller sowohl für SATA- als auch für USB-3.0-Ports verwendet werden. PCEe-SSDs und Intels eigene „Optane“-Beschleuniger werden direkt über PCIe am Prozessor angebunden. Mit „Volume Management Device“ ist nun ohne Third-Party-Controller ein Hot-Swap von NVMe-SSDs möglich.
Bei den höherrangigen Chipsatz-Modellen kommen dann noch zwei oder vier 10-GbE-Ports und ab dem „C625“ die „Intel Quick Assist“-Technologie dazu. Mit ihr können kryptografische Workloads beschleunigt und komprimiert werden. Der Chiphersteller nennt als Anwendungsbereiche neben der Verschlüsselung von Daten auch VPN, sicheres Routing oder Storage-Anwendungen.
Zusätzliche Sicherheit für die Xeon-Server selbst sollen die „Intel Memory Protection Extensions“, ein erweiterter Boot Guard und BIOS Guard 2.0 bringen. Die Xeon-Spitzenmodelle der Gold-6100- und Platinum-Klasse bieten zudem Intels Run-Sure-Technology mit zusätzlichen RAS-Features.
Speziell für HPC-Anwendungen bietet Intel bei Gold- und Platinum-Prozessoren spezielle F-Varianten mit integriertem „Omni-Path Architecture Host Fabric Interface“ an. Diese 100-GBit-Hochgeschwindigkeitsverbindung mit speziellen Kabeln und Switches dient zum Aufbau massiver Cluster mit niedriger Latenz.
(ID:44791426)