Suchen
Verloren im Labyrinth der IT-Begriffe? Hier finden Sie Definitionen und Basiswissen zu Rechenzentrums-IT und -Infrastruktur.

Rechnermonster für das Datacenter Was sind und wofür braucht man Mehr-Socket-Rechner?

| Autor / Redakteur: M.A. Jürgen Höfling / Ulrike Ostler

Viele Anwendungen im Rechenzentrum erfordern mittlerweile wahre Rechnermonstren: Zwei-, Vier- oder gar Acht-Socket-Systeme sind keine Seltenheit mehr.

Firma zum Thema

Für schwere Lasten braucht man eine gute Hebebühne, in der Logistik ebenso wie im Rechenzentrum.
Für schwere Lasten braucht man eine gute Hebebühne, in der Logistik ebenso wie im Rechenzentrum.
(Bild: Sabine_Kaufmann_pixelio)

Die Anwendungen in den Hochleistungsrechenzentren beanspruchen mittlerweile gigantische Rechenkapazitäten: für Simulationsrechnungen in Technik und Finanzwelt oder KI-Anwendungen hat das Datacenter nicht selten Billiarden von Gleitkommaoperationen in der Sekunde (Petaflops/s) bereitzustellen. Dabei muss gleichzeitig darauf geachtet werden, dass die dafür notwendigen Rechenmonster noch programmierbar bleiben, dass die Antwortzeiten auf den Übertragungswegen (Latenz) passen, dass die Maschinen nicht überhitzen und dass überhaupt der Energieverbrauch nicht jenseits von Gut und Böse ist.

Mit der früher üblichen ständigen Steigerung der Taktraten wäre diese Aufgabenstellung nicht zu leisten gewesen. Die Rechner wären allesamt abgeraucht. Möglich gemacht hat das moderne Hochleistungsrechnen in erster Linie die Multi-Kern-, Multi-Prozessor-Technologie mit ihren quasi-parallelen nebenläufigen Prozessen (Threads).

2-, 4- oder 8-Socket-Rechner

Mittlerweile gibt es schon CPU-Bausteine mit 64 Kernen und 128 Threads, zum Beispiel der „AMD Epyc 7742“. Die Kerne arbeiten dabei ihre jeweiligen Tasks simultan ab und zusätzlich wechselt jeder Kern noch zwischen zwei Threads so schnell hin und her, dass es wie Parallelverarbeitung aussieht.

Und wenn das alles immer noch nicht ausreicht, spendieren die Server-Hersteller auf der Hauptplatine des Servers noch eine zweite CPU mit noch einmal 64-Kernen und 128 Threads. Und wenn das immer noch nicht reicht, können es (auf weiteren Mainboards) auch vier oder acht CPU-Bausteine sein.

Solche 2-, 4- oder 8-Socket-Server haben alle bekannten Serverhersteller im Programm, um besonders rechen- und speicherintensive Arbeitslasten abarbeiten zu können. Das Spektrum reicht von den „Poweredge“-Maschinen des Marktführers Dell und den „Proliant Gen10“-Rechnern des Zweitplatzierten Hewlett-Packard Enterprise über die „NF5180M5“-Reihe des chinesischen Herstellers Inspur bis zu der „Primergy“- beziehungsweise „Primequest“-Serie von Fujitsu. Als Prozessorbausteine werden in den genannten Maschinen die Epyc-Reihe von AMD und die „Xeon Scalable“-Serien von Intel verbaut.

Hauptplatine (Ausschnitt) des Mehr-Socket-Rechners „NF5180M5“ von Inspur.
Hauptplatine (Ausschnitt) des Mehr-Socket-Rechners „NF5180M5“ von Inspur.
(Bild: Inspur)

Bei den Mehr-Socket-Maschinen handelt es sich um Rechner, bei denen die Hauptplatine zwei Prozessorfassungen („sockets“) aufweist. 4-Socket- oder 8-Socket-Server weisen je nach Gehäuse-Architektur zwei oder vier Hauptplatinen auf und benötigen dann entsprechend mehr „Kuchenbleche“, sprich mehr Höheneinheiten.

Eine Bemerkung am Rande: Oft wird „Socket“ im Deutschen als „Sockel“ und nicht wie oben als „Fassung“ übersetzt. Das entspricht zwar nicht der etablierten technischen Terminologie im Deutschen, hat sich aber mittlerweile eingebürgert.

Die verschiedenen Faktoren bei der Wahl der Rechner-Konfiguration

Wann soll oder muss man nun 1-Socket-Rechner durch Mehr-Socket-Maschinen ersetzen? Das ist keine triviale technische Frage und wird vermutlich häufig weniger technisch als vom Geldbeutel her entschieden (was nicht unbedingt schlecht ist!). Fakt ist: ein 1-Socket-Rechner benötigt gegenüber Mehr-Socket-Maschinen weniger Energie für den Betrieb und die Kühlung (zumindest in der Regel!), die Latenzzeiten sind geringer und oft lassen sich bei der Softwarelizensierung Kostenvorteile erzielen. Und es ergeben sich Platzvorteile, zumindest dann, wenn eine 1-Socket-Löung „Dichte-optimiert“ konzipiert ist, das heißt: viele Kerne auf möglichst kleinem Raum hat.

Die Für-und Wider-Beurteilung eines entsprechenden Server ist freilich von vielen Faktoren abhängig: von dem verwendeten Prozessor und der Anzahl der Kerne auf der CPU ebenso wie von der Speicherkapazität und den verfügbaren Speicherkanälen sowie dem zur Verfügung stehenden Platz und den erforderlichen Latenzwerten.

Von den Anwendungen her kann man keine pauschalen Aussagen für das Für-und-wider machen: Auch stark virtualisierte Umgebungen oder hybride Cloud-Lösungen lassen sich beispielsweise durchaus sinnvoll mit einem 1-Socket-Server betreiben, wenn er die richtige Prozessor-, Speicher- und Verbindungs-Architektur an Bord hat.

Schemazeichnung der Hauptplatine für die 4-Socket-Maschine von HPE
Schemazeichnung der Hauptplatine für die 4-Socket-Maschine von HPE
(Bild: Hewlett-Packard Enterprise)

Das oben angeführte Platzargument kann aber in bestimmten Fällen auch für den Einsatz eines Mehr-Socket-Systems sprechen, und zwar dann, wenn ein Höchstmaß von Rechenkapazität auf engstem Raum zur Verfügung stehen soll. Denn dann ist es eben günstiger, ein etwas größeres Rack mit einem Mehr-Socket-System aufzubauen als mehrere Racks mit jeweils einem 1-Socket-System.

Mehr-Prozessor-Server müssen intelligent programmiert werden

Obwohl die Entscheidung für 1-Socket oder Mehr-Socket-Systeme in der Regel nicht pauschal von den Anwendungen her entschieden werden kann, sondern nur anhand der Details dieser Anwendungen, gibt es andererseits doch auch Anwendungen, für die sich von vornherein eine Mehr-Socket-Lösung quasi aufdrängt. Simulationsrechnungen aller Art oder auch Deep-Learning-Anwendungen gehören zu dieser Spezies der eindeutigen Kandidaten für mehrere Sockets.

Trotzdem muss klar sein, dass Mehr-Socket-Maschinen nicht automatisch mehr bringen. Mit Mehr-Socket-Maschinen ergeben sich nämlich immer wieder diejenigen Optimierungsfragen, die seit alters her mit der Parallelisierung einher gehen. Typisch dafür ist der Zwiespalt, der entsteht, wenn zwei Prozessoren mit ihren Speichern und Speicherkanälen zur selben Zeit auf dieselben Daten zugreifen wollen. Dann bringt das „Mehr an Prozessoren“ meist nicht mehr an Leistung, sondern bremst sich unter Umständen selber aus.

Freilich sind solche Fälle nicht unbedingt häufig; auch lässt sich im Vorfeld eine solche Konfliktsituation erkennen. Der so genannte „Non-Uniform Memory Access (NUMA) kann im Übrigen ebenfalls dabei helfen, störende Interrupts zu reduzieren oder ganz zu vermeiden und dadurch die Latenzzeiten für die Anwendung im grünen Bereich zu halten. Nicht zuletzt sind mittlerweile Spezialbausteine wie der Optane DC-Persistent Memory-Speicher von Intel auf dem Markt, die im Zusammenspiel von Prozessor (in diesem Fall der Xeon Scalable) und Speichersystem die Latenzzeiten für 2-Socket-Systeme optimieren.

Mehr-Socket-System bei Bedarf mieten

Für immer mehr Anwendungen werden in der Zukunft Mehr-Socket-Maschinen sinnvoll oder gar unabdingbar sein. Insofern werden diese Monster in vielen Rechenzentrums-Umgebungen Standard werden, um Spitzenlasten zu bewältigen. Freilich sollte der Rechenzentrums-Betreiber intelligent auf vorhersehbare Peaks reagieren, ansonsten hat er Maschinen, die im Normalbetrieb sinnlos und kostenintensiv vor sich hindaddeln. Insofern dürfte es oft sinnvoll sein, Rechnerkapazitäten für den Spitzenbedarf, zum Beispiel ein Mehr-Socket-System, nicht auf Verdacht „on-premise“ zu installieren, sondern bei Bedarf als Dienstleistung zu mieten.

(ID:46597667)

Über den Autor