Das volle Potenzial

Was ist Rack-Scale?

| Autor / Redakteur: Otto Geißler / Ulrike Ostler

Ein Rack-Scale ist ein offenes Framework, das die Standards für das Erstellen logischer Server aus disaggregierten Pools von Speicher-, Netzwerk- und Rechen-Ressourcen definiert.
Ein Rack-Scale ist ein offenes Framework, das die Standards für das Erstellen logischer Server aus disaggregierten Pools von Speicher-, Netzwerk- und Rechen-Ressourcen definiert. (Bild: © djama - stock.adob.com)

Rack-Scale oder Rack-Scale-Design ist eine disaggregierte Rack-Architektur, die Software-orientierte Ansätze wie zum Beispiel Virtualisierung und Cloud-Computing ergänzt, indem sie für die jeweilige Aufgabe Hardware dynamisch und optimal kombiniert. Damit können Aufgaben rein Hardware-basiert über eine einzelne Konsole realisiert werden.

Datacenter sind in traditioneller Hinsicht große Hallen, die mit Racks aggregierter Server bevölkert werden. Das bedeutet, dass jeder Rechner hatte eine bestimmte Anzahl an Komponenten, zum Beispiel CPUs, NIC-Karten und Speichermodule, die physisch mit den Rechnern verbunden ist. Für den Fall, dass eine CPU sich für einen speziellen Prozess im Einsatz befindet und dieser Prozess nicht alle Speichermodule benötigt, werden Speicherplätze verschwendet.

Mit Rack-Scale beziehungsweise Rack-Scale-Design (RSD) können nun CPUs physisch und funktional von den restlichen Komponenten getrennt werden. Das bedeutet, dass jeder Prozess genau die Ressourcen verwendet, die er gerade benötigt. Die CPUs sind dann in der Lage, ohne Unterbrechung in einen Ressourcen-Pool aufgenommen zu werden. Dafür müssen die mit den bisher CPU-gebundenen Komponenten jedoch nicht entfernt werden, denn auch sie bleiben Teil des Ressourcen-Pools.

Effizienz im Fokus

Obwohl das RSD nicht selbst von Intel stammt, wird es von Intel kräftig am Markt gepusht. Die erste kommerzielle Implementierung wurde bereits im Jahre 2015 als Hyperscale-Datacenter-System 8000 von Ericsson auf dem Mobile World Congress (MWC) vorgestellt. Die RSD-Lösung von Ericsson vereinfacht das Komponenten-Pooling, eliminiert Engpässe und reduziert auch noch die Latenz. Mit dem neuen Paradigma des Rack-Scale-Designs ist jetzt die physische Nähe von Komponenten weniger von Bedeutung als ihre funktionale Beziehung.

Rack-Scale-Architekturen werden durch die Notwendigkeit angetrieben, Dichte und Konnektivität zwischen Servern zu steigern, während sich der Stromverbrauch und die Kosten reduzieren. Dadurch verbessert sich deutliche die Effizienz sowie der Grad der Automatisierung, die gerade für die Themen 5G, Big Data, Machine Learning, Echtzeit-IoT-Analyse, Cloud-Service-Provider (CSP) und anderen Anforderungen in Rechenzentren und Unternehmen dringend gebraucht werden.

Das Dilemma der Datacenter

Die Betreiber von Rechenzentren sind derzeit mit der Herausforderung konfrontiert, einerseits ausreichend Kapazität für die zunehmenden Anforderungen bereitzustellen und gleichzeitig Kapital- und Betriebskosten ökonomisch zu verwalten. So steigt der Bedarf an Rechenleistung und Datenspeicherkapazität hinsichtlich der Service Level Agreements (SLAs) in einigen Segmenten um 30 Prozent bis 40 Prozent pro Jahr.

Trotzdem bleiben Datacenter deutlich unter der potenziellen Leistung ausgelastet. Wenn sie einerseits nicht mit einer sehr hohen Auslastung arbeiten können und andererseits mit sich hochdynamisch ändernden Arbeitslasten zu kämpfen haben, werden Rechenzentren ernste Schwierigkeiten bekommen, kosteneffizient zu wirtschaften. Eine zusammensetzbare disaggregierte Infrastruktur im Sinne des Rack-Scale-Designs soll dieses Paradoxon für Rechenzentren lösen.

Das heißt, zusätzliche Flexibilität und Kostendämpfung entsteht, indem die heutigen Server mit ihren festen Anteilen an Rechen- und Speicherressourcen in ihre Bestandteile - Rechenkomponenten, Speicher, Beschleuniger beispielsweise - zerlegt werden und als „Pools“ (Gruppen) verfügbarer Ressourcen verwaltet werden.

Vorteile des Rack-Scale-Designs

  • Ressourceneffizienz durch höhere Auslastung und dynamische Workload-Optimierung.
  • Optimierte Leistung durch benutzerdefinierte Konfigurationen.
  • Komponenten können inkrementell, kostengünstig und flexibel hinzugefügt, entfernt und ersetzt werden.
  • CPU und DRAM können unabhängig voneinander aktualisiert, Beschleuniger hinzufügt oder SDD- und HDD-Speicher erweitert werden, während andere Komponenten beibehalten werden können.
  • Größere Flexibilität in der Anwendungsentwicklung, Bereitstellung und Lebenszyklusverwaltung.
  • Einsparungen bei Speicher, Netzteilen, Racks, Gehäusen, Lüftern, Akkupacks und anderen Komponenten können die Kosten für Refresh-Geräte um mindestens 40 Prozent reduzieren.
  • Mehr automatisiertes Infrastruktur-Management und effizienterer Personaleinsatz.
  • Durch die Integration in die vorhandene On-Board-Firmware und die Einbindung in das Life-Cycle-Management senken RSD-Lösungen die Gesamtbetriebskosten (TCO) erheblich.
  • OEM und ODM können Racks mit flexiblen Server-Konfigurationen bauen, die allen Industrie-Standards entsprechen, ohne dass eine Änderung der Hardware erforderlich ist.
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45287396 / Definitionen)