Cisco Datacenter University Cisco integriert GPUs in UCS-Systeme
Anbieter zum Thema
Bei der diesjährigen Veranstaltung „Datacenter University“ stellte Cisco aktuelle Neuerungen seiner Systemreihen „UCS-X“ und „Hyperflex“ vor. Außerdem berichtete ein preisgekrönter CIO von seinen Erfahrungen.

„Es freut mich ganz besonders, dass diesmal jemand aus dem Gesundheitswesen der TopCIO2022 in Österreich geworden ist“, sagte der preisgekrönte Christian Neubauer anlässlich seiner Präsentation während der Datacenter University. Er leitet den 40köpfigen IT-Bereich des Ordens „Barmherzige Brüder“ in Österreich, der Tschechei, der Slowakei und in Ungarn.
Den Orden gibt es schon seit dem 17. Jahrhundert. Seine Schwerpunkte sind Kranken- und Altenpflege, er gilt als ein Vorreiter des modernen Krankenhauswesens. Der Orden ist in 53 Ländern global vertreten. In Österreich betreiben die „Barmherzigen Brüder“ sieben Krankenhäuser, zwei Altenheime und sonstige Einrichtungen mit weiteren 754 Betten. Teilweise gehören die Einrichtungen zur kritischen Infrastruktur in Österreich.
Digitalen Impfpass "nebenbei" realisiert
Die IT der Barmherzigen Brüder betreibt in Österreich zwei Rechenzentren und bietet 1.150 Services an. Sie verwaltet ein gutes Petabyte (PB) Speicher und 4.700 Endgeräte. Bei der Digitalisierung sind die Barmherzigen Brüder schnell vorangeschritten. So gibt es schon seit zehn Jahren die digitale Patientenakte – in der Pandemie eine Voraussetzung für Anwendungen wie den digitalen Impfpass, die „quasi nebenbei“ (Neubauer) liefen.
Neubauer baute neben den durch die Pandemie zu bewältigenden Aufgaben ein zweites Rechenzentrum für die Organisation auf. Er installierte eine zertifizierte Hard- und Software-Umgebung für „SAP-HANA“ vor, die später auf S/4 weiterführen soll.
Cisco-Hardware, Verwaltung mit Intersight
Hardwareseitig entschied sich Neubauers Team unter anderem aufgrund der vorbestehenden Cisco-Infrastruktur für einen redundanten „Converged Node Hyperflex HX240“, der von „Cisco Intersight“ verwaltet wird. Intersight als Verwaltungsdach ermöglicht einfache Erweiterungen der Hyperflex-Architektur beispielsweise um „Cisco Flexpods“.
Außerdem kann auch vorhandene Storage von Netapp und Hitachi in die Gesamtlösung eingebunden werden. Das ist möglich, weil die gewählte Hardware vollständig in „Cisco ACI“ (Application-Centric Infrastructure) integriert ist. Als Software kam „VMware vSphere“ vorinstalliert. „Suse Linux für SAP HANA 5Y“ dient als Betriebssystem.
Da lag es nahe, auf der virtuellen Veranstaltungen auch die letzten Verbesserungen an Ciscos Hyperkonvergenz-Lösung Hyperflex. So wurden die Skalierungsmöglichkeiten erweitert: Ein Cluster kann jetzt bis zu 96 Knoten umfassen, ein Stretch-Cluster bis zu 32 Knoten pro Seite.
Hyperflex jetzt auch mit AMD Epyc-Prozessoren
Für die Betreiber einfach parallelisierbarer Applikationen dürfte es besonders interessant sein, dass Cisco jetzt auch die Core-starken „AMD-Epyc“-CPUs unterstützt. Gerade bei Anwendungen wie VDI (Virtual Desktop Infrastructure) entscheidet nämlich die Zahl der Cores darüber, wie reibungslos sie laufen.
Aber auch Cloud, Datenanalyse oder Hochleistungsrechnen profitieren. Michael Petry, Technical Solutions Architect: „Bei einigen Kunden, die Hyperflex mit AMD Epyc schon nutzen, verbesserten sich die Leistungen um zweistellige Prozentwerte.“
Besser unterstützt werden jetzt reine NVMe-Umgebungen: „HX M6 240 All-NVMe“ ist ein Intel-basierter Knoten für diesen Zweck. Er ist mit 40 Gogabit pro Sekunde (Gbit/s)-Vernetzung ausgerüstet, Fabric-Networking ist integriert.
Der Knoten hat einen „Optane“-Cache, die Kapazität wird über NVMe geliefert. Als Anwendungsfelder dafür kommen vor allem Aufgaben mit hohen Ein-/Ausgabe-Anforderungen und niedriger Latenz in Frage. Wahlweise lässt sich das System durch die Befüllung der Steckplätze auf höhere Storage- oder höhere Bandbreitenanforderungen zuschneiden.
iSCSI auf Hyperflex booten
Inzwischen können iSCSI-LUNs auf Hyperflex gehostet und gebootet werden. Das System unterstützt bis zu 32.768 iSCSI-LUNs und 128 Targets pro Cluster.
Auch Bare-Metal-Server lassen sich von iSCSI-LUNs auf Hyperflex ausgehend starten. Dabei kann sich der Server, der den Start-Befehl gibt, auch außerhalb des Hyperflex-Clusters befinden. Das funktioniert, egal, mit welchen Servern der Cluster ausgerüstet ist – eine Ausnahme bilden nur Stretched-Cluster.
Die iSCSI-Funktionen haben diverse Vorteile: So lässt sich jetzt iSCSI-Loadbalancing betreiben. Admins können eine Liste von IP-Adressen anlegen, die auf die iSCSI-Ressourcen zugreifen dürfen. Alle APIs sind bei Lieferung integriert, was die Automatisierung erleichtert.
Softwareverschlüsselung und eine Hyperflex-Minivariante für kleine Projekte
Der Sicherheit dient auch die Softwareverschlüsselung via HXDP. Die Technologie setzt AES-256 Bit und damit den derzeit stärksten gängigen kryptographischen Standard ein. Das Schlüssel-Management übernimmt für die gesamte Infrastruktur der Intersight-Softwareservice, so dass sich diese Lösung besonders für Infrastrukturen mit vielen kleineren Niederlassungen eignet, die wenig eigenes IT-Personal haben.
Im Hyperflex-„vCenter“-Plugin wurde das Lizenz-Managment runderneuert. Es ist jetzt auf Anhieb sichtbar, ob der Lizenzstand mit der Nutzungsrealität übereinstimmt. Zahlreiche neue Performance-Charts zeigen die Leistung auf verschiedenen Ebenen. Das Management von Netzwerkinstanzen, iSCSI-LUNS und -Targets übernimmt jetzt vCenter.
Außerdem gibt es mit „Hyperflex Express“ eine komplett neue Variante speziell für kleine und mittlere Projekte. Sie bestehen lediglich aus bis zu acht Knoten und Intersight als Management-Dienst, kommen also ohne die Module für die externe Kommunikation aus.
UCS-X wird für GPUs fit gemacht
Auch Ciscos aktuelle UCS-X-Serie konvergenter Systeme wurde aufgepeppt. Dazu gehört ein neuer „Fabric Interconnect“, ein neues „Inter Fabric Module“ für interne, schnelle Vernetzungen zwischen Server- und GPU-Einschüben, ein PCIe-4-Knoten für GPUs und eine neue VIC (Virtual Interface Card), die als Riser auf den neuen Knoten montiert werden kann.
Damit bringt Cisco die mittlerweile seit 2009 existierende Produktserie auf aktuellen Stand. Weil schon die kommende Generation von Intel-Grafikkarten Leistungen über 300 Watt hat, ist die UCS-X-Serie auf Flüssigkühlung vorbereitet.
„UCS verwischt die Grenze zwischen Blade- und Rack-System: Es kann manche Dinge, die eigentlich nur Rack-Systeme können“, sagte Ralf Eberhardt, Technical Solutions Architect dazu. Durch die neuen Vernetzungskomponenten wachsen insbesondere die Verbindungsoptionen.
Auf schnelle Ethernet-Varianten vorbereitet
Das System „Fabric Interconnect 6536“ bietet bei einer Höheneinheit 36 100-G-Ethernet-Ports. Vier davon leisten sogar 128 Gbit/s und unterstützen damit Fibre Channel bis 32 Gbit/s.
Diese vier Ports lassen sich entsprechend der genutzten FC-Bandbreiten in vier Kanäle aufspalten. Auch langsamere Ethernet-Geschwindigkeiten bis hin zu 1-GBit/s-Ethernet werden unterstützt. Rückwärtskompatibilität mit älteren Server- und anderen Modulen ist gegeben. Das neue Modul lässt sich mit Intersight ab der Version 4.2.2 managen.
Die ebenfalls neue „VIC-15000“-Serie besteht vorerst aus zwei Varianten für Blade- und Rack-Server. Sie bietet 16 PCIe-4-Kanäle und unterstützt maximal 200-G-Ethernet, ist also schon auf weitere Beschleunigungen vorbereitet. Unter anderem kommen die Protokolle NVMeoF, FC-NVMe und ROCEv2 mit. Die virtuellen Schnittstellen zu Fibre Channel und Ethernet lassen sich über Software konfigurieren.
Das 100-G-fähige IFM (Intelligent Fabric Module) „UCS 9108“ baut eine verlustfreie und deterministische I/O-Fabric zwischen „UCS 6536 Fabric Interconnect“ und den Compute-Knoten der X-Serie im Cisco-UCS-X-Chassis auf. Das Modul bietet 1,6 TBit/s Durchsatz. Es passt zu den VIC-Serien 14000 und 15000 und enthält den „Chassis Management Controller“ und erweiterte Sicherheitsfunktionen.
Rechenstarke Riser-Karten
Der neue PCIe-Knoten „x440p“ öffnet die Tür zu mehr GPU-Power im System. Er bietet zwei bis vier PCIe-Slots. Sie können über das FI-Modul und eine Mezzazine-Karte, entweder ein VIC oder Pass-Through, auf den Serverknoten mit dem links daneben befindlichen Rechenknoten kommunizieren. Später ist auch eine Flexibilisierung der Zuordnung denkbar, wie Eberhardt erklärt.
Zwei „Riser“-Card-Typen sind zur Rechenbeschleunigung verfügbar, jeweils bestückt mit Nvidia-GPUs: entweder mit zwei GPUs aus der „A“-Serie oder mit einer „T4“-GPU. Mit Mezzazine-Karten auf den Server-Knoten lassen sich damit maximal 24 T4 oder acht GPUs der A-Serie in einem System unterbringen. An einem Server können allerdings nur gleichartige GPUs hängen.
Diese Weiterentwicklung seines Konvergenzsystems kann man als weiteren Schritt Ciscos sehen, die datengetriebene Ökonomie durch entsprechende Systemumgebungen zu unterstützen. Dass dabei die Tür auch zur AMD-Welt geöffnet wird, begrüßen sicher viele leistungshungrige Anwender.
(ID:48431293)