60 Jahre Leibniz Rechenzentrum Die LRZ-Zukunft steht auf Exascale-, KI- und Quantencomputing

Von Ulrike Ostler |

Anbieter zum Thema

Am 14. Juli hat das Leibniz-Rechenzentrum (LRZ) der Bayerischen Akademie der Wissenschaften sein 60jähriges Bestehen gefeiert. Das Hochleistungsrechenzentrum, das unter anderem den Supercomputer „SuperMUC“ beherbergt ist der IT-Dienstleister der Münchner Universitäten und bayerischen Hochschulen sowie Kooperationspartner wissenschaftlicher Einrichtungen in Bayern, Deutschland und Europa. Doch Alter hat in der IT nur bedingt Wert. Wie geht es weiter?

Zum 60sten Geburtstag des Leibniz Rechenzenzentrum (LRZ) gab es Torte.
Zum 60sten Geburtstag des Leibniz Rechenzenzentrum (LRZ) gab es Torte.
(Bild: Vogel IT-Medien GmbH)

Heute bauen Wissenschaftler am ersten Quantencomputer und an Exascale-Technik. Doch los ging es 1962. Das LRZ, das derzeit knapp 300 Mitarbeiter beschäftigt, startete – damals noch als „Akademie-Rechenzentrum“ in der Richard-Wagner-Straße 14 in München – als IT-Dienstleister der beiden Münchner Universitäten. Das Zentrum bot seine Services aber schnell auch Instituten und Hochschulen jenseits der Stadtgrenzen an.

So baute es 1977 das erste Fernzugriffsnetz, aus dem das Münchner Wissenschaftsnetz (MWN) und viele neue Forschungsservices entstanden. In den 80er Jahren konnte das Zentrum auf eine der ersten Anbindungen an das Deutsche Wissenschaftsnetz (DFN) verweisen und wurde zu einem Hochleistungsrechenzentrum ausgebaut. In den 1990er Jahren wuchs das LRZ zu einem Supercomputing-Zentrum von internationalem Rang.

2006 zog das Akademieinstitut auf den Forschungscampus Garching. 2012 schaffte es der „SuperMUC“ als erster heißwassergekühlter Supercomputer auf einen Spitzenplatz der Top-500-Liste: Mit mehr als 3 Petaflops Spitzenrechenleistung, belegte er in dem am 18.06.2012 veröffentlichten Ranking Platz 4 weltweit und Platz 1 in Europa.

Bildergalerie
Bildergalerie mit 27 Bildern

Meilensteine

In der 52. Liste der Top500, die Mitte 2018 herauskam, schaffte der damals noch nicht ganz vollständig vermessene „SuperMUC-NG“, kurz für Next Generation, theoretische 30,9 PetaFlops und erreichte mit 19,5 Petaflops im Linpack-Benchmark den achten Platz.

Akademiepräsident Thomas O. Höllmann, sagte beim Festakt der 60-Jahr-Feier: „Die außerordentliche Entwicklung des Leibniz-Rechenzentrums der Bayerischen Akademie der Wissenschaften basiert auf einem engen Zusammenspiel von breit angelegter Grundlagenforschung und anwendungsbezogener Umsetzung. Im Hinblick auf seine Innovationsfähigkeit ist das LRZ eigentlich ein permanentes Startup, das stets auf der Höhe der Zeit ist und beweist, dass Kreativität und Effizienz im Laufe von sechzig Jahren nicht nachlassen müssen, sondern – ganz im Gegenteil – noch zunehmen können.“

Heute widmet sich das LRZ im Bereich „Future Computing“ schwerpunktmäßig neu aufkommenden Technologien, Künstlicher Intelligenz und Machine Learning sowie Quantencomputing. So ist der erste deutsche Quantendemonstrator in Arbeit und ein Exascale-Supercomputer für Bayern ist beschlossene Sache. Außerdem gibt es ein „CS-2“-System von Cerebras Systems mit „HPE Superdome Flex“. Es wurde speziell für Verfahren der Künstlichen Intelligenz (KI) entwickelt und mit dem weltweit größten Chip ausgestattet.

Dieter Kranzlmüller, Leiter des LRZ, sagt dazu: „Unsere Mission am LRZ bleibt unverändert: Wir bauen IT-Infrastrukturen für Wissenschaft und Forschung und bleiben ein verlässlicher Partner. Aber was wir heute erreicht haben, sollten wir morgen noch besser machen, getreu unserem Motto: Zukunft bleibt Programm.“

Leistung im Cluster-Maßstab auf einem einzigen Chip

Was Cerebras liefert, sieht anders aus und werkelt anders als Rechner, die sonst in einem Rechenzentrum stehen, selbst in einem Hochleistungs-Datacenter. Das Herzstück eines CS-2-Systems ist die „Wafer Scale Engine“ der zweiten Generation (WSE-2), ein matt golden schimmernder Prozessor, der so groß ist wie ein Essteller.

2018 ertsmals vorgestellt: Die „Wafer Scale Engine 2“ (WSE-2) von Cerebras - ein quadratischer TSMC-Chip mit Wasserkühlung und 850.000 Kernen.
2018 ertsmals vorgestellt: Die „Wafer Scale Engine 2“ (WSE-2) von Cerebras - ein quadratischer TSMC-Chip mit Wasserkühlung und 850.000 Kernen.
(Bild: Cerebras)

Auf den etwa 46.000 Quadratmillimetern Silizium sammeln sich 2,6 Billionen Transistoren und 850.000 Rechenkerne, die speziell für Verfahren von KI entwickelt wurden, außerdem gleichmäßig verteilte Speicher, die bis zu 40 Gigabyte Daten fassen, sowie schnelle Verbindungen für deren Transport über die Platte mit 220 Petabyte pro Sekunde. So kann WSE-2 während der Ausführung alle Parameter von vielschichtigen, neuronalen Netzen auf einem Chip halten, was die Rechenzeit und Datenverarbeitung verkürzt.

Ein Größenvergleich
Ein Größenvergleich
(Bild: Cerebras)

Der Prozessor liefert also die Rechenleistung von mehreren Dutzend bis Hunderten von Grafikverarbeitungseinheiten (GPU) oder mehr. So kann ein C-2-System, das weniger als ein Rack groß ist, innerhalb von Minuten oder Stunden Antworten erarbeiten, die auf großen Multi-Rack-Clustern mit herkömmlichen Allzweckprozessoren Tage, Wochen oder länger dauern würden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Cluster-Stärke in Kühlschrankgröße - so beschreibt Hersteller Cerebras ein „CS-2“-System.
Cluster-Stärke in Kühlschrankgröße - so beschreibt Hersteller Cerebras ein „CS-2“-System.
(Bild: Cerebras)

Mit 15 Units und einer Spitzenleistung von 23 Kilowatt bietet ein CS-2-System also die Leistung eines ganzen Raums voller Server in einem einzigen Gerät von der Größe eines Minikühlschranks, weil die Einheiten zu zweit oder zu dritt in einem 42Unit/46Unit-Rack zusammengefasst werden können. Laut Hersteller Cerebras liefern sie „die derzeit höchste Rechenleistung für Künstliche Intelligenz“.

Der Vorteil für die Nutzer ist nicht nur die enorme Leistung, sondern durch die Bereitstellung von Rechenleistung in Cluster-Größe in einem einzigen Gerät ist KI-gestützte Forschung möglich, zu einem Bruchteil der Kosten, die bei vergleichbaren Installationen anfallen würden. Kunde ist neben dem Leibniz-Rechenzentrum auch das European Parallel Computing Center (EPCC), das Lawrence Livermore National Laboratory, das Argonne National Laboratory (ANL), das National Center for Supercomputing Applications (NCSA) und das Pittsburgh Supercomputing Center (PSC).

Das LRZ will mit dem CS-2-Rechner in seinem KI-Supercomputer, der jetzt ganz frisch in Betrieb ist, Innovationen und wissenschaftliche Entdeckungen in Deutschland beschleunigen. Wie Professor Kranzlmüller als Direktor des LRZ erläutert, sei zu beobachten, dass sich der Bedarf an KI-Rechnern bei den LRZ-Nutzern alle drei bis vier Monate verdoppele. „Durch die hohe Integration von Prozessoren, Speicher und On-Board-Netzwerken auf einem einzigen Chip ermöglicht Cerebras eine hohe Leistung und Geschwindigkeit. Das verspricht deutlich mehr Effizienz in der Datenverarbeitung und damit einen schnelleren Durchbruch wissenschaftlicher Erkenntnisse.“

Anwendungen für CS-2

Der Bayerische Staatsminister für Wissenschaft und Kunst Markus Blume, der bei der 60-Jahr-Feier anwesend war, bemerkt: „Manchmal kommt es eben doch auf die Größe an – vor allem, wenn es um die Verarbeitung größter Datenmengen geht.“ Zu den möglichen Use Cases zählen die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP), die medizinische Bildverarbeitung mit innovativen KI-Algorithmen zur Analyse medizinischer Bilder sowie die numerische Strömungsmechanik (Computational Fluid Dynamics, CFD) zur Verbesserung des Verständnisses in Bereichen wie Luft- und Raumfahrttechnik sowie Fertigung.

Andrew Feldman, CEO und Mitbegründer von Cerebras Systems, sagt: „Wir haben Cerebras gegründet, um die Zukunft des Computing zu revolutionieren. Wir sind stolz darauf, mit dem LRZ und HPE zusammenzuarbeiten, um der bayerischen Forschungscommunity Zugang zu KI der Spitzenklasse zu verschaffen. Diese wird es ihnen ermöglichen, neue Hypothesen zu testen, große Sprachmodelle zu trainieren und letztlich die wissenschaftliche Forschung voranzutreiben.“

Bisher kommt das Cerebras CS-2-System in einigen US-amerikanischen Forschungseinrichtungen zum Einsatz. Die Kombination aus HPE Superdome Flex Server und dem Cerebras CS-2-System ist in dieser Kombination in Europa zum ersten Mal verfügbar.

In Kombination mit dem Superdome

Der HPE Superdome Flex Server gilt als modular und skalierbar, und verfügt über spezielle Funktionen für große In-Memory-Verarbeitungen, die für die Auswertung riesiger Datenmengen erforderlich sind. Darüber hinaus sind die spezifischen Vor- und Nachbearbeitungsfunktionen des HPE Superdome Flex Servers für das Training und die Inferenz von KI-Modellen ideal.

Der HPE Superdome Flex Server komplettiert die CS-2 und bietet zusätzlich große Speicherkapazitäten und eine enorme Skalierbarkeit der Rechenleistung. So ist das integrierte System ideal abgestimmt auf die riesigen, datenintensiven ML-Projekte, die zu den klassischen Anwendungsfällen des Cerebras Systems zählen. Außerdem plant und verwaltet der HPE Superdome Flex Server das System entsprechend der Anforderungen verschiedener Anwendungen und ermöglicht den Zugriff via Cloud. Darüber hinaus enthält der HPE Superdome Flex Server einen Software-Stack mit Programmen zur Erstellung von KI-Verfahren und -Modellen.

Bildergalerie
Bildergalerie mit 27 Bildern

Zusätzlich zu Anwendungsfällen aus dem KI-Umfeld wird das Cerebras/HPE-System auch für traditionellere High-Performance Computing (HPC) Use Cases in Betracht gezogen, wenn die spezielle Rechenarchitektur den Eigenschaften der Anwendung entgegenkommt.

„Die Zukunft des Computings wird komplexer, die Systeme werden heterogener und auf spezifische Anwendungen abgestimmt. Wir sollten aufhören, in HPC- oder KI-Systemen zu denken“, sagt Laura Schulz, Head of Strategy am LRZ. „Auf CPU-basierten Systemen wie dem SuperMUC-NG funktionieren KI- Verfahren, und umgekehrt können High Performance Computing-Algorithmen große Leistungssteigerungen auf Systemen wie Cerebras erzielen. Wir arbeiten kontinuierlich daran, dass sich unsere Nutzerinnen und Nutzer auf ihre Forschung konzentrieren können – ganz egal, ob die zugrundeliegende Infrastruktur auf HPC-, KI- oder Quantentechnologie basiert.“

Die Bemühungen des LRZ in Bezug auf Quantencomputing bezieht sich zunächst auf die Integration eines Quantenprozessors in die LRZ-Supercomputer.
Die Bemühungen des LRZ in Bezug auf Quantencomputing bezieht sich zunächst auf die Integration eines Quantenprozessors in die LRZ-Supercomputer.
(Bild: LRZ)

Quantencomputing im LRZ

Auch das LRZ beteiligt sich am Rennen um einen wettbewerbsfähigen Quantencomputer. Der Anspruch: „Made in Germany“. Geführt vom deutsch-finnischen Start-up IQM wird der Forschungsverbund „Quantencomputer-Erweiterung durch Exascale-HPC (Q-Exa)“ demnächst die Arbeit mit einem Quantencomputer-Demonstrator beginnen. Wie die Bilder demonstrieren, ist die Arbeit am Quantencomputer bereits weit fortgeschritten..

Rekord-Finanzierungsrunde: IQM erhält 128 Millionen Euro

Maximilian Höb vom LRZ erläutert den Aufbau des IQM-Computers vor Ort.
Maximilian Höb vom LRZ erläutert den Aufbau des IQM-Computers vor Ort.
(Bild: Ulrike Ostler)

IQM Quantum Computers (IQM), spezialisiert auf den Bau supraleitender Quantencomputer, hat 128 Millionen Euro in einer Series-A2-Finanzierungsrunde eingesammelt. Lead-Investor ist Europas größter Climate-Tech-Wagniskapitalgeber World Fund aus Berlin. Durch den Abschluss wird diese Finanzierungsrunde zur größten, die ein europäisches Unternehmen für Quantencomputer bisher erhalten hat.

Der deutsche IQM-Gründer und CEO Dr. Jan Goetz „Diese Finanzierungsrunde zeigt, wie wichtig unsere Mission ist: Quantencomputer für das Wohlergehen der Menschheit zu entwickeln. Sie zeigt auch das Vertrauen in unser Geschäftsmodell und in die Fähigkeit unseres Teams, die Zukunft der Quantentechnologie zu gestalten.“ Mit dem Geld wolle IQM mit Büros unter anderem im finnländischen Espoo und München seine führende Rolle in Europa weiter ausbauen und internationalisieren.

Die Finanzierung folgt auf eine Series-A1-Finanzierung in Höhe von 39 Millionen Euro 2020 und beinhaltet den Anfang 2022 angekündigten Risikokredit der Europäischen Investitionsbank (EIB) in Höhe von 35 Millionen Euro. An der Runde beteiligten sich Bayern Kapital, EIC Accelerator, OurCrowd, QuIC SPV, Tofino und Varma sowie die bestehenden Investoren MIG Fonds, Tesi, OpenOcean, Maki.vc, Matadero QED, Vsquared, Salvia GmbH, Santo Venture Capital GmbH und Tencent.

Europäischer Pionier der Quantentechnologie

Gegründet wurde IQM 2018 und mittlerweile ist das Unternehmen das einzige europäische, das vollständige Quantensysteme liefert. Dabei verfolgt IQM eine innovative Co-Design-Strategie, bei der es eng mit Industriekunden zusammenarbeitet, um anwendungsspezifische Prozessoren zu entwickeln.

Laut der Boston Consulting Group (BCG) könnte Quantentechnologie in den kommenden 15 bis 30 Jahren weltweit einen Wert von bis zu 850 Milliarden Dollar schaffen, wenn sie skaliert und die Genauigkeit und Stabilität verbessert wird. Quantencomputer sind eine Grundlagentechnologie, die für bestimmte Berechnungen extreme Geschwindigkeitsvorteile gegenüber jedem Supercomputer hat. Sie hat großes Potential für Bereiche wie Arzneimittelforschung, Verschlüsselung und das präzisere Vorhersagen von Bewegungen auf Finanzmärkten.

Ziel von IQM ist seit der Gründung, mit der eigenen Technologie zum gesellschaftlichen Fortschritt beizutragen, wozu auch ein Beitrag zur Bewältigung der Klimakrise gehört. Für Quantencomputer gibt es hier großes Potenzial, weil sich mit ihr Lösungen modellieren lassen, die mit der heutigen Rechenleistung klassischer Computer nicht möglich sind. Laut McKinsey kann mit Hilfe von Quanteninformatik entwickelte Klimatechnologie die CO2-Emissionen bis 2035 um sieben Gigatonnen pro Jahr reduzieren.

Die Teile, die goldig schimmern, haben tatsächlich eine güldene Oberfläche - auch eine der Hüllen für den Kryostat. Weltweit gibt es drei Hersteller, die diesen 'Kühlschrank' für Quantencomputer bauen. Das LRZ hat sich für Blue Fors aus Finnland entschieden. Um High Performace Computing und Quantencomputing miteinander harmonieren zu lassen, ist noch viel Arbeit zu tun. Zwei IQM-Mitarbeiter werden dauerhaft vor Ort sein.
Die Teile, die goldig schimmern, haben tatsächlich eine güldene Oberfläche - auch eine der Hüllen für den Kryostat. Weltweit gibt es drei Hersteller, die diesen 'Kühlschrank' für Quantencomputer bauen. Das LRZ hat sich für Blue Fors aus Finnland entschieden. Um High Performace Computing und Quantencomputing miteinander harmonieren zu lassen, ist noch viel Arbeit zu tun. Zwei IQM-Mitarbeiter werden dauerhaft vor Ort sein.
(Bild: Ulrike Ostler)

Das Potenzial der Technologie von IQM liegt zum Beispiel in der Optimierung von Energienetzen oder der Klimamodellierung. Das Unternehmen betreibt bereits Grundlagenforschung für deutlich bessere Akkus sowie an völlig neuen Methoden für das Design von Materialien.

Eine Hauptkennzahl des Lead-Investors World Fund bei seinen Investitionen ist das Climate Performance Potential (CPP). Die Unternehmen und Technologien, in die investiert wird, sollen das Potenzial haben, bis 2040 jährlich jeweils mindestens 100 Millionen Tonnen CO2-Emissionen zu vermeiden. Die CPP-Berechnungen des Fonds zeigen, dass die Technologie von IQM allein aufgrund verbesserter Batterieleistung und -nutzung das Potenzial hat, diese Schwelle zu überschreiten.

Das Projekt ist Teil der Fördermaßnahme „Quantencomputer-Demonstrationsaufbauten“, die durch das Konjunktur- und Zukunftspaket der Bundesregierung ermöglicht wird. In diesem Kontext investiert das BMBF rund 1,1 Milliarden Euro bis 2025 in die Förderung der Quantentechnologien in ihrer gesamten Breite.

Aktuelle Quanten-Projekte mit Beteiligung des LRZ

Allein im Quantencomputing ist das LRZ an elf unterschiedlichen Projekten zur Erforschung der neuen Prozessoren, zur Entwicklung von Software-Stacks und Programmierumgebungen sowie zur Integration des Quanten- und Supercomputing beteiligt:

  • Quantencomputer-Erweiterung durch Exascale-HPC, Q-Exa: Mit Mitteln des BMBF hat das LRZ einen Quantenprozessor mit 20 Qubits von IQM beschafft. Er soll mit Unterstützung von Unternehmen in die nächste Supercomputing-Generation integriert werden.
  • Digital-analoge Quantencomputer, DAQC: Das Bundesministerium für Bildung und Forschung (BMBF) fördert den Aufbau und die Integration eines supraleitenden Quantensystems, das digitales und analoges Quantencomputing mischt. Dabei kooperiert das LRZ mit den Technologieunternehmen IQM, Infineon und ParityQC, außerdem mit dem Forschungszentrum Jülich und der Freien Universität Berlin. Ziel ist ein digital-analoger Prozessor mit Kalibrier- und Steuerungsmechanismus, der als Beschleuniger in eine HPC-Umgebung integriert wird.
  • Munich Quantum Valley, MQV: Als Standort für Spitzentechnologie fördert Bayern das Quantencomputing und die Ausbildung von Spezialisten. Zum MQV haben sich LRZ und Walther-Meißner-Institut, die Ludwig-Maximilian-Universität und die Technische Universität München, die Friedrich-Alexander-Universität Erlangen-Nürnberg, die Fraunhofer- und die Max-Planck-Gesellschaften sowie das Deutsche Zentrum für Luft- und Raumfahrt zusammengeschlossen. Das LRZ engagiert sich in den Projekten Q-DESSI und QACI: Dabei soll ein Software-Stack für Quantencomputer samt Programmierumgebung entstehen, außerdem die Anbindungen von Quantensystemen an Supercomputer.
  • Munich Quantum Valley Quantum Computers, MUNIQC-SC und MUNIQC-Atoms sind ebenfalls Initiativen des MQV. Geplant wird die Entwicklung von Quantenprozessoren: ein 100-Qubit-Prozessor mit supraleitenden Schaltkreisen sowie ein 400-Qubit-Prozessor auf Basis von Strontium-Atomen. Mit den Computern sollen Programmierumgebungen entstehen, die eine Integration in HPC-Ressourcen ermöglicht.
  • Bayerisches Kompetenzzentrum für Quantensecurity und Data Science, BayQS: Mit Fraunhofer-Instituten und den Münchner Universitäten erarbeitet das LRZ Plattformen und Software zur Nutzung von Quantencomputing.
  • Quantum-enabling Services und Tools für industrielle Anwendungen, QuaST: Gefördert vom Freistaat Bayern beschäftigt sich das BayQS-Konsortium außerdem mit Anwendungssoftware und Qualifizierungsangeboten.
  • Efficient Quantum Curcuit Simulation on Exascale System, QuantEx: Bereits 2020 gestartet, lotete dieses Projekt des Irischen Supercomputing-Zentrums ICHEC und des LRZ aus, wie die Anzahl von Qubits und ihren Verschränkungen auf die Rechenkraft wirkt.

Der nächste Supercomputer

Derzeit hat weltweit nur ein Forschungsinstitut ein offiziell durch die Top500 bestätigtes Exascale-System (siehe: „ISC High Performance 2022 in Hamburg; HPE-Superrechner erreicht mit AMD-Prozessoren erstmals Exascale-Rechenleistung “) Dieses trägt die Bezeichnung „Frontier“ und gehört zum US-amerikanischen Oak Ridge National Laboratory. Es erbringt nach Angaben von Hersteller HPE und Erst-Anwender 1,1 ExaFlops Leistung, also 1,1 Trillionen (10 hoch 18) Gleitkomma-Operationen mit 64-Bit Genauigkeit in der Sekunde.

Doch wie LRZ-Leiter Kranzlmüller ausführt, sind die Investitionen in einen Exascale-Computer am LRZ bereits bewilligt: „Für den nächsten Supercomputer setzen wir auf ein Beschaffungsverfahren namens Innovationspartnerschaft, werden also mit Unternehmen Computertechnik weiterentwickeln, Prototypen bauen und diese testen, ob sie sich für den Einsatz in Wissenschaft und Forschung eignen“, führt er aus. „Wir dürften weltweit unter den Ersten sein, die im HPC auf diese Methode setzen. Der nächste Supercomputer wird also iterativ und in mehreren Phasen entstehen, Kriterien für die Zusammenarbeit sowie für erste technische Komponenten stehen, der erste Bewerbungsprozess läuft.“

Bildergalerie
Bildergalerie mit 27 Bildern

Ein gewichtiger Vorteil dieses Co-Designs sei es, dass schon frühzeitig neue Technologien evaluiert und ausprobiert werden könnten, etwa wie bestehende HPC-Software und Algorithmen darauf laufen. Kranzlmüller setzt hinzu: „Aber: Das Verfahren ist streng reglementiert und zwingt uns zur Verschwiegenheit. Wir können daher öffentlich nichts über technische Anforderungen sagen.“

Eins scheint jedoch gewiss zu sein: Obwohl das neue System deutlich leistungsfähiger sein werde, benötige es nicht mehr Fläche und wird im 'Rechnerwürfel' Platz finden. Allerdings werde der Strom- und Kühlungsbedarf stark zunehmen, weshalb das LRZ Um-, An- und vermutlich sogar Neubauten brauchen werde, vermutet der Direktor. „Aber auch darauf haben wir uns mit verschiedenen Machbarkeitsstudien, die wir bereits 2018 begonnen haben, vorbereitet.“

Artikelfiles und Artikellinks

(ID:48502477)