Direkte Wasserkühlung im Server für höhere Effizienz im Rechenzentrum

Lenovo Thinksystem SD650

Direkte Wasserkühlung im Server für höhere Effizienz im Rechenzentrum

Der Lenovo-Server „Thinksystem SD650“ steht laut Hersteller exemplarisch für einen Rechner, der neue Maßstäbe bei Leistungs- und Energie-Effizienz für Hochleistungsrechner bringen soll. Das System verwendet warmes Wasser anstelle von Luft zur Kühlung der Komponenten, einschließlich der CPUs und des Speichers, was 40 Prozent geringere Energieausgaben im Rechenzentrum und höhere Performance bringen soll. lesen

Quantenphysiker erzielen Verschränkungsrekord

Drillinge und Vierlinge - die Rekorde purzeln

Quantenphysiker erzielen Verschränkungsrekord

Quantenverschränkung ist eine zentrale Grundlage für neue Quantentechnologien. Nun präsentiert ein deutsch-österreichisches Team das bisher größte, verschränkte Quantenregister individuell kontrollierbarer Systeme aus insgesamt 20 Quantenbits. lesen

Supercomputing-Spezialist Cray greift zu AMD-Prozessoren

Attraktive Super-Cluster-Hard- und Software-Kombi

Supercomputing-Spezialist Cray greift zu AMD-Prozessoren

„AMD Epyc“ erhält die Super-Computing Weihen und Cray ein attraktive Rechengrundlage. Die Produktlinie „Cray CS500“ wird mit den CPUs ausgestattet. lesen

Wo Hardware zählt: KI mit System

IPUs, DPUs, DLUs und mehr

Wo Hardware zählt: KI mit System

Wer ernten will, muss säen — auch Künstliche Intelligenz (KI) ist da keine Ausnahme. Der Wettlauf um die schlausten KI-Anwendungen fordert hochperformante Hardware der besonderen Art. Eine CPU ist nicht alles. lesen

Der Supercomputer QPACE3 ist dem Urknall auf der Spur

Mit Fujitsu Primergy CX oben auf die Öko-Liste

Der Supercomputer QPACE3 ist dem Urknall auf der Spur

Den Superrechner „QPACE3“ verwenden die Universitäten Regensburg und Wuppertal sowie das Jülich Supercomputing Centre im Rahmen des Sonderforschungsbereiches SFB/TRR-55 für numerische Simulationen, etwa in der Quanten-Chromodynamik. Ziel ist es unter anderem, den Zustand des Universums kurz nach dem Urknall zu verstehen. Das Herzstück ist ein Cluster aus „Fujitsu Primergy“-Servern. lesen

6 Monate „Spaceborne“ und der HPE-Superrechner läuft und läuft

Hallo Erde!

6 Monate „Spaceborne“ und der HPE-Superrechner läuft und läuft

Am 14. August startete die „SpaceX CRS-12“-Rakete in den Weltraum, mitsamt dem ersten kommerziellen Hochleistungs-Computer von der Stange. Am 14. September, dem „Pi Day“, haben die ISS-Astronauten das System installiert und eingeschaltet. Projektleiter Mark Fernandez teilt nun seine Erfahrungen aus dem vergangenen halben Jahr mit. lesen

Physiker der Universität des Saarlandes kontrollieren Quantenbits

Laserpulse bei extrem tiefen Temperaturen

Physiker der Universität des Saarlandes kontrollieren Quantenbits

Physiker der Saar-Uni haben eine Methode entwickelt, um Qubits in Diamant zu kontrollieren. Das zielt auf eine längere Nutzung für Rechenoperationen. Dafür müssen sie die Quantenbits nahe an den absoluten Temperatur-Nullpunkt herunterkühlen. lesen

Das Forschungszentrum Jülich bekommt ein neues Superhirn

Atos installiert den leistungsstärksten Supercomputer Deutschlands

Das Forschungszentrum Jülich bekommt ein neues Superhirn

Der europäische IT-Dienstleister Atos darf das Forschungszentrum Jülich mit seinem jüngsten Supercomputer, „Bull Sequana X1000“ ausstatten. Der Petaflop-Rechner ermöglicht Berechnungen mit der Verarbeitung von mehr als 12 Millionen Milliarden Operationen pro Sekunde und wird damit der schnellste Supercomputer in Deutschland und einer der schnellsten weltweit sein. lesen

EU buttert eine Milliarde in Supercomputer-Infrastruktur

Das gemeinsame Unternehmen EuroHPC

EU buttert eine Milliarde in Supercomputer-Infrastruktur

Für Supercomputing will man in der EU richtig Geld in die Hand nehmen. Gut eine Milliarde Euro sind in der „EuroHPC“-Initiative für den Aufbau einer entsprechenden Infrastruktur veranschlagt, um Rückstände aufzuholen. Denn viele Wissenschaftler und Unternehmen müssen aktuell Daten außerhalb der EU verarbeiten lassen. lesen

Tools für HPC und effektive Überwachung der Infrastruktur

Praxistipps für High Performance Computing

Tools für HPC und effektive Überwachung der Infrastruktur

Im High-Performance-Computing (HPC) spielen Tools und Überwachungslösungen insbesondere zur Sicherung des effektiven Hardware-Betriebs eine wichtige Rolle. Oftmals handelt es sich um Open-Source-Software. lesen

Lenovo setzt auf Künstliche Intelligenz

Zukunftssicherung: KI und SuperMUC-NG

Lenovo setzt auf Künstliche Intelligenz

Auf mehr als 44 Billionen Gigabyte soll sich das weltweite Datenvolumen im Jahr 2020 belaufen. KI-Anwendungen - darunter maschinelles Lernen oder Deep Learning - sollen es möglich machen, aus diesem Informationsschatz größtmöglichen Nutzen zu ziehen. Lenovo verstärkt jetzt seine Aktivitäten in diesem Bereich und setzt damit den Hebel an, um sich im HPC-Markt vorne zu positionieren. lesen

Saarbrücker Physiker beschleunigen Rechnen mit Qbits in Reih und Glied

Die kommende Rechnergeneration

Saarbrücker Physiker beschleunigen Rechnen mit Qbits in Reih und Glied

Für nächstes Jahr hat Google einen Quantenprozessor angekündigt, der mit 50 Qubits, den Recheneinheiten eines Quantencomputers, rechnen können soll. Das Problem: Die Qubits dieser Quantenprozessoren liegen wie auf einer Perlenschnur aufgereiht nebeneinander. Das Rechnen ist zu langsam. lesen

Rechnen - und Kühlen - auf höchstem Niveau

Wo High Performance-Computer wirken, ist es spannend

Rechnen - und Kühlen - auf höchstem Niveau

Hochleistungsrechner finden bereits auf zahlreichen Gebieten Einsatz, so etwa in der Materialforschung, der Visualisierung, der Wettervorhersage und in Simulationen. Mit Exascale-Systemen und Quantencomputern sollen aber noch weitere und vor allem leistungsfähigere Anwendungen möglich sein. lesen