High Performance Computing (HPC) ist die innovativste Zukunftstechnologie

Große Zukunft für das High Performance-Computing

High Performance Computing (HPC) ist die innovativste Zukunftstechnologie

High Performance Computing (HPC) ist die einflussreichste Technologie für die Zukunft – an erster Stelle noch vor Künstlicher Intelligenz (KI) und dem Internet der Dinge. So sehen es zumindest 46 Prozent der an einer von Suse angestoßenen Befragung teilnehmenden IT-Fachkräfte in Deutschland. lesen

Exascale für alle

Supercomputing mit Standardkomponenten und Open Source

Exascale für alle

Auf der Internationalen Supercomputing Conference (ISC) in Frankfurt Mitte Juni war Exascale-Computing Thema zahlreicher Vorträge und Gespräche. Auch in den Medien stößt das Thema seit einigen Monaten aus gutem Grund auf reges Interesse. lesen

Digital Annealer optimiert BMW-Fertigung

17.000 mal schneller durch den Trick mit der Abkürzung

Digital Annealer optimiert BMW-Fertigung

Für die Lösung von komplexen kombinatorischen Optimierungsproblemen testet die BMW AG aktuell den „Digital Annealer“ von Fujitsu. Mit der IT im Hintergrund sollen Industrieroboter vollautomatisch und in kürzester Zeit Fugen, die während der Herstellung entstehen, versiegeln, um spätere Korrosion zu verhindern. lesen

Nvidia-GPUs unterstützen künftig ARM

Neue Wege zum Exascale Supercomputing

Nvidia-GPUs unterstützen künftig ARM

Parallel zur Veröffentlichung der jüngsten Top500-Liste der Supercomputer hat Nvidia auf der ISC in Frankfurt angekündigt, dass seine GPUs inklusive aller CUDA-X- und HPC-Bibliotheken künftig auch ARM-Systeme unterstützen werden. Damit könnte nach dem Ende von Moore’s Law ein neuer Weg hin zum Exascale Supercomputing beschritten werden. lesen

Die neue Hitliste der Supercomputer ist ein Meilenstein

Kommentare von Listenautor Erich Strohmaier

Die neue Hitliste der Supercomputer ist ein Meilenstein

Die 53. Ausgabe des TOP500 der amtierenden Supercomputer wurde gestern veröffentlicht. Auf der ISC High Performance Conference in Frankfurt kommentierte sie einer der Autoren der Liste, Erich Strohmaier vom NERSC/Lawrence Berkeley National Laboratory.. lesen

HPE übernimmt Supercomputing-Spezialisten Cray

KI, Machine Learning und Big Data

HPE übernimmt Supercomputing-Spezialisten Cray

Mit dem Kauf des Supercomputing-Spezialisten Cray positioniert sich HPE noch stärker im Markt für Hochleistungsrechner. In den kommenden Jahren erwartet das Unternehmen hier enorme Wachstumsraten, wenn die Analyse großer Datenmengen drastisch zunimmt. lesen

Der Prototyp für künftige modulare Supercomputer werkelt

Das erste JSC-Supercomputing-Modul Deep-Est ist live

Der Prototyp für künftige modulare Supercomputer werkelt

Supercomputer im Baukastenprinzip - diese Herausforderung geht unter anderem das Jülich Supercomputing Centre (JSC) an. Nun wurde das erste Modul, der „Deep-Est“-Cluster, kürzlich etwa mithilfe von Megware installiert. Bis Jahresende sollen zwei weitere Module folgen, die für paralleles Rechnen und Datenanalyse ausgelegt sind. lesen

Läuft: Simulation auf Supercomputern

Lernmodul am HLRS Stuttgart gestartet

Läuft: Simulation auf Supercomputern

Was leistet numerische Simulation und welche Chancen bietet sie für Wirtschaft und Gesellschaft? Mit diesen Fragen startete Mitte März das neue Weiterbildungsangebot „Simulation“ der Supercomputing Akademie am Höchstleistungsrechenzentrum (HLRS) der Universität Stuttgart. Es wendet sich an Anwender (Berechnungsingenieure, Entwickler, Konstrukteure) und IT-Verantwortliche aus der Industrie. 20 Kursteilnehmer werden zugelassen. lesen

D-Wave erweitert Zugang zu seinem Quantencomputer

Leap Quantum Cloud Service

D-Wave erweitert Zugang zu seinem Quantencomputer

Ab sofort können auch Entwickler in Deutschland und ganz Europa per Cloud auf den Leap Quantum Cloud Service von D-Wave zugreifen. VW und BMW zeigen, was damit in Sachen autonome Systeme schon möglich ist. lesen

Aurora soll in einer Exascale-Dimension erstrahlen

Supercomputing mit Cray und Intel

Aurora soll in einer Exascale-Dimension erstrahlen

Es gibt ein inoffizielles Rennen, das von China und den USA bestimmt wird: Welche Nation bringt den ersten Exascale-Computer an den Start? Nun nennen Intel und Cray ein erstes Datum: 2021 werden die Unternehmen für rund 500 Millionen Dollar einen solchen Supercomputer an das Argonne National Laboratory des Department of Energy liefern. lesen

Fujitsu baut einen Supercomputer für die Universität Tokio

6,6 Petaflops für eine bessere Welt

Fujitsu baut einen Supercomputer für die Universität Tokio

Unter der Bezeichnung „Oakbridge-CX“ entsteht in Tokio ein massiv-parallelen Supercomputer für das dortige Information Technology Center. Das System soll eine theoretische Spitzenleistung von 6,6 Petaflops liefern, indem es 1.368 „Primergy“-Server mit „Intel Xeon SP“-Prozessoren an Bord bündelt. lesen

HPE baut Frankreichs neuen Supercomputer Jean Zay

KI und Superkräfte von nationalem Interesse

HPE baut Frankreichs neuen Supercomputer Jean Zay

Frankreich bekommt einen neuen Supercomputer, mit der Bezeichnung „Jean Zay“. Namensgeber ist ein französischer Politiker und Kulturschaffender, der von der Regierung Vichy während des Zweiten Weltkriegs inhaftiert und 1944 umgebracht wurde. Den Auftrag zum Bau des Systems mit einer Spitzenleistung von 14 Petaflops hat HPE. Die Plattform wird „HPE SGI 8600“ sein. lesen

So geht weltmeisterliches Daten-Management

Schnell, schneller, am schnellsten: Die IT des Formel 1-Teams von Mercedes AMG Petronas

So geht weltmeisterliches Daten-Management

Das Mercedes AMG Petronas F1 Team ist in der Erfolgsspur. Seit der Saison 2010 hat das Werksteam des deutschen Automobilherstellers Daimler AG in der Formel 1 Sieg an Sieg gereiht und zuletzt wieder einmal Lewis Hamilton zum Fahrerweltmeister gemacht. IT-Chef Matt Harris berichtet von den damit verbundenen Herausforderungen für sein Team. lesen