Chaostheorie und Wetterprognosen mit HPC und KI Wie das Wetter gemacht wird
Anbieter zum Thema
Unterm Strich war der April 2022 etwas zu warm und bei ausgewogenem Flächenniederschlag recht sonnig. Das meldete der Deutsche Wetterdienst (DWD) nach ersten Auswertungen der Ergebnisse seiner rund 2.000 Messstationen am 29. April. Doch wie entstehen die Prognosen?

Wettervorhersagen haben eine lange Geschichte. Bereits 650 vor Christus nutzten die Babylonier Wolkenmuster und Astronomie, um Vorhersagen zu treffen.
Die Wissenschaft von Wettervorhersagen gewann allerdings erst ab dem 19. Jahrhundert an Bedeutung, nachdem das Schiff „Royal Charter“ vor Anglesey, einer Insel vor der Nordwestküste von Wales in der Irischen See, im Oktober 1859 sank. Als Reaktion darauf entwickelte der englische Royal Navy-Offizier Robert FitzRoy Wetterkarten, die er als „Prognosen“ bezeichnete. Außerdem richtete er 15 Landstationen ein, die mit Hilfe eines Telegrafen tägliche Wetterberichte übermittelten.
150 Jahre später ist die Wissenschaft der Wettervorhersage nicht mehr wiederzuerkennen: Genaue Wettervorhersagen werden heute mit Supercomputern gemacht.
Datenmengen und massive Rechenleistung
Um Wettervorhersagen erstellen zu können, braucht ein Supercomputer Daten. Diese stammen aus einer Vielzahl von Quellen, beispielsweise werden sie von Satelliten, Wetterstationen, Ballons, Flugzeugen und sogar Schiffen geliefert. Außerdem gibt einen Zugang zum Global Telecommunication System (GTS), das viermal täglich in sechsstündigen Intervallen Daten sammelt und weiterleitet.
Diese gelieferten Daten können ein Volumen von 500 Gigabyte bis zu einem Terabyte groß sein. Bevor sie jedoch verwendet werden können, müssen sie einer Qualitätskontrolle unterzogen wer-den, um daraufhin mithilfe von mathematischen Modellen Prognosen zu erstellen. Diese Gleichungen, die seit dem 19. Jahrhundert bekannt sind, beschreiben Zustand, Bewegung und die zeitliche Entwicklung verschiedener atmosphärischer Parameter wie Wind und Temperatur.
Für die Umwandlung in genaue Prognosen wird vor allem Rechenleistung benötigt. Um besser zu verstehen, wie das in der Praxis funktioniert, lässt sich folgendes Beispiel heranziehen: Wäre Europa in ein Netz von Blöcken mit je 10 Kilometer Kantenlänge unterteilt, dann wäre eine definierte Rechenleistung erforderlich, um lokalisierte Vorhersagen innerhalb jedes Blocks zu erstellen. Problematisch wird es jedoch, wenn die Größe der Blöcke verringert wird.
Das Fischernetz
Allerdings sind Gewitter, Tornados und kleinere Effekte stark vom lokalen Wetter abhängig, so-dass dieses bei einem größeren Netz weit weniger berücksichtigt wird als bei einem Kleinen. Es ist wie beim Fischfang: Man braucht ein viel dichteres Netz, um kleine Fische zu fangen.
Ein kleineres Netz erfordert jedoch eine außerordentliche Menge an Rechenleistung. Um beim Beispiel zu bleiben: Für eine Vorhersage bei einem Netz von 100 QuadratKilometer großen quadratischen Blöcken werden 100 Rechenknoten benötigt. Bei einem 25 Quadratkilometer großen Einteilungen innerhalb desselben Gebietes mit einer halbierten Kantenlänge von 5 Kilometer müsste die Rechenleistung um das 16-fache erhöht und 1.600 Knoten – das heißt: Server, die in einem Cluster zusammengeschlossen sind – verwendet werden.
Eine erneute Halbierung auf 2,5 Kilometer Kantenlänge steigert bei 6,25 Quadratkilometer Fläche die Rechenleistung erneut um den Faktor 16. Das sind bei diesem Beispiel umgerechnet 25.600 Knoten bei einem Sechzehntel der Originalfläche.
Die Rolle von KI
Aufgrund der enormen benötigten Rechenleistung untersuchen Wissenschaftler wie andere Technologien – zum Beispiel künstliche Intelligenz – Vorhersagen verbessern können. Anstatt das Wetter auf Grundlage von gegenwärtigen Bedingungen mit aufwändigen Berechnungen vorherzusagen, werten KI-Systeme Daten aus der Vergangenheit aus und lernen, wie sich Wetterbedingungen über die Zeit entwickeln.
Ein Beispiel für deren erheblichen Einfluss: Das britische Wetteramt führte kürzlich ein Pilotprojekt mit KI-Technologie zur Vorhersage von Sturzfluten und Stürmen durch. Anhand von Radarkarten aus den Jahren 2016 bis 2018 konnte das System die Niederschlagsmuster für 2019 bei 89 Prozent der Fälle genau vorhersagen. Dank des technischen Fortschritts ist die Vier-Tages-Vorhersage heute so genau wie die Ein-Tages-Vorhersage vor 30 Jahren.
Der Schmetterlingseffekt
Neue Technologien werden zweifellos auch in Zukunft eine Hilfe bei der Wettervorhersage sein, dennoch werden sie nie in der Lage sein, langfristige Prognosen mit 100-prozentiger Genauigkeit abzugeben. Das liegt daran, dass die Gleichungen, die zur Erstellung von Wettervorhersagen verwendet werden, nichtlinear sind, will heißen: Sie enthalten ein gewisses Maß an Chaos.
Bereits in den 1960er Jahren vertrat Edward Lorenz, ein Meteorologe am MIT (Massachusetts Institute of Technology), die Ansicht, dass es grundsätzlich unmöglich sei, das Wetter länger als zehn Tage vorherzusagen. Im Mittelpunkt seiner Argumentation, die später als Chaostheorie bekannt wurde, stand die Behauptung, dass kleine Unterschiede in einem dynamischen System wie der Atmosphäre völlig unvorhersehbare Ergebnisse hervorrufen können.
Die berühmteste Formulierung dieser Theorie war Lorenz wissenschaftliche Abhandlung von 1972 „Predictability: Does the Flap of a Butterfly’s Wings in Brazil Set Off a Tornado in Texas?“ Zu Deutsch: Vorhersehbarkeit: Löst der Flügelschlag eines Schmetterlings in Brasilien einen Tornado in Texas aus?“
Vorauseilen und Nachhinken
Abgesehen von der Chaostheorie gibt es noch einen anderen Grund, warum es dauern kann, bis Vorhersagen genauer werden – die Wissenschaft selbst. Obwohl sich die Rechenleistung nach dem Moore’schen Gesetz etwa alle zwei Jahre verdoppelt, braucht die Wetterwissenschaft länger, um aufzuholen. In den 1960er und 70er Jahren wurden in den USA erstmals Supercomputer eingesetzt, allerdings dauerte es bis zu 20 Jahre, bis die Vorhersagen wesentlich genauer wurden.
Dennoch hat die heute verfügbare Rechenleistung die Vorhersagen massiv verbessert. Als in den 1950er Jahren erste Wetterprognosen gemacht wurden, waren die Ergebnisse aufgrund der begrenzten Rechenleistung sehr ungenau: Ein Wettermodell, das in den 1960er Jahren 600 Jahre gebraucht hätte, um auf einem Computersystem ausgeführt zu werden, benötigt heute auf einem normal ausgestatteten „Lenovo Thinksystem Server“ rund 15 Minuten.
Es gibt allen Grund zur Annahme, dass es in den nächsten Jahren mit zunehmender Rechenleistung und unseren wissenschaftlichen Erkenntnissen über Wettermuster möglich sein wird, noch genauere Vorhersagen zu treffen. Und mit der Fähigkeit, extreme Wetterverhältnisse vorherzusagen, haben Supercomputer die Macht, Leben zu retten und die Welt nachhaltig zu verändern.
* Andreas Thomasch ist Director HPC & AI in den Regionen DACH, France und UKI.
(ID:48290829)