Atos hier, Google da - Supercomputer hier - ML überall Supercomputing und Machine Learning für präzise Wetterprognosen
Wetter ist wichtig - für den Katastrophenschutz, für Heuschnupfengeplagte, für die Landwirtschaft, für Grillfestplaner …. -, doch zu ungenau, bezogen auf die Zeitfenster und geografische Raster. Um bessere Vorhersagen treffen zu können, braucht es leistungsfähigere Computer und Künstliche Intelligenz. So will Google künftig „nowcasten“ und Atos liefert einen AMD-bestückten Supercomputer an das Europäische Zentrum für mittelfristige Wettervorhersagen.
Anbieter zum Thema

In einem Paper* stellt Jason Hickey, Senior Software Engineer bei Google Research, das Prinzip des „nowcasten“ vor. Im Prinzip soll KI-Software einfache Radardaten verwenden, um das Wetter mit bemerkenswerter Kurzzeitgenauigkeit vorherzusagen.
„In dem Bericht ´Machine Learning for Precipitation Nowcasting from Radar Images´ stellen wir neue Forschungsarbeiten zur Entwicklung von Modellen für die Niederschlagsvorhersage vor, die diese Herausforderung annehmen, indem sie hochgradig lokalisierte, ´physikfreie´ Vorhersagen für die unmittelbare Zukunft machen.“, schreibt er. Ein wesentlicher Vorteil des maschinellen Lernens sei, dass die Inferenz rechnerisch günstig ist, wenn ein bereits trainiertes Modell verwendet werde, das Vorhersagen ermögliche, die nahezu augenblicklich und in der nativen hohen Auflösung der Eingabedaten erfolgten.
Es handle sich um ein „Niederschlags-Nowcasting“, das sich auf Vorhersagen von bis zu sechs Stunden konzentriere. Die Vorhersagen seinen mit einer Auflösung von einem Kilometer und einer Gesamtlatenzzeit von nur fünf bis zehn Minuten möglich. Darin eingeschlossen sein zudem bereits die Verzögerungen bei der Datenerfassung, die selbst in diesen frühen Entwicklungsphasen die traditionellen Modelle überträfen.
Die Voraussetzungen: Wetteragenturen auf der ganzen Welt verfügten bereits über umfangreiche Überwachungseinrichtungen. Zum Beispiel mäße das Doppler-Radar den Niederschlag in Echtzeit, Wettersatelliten lieferten multispektrale Bilder, Bodenstationen erfassten Wind und Niederschlag direkt.
Die Abbildungen, die Falschfarben-Radarbildgebung des Niederschlags über dem US-Kontinent mit der von geosynchronen Satelliten aufgenommenen Wolkendecke vergleicht, veranschauliche den Bedarf an Wetterinformationen aus mehreren Quellen: Die Existenz von Regen ist mit der Existenz von Wolken verbunden, aber nicht perfekt korreliert, so dass es schwierig ist, Niederschlag allein aus Satellitenbildern abzuleiten.
Außerdem seien nicht alle diese Messungen sind auf dem gesamten Globus gleich verteilt. So stammen die Radardaten zum großen Teil von Bodenstationen und für Ozeane in der Regel nicht verfügbar. Außerdem variiere die geografische Abdeckung geografisch. Dennoch gibt es so viele Beobachtungsdaten in so vielen verschiedenen Varianten, dass es für die Vorhersagesysteme schwierig ist, alle Daten zu berücksichtigen.
Unmengen an Daten, fehleranfällig und mit Zeitverzug
In den USA erreichten die von der National Oceanic and Atmospheric Administration (NOAA) gesammelten Fernerkundungsdaten inzwischen 100 Terabyte pro Tag. Die NOAA nutzt diese Daten, um die massiven Wettervorhersage-Engines zu speisen, die auf Supercomputern laufen, um globale Vorhersagen für ein bis zehn Tage zu liefern.
Diese Engines seien im Laufe des vergangenen halben Jahrhunderts entwickelt worden und basierten auf numerischen Methoden, die physikalische Prozesse direkt simulierten, einschließlich der atmosphärischen Dynamik und zahlreicher Effekte wie Wärmestrahlung, Vegetation, See- und Ozean-Effekte. Zudem schränke die begrenzte Verfügbarkeit von Berechnungsressourcen die Leistungsfähigkeit der numerischen Wettervorhersage in mehrfacher Hinsicht ein.
Das bezieht sich zum Beispiel auf die räumliche Auflösung, derzeit etwa fünf Kilometer. Das aber reiche was für die Auflösung von Wettermustern innerhalb von städtischen Gebieten und landwirtschaftlichen Flächen nicht aus. Außerdem benötigen numerische Methoden mehrere Stunden für ihre Ausführung. Wenn es sechs Stunden dauere, um eine Vorhersage zu berechnen, dann erlaube das auch nur drei bis vier Durchläufe pro Tag und führt zu Vorhersagen, die auf 6+ Stunden alten Daten basierten. Aktualität sieht anders aus.
Radar-zu-Radar-Vorhersage
Als typisches Beispiel für die Art von Vorhersagen, die unser System erstellen kann, betrachtet Hickey das Problem der Radar-zu-Radar-Vorhersage: Aus einer Sequenz von Radarbildern der vergangenen Stunde lässt sich vorhersagen, wie das Radarbild in n Stunden aussehen wird, wobei n typischerweise zwischen null und sechs Stunden liege. „Da die Radardaten in Bildern organisiert sind, können wir diese Vorhersage als ein Problem der Bilderkennung darstellen, indem wir die meteorologische Entwicklung aus der Sequenz der Eingangsbilder ableiten“, so der Forscher.
Er führt aus: „ Auf diesen kurzen Zeitskalen wird die Entwicklung von zwei physikalischen Prozessen dominiert: Advektion für die Wolkenbewegung und Konvektion für die Wolkenbildung, die beide signifikant durch das lokale Gelände und die Geographie beeinflusst werden.“
Wenn Hickey von einem „physikfreien“ Ansatz spricht, meint er, dass das neuronale Netz allein aus den Trainingsbeispielen lernt, die Atmosphärenphysik zu approximieren, und nicht, indem es a priori Wissen darüber einbezieht, wie die Atmosphäre tatsächlich funktioniert. „Wir behandeln die Wettervorhersage als ein Bild zu Bild-Interpretationsproblem und nutzen convolutional neural networks (CNNs) für die Bildanalyse“
CNNs bestehen in der Regel aus einer linearen Abfolge von Schichten, wobei jede Schicht aus einer Reihe von Operationen besteht, die ein Eingangsbild in ein neues Ausgangsbild transformieren. Oftmals verändert eine Ebene die Anzahl der Kanäle und die Gesamtauflösung des Bildes und „faltet“ das Bild zusätzlich mit einem Satz von Filtern. Diese Filter sind selbst kleine Bilder, „für uns sind sie typischerweise nur 3x3, oder 5x5“. Das Ganze führt zu Operationen wie Kantenerkennung und Identifizierung von sinnvollen Mustern.
Eine besonders effektive Art von CNN sei das U-Netz, führt Hickey aus. U-Netze haben eine Abfolge von Schichten, die in einer Kodierungsphase angelegt werden, in der schrittweise die Auflösung Bilder verringert wird; es folgt eine Dekodierungsphase, in der die reduzierten Darstellungen wieder in höheren Auflösungen überführt werden.
Die Eingabe in das U-Netz entspricht das einem Bild, das für jedes multispektrale Satellitenbild in der Reihenfolge der Beobachtungen der vergangenen Stunde einen Kanal enthält. Sind beispielsweise zehn Satellitenbilder gesammelt worden und wurde jedes dieser multispektralen Bilder bei zehn verschiedenen Wellenlängen aufgenommen, dann wäre die Bildeingabe in ein Modell ein Bild mit 100 Kanälen. Für die Radar-zu-Radar-Vorhersage werden 30 Radarbeobachtungen in der einer Stunde im Abstand von zwei Minuten eingegeben.
„Für unsere ersten Arbeiten in den USA haben wir ein Netzwerk aus historischen Beobachtungen über den Kontinent aus dem Zeitraum zwischen 2017 und 2019 trainiert“, erläutert Hickey. Die Daten seien in Perioden von vier Wochen aufgeteilt, wobei die ersten drei Wochen jeder Periode für das Training und die vierte Woche für die Auswertung verwendet wurden.
Um die Ergebnisse zu verifizieren, vergleichen die Google-Forscher ihre mit drei weit verbreiteten Modellen.
- 1. mit der numerischen Vorhersage des High Resolution Rapid Refresh (HRRR) der NOAA. „Wir haben unsere Ergebnisse mit ihrer Ein-Stunden Vorhersage des gesamten kumulierten Oberflächenniederschlags verglichen, da dies ihre qualitativ hochwertigste Ein-Stunden Vorhersage des Niederschlags war“, so Hickey.
- 2. mit einem ein „optical flow“-Algorithmus, der versucht, bewegte Objekte durch eine Bildsequenz zu verfolgen. Dieser Ansatz wird oft für Wettervorhersagen verwandt, obwohl dabei vorausgesetzt wird, dass die Gesamtregenmengen über große Gebiete über die Vorhersagezeit konstant bleibt.
- 3. mit einem Persistenzmodell – dieses ist laut Hickey vergleichsweise trivial, das angenommen wird, das sich das Niederschlagsmuster sich nicht ändert.
In seinen vorgelegten Präzisions- und Recall (PR)-Grafiken übertrifft die Qualität der Prognosen des des Neuronalen Netzes von Google alle drei Modelle. Doch laut Hickey beginnt das HRRR-Modell, die aktuellen Google-Ergebnisse zu übertreffen, wenn der Vorhersagehorizont bei etwa fünf bis sechs Stunden liegt.
Allerdings hält er noch einmal fest, dass einer der Vorteile der ML-Methode ist, dass die Vorhersagen fast augenblicklich da seien, dass damit die Vorhersagen auf frischen Daten basieren, während die HRRR durch eine rechnerische Latenzzeit von ein bis drei Stunden behindert werde. Er kündigt an: „Wir wollen ML auch direkt auf 3D-Beobachtungen anwenden.“
ECMWF kauft Supercomputer von Atos
Derweil haben Atos und das Europäische Zentrum für mittelfristige Wettervorhersagen (ECMWF – European Centre for Medium-Range Weather Forecasts) haben einen Vertrag mit einer Laufzeit von vier Jahren und einem Wert von mehr als 80 Millionen Euro geschlossen. Das Abkommen umfasst die Lieferung des Supercomputers „Bull Sequana XH2000“.
Er werde die Rechenleistung des ECMWF um etwa das Fünffache steigern und Hunderte von Forschern aus über 30 Ländern in ganz Europa bei ihren Arbeiten zur mittel- und langfristigen Wettervorhersage unterstützen. Der Supercomputer wird mit „Epyc-7742“-Prozessoren von AMD sowie mit Technik von Mellanox und DDN ausgestattet.
Das ECMWF mit Sitz im britischen Reading ist eine unabhängige internationale Organisation, unterstützt von 34 Mitglieds- und Kooperationsstaaten in ganz Europa, und verfügt über das weltweit größte Archiv an numerischen Wettervorhersagedaten. Das neue System wird 2020 im ECMWF-Rechenzentrum im italienischen Bologna bereitgestellt und installiert und geht 2021 in Betrieb. Für System-Verwaltung, -Betrieb und -Wartung arbeitet Atos vor Ort mit dem Unternehmen E4 Computer Engineering zusammen.
2021 geht es los
Sobald der Supercomputer in Betrieb ist, wird das ECMWF seine 15-tägige weltweite Ensemble-Vorhersage, mit einer Auflösung von etwa zehn Kilometern ausführen können. Dr. Florence Rabier, Director General des ECMWF, sagt: „Dank dieser Investition können wir Prognosen mit höherer Auflösung in weniger als einer Stunde erstellen. Das bedeutet, dass unsere Mitgliedsstaaten schneller bessere Informationen erhalten und wesentlich genauere Prognosen treffen können, weil sie diese Informationen mit ihren eigenen Daten und Vorhersagen kombinieren. Angesichts der Auswirkungen der immer heftigeren Unwetter, die Regierungen und Gesellschaft zu bewältigen haben, sind wir auch stolz darauf, dass unser Supercomputer auf maximale Energie-Effizienz ausgelegt ist.“
Das ECMWF ist nicht der einzige Supercomputing-Kunde von Atos, der sich mit Wettervorhersagen, Erdsysteme und Klimamodellierung beschäftigt. Dazu gehört der französische Wetterdienst Meteo France, das Deutsche Klimarechenzentrum (DKRZ), die spanische Wetterbehörde AEMet, das Königlich Niederländische Meteorologische Institut (KNMI) sowie das Plymouth Marine Laboratory. Darüber hinaus ist Atos auch ein Partner nationaler Wetterzentren in den europäischen Projekten ESCAPE2 und ESIWACE2. Diese entwickeln Wettermodelle, die einen Beitrag für die künftige Atmosphärenforschung leisten sollen.
*An der Google-Forschung beteiligt waren Carla Bromberg, Shreya Agrawal, Cenk Gazen, John Burge, Luke Barrington, Aaron Bell, Anand Babu, Stephan Hoyer, Lak Lakshmanan, Brian Williams, Casper Sønderby, Nal Kalchbrenner, Avital Oliver, Tim Salimans, Mostafa Dehghani, Jonathan Heek, Lasse Espeholt, Sella Nevo und Avinatan Hassidim.
(ID:46315694)