Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Météorologie élémentaire

Reflets de nuages dans un building au Brésil. Document Sergio Velho Jr.

Les prévisions numériques (I)

Il y a bien longtemps, nos ancêtres se réfugiaient dans des abris sous roche pour se protéger des intempéries et des foudres du ciel. Plus tard ils firent des incantations à dame Nature, à Jupiter et ses fils pour bénéficier de la clémence divine face à des phénomènes météorologiques ou célestes qu'ils ne maîtrisaient pas.

Aujourd'hui encore, nous sommes impuissants devant la force brutale de la Nature et nos ancêtres avaient bien du courage en subissant ses méfaits pratiquement sans protection. Mais dix mille ans plus tard les choses n'ont pas fort changé; nous redoutons toujours "les foudres du ciel" et nos moyens de protection paraissent parfois bien dérisoires...

A l'ère de l'informatique et du contrôle à distance, le temps, comme beaucoup d'autres phénomènes thermodynamiques, reste indompté. Toutefois, nous savons aujourd'hui que cet immense laboratoire que représente l'atmosphère obéit à des lois élémentaires qui nous permettent de comprendre la mystérieuse alchimie qui s'y déroule.

Ces processus ont été longtemps observés, analysés et la plupart ont été mis en équations depuis une centaine d'années.

Car l'essentiel en météorologie est de pouvoir déterminer le temps à venir et son évolution à long terme (climatologie). Pour les prévisionnistes rien n'est donc plus important pour leur activité que de pouvoir disposer de moyens prédictifs simulant les conditions de l'atmosphère; il s'agit des modèles ou prévisions numériques.

Du jeu d'échec au modèle météorologique

Prévoir le temps fonctionne un peu comme un jeu d'échec. Au jeu d'échec, un réseau géométrique de carrés divise le plateau tandis que les pièces se déplacent dans différentes directions linéaires. Dans sa version numérique, le jeu d'échec doit inclure des règles et différentes stratégies traduites dans la logique mathématique, faisant de l'ordinateur un adversaire redoutable.

Au jeu des prévisions météorologiques numériques, l'évolution de l'atmosphère est décrite par une série de données sur lesquelles sont appliquées des opérations. Il s'agit de règles dérivées d'un ensemble complexe d'équations relatives aux lois physiques de base, dont les équations de Navier-Stockes qui décrivent les mouvements des fluides visqueux en fonction des variables météorologiques comme la pression de l'air, la température, le taux d'humidité, la densité de l'air, la force du vent et les gradients verticaux. L'ensemble des instructions mathématiques est codé en langage informatique et traité par des superordinateurs massivement parallèles. Le produit final est une prévision météorologique appelée un modèle numérique.

En d'autres termes un modèle permet de calculer des paramètres de sortie à partir de paramètres d'entrée. On calcule ainsi l'évolution de l'atmosphère à partir d'un état initial supposé parfaitement connu basé sur des observations réelles, de la même manière que l'aurait fait un prévisonniste épaulé par des observateurs, mais évidemment avec un temps de réponse plusieurs milliards de fois plus rapide.

C'est ainsi que les modèles météorologiques permettent de prévoir la température, le vent, la pression atmosphérique et les précipitations notamment qui règneront dans quelques heures ou quelques jours à partir des paramètres météorologiques mesurés aujourd'hui.

Autre similitude avec le jeu d'échec, un joueur doit parfois sacrifier un pion ou une autre pièce pour obtenir un avantage, ce qu'on appelle un Gambit (cf. l'ouverture Anglaise de Karpov contre Topalov). Au jeu des prévisions météorologiques, les prévisionnistes sacrifient la perfection des calculs pour avoir l'avantage d'établir des prévisions informatives, ce que nous allons découvrir.

A gauche, prévision des vents à 48 heures pour l'Atlantique Nord au niveau 1000 mb (MSL). A droite, visualisation sur une grille tridimensionnelle avec le logiciel Vis5D des données de la tempête hivernale qui sévit en mars 1993 sur l'est des Etats-Unis. Comme la version précédente, la version Vis5d+ du logiciel est libre de droit. Elle est notamment utilisée par le CNRS et l'ECMWF. Documents NOAA-CDC et Bill Hibbard.

Depuis quelques décennies il est très difficile pour un prévisionniste d'établir une bonne prévision sans prendre connaissance des "numériques", des modèles fournis par les centres nationaux (NOAA, Readings, Météo France, IRM, etc.). Cette aide est très précieuse surtout lorsqu'il faut prévoir l'état des masses d'air à longue échéance.

Un modèle numérique de prévision du temps représente donc une simulation mathématique de l'évolution de l'atmosphère, considérée comme un mélange d'air sec et de vapeur d'eau, à partir de son état initial connu à un instant donné.

Certains modèles établissent des prévisions numériques à l'échelle globale (Arpège en Europe et pour le reste du globe, NAM en Amérique du Nord, etc) ou à l'échelle régionale (Aladin pour l'Europe continentale et Arôme pour l'Europe et le bassin des Carpathes). Certains ont une vocation opérationnelle, dont l'objectif est de fournir des prévisions chaque jour et dans un délai rapide (immédiat à quelques heures). Ces modèles sont donc optimisés en les réactualisant plusieurs fois par jour et en tenant compte d'interpolations temporelles (tel le modèle "4D-Var").

Les logiciels de prévision du temps contenant des millions de lignes de code, leur développement nécessite souvent une collaboration entre plusieurs pays. Le modèle Aladin par exemple a été développé en 1992 par un consortium de 14 pays dont plusieurs pays européens comprenant la France et la Belgique, des pays d'Europe de l'Est et le Maroc. Chaque pays dispose également de son propre modèle couvrant son territoire national ou sa région, mais la physique implémentée dans ses modèles est commune.

Ainsi que nous le verrons, les sous-modèles permettent de relier des changements dans les paramètres de sortie du modèle à des changements de ses paramètres d'entrée. Ils permettent donc de répondre à des questions précises de nature régionale telles que : la dépression prévue pour demain est-elle plutôt liée à l'ondulation du front polaire ou à l'écoulement atmosphérique sur l'océan Atlantique ?

Conceptionnellement, un modèle de l'atmosphère est une sorte de jeu d'échec en 3D dont le volume est représenté par un maillage tridimensionnel. Chaque maille représente un volume ou "boîte" de quelques kilomètres de longueur (1.3 à 15 km) plus ou moins resserré en altitude en fonction de la puissance des ordinateurs (entre 49 et 60 niveaux ou couches d'épaisseur variables mesurant chacune au minimum quelques centaines de mètres d'épaisseur). Chaque boîte élémentaire est considérée comme un point et reçoit les valeurs initiales de pression, température, vent, humidité, etc, observées à un instant donné sur la Terre par les réseaux synoptique et aérologique, les stations aériennes, etc. Certains relevés ne correspondant pas aux "points" de la grille, les valeurs manquantes sont interpolées; c'est l'analyse en points de grille.

A gauche, principe de la modélisation de l'atmosphère. Les variables météorologiques calculées dans chaque cube sont ensuite globalisées à l'échelle régionale (ou mondiale) pour établir les prévisions. A droite, le modèle global GME développé par le centre DWD en Allemagne. Il fut replacé en 2015 par le modèle ICON (Icosahedral Nonhydrostatic) dont la résolution est de 13 km. D'autres modèles travaillant à l'échelle régionale comme Arôme de Météo France atteignent une résolution de 1.3 km.

Une fois analysé, l'ensemble de ces points horizontaux et verticaux forme la grille du modèle. La distance qui sépare deux points de grille s'appelle la "résolution". Dans l'ancienne version du modèle français Arpège, la résolution était de 35 km, l'équivalent de 4 millions de points. On applique ensuite à chaque point les équations thermodynamiques dont les résultats sont ensuite globalisés et présentés sous forme graphique, c'est la prévision numérique.

Toutes les données prises à un instant intial sont traitées par un ou plusieurs modèles informatiques selon l'objectif recherché (carte de surface ou d'altitude, prévision à court ou moyen terme, etc). Les ordinateurs présentent ensuite le résultat de cette simulation, par exemple le temps qu'il fera dans cinq minutes. Ces séries de nombres sont ensuite réentrées dans les mêmes équations pour voir quel résultat ils donneront dans les cinq minutes qui suivent. Ce processus itératif est répété un très grand nombre de fois jusqu'à ce que le modèle atteigne ses limites (1 heure, 3 jours, 8 jours, etc). Une fois les états futurs de l'atmosphère connus, le modèle numérique permet d'en déduire une multitude de paramètres plus élaborés comme la répartition et la nature des nuages, l'intensité des précipitations, l'épaisseur de neige, etc. Le résultat de cette modélisation est une représentation graphique de l'état de l'atmosphère pour l'époque indiquée, à l'image de la prévision de surface présentée ci-dessous.

Modèle numérique prévu à 24 heures et la photographie de la circulation atmosphérique du 26 avril 2001 à 12h GMT. Des prévisions aussi précises étaient inimaginables dans les années 1990. En 2005, la fiabilité des prévisions à court terme (8h) était de 90%. Document Météo France.

Les limites des modèles numériques

Si la précision des prévisions numériques ne fait que s'améliorer, elle dépend avant tout de la puissance des ordinateurs et de la résolution des modèles qui dépendent elles-mêmes de la quantité de données injectées dans le système. Mais d'autres paramètres viennent également limiter cette précision.

D'une part, et c'est la plus importante, la résolution spatiale des modèles ne permet pas toujours de simuler des évènements locaux comme un orage ou une tornade qui évoluent également dans l'espace, chacun présentant une certaine extension verticale propice ou non au développement d'activité près du sol. Les modèles numériques ont déjà du mal à simuler les supercellules orageuses associées aux cumulonimbus qui s'étendent parfois sur plusieurs kilomètres. A fortiori un orage local sera indécelable.

En revanche, à partir des modèles et de calculs, le prévisionniste peut prévoir le risque d'un orage ou de tornade au-dessus d'un aéroport ou du jardin du président pendant sa garden party, valeur qui sera évidemment associée à une certaine marge d'erreur.

D'autre part il y a la résolution temporelle. Tout phénomène atmosphérique évolue à une certaine vitesse dans le temps qui varie également en fonction de son stade évolutif, de la chaleur, de l'humidité, des frictions entre masses d'air et des frottements sur le sol, autant de variables qu'il est parfois très difficile d'évaluer et de quantifier en raisons d'interactions multiples (propriétés de l'air en altitude, reliefs, etc).

D'autres facteurs limitent la qualité des modèles. Idéalement, un modèle de prévision doit prendre en compte les propriétés du milieu pluvio-nuageux (la taille les gouttelettes d'eau et leur état physique), la chimie atmosphérique ainsi que les détails du sol (montagne, végétation, vagues, villes, neige, etc), mais cela se paye par une augmentation drastique du temps de calcul et donc du prix de la seconde de traitement.

La taille minimale exploitable par un modèle est déterminée par la maille de la grille horizontale utilisée tant par la méthode d'analyse numérique des données initiales que par le modèle numérique de prévision du temps. Cette résolution est d'environ 11 km (0.11° en latitude et longitude) dans le modèle Unifié anglais avec un pas de temps d'environ 20 minutes nécessaire au traitement.

Depuis 2015, le modèle Arpège couvre l'Europe avec un maillage de 5 km et entre 5 et 24 km pour le reste du globe. A l'échelle régionale, Aladin couvre l'Europe continentale avec une résolution de 2.5 km et Arôme couvre l'Europe et le bassin des Carpathes avec une résolution de 1.3 km.

La résolution spatio-temporelle d'un modèle dépend également du phénomène étudié et de sa cyclogénèse (son cycle de vie) qui obéissent aux lois de la thermodynamique. S'il est possible de simuler le comportement d'un cyclone dont la dimension horizontale peut dépasser 500 km de diamètre et sa durée de vie dépasser un mois, simuler une tornade dont le diamètre maximum atteint une centaine de mètres avec une durée de vie inférieure à trente minutes est tout a fait exclu actuellement. On en reparlera dans 50 ans.

Pour fêter les 50 ans du premier pas de l'Homme sur la Lune, en 2019 Philippe Lopez de l'ECMWF tenta de reproduire ces deux célèbres photos prises lors des missions Apollo à l'aide des prévisions numériques ECMWF IFS (Integrated Forecasting System) les plus récentes. A gauche, une photo prise par l’équipage d’Apollo 11 le 20 juillet 1969 vers 5 h TU (à gauche) et le photo-montage correspondant (à droite) réalisé à partir d’une prévision ECMWF de 29 heures avec une résolution de 28 km sur base de la réanalyse ERA-40. Les deux images sont centrées sur l’ouest de l’Océan Pacifique, l’équateur étant quasiment à la verticale. On reconnait l’Australie de couleur brune sur le côté gauche. A droite, une photo prise par l'équipage d'Apollo 17 le 7 décembre 1972 à 10h39 TU (à gauche) et la pseudo-image correspondante (à droite) générée à partir d'une prévision du CEPMMT de 11 heures avec une résolution de 9 km initialisée à partir de la réanalyse ERA-5. Le réalisme est stupéfiant sachant qu'à l'époque il n'existait pas d'images satellitaire (Tiros-1 fut lancé en 1960 mais ne fonctionna que 78 jours tandis que Météosat 1 fut lancé en 1977).

Se greffe sur ce problème le fait que les modèles numériques manquent parfois de précision et qu'ils deviennent de moins en moins fiables à mesure que temps passe, généralement au-delà de J+2 jours. Par ailleurs tous les modèles ne prennent pas en considération la couverture nuage, les zones de glace ou de neige, la présence des villes et des forêts quand il faut prévoir les températures... Comme les prévisionnistes, quand ils remarquent qu'un modèle dérive, les programmeurs font des corrections et réinjectent des données actualisées puis essayent de corriger les algorithmes de calcul.

Cette opération consistant à fournir à chaque instant la meilleure estimation de l'état de l'atmosphère (en prenant en compte les données les plus récentes) s'appelle "l'assimilation de données". Cette technique est utilisée chez Météo France dans le cadre du modèle vectoriel 4D-Var. Mais a contrario, ces corrections coûtent plus cher en ressources informatiques, et il n'est pas rare que le temps de traitement dure 3 à 4 fois plus longtemps et atteignent plus d'une heure. Dans une mission opérationnelle, ce délai est inacceptable

Enfin, un modèle n'est pas isolé et doit tenir compte au bord de son domaine de données extérieures, en particulier des prévisions internationales. Pour que le modèle soit fiable il faut l'alimenter avec des informations précises sur le temps qu'il fait partout sur la Terre à cet instant-là, c'est le modèle global qui tient compte des informations apportées par les stations météorologiques, les avions, les radars à pluie et les satellites. Mais étant donné que la couverture de la Terre n'est pas complète, surtout à travers les océans qui constituent 75% de la superficie du globe, les données manquantes doivent être interpolées à partir des mesures connues. Cette opération, l'assimilation, introduit des erreurs sur les prévisions, qui ne feront que s'amplifier avec le temps.

Les prévisions numériques à 8 jours de la NOAA

Niveau 1000:500 mb - Niveau 500 mb

Température de surface - Géopotentiel au niveau 500 mb

Prévisions pour le niveau 1000:500 mb (les basses couches) et 500 mb (en altitude) du 25 avril au 10 mai 2001. Noter l'ondulation caractéristique du front polaire (en vert foncé bordé de noir) qui apporte régulièrement son lot d'intempéries dans les pays tempérés. Cliquer sur les modèles pour les animer (434 Kb et 1 Mb). Documents NOAA-CDC.

Les sous-modèles et les prévisions locales

Il existe un grand nombre de modèles et ceux utilisés en Angleterre (Modèle unifié) sont différents des modèles français (Arpège) ou américains (MM5). De plus certains modèles sont dédiés aux prévisions à 2-3 jours, d'autres aux dix prochains jours ou à la détermination des vents ou des températures en altitude. Enfin, en climatologie les modèles les plus optimistes essayent d'évaluer le temps à quelques années voire quelques millénaires. C'est ainsi que l'on a pu prévoir la hausse globale de température de l'atmosphère pour le milieu du XXIe siècle.

En 1980, l’influence des océans, des terres, du pouvoir absorbant des végétaux était encore parfois négligée car la puissance de calcul et la capacité des ordinateurs était très limitée. Aujourd'hui les performances des différents modèles est toujours liée aux ressources informatiques.

Les modèles numériques comprennent eux-mêmes des sous-modèles. Ces représentations secondaires permettent d'encapsuler dans le modèle global certains processus physiques bien connus qui participent aux échanges avec l'atmosphère : les différentes couches atmosphériques, les modèles océaniques (profondeur, eaux et ondes de surface), la glace de mer, etc. Ces sous-modèles sont avant tout utilisés pour l'assimilation de données, pour insérer des observations météorologiques actualisées dans les calculs.

Certains de ces modèles auront bientôt des applications concrètes pour nous tous. Dans le cadre des développements réalisés autour d'Aladin, des recherches très prometteuses sont actuellement effectuées sur des modèles capables de prévoir le vent ou les précipitations à l'échelle d'un quartier.

De manière générale, le niveau de détail contenu dans chaque sous-modèle est limité soit par nos connaissances des processus concernés, soit par les coûts du traitement informatique, le fameux "temps CPU". Dans certains cas le prix de la précision n'est pas justifié par l'objectif à atteindre (ou les désirs du client) et une approximation est tout à fait suffisante.

Il arrive également que l'on adapte certains sous-modèles à des occasions particulières, comme la prévision du temps durant les jeux olympiques d'hiver qui nécessite une résolution maximale (elle était de 3.5 km lors des Jeux d'Albertville en 1992 et a été divisée par 3 en 20 ans) ou pour prévoir l'évolution des feux de forêt particulièrement dévastateurs (le modèle Aladin utilisé en Malaisie en 1997 et piloté par Arpège).

Ces sous-modèles sont en général utilisés par plusieurs organisations sous forme de "plugin" qu'il suffit d'adapter aux modèles nationaux. Dans ce but, le groupe EWGLAM a été créé au niveau européen. Il regroupe les chercheurs de 14 pays dont le but est d'échanger des informations scientifiques et d'encourager les collaborations entre chercheurs de différents pays. Le modèle de prévision opérationnelle Aladin fait partie de ceux-ci.

Un modèle de météo prévisionnel ne sera réellement fiable que s'il peut intégrer un maximum de données. Depuis quelques années, des chercheurs français testent la possibilité d'équiper toutes les voitures d'un capteur météo. En effet, les voitures étant très nombreuses et circulant partout, elles peuvent enregistrer anonymement toutes les données relatives à la météo locale : non seulement les paramètres météos classiques (température de l'air, humidité relative et pression atmosphérique) et la géolocalisation du véhicule mais également si le véhicule utilise son système de dégivrage, d'anti-patinage, ses feux anti-brouillards, les essuies-glace, etc, autant de données supplémentaires qui peuvent améliorer les prévisions. Mais ces données supplémentaires qui se comptent par milliards exigent aussi des ordinateurs encore plus puissants.

Comme on peut aujourd'hui simuler une tornade F3 ou F5 (cf. ORF), à terme les prévisionnistes pourront également prévoir les éclairs un jour à l'avance, les modèles actuels pouvant déjà simuler l'évolution des nuages cumuliformes et des supercellules ainsi que le risque d'éclair avec une heure d'avance.

A voir : Visualizations of a supercell thunderstorm that spawns a long-track EF5 tornado, ORF

A 10-m resolution quarter trillion gridpoint tornadic supercell simulation, ORF

Météorologie et climatologie : quand les variables entrent en jeu

Si la météorologie a pour objectif de prévoir le temps, la climatologie établit également des prévisions mais cette fois d'ordre climatique.

Si cela ressemble à la météorologie, les modélisations informatiques (simulations) des phénomènes météorologiques se différencient des simulations de l'évolution du climat par l'introduction de conditions initiales (le fameux "effet papillon") et de conditions aux limites (les facteurs d'influence extérieurs) fixées dans un état initial particulier dans lequel les variables deviennent... invariantes.

La simulation d'une situation météorologique rejoint le modèle climatique lorsque l'effet papillon et les conditions aux limites prennent tellement d'importance qu'ils déterminent l'état statistique moyen de l'atmosphère, son climat.

Les bactéries comme variable météorologique

Ainsi que nous l'avons expliqué dans le chapitre consacré à la faculté d'adaptation, Parisa Ariya, chimiste de l'atmosphère à l'Université McGill au Canada, a découvert que des milliards de micro-organismes peuplaient l'atmosphère jusqu'à plus de 60 km d'altitude.

En tant que météorologiste elle s'est demandé si ces bactéries ne jouaient pas un rôle dans le climat. Jusqu'à aujourd'hui en effet on a sous-estimé le rôle des bactéries en météorologie, or elles sont présentes dans toute l'atmosphère y compris dans les nuages. Comme on l'a vu à propos des précipitations, elles peuvent servir de noyaux de condensation et participer activement à la formation des nuages et des précipitations.

Les chercheurs canadiens effectuent actuellement des études pour incorporer ces micro-organismes dans les modèles climatiques. En effet, il se pourrait que ces bactéries y jouent-elles un rôle prédominant : elles influencent peut-être la dissémination des maladies, la formation des nuages, voir carrément le climat. Si leur présence permet d'affiner les prévisions météos, la preuve sera apportée.

Prévisions météos et tendances

Depuis quelques années, des entreprises publiques comme Météo France ou l'IRM et des entreprises privées proposent des prévisions en ligne, parfois gratuitement.

Parmi les sites gratuits, citons MeteoBlue et Wunderground (géré par The Weather Channel) notamment qui proposent des prévisions à court terme (3 à 5 jours) et des tendances à moyenne échéance allant de 7 à 14 jours assez complètes. MeteoBlue propose également l'évolution détaillée sur 24 heures ainsi qu'un météogramme très explicite comme on le voit ci-dessous.

Notons que les données de MeteoBlue sont calculées en Europe tandis que celles de Wunderground sont calculées sur base de modèles américains. En fonction des modèles, les prévisions à moyenne échéance sont très variables. Ainsi, dans des prévisions à J+10 et J+14, on peut observer une différence de 5°C pour le maximum de température du jour (J+0), preuve que ce type de modèle ne peut calculer que des tendances et ne remplacera jamais un modèle local à court terme.

A voir : Earth, la situation météo en 3D calculée toutes les 3 heures

Consultez le blog pour la courte revue de ce projet créé par C.Beccario

MeteoBlue, J+7

MeteoBlue, J+14

Wunderground, J+10

Prévisions à 24 heures et météogramme de MeteoBlue.

Sélectionnez une image pour vous connecter au site.

Actuellement, grâce aux radars de pluie, les systèmes LIDAR et des modèles régionaux de prévisions à court terme, un service météo comme celui de Brussels Airport est capable de prévoir au cours des trois heures à venir l'arrivée d'une zone de pluie sur l'aéroport, c'est-à-dire localement, pratiquement à la minute près ! Vous pouvez le vérifier avec un chronomètre, c'est très étonnant (même si le système à encore du mal à différencier les virgas de la pluie qui atteint le sol). C'est un record européen.

Quant au modèle français Arpège de prévision globale, les prévisions générales à 8 heures sont précises à plus de 90% tandis que le modèle Arôme offre une précise équivalente mais cette fois pour les prévisions locales ! En clair, pour certains services (aéroport, sport, agriculture, mairie, etc), le personnel peut planifier les activités à la minute près sans craindre les nuages ou les ondées !

Les superordinateurs vectoriels

On comprend aisément que de tels modèles (d'une situation météorologique ou climatique) ne tournent évidemment pas sur des ordinateurs domestiques, quoique (voir plus bas) mais sur des superordinateurs "gros comme un camion" ! Rassurez-vous, ils se pilotent toujours avec un simple terminal (et plus souvent avec un PC offrant les mêmes fonctions) comme on le voit sur les photographie présentées ci-dessous.

Longtemps, les centres météos ont travaillé avec les fameux ordinateurs IBM 360, 370, et autre 3090. Ces systèmes étaient plusieurs centaines de fois plus rapides que les PC domestiques les plus performants. Mais dans le cas des modèles d'IBM, à l'image du fameux Eniac de 1946, leur encombrant était à la hauteur de leurs performances. Voici à quoi ressemblait un IBM RS/6000 SP Asci White de 12 TFLOPS[1] en 2000 : il occupait tout un local pour prétendre être l'ordinateur le plus rapide du monde ! En 2007, il fut porté à 100 TFLOPS, devenant trois fois plus rapide que l'IBM Blue Gene/L (36 TFLOPS).

Les superordinateurs utilisés en météorologie comptent parmi les plus puissants du monde. Il y a dix ans ils étaient de la série CRAY-XMP, aujourd'hui il s'agit de Fujitsu VPP 5000 (à gauche) ou de NEC SX-5 (au centre). En 2005, ces superordinateurs offraient des prévisions à 4 jours aussi précises que celles à 24 heures en 1990 ! Notez à gauche, comparé au Fujitsu, la taille minuscule de l'ordinateur domestique au fond de la salle. A droite, les simulateurs de vol professionnels ont tiré profit de leur haute technologie pour créer des environnements météos virtuels dits "photo-réalistes". Côté amateur, les liaisons Internet à haut débit aidant, même un programme comme le fameux "Flight Simulator" de Microsoft les utilise, créant des conditions de vol basées sur des conditions météos réelles extraites des bulletins météos diffusés par les aéroports régionaux. Documents Fujitsu, BOM et SWRI.

Mais comme on dit "small is beautiful". Ainsi qu'on le voit ci-dessus, les IBM ont rapidement été remplacés par des modèles CRAY-XMP puis Unisys, Fujitsu et NEC nettement plus compacts et plus rapides. Mais leur mémoire de masse occupe malgré tout plusieurs dizaines de mètres cubes.

Un superordinateur de type Fujitsu dont la résolution spatio-temporelle atteint 7 km dispose d'une puissance de calcul d'environ 1 TFLOPS, équivalente à celle de 1000 ordinateurs domestiques cadencés à 1 GHz. Mais c'est insuffisant car trop lent pour établir des prévisions dans un délai raisonnable avec une résolution de 2 km.

Depuis 2013, Météo France dispose d'un superordinateur BULLX DLC B710. Sa puissance de calcul dépasse 1 PFLOPS.

En 2011, le record de vitesse de calcul était détenu par le superordinateur vectoriel Fujitsu K Computer SPARC64 qui atteint une vitesse (crête) de 8773 milliards d'opérations par seconde, soit 8.7 PFLOPS ! SGI était également bien placé. Son superordinateur PLEIADES utilisé par les chercheurs de la NASA arrivait en 7e place avec une vitesse de 1.3 PFLOPS. Quant au NEC SX-9 équipé de 512 noeuds comprenant chacun 16 processeurs, il atteint 839 TFLOPS.

Le 31 mai 2007, Météo France inaugura le NEC SX-8R dans ses bâtiments du Météopôle de Toulouse (il se louait 3.7 millions d'euros/an plus frais d'infrastructure). Sa puissance de calcul fut multipliée par 21 par rapport à l'ancien système Fujitsu VPP5000 !

Mais pour maintenir la qualité de ses services et offrir des prévisions toujours plus précises, en 2013 Météo France remplaça cette installation par un Bullx DLC B710 d'une puissance de calcul dépassant le PFLOPS; il est 12 fois plus puissant que le précédent modèle. Le projet coûta plus de 30.5 millions d'euros. Mais ce genre de matériel est vite obsolète (voir plus bas).

Ceci dit, les ordinateurs domestiques ont rattrapé une partie de leur retard en terme de vitesse pure. Ainsi, pendant que le SX-8 fanfaronnait à 65 TFLOPS et battait un nouveau record de puissance de calcul, en 2004 le processeur le plus rapide équipant un micro-ordinateur (en utilisant une seule carte-mère) était cadencé à 3 GHz et pouvait exécuter 3 milliards d'opérations par seconde. Aujourd'hui ce record est déjà battu par la société italienne Eurotech avec son superordinateur apeNEXT de 15 TFLOPS ! Bientôt les employés de Météo France pourront travailler sur de tels ordinateurs... à domicile !

Et ce n'est pas une boutade car il faut rappeler qu'une application distribuée comme Einstein@Home présentait en 2021, grâce aux 13000 ordinateurs mis à son service, une puissance globale de calcul supérieure à... 2.7 exaFLOPS ! Il existe également des applications distribuées consacrées à l'étude du climat, weather@home et Climateprediction dont voici l'image au cours d'un traitement sur l'ordinateur de l'auteur.

Les avantages de la puissance

Pourquoi Météo France a-t-il acquis un nouveau superordinateur ? Un exemple simple suffit à compendre cette décision. Les 8 et 9 septembre 2002, un orage violent déversa plus de 300 litres d'eau par mètre carré (l/m²) sur la moitié du département du Gard, provoquant d'importantes inondations. Météo France avait bien donné l'alerte, mais n'avait annoncé que 80 l/m² sur base du modèle Aladin. "Cet épisode exceptionnel illustre parfaitement les difficultés qu'ont nos modèles météorologiques actuels pour appréhender ce type d'orage", explique Alain Ratier, directeur adjoint de Météo France. "En revanche, en reprenant la même situation de départ qu'en 2002, notre nouveau modèle Arôme annonce le bon chiffre de 300 l/m², et cela sur la bonne zone du Gard", a-t-il annoncé.

Photo satellite de l'Europe prise le 10 août 2003 par le satellite MSG-1. C'était la canicule avec des températures largement supérieure à 30°C durant plusieurs jours qui feront plus de 10000 victimes, notamment en France. Document Eumetsat.

Contrepartie de sa meilleure précision, "le modèle Arôme est aussi 300 fois plus gourmand en temps de calcul que le modèle actuel, Aladin", remarque Emmanuel Legrand, directeur adjoint au Météopôle. Pour faire face à ces ressources, Météo France n'avait pas d'autre choix que de changer son ancien supercalculateur. Et le même problème se répète tous les 5 ans.

Avantage du nouveau système, le modèle Arôme tient compte des conditions locales de manières plus réaliste qu'Aladin, non seulement des données météorologiques classiques (température, humidité et pression) mais également de l'effet des montagnes et de la végétation pour offrir des prévisions numériques (simulations) plus précises, tant sur la quantité de nuages que les précipitations ou les turbulences. Le modèle Arôme pourra même prévoir les pluies torrentielles, les orages violents ou les brouillards.

Si les prévisions sont dorénavant plus précises, en revanche, leur échéance ne porte que sur deux jours maximum, même si en théorie les prévisions numériques sont fiables jusqu'à une échéance de 10 jours.

Le modèle Arôme, fruit d'une coopération entre les chercheurs et 17 services météorologiques européens, sera, dans un premier temps, exploité sur le territoire et domaine maritime français avant d'être couplé aux modèles Arpège et Aladin qui réalisent des prévisions à l'échelle régionale.

Notons enfin que le superordinateur Bullx est également utilisé pour étudier les effets du réchauffement climatique et les effets des reliefs, des côtes et de la profondeur des mers sur la dynamique de l'atmosphère et des océans.

L'intelligence artificielle : GraphCast et AIFS

Aujourd'hui l'intelligence artificielle est présente dans de nombreux secteurs de la société, des domaine scientifiques et techniques aux applications domestiques et ludiques. La météorologie n'a pas échappé à cette tendance.

Dans un article publié dans la revue "Science" en 2023, une équipe de chercheurs de Google DeepMind prédit que grâce à l'outil d'apprentissage automatique (machine learning) "GraphCast" de l'IA DeepMind, les prévisions météorologiques seront meilleures, plus rapides et valables sur 10 jours dans un proche avenir.

Selon les auteurs, GraphCast est entraîné directement à partir des données de réanalyse. Il se base sur 36.7 millions de paramètres au total en tenant compte de 227 variables en chaque point de la grille. C'est encore un modèle relativement petit par rapport aux normes d'apprentissage automatique modernes, mais il fut choisi pour garder une empreinte mémoire gérable dans les limites des contraintes d'ingénierie actuelles. Alors que HRE (High Resolution Forecast) du centre météo de Reading (l'ECMWF) propose par exemple des prédictions sur 10 jours avec une résolution globale de 0.1° soit ~3 km en latitude-longitude, 137 niveaux verticaux et des intervalles de temps allant jusqu'à 1 heure, sur la même période GraphCast fonctionne avec une résolution de 0.25° (~27 km), 37 niveaux verticaux et des intervalles de 6 heures.

A voir : A selection of GraphCast’s predictions rolling across 10 days, Google DeepMind, 2023

Webinar - Peter Battaglia, Google DeepMind, 2023

Simulation de la sitation atmosphérique générale réalisée par Graphcast. Document Google DeepMind.

GraphCast est capable de prédire des centaines de variables météorologiques sur 10 jours, en moins d'une minute. Sur 1380 cibles de vérification, GraphCast a surpassé considérablement les systèmes déterministes opérationnels les plus précis dans 90% des cas. Ses prévisions prennent également en charge une meilleure prévision des évènements graves, notamment le suivi des cyclones tropicaux, des rivières atmosphériques et des températures extrêmes.

GraphCast rejoint d'autres systèmes de prévision météorologique de pointe de Google DeepMind et Google Research, notamment un modèle régional de prévision immédiate appelé "Nowcasting" qui produit des prévisions jusqu'à 90 minutes à l'avance, et "MetNet-3", un modèle régional de prévision météorologique déjà opérationnel pour les États-Unis et l'Europe qui produit des prévisions sur 24 heures plus précises que tout autre système.

En résumé, selon les auteurs "GraphCast constitue une avancée majeure en matière de prévisions météorologiques précises et efficaces et contribue à concrétiser les promesses de l'apprentissage automatique pour la modélisation de systèmes dynamiques complexes. [Il a] le potentiel d'évoluer beaucoup plus à l'avenir avec des ressources de calcul plus importantes et des données à plus haute résolution.

Enfin, rappelons que si le système HRE de l'ECMWF n'exploite pas encore l'intelligence artificielle, le 13 octobre 2023 l'ECMWF annonça qu'elle avait lancé la version alpha (c'est-à-dire une version testée en disponibilité limitée avant que la version finale ne soit validée pour une utilisation généralisée) de son nouveau système de prévisions météo basé sur l'apprentissage automatique appelé "AIFS" (Artificial Intelligence/Integrated Forecasting System). S'il fonctionne aussi bien que GraphCast, AIFS sera peut-être le système de prévision le plus performant du monde.

L'avenir

L'informatique, que ce soit le matériel ou les logiciels évoluent sans cesse. Les superordinateurs vectoriels très performants en 2010 (de 100 TFLOPS ou de 1 PFLOPS) sont déjà dépassés. En effet, en 10 ans la vitesse de calcul des nouveaux superordinateurs est multipliée par 500 ou 1000, ce qui équivaut à passer du PC XT au Pentium mais en deux fois moins de temps. S'ajoute à ce gain de puissance, la faculté d'apprentissage inégalée de l'intelligence artificielle. Bien sûr le prix est à la hauteur des performances.

La vitesse de calcul de chacun des deux Cray XC30 "Anemos" opérationnels en 2014 à l'ECMWF atteignait ~1.79 PFLOPS (crête). Chaque unité comprenait plus de 83000 coeurs de processeurs Intel Xeon de 2.7 GHz (comparé aux 4 ou 8 coeurs de processeurs d'un ordinateur domestique !). Le contrat multi-annuel dépassait 65 millions de dollars. Ce système fut remplacé en 2016 par 2 Cray XC40 puis en 2020 par un système BullSequana XH2000 atteignant 40 PFLOPS dont le contract de service de plus de 80 millions d'euros fut signé avec Atos. Ce superordinateur est équipé de processeurs AMD EPYC 7742.

En 2020, le Fugaku affichait 415 PFLOPS et le programme complet revient à 1 milliard de dollars. Le HPE El Capitan qui sera opérationnel en 2024 atteindra 2 exaFLOPS (crête) pour un coût total de 600 millions de dollars. Cela représente entre ~120 et 200% du budget total de Météo France qui était de 411 millions d'euros (~505 millions de dollars) en 2018 !

A gauche, l'un des deux Cray XC30 "Anemos" opérationnel en 2014 au centre ECMWF de Reading (Perf.crête de 1.8 PFLOPS). En 2016, ce système fut upgradé par 2 Cray XC40 contenant chacun 130000 coeurs de processeurs Intel Xeon "Broadwell". En 2020, les XC40 furent remplacés par une machine BullSequana XH2000 (à droite) qui dépasse 40 PFLOPS. Le système peut exécuter des analyses et des prévisions avec une grille de 10 km et 137 niveaux verticaux qui sera portée à 5 km en 2025. Entre-temps, il tournera avec le système de prévision météo AIFS basé sur l'apprentissage automatique.

Concernant les logiciels, aujourd'hui les prévisions à 4 jours sont aussi précises que celles à 24 heures en 1990 ! Grâce à l'IA, on va plus que doubler cette période en offrant un degré de certitude plus élevé. Globalement, depuis 1975 l'échéance des prévisions générales est passée de 5 à 10 jours et la grille d'analyse est passée de 12 à 10, 5 et à présent à 1.2 km. Nous gagnons ainsi progressivement en précision et gagnons un jour d'échéance tous les dix ans.

Ceci dit, aujourd'hui une prévision météo n'est fiable à 100% que quelques heures avant l'évènement. Pour de petites régions soumises à des régimes tempérés comme le Luxembourg par exemple, on constate parfois que les prévisions à 12 heures pour une ville annoncent un temps pluvieux alors que celles à 8 ou 4 heures annoncent un temps sec. S'il est évident qu'un vent légèrement plus ou moins fort peut facilement dévier les nuages de la trajectoire prévue, ce sont ces détails qui rendent ou non les prévisions fiables. Ceci dit, passé un délai de 7 jours les prévisions deviennent moins précises et on parle plutôt de tendance. Mais grâce à l'IA cela pourrait changer.

Vers 2050, sans même parler de l'IA, grâce notamment à l'utilisation intensive des satellites, des radars et des données synoptiques, on estime pouvoir établir des prévisions fiables à plus de 90% à 14 jours et des prévisions locales à échéance de 8 heures fiables à 99%. Si vous ajoutez les capacités de l'IA, on peut pratiquement prédire tout ce que vous voulez. Vous pourrez consulter la météo pour savoir avec précision si vous pouvez faire un barbecue dans votre jardin ce weekend entre 13 et 14h ou si vous pourrez vous balader à vélo dans une semaine à 50 km de chez vous sans risquer l'averse ! Ces modèles vous permettront également de mieux comprendre pourquoi il pleut ou vente plus souvent chez vous que dans un autre quartier, car telle est la réalité !

Deuxième partie

L'expertise humaine

Page 1 - 2 -


[1] 1 teraFLOPS ou TFLOPS = 1 milliard d'opérations en virgule flottante par seconde (ou 1000 Mips) = 2500 CPU Pentium cadencés à 450 MHz. Un PC cadencé à 1 GHz présente une capacité de calcul d'environ 1 GFLOPS mais la progression n'est pas strictement linéaire car elle dépend des performances des caches du processeur. Seuls des benchmarks peuvent déterminer les performances de calcul de votre ordinateur. Bien qu'on trouve dans la littérature "flop" au singulier - c'est devenu un néologisme - le terme devrait toujours s'écrire "FLOPS", avec "s", car c'est le diminutif de "seconde" (FLoating-point Operation Per Second) et en majuscule puisqu'il s'agit d'un acronyme. Le pluriel devrait s'écrire "FLOPSs" mais il est très peu utilisé (et je ne l'utilise pas non plus) et discutable avec les acronymes.

Notons qu'une simple calculatrice de poche réalise en théorie une seule opération par seconde. Nous avons rarement besoin d'un temps de réponse plus rapide. Subjectivement, nous considérons que toute réponse affichée en moins de 0.1 seconde est instantanée. Cela permet d'attribuer aux calculatrices une performance d'environ 10 FLOPS. Quant au méthodes de calculs manuelles (une division difficile), notre performance tombe en général à environ 1 milliFLOPS. Ces performances sont bien sûr très différentes de celles de nos facultés neuromotrices.


Back to:

HOME

Copyright & FAQ