4. Courte introduction aux méthodes numériques
p. 154-156
Texte intégral
1Pour pouvoir être résolues numériquement, les équations représentant le système climatique* doivent être mises sous une forme discrétisée adaptée à la représentation numérique. En premier lieu, chaque champ (température, humidité, vent) doit être identifié à une série finie de nombres. La manière la plus simple de procéder est de quadriller l’atmosphère et l’océan par une grille horizontale et verticale et de se donner une valeur du champ en chaque point de cette grille, ce qui permet de couvrir l’ensemble du volume de l’atmosphère et de l’océan (figure). Le temps est lui aussi discrétisé en un ensemble d’instants qui se suivent, séparés par un intervalle fixe. La combinaison de la grille spatiale et de la discrétisation temporelle forme un quadrillage de l’espace-temps. L’évolution d’un instant au suivant sur ce quadrillage est effectuée en utilisant une version discrétisée des équations dans lesquelles les dérivées dans le temps et dans l’espace sont remplacées par des différences entre proches voisins dans le temps et dans l’espace sur ce quadrillage. Un tel schéma numérique* permet de proche en proche d’obtenir l’état du système climatique* pour des temps futurs à partir d’une condition initiale donnée et des conditions de forçage (flux solaire entrant, composition de l’atmosphère…).
Problèmes posés par la résolution des grilles
2La résolution correcte de toutes les échelles du mouvement dans l’océan et l’atmosphère exigerait une grille au pas spatial de 1 mm environ et au pas temporel d’une fraction de seconde. Cela est proprement inimaginable (la seule représentation de l’atmosphère à 1 mm de résolution sur 100 km d’épaisseur exigerait une mémoire de l’ordre de 1030 octets, au moins 100 milliards de fois la capacité mémoire de tous les ordinateurs sur Terre) et il faut être infiniment plus modeste, les limites étant fixées par la capacité des calculateurs disponibles. En pratique, en 2011, un modèle atmosphérique de prévision du temps actuel a une résolution horizontale de 15 km sur l’ensemble du globe et une centaine de niveaux sur la verticale. Un modèle atmosphérique de climat est quant à lui destiné à étudier des évolutions décennales ou séculaires, plus longues qu’en prévision du temps, et à fonctionner au sein d’un simulateur de climat incluant un océan dynamique et quantité de composantes pour des variables (végétation, glace, état des sols, hydrologie, composition de l’atmosphère…) qui sont fixes en prévision du temps. On doit alors se contenter d’une grille 10 fois moins fine selon l’horizontale et d’une cinquantaine de niveaux sur la verticale. Les chiffres sont similaires pour les modèles d’océan. Cette résolution limitée a un prix élevé : on ne peut représenter explicitement un certain nombre de phénomènes importants qui se passent à des échelles sous la taille de la maille, en premier lieu les nuages. D’où la nécessité et l’importance des paramétrisations (cf. IV-6).
3Le plus souhaitable est de disposer d’une résolution horizontale permettant de représenter au moins les mouvements les plus énergétiques. Ceci est relativement aisé dans l’atmosphère où, aux latitudes tempérées, les cyclones et les anticyclones atteignant une taille de 1 000 à 2 000 km, une maille de l’ordre de 100 km convient. Cependant, pour représenter les tempêtes, les cyclones tropicaux ou les grands systèmes orageux, la grille doit atteindre une résolution d’une dizaine de kilomètres. En effet, en règle générale, les événements les plus intenses se produisent à des échelles spatiales petites et sur des durées brèves. Dans l’océan, la situation est encore plus compliquée car les tourbillons les plus énergétiques se situent à une échelle allant de 30 à 50 km (cf. II-17). Si des modèles globaux d’océan existent avec une résolution de 10 km, ils sont encore actuellement trop coûteux pour être utilisés en simulation climatique. Il faut donc se contenter à l’heure actuelle de modèles représentant correctement la réponse de l’océan au forçage par les vents mais dont les processus internes sont fortement paramétrisés.
4La résolution verticale est quant à elle plus fine que la résolution horizontale car l’océan et l’atmosphère forment une fine pellicule à la surface de la Terre, en comparaison à son diamètre. L’essentiel des phénomènes météorologiques se passe ainsi dans une couche de moins de 20 km alors que l’océan a en moyenne une profondeur de 3 800 m. De plus, cette résolution verticale n’est pas uniformément distribuée. Elle doit être plus fine dans les régions d’interface, c’est-à-dire dans les couches limites de surface qui se forment au-dessus du sol et de part et d’autre de la surface de la mer, à la tropopause* qui sépare la troposphère de la stratosphère, et à la thermocline*. De manière paradoxale, la résolution verticale doit être plus fine dans les zones stratifiées que dans les zones les plus brassées. En effet, dans ces dernières, le brassage uniformise un certain nombre de quantités alors que dans les premières, des variations importantes peuvent se produire sur une petite échelle verticale. Cela s’applique aux brouillards et stratus*, comme aux cirrus* et aux couches salées ou fraîches dans l’océan. Cela s’applique aussi à la propagation des oscillations de densité appelées ondes de gravité* qui jouent un grand rôle dans la dynamique.
5Mais la présence d’un sol ou d’un fond d’océan irrégulier complique la tâche. Il ne serait pas pratique que les couches horizontales intersectent partout le relief, d’autant plus que le vent ou le courant heurtant un relief, s’il ne peut le contourner, doit passer par-dessus. Des grilles flexibles ont donc été développées pour permettre de suivre le relief en épousant ses formes. Dans le cas de l’océan, la forme complexe des côtes est traitée par des algorithmes de maillage automatique. Bien souvent, l’écoulement transporte de l’eau, des poussières ou des espèces chimiques. Des méthodes numériques existent pour s’assurer que ce transport se fait sans perte ou ajouts parasites dus à la discrétisation.
6Le choix du pas de temps dans le calcul de l’évolution des modèles est un compromis. S’il est petit, la précision est améliorée mais le nombre des calculs et leur coût augmentent. S’il est trop grand, on perd en précision mais on peut aussi enclencher une instabilité numérique où les valeurs divergent et le modèle perd toute pertinence. La règle la plus simple est que le pas de temps doit être pris plus petit que le temps caractéristique des phénomènes les plus rapides à représenter à la résolution choisie. On peut concevoir des schémas d’intégration qui repoussent cette limite et filtrent les instabilités numériques mais c’est au prix d’une mauvaise représentation des phénomènes rapides. Il reste que comme les instabilités sont plus rapides dans l’atmosphère que dans l’océan, le pas de temps est plus court pour l’atmosphère que pour l’océan, typiquement 15 minutes contre 100 minutes dans une simulation climatique.
Augmentation de la résolution
7Il est généralement admis que le progrès des modèles vers plus de réalisme passe par l’augmentation de la résolution permettant de mieux représenter les phénomènes de petite échelle. Cependant, chaque augmentation de résolution demande une révision des paramétrisations et se traduit rarement d’emblée par une amélioration. Il convient en effet de régler différemment voire de modifier complètement les paramétrisations des processus sous-maille. En dessous de certains seuils, la taille de la maille peut aussi rendre invalides certaines approximations utilisées dans les équations et nécessiter une reformulation (par exemple, l’approximation hydrostatique n’est pas utilisable dans les modèles régionaux de prévision à l’échelle kilométrique). Une situation délicate se produit quand l’échelle d’un phénomène est atteinte mais pas encore bien résolue, il y a alors interférence entre le comportement explicitement représenté et celui de la paramétrisation encore nécessaire. Il peut aussi se produire que des défauts de paramétrisation se compensant fortuitement à une résolution donnée ne le fassent plus lorsque la résolution augmente. On observe sur les 25 dernières années que la résolution des modèles atmosphériques de prévision du temps a été multipliée par 25 selon l’horizontale et 5 selon la verticale.
8Une solution fréquente est d’utiliser des grilles horizontales variables ou des modèles imbriqués. La grille variable peut être adaptée de manière plus fine là où on a un intérêt particulier, comme au-dessus de l’Europe, ou dans les endroits où les échelles spatiales des variations sont plus courtes, comme sur le bord ouest des océans (où se forment des courants comme le Gulf Stream) et en général près des côtes. Les modèles imbriqués consistent à faire fonctionner un modèle plus détaillé, par exemple résolvant explicitement la dynamique nuageuse, dans un domaine limité en utilisant comme conditions aux bords celles qui sont prescrites par un modèle global. Cela part de l’idée généralement vérifiée que ce qui se passe à l’échelle fine dans le domaine limité est déterminé par les conditions à plus grande échelle. Plusieurs niveaux d’imbrication sont parfois pratiqués. Cette approche est très employée pour la régionalisation (cf. V.13) et elle peut également permettre d’augmenter localement la résolution (comme une loupe) lorsqu’un événement intense se produit. Si l’on s’en sert pour calculer l’effet en retour sur la dynamique de grande échelle, on aboutit à une super-paramétrisation.
Autres approches numériques
9La représentation des champs comme une grille de valeurs n’est pas la seule possible. Une alternative est de faire appel à une base de fonctions définies dans le domaine. Sur un plan, on utilisera ainsi les sinus et cosinus, bases de l’analyse de Fourier*. Sur une sphère, on utilisera les harmoniques sphériques qui en sont la généralisation. Cette méthode, dite spectrale, permet une estimation précise des dérivées spatiales et est aussi la seule à procurer une résolution horizontale parfaitement homogène sur la sphère, ce qui n’est pas le cas d’un maillage comme l’illustre la figure. D’autres méthodes, dites « en éléments finis », consistent à découper l’espace en petits pavés et à définir les champs comme une combinaison de fonctions définies sur ces pavés. Ces méthodes ont la faveur des mathématiciens car de nombreux travaux ont été effectués sur ces représentations pour prouver la convergence des solutions discrètes vers les solutions continues. Une approche actuellement en développement est d’utiliser une discrétisation fondée sur la division en petits hexagones des faces d’un icosaèdre (avec 20 faces, le plus grand nombre atteignable pour un polyèdre régulier). Ceci est plus difficile à mettre en œuvre que la grille latitude-longitude mais offre une représentation plus homogène et s’avère en outre plus efficace sur les machines parallèles. Un autre développement important est l’utilisation de méthodes mathématiques dites « symplectiques » dans le passage d’un pas de temps à l’autre. Un tel intégrateur est conçu pour respecter la structure des équations et préserver les quantités invariantes en conditions adiabatiques (hors chauffage et friction), ce qui permet d’éviter, par exemple, que le modèle perde ou gagne sur le long terme de la masse ou de l’énergie par des effets purement numériques.
10En conclusion, l’utilisation de méthodes numériques précises et performantes est essentielle au développement de la modélisation du climat, c’est pourquoi elles ne sont pas figées et font l’objet d’une recherche active en collaboration avec les spécialistes mathématiciens. Les défis actuels consistent à définir des méthodes adaptées aux supercalculateurs modernes avec plusieurs milliers voire plusieurs dizaines de milliers de processeurs (cf. V-6). Une autre difficulté non négligeable réside dans la masse considérable de données engendrées par les expériences de simulation climatique, de l’ordre de plusieurs dizaines de milliers de téraoctets dans les expériences d’intercomparaison destinées au 5e rapport du GIEC*. Il faut concevoir les méthodes pour organiser, archiver, distribuer et permettre à de multiples chercheurs d’en extraire chacun les éléments qui les intéressent. Cette difficulté est commune avec les données d’observation où les instruments spatiaux ont un poids grandissant et déversent en continu un flux colossal d’informations sur la Terre et son climat auxquelles les données de modélisation doivent être comparées.
Bibliographie
Référence bibliographique
• J. COIFFIER - Les bases numériques de la prévision du temps, Météo France, 2009.
Auteur
Physicien de l’atmosphère, Directeur de Recherche au CNRS, Membre de l’Academia Europaea, LMD, Paris.
legras@lmd.ens.fr
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
L'archéologie à découvert
Hommes, objets, espaces et temporalités
Sophie A. de Beaune et Henri-Paul Francfort (dir.)
2012