Chapitre 1 : Du climat global au climat régional
p. 19-40
Texte intégral
1Coordination : Hervé Le Treut
2Rédacteurs : Vincent Bernard, Christophe Cassou, Iker Castège, Aurélie Chaalali, Déborah Idier, Gonéri Le Cozannet, Serge Planton, Aurélien Ribes
Le climat de la planète ou celui d’une région est défini comme la statistique sur quelques décennies des états successifs de l’atmosphère et des autres milieux qui définissent notre environnement : océans, rivières, nappes d’eau souterraines, faune et flore. Des éléments tels que l’apport d’énergie par le soleil ou la rotation de la Terre organisent la diversité des climats à l’échelle de la planète. Parce que certains gaz à effet de serre restent plusieurs décennies ou plusieurs siècles dans l’atmosphère, et qu’ils ont donc le temps de s’y mélanger et de se répartir à la surface du globe, leur croissance en réponse aux activités humaines a la capacité de modifier le climat de la planète. Les dernières décennies ont été marquées globalement par des augmentations de température, plus fortes en Arctique et sur les continents, par une intensification des précipitations en région équatoriale et aux moyennes latitudes, par des sécheresses plus fréquentes dans les régions subtropicales, par une fonte accélérée du Groënland, de la banquise Arctique et des glaciers de montagne, par un relèvement général du niveau de la mer à un taux de plus de 3 mm par an. Tous ces éléments sont en accord avec les modélisations réalisées depuis plus de trente ans dans les laboratoires de recherches pour caractériser l’impact de l’augmentation des gaz à effet de serre. Comme cette augmentation se poursuit à un taux accéléré, une intensification importante des évolutions climatiques dans les décennies à venir apparaît désormais inévitable. Définir des méthodes d’adaptation préventive à des situations qui seront très largement nouvelles est donc nécessaire.
Cette adaptation serait grandement aidée par une caractérisation et une quantification précise de des évolutions climatiques futures à l’échelle régionale. Celle-ci n’est cependant que partiellement possible. L’action publique doit donc s’appuyer sur d’autres éléments que les seules prévisions issues de modèles numériques pour conduire son action, tels que l’étude de la vulnérabilité des systèmes socioéconomiques ou des écosystèmes aux changements climatiques, la définition de politiques résilientes face à des aléas qui restent imparfaitement caractérisés, ou encore l’importance accordée à la lecture des événements climatiques passés.
I- Quelques définitions
3Le climat de l’Aquitaine est la composante régionale d’un système beaucoup plus vaste, de dimension planétaire. Il est habituel d’expliquer « le temps qu’il fait » sur l’Aquitaine, que l’on peut encore désigner comme « la situation météorologique » de l’Aquitaine, par des événements lointains, tels qu’un renforcement de l’anticyclone des Açores, le développement de tempêtes atlantiques ou l’arrivée d’air arctique. La notion de « climat », qui fait l’objet de cet ouvrage, est alors le plus souvent définie comme la statistique des différentes situations météorologiques qui se succèdent pendant plusieurs dizaines d’années. Les deux notions de « temps » et de « climat » sont donc très différentes mais elles partagent une caractéristique importante : il n’est pas de prévision météorologique sans connaissance de la circulation atmosphérique de l’ensemble du globe, et de la même manière il est impossible d’anticiper ce que peut devenir le climat de notre région sans se placer dans le contexte de la planète tout entière.
4Pour préciser ces notions, il faut revenir à quelques définitions. Le mot « climat » signifie « inclinaison » en grec, et aux temps de la science antique, il a d’abord fait référence à la rotondité de la Terre. Celle-ci implique que les rayons du soleil arrivent au sol avec une inclinaison qui dépend de la latitude, en modulant la température locale, plus forte près de l’Équateur, plus faible en se dirigeant vers les Pôles. Cette notion de climat a beaucoup évolué et il est désormais plus facile de définir ce qu’est le « système climatique ». On appelle ainsi le milieu dans lequel nous vivons, notre « environnement », c’est-à-dire l’ensemble des composantes très différentes que sont l’atmosphère, les océans, la surface continentale, ainsi que toutes leurs interactions, physiques, chimiques et biologiques. Le mot « climat » dépasse alors la définition strictement atmosphérique que nous avons donnée : il désigne les caractéristiques du système climatique en un lieu donné, caractéristiques établies sur une période qui est souvent de 30 ans. Un large ensemble de paramètres permet de décrire le climat d’une région, par exemple la température, le vent, l’humidité de l’air, ou encore le contenu en eau du sol, l’état des rivières, la composition de l’atmosphère, ou la salinité de l’océan. Ces paramètres sont analysés le plus souvent au travers de moyennes, annuelles aussi bien que mensuelles ou saisonnières. Mais caractériser le climat c’est aussi décrire des événements plus rares et irréguliers, tels que des tempêtes violentes, des sécheresses persistantes. Aux moyennes latitudes, où se trouve l’Aquitaine, un élément essentiel est de décrire statistiquement le passage de dépressions ou d’anticyclones venant de l’Ouest. La fréquence des « blocages », ces épisodes qui voient un anticyclone s’installer de manière durable sur nos régions, en provoquant de grands froids l’hiver et de fortes chaleurs l’été, constitue aussi un élément essentiel de notre climat. Il en va de même du temps de retour des grandes tempêtes hivernales, qui ont une importance parfois dramatique, comme cela a été le cas au cours des dernières décennies. Au total si la notion de climat est moins immédiatement visible que celle « du temps qu’il fait », elle n’en demeure pas moins une notion très concrète. C’est bien le climat d’une région qui détermine comment on s’habille, où l’on vit, comment on construit nos maisons et nos villes, ce que sont nos ressources en eau ou en aliments.
5Les climats de la planète s’organisent à grande échelle : chacun sait qu’il existe par exemple des climats équatoriaux, tropicaux ou de moyennes latitudes. La première classification de ces climats, encore enseignée dans les écoles, remonte aux travaux du scientifique russo-allemand Wladimir Peter Köppen. Elle fut publiée sous sa forme définitive en 1936 (Köppen avait 90 ans !) dans un ouvrage très célèbre qui est l’aboutissement de 40 ans de travail et de recueil de données [1]. La classification de Köppen reflète les particularités physiques et écologiques de chacune des régions du globe. Ces régions sont différentes pour des raisons qui tiennent à leur localisation : elles reçoivent plus ou moins de rayonnement solaire et sont plus ou moins éloignées de l’axe de rotation de la Terre. Mais là ne s’arrêtent pas les facteurs de différentiation. Le système climatique, via les mouvements de l’atmosphère et des océans, transfère aussi constamment de l’eau, de l’énergie, et du mouvement atmosphérique ou océanique d’une région à une autre : ces interactions complexes façonnent également les climats de la planète. En conséquence, comprendre comment le climat de la Terre peut changer dans le futur, comprendre par exemple le rôle que peut avoir l’augmentation des gaz à effet de serre en superposant ses effets aux fluctuations naturelles du climat, tout cela doit d’abord s’appréhender à l’échelle de la planète, avant de focaliser le regard sur une région telle que l’Aquitaine.
II- Des premières alertes aux premiers diagnostics : la structuration de la communauté scientifique
6Même si l’on fait souvent référence au travail du prix Nobel suédois Svante Arrhénius, qui avait en 1896 anticipé l’impact possible d’une croissance du dioxyde de carbone (CO2) atmosphérique [2], c’est surtout après la Seconde Guerre mondiale que l’impact des activités humaines sur le climat de la planète a suscité une inquiétude croissante. Les émissions atmosphériques de CO2 ont fortement augmenté depuis cette époque : elles étaient d’un milliard de tonnes de carbone par an environ au début des années 1950, et elles sont désormais proches de 9 milliards, un chiffre auquel il faut ajouter la part de la déforestation (10 à 20 %). Cette même accélération se retrouve dans l’émission des autres gaz à effet de serre tels que le méthane, ou le protoxyde d’azote.
7Dans les années 1950, des scientifiques américains ont posé de manière insistante le problème de l’augmentation possible du CO2 atmosphérique en réponse à l’usage croissant de charbon, de pétrole et de gaz naturel. L’article très célèbre de Revelle et Suess (1957) montrait que l’océan pourrait se révéler incapable de reprendre en temps réel les quantités de gaz émises dans l’atmosphère [3]. Ces interrogations ont donné lieu à un suivi régulier de la teneur atmosphérique en CO2, initié dès la même année à Hawaï, au sommet du volcan Mauna Loa.
8Le résultat est sans équivoque : depuis 1957 cette teneur en CO2 est passée d’une valeur de 290 ppm (parties par million) à près de 400 ppm, alors que les mesures réalisées dans les bulles d’air des glaciers montrent qu’elle n’avait pas dépassé 300 ppm au cours des 10 000 dernières années.
9Ces mesures ont permis d’acquérir dès les années 1970 la certitude qu’une fraction importante du CO2 émis se stocke durablement dans l’atmosphère. On estime plus précisément que la part qui n’est pas immédiatement reprise par l’océan ou la végétation, à une durée de vie atmosphérique d’une centaine d’années. D’autres gaz ont aussi une durée de vie atmosphérique longue : une dizaine d’années pour le méthane, une centaine d’années pour le protoxyde d’azote, plusieurs dizaines ou centaines d’années également pour les différents fréons. Il est donc rapidement devenu clair que les émissions de gaz à effet de serre engageaient le futur, et ceci d’autant plus qu’il a très vite été possible de calculer des ordres de grandeurs des conséquences attendues. Dès 1979, le rapport présenté par le très célèbre scientifique Jule Charney à l’Académie des Sciences américaine [4] permettait d’estimer qu’un doublement du CO2 atmosphérique conduirait à augmenter la température de surface moyenne de la planète de 1,5 °C à 4,5 °C, des valeurs très inquiétantes si on les rapporte à l’amplitude estimée des fluctuations naturelles du climat pendant les derniers milliers d’années (quelques dixièmes de degrés) ou si l’on prend la dernière déglaciation comme référence. Il y a 20 000 ans, en effet, quand l’Europe et l’Amérique du Nord, étaient couvertes de glaciers de plusieurs kilomètres d’épaisseur, la température globale de la planète était 5 à 6 degrés plus froide que maintenant – ce qui témoigne de l’ampleur d’une perturbation globale de plusieurs degrés.
10Les résultats présentés dans le rapport Charney [4] se fondaient en premier lieu sur des calculs complexes de spectroscopie, qui permettent une estimation assez précise de la variation du rayonnement terrestre associée à l’augmentation des gaz à effet de serre. Cet impact radiatif provoque un réchauffement à la surface de la Terre, qui est ensuite amplifié par des phénomènes de rétroaction. La vapeur d’eau, par exemple, qui est un gaz à effet de serre puissant, voit sa teneur atmosphérique augmenter avec la température, ce qui tend à créer un effet de serre additionnel qui double la réponse climatique. La fonte de la neige ou des glaces a aussi un effet amplificateur, un peu moindre. Le rôle des nuages est beaucoup plus complexe. Cet effet n’était pas pris en compte explicitement à l’époque de Charney : c’est l’un des facteurs qui interdit de mieux préciser l’amplitude de la réponse climatique et qui fait que le réchauffement simulé par les modèles actuels pour un doublement du CO2 s’inscrit toujours dans la même fourchette allant de 1,5 °C à 4,5 °C environ.
11La mise en évidence de ces ordres de grandeurs s’est accompagnée très vite d’une autre estimation, indiquant qu’une stabilisation du CO2 atmosphérique réclame de ne pas dépasser un seuil approximatif de 3 ou 4 milliards de tonnes de carbone émis chaque année, soit environ une demi-tonne par habitant. Rapporté aux émissions actuelles ce seuil implique de diminuer par plus de 10 les émissions de CO2 d’un américain, par 4 environ celles d’un Européen, et par 2 déjà celles d’un Chinois (des chiffres qui sont souvent extrapolés à l’ensemble des gaz à effet de serre). Le problème des gaz à effet de serre s’est donc très tôt présenté comme un problème difficile, à la fois par ses conséquences potentielles, et par l’ampleur des efforts qui sont nécessaires pour les éviter.
12C’est la convergence de ces éléments qui a amené, en 1980 et 1988 respectivement, les créations successives du Programme Mondial de Recherche sur Climat (PMRC) et du Groupe Intergouvernemental d’Experts sur l’évolution du Climat (GIEC), qui restent après plus de vingt ans deux piliers essentiels des études sur le climat. Le PMRC (établi sous l’égide de l’Organisation Météorologique Mondiale, une émanation de l’ONU, du Comité Océanographique International de l’UNESCO et du Conseil International des Unions Scientifiques) a pour mission d’organiser les recherches menées dans les différents laboratoires de la planète : c’est lui qui permet de coordonner les mesures en mer ou par satellite, et qui a établi des projets collectifs de développement et d’utilisation des modèles climatiques. Le GIEC (qui dépend des mêmes tutelles) a été instauré pour permettre, là aussi au niveau international, une traduction des résultats de ces recherches à l’attention du grand public, des décideurs, ou des citoyens. La démarche du GIEC est de synthétiser les publications déjà parues dans les revues à comité de lecture de la communauté scientifique. Elle s’appuie sur le travail bénévole de plusieurs centaines d’auteurs dont les textes sont lus et critiqués au travers de trois relectures successives par l’ensemble des scientifiques qui le souhaitent, et résumés dans des textes plus courts qui sont approuvés à l’unanimité par des experts scientifiques nommés par les différents gouvernements.
III- Des outils indispensables pour se projeter dans le futur : les modèles climatiques
13Les modèles climatiques jouent un rôle clé dans l’estimation des variations climatiques futures, mais ils demeurent des objets inconnus et incompréhensibles pour les non-spécialistes. Une image utile est peut-être de considérer un modèle climatique comme une sorte de maquette numérique de la planète Terre. Le climat de cette planète numérique n’est pas exactement celui de la planète réelle, mais au fil des années il s’en est suffisamment rapproché pour que l’on puisse utiliser le modèle pour tester de manière rapide ce qui pourra se produire beaucoup plus lentement dans le monde réel.
14Les modèles s’appuient sur les lois de la mécanique des fluides pour reconstruire numériquement les grands traits de la dynamique de l’atmosphère et/ou de l’océan. Ils répondent ainsi à un défi scientifique majeur, qui remonte aux travaux pionniers de l’Anglais Lewis Fry Richardson, publiés en 1922 [5]. Les avancées scientifiques réelles sont venues après la Seconde Guerre mondiale, avec le développement des calculateurs numériques. La question a d’abord été d’essence théorique : était-il possible de recréer une image suffisamment réaliste de notre planète en se fondant sur des équations physiques ? La réponse positive s’est appuyée sur des études théoriques dont beaucoup ont été initiées avant le développement des modèles eux-mêmes. Elle renvoie aussi à un fait d’observation absolument flagrant, à savoir que malgré la présence d’une composante imprévisible et chaotique qui limite leur prévision détaillée, les écoulements atmosphériques et océaniques présentent des éléments d’organisation très forts. Un coup d’œil à n’importe quelle image satellitaire montre la circulation atmosphérique organisée sous forme de structures spirales de plusieurs milliers de kilomètres associées aux dépressions des moyennes latitudes. Les premiers modèles atmosphériques globaux se sont développés en utilisant une grille de résolution dont le pas spatial était de 500 kilomètres environ et dès les années 1970, il était déjà possible de décrire les grands traits des circulations atmosphériques par des modèles numériques. Le gain en puissance de calcul des dernières décennies a été utilisé pour améliorer les modèles de plusieurs manières : pour affiner la résolution géographique des simulations, pour en augmenter la durée (de quelques mois à quelques siècles de temps simulé), pour augmenter le contenu des modèles (passer de modèles atmosphériques à des modèles couplés océan/atmosphère par exemple) et enfin pour développer des approches probabilistes au travers de simulations multiples. Le développement d’un modèle est une entreprise de grande envergure, qui réclame le travail de plusieurs dizaines de personnes pendant plusieurs décennies. Une vingtaine d’instituts développent des modèles destinés à l’étude des climats futurs. Le PMRC a mis en œuvre depuis plus de 20 ans des programmes d’évaluation et de comparaison des modèles. C’est ainsi que les projets AMIP (Atmospheric Model Intercomparison Programme), puis CMIP (Coupled Model Intercomparison Programme) ont mis en place toute une série d’exercices collectifs menés à l’échelle internationale, pour évaluer la capacité des différents modèles à reproduire, par exemple, les climats du passé ou les variations interannuelles du climat, et pour comparer leurs projections climatiques futures.
IV- De la météo au climat : coexistence des variabilités naturelles et forcées
15L’évolution d’un signal climatique observé peut s’interpréter comme le résultat de la combinaison de deux sources de variabilité souvent difficiles à dissocier : l’une dite forcée induite par des changements tels que les modulations de l’activité solaire, le volcanisme ou encore les perturbations liées aux activités humaines, l’autre dite intrinsèque ou interne, reflétant la mobilité naturelle du système climatique, hors de toute action qui s’exerce sur lui. Cette variabilité interne, naturelle, s’exprime à toutes les échelles de temps, parce qu’elle met en jeu des composantes du système climatique aux caractéristiques très différentes : atmosphère, océan, sol continental. Aux échelles de temps plutôt longues (saisonnières à décennales), la variabilité interne est pilotée par les échanges d’énergie et d’eau entre milieux et le couple océan-atmosphère joue un rôle prépondérant qui structure la géographie régionale des modes de variabilité. Aux échelles journalières à mensuelles, la situation est dominée par le « chaos » atmosphérique. L’atmosphère est capable de générer seule sa propre variabilité et celle-ci est responsable de l’alternance plus ou moins aléatoire, que nous vivons à nos latitudes, d’épisodes de précipitation, de périodes de grand calme ou encore de vagues de froid extrême etc., c’est-à-dire de la météo quotidienne ou hebdomadaire.
16Cependant le temps qu’il fait à un endroit donné (en Aquitaine), n’est pas décorrélé de celui qui se produit ailleurs, en Europe du Nord par exemple. La variabilité interne atmosphérique prend la forme de circulations spécifiques organisées spatialement à l’échelle du bassin océanique Atlantique Nord et du continent européen ; on parle de régimes de temps. Ils dépendent de la géographie des contrastes entre océan et atmosphère, ou encore de la présence des barrières orographiques, telles que les Montagnes Rocheuses qui, en aval, incurvent la circulation moyenne d’Ouest jusqu’à l’Europe. La déflection du flux par ces montagnes est en partie à l’origine des centres d’action sur l’Atlantique que sont l’Anticyclone des Açores et la Dépression d’Islande. Les régimes de temps correspondent selon ce schéma à des fluctuations naturelles de cette circulation moyenne et donc de ces centres d’action. Ils sont particulièrement marqués en hiver et on en dénombre quatre principaux sur la région Nord Atlantique/Europe.
17Ils sont présentés en Figure 1, d’abord sous forme d’anomalie de pression atmosphérique. Le premier régime (Figure 1a) correspond à un creusement de la dépression d’Islande et un renforcement simultané de l’Anticyclone des Açores. On parle de « régime zonal » car les gradients méridiens de pression sont renforcés, induisant une accélération des vents moyens d’Ouest sur tout l’Atlantique Nord et l’Europe. Cette circulation est aussi désignée par « régime NAO + » pour « phase positive de l’Oscillation Nord Atlantique ». La NAO, de manière simple, se définit par la différence de pression entre Islande et Açores ou Portugal. Le second régime (Figure 1b) correspond à l’affaiblissement simultané de la dépression d’Islande et de l’Anticyclone des Açores, que l’on désigne donc aussi logiquement comme un régime NAO-. Il se caractérise par une diminution de la circulation dominante d’Ouest. Le troisième régime, dit de Dorsale Atlantique (Figure 1c), se distingue par une extension vers le Nord de l’Anticyclone des Açores recouvrant alors tout le bassin océanique, avec des anomalies négatives concomitantes sur l’Europe. Le quatrième et dernier régime (Figure 1d) présente de fortes anomalies positives de pression sur l’Europe du Nord alors que des valeurs négatives dominent en Mer du Labrador et sur l’ouest du bassin Atlantique en général. Ce régime dit de « blocage » interrompt totalement la circulation d’ouest pénétrante sur l’Europe, voire la renverse. Si l’on considère les 60 derniers hivers pour établir une statistique, la probabilité d’occurrence de ces quatre régimes est à peu près la même. Autrement dit, les circulations journalières se partageant de manière équiprobable entre ces quatre types de circulation.
18Ces régimes peuvent être considérés comme les briques élémentaires de la variabilité atmosphérique des moyennes latitudes. Ils ont une durée de vie de l’ordre de la semaine et les changements météo quotidiens ou quasi-quotidiens peuvent s’interpréter par les transitions d’un régime vers un autre. En effet, chaque régime, par le biais de la circulation atmosphérique induite, se caractérise par des conditions de surface spécifiques en température et en précipitation. En hiver, le régime NAO+, par sa circulation d’ouest plus marquée, est associé à des températures plus chaudes que la normale sur l’ensemble de l’Europe, excepté le pourtour méditerranéen. Les précipitations sont également plus marquées au Nord du parallèle 45 °N, alors que des conditions plus sèches dominent au Sud. L’Aquitaine se situe « au zéro » des anomalies.

Figure 1 : Les différents régimes climatiques (tels que décrits dans le texte) : la première colonne donne les anomalies en termes de pression au niveau de la mer, la deuxième montre l’évolution de la fréquence d’apparition de chacun des modes, les troisièmes et quatrièmes colonnes les variations associées de température et de précipitations.
19En NAO-, les températures sont plus froides que la normale au Nord du parallèle 45 °N et plus douces au Sud. En termes de précipitation, elles sont renforcées sur la France, Aquitaine comprise, sauf sur le piémont pyrénéen par effet orographique. En effet, le régime NAO-privilégie les flux de Sud/Sud-Ouest induisant un effet de foehn1 local sur le Sud de la région. Le régime de dorsale par son flux de Nord/Nord Ouest induit des conditions plutôt fraîches sur l’Europe et des précipitations conformes à la normale sauf sur le Nord de l’Allemagne et le Benelux et de nouveau sur le piémont pyrénéen et alpin. Un blocage orographique se met en place sur les versants Nord des massifs avec des précipitations renforcées. Les chutes de neige les plus importantes sont ainsi associées sur l’Ouest de la Chaîne pyrénéenne à ce régime. Le blocage est quant à lui responsable des conditions froides et très sèches sur l’Europe. Les vents viennent de l’Est de l’Europe et advectent de l’air froid et sec de Sibérie occidentale, parfois jusqu’en Aquitaine pour les plus forts blocages.
20Au-delà de ces conditions moyennes, les régimes de circulation de grande échelle favorisent certains événements extrêmes locaux. La probabilité de vague de froid intense sur l’Aquitaine est ainsi plus grande lorsque les régimes de blocage sont excités. Les grands épisodes de neige sont plus probables en régime NAO-alors que leur occurrence en régime NAO+ est quasi nulle. Les coups de tabac aquitains sont favorisés dans les deux régimes NAO alors qu’ils se développent très peu en Dorsale et Blocage.
21Si les changements météo s’expliquent dans ce cadre par la transition plus ou moins aléatoire entre les régimes, les fluctuations interannuelles, i.e. d’un hiver sur l’autre, s’expliquent par la plus ou moins grande occurrence de certains régimes au cours de la saison. De même, les fluctuations décennales, i.e. d’une décennie sur l’autre. Les hivers chauds de la décennie 1990 s’expliquent par l’occurrence privilégiée de régimes NAO+ au détriment des régimes NAO-(Figure 1). L’hiver froid et neigeux de 2009-2010 se comprend par l’excitation marquée des régimes NAO-tout au long de la saison au détriment de tous les autres etc. Les fluctuations climatiques (de la saison à la décennie) peuvent ainsi s’interpréter, en particulier à nos latitudes, comme l’intégration temporelle de ce qui se passe à l’échelle météo où la variabilité interne est dominante.
22Selon cette vision dynamique du climat, le changement global induit par les forcages anthropiques, pourrait être considéré comme un « tricheur ». Il modifierait la probabilité d’occurrence de certains régimes. L’image du dé à quatre faces est souvent utilisée. Le climat naturel correspond au tirage aléatoire de ce dé, le climat perturbé pipant le dé pour favoriser une face. On comprend bien ici que même si le climat se réchauffe, même si les régimes chauds sont privilégiés, l’apparition dans un climat globalement plus chaud, d’une vague de froid associée aux régimes froids n’est en aucun cas exclue, même aux horizons lointains tels que 2050-2100. Le défi des projections et prévisions climatiques est ainsi d’arriver à estimer le sens et le niveau de la « tricherie » et ses conséquences. Aujourd’hui les conclusions sont peu robustes et le consensus difficile. Certains modèles privilégieraient plutôt les régimes NAO+ alors que d’autres ne projettent aucun changement. La région Nord-Atlantique/Europe est un domaine où la variabilité interne est dominante en hiver. Notons cependant que l’absence de changement de probabilité d’occurrence de régimes de temps hivernaux n’implique cependant pas l’absence de changement en termes de température. Ainsi, un régime NAO+ qui transporte de l’air chaud et humide de l’Atlantique vers l’Europe transportera de l’air plus chaud du fait du réchauffement des océans. De même un régime de blocage qui transporte de l’air froid continental de Sibérie, transportera de l’air moins froid, le réchauffement étant très marqué aux latitudes subarctiques. De plus, cet air aura survolé une Europe centrale avec moins de neige au sol qu’aujourd’hui, ces conditions de surface lui assurant le maintien de ses propriétés polaires au cours de son parcours. Ces changements de relations entre les régimes de circulation et les températures observées sont déjà détectables depuis la fin des années 1990 et seront très probablement amplifiés dans le futur. Les signaux sont en revanche moins clairs sur les précipitations.
23Ces conclusions portent sur l’hiver. En été, les régimes sont un peu différents et portent des conséquences différentes : le régime NAO+ amène des sécheresses péri-méditerranéennes, le blocage des sécheresses continentales. Par ailleurs le poids du chaos atmosphérique dans la variabilité interannuelle à décennale diminue ; la perturbation radiative directe due à l’augmentation des gaz à effet de serre devient prépondérante. Les régimes chauds d’été sont aujourd’hui plus chauds que leur référence climatologique (1970-2000) et semblent durer plus longtemps, même si la statistique sur la persistance des régimes est complexe et encore peu significative car la période d’observation est trop courte. Ces modifications sont en tout cas cohérentes avec le fort réchauffement et l’assèchement progressif observé en particulier au Sud de 45 °N depuis les trois dernières décennies.
V- Quels scénarios pour les évolutions futures ?
24Les modèles ont fourni dès les années 1970 ou 1980 les traits essentiels de ce que pourrait être l’évolution climatique globale en réponse à l’augmentation anthropique des gaz à effet de serre et ce diagnostic général a remarquablement peu évolué depuis, malgré la sophistication croissante des modèles. Dans les simulations de cette époque déjà, le réchauffement se développe progressivement sur l’ensemble de la planète, même si certaines régions peuvent initialement se refroidir du fait de la variabilité naturelle du climat. Ce réchauffement est plus intense sur les continents et dans les régions polaires, principalement en Arctique. Globalement la pluie tend aussi à augmenter, mais les changements de précipitations ont une structure géographique plus complexe. Elle est marquée par une tendance à l’augmentation dans les zones déjà pluvieuses (parce que le réchauffement autorise plus d’eau à rester dans l’atmosphère), avec au contraire un assèchement des zones de descente de l’air atmosphérique – qui sont déjà souvent les zones arides ou semi-arides. D’abord prévues par les modèles, ces anticipations se sont révélées cohérentes avec les évolutions mesurées par la suite dans le monde réel. Elles s’expliquent aussi par des arguments physiques simples. Par exemple, le réchauffement augmente le niveau de saturation de l’air en vapeur d’eau et autorise l’eau à transiter plus massivement par l’atmosphère dans les régions humides.
25En résumé, même si les premiers modèles des années 1970 et 1980 constituaient des images encore très simplifiées de la planète Terre, ils reposaient sur des approximations soigneusement maîtrisées des lois physiques et ils ont permis de décrire les traits essentiels de l’évolution climatique globale en réponse à l’augmentation des gaz à effet de serre, traits qui ont été confirmés par les différents rapports du GIEC. Le premier de ces rapports, en 1990 [6], a fourni un argumentaire fort pour le premier sommet de la Terre de Rio en 1992, alors que les rapports suivants en 1995, 2001 et 2007 [7][8][9] ont vu se développer une convergence entre résultats simulés et observations indiquant les premiers signes d’un changement climatique. Le prochain rapport du GIEC est attendu en 2013/2014.

Figure 2 : L’évolution des températures globales de la planète pour 3 scénarios du SRES et un scénario correspondant à la limitation immédiate des gaz à effet de serre à leur niveau actuel (en jaune) (rapport du GIEC [9]). Les barres sur la droite étendent ces résultats à 6 scénarios, nous conduisant à une fourchette de réchauffement qui va d’un peu moins de 2 °C à plus de 6 °C de réchauffement. Dans les conditions du scénario jaune, la température du globe gagnerait encore un demi-degré environ.
26Les dernières décennies ont donc apporté des indices croissants que les prévisions des années 1970 et 1980 commencent à se réaliser. Il faut comprendre la chronologie particulière de ces évolutions : le seuil de 3 à 4 milliards de tonnes de carbone émises chaque année a été dépassé depuis les années 1970 et l’accumulation de CO2 dans l’atmosphère a commencé à devenir très significative depuis cette date. Le réchauffement climatique est toutefois retardé par l’inertie thermique des océans et ce n’est que depuis les années 1990 que l’on peut espérer discerner (et que l’on discerne effectivement) les premiers effets de ces changements, se superposant à la variabilité naturelle du climat. La fonte des glaciers, le relèvement du niveau de la mer actuellement observés sont autant de signes cohérents avec ce qui était attendu.
27Comment les choses vont-elles se poursuivre ? Un premier changement dans la démarche scientifique est venu en 2000 : le GIEC, en s’appuyant sur des études démographiques, sociales ou économiques, a établi un certain nombre de scénarios de référence. On fait souvent référence à ces scénarios nommés A1, B1, A2 et B2 sous le nom de scénarios « SRES », car ils ont été publiés dans un « Special Report on Emission Scenarios » [10]. Ils ont servi de référence pour les simulations du climat futur présentées dans les rapports 2001 et 2007 (Figure 2) du GIEC. Il s’agit de scénarios décrivant un certain nombre d’évolutions futures reposant chacune sur un ensemble cohérent d’hypothèses. Au moment de leur élaboration aucun de ces scénarios n’était jugé plus probable qu’un autre – mais nous nous écartons depuis des scénarios les plus optimistes, et nos émissions nous situent même au-delà des scénarios les plus pessimistes.
Les scénarios d’émissions des gaz à effet de serre des rapports 2001 et 2007 du GIEC [8][9 ]
Les différents scénarios du GIEC s’efforcent de décrire des évolutions socio-économiques futures nettement différenciées, sans essayer de déterminer quelle est la plus probable. Leur succession depuis le scénario le plus optimiste (B1), jusqu’au plus pessimiste (A1FI) s’écrit de manière un peu complexe à lire : B1, A1T, B2, A1B, A2, A1FI, parce qu’ils correspondant à des critères assez différents, que nous résumons dans ce tableau.
Les scénarios A1 sont des scénarios de croissance démographique maîtrisée mais de croissance économique rapide, reposant sur un usage important de l’énergie. Les différents scénarios A1 se distinguent selon le type d’énergie utilisé. Ainsi le scénario A1FI correspond à un usage intensif de l’énergie fossile : c’est le scénario qui génère le plus de gaz à effet de serre (une multiplication des émissions par près de 3 ou 4 en fin de siècle), alors que le scénario A1T, qui fait appel à des technologies nouvelles pour favoriser des énergies décarbonées, correspond au contraire à des émissions modérées. Le scénario A1B est intermédiaire (« balancé »).
Le scénario A2 décrit un monde fragmenté, où le développement est caractérisé par de fortes différentiations régionales, génératrices d’émissions importantes. Le scénario B1 voit à la fois une maîtrise de la démographie et la capacité à développer des techniques sobres en énergie. C’est le plus favorable des scénarios du SRES, qui voit les émissions de gaz à effet de serre revenir en fin de siècle à ce qu’elles étaient en 1990. Enfin le scénario B2 est lui aussi caractérisé par l’usage de bonnes pratiques environnementales, mais dans une économie peu convergente au niveau international, comme pour le scénario A2.
Seul le scénario B1 permet de maîtriser les émissions atmosphériques, mais aucun de ces scénarios ne permet de stabiliser la teneur atmosphérique en gaz à effet de serre : il faudrait diviser pour cela les émissions globales par un facteur désormais plus proche de 3 que de 2, ce qui est l’objectif qui a été recherché sans succès dans les négociations internationales récentes. Sans une relance majeure de l’action internationale, qui n’a pour le moment pas lieu, les scénarios les plus modérés du SRES, pourtant insuffisants, deviennent difficilement crédibles. Les émissions de gaz à effet de serre sont pour le moment plus rapides que celles du scénario le pire, A1FI.
En résumé les scénarios du SRES ne prétendent pas représenter des évolutions minimales et maximales de gaz à effet de serre dans l’avenir. Elles proposent surtout des repères (on a parlé de scénarios « marqueurs ») destinés à construire des représentations possibles du futur, en fonction des politiques qui seront ou ne seront pas menées. Dans ce rapport on présentera, quand c’est possible au vu des expériences réalisées, les conséquences de changements climatiques modérés en faisant référence aux scénarios B1, A1T et B2, et les conséquences de changements climatiques plus importants en faisant surtout référence aux scénarios A1B, A2 et A1FI.
La distance entre la diminution des émissions, recherchée dans les négociations internationales, et les évolutions réelles s’est agrandie au fil des années, et les simulations numériques du projet CMIP5 sur lesquelles s’appuiera le prochain rapport du GIEC, ont suivi un concept différent, consistant à définir des objectifs à atteindre. À un objectif donné on peut associer une ou plusieurs trajectoires d’émissions (et éventuellement le coût associé des réductions d’émissions), ainsi que leurs conséquences en termes d’impact (permettant d’estimer cette fois le coût des conséquences du changement climatique). Les résultats de ce projet deviennent peu à peu disponibles mais nous avons préféré les ignorer à ce stade, car leur analyse, encore très incomplète, ne semble pas modifier les conclusions exposées ici. Nous pouvons donc retenir que les scénarios « SRES » conduisent à un réchauffement global allant d’un peu moins de 2 °C à un peu plus de 6 °C en 2100 – cette fourchette large reflétant dans une proportion à peu près égale les différences entre scénarios d’émission et les incertitudes scientifiques. Comme nous l’avons vu, la valeur de 6 °C est considérable au regard de l’histoire passée de notre planète.
VI- Des évolutions globales aux évolutions régionales
28La résolution spatiale des modèles climatiques, initialement de 500 km environ, est progressivement descendue à 100 km environ pour un nombre restreint de modèles globaux. Il est possible de descendre à des échelles plus petites, mais les contraintes de calcul font que des résolutions d’une dizaine ou d’une vingtaine de kilomètres ne sont atteintes de manière régulière que sur des domaines limités à une région ou un continent.
29Des approches mixtes sont alors nécessaires : on calcule l’évolution du climat à l’échelle de l’ensemble de la planète avec des modèles qui permettent un niveau de détail limité, et on affine les résultats sur un domaine spécifié. Ces modèles sont pilotés par les résultats du modèle de grande échelle, mais sont capables de prendre en compte de manière beaucoup plus fine les variations du relief, le tracé des régions littorales, ou encore la distribution des différents types de végétation sur la région d’intérêt. Une spécificité française a été de développer (à Météo-France, à l’IPSL) des approches « zoomées » où cette transition entre modèles globaux et modèles régionaux est réalisée à l’aide d’un maillage variable (voir le détail en Figure 3). Cette approche impose une hypothèse limitative, à savoir que les équations valables à grande échelle (pour la formation des nuages, les échanges avec le sol) conservent une validité régionale, mais elle assure par contre une compatibilité complète entre la simulation des circulations atmosphériques globales et régionales.

Figure 3 : La géométrie des deux modèles « zoomés » français.
30Les résultats montrés dans la Figure 3 correspondent à des simulations réalisées dans ces conditions par le modèle Arpège de Météo-France et par le modèle LMDZ de l’IPSL. Pour Arpège la résolution varie de 50 km au centre de la Méditerranée à 450 km dans le Pacifique Sud, assurant une résolution d’au moins 60 km sur la France. Pour LMDZ, la résolution spatiale est plus modérée, d’environ 160 km en France. Les deux modèles ont réalisé des simulations correspondant à un scénario B2 (changement relativement modéré, cf. paragraphe précédent) et le modèle Arpège a aussi réalisé des simulations correspondant à un scénario A2 (changement plus important).
31Cette augmentation de la résolution numérique permet d’affiner les conséquences régionales du changement climatique, mais elle ne supprime pas les incertitudes qui viennent des échelles plus grandes, pour lesquelles la dispersion des résultats issus des différents modèles de la communauté scientifique reste importante. Quels que soient les efforts de recherche actuels, les scénarios régionaux sont affectés d’incertitudes qui reflètent soit des difficultés d’ordre fondamental qui resteront irréductibles (tous les aspects du climat et du changement climatique ne sont pas nécessairement prévisibles), soit une qualité encore insuffisante des modèles, soit probablement les deux. On peut citer deux sources majeures d’incertitude. Nous avons déjà évoqué le rôle encore difficile à évaluer des nuages qui conditionne l’amplitude globale du changement climatique à venir. Dans ce domaine on attend beaucoup des mesures satellitaires renforcées sans savoir jusqu’à quel progrès précis elles conduiront. Les évolutions climatiques régionales dépendent aussi de l’évolution combinée de toute une série de modes de fluctuations qui seront affectés de manière différente par le réchauffement. Selion les régions du monde, on peut ainsi citer l’Oscillation Nord-Atlantique (en anglais : NAO), les alternances irrégulières entre les phénomènes El-Niño ou La-Niña qui s’inscrivent dans le phénomène plus large de l’ENSO (El Niño Southern Oscillation en anglais), les fluctuations intrasaisonnières ou interannuelles des différents régimes de mousson, et les corrélations qui lient en permanence ce qui se passe dans diverses régions (les téléconnexions). Là aussi la recherche a du mal à réduire les incertitudes, et on ne sait pas vraiment jusqu’à quel point le monde réel est prévisible.
32Il est cependant important de comprendre ces incertitudes comme une information et pas comme une ignorance. Il en va de même que pour la sismicité d’une région, ou le caractère avalancheux d’une vallée, qui définissent des zones de risques prises en compte dans l’aménagement du territoire. Tous les processus climatiques extrêmes, quand ils sont plausibles, et même si leur occurrence précise est difficile à prévoir, participent à l’évaluation du risque attaché à certains aménagements.
33Mieux établir ces risques, mieux évaluer la capacité de les anticiper, tout cela fait bien sûr l’objet de recherches coordonnées entre différents instituts, à la fois au niveau européen et plus largement international. Les résultats d’un modèle donné doivent être systématiquement confrontés aux modèles des autres instituts, si l’on veut éviter de réduire trop fortement le champ des risques, ce qui serait potentiellement dangereux s’agissant de définir des politiques d’adaptation aux changements climatiques. Il est bien sûr aussi tentant d’essayer de quantifier des impacts climatiques à plus petite échelle encore, impacts « locaux » plutôt que « régionaux » : par exemple des changements hydrologiques qui seraient spécifiques d’une vallée pyrénéenne. Il est possible d’obtenir des informations utiles, en utilisant par exemple des techniques mathématiques dites de désagrégations statistiques, qui permettent en particulier de traduire des effets de différences systématiques qui peuvent exister entre le fond d’une vallée et les sommets environnants. Mais là aussi, il faut se souvenir qu’ils sont toujours tributaires des simulations initiales, c’est-à-dire des simulations globales, à l’échelle de la planète, et de leurs incertitudes – c’est pourquoi les auteurs des rapports cités au paragraphe suivant ont fait attention à montrer les résultats de deux ou trois modèles, en attendant de pouvoir exploiter un ensemble encore plus large de résultats. Le portail « DRIAS »2 mis en place par Météo-France en partenariat avec l’IPSL et le CERFACS permet désormais au grand public d’accéder à ces simulations.
VII- Comment interpréter les résultats pour l’Aquitaine : l’exemple des sécheresses estivales ?
34Nous voulons dans ce paragraphe montrer quelques exemples de ce que ces scénarios climatiques apportent à l’étude de l’Aquitaine. Les résultats des deux modèles « zoomés » français ont été présentés de manière très détaillée dans deux rapports établis à l’intention du Programme National d’Adaptation [11][12], et désormais aussi sur le portail Drias. Les personnes intéressées trouveront facilement ces cartes aux adresses Internet indiquées en référence.
35Certains paramètres sont plus faciles à anticiper que d’autres. Une situation de sécheresse, par exemple, dépend de deux séries de processus : la diminution des précipitations, et l’augmentation des températures, qui s’accompagne d’une évapotranspiration accrue des sols et des plantes. On peut ainsi distinguer des sécheresses « météorologiques » (plus de pluie), « hydrologiques » (plus d’eau dans les nappes ou les rivières) ou « agricoles » (générant une difficulté de croissance des plantes). L’Aquitaine va être confrontée à un réchauffement systématique s’accompagnant de vagues de chaleur plus intenses, particulièrement en été, et donc de situations d’évapotranspiration des sols également plus intense. Les cartes ne sont pas montrées ici, car elles sont simples à analyser : l’Aquitaine est une des régions de France où le réchauffement risque d’être le plus fort. Mais la complexité de l’information peut être parfois plus grande et difficile à décoder. Nous avons choisi de montrer ici plus en détail et à titre d’exemple un autre indicateur de sécheresse estivale, défini comme le nombre de jours consécutifs en été où la précipitation reste en dessous d’1 mm, ainsi que la modification de cette statistique à différentes échéances au cours du XXIe siècle.

Figure 4 : Un exemple de diagnostic de changement climatique issu de deux modèles climatique avec résolution améliorée (« zoomée ») sur la France. La variation estivale du nombre de jours consécutifs inférieur à 1 mm montre un risque de sécheresse, qui pour le modèle Arpège et sur le Sud-Ouest de la France, est surtout marqué en milieu et fin de siècle (Peings et al. [11]). Les cartes de gauche montrent la valeur de référence simulée par les deux modèles français. Les cartes suivantes montrent les différences avec cette référence pour les différents modèles et scénarios, exprimées en nombre de jours de sécheresse, comme indiqué sur l’échelle du bas. En fin de siècle les différents modèles et scénarios montrent des jours de sécheresse en plus (couleur rouge), mais dans les simulations du modèle Arpège qui sont montrées ici, cette tendance ne s’établit que tardivement, le début du siècle étant plutôt marqué par des jours de sécheresse en moins.
36Le premier ensemble de cartes présente les résultats des modèles régionaux zoomés de Météo-France et de l’IPSL (Figure 4). Le deuxième utilise des techniques de descente en échelle à partir de 3 modèles régionaux français (aux deux précédents s’ajoute le modèle MAR développé au Laboratoire de Glaciologie et Géophysique de l’Environnement, à Grenoble). Ces trois modèles fournissent des détails supplémentaires aux échelles régionales (Figure 5). Le rapport définit des indices pour 5 régions françaises dont le Sud-Ouest.
37Comment utiliser une telle information ? Tout d’abord il faut la replacer dans un contexte général : les changements climatiques à nos latitudes, pendant les prochaines décennies tout au moins, ne modifieront pas fondamentalement la nature des anomalies météorologiques, mais avant tout leur fréquence. C’est bien ce qu’essaie d’analyser l’indice retenu. Nous nous attacherons donc à extraire des éléments statistiques de ces résultats – aussi mais cela ne sera pas montré ici, à essayer de caractériser si les évolutions simulées peuvent résulter d’effet de hasard ou si elles sont significatives.

Figure 5 : Un diagnostic similaire utilisant des techniques statistiques de descente en échelle (appliqué à des scénarios un peu différents, et utilisant un troisième modèle régional, MAR développé au LGGE, à Grenoble) permet d’affiner les détails géographiques de ces risques de sécheresse – mais reste tributaire de l’évaluation des changements climatiques à grande échelle, avec une appréciation des risques de sécheresse qui varie de modèle à modèle. Première ligne : référence actuelle, décrivant le nombre de jours consécutifs avec moins d’1 mm de précipitation. Lignes suivantes : différences attendues entre la période (2021-2050) et la période de référence (1960-1990) (Peings et al. [12]). La ligne 2 montre le seul modèle Aladin pour un scénario B1, la ligne 3 les 3 modèles pour le scénario A1B, la ligne 4 le seul modèle Aladin pour le scénario A2. Le Sud-Ouest apparaît en rouge, le plus souvent, manifestant un risque majoritaire de sécheresse.

38Le petit diagramme ci-contre permet de comprendre un peu mieux ce que veulent dire les variations d’indices de sécheresses pour le Sud-Ouest, et le soin qu’il faut apporter à leur utilisation.
39La première ligne nous montre le nombre de jours de sécheresse que diagnostiquent les 3 modèles quand on les place dans les conditions climatiques des années 1960-1990, soit respectivement 18,18 et 14 jours en moyenne chaque été.
40Les scénarios futurs montrent que ce chiffre, considéré en moyenne sur 30 ans a généralement tendance à augmenter. Prenons par exemple la dernière ligne qui correspond à l’évaluation du modèle Aladin pour un scénario A2. On obtient de 8 à 16 jours de plus par an, en moyenne sur 30 ans – il s’agit de la fourchette de valeur qui n’est pas entre parenthèses. Mais si l’on considère les années individuelles, l’augmentation du nombre de jours de sécheresse se situe dans une fourchette plus large (de 3 à 32 jours, valeurs entre parenthèses) puisque certaines années peuvent être affectées par des conditions météorologiques exceptionnelles. Si l’on regarde les autres scénarios ou les autres modèles on constate que beaucoup indiquent qu’il y aura bien dans le futur des années marquées par des jours de sécheresse pluviométrique en moins, comparé à la moyenne des années 1960-1990.
41Ces résultats restent par ailleurs dépendants des incertitudes affectant les modèles de grande échelle. L’assèchement estival du Sud de l’Europe, auquel se rattache la tendance similaire diagnostiquée sur l’Aquitaine, constitue un résultat robuste, partagé par la plupart des modèles et associé à un renforcement de l’anticyclone des Açores dans un climat plus chaud. Mais ce n’est pas une anticipation exclusive : des années humides restent possibles et même probables.
42En conclusion, il faut être précis dans l’interprétation de tels chiffres. Le Sud-Ouest fera face à un risque réel de sécheresses estivales récurrentes dans les décennies à venir, sécheresses qui accompagneront un réchauffement général marqué par des vagues de chaleur plus nombreuses. Ces résultats doivent être compris comme des évolutions plausibles, que l’on doit absolument prendre en compte dans un effort de prospective. Mais il s’agit de risques, qui ne sont pas les seuls risques possibles. Des vagues de sécheresse n’interdisent pas des situations orageuses et d’autres résultats montrent aussi un accroissement possible des épisodes de pluie intense en été.
43Il faut donc s’adapter préventivement à des situations de sécheresses, mais certainement pas en faire l’horizon unique auquel l’Aquitaine sera confronté.
VIII- Les contours possibles du climat futur de l’Aquitaine
44Les résultats des modèles climatiques, qu’il est impossible de tous montrer dans ce texte, permettent d’anticiper les traits généraux des évolutions climatiques sur l’Aquitaine, pour une série large de paramètres, en prenant à chaque fois les mêmes précautions consistant à rappeler qu’il s’agit de risques fortement étayés, mais pas de prévisions certaines, encore moins de prévisions datées.
45Au-delà des tendances déjà signalées sur la température et les précipitations, les évolutions moyennes sont généralement caractérisées par :
Des vents hivernaux moins violents. L’Aquitaine a souffert de deux tempêtes dévastatrices. Martin en Décembre 1999, et Klaus en Janvier 2009. Il n’y a pas d’indices clairs pouvant rattacher ces tempêtes à des manifestations du réchauffement de la planète – même s’il est également difficile de l’exclure complètement. Mais le mécanisme qui ferait le lien n’est pas identifié et on sait que des tempêtes importantes ont eu lieu dans le passé grâce au travail des historiens [13]. On s’attend au contraire à un léger ralentissement des dépressions ou anticyclones de moyennes latitudes, parce que la différence de température entre Pôle et Équateur a tendance à diminuer dans un réchauffement de la planète.
Des vents d’été éventuellement plus violents car associés à des tempêtes d’origine convective. À la différence des situations hivernales, le mécanisme qui peut amplifier les circulations atmosphériques d’été est bien connu : il s’agit de la condensation de la vapeur d’eau, vapeur d’eau dont la concentration atmosphérique peut être très importante, car le seuil de saturation s’élève rapidement avec la température
46Il est aussi important de rappeler que l’Aquitaine, avec sa très longue façade maritime, ses activités économiques en zones inondables (dans le bassin d’Arcachon, le long de la Gironde), est particulièrement sensible au relèvement moyen du niveau de la mer. Un relèvement de quelques dizaines de centimètres est anticipé pour la fin de ce siècle (nous y reviendrons plus loin).
47De manière générale, la mémoire du passé est une dimension essentielle permettant de guider l’adaptation aux anomalies climatiques futures : ce qui s’est déjà produit dans le passé peut se produire à nouveau, même si l’impact des gaz à effet de serre peut moduler la fréquence de ce retour, son ampleur, ou sa localisation précise.
Que peut-on dire des changements climatiques récents ?
Peut-on d’ores et déjà dire que le climat a changé ? Et, si oui, quelles sont les causes de ce changement ? Telles sont les deux questions au centre des études dites de détection et d’attribution.
Dans l’analyse du passé climatique récent, une question naturelle consiste à se demander si les variations observées traduisent simplement la variabilité interne du climat (c’est-à-dire des fluctuations climatiques « normales », sans réel changement), ou bien si elles témoignent d’un changement plus profond, en lien avec une modification des forçages externes. Répondre à ce type de question nécessite d’utiliser des outils statistiques, en prenant soin de bien évaluer, au préalable, ce que peuvent être les variations d’origine interne.
Des études de ce type ont tout d’abord été menées à l’échelle de la planète entière (notamment via l’étude de la température moyenne globale, dans les années 1990), et sont maintenant réalisées à des échelles spatiales plus fines. En France, ce type d’étude a été réalisé sur une période allant du début du XXe siècle à nos jours, période au cours de laquelle on dispose de relevés météorologiques réguliers et suffisamment nombreux. Il faut noter à ce propos que l’étude précise du climat du passé (les changements recherchés sont de l’ordre du degré) nécessite un prétraitement des données observées, afin de les « homogénéiser », c’est-à-dire d’en retirer les ruptures métrologiques les plus nettes (ruptures dont les causes peuvent être diverses : changement d’appareil de mesure, déplacement du lieu de mesure, modification de l’environnement du site, du protocole de mesure, etc.). Les résultats de cette étude indiquent qu’au cours de la période 1900-2006, l’élévation de température observée ne peut pas s’expliquer seulement par la variabilité interne, et témoigne donc d’un changement réel [14]. Le réchauffement estimé entre ces deux dates, aux différents sites de mesure, se situe entre 1.1 et 1,65 °C (Figure 6). Très grossièrement, ce réchauffement est plus marqué au Sud que dans le quart Nord-Est, et on peut remarquer que les valeurs estimées en Aquitaine sont plutôt dans le haut de la fourchette. En outre, le caractère non uniforme du réchauffement à l’échelle du pays est robuste. La mise en évidence statistique d’un changement pour d’autres variables climatiques, comme les précipitations, est souvent plus difficile car les changements attendus sont généralement moins marqués au regard de la forte variabilité interne.

Figure 6 : Changement climatique estimé en France au cours de la période 1900-2006, en différents sites de mesure, sur la base des observations homogénéisées produites par Météo France.
48Une deuxième question importante concerne l’étude des causes pouvant expliquer les changements observés. Historiquement, le débat s’est dans un premier temps attaché à déterminer si les variations observées pouvaient s’expliquer par des causes naturelles (mais non internes, telles que des variations de l’intensité du rayonnement solaire, ou encore des éruptions volcaniques importantes). Les études menées à ce sujet se sont plutôt concentrées sur les échelles globale et continentale, et ont permis d’aboutir à une des conclusions fortes du dernier rapport du GIEC : « l’essentiel de l’accroissement observé sur la température moyenne globale depuis le milieu du XXe siècle est très probablement dû à l’augmentation observée des concentrations des gaz à effet de serre anthropiques ». Désormais, d’autres questions plus fines sont étudiées, par exemple afin de distinguer, dans les changements liés aux activités humaines, ceux dus aux émissions de gaz à effet de serre, et ceux dus à d’autres perturbations anthropiques, telles que les émissions d’aérosols (particules solides en suspension dans l’atmosphère qui tendent à réfléchir une partie du rayonnement solaire), ou autres.
IX- L’évolution du domaine littoral : des liens directs avec les changements globaux
49Le domaine littoral aquitain, très étendu, exposé aux effets de l’océan, constitue l’exemple d’un milieu qui répond de manière directe aux modifications (naturelles ou anthropiques) des conditions climatiques globales. Il est difficile de faire des prévisions détaillées de ces évolutions, mais il est possible d’analyser ce qui s’est produit au cours des dernières décennies. Deux faits dirigent cette évolution. Le relèvement du niveau de la mer s’est poursuivi à un rythme moyen de plus de 3 mm par an, à l’échelle globale. Mais surtout, les évolutions climatiques observées depuis 25 ans sont caractérisées par une orientation vers des conditions à dominante anticyclonique ([15][16] ; Figure 7), avec des conséquences marquées sur plusieurs paramètres : température et salinité de l’océan, vents, vagues…

Figure 7 : Évolution de l’index climatique multivarié SBC (Southern Biscay Climate index), calculé sur onze paramètres (température de l’air et de surface de la mer, état d’agitation de la mer, pression atmosphérique, précipitations, vent…, [15]). Les valeurs négatives correspondent aux années avec des conditions dépressionnaires dominantes particulièrement en hiver (précipitations importantes et mer forte). Les valeurs positives indiquent la prédominance au cours de l’année de conditions anticycloniques (pression supérieure à la normale, température atmosphérique élevée, forte insolation et mer calme). D’après Castège et al. [16].
Modification du cycle de l’eau
50Parmi les facteurs physiques directement impactés : le cycle de l’eau. Les modifications actuelles vont dans le sens d’une diminution globale des précipitations (avec une distribution saisonnière modifiée). Ceci a une répercussion directe sur les temps de renouvellement des masses d’eau littorales, les apports en eau douce et en composés dissous.
51Les évolutions observées dans les zones littorales pour les 30 dernières années sont, de ce point de vue, sans appel [17] avec une élévation de la salinité (≈ 2 p.s.u.) de l’estuaire de la Gironde (Figure 8).
52On serait tenté de voir au travers de cette marinisation du système estuarien un effet direct du climat, se manifestant au travers d’une diminution de la pluviométrie, mais la relation de cause à effet reste à préciser, car il y a aussi une interférence avec l’impact des prélèvements d’eau en amont. De plus, si cette tendance à la marinisation sur le long terme est avérée [17][18], une accélération du processus a récemment été mise en évidence, associée à un changement abrupt d’état de l’écosystème de la Gironde à la fin des années 1980 (~1987) se répercutant sur la physico-chimie de l’estuaire [19]. Cette tendance pourrait également avoir été exacerbée par un changement de régime des précipitations au début des années 2000.

Figure 8 : Évolution de la salinité de la zone mésohaline de l’estuaire de la Gironde : 1978-2009 eaux de fond, pK 52 (aval Pauillac). En pointillés la séries de données brutes, en bleu la tendance. Données SOMLIT et IFREMER, d’après Chaalali et al. [18].
53Outre cette marinisation globale des systèmes littoraux, les caractéristiques saisonnières des apports en eau douce sont aussi modifiées notamment avec un écrêtage des crues et une modification partielle de leur saisonnalité en relation avec la diminution de 10 à 15 % de la couverture des glaciers [20]. Ceci est, en partie, à rapprocher des changements thermiques printaniers actuels, qui sont détaillés un peu plus loin dans ce texte. Ceux-ci ont une incidence marquée sur la période d’apparition et l’intensité des crues nivales, dans la Gironde, comme dans l’Adour, et donc sur les caractéristiques spatiales et temporelles des panaches fluviaux dans le golfe de Gascogne.
Température de l’eau
54Dans l’hémisphère Nord, le réchauffement global en cours est particulièrement manifeste en Atlantique [21] avec des tendances régionales très différentes au sud de 40 °N et au nord de 50° N, avec des phases successives de refroidissement et réchauffement dans un cas et au contraire de réchauffement et refroidissement dans l’autre, entre 1950 et 2005 [22][23]. Ainsi, le golfe de Gascogne se situe-t-il dans une zone de transition dont les limites ont fluctué au cours du temps et pour laquelle les conditions de température restent globalement peu étudiées à une échelle régionale. Les travaux disponibles concernent essentiellement les eaux de surface (jusqu’à 100 m de profondeur) et les zones littorales. À l’échelle des 140 dernières années on observe à la fois des phases de réchauffement et de refroidissement des eaux du golfe : diminution de 0,01 ° C an-1 entre 1867 et 1910, augmentation de 0,02 °C an-1 jusqu’en 1945, diminution de 0,01 °C an-1 jusqu’en 1974 et enfin augmentation de 0,02 °C an-1 jusqu’en 2007 [24]. Ces évolutions sont très proches de ce qui a été observé au Pays Basque pour la période 1947-2008 [25][26][27] mais des schémas différents ont aussi été mis en évidence au sein du golfe de Gascogne marqué, par exemple, par un réchauffement plus fort dans la partie sud (0,03 °C an-1 : [28]). La résolution spatiale des études et la relative hétérogénéité spatiale du milieu sont avancées pour expliquer ces différences.
55Les évolutions observées pour les 30 dernières années, sont marquées par une phase d’accélération : l’élévation de la température est de l’ordre de 0,07 °C an-1 en zone littorale ([17] ; Figure 9) et de 0,06 °C an-1 pour la zone sud-est du golfe [29][30]. À cette échelle récente, le réchauffement n’est pas linéaire mais marqué par deux phases d’accélération distinctes : vers 1987 et 1996 [18].
56Ces variations de température affectent aussi les eaux profondes. Ce n’est que récemment que l’évolution de la température des couches profondes (0-800 m) a été caractérisée pour une période couvrant les années 1960 à 2000 [21][28]. À partir de données de mesures in situ et du modèle Bobyclim, il est possible de diagnostiquer une tendance au réchauffement dans le golfe de Gascogne jusqu’à environ 500 m de profondeur. Pour les 200 premiers mètres, les variations sont beaucoup plus marquées et présentent un décalage de 2-3 ans sur le réchauffement observé en surface. Ces modifications sont à mettre en relation avec une modification probable, non documentée actuellement, de la thermocline (c’est-à-dire de la zone de transition qui sépare les eaux chaudes de surface et les eaux profondes plus froides).

Figure 9 : Évolution de la température de la zone mésohaline de l’estuaire de la Gironde : 1978-2011, eaux de fond, pK 52 (aval Pauillac). En pointillés la série de données brutes, en bleu la tendance. Données SOMLIT et IFREMER, d’après Chaalali et al. [18].
57Les modifications liées au climat se font aussi sentir en termes de variabilité saisonnière. Celle-ci est marquée par une augmentation des minima hivernaux et un allongement de la « période chaude » [17][31] : en zone littorale, les températures de l’eau actuellement relevées en mai sont celles qui étaient observées en juillet il y a 30 ans.
Élévation du niveau marin
58En premier lieu, le changement climatique cause une élévation du niveau marin moyen. Au-delà des constats menés à une échelle globale, il est nécessaire de disposer de données marégraphiques et géodésiques pour effectuer un constat régional. Les marégraphes actuellement disponibles sont ceux de Port Bloc (Le Verdon sur mer), Arcachon, Boucau-Bayonne et Saint-Jean-de-Luz (cf. www.sonel.org). Seul le marégraphe de Saint-Jean-de-Luz est co-localisé avec un signal GPS permanent. L’existence d’un tel GPS est nécessaire pour quantifier les éventuels mouvements de subsidence ou de surrection qui peuvent amplifier ou limiter les effets des variations du niveau marin d’origine climatique. Chust et al., dans une étude régionale portant sur le Pays Basque [32], annoncent des taux d’élévation du niveau marin de 2,09 +/-0,42 mm/an à Saint-Jean-de-Luz sur la période 1942-2006. Ces tendances sont cohérentes avec les mesures effectuées dans le Pays Basque et la côte Cantabrique espagnols voisins [33].
59Concernant les projections, les scénarios globaux ne permettent pas aujourd’hui de faire des projections fiables en raison des incertitudes concernant les dynamiques de fonte des calottes polaires. Les moyennes indiquant un relèvement moyen en fin de siècle allant de 0,18 m à 0,59 m, qui sont celle de l’exercice 2007 du GIEC [20], sont souvent désormais considérées comme trop restrictives, compte tenu des taux de fonte récents du Groënland et de l’Antarctique. Ce sont souvent des valeurs dépassant 0,5 m, voire 1 m, qui sont retenues pour 2100. Ces incertitudes se reportent bien sûr sur l’échelle régionale, qui est en outre tributaire de processus plus particuliers (circulation océanique, ajustements isostatiques aux redistributions de masses passées et actuelles, modifications associées du champ gravitationnel dues aux redistributions de masses, processus de subsidence ou de surrection locaux [34]). Chust et al. ont estimé des variations du niveau marin basées sur trois modèles climatiques sous les scénarios A1B et A2 dans le golfe de Gascogne [35]. Leurs estimations varient selon les modèles et les scénarios de 0,28 à 0,48 m pour l’élévation du niveau marin de 2001 à 2099. Mais en pratique on peut noter que pour les estimations des effets potentiels du changement climatique en zone côtière, ce sont désormais aussi souvent des valeurs de référence telles que 0,5 m ou 1 m qui sont retenues à l’horizon 2100 (voir par exemple ONERC [36]). Par ailleurs Hulme [37] recommande d’ajouter 50 % aux prévisions globales pour les études de risque locales afin de prendre en compte la variabilité régionale de l’élévation du niveau marin.
Les vagues
60Les vagues correspondent au forçage côtier pour lequel les études sont les plus nombreuses. Ainsi, Butel et al. [38] et Abadie et al. [39] ont étudié la variabilité des caractéristiques de la houle sur plusieurs décennies. Dupuis et al. [40], Dodet et al. [41], Le Cozannet et al. [42] et Charles et al. [43] ont mis en évidence que cette variabilité des vagues peut être reliée, au moins partiellement, à des variations atmosphériques à l’échelle du bassin atlantique, notamment l’oscillation atlantique nord (Figure 10). Charles et al. [44] ont présenté des projections du champ de vagues dans le golfe de Gascogne pour la fin du XXIe siècle. Ces résultats indiquent une baisse de l’énergie des vagues et un décalage vers le nord de leur orientation en été. Ainsi, l’origine moyenne des vagues (296 ° en été soit dans le cadran NO) pourrait être décalée de 5,1° dans un scénario A2 (6,1 ° dans un scénario A1B) au niveau de la bouée Gascogne. Même si la réfraction bathymétrique a pour effet de réduire l’angle de propagation des vagues par rapport à la normale au littoral, le changement d’orientation des vagues pourrait avoir un effet significatif sur la morphodynamique côtière [45][46].

Figure 10 : Cartes saisonnières des anomalies climatiques (hauteur de géopotentiel 500-mb standardisées pour les phases positives des figures de téléconnection NAO - Oscillation Atlantique Nord - et EA - Atlantique Est-) et changements de conditions de vagues associés dans le golfe de Gascogne. Les lèches en pointillé indiquent la direction moyenne des vagues pendant la saison tandis que les lèches bleues indiquent les modifications de direction (pas à l’échelle) et leur épaisseur indique l’évolution la hauteur de vagues. D’après Charles et al. [43].
Niveau d’eau et surcotes
61Les niveaux moyens d’élévation des eaux marines (la moyenne est effectuée sur une durée d’une dizaine de minutes) résultent principalement de la marée et de la surcote. Cette dernière est composée d’une surcote atmosphérique, correspondant à l’action directe des vents et de la pression sur l’écoulement, et du set-up, c’est-à-dire la surélévation induite par le déferlement des vagues, qui dépend entre autres de la pente de plage et des caractéristiques de vagues au large [47]. Sur la côte aquitaine (Truc Vert), pendant les événements énergétiques, le set-up est de l’ordre de 1/5 à 1/12 de la hauteur significative des vagues au large, selon les événements. Les marégraphes mesurent un niveau d’eau total incluant la marée, la surcote atmosphérique et parfois le set-up. En termes de surcotes, d’après les analyses du SHOM-CETMEF (2008), les surcotes de pleine mer annuelle et décennale seraient de 0,4 m et 0,6 m à Socoa et 0,7 m et 0,9 m à la pointe de Grave (Verdon). Cette surcote résulte principalement de la surcote atmosphérique, mais comporte aussi une signature du set-up. Il n’existe pas à ce jour de technique permettant de dissocier sans ambiguïté ces deux contributions à partir d’un signal unique de niveau d’eau mesuré. Aussi, du fait d’un set-up généralement plus faible dans les ports que le long des littoraux exposés aux intempéries, les surcotes obtenues à partir des mesures marégraphiques situées dans les ports de la côte aquitaine sont plutôt à considérer comme une limite inférieure des valeurs pouvant affecter le littoral aquitain. Le long des littoraux exposés, quelques travaux ont été réalisés visant à estimer le set-up. Ainsi, pour la plage du Truc Vert directement exposée aux vagues, Idier et al. [48] indiquent par exemple que le set-up, pendant les événements Johanna (mars 2008), Quentin (février 2009) et Xynthia (février 2010) est globalement du même ordre de grandeur que la surcote atmosphérique avec des valeurs comprises entre 45 et 90 cm, pour des surcotes atmosphériques comprises entre 50 et 90 cm, selon l’événement considéré. Enfin, nous n’avons pas eu connaissance de travaux portant sur les tendances ou la variabilité ou les évolutions possibles de régimes de surcotes spécifiquement sur la façade atlantique française. Toutefois, on peut noter les travaux de Wang et al. [49] centrés sur la mer d’Irlande, par modélisation couvrant le golfe de Gascogne. Aussi, en Mer d’Irlande, ils prédisent une augmentation des événements de surcotes, sauf le long des côtes irlandaises, ainsi qu’une augmentation significative des hauteurs de surcotes extrêmes, le long des côtes est et ouest.
Les régimes de vents
62Les modifications enregistrées entraînent une répercussion sur les caractéristiques environnementales des masses d’eau littorales en relation avec les apports marins et continentaux (modification récente en 2010 : [50]), sur la distribution des panaches des fleuves (influence sur les zones littorales adjacentes, ex. : Adour et bassin d’Arcachon) et probablement sur les up-wellings temporaires de la côte landaise (l’impact démontré par ailleurs n’a pas été identifié dans le golfe de Gascogne).
63Le vent local est également un forçage morphodynamique lorsqu’il transporte les grains de sable de la plage aérienne et de la dune. Ces processus de transport éolien deviennent importants lors des tempêtes. Cependant, de nombreux travaux de modélisation (par exemple ceux de Déqué et al. [51]) n’indiquent pas d’évolutions significatives de la fréquence et de l’intensité des tempêtes avec le changement climatique en France métropolitaine.
X- De la disciplinarité à l’interdisciplinarité : quelques perspectives générales
64Les incertitudes quantitatives globales ou régionales sur le réchauffement à venir affectent à leur tour la capacité à préciser les risques de changement pour des paramètres qui seront affectés de manière directe ou indirecte par l’augmentation des températures, tels que le relèvement du niveau de la mer, l’hydrologie de surface, les régimes de vent, la qualité de l’air ou de l’eau mais aussi l’ensemble des paramètres liés au monde vivant, tant sur les continents que les océans, ou encore les conditions du développement économique, des politiques de transports, de développement urbain.
65Prendre en compte l’ensemble de ces paramètres sur un domaine régional comme celui de l’Aquitaine n’implique pas seulement un travail numérique sur un domaine géographique plus fin, mais aussi d’avancer dans le domaine de l’interdisciplinarité. Les modèles ont commencé à exister dans les années 1960 aux États-Unis : ils représentaient au début essentiellement la circulation générale de l’atmosphère fondée sur la résolution des équations de la mécanique des fluides, mais ils se sont ensuite étendus aux océans, aux glaces de mer, à des processus tels que le rôle des nuages, de la végétation, du relief montagneux. Cette extension pose des problèmes scientifiques encore nombreux. Elle est d’abord incomplète : la dynamique de grands glaciers comme le Groënland est encore absente des modèles, alors que l’apport d’eau douce qui pourrait résulter de leur fonte est susceptible de modifier les circulations et la température de l’océan Atlantique Nord à l’échelle du siècle à venir, avec des incidences possibles sur le territoire français. Elle demande aussi à être étendue à des domaines scientifiques entièrement nouveaux qui n’obéissent pas de la même manière à des équations fondamentales. La prise en compte de la chimie atmosphérique dans les modèles climatiques est nécessaire pour prendre en considération trois séries de processus : 1) l’évolution des gaz à effet de serre à durée de vie longue ; 2) l’évolution des gaz à durée de vie courte, souvent toxiques et tributaires d’une chimie très active ; 3) la distribution des aérosols, c’est-à-dire des particules atmosphériques naturelles ou émises par les activités humaines, qui contribuent à inhiber partiellement et transitoirement le réchauffement de la planète. Cette chimie atmosphérique se situe à la charnière entre les problèmes climatiques et leurs incidences en termes de santé, et sa prise en compte dans les scénarios de changement climatique ne peut s’appuyer que sur des équations simplifiées, tant est grand, par exemple, le nombre d’espèces et de réactions chimiques qui entrent en jeu. Des progrès ont été faits dans ce domaine, mais beaucoup reste à faire. On pourrait dire la même chose du domaine du vivant : représenter le cycle du CO2 dans les modèles c’est prendre en compte l’évolution de la végétation continentale, mais aussi de la vie aquatique, marine ou d’eau douce. Il s’agit d’un espace de travail qui s’est ouvert il y a une dizaine d’années, et les équipes de l’IPSL ont été parmi les toutes premières à réaliser des simulations climatiques incluant une représentation cohérente de l’ensemble de ces processus.
66Quand on les rapporte à ces perspectives on peut dire que les projections climatiques actuelles, celles dont le GIEC a rendu compte en 2001 et 2007, s’inscrivent dans le cadre de modélisations plutôt « linéaires » du système climatique, où les acteurs sont avant tout l’atmosphère, l’océan, l’hydrologie de surface, des partenaires dont on retient surtout la contribution moyenne, pour essayer avant tout de comprendre l’évolution du climat à l’échelle de quelques décennies. Une double extension de ce travail est nécessaire. Aux petites échelles de temps, il est essentiel de mieux comprendre la statistique des événements extrêmes qui sont à la source des impacts climatiques les plus importants. À plus long terme, dès qu’entrent en jeu des partenaires comme l’océan profond, les grands glaciers, les grands systèmes hydrologiques ou végétaux (forêts) – sans même parler des systèmes socio-économiques – le comportement du système climatique devient plus chaotique, avec des possibilités de transitions brutales qui sont pour le moment difficiles à évaluer. Tous ces domaines réclament une recherche fondamentale importante, en protégeant l’articulation forte qui s’est développée entre modèles, observations et théories
67L’étude du changement climatique futur est donc un champ scientifique bouillonnant mais marqué d’incertitudes nombreuses. Il est impossible de s’appuyer sur les modèles seuls pour conseiller les décideurs publics et privés. Il est aussi nécessaire de développer une démarche inverse prenant en compte les vulnérabilités d’un territoire donné au changement climatique, dans toutes ses composantes, physiques, chimiques, écologiques ou socio-économiques. C’est d’ailleurs cette démarche qui peut permettre au citoyen de s’insérer dans un débat souvent très technique et c’est celle qui sera développée dans les chapitres qui viennent.

Grotte de Lascaux (Dordogne), Fresque des Taureaux, cheval brun à crinière noire entre les deux grandes représentations d’aurochs de la paroi de gauche (détail, cliché © N. Aujoulat-MCC).
Notes de bas de page
Auteur
Professeur à l’Université Pierre et Marie Curie, Membre de l’Académie des Sciences, Directeur IPSL, Paris.
herve.letreut@ipsl.jussieu.fr
Ses travaux portent sur la modélisation numérique du système climatique et la compréhension des perturbations radiatives du climat, en particulier le rôle de l’effet de serre additionnel lié aux activités humaines. Ses compétences, internationalement reconnues, lui ont valu de faire partie du GIEC.
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Forêts d’hier et de demain
50 ans de recherches en Aquitaine
Michel Arbez, Jean-Michel Carnus et Antoine Kremer (dir.)
2017