Précédent Suivant

8. Détection et attribution des changements climatiques

p. 211-213


Texte intégral

1Pour savoir dans quelle mesure les activités humaines ont pu perturber le système climatique*, les climatologues ont mis au point les processus de détection* et d’attribution* des changements climatiques. La détection consiste à démontrer que le climat a changé, selon un certain sens statistique, sans donner la raison de ce changement. L’attribution d’un changement climatique à certaines causes est le processus qui consiste à établir les causes les plus probables du changement détecté avec un certain niveau de confiance. Ces deux processus s’appuient sur les notions de forçages externes* et de variabilité interne (cf. VII-3, VII-6).

Détection

2Qu’est-ce qu’un « changement » dans un système dont l’état varie en permanence ? Cette question est résolue par le processus de détection qui vise à mettre en évidence la présence d’un changement de l’état du système climatique, non explicable par la seule variabilité interne. Dans l’étude d’un changement climatique, il s’agit de la première étape, celle qui vise à démontrer l’existence d’un changement d’origine extérieure au système climatique.

Image

Fig. 1 – Moyennes annuelles mondiales de températures (points noirs) et tendance linéaire. L’ordonnée de gauche montre des anomalies de température par rapport à la moyenne 1961-1990 et l’ordonnée de droite les températures réelles, toutes deux en °C. Sont présentées les tendances linéaires pour les 25 (en jaune), 50 (en orange), 100 (en magenta) et 150 dernières années (en rouge). La courbe bleue lissée montre des variations par décennie, et la bande bleu pâle la marge d’erreur de 90 %. La température moyenne de la planète a augmenté de 0,74 ±0,18 °C sur la période 1906-2005. GIEC, 2007

3Les techniques utiles à la réalisation d’une étude de détection sont avant tout statistiques, via la réalisation de tests d’hypothèses* ou le calcul d’intervalles de confiance*. Un préalable à la mise en œuvre de ces outils concerne l’évaluation de la variabilité interne du système. Les observations climatiques disponibles sont d’une aide relative dans cette évaluation, tout d’abord parce qu’elles couvrent une période de temps restreinte, ensuite parce qu’elles ont subi l’influence de différents forçages externes. Une autre difficulté résulte du fait que les données observées ne sont pas directement utilisables car elles doivent subir une étape préalable d’homogénéisation qui limite la quantité de données exploitables (cf. III. 22). De ce fait, il est courant de s’appuyer, au moins en partie, sur des simulations numériques effectuées à partir de modèles climatiques, en l’absence de forçages externes (les simulations de contrôle), afin de quantifier cette variabilité.

4La détection du réchauffement global peut être illustrée, très simplement, par l’étude des tendances linéaires estimées sur l’évolution de la température moyenne annuelle globale observée de l’atmosphère près de la surface. Sur la figure 1, cette tendance est estimée sur différentes périodes ainsi que l’intervalle de confiance associé à la variabilité interne. Un réchauffement significatif est détecté sur toutes les périodes de temps considérées ici, puisque la valeur 0°/siècle n’est pas incluse dans l’intervalle de confiance. On peut en outre constater que l’aléa découlant de la variabilité interne tend à augmenter lorsque la période d’étude devient plus petite. Ce phénomène se trouve exacerbé sur de très courts intervalles de temps, et, par exemple, les fluctuations liées à la variabilité interne d’une tendance calculée sur 10 ans seulement sont typiquement de l’ordre de ±2°/siècle, c’est-à-dire comparables ou supérieures à la tendance récente. Pour cette raison, les études de détection se concentrent sur des intervalles de temps de plusieurs décennies.

Image

Fig. 2 – Contributions estimées des gaz à effet de serre (rouge), des autres forçages anthropiques (vert), et des forçages naturels (bleu) aux changements observés de la température de surface moyenne globale, basés sur des analyses de détection « optimales ». (a) intervalles de confiance à 90 % sur les facteurs d’amplitude (sans dimension) basés sur une étude couvrant le XXe siècle, (b) contributions estimées des forçages aux changements de température sur l’ensemble du XXe siècle, calculés comme la différence entre les températures moyennes des périodes 1990-1999 et 1900-1909 (°C), et (c) contributions estimées à la tendance d’évolution des températures au cours de la période 1950-1999 (°C par 50 ans). Les lignes noires horizontales sur les figures (b) et (c) indiquent les changements de température observés à partir des données grillées de températures de surface du Hadley Center/Climatic Research Unit (HadCRUT2v ; Parker et al., 2004). Les résultats d’études complètes de détection optimales spatio-temporelles (Nozawa et al., 2005 ; Stott et al., 2006) basées sur un algorithme de moindres carrés totaux (Allen et Stott, 2003) à partir d’ensembles de simulations contenant séparément chaque ensemble de forçages, sont illustrés pour quatre modèles, MIROC 3.2 (medres), PCM, UKMO-HadCM3 et GFDL-R30. Sont également indiqués, sous l’appellation « EIV », les résultats d’une étude de détection optimale utilisant de façon combinée les signaux de réponse spatiotemporels simulés par trois modèles (PCM, UKMO_HadCM3 et GFDL-R30) pour chacun des trois forçages séparément, et prenant en compte de cette façon l’incertitude multimodèle (Huntingford et al., 2006). GIEC, 2007

Attribution

5Pour poursuivre l’étude d’un changement climatique, l’étape suivante, l’attribution, consiste à évaluer les rôles respectifs des différents forçages externes dans l’explication du changement étudié. L’attribution d’un changement X à une cause Y (ou une combinaison de plusieurs causes) signifie d’abord de pouvoir détecter X, ensuite de montrer que X est cohérent avec la réponse attendue du système à Y, et enfin de montrer que X n’est pas cohérent avec la réponse à d’autres causes (ou d’autres combinaisons) physiquement plausibles excluant une des causes importantes qui définit Y. En pratique, l’attribution prend généralement la forme d’une comparaison minutieuse entre observations et résultats issus de simulations numériques, et elle met en jeu l’utilisation de différents outils statistiques.

6L’approche la plus couramment utilisée afin de mener une étude d’attribution consiste à estimer, directement dans les observations, l’amplitude de la réponse du système aux différents forçages externes. Cette estimation statistique est réalisée après avoir évalué la forme de chacune de ces réponses, à la fois en termes d’évolution temporelle et de structure spatiale, via des simulations numériques. L’objectif est alors de distinguer les réponses aux différents forçages, entre elles et avec la variabilité interne du système qui constitue toujours un bruit de fond climatique. La technique statistique mise en œuvre s’apparente à une méthode de régression multiple* dans laquelle on reconstruit les observations à partir d’une combinaison pondérée des différents forçages et du bruit de la variabilité climatique interne. Des méthodes sophistiquées ont été utilisées pour réaliser cette reconstruction de façon « optimale » (méthode du maximum de vraisemblance*, rebaptisée « empreintes digitales optimales » dans ce cas précis). La qualité de la reconstruction est également testée statistiquement.

7Une illustration de cette procédure est fournie sur la figure 2. Les amplitudes des réponses aux trois principaux forçages externes (GES anthropiques, aérosols anthropiques et variabilités solaire et volcanique) sont estimées dans les observations. L’estimation est basée sur le signal de réponse à chacun de ces forçages, tel que simulé par différents modèles couplés. Pour la plupart des modèles, et pour chacun des trois forçages, l’intervalle de confiance calculé ne contient pas la valeur 0, ce qui indique une contribution détectable du forçage. La valeur 1 est en revanche contenue dans l’intervalle de confiance, ce qui indique une certaine cohérence entre les simulations numériques et les observations. Les résultats de cette estimation des amplitudes sont projetés sur la contribution au réchauffement entre 1900 et 1990, puis sur la contribution à la tendance au réchauffement au cours des 50 dernières années.

8Quelques résultats marquants peuvent en être déduits. Tout d’abord, le réchauffement induit par les gaz à effet de serre* seuls au cours des 50 dernières années est très probablement supérieur au réchauffement effectivement observé. Ce réchauffement a été en partie atténué par l’effet refroidissant des aérosols anthropiques et l’effet des forçages naturels. Sur l’ensemble du XXe siècle, le constat est similaire bien que moins prononcé. La contribution des forçages naturels semble en revanche très faible sur l’ensemble du siècle.

9Notons toutefois que ces résultats ne permettent pas d’établir une hiérarchie absolue des forçages par ordre d’importance. En particulier, les forçages naturels auraient pu modifier plus sensiblement la température moyenne de la planète, si les activités solaire et volcanique avaient connu des modifications plus fortes. Ici, on conclut simplement que, compte tenu de l’évolution observée de ces forçages au cours du XXe siècle, leur contribution aux changements observés est faible.

10Au cours des dernières années, des études de détection et d’attribution ont également été menées avec succès sur d’autres variables que la température moyenne près de la surface à l’échelle globale. Cette diversification a été menée selon trois axes principaux. Tout d’abord, la hausse des températures a été mise en évidence sur des échelles spatiales plus petites, via notamment la détection d’un réchauffement sur tous les continents à l’exception de l’Antarctique. Ensuite, l’évolution de certains événements extrêmes a été analysée et un effet anthropique a été détecté, en particulier pour les nuits les plus chaudes. On a ainsi estimé que le forçage anthropique avait très vraisemblablement plus que doublé le risque d’occurrence d’un été au moins aussi chaud que l’été 2003 sur le domaine Europe-Méditerranée. Enfin, les techniques de détection et d’attribution ont été appliquées avec succès à de nombreuses autres variables climatiques, parmi lesquelles le profil vertical de température, les précipitations, le contenu de chaleur de l’océan superficiel, la pression au niveau de la mer, ou encore l’humidité près de la surface, venant renforcer le diagnostic fourni par l’étude des températures près de la surface.

11En ce qui concerne la France, l’évolution des températures minimales de la saison estivale, en particulier, a été mise en évidence via différentes techniques. Plus récemment, l’application d’une méthode de détection originale a permis de mettre en évidence la détection d’un réchauffement moyen près de la surface, plus marqué dans le Sud-Ouest que dans le Nord-Est. Cette étude a également mis en évidence la détection d’un signal anthropique sur les températures diurnes et nocturnes de la plupart des saisons.

Précédent Suivant

Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.