Changements climatiques: le diagnostic scientifique


Intervention de Hervé Le Treut, Directeur de l’Institut Pierre-Simon Laplace, membre de l’Académie des Sciences, au séminaire L’après-Kyoto: Cancún et les enjeux de la prévision climatique, tenu le 15 novembre 2010.


Changements climatiques: le diagnostic scientifique
Je tenterai de présenter la démarche scientifique qui nous a conduits à parler de risque climatique lié aux gaz à effet de serre. Je ne pense pas qu’on puisse parler de débat scientifique pour notre réunion d’aujourd’hui. Un débat scientifique prend du temps. Je travaille sur ces sujets depuis trente ans. J’ai commencé en 1978. C’est un diagnostic qui s’est construit petit à petit, avec beaucoup d’allers et retours.

J’essaierai de vous montrer les tenants et aboutissants de cette démarche scientifique qui est une démarche de moyen, voire de long terme , sachant que le problème posé n’est pas tant de savoir s’il existe des fluctuations climatiques naturelles - il y en a - si on connaît tous les mécanismes - certainement pas - mais plutôt de savoir si on est en train de rajouter à ces fluctuations naturelles une composante supplémentaire qui serait liée à nos activités, et plus particulièrement liée à ces gaz à effets de serre que l’on injecte dans l’atmosphère et qui ont augmenté de manière rapide.

Cette augmentation rapide des gaz à effet de serre a plusieurs caractéristiques, déjà mentionnées par Vincent Courtillot, sur lesquelles je voudrais revenir en introduction.
=> cf. présentation ci-dessous, diapositive n°2


La vision sur les 10 000 dernières années des gaz à effet de serre (CO2, méthane, protoxyde d’azote) montre qu’ils ont connu pendant cette période une remarquable stabilité. Les échanges de flux de CO2 entre l’océan, la végétation, l’atmosphère, ont été régulés d’une manière incroyablement précise pendant une période remarquable de l’histoire de notre planète : les 10 000 années au cours desquelles se sont développées nos civilisations. Cette période de stabilité étonnante est rompue par l’augmentation que l’on peut observer, qui correspond effectivement aux émissions liées aux activités humaines. Le CO2 a augmenté de 30%, le méthane a doublé ou triplé, et le protoxyde d’azote a augmenté de 15% ou 20%.

On dit communément que cette augmentation a lieu depuis le début de l’ère industrielle. Cela ne donne pas une idée tout à fait juste. Les émissions de gaz à effet de serre se sont beaucoup accélérées après la Seconde Guerre mondiale. Cette perturbation forte de notre environnement commence vraiment avec les Trente Glorieuses, en 1950.
=> cf. présentation ci-dessous, diapositive n°3

Je suis né en 1956, date à laquelle le niveau d’émissions annuelles de CO2 dans l’atmosphère était à un ou deux milliards de tonnes de carbone, mesuré ici en GtC (gigatonnes de carbone) en valeurs annuelles (il ne s’agit pas sur ce diagramme d’un cumul, mais bien des valeurs émises année après année). À la fin du XXème siècle ce niveau était passé à six ou sept milliards de tonnes de carbone dues à la combustion du charbon, du pétrole, du gaz naturel. En 2008 on était à 8,5 milliards de tonnes de carbone, dix milliards de tonnes et si on rajoute la part de la déforestation. C’est une augmentation extraordinairement rapide dont l’effet est différé dans le temps en raison des inerties du système. Les puits que représentent la végétation et les océans ne sont pas capables de reprendre le CO2 de manière efficace. On sait qu’il y a un seuil assez approximatif (trois à quatre milliards de tonnes de carbone par an), à partir duquel cet effet devient plus fort et on a dépassé ce seuil dans les années 70. L’augmentation des gaz à effet de serre met un peu de temps à réchauffer le système climatique, un peu comme le feu sous une casserole d’eau met du temps à chauffer l’eau. Il faut quelques décennies pour que les cinquante premiers mètres de l’océan se réchauffent. Les premiers effets du réchauffement climatique se sont donc produits dans les années 90. Les signaux climatiques en témoignent : c’est effectivement à partir des années 80-90 qu’on voit un certain nombre de changements. Ils ne sont pas toujours faciles à interpréter car ils se superposent à la variabilité naturelle. Des traitements statistiques, des traitements physiques assez complexes sont nécessaires pour arriver à extraire le signal éventuel lié aux activités humaines.

La forte préoccupation causée par ces évolutions et ces émissions de gaz à effet de serre est due à une autre raison. On commence à bien comprendre le cycle du carbone. Des études très nombreuses ont montré que le CO2, une fois rentré dans l’atmosphère, y reste une centaine d’années (il s’agit d’un ordre de grandeur qui résume plusieurs effets, et certaines études disent un peu plus cent cinquante ans). Plus précisément, au bout de cent ans, la moitié au moins de ce qu’on a émis est toujours là. Ces émissions engagent donc l’avenir.

Engage-t-on gravement l’avenir ? Peut-on poser un diagnostic sur ce problème ?

Pour cela il faut essayer de comprendre ce qu’est l’effet de serre. C’est un sujet complexe. Le problème du rayonnement atmosphérique a mobilisé des dizaines de milliers de personnes pendant plusieurs décennies. C’est parce qu’on a compris beaucoup de choses sur ce rayonnement atmosphérique qu’on a des téléphones portables et des GPS. Nous disposons de bases de données où toutes les raies d’absorption de toutes les molécules atmosphériques sont répertoriées avec toutes les variations d’absorption en fonction de la pression, des températures… C’est ce qui nous permet de comprendre assez correctement comment ces gaz affectent le bilan radiatif de la planète.

Notre planète est chauffée par des gaz à effet de serre dont on pourrait dire plus précisément qu’ils empêchent son refroidissement. Si on laisse une voiture au soleil, l’intérieur se réchauffe parce que le rayonnement solaire y pénètre mais que le rayonnement infrarouge émis par les coussins est absorbé par la vitre et ne s’en échappe pas. Les gaz à effet de serre jouent un peu ce rôle, et maintiennent la chaleur près du sol.

Le plus important de ces gaz est la vapeur d’eau soit environ 2/1000ème de la masse atmosphérique. Les nuages, qui sont une petite partie de la vapeur d’eau qui s’est condensée, ainsi que d’autres gaz, dont ceux que avons cités, y ajoutent leur effet mais, au total, c’est bien une toute petite partie de la masse atmosphérique qui est responsable de cet effet, sachant que le premier des autres gaz à effet de serre, le CO2 ne représente que 0,3‰ du volume atmosphérique, donc beaucoup moins que la vapeur d’eau.

Note de la Fondation Res Publica : M. Letreut s'appuie dans son exposé sur le document ci-dessous. Il suffit d'utiliser les flèches pour changer de diapositive


=> cf. présentation ci-dessus, diapositive n°4

Pour dire un mot sur cette comparaison entre vapeur d’eau et CO2, il est vrai que la vapeur d’eau domine (en masse) près de la surface. En altitude, où se déterminent une grande partie des échanges avec l’espace, la vapeur d’eau est limitée par un niveau de saturation qui décroît très vite avec la température et l’effet du CO2 et celui de la vapeur d’eau s’équilibrent beaucoup plus. Autre différence entre la vapeur d’eau et le CO2 (et les autres gaz à effet de serre que j’ai cités) : la vapeur d’eau est recyclée en quelques semaines. Si elle joue un rôle important dans l’amplification du réchauffement climatique - quelle que soit son origine, anthropique ou naturelle - la vapeur d’eau ne peut être émise de manière importante dans le système climatique par les activités humaines, au contraire des gaz à effet de serre comme le CO2 dont les émissions peuvent se stocker dans l’atmosphère. La « durée de vie » du méthane est plus courte que celle du CO2 (une dizaine d’années), celle du protoxyde d’azote (N2O) est de cent ans environ. L’ozone a une « durée de vie » courte mais il est piloté en partie par le méthane et les oxydes d’azote. Les CFC (les fréons), peuvent rester des dizaines, voire des centaines d’années dans l’atmosphère.

Tous ces gaz qui augmentent depuis plusieurs décennies représentent un forçage en Watts par m2 qu’on peut comparer à l’effet de serre naturel, un phénomène essentiel sans lequel la planète serait 30° à 35° plus froide qu’elle ne l’est aujourd’hui et ne serait probablement pas habitable, en dehors du fond des océans. L’effet de serre est un effet naturel puissant. La manière dont on le modifie peut paraître marginale : seulement 3 Watts par m2 par rapport à 150 Watts par m2. Mais cela représente quelques % de modification d’un cycle énergétique, pour une planète qui est à 300 Kelvins : l’ordre de grandeur du réchauffement induit est, en gros, de l’ordre d’un à quelques degrés ce qui est beaucoup.

En effet si on peut se quereller sur l’ordre de grandeur des fluctuations récentes du climat (en chiffres globaux quelques dixièmes de degrés), un chiffre est assez bien établi : les 5°C environ qui nous séparent d’un âge glaciaire.

Quelques degrés d’impact attendu de l’augmentation des gaz à effet de serre, de quelque manière qu’on le prenne – et que cela soit ou non supérieur à la variabilité naturelle – représente une perturbation forte et qui vient assez vite.

La démarche de ma communauté scientifique a été d’expliciter ces conséquences au travers de modèles. J’ai consacré une grande partie de mon existence à ces modèles. C’est en terminale, en cours de Philo, que j’ai entendu pour la première fois le mot « modèle » : représentation, conceptualisation du monde réel, qui permet de comprendre comment il fonctionne.

C’est exactement l’état d’esprit de notre travail, initié par une idée un peu démiurgique, un peu folle. La planète est soumise à des fluctuations chaotiques de son climat mais aussi à des fluctuations organisées. On sait par exemple qu’il pleut plus à l’équateur tandis que de vastes zones sont désertiques. Par ailleurs on connaît les équations, les lois de la physique. Peut-on, à partir de ces lois, essayer de reconstituer au moins la part organisée du comportement de la planète ?

Quand j’ai commencé ma thèse de troisième cycle, en 1978, ce problème était encore ouvert. On n’avait pas beaucoup de temps de calcul. Certains commençaient à « faire » fonctionner les premiers prototypes de planètes numériques et plusieurs modèles américains décrivaient déjà des éléments importants du climat réel. Depuis quelques années, on a suffisamment progressé pour que l’on puisse considérer comme avérée cette capacité à reproduire les traits majeurs du climat de la planète par des équations.

=> cf. présentation ci-dessus, diapositive n°5

Je donne ici une illustration visuellement frappante, d’un modèle japonais, de très haute résolution, une « Rolls Royce » qu’on n’est pas encore capable d’utiliser pour simuler des fluctuations climatiques à cent ans, mais dont s’approchent progressivement les modèles de la communauté des climatologues :

Deux animations d’images :

=> cf. présentation ci-dessus, diapositive n°6

La première séquence montre des nuages qui vont d’est en ouest dans la ceinture équatoriale, puis d’ouest en est dans les hautes latitudes. On peut observer par exemple que les amas de nuages ne vont pas dans le même sens que les nuages individuels.

=> cf. présentation ci-dessus, diapositive n°7

La deuxième séquence montre sensiblement la même chose.
La première est faite d’images satellitaires, la deuxième correspond à un modèle, une planète artificielle qui fonctionne sur la base de lois physiques.

Le travail de notre communauté consiste à construire ces modèles, des images imparfaites de la réalité, certes, mais des outils qui permettent de tester ce qui va se passer si les gaz à effet de serre changent. Le progrès continu de la recherche dans notre domaine a été permis par l’augmentation rapide du temps de calcul des ordinateurs, et il résulte aussi d’un travail théorique important.

Voici, illustré sur l’Europe, le type de résolution atteint par les modèles au moment des quatre rapports du GIEC (1).

=> cf. présentation ci-dessus, diapositive n°8

J’en profite pour rappeler que le GIEC n’est pas un outil de recherche mais un outil de diagnostic. Tous les cinq ou six ans, grâce à des scientifiques bénévoles, il fait un état des lieux de la recherche publiée. Le GIEC n’invente pas de résultats scientifiques par lui-même, il s’appuie sur la recherche existante. Les modèles recensés dans le premier rapport du GIEC avaient une résolution d’environ 500 km, soigneusement choisie pour pouvoir représenter les grandes structures telles que dépressions, anticyclones et grandes cellules tropicales. Au fil des rapports (1990, 1995, 2001, 2007), on a vu augmenter cette résolution.

Les modèles ont aussi évolué dans la complexité. Au départ ils étaient surtout atmosphériques, puis on a essayé de reconstruire l’ensemble : océans, atmosphère, continents, hydrologie.

=> cf. présentation ci-dessus, diapositive n°9

Les modèles climatiques relèvent d’une approche scientifique très traditionnelle au sens où on pose des hypothèses qu’on essaie ensuite de vérifier.

=> cf. présentation ci-dessus, diapositive n°10

Les modèles sont basés directement sur les équations fondamentales ou cherchent à représenter le rôle collectif de processus de petite échelle : nuages, végétation. On fait l’hypothèse que ces équations ont une validité planétaire, même si la description mathématique de certains processus est souvent basée sur des observations et une compréhension locales. Tous ces processus, toutes ces équations servent à déterminer un formalisme mathématique qui sera figé, qui constitue une théorie complexe que l’on cherche à valider. On vérifie donc ensuite que le modèle ainsi créé permet, à formalisme mathématique inchangé, dans l’espace comme dans le temps, d’expliquer des phénomènes de grande échelle partout sur la planète ou encore des climats différents (climats glaciaires, climats de l’Holocène où le Sahara était vert).

De fait, les modèles arrivent à reproduire beaucoup de phénomènes : contentons-nous de deux exemples, issus du modèle de l’IPSL.
D’abord, l’effet de serre des nuages simulé, puis issu d’observations satellitaires américaines (mission ERBE)

=> cf. présentation ci-dessus, diapositive n°11

On remarque une difficulté pour simuler parfaitement les structures du sud Pacifique mais, par ailleurs, les résultats sont réalistes.

Cet autre diagramme montre l’évolution saisonnière des températures le long de l’équateur, simulée et observée, un phénomène difficile à reproduire que les modèles ont mis beaucoup de temps à appréhender. Les mois de l’année sont en ordonnée, les longitudes en abscisse.

=> cf. présentation ci-dessus, diapositive n°12

On peut observer le comportement différent des océans Indien, Pacifique, Atlantique avec des renverses de températures se produisant à des moments distincts de l’année. La bonne ressemblance entre les valeurs simulées et les mesures indépendantes faites par des bateaux qui ont sillonné les océans pendant des décennies, montre que dans des régions importantes, où se produisent des processus importants tel El Niño, les modèles commencent à se comporter comme des images assez réalistes de la planète.

Il en est de même quand on regarde des climats du passé. Cette image est une copie d’un vieux transparent celluloïd que j’ai gardé pendant de nombreuses années.

=> cf. présentation ci-dessus, diapositive n°13

Il s’agit de la première expérience réalisée avec notre modèle pour simuler le climat de l’Holocène en modifiant simplement l’insolation en fonction de ses valeurs d’il y a 9 000 ans, quand on était beaucoup plus près du soleil en été. Les températures d’été montrées sur la figure étaient beaucoup plus chaudes sur les continents de l’Hémisphère Nord sauf sur des régions très pluvieuses qui se refroidissaient par l’effet de moussons pluvieuses extrêmement étendues, comme cela a été observé à cette époque en Afrique, Arabie, Mésopotamie.

Si ces modèles ne sont certainement pas parfaits, ils ont donc malgré tout une capacité à représenter suffisamment d’aspects du monde réel pour en faire des outils utiles pour essayer de comprendre ce qui peut se passer dans le futur.


Comment procéder ? À la fin des années 1990, le GIEC a fait une synthèse de tous les scénarios d’émissions de gaz à effet de serre à l’échelle du siècle qui vient, scénarios disponibles à l’Agence Internationale pour l’Energie ou dans des laboratoires de prospective utilisant des approches socio-économiques. Il a fourni six scénarios de référence qui ne prennent pas en compte les réductions volontaires liées aux mesures décidées à Kyoto – ou à Copenhague et Cancún. Appliqué aux modèles climatiques, cela donne cette estimation, illustrée dans le rapport du GIEC 2001 (et confirmée dans le rapport 2007) :

=> cf. présentation ci-dessus, diapositive n°14


Ces estimations de températures ne consistent donc pas à extrapoler les observations des dernières années ou décennies, mais bien à faire une prévision utilisant les méthodes de la physique : on regarde ce qui se passe quand on augmente progressivement les gaz à effet de serre dans notre modèle, dans notre représentation de la planète. Aujourd’hui, le réchauffement atteint un peu moins d’un degré par rapport à l’époque préindustrielle. Mais c’est surtout son augmentation éventuelle dans le futur qui nous inquiète.

Le scénario vert se base sur des émissions stabilisées au niveau de 1990 (ce dont on ne prend pas le chemin). Selon les différents modèles, où, par exemple, la représentation des nuages est un peu différente, il conduit à un réchauffement en 2100 qui va d’un peu moins de 2° à un peu plus de 3°.

Si on laisse des scénarios plus pessimistes se développer (on en prend le chemin), les variations de températures se situent entre un peu moins de 4° et plus de 6°, éventuellement amplifiées par les effets de la végétation, étudiés postérieurement à ces résultats.

Le réchauffement est-il d’origine anthropique ? demandait Vincent Courtillot. Sur la période récente, cette question se pose. Il y a effectivement un mélange de signes liés au signal anthropique et de variabilité naturelle. Mais ce qui nous soucie est moins ce qui se produit maintenant que la manière dont on engage l’avenir.

Nous avons quelques indices. En fait, les modèles prévoient des températures non pas globales mais distribuées sur les continents.

=> cf. présentation ci-dessus, diapositive n°15


Cette distribution sur les continents apparaît ici sous forme d’une moyenne des différents modèles de la communauté, faite à l’occasion du rapport du GIEC 2007. Le développement d’un modèle est un travail d’équipe qui requiert cinquante à cent personnes pendant dix ans. Il existe environ six ou sept modèles en Europe, autant en Amérique du nord et six ou sept autres dans le reste du monde. Aujourd’hui, des évaluations compétitives de la qualité des modèles par rapport aux données observées suscitent des concurrences très vives entre laboratoires et tirent le niveau global des modèles vers le haut, même s’il s’agit d’une contrainte pour les chercheurs.

Ici, de haut en bas, les variations de températures moyennes des modèles (sur une décennie) sont montrées pour des scénarios où les émissions de gaz à effet de serre vont croissant. Pour les échéances de 2020 et 2029, le fait qu’on émette plus ou moins de gaz à effet de serre ne change pas grand-chose parce qu’à ces échéances-là, c’est surtout le CO2 déjà émis qui compte. Au contraire, en fin de siècle, on observe une différence très grande selon les niveaux d’émission. On voit aussi que le réchauffement est beaucoup plus fort dans les hautes latitudes et sur les continents, pour des raisons physiques qu’on comprend assez bien. Il s’agit du réchauffement de surface. Au contraire, on observe un refroidissement dans la stratosphère. C’est une des marques du fait que les gaz à effet de serre jouent un rôle important dans ce qui est en train de se produire actuellement.

Le réchauffement récent lié aux activités humaines se superpose à la variabilité naturelle. Il est donc plus facile à détecter dans les hautes latitudes. C’est dans ces zones « sentinelles » que l’on peut plus facilement percevoir le signal premier d’un réchauffement de la planète lié aux gaz à effet de serre.

=> cf. présentation ci-dessus, diapositive n°16

Regardons pour cela les évolutions de la température réparties sur trois bandes de latitudes, les zones extratropicales nord, intertropicales et extratropicales sud.

Dans la zone intertropicale, d’après les modèles, la réponse du système est plus faible au niveau des températures (plus forte au niveau des variations du cycle hydrologique) et, d’une année sur l’autre, le paysage est dominé par des variations de température d’origine naturelle, des oscillations, et en particulier : El Niño, La Niña dont on trouve une marque très importante. Cela concerne la moitié de la surface du globe.

Dans les hautes latitudes, depuis plusieurs décennies un réchauffement assez important est plus clairement visible, même s’il est lui aussi marqué par la trace de ces oscillations de basses latitudes.

=> cf. présentation ci-dessus, diapositive n°17

Cette carte de la distribution des températures que j’avais faite il y a deux ou trois ans n’a pas fondamentalement changé depuis. Quand on compare les réchauffements observés les quinze dernières années et les trente années d’après-guerre, on retrouve cette signature. Or, quand les premiers modèles ont commencé à montrer ces structures, avec un réchauffement beaucoup plus fort en hautes latitudes et sur les continents et plus faible sur les océans, on n’avait pas encore de réchauffement observé.

On retrouve à des échelles beaucoup plus petites cette anticipation par des modèles de structures de réchauffement que l’on commence à observer.


C’est en particulier un constat que nous avons pu faire, il y a quelques années, à partir d’un modèle de Météo-France.

C’est bien sur ce type de convergence que se basent les études reprises dans le rapport du GIEC qui indiquent 90% de confiance que le changement récent ait une importante composante anthropique. On répond plus précisément à la question : est-il possible que des fluctuations naturelles du climat produisent par hasard les structures simulées par les modèles ? La réponse tient compte d’un certain nombre d’hypothèses, du niveau de confiance statistique que l’on se donne, mais, à partir des années 80 ou 90, elle devient progressivement négative.

D’autres indices montrent que dans les hautes latitudes on observe d’autres évolutions à l’œuvre comme la décroissance de la glace de mer.

=> cf. présentation ci-dessus, diapositive n°19


L’augmentation du niveau de la mer était d’un millimètre par an en tendance au début du siècle, ce qui peut s’expliquer par la sortie du petit âge de glace, lui-même pouvant s’expliquer de manière plausible par une origine solaire et volcanique. Aujourd’hui on est au-delà de trois millimètres par an. On impute généralement cette augmentation accélérée du niveau de la mer à trois facteurs, qui seraient en gros équivalents : la dilatation des océans, la fonte des glaciers de montagnes, celle de glaciers polaires comme le Groenland et maintenant l’Antarctique.

=> cf. présentation ci-dessus, diapositive n°20

Ces constats ne constituent pas une preuve, mais les éléments d’un puzzle qui tend à s’organiser de manière cohérente. Le travail des modélisateurs s’est avant tout appuyé sur la physique du système, qui indique que les gaz à effet de serre ne peuvent manquer de réchauffer le système climatique. Ensuite ils se sont demandé si, dans cette période transitoire où se mêlent la variabilité naturelle et les premiers signes de ce réchauffement, on peut voir des signes cohérents avec les prévisions des modèles. La réponse est largement positive. Ce n’est pas une preuve absolue – cela ne présage pas non plus nécessairement la fin du monde – mais cela signifie que nous sommes face à un problème que nous devons considérer avec sérieux.

Vincent Courtillot a montré cette courbe :

=> cf. présentation ci-dessus, diapositive n°21

Je ne suis pas qualifié pour détailler les courbes noires parce que ce travail a été fait par de très nombreuses personnes : il faudrait le refaire dans le détail, et il y a par exemple beaucoup de stations sur le territoire des États-Unis. Ce qui m’intéresse surtout, c’est de montrer que la séparation entre l’impact éventuel des gaz à effet de serre et une évolution conduite par des facteurs de variabilité naturelle se situe dans les années 1980-90, c’est-à-dire qu’on est face à un processus entamé depuis très peu de temps. Il est normal qu’on ait un peu de mal à le détecter. Même le fait que des régions du monde soient en train de se refroidir ne constituerait pas une preuve de quoi que ce soit. Nous sommes face à un début de processus. Ce qui nous préoccupe, c’est bien de savoir, par rapport aux conséquences futures, si on peut impunément ou non émettre des gaz à effet de serre dans l’atmosphère.

Les conséquences ne s’arrêtent pas là (et je vais rentrer dans un domaine qui montre que justement on ne sait pas tout) : le problème comporte une dimension hydrique extrêmement forte. L’eau est un des paramètres essentiels qui peut être modifié par des changements du climat.
Ces cartes correspondent à deux scénarios d’émissions de gaz à effet de serre mais aussi aux deux modèles français.

=> cf. présentation ci-dessus, diapositive n°22

Ces deux modèles français sont partiellement similaires, pour la partie océanique. Les représentations de l’atmosphère (celle de Météo France et la nôtre, l’IPSL) ont par contre été conçues très différemment. À grande échelle les deux modèles se ressemblent pourtant : il pleut davantage dans la bande équatoriale et aux hautes latitudes, moins dans les deux bandes subtropicales, dans les zones déjà arides. Cette évolution a été prévue par la première génération de modèles et constamment réaffirmée par tous les modèles au fur et à mesure qu’on les compliquait et qu’on augmentait leur résolution. On commence à observer, quand on fait des moyennes par bande de latitude, ce type d’évolution des précipitations.

Par contre, il est difficile d’expliquer les évolutions régionales. Par exemple il y a eu récemment des précipitations très intenses sur le Sahel, et on n’est pas capable de les attribuer ou non à un réchauffement de la planète. Les modèles se contredisent. Cette incapacité à préciser les contours régionaux des risques auxquels nous sommes confrontés est un des gros problèmes que nous rencontrons aujourd’hui. Leur amplitude, liée aux rétroactions associées, par exemple, aux nuages, pose un autre problème.

L’idée majoritaire, dans ma communauté, c’est que la réalité du problème est claire et qu’elle s’appuie maintenant sur beaucoup d’indices cohérents. Mais ses conséquences, la manière dont il se manifeste, sont plus difficiles à détailler. Cela ne signifie pas qu’on ne sache rien. Sur quelques régions du monde, on constate un certain consensus. Il y a par exemple une convergence des modèles pour dire que le pourtour du bassin méditerranéen risque de s’assécher. Mais, de manière générale, nous avons une réelle difficulté à travailler sur l’échelle locale.

=> cf. présentation ci-dessus, diapositive n°23

J’ai emprunté cette image au PowerPoint d’un collègue italien, Filippo Giorgi, et je l’ai gardée parce qu’elle montre un territoire proche mais étranger. Le responsable politique d’une petite ville a besoin de savoir, par exemple, quel terrain va devenir inondable. On peut toujours faire un travail d’ingénierie consistant à imbriquer des modèles jusqu’à l’échelle locale mais c’est un exercice qui a une portée très limitée si l’on n’est pas capable d’expliquer clairement les changements à plus grande échelle.

C’est pour cela que l’on a développé beaucoup d’études très différentes, qui sont rassemblées ici dans un tableau du Groupe 2 du GIEC.

=> cf. présentation ci-dessus, diapositive n°24

Il s’agit d’études où l’on cherche à inverser la tendance, en partant en quelque sorte du local pour remonter au global. En fait cette démarche un peu démiurge dont je parlais, qui consiste à essayer de tout prédire à partir des équations jusqu’à l’échelle locale, ne fonctionnera jamais complètement. On peut donc aussi essayer de se poser des questions à partir de l’échelle locale, du système écologique, économique. C’est un retour à la démarche du géographe qui étudie son terrain. Il s’agit de savoir dans quelle mesure toutes ces activités sont sensibles, vulnérables à des aléas climatiques dont on sait tout au plus caractériser les ordres de grandeur. C’est ce qui a été fait ici dans de nombreux domaines (la distribution de l’eau, la biodiversité, l’alimentation, les infrastructures côtières, la santé) et elles montrent qu’à partir de 2° ou 3° de réchauffement global environ, on redoute des impacts forts. Un réchauffement global de 2° été choisi de manière politique comme seuil à ne pas dépasser. Les études postérieures confirment globalement l’intérêt de ce seuil. Bien sûr il ne faut pas penser que c’est un seuil absolu. Certains médias aiment bien l’idée d’un seuil où la terre deviendrait brusquement non maîtrisable … mais on ne l’a jamais maîtrisée ! Par contre tout ceci montre des ordres de grandeur à peu près cohérents, qui modifient notre réflexion sur ce qui peut se produire dans le futur et sur la notion d’urgence.
Si rien n’est fait, et en se rapportant à la diapositive 14, les 2° seront atteints vers 2050. Mais nous avons vu (diapositive 15) qu’il y a une certaine inertie dans la réponse du système climatique à l’évolution des gaz à effet de serre. Il nous reste donc en fait très peu de temps si vraiment nous ne voulons pas dépasser ces 2°.

Le voulons-nous vraiment ? Ce n’est plus le seul problème du scientifique. J’y ai consacré le dernier chapitre de mon livre (2) « Nouveau climat sur la terre : Comprendre, prédire, réagir ». Le diagnostic du scientifique doit servir la décision des citoyens, des politiques, mais ne doit pas s’y substituer. Il est toutefois nécessaire que les données scientifiques soient prises en compte, même s’il n’est pas question pour le scientifique d’intervenir en tant que tel dans la prise de décision. La décision doit se fait sur des valeurs, et la science ne traite pas du problème des valeurs. Néanmoins, le problème d’urgence est posé : si nous voulons sérieusement ne pas dépasser 2° de réchauffement, il faut décider maintenant.

Je vais m’arrêter sur ces quelques idées générales pour laisser la place aux questions.

---------
(1) FAR (First Assessment Report) pour le Premier rapport (1990)
SAR (Second Assessment Report) pour le Deuxième rapport (1995)
TAR (Third Assessment Report) pour le Troisième rapport (2001)
AR4 (4th Assessment Report) pour le Quatrième rapport (2007)
(2) Hervé Le Treut : « Nouveau climat sur la terre : Comprendre, prédire, réagir », éd. Flammarion, 18 novembre 2009

Le cahier imprimé du séminaire "L’après-Kyoto: Cancún et les enjeux de la prévision climatique" est disponible à la vente dans la boutique en ligne de la Fondation

Fondation Res Publica I Samedi 23 Avril 2011 I | Lu 2222 fois


VOIR AUSSI : climat



Derniers tweets
RT @ThomasWieder: Ce soir, c'est meeting de Merkel dans un centre de fitness https://t.co/SPmtFtRok7
Mardi 19 Septembre - 18:02
"Une Europe vassalisée sous plateforme allemande", par @OlivierPasset, via @XerfiCanal https://t.co/k5apgKrMgC
Mardi 19 Septembre - 11:51
RT @f_dedieu: Mon article dans Le Débat (Gallimard) cosigné avec JB Barfety et A Montebourg sur les privat, tout juste 30 ans après. Bilan…
Mardi 19 Septembre - 11:47

SUIVEZ LA FONDATION SUR TWITTER

SOUTENIR LA FONDATION
Entreprises ou particuliers, soutenez la Fondation Res Publica

LIBRAIRIE EN LIGNE
Achetez en ligne les cahiers imprimés de la Fondation Res Publica
Fondation Res Publica

52 rue de Bourgogne
75007 Paris France
Tél : +33 (0) 1 45 50 39 50
Fax : +33 (0) 1 45 55 68 73
Contacter la Fondation