Overblog Suivre ce blog
Editer l'article Administration Créer mon blog
30 juin 2011 4 30 /06 /juin /2011 08:50

Je vais commencer à examiner quelques points essentiels du débat climatique, en soulignant ceux qui me semblent problématiques (j'insiste encore une fois que cela ne constitue pas une critique fondamentale du travail des climatologues, au contraire, je leur fais confiance et j'essaye d'en tirer les conclusions qui me semblent les plus pertinentes).

Nous avons vu que la Terre avait une température nettement supérieure à celle qui existerait en l'absence d'atmosphère, et que cette augmentation était due à la présence de molécules (les gaz à effet de serre) absorbant l'infra-rouge. Parmi ces molécules, on trouve le dioxyde de carbone (le fameux "CO2"), mais aussi la vapeur d'eau (H20), et d'autres molécules comme le méthane (CH4), l'ozone (O3), etc... Ces molécules ont en fait une concentration faible dans l'atmosphère. La plus importante pour l'effet de serre, en réalité, est la vapeur d'eau. Mais contrairement aux autres, sa concentration s'ajuste rapidement par l'évaporation et la condensation, ce qui signifie, par exemple, que ça n'a aucune importance d'émettre de la vapeur d'eau par les centrales nucléaires ou la combustion des fossiles : l'excès injecté dans l'atmosphère se recondense en quelques jours. En revanche, les autres gaz ont une durée bien plus longue , et avant tout le CO2 dont on estime qu'il reste en moyenne 100 ans dans l'atmosphère (en réalité cette durée est très compliquée à définir précisément car une partie ne disparaitra jamais, ou alors en des dizaines de milliers d'années : disons que ce qui disparaitra rapidement le fera en environ 100 ans).

Qualitativement, on peut comprendre que rajouter des gaz à effet de serre (ou GES) augmente l'absorption de l'atmosphère, et donc augmente le réchauffement du sol. Ca parait assez simple et intuitif. Ce qui est bien plus complexe, c'est de calculer numériquement l'effet exact de cette augmentation de concentration. 

Pour celà les climatologues supposent une variation conventionnelle fixée de la concentration en CO2, et définissent la sensibilité climatique comme la façon dont la Terre réagirait à cette variation : en pratique ils supposent que la concentration en CO2 doublerait depuis sa concentration préindustrielle. Les mesures semblent montrer que le CO2 avait une concentration de 280 ppm avant l'ère industrielle, où  ppm signifie "partie par mllion" : la concentration réelle etait donc de 280 molécules de CO2 pour 1 000 000 de molécules "d'air" - constitué majoritairement en fait de 80 % d'azote et de 20 % d'oxygène-,  elle est actuellement de presque 400 ppm. Bien que la valeur de la concentration et les causes de son augmentation soient contestées par certains, il y a quand même un consensus assez large, y compris chez beaucoup de climatosceptiques pour reconnaître que cette variation est essentiellement due à la combustion de dizaines de milliards de tonnes d'hydrocarbures divers par la société industrielle.

 

Lorsqu'on calcule l'effet direct du doublement de la concentration sur l'absorption par l'atmosphère, on trouve que cela revient à augmenter le flux d'énergie incident au sol d'environ 3,7 W/m^2 (sur un total en moyenne d'environ 340 W/m^2 incident du Soleil au départ, et d'environ 500 W/m^2 si on tient compte de l'albedo et de la partie déjà renvoyée par l'atmosphère par les GES actuels). Cette valeur est appelée "forçage" : en réalité le forçage est défini comme la DIMINUTION de l'émission renvoyée dans l'espace par l'atmosphère, et donc par le déséquilibre radiatif engendré par une modification. En réponse à ce déséquilibre, la Terre va "réagir" en se réchauffant, ce qui va augmenter son émission thermique, jusqu'à ce que l'équilibre soit à nouveau rétabli.

 

Il faut bien comprendre que le réchauffement n'est pas infini , il s'agit d'un équilibre dynamique qui se réajuste en permanence : le CO2 ne "stocke " pas la chaleur :  comme nous l'avons expliqué, il se contente de ralentir son émission vers l'espace, comme des cailloux placés dans le lit d'un torrent. On a tous joué à faire des barrages en rajoutant des cailloux : ça fait temporairement monter le niveau de l'eau jusqu'à ce que ce que le flot reprenne sa valeur initiale : en permanence, le niveau est plus élevé, mais quelqu'un placé en aval du barrage ne s'aperçoit de la baisse du débit que pendant la période transitoire où l'eau monte. Une fois que le niveau est stabilisé , il y a à nouveau autant d'eau qui coule. Il en est de même de la chaleur sur Terre : rajouter du CO2 provoque un déséquilibre temporaire du flux (un peu plus rentre qu'il n'en sort), mais une fois un nouvel équilibre atteint, les flux sont à nouveaux égaux. 

 

Simplement la température d'équilibre aura un peu changé, et c'est cette variation de température après un doublement du CO2 que les climatologues appellent sensibilité climatique, ou plus exactement sensibilité à l'équilibre (c'est à dire une fois l'équilibre rétabli) Si rien d'autre que l'absorption du rayonnement ne se produisait, cette sensibilité serait d'environ 1 °C. Mais c'est là que les choses se compliquent : on ne peut pas dire que rien d'autre ne se produirait ! en effet cette augmentation de température est susceptible de provoquer des réactions en cascade sur différents phénomènes : la circulation atmosphérique, l'évaporation de la vapeur d'eau , la formation de nuages, ... tout cela va à son tour réagir sur l'effet de serre et l'albedo (les nuages réflechissant la lumière solaire ), et va donc modifier à nouveau la température , ce qui va à nouveau modifier les conditions etc ... Il s'agit de ce que les physiciens appellent des phénomènes de rétroaction.

L'estimation précise de ces rétroactions est le point le plus épineux des modèles climatiques, on pourrait même dire que c'est une des parties essentielles du débat et c'est très précisément là-dessus que des climatologues comme Lindzen ou Spencer critiquent les modèles actuels. Il est très difficile de les calculer précisément parce que nos modèles n'ont pas la précision nécessaire pour le faire. Or la sensibilité finale dépend complètement de leur valeur. Pour résumer la situation, voilà un graphique présentant les différentes estimations de sensibilité climatique par différentes méthodes, publié par Knutti & Hegerl, 2008  dans le journal Nature Geoscience.

 

sensibiliteOn y voit une représentation des différentes estimations faites par plusieurs méthodes :

* mesures instrumentales directes en essayant de corréler des variations de températures à des causes connues de variation de forçage (par exemple les éruptions volcaniques)

* modèles climatiques, qui simulent l'effet d'une variation de CO2 sur la température. 

* estimation par les variations passées du climat (paléoclimatologie)

 

ce graphique est pour moi très illustratif du genre de débat actuel en climatologie. Il est en général "vu" et "interprété" comme : toutes les estimations sont en gros d'accord pour converger vers une sensibilité entre 1,5 et 6 °C, avec un maximum de probabilité entre 2 et 4,5 °C (intervalle retenu par le GIEC) et un maximum de probabilité entre 3°C. Cette valeur "typique" est est en général ensuite adoptée pour toutes les estimations des effets futurs du CO2.

Le scientifique que je suis ne peut s'empêcher d'avoir un mouvement de prudence devant ces conclusions. La première remarque que j'ai envie de faire, c'est que la sensibilité climatique est tout sauf bien déterminée ! une erreur potentielle d'un facteur presque 10 , et un intervalle de "confiance" d'un facteur 2 n'a jamais été considérée en sciences comme quelque chose de très précis. Même les climatologues l'admettent. Néanmoins, ils considèrent que l'accumulation des estimations diverses autour d'une valeur de 3 +/- 1,5 °C leur donne bonne confiance que la vraie sensibilité se trouve dans cet intervalle. Il s'agit là donc d'un réel problème épistémologique : si des données sont imprécises, quelle confiance peut-on donner à l'intervalle de valeurs qu'elles définissent ?

 

 

je voudrais convaincre le lecteur que c'est un problème loin d'être trivial, et qu'il évite de tomber dans la tentation de "puisque les scientifiques disent tous la même chose, c'est qu'ils doivent avoir raison". D'abord ce n'est pas vrai qu'ils disent tous la même chose, puisque les résultats sont quand même sensiblement différents d'une étude à l'autre. Et ensuite, il n'est absolument pas vrai que la collection d'avis différents définit un ensemble fiable. La seule chose fiable ce sont des résultats précis, validés, et prédictifs. Je vais donner quelques exemples tirés de l'astrophysique : 

* il est connu que le Soleil a un cycle d'activité de 11 ans. Or aucun modèle du Soleil ne sait justifier l'amplitude et la durée de ce cycle. Il y a des explications plus ou moins qualitatives par l'effet dynamo, mais aucun modèle n'a réussi à reproduire ce cycle, les quelques uns produisant de la variabilité le font sur des cycles bien plus courts. Si on se base sur l'ensemble des modèles, on devrait donc conclure qu'il est impossible que le Soleil ait un cycle de 11 ans, et que le vrai cycle si il existe doit être bien plus court, conclusion erronnée bien sur.

* un des phénomènes les plus spectaculaires de l'astrophysique est l'explosion des supernovae, la mort dans une explosion gigantesque d'étoiles très massives (autour d'une dizaine de fois la masse du Soleil). Ces évènements sont très rares , ils ne sont observés dans notre galaxie qu'une fois tous les quelques siècles. Or aucun modèle n'arrive à reproduire convenablement ces explosions. Si on se base sur les modèles, les explosions de supernovae n'existent pas.

Je ne prétends pas que cela prouve que les modèles climatiques ont tort bien sûr, mais simplement que l'argument épistémologique basé sur une statistique de modèles imprécis ne vaut pas grand chose. 

 

Ceci dit, ça ne prouve pas naturellement non plus que les estimations sont forcément fausses ! y a-t-il une raison pour penser qu'elles puissent toutes l'être, et que par exemple, il pourrait y avoir des raisons d'avoir un biais systématique vers les grandes sensibilités ? 

 

Mon avis personnel (probablement pas partagé par tout le monde) est que oui. Il y a de bonnes raisons de penser que la sensibilité puisse être surestimée de façon générale. Et c'est la suivante : la définition de la sensibilité revient à calculer le rapport d'une variation de température à celle d'une cause supposée unique de sa variation. Or, et c'est un point très important que je redevelopperai par la suite, c'est une hypothèse très forte (et très contestable) de penser que la température ne peut varier QUE à cause des forçages. En effet nous avons vu que la température d'équilibre était un paramètre compliqué qui ne dépendait pas que du flux d'énergie incident, mais aussi de la façon complexe dont la chaleur est redistribuée à la surface de la Terre. Or il n'est nullement certain que des variations compliquées et spontanées n'agissent pas également pour changer le climat, et il y a même de bonnes raisons de le penser : ces variations étant par exemple due à des cycles océaniques de périodes plus ou moins longue qui sont en réalité très mal connus.

 

Lorsqu'on regarde les variations passées du climat, on est très loin de pouvoir les calculer précisément uniquement en fonction d'un "forçage". On peut évidemment toujours calculer une sensibilité en divisant une température par un forçage, mais ça ne prouve pas du tout que ça en est la seule cause. Or si la température varie pour d'autres raisons que les forçages, on trouvera toujours une sensibilité surévaluée. Et absolument pas constante puisqu'on divise en fait artificiellement une quantité par une autre alors qu'elles ne sont pas nécessairement reliées. En revanche, les variations à la fois de température et de forçages fluctuant dans un certain intervalle du même ordre de grandeur, le quotient sera plus ou moins aussi dans le même ordre de grandeur - ce qui est exactement la situation présentée ici. Il est donc très facile d'aboutir génériquement à une sensibilité "toujours du même ordre de grandeur", mais néanmoins variable ... et sans valeur précise définie. Ceci ne prouve bien sûr pas que la valeur finale soit fausse. Mais simplement qu'il ne faut pas confondre une collection d'estimations imprécises avec une détermination expérimentale précise. Il est d'ailleurs , pour moi, assez intrigant que sur le graphique ci-dessus, les déterminations "instrumentales " a priori plus précises soit bien moins contraintes que les autres, avec en particulier bien plus de valeurs "minimales" que d'autres méthodes basées sur les modèles ou les données paléoclimatiques, ce qui semblerait confirmer qu'ils ne mesurent en réalité pas "la même chose". Je ferai des commentaires plus détaillés dans la suite sur la pertinence même de la notion de "sensibilité climatique". 

 

 


 

Partager cet article

Repost 0
Published by climatenergie - dans Climat
commenter cet article

commentaires

meteor 03/07/2011 20:21


Concernant la sensibilité "expérimentale", elle ne peut à mon sens, être très précise.
Si on regarde Pinatubo par exemple, il s'agit d'un forçage bien trop bref pour que la température varie suffisamment (inertie thermique) pour qu'on puisse avoir de la précision.
A part Pinatubo ou les volcans en général, le seul forçage naturel connu est le forçage solaire mais là aussi, non seulement c'est assez bref, mais c'est plutôt faible.

Pour les forçages anthropiques le problème est qu'on ne connait pas les forçages par aérosols.

Donc, à mon sens, on ne peut être beaucoup plus précis que pour les sensibilités paléoclimatiques, par exemple.

Bref, on n'est pas sortis de l'auberge...


skept 03/07/2011 12:46


Gilles : un détail, le reviw de Knutti et Hegerl est sortie dans Nature Geoscience.

Ta remarque sur la plus forte variation de la sensibilité déduite de la période instrumentale (et son caractère contre-intuitif) me semble très pertinente. Pour ma part, je n’ai jamais bien compris
l’intérêt des paléoclimats pour cette question de la sensibilité climatique. Typiquement, on compare la sortie d’un épisode glaciaire vers un épisode tempéré avec notre période, qui est juste la
continuation d’un épisode tempéré. Mais l’effet de l’ajout de la même quantité de CO2 va dépendre des conditions initiales du climat sur lequel cet ajout s’exerce. Si j’ai beaucoup de glace ou pas
beaucoup de glace, un océan froid ou un océan chaud, plus ou moins de végétation, un cycle de l’eau plus ou moins intense, etc. Comme aucun modèle n’est capable de reconstruire précisément toutes
ces conditions initiales dans le passé, ni même de reconstruire précisément les températures moyennes globales (pas beaucoup de proxies bien répartis et du bruit dans l’interprétation de chaque
proxy polaire, tempéré ou tropical), cet exercice ne produit aucune information réellement utile. A partir du moment où l’on a du mal à estimer la sensibilité dans les conditions présentes, mieux
mesurées que toutes les autres, essayer de le faire dans des conditions passées où il y a plus d’incertitudes dans toutes les mesures n’a pas d’intérêt (et le résultat devrait de toute façon être
beaucoup plus incertain). C’est comme si mon modèle d’épidémie reproduisait mal l’extension de la grippe au XXe siècle, mais que j’espérais déduire des choses très intéressantes en l’appliquant à
l’époque romaine, où je connais moins bien le nombre d’habitants, le nombre de malades, le nombre de contacts entre les individus, etc.


phi 02/07/2011 11:46


Merci Gilles pour cette belle façon d'aborder la question. De la raison et de la clarté dans l'élégance, c'est le bon chemin.