Overblog Suivre ce blog
Editer l'article Administration Créer mon blog
16 janvier 2012 1 16 /01 /janvier /2012 17:30

Dans un article récent, le climatologue J. Hansen présente une étude quantitative des événements climatiques extrêmes et de leur évolution au cours du XXe siècle. Pour cela, il étudie la distribution de températures moyennes sur des régions de taille limitée du globe (des carrés de 250 km de côté), pendant quelques mois, et trace la courbe représentant la distribution de ces événements, décennie par décennie. Pour une période de référence donnée, la courbe obtenue est proche de la distribution dite "normale de Gauss", qui donne une courbe en cloche autour d'une valeur moyenne. Une distribution gaussienne de probabilité est complétement déterminée par 2 valeurs

* la valeur centrale (la valeur la plus probable) x0

* la dispersion ou "écart type" autour de cette valeur, c'est à dire, l'écart moyen que les valeurs prennent autour de cette moyenne, notée usuellement σ

La connaissance de ces deux valeurs permet de calculer la probabilité d'avoir la variable x entre deux valeurs proches, x et x +dx (où dx est un petit intervalle, par exemple entre 2  et 2,1 ) : 

C'est la représentation de cette fonction dite "densité de probabilité" qui est donnée par la célèbre "courbe de Gauss", pour une distribution dite "normale" (A noter que contrairement à ce qu'on croit souvent, rien n'oblige une distribution de probabilités à être "normale". Le théorème central limite assure simplement que c'est le cas limite quand on regarde la moyenne d'un grand nombre de distributions quelconques indépendantes, ce qui est le cas quand une grandeur dépend d'une multitude d'influences différentes indépendantes - mais ce n'est pas forcément le cas).

Si on mesure l'ecart de la variable x, soit x-x0,  "en nombre de fois l'écart type σ ", ce qui revient à poser u = (x-x0)/s , alors  c'est une courbe universelle, le pourcentage de valeurs s'écartant d'un certain nombre de fois σ étant toujours le même. Ainsi

* 68 % des fois environ, la valeur x est écartée de x0 à moins de 1 σ

* 95 % des fois environ , la valeur x est écartée de x0 à moins de 2 σ

* 99,7 % des fois environ , la valeur x est écartée de x0 à moins de 3 σ

 sd.gif

il y a donc moins de 0,3 % de chance de s'écarter de la valeur centrale de plus de 3σ, et que la moitié (0,15 %) de chaque coté : un évènement écarté de plus de 3σ est donc considéré comme "exceptionnel". 

Pour en revenir aux températures, donc, Hansen et al. choisissent une période de référence dont ils calculent la moyenne et l'écart type σ (les résultats vont dépendre de la période choisie) pour chaque zone. Puis, pour les autres périodes, ils tracent l'écart par rapport à la moyenne de la période de référence, divisé par l'écart type de la période de référence. Autrement dit, ils comparent les histogrammes des températures des différentes périodes à celle de référence, en les normalisant sur les paramètres de la période de référence. Il est à noter qu'en normalisant une distribution normale sur ses propres valeurs, on retombe toujours sur la même courbe standard et donc on ne peut voir aucune variation ! il faut la normaliser sur une autre période pour la comparer à elle.

Hansen.jpg

Si il n'y avait pas de variation climatique, les histogrammes devraient évidemment être constants, aux incertitudes statistiques près. En fait, ils notent une variation sensible de l'histogramme, à la fois dans la valeur moyenne, mais, ce qui est plus surprenant, également dans la largeur de la distribution σ . Cela rend les évènements "extrêmes" plus probables, à la fois à cause du déplacement moyen et de la largeur plus grande. Ainsi, ils concluent que les évènements extrêmes comme la canicule de Russie ou la sécheresse du Texas sont "vraisemblablement " attribuables au changement climatique.

Il n'est évidemment pas question de refaire ici l'étude de Hansen et al., qui sont experts dans le traitement des données climatiques. Cependant, un détail curieux m'a frappé en regardant ces courbes. L'élargissement est bien sûr notable, et il peut facilement être perçu en regardant la baisse de la valeur maximale centrale de la distribution. En effet, une propriété mathématique d'une courbe de Gauss est que sa surface est directement proportionnelle au produit de son amplitude par sa largeur σ . (La valeur exacte est racine(2π)*A*σ mais le coefficient constant n'a pas d'importance). Comme les histogrammes sont normalisés à 1 (ce sont des probabilités), il en résulte que l'amplitude maximale est inversement proportionnelle à la largeur (A = 1/(racine(2π)*σ), ce qu'on peut vérifier de visu : plus le pic est large, moins son maximum est élevé.

La chose un peu curieuse, c'est que l'élargissement semble s'etre produit assez tot, dans les années 80-90 (baisse de l'amplitude, mais peu de décalage en température), et qu'il a été ENSUITE suivi d'un décalage en température, à largeur à peu près constante.

hansenzoom.jpg

Qu'est ce que cela signifie? je n'en sais rien, mais ça ne semble pas avoir été relevé par les auteurs. Ca semble en tout cas montrer que l'élargissement n'est pas directement imputable au même phénomène que le réchauffement. Est ce que c'est due à une autre cause (variation naturelle) ? est ce que ça pourrait être dû à des artefacts de mesures de température dans la période moderne par rapport aux plus anciennes ? aucune idée, mais il serait souhaitable de creuser un peu la question pour savoir si toutes les variations observées sont vraiment imputables aux mêmes causes.... et donc extrapolables dans le futur.

[PARTIE INUTILE , LA FIGURE EN QUESTION A ETE SUPPRIMEE DANS UNE NOUVELLE VERSION ]

Une autre chose également curieuse est que ce phénomène semble dépendre de la période de référence sur laquelle on calcule le σ. Là encore il y a sûrement une subtilité statistique (la discussion dans le papier n'est pas très explicite), et en particulier j'ai du mal à voir la différence entre leur figure 4 (ci-dessus) et leur figure 9, où la variation de l'écart type n'apparait pas quand on prend comme référence les 30 dernières années :

 

HansenFig9.jpg

Je n'en ai pas très bien compris la raison (il est évident que changer de période de base change l'écart type, mais pourquoi ça influe sur la DIFFERENCE d'écart type entre différentes périodes ?), si un lecteur plus perspicace pouvait nous éclairer ...

[FIN DE LA PARTIE INUTILE]

Dans l'ensemble, une impression que j'ai souvent eue est que les études statistiques sur le climat s'accompagnent souvent de points peu clairs de statistique, mal exposés ou mal compris, et sont souvent "interprétées" assez sommairement. Les discussions sur les reconstructions par proxies ont montré quand même qu'il y avait facilement des possibilités d'artefacts dans les traitements statistiques, il est utile de garder ça en mémoire ...

 

 

 

 

 

 

Partager cet article

Repost 0
Published by climatenergie - dans Climat
commenter cet article

commentaires

skept 19/01/2012 22:55


Pour l'amplification polaire arctique, il me semble que le facteur de premier ordre est le changement d'albedo dans le semestre d'insolation (et à faible altitude, raison pour laquelle les
modèles considèrent généralement que le Groenland résistera mieux que le reste du cercle arctique).  Le facteur de second ordre étant probablement radiatif (le CO2 et H2O ont plus d'effet là
où les bandes IR du rayonnement sortant ne sont pas saturées, ce qui est le cas aux pôles par rapport aux tropiques). Et la circulation océan-atmosphère de chaleur sensible de troisième ordre.


 


Fritz, quand tu dis que la rétroaction VE sera plus forte dans les tropiques, je pense que c'est à une certaine altitude (le fameux hot spot manquant pour le moment), non ? Si l'air est déjà
quasi-saturé en VE près de la surface (donc les raies IR sont "bouchées"), le transfert de chaleur se fait plutôt par convection humide et du coup le gradient thermique de l'amtosphère tropicale
diminue, la moyenne / haute troposphère se réchauffe plus vite que la surface, cela rayonne plus vers l'espace (donc cela réchauffe finalement moins). Enfin c'est ce que je crois comprendre, avec
les nuages qui se mêlent du bilan sans que l'on sache trop comment...

the fritz 19/01/2012 21:15


Gilles , on est bien d’accord, mais je pense que le compte n’y est pas ; prenons un exemple ; on augmente la température à l’équateur de 10°C, mettons de 25° à 35°C ; il faudra
rajouter 63 W/m2 ; en même temps , on augmente la température là haut vers les pôles de 13°C, mettons de –18° à –5°C ; là, il faudra rajouter 52 W/m2 ; bon , ces chiffres sont un peu exagérés ;
il serait plus honnête de diviser les augmentations de température par deux, mais dans le tableau de correspondance Température /flux que j’ai dressé il y a un certain temps , je n’ai que ces
valeurs ; mais que représente alors la différence de la dizaine de W/m2 par rapport à la centaine de W/m2 du transfert du budget excédentaire des zones équatoriales vers les zones déficitaires
des hautes latitudes ?

the fritz 19/01/2012 18:40


Skept,


je ne comprends pas bien; d’ailleurs je n’ai jamais compris comment on est arrivé à cette notion ;


on est tous d’accord, réchauffistes compris, que l’effet de serre intrinsèque du CO2 ce n’est pas grand chose, s’il n’y avait la rétroaction positive de la vapeur d’eau qui lui est liée ; or une
augmentation de température identique aux pôles et à l’équateur produit une augmentation absolue de vapeur d’eau dans l’air beaucoup plus grande pour des températures élevées : par exemple pour
une augmentation de température de 10°C et une humidité relative constante, on ajoutera 1 g d’eau par m³ aux pôles et près de 15 g/m³ à l’équateur. (il faut regarder un diagramme de vapeur d’eau
saturante en fct de la température que je n’arrive pas à importer ici) ; cette rétroaction vapeur d’eau sera donc bien plus forte dans les basses latitudes.


L'amplification polaire ne peut donc résulter pour moi que par un transport plus grand de chaleur de l'équateur vers les pôles, et comme les différences de température sont plus grandes au sud ,
ces transports devraient être en proportion.


Je me souviens d’avoir suivi la retransmission d’une table ronde où Jouzel lui-même était confronté au même dilemme

climatenergie 19/01/2012 18:44



Un argument pourrait être que pour un flux de chaleur donné, la loi de corps noir donne une variation de température d'autant plus grande que la température est petite : en effet, ce qui compte,
c'est le ∆(T^4) = 4.T^3 ∆T . Ainsi bizarrement, augmenter un flux de chaleur de l'équateur vers les pôles augmente plus la température des pôles qu'il ne diminue la température des tropiques, et
donc augmente la température moyenne. Comme je l'avais signalé dans mes posts du début, la température moyenne de surface n'est nullement un indicateur précis du bilan thermique (il vaudrait
mieux considérer la température effective moyenne qui est obtenue par la moyenne des T^4 et non la moyenne des T). Et la température des régions froides pourra plus varier que celle des régions
chaudes, pour un bilan thermique constant. 



skept 19/01/2012 17:35


Fritz : concernant l'amplification polaire, les modèles la prévoient surtout dans le Nord à court terme, parce que l'Antarctique a une configuration circumpolaire différente de ses courants (pour
le transfert de chaleur depuis l'équateur), ainsi bien sûr qu'une altitude de l'inlandsis absente dans l'océan arctique.


 


La variabilité naturelle forcée, c'est le soleil et les volcans, leurs effets directs et indirects. (Après, il y a peut-être des phénomènes non encore observés, comme des variations des aérosols
organiques naturels, de la capture carbone par la pompe biologique... mais je n'y crois pas trop)


 


 

the fritz 19/01/2012 13:52


Par exemple, l'amplification polaire est correctement prédite / observée


------------------------------------


Cela ne me paraît pas évident, parce que c'est seul observé dans le Nord; il pourrait donc y avoir d'autres causes que l'effet de serre


Et puis qu'est-ce qu'une variabilité naturelle forcée? Est-elle encore naturelle quand elle est forcée?