Vous êtes sur la page 1sur 47

Cours d’anthropologie Géographique:

L’Homme plus fort que la nature

Les émissions anthropiques

À la télévision et dans de nombreux journaux, vous pouvez


entendre des déclarations de politiciens et de journalistes sur
le climat. De manière frappante ils sont toujours d’accord.
Leurs positions peuvent être résumées par une phrase très
simple: Le changement climatique serait une catastrophe
causée par l’homme.
"A man made catastrophe".
Si l’homme a causé une catastrophe c’est parce qu’il a pollué
profondément, voir même empoisonné gravement le sol, l’air
et les eaux, rivières et océans de notre terre si chère.
C’est une déclaration avec laquelle de nombreux Français
peuvent probablement se mettre d’accord. Le changement du
climat a toujours existé et est donc un fait. La température
moyenne de l'atmosphère monte et descend légèrement
depuis des millénaires. Le changement du climat de
maintenant serait donc causé par l'homme. Malgré qu’il y ait
un grand nombre d’influences humaines ceci est démenti par
les faits. Voyons d’abord la situation astronomique de la terre.
Pour cela nous invoquons le cycle de Milankovitch découvert
en 1924 qui a bouleversé à l’époque le monde des géologues.
En 1924 le yougoslave Milankovitch publia sa théorie qui
explique les variations de l’ensoleillement des différentes
régions sur Terre suite à l’évolution du mouvement de la Terre
autour du Soleil. L’alternance des époques glaciaires et
interglaciaires qui se sont succédé sur les hautes latitudes de
l’hémisphère nord (HN) depuis deux millions d’années est
initiée par la combinaison des paramètres orbitaux qui
définissent la position de la Terre dans l’espace par rapport au
soleil.
Une fois déclenchée, la construction (ou la fusion) de calottes
de glace conduit à une diminution (ou une augmentation) des
gaz à effet de serre dans l’atmosphère, ce qui amplifie le
refroidissement (ou le réchauffement) du climat. Nous
présentons ci-dessous la définition et l’évolution des différents
paramètres orbitaux, dont les cycles et leur relation avec les
glaciations ont été en particulier étudiés par Dr. Milutin
Milankovitch. Afin d’appréhender, de façon simple, comment
les situations deviennent, de façon cyclique, favorables à la
construction (ou la diminution) des calottes glaciaires, nous
nous baserons sur le raisonnement simplifié suivant : plus les
étés sont chauds plus la situation est favorable à la fusion
progressive d’une calotte sur l’H.N, lorsque celle-ci existe, car
la fusion des glaces a lieu l’été. Inversement, plus les étés sont
frais, plus la situation est favorable à l’installation ou à la
croissance de la calotte (si celle-ci existe déjà). La réalité est
plus subtile, mais ce mécanisme est majeur et permet
d’appréhender comment les cycles, liés à l’influence des
différentes planètes sur le mouvement de la Terre, vont
conduire le ballet des glaciations durant le quaternaire.
Pourquoi, pour expliquer les glaciations, s’intéresse-t-on à
l’ensoleillement de l’hémisphère nord et non pas à celui de
l’hémisphère sud ?
Parce que, lors des périodes glaciaires/interglaciaires, peu de
choses changent dans l’hémisphère sud, excepté l’extension
de la banquise autour de l’Antarctique, mince pellicule de
glace de 3 m d’épaisseur. La calotte antarctique, qui recouvre
le continent antarctique centré sur le pôle sud, reste
quasiment inchangée entre ces deux climats : elle persiste.
Autour de ce continent, entre 60°S et 30°S, aucun grand
continent n’existe pouvant servir de support à l’établissement
d’une grande calotte glaciaire.
Par contre dans l’hémisphère nord (HN) une ceinture de
continents existe à ces latitudes en Amérique et en Eurasie.
C’est donc dans ces régions que vont pouvoir se construire
puis disparaître les grandes calottes glaciaires. Une fois
établies dans l’hémisphère nord ces calottes glaciaires vont
modifier le climat de la Terre dans son ensemble, refroidissant
toute la planète, y compris l’hémisphère sud.

Les trois paramètres orbitaux

Trois paramètres indépendants caractérisent la position de la


Terre par rapport au Soleil, et donc définissent l’énergie
solaire reçue selon les différentes saisons. Chacun de ces
paramètres varie au cours du temps avec des périodes
indépendantes; leur conjonction va rendre plus ou moins
favorable la construction (ou disparition) des calottes
glaciaires de l’hémisphère nord.

L’excentricité, « e », qui caractérise la forme de l’orbite décrite


par la Terre en un an autour du Soleil, orbite qui n’est pas
circulaire mais elliptique, dont le soleil occupe l’un des foyers.
(Voir figures).
La distance Terre-Soleil, qui est en moyenne de 149 millions
de km, varie donc au cours de l’année, la Terre passant tous
les 6 mois au périhélie (point le plus près du soleil) puis à
l’aphélie, (point le plus loin). L’écart entre ces deux distances
est fixé par l’excentricité. Si celle-ci est nulle, l’ellipse devient
un cercle; si elle est de 0,015 (valeur proche de la valeur
actuelle) la distance Terre-Soleil varie de 3% (2 fois
l’excentricité) entre la position la plus proche et la position la
plus éloignée.
L’énergie solaire qui parvient à la Terre (1367 w/m2 en
moyenne au cours de l’année) varie alors de 6% (4 fois
l’excentricité) passant de 1408 W/m2 au point le plus proche à
1326 W/m2 au point le plus éloigné. Cette excentricité évolue
au cours du temps avec comme principales périodes 412 800
ans et un ensemble de périodes proches de 100 000 ans,
comme on voit sur les figures. Par exemple, lors de la
précédente période interglaciaire, il y a 128 000 ans,
l’excentricité était proche de 4%, (l’ellipse s’éloignait plus d’un
cercle qu’à l’époque actuelle) et l’énergie reçue par la Terre
entre le périhélie et l’aphélie variait d’environ 16%.
L’inclinaison (actuellement proche de 23°) de l’axe de rotation
de la Terre sur l’écliptique, plan dans lequel se déplace la
Terre autour du Soleil au cours de l’année (voir figures).
La Terre tourne en 24 heures autour de cet axe. La direction
de cet axe est facilement matérialisable car, lorsqu’on regarde
la voûte céleste la nuit, une étoile située dessus doit rester
immobile au cours des 24 heures de rotation de la Terre : c’est
actuellement le cas de l’étoile polaire. Cette direction ne
bouge quasiment pas au cours de l’année (l’étoile polaire
reste l’étoile fixe sur la voûte céleste). L’inclinaison de cet axe
est responsable de l’existence des saisons : pas de saisons si
l’inclinaison est nulle, et plus l’axe est incliné, plus l’écart est
fort entre l’été et l’hiver. La position de cet axe oscille entre
21° et 24,5°, avec une période principale de 41 000 ans. Plus
l’axe est incliné, plus les étés sont chauds, en particulier aux
hautes latitudes où les jours sont longs. Inversement, moins il
est incliné, plus les étés sont frais.Par exemple, passer d’une
inclinaison de 21 à 24,5° entraîne en été à la latitude de 70°
une augmentation de l’insolation reçue :elle passe de E x
cosin (70-21), soit E x 0,6561, à E x cosin (70-24,5), soit E x
0,7010 ( E étant l'énergie solaire incidente, soit le flux
d'énergie reçu par une surface frappée perpendiculairement
par les rayons solaires).
Le flux d'énergie solaire reçu augmente ainsi de la quantité
E x 0,0449, ou une hausse de (E x 0,0449/E x 0,6561), soit
6,8%.
Ceci conduit, environ tous les 20 000 ans, soit à une situation
favorable à la fusion de calottes glaciaires aux hautes latitudes
de l’H.N. (inclinaison forte, étés chauds) soit à une situation
favorable à la croissance des calottes (inclinaison faible, été
frais). Mais ce paramètre n’est pas le seul à influer sur
l’établissement des époques glaciaires / interglaciaires :
l’influence de la précession est au moins aussi importante.
La précession de l’axe de rotation de la Terre (voir figures) :
Tout en gardant son inclinaison proche de 23° au cours des
milliers d‘années, l’axe de rotation précesse autour de l’axe de
l’écliptique (il décrit un cône) avec un cycle de l’ordre de
22 000 ans (en fait les principales périodes de précession sont
proches de 19 000 et 23 000 ans). La conséquence de cette
précession est que le solstice d’été dans un hémisphère
donné (moment où l’hémisphère reçoit le maximum de
chaleur), aura lieu alternativement tous les 11 000 ans soit au
périhélie (c’est-à-dire près du Soleil), soit à l’aphélie (loin du
soleil). Donc, dans cet hémisphère, les étés seront tous les
11 000 ans soit plus chauds soit plus frais, l’écart d’énergie
reçue étant fixé par l’excentricité de l’ellipse (soit 4xe, voir 1er
paragraphe).
Si la Terre décrivait un cercle autour du Soleil (e = 0), la
distance Terre-Soleil étant alors constante, la précession
n’aurait alors aucune influence sur les saisons. Ceci conduit
tous les 11 000 ans, soit à une situation favorable à la fusion
de calottes glaciaires aux hautes latitudes de l’H.N. (étés
chauds) soit à une situation favorable à la croissance de ces
calottes (été frais).
On caractérise l’évolution de cette situation par la distance
Terre-Soleil au 21 juin (solstice d’été de l’hémisphère nord),
représenté sur les figures. Ainsi, il y a 11 000 ans dans
l’hémisphère nord, nous recevions en été 6% de plus
d’énergie solaire qu’à l’heure actuelle. Inversement, en hiver il
y a 11 000 ans, nous recevions 6% de moins d’énergie solaire
qu’à l’heure actuelle. La combinaison des deux paramètres
(distance Terre-Soleil le 21 juin et inclinaison de l’axe de
rotation de la Terre) vont conduire à des situations plus ou
moins favorables à la dynamique des calottes dans les hautes
latitudes de l’hémisphère nord. Cette dynamique est
enregistrée dans l’évolution du niveau marin dont la baisse
caractérise le volume des glaces stockées dans les calottes
glaciaires. On constate que les enregistrements des niveaux
marins dans les sédiments océaniques sur les deux derniers
millions d’années présentent bien les 3 périodes clés (19 et
23 000, 41 000 et 100 000 ans) des trois paramètres
astronomiques décrits ci-dessus (voir figure suivante)
Ce fait a été la première confirmation éclatante de la validité
de la théorie astronomique du climat. La combinaison de
l’ensemble des fréquences conduit à l’émergence en
moyenne environ tous les 100 000 ans d’un interglaciaire
marqué suivant une glaciation importante. De la même
manière, en moyenne, les périodes interglaciaires (dont les
durées peuvent s’étendre de quelques milliers d’années à
plusieurs dizaines de milliers d’années, selon la conjoncture
astronomique) durent en moyenne une dizaine de milliers
d’années.
Quelques exemples :
Comparaison entre les deux derniers interglaciaires.
Inclinaison, excentricité et précession se sont combinées de
façon particulièrement favorable pour conduire il y a 128 000
ans à l’avant dernière grande déglaciation (position de la Terre
en été de l’H.N. proche du Soleil et forte inclinaison de l’axe
de rotation, atteignant 24,2°).
Une conjonction semblable, favorable à la déglaciation, a eu
lieu il y a 11 000 ans avec la distance Terre-Soleil faible en été
H.N. et une forte inclinaison (24,2°), qui a conduit à
l’établissement de l’interglaciaire actuel. Cependant,
l’excentricité ayant été plus forte il y a 128 000 ans qu’il y a
11 000 ans, le précédent interglaciaire a connu des étés plus
chauds que l’actuel, ce qui s’est traduit par une température
moyenne plus élevée (une estimation d’environ 2 degrés
semble plausible) ainsi qu’un niveau des mers plus haut de
quelques mètres (une estimation d’environ 2 mètres semble
également plausible).
Depuis le précédent interglaciaire (centré sur environ 125 000
ans) les situations qui, à chaque cycle de précession,
correspondaient à une distance Terre-Soleil faible en été
(H.N.), n’ont pas été renforcées par une forte inclinaison :
il y a 100 000 ans (position B de premières figures)
l’inclinaison était particulièrement faible et n’a conduit qu’à un
interstade chaud où le niveau des mers est resté d’environ 16
mètres plus bas que le niveau actuel :
L’interglaciaire actuel :
Il y a 11 000 ans , dans l’HN, la Terre se trouvait le plus proche
du soleil en été (configuration étés chauds, hivers froids).
Actuellement au cours de l’année (voir la figure), c’est en été
(de HN) que la Terre se trouve le plus éloigné du soleil
(configuration étés frais, hivers doux).
Ceci peut être mis en relation avec le fait qu’au cours des dix
mille dernières années, les hautes latitudes de l’hémisphère
nord se sont progressivement refroidies : le pergélisol
initialement restreint aux très hautes latitudes a progressé
vers le sud. Une telle situation prépare l’établissement d’une
couverture neigeuse permanente aux hautes latitudes de
l’hémisphère nord, prémisse à la prochaine glaciation. C’est
ce qui limite en général la durée d’un interglaciaire à une
dizaine de milliers d’années. Cependant dans le cas actuel….
Le futur ?
Dans le cas actuel, l’excentricité de l’ellipse étant
particulièrement faible, alors que l’inclinaison est loin d’être à
son minimum, la situation est peu favorable au retour d’une
glaciation; de plus, cette situation va évoluer progressivement
à l’établissement d’étés de plus en plus chauds en H.N.
(diminution de la distance Terre-Soleil en juin, au cours des
prochains milliers d’années (voir premièresl figures). Tout
indique l’absence de construction d’une calotte dans les
prochains siècles, prochains millénaires, mais à nouveau un
réchauffement naturel des étés de l’H.N. Que nous enseigne
le passé ? Cette configuration astronomique est rare au cours
des dernières centaines de milliers d’années (faible
excentricité) mais s’est produite il y a environ 400 000 ans
(stade isotopique 11), où l’interglaciaire a été particulièrement
long (environ 30 000 ans). A cette époque, le balancier des
11 000 ans a peu joué, et le nouveau cycle de 22 000 ans s’est
établi alors que le niveau des mers était encore élevé. Bien
que la reconstitution du climat de cette époque soit encore
difficile, les données actuelles suggèrent un état plus chaud
que la moyenne des interglaciaires (cela semble être la seule
époque où l’on ait trouvé des pollens de vigne sauvage dans
le Vercors), et un niveau des mers plus élevé (une dizaine de
mètres ?).
Le catalyseur des effets astronomiques sur le climat :
par la fission et fusion nucléaire du noyau terrestre.

Aussi bizarre que cela puisse paraître, on en sait plus sur les étoiles
et les galaxies lointaines que sur ce qui se passe au centre de la
Terre, dans le noyau en fusion. Les théoriciens divergents
fondamentalement à la fois sur le fonctionnement de ce noyau, sur
sa dynamique, sur ses caractéristiques : pression, température,
magnétisme, etc… Comme on n’a jamais pu enregistrer l’évolution
de ce noyau, impossible pour le moment d’être sûrs de la manière
dont ce noyau évolue, en particulier comment évolue sa
température.
Ce que l’on sait, c’est que la chaleur de ce cœur ne provient
pas de celle des matériaux en fusion à l’origine de la Terre,
énergie épuisée depuis belle lurette en surface comme en
profondeur. On sait que ce sont les décompositions nucléaires
spontanées des atomes d’uranium, thorium et potassium,
éléments radioactifs à longue durée de vie, qui émettent
l’énergie nucléaire, augmentant la température et mettant en
fusion ce noyau au point qu’il serait d’une température
équivalente à celle de la surface des étoiles, ce qui n’est pas
rien : plusieurs milliers de degrés !!!!
D’autre part, l’évolution de la production de cette énergie
dépend de la part de chacun des éléments radioactifs car ils
n’ont pas la même durée de vie, l’uranium étant ainsi plus
rapide à se décomposer. Il faudrait connaître par exemple la
part du potassium pour estimer s’il est possible que le noyau
chauffe actuellement ou se refroidisse. Et encore cela dépend
du type d’uranium : la demi-vie de l’uranium 235 est de 700
millions d’années alors que celle de l’uranium 238 est de 4,5
Ga !
Mais tout cela ne nous dit pas quelle est finalement la
température et les nombres cités par les scientifiques varient
considérablement entre 5000 et 7000 degrés… Quant à
réfléchir à l’évolution de cette température, on ne s’y attelle
pas facilement, vu la difficulté de mesurer, directement ou
indirectement, quoi que ce soit.
Le seul moyen de raisonner sur ce cœur de la planète a
consisté à discuter des pressions qui peuvent y régner et des
états de la matière de ce noyau, en discutant des
températures que cela suppose. Une discussion très indirecte
et qui ne permet certainement pas de discuter d’évolutions
des températures de ce noyau terrestre.
Rappelons tout d’abord que l’on entend par noyau terrestre
une boule interne d’un rayon de 1220 kilomètres dont on
ignore en réalité dans quel état de la matière elle existe
(solide, liquide, plasma,…). Combien y a-t-il de couches
diverses de ce noyau, dans quels états sont-elles, tout cela
est encore en discussion, et les débats sont bien loin d’être
tranchés.
Un des éléments du débat est l’existence d’un magnétisme
induit par ce noyau terrestre qui contient une part considérable
de fer. Cela suppose en effet que le noyau de fer subisse une
rotation qui produit le champ interne de la Terre… En effet, il
est impossible que le fer conserve une aimantation
permanente vues les hautes températures qui dépassent
largement le seuil : point de Curie. Il faut donc que le noyau
ferreux soit entouré de fer en fusion et produise un effet
d’aimant auto-entretenu par un mécanisme de dynamo dû à
la rotation du noyau solide dans le liquide. Cela suppose aussi
de hautes températures pour maintenir du fer en fusion malgré
des pressions énormes… Mais tout cela dépend aussi de la
taille du noyau solide. Est-elle constante ? Ce qui le
détermine, c’est la température. Si la chaleur s’accumule au
centre, le noyau fond et diminue, modifiant la rapidité du
mouvement du noyau solide et l’effet magnétique produit.
C’est ce qui semble se produire justement… Ce qui en décide,
c’est à la fois l’état des fissions radioactives, le pourcentage
de noyaux instables qui se décomposent et la capacité de la
chaleur de s’évacuer vers la surface via le manteau et la
croûte…
Quelle énergie a réussi à alimenter le champ magnétique
terrestre, sachant que celui-ci existe depuis 3,2 milliards
d’années alors que la graine solide n’existerait que depuis 2
milliards d’années maximum (en tenant comptant du
refroidissement de la boule en fusion originelle) ? Il faudrait
que l’on trouve dans le noyau terrestre également du
potassium radioactif, ce qui expliquerait aussi le
réchauffement actuel par les désintégrations radioactives
naturelles dans le noyau…
Avons-nous des raisons de penser que le réchauffement
terrestre ait pour origine le noyau de la planète ?
Une des raisons est le fait que les phénomènes dont l’origine
est la chaleur de ce noyau semblent de plus en plus actifs :
volcanisme, terrestre et sous-marin, tremblements de terre et
tsunamis… Là encore, la mesure d’une évolution n’a rien de
facile et on peut difficilement dire si les magmas d’aujourd’hui
sont plus actifs que ceux d’hier….
Quel rapport, d’ailleurs, le réchauffement de la Terre pourrait
bien avoir avec l’évolution de la température du noyau et ses
décompositions radioactives ?
Eh bien, il faut d’abord constater que les zones d’où partent
ces augmentations de températures semblent bel et bien liées
aux failles de l’écorce terrestre par lesquelles la chaleur
interne de la Terre trouve son chemin vers l’extérieur….
Un des exemples est le volcanisme de la zone polaire nord. Il
semble que la fonte du Groenland ait bel et bien une origine
non atmosphérique mais due à la hausse des températures
souterraines liées à la hausse de la température du noyau…
En effet, il s’avère que le glacier fond par en dessous !
Un autre exemple est la zone d’apparition de masses d’eau
chaudes au sein du Pacifique et qui donne naissance
périodiquement au phénomène dit « El Ninõ » auquel on
attribue une part importante du réchauffement terrestre.
Notons d’abord que l’origine du démarrage des épisodes « El
Niño » a été cherché, sans succès, dans des causes
climatiques (courants marins, changements de pression ou de
température de surface, mouvements atmosphériques et
autres…). Cela signifie que son origine n’est pas à la surface
de la Terre ni à base climatique. C’est donc bel et bien de la
tectonique des plaques et des mouvements magmatiques,
c’est-à-dire fondamentalement de changements ou de
mouvements démarrant au centre de la Terre, que ce
phénomène, qui cause une augmentation de température en
surface, découle. S’il est plus fort qu’auparavant, c’est que la
chaleur du centre de la Terre l’est également…
Quelle raison y aurait-il que les matériaux radioactifs (noyaux
d’atomes lourds et instables) du centre de la Terre émettent
des radiations et de l’énergie de manière toujours identique et
quelle raison que la chaleur du centre s’évacue vers la surface
de manière constante ? Aucune ! Il est tout à fait possible que
le centre perde plus de chaleur ou qu’il en accumule plus. On
n’a aucune raison physique de croire que la chaleur du noyau
soit à l’équilibre ni que la dynamique du noyau reste sans
cesse égale à elle-même. Il peut y avoir des à-coups, comme
en témoigne El Niño ou des changements lents sur des temps
longs, comme en témoigne l’augmentation des volcans et des
tremblements de terre ou comme en témoigne la hausse de la
température globale.
Mais, direz-vous, cette hausse a déjà trouvé sa raison avec la
hausse des gaz « à effet de serre », gaz carbonique, vapeur
d’eau et méthane en particulier ?
Ce n’est pas aussi simple. On n’a aucune preuve directe que
ce soit la cause et on a plusieurs raisons de penser que ce
n’est pas le cas.
Première raison : l’effet de serre est limité dans ses effets et,
au-delà d’un seuil, l’effet s’inverse !
Deuxième raison : il y a d’autres rétroactions de l’atmosphère
allant en sens inverse, dont l’albédo qui commande le renvoi
des rayons lumineux par la Terre.
Troisième raison : il y a les rétroactions liées au vivant, en
particulier aux micro-organismes marins.
Quatrième raison : la hausse des températures dépasse
largement celle que prédirait l’effet de serre, même au vu des
hausses importantes de gaz carbonique d’origine humaine.
Cinquième raison : la hausse des températures qu’il faut
prendre en compte dépasse largement celle qui est mesurée.
En effet, la température mesurée prend en compte la baisse
de l’énergie émise par le Soleil, puisque la Terre est dans une
période où elle s’éloigne de son dernier réchauffement, suite
au « petit âge glaciaire ».
En somme, au point de vue solaire, nous serions dans une
phase de glaciation qui est tempérée par la hausse des
températures due à autre chose que le Soleil et donc due à
autre chose aussi que l’effet de serre… Comme candidat, il ne
reste plus que l’énergie interne du centre de la Terre qui, elle,
n’est pas nécessairement en train de baisser et qui dépend
des éléments lourds, atomes aux noyaux instables et émettant
de l’énergie nucléaire.
Et au point de vue des fissions nucléaires des noyaux
instables, on peut se poser la question d’où on est
historiquement : est-il possible que ces fissions augmentent
ou que l’énergie s’accumule dans l’intérieur de la Terre,
incapable de s’extraire suffisamment pour maintenir un
équilibre thermique du noyau ?
C’est parfaitement possible ! Même la fusion nucléaire reste
possible et pourrait expliquer le manque de radioactivité à la
surface. Un calcul scientifique a donné le résultat suivant : une
augmentation de température de surface terrestre d’un degré
peut provenir d’une augmentation de température du noyau
de 15 degrés.
Existe-t-il un moyen de savoir si la fonte du noyau central a
augmenté suite à une hausse de température du centre ? Oui,
le noyau solide qui tourne dans le liquide en fusion tournerait
plus vite. Eh bien, cela semble être le cas !!!
On remarquera déjà que le simple fait que le centre de la Terre
ne se soit toujours pas refroidi malgré la remontée de chaleur
par le manteau pose déjà question sur la durabilité du
phénomène et laisse entendre que l’énergie du noyau a été
sous-estimée jusque-là…
Conclusion : il se pourrait donc que le centre de la Terre
soit donc plus chaud que l’on pensait avant…

Différence entre la croyance et la science concernant le CO2 :


La Science est en effet une façon de poser des questions et
non pas un système de croyances !
Croire que le CO2 contrôle le climat c’est à peu près comme :
« Croire à la Magie »
Dans notre formation d’anthropologie nous avons eu l’honneur
de recevoir comme séminariste le célèbre professeur Richard
Lindzen qui est Professeur des Sciences de l’atmosphère,
titulaire de la chaire Alfred P. Sloan, Emérite, au
Massachusetts Institute of Technology.
Voici la traduction en Français du point de vue scientifique du
Dr.Lindzen concernant le réchauffement du climat :
Quand je parle à un auditoire de non-experts et essaie de leur
expliquer des choses comme la sensibilité climatique, le lien
entre l’anomalie de la température moyenne mondiale et les
« événements météorologiques extrêmes », ou encore que le
réchauffement a, sur ces 18 dernières années, été presque
négligeable ou très faible, etc., je puis sentir dans l’auditoire
un réel manque d’intérêt et de compréhension.
Je vois de l’incompréhension et de la perplexité, quelles que
soient les preuves que je présente comme quoi il ne s’agit pas
d’une catastrophe, mais d’un phénomène qui peut être plutôt
bénéfique.
On me demande comment c’est possible, puisque 97% des
scientifiques sont d’accord, puisque les 18 dernières années
ont été parmi les plus chaudes depuis 1880, puisque toutes
sortes d’événements météorologiques extrêmes sont
devenus plus fréquents, puisque les ours blancs sont en voie
de disparition, tout comme la banquise arctique, etc. Pour faire
bref : il y a quantité de preuves d’un réchauffement.
J’étais moi-même plutôt surpris qu’on pût admettre ces
affirmations sans fondement réel et parfois même tout à fait
malhonnêtes ; malheureusement, cela n’était, à vrai dire, pas
évident pour mes auditeurs.
Je vais, dans cet article, essayer d’expliquer pourquoi ces
affirmations sont en fait des preuves de la malhonnêteté des
positions alarmistes.
Le mantra des 97% de scientifiques
Le mantra ou « mème » ou poncif des « 97% »1 vient en réalité
d’un titre de couverture d’un numéro de Newsweek de 1988
selon lequel « tous les scientifiques sont d’accord ». *

* Voir le détail ou explication du paradigme du « mème » et la Mémétique dans mon


livre « La Version Démoncratique Volume III ». Disponible en trois langues : Anglais,
Français, Néerlandais.
Cette assertion vise à donner au non-expert l’impression qu’il
n’a nul besoin de comprendre la science. Exprimer son accord
avec les 97% montrera que l’on est un « partisan de la
science » et que l’on est supérieur à tous ceux qui « nient le
désastre ».
Voilà qui suffit aux besoins psychologiques de bien des gens.
Cette assertion a été formulée par nombre d’individus et peut
être présentée de diverses manières. Une démystification en
a été donnée en détail par Bast et Spencer dans le Wall
Street Journal2.
Un des tours de passe-passe est de poser les trois questions
:
 « la teneur en CO2 de l’air de l’atmosphère a-t-
elle augmenté ? »,
 « la Terre s’est-elle réchauffée (même un tout
petit peu) ? »
 et « l’homme y est-il pour quelque chose ? »
Nous pouvons presque tous être d’accord avec ces
affirmations, dont aucune n’implique quelque danger évident.
Et pourtant, cet accord est prétendu valoir adhésion au
catastrophisme !
Un autre tour de passe-passe est l’examen d’un grand nombre
de résumés d’articles dont, en réalité, un petit nombre
seulement signalent de réels dangers. Et si 97% de ce petit
nombre adhèrent au catastrophisme, ce « 97% » est supposé
se rapporter au grand nombre de résumés !
Un de mes exemples favoris est l’affirmation récente par
le Christian Science Monitor (qui fut jadis un journal influent et
respecté)3 :
Notons que des 70 000 articles sur le réchauffement
climatique publiés en 2013 et 2014 dans des revues à comité
de lecture, quatre auteurs seulement ont réfuté l’idée que les
humains sont les principaux moteurs du changement
climatique.
Il n’est, je crois, nul besoin d’être un expert pour voir que cette
affirmation est une bien étrange rêverie, de façon évidente et
pour bien des raisons.
Même le groupe intergouvernemental des Nations Unies sur
le changement climatique (ce groupe en général appelé
IPCC/GIEC a été créé par les Nations Unies pour évaluer de
façon « scientifique » le changement climatique dû à l’action
de l’homme) n’est pas d’accord avec ce poncif.
Malgré tout, je suis un peu surpris qu’il y ait eu besoin des
entourloupes que je viens de rapporter.
Depuis que la question du « réchauffement climatique » a, il y
a trente ans environ, été mise sur la place publique – et a
immédiatement été intégrée au catéchisme du « politiquement
correct » –, le financement gouvernemental de ce domaine a
crû énormément ; ce financement a été fondé sur la croyance
a priori en des effets catastrophiques.
Aujourd’hui presque tous ceux qui travaillent dans ce domaine
y sont entrés pour profiter de ces financements, et les
gouvernements ont un monopole du financement de ce
domaine.
On peut donc s’attendre à ce que tous ceux qui reçoivent ces
financements se sentent obligés d’affirmer l’importance et la
réalité du problème. Il est certain que s’y opposer serait
suicidaire pour la carrière d’un jeune universitaire.
Et donc les études sur les « 97% » ont seulement à « bien »
formuler les questions posées pour s’assurer de niveaux
élevés de consentement à l’alarmisme ; niveaux qui, si
l’anonymat était garanti aux sondés, ne seraient peut-être pas
aussi élevés qu’on le prétend.
Le mantra des « années les plus chaudes depuis que l’on
fait des mesures »
Comme dans toute manœuvre de diabolisation, on commence
par la supposition ridicule que tout réchauffement, quel qu’il
soit, et ici toute augmentation de la teneur de l’air en CO 2, est
mauvais et démontre que le pire va arriver bientôt. Nous
savons pourtant que ces deux énoncés sont faux.
Les gens prennent leur retraite dans la Sun Belt 4 plutôt qu’en
Arctique.
Du CO2 est insufflé dans les serres pour que les plantes
croissent mieux et plus vite.
L’insistance sur « l’année la plus chaude depuis que l’on fait
des mesures » semble essayer de répondre au fait que
l’épisode de réchauffement observé entre 1978 et 1998 a
visiblement cessé et que les températures sont quasi-
constantes depuis 19985. Et donc si 1998 a été l’année « la
plus chaude » toutes les années qui suivent le seront aussi.
Rien de cela ne contredit le fait que le « réchauffement » a
cessé.
Pourtant beaucoup ont été amenés à croire que les deux
affirmations ne peuvent être simultanément vraies.
Voilà qui suppose que le public est extrêmement crédule.
L’importance potentielle de la « pause » – et il est bien
possible que ce ne soit pas une « pause » et que les
températures se mettent à diminuer6 – n’est jamais
mentionnée et n’est que rarement comprise.
Son existence signifie simplement qu’il y a « quelque chose »
qui est comparable au « forçage anthropique ».
Or l’attribution, par l’IPCC/GIEC de l’épisode de
réchauffement de 1978 à 1998 (et de celui-là seulement7) à
une cause humaine repose sur l’hypothèse – incorporée dans
les modèles – qu’il n’existe pas de processus naturel
comparable au « forçage anthropique ».
La focalisation sur les seules séries de températures mérite
que l’on s’y arrête. Quelle est donc cette température que
nous examinons ? Ce ne peut certainement pas être la
température moyenne de surface : faire la moyenne des
températures d’endroits aussi différents que la Death
Valley8 et le mont Everest9 n’a pas plus de sens que faire la
moyenne des numéros de téléphone d’un annuaire
téléphonique, pour ceux qui se rappellent encore ces
annuaires.
Ce que l’on calcule est la moyenne de ce que l’on nomme des
« anomalies ».
On prend des moyennes sur trente ans des températures
d’une station météorologique donnée et on calcule les écarts
à cette moyenne sur trente ans, appelés « anomalies ». Et ce
sont ces « anomalies » qui sont moyennées sur tout le globe.
Le seul exemple que je connaisse de travail illustrant les
étapes de ce processus a été publié par feu Stan Grotch
du Lawrence Livermore Laboratory.
Le plus grand nombre des scientifiques conclurait qu’il y a là
entre les stations une forte compensation des anomalies et
que le résultat est une compensation presque complète.
Pourtant, pour éviter cette conclusion, on dilate l’échelle des
températures par un facteur de presque dix pour rendre – en
apparence – plus significatifs les changements minuscules
vus sur la figure 1-b.
Le résultat est montré à la figure 1-c. Il y a beaucoup de bruit
aléatoire sur cette figure 1-c et ce bruit donne une bonne idée
des incertitudes de cette analyse (en gros +/- 0,2°C). Les
présentations habituelles montrent des figures beaucoup plus
lisses. Parfois, ce lissage découle de l’application d’une
moyenne mobile. C’est aussi le cas des données employées
par Grotch en provenance du UK Meteorological Office,
données relatives aux stations à terre.
L’inclusion des données relatives aux océans conduit à des
séries plus lisses mais l’exactitude des données en est plus
mauvaise parce que les données océaniques mélangent des
techniques de mesure tout à fait différentes : pour les navires
anciens, mesure de la température de l’eau dans un seau jeté
à la mer et ramené à bord, après la première guerre mondiale,
mesures aux prises d’eau de mer servant au refroidissement
des moteurs, puis mesures satellitaires de la température de
peau de l’eau de mer – fort différente de la température de
surface –, et enfin, températures mesurées par des bouée
Notons encore que l’incertitude et la petitesse des
changements laissent une grande latitude pour faire des
ajustements et des corrections qui peuvent modifier
radicalement l’allure du graphe de la série ; l’incertitude n’est
que rarement reportée sur ces graphiques. Ces difficultés sont
résumées sur la figure 2 qui présente l’allure schématique,
idéalisée, des observations de température et de leurs
incertitudes.
Nous voyons bien qu’à cause de l’arrêt de la croissance des
températures en 1998, les 18 années les plus chaudes de la
série des températures ont, sur ce schéma, été les 18
dernières années.
Ici, on sera probablement confronté à des discussions sur les
détails des mesures de température, qui ne feront que
brouiller plus encore les cartes – ou « rendre l’eau plus
boueuse » – si je puis dire.
Mais rien ne peut changer le fait que les changements de
température dont on parle sont petits. Cette « petitesse » est
bien sûr relative. Voyons trois façons de l’évaluer, trois
approches.
Approche 1
La figure 3 montre les variations de température à Boston sur
une durée d’un mois (du 9 février au 11 mars).
Les bandes verticales en bleu foncé montrent pour chaque
jour la plage des températures observées ; les barres en gris
foncé donnent pour ce jour-là les moyennes
« climatologiques » des températures min et max de la
journée, et les barres en gris clair les records de froid et de
chaud pour cette même journée. Au milieu court une ligne
rouge dont la largeur correspond à la plage de variation des
températures moyennes globales sur les derniers 175 ans.
Voila qui suffit à montrer que les changements de température
dont on parle sont petits en comparaison des changements
que nous ressentons couramment. Conservons ça en tête
pour le cas où on vient nous dire que l’on « ressent »
physiquement le « réchauffement global ».
Approche 2
La mesure qui suit est une comparaison entre le changement
observé et celui que l’on nous dit attendre du « réchauffement
par effet de serre ». Le CO2 n’est pas le seul gaz à effet de
serre produit par l’homme. En prenant en compte tous ces
« gaz à effet-de-serre », le GIEC/IPCC des Nations Unies
trouve que nous en sommes juste au « forçage radiatif »
attendu pour un doublement des teneurs de l’atmosphère en
CO2 ; mais l’augmentation observée des températures n’a été
que d’environ 0,8°.
Si donc les émissions du fait de l’homme étaient responsables
de tout le changement de température des derniers 60 ans, la
« sensibilité climatique » serait bien moindre que celle
supposée par ceux des « modèles » dont la « sensibilité » est
la plus faible ; cette « sensibilité climatique » est définie
comme l’accroissement de la « température mondiale
moyenne » découlant d’un doublement de la teneur de l’air en
CO2 ; elle est dite être entre +1,5°C et +4,5°C10.
Avec une sensibilité faible, pas de problème ! Et comme
l’IPCC/GIEC nous assure que l’homme n’est responsable que
du « gros » du réchauffement observé, la sensibilité pourrait
être plus faible encore.
La situation n’est peut-être pas si simple, mais le calcul montre
que pour des modèles ayant une forte sensibilité on en est
réduit à compenser une partie – et parfois une très grosse
partie – du « forçage radiatif » par ce que l’on prétend être un
refroidissement par des aérosols inconnus, réglés pour que le
modèle ne s’écarte pas trop des observations des décennies
passées.Un article récent dans le Bulletin de l’American
Meteorological Society, intitulé The Art and Science of Climate
Model Tuning (L’art et la science du réglage des modèles
climatiques)11 montre qu’il y a en réalité un très grand nombre
de réglages arbitraires pratiqués sur les modèles pour qu’ils
ne s’écartent pas trop des observations passées.
Et mieux l’on connaît le forçage par les aérosols, plus des
sensibilités climatiques fortes deviennent invraisemblables.
Voilà qui est bien en accord avec le fait que les modèles qui
nous prédisent un « réchauffement climatique dangereux »
montrent tous un réchauffement bien plus fort après la période
de calibration12. C’est-à-dire que le réchauffement observé est
petit par rapport à ce que nous prédisent ces modèles à
l’origine de nos angoisses.
C’est ce que montre la figure 4.
Comme je l’ai déjà dit, les incertitudes sur les observations
permettent de leur appliquer des « ajustements » importants.
Un cas tristement célèbre est celui des « ajustements » faits
par la NOAA13 publiés dans un article de Karl et al.
pour remplacer la « pause » par la poursuite d’un
réchauffement.
Mais il a été facile de montrer que, même avec cet
« ajustement », les modèles montrent toujours bien plus de
réchauffement que les séries des observations, même
« ajustées ».
De plus, la plupart des articles parus sur ce sujet réfutent
l’ajustement fait par Karl et al. qui, par hasard sans doute, a
été publié avec force publicité juste avant la conférence de
Paris sur le climat (fin 2015).
Approche 3
La troisième approche est quelque peu différente. Au lieu
d’argumenter que le changement n’est pas si petit que ça, on
dit que le changement est « sans précédent ».
C’est ce que voulait montrer la tristement célèbre « crosse de
hockey »14 de Michael Mann. Ce dernier a employé des
cernes de croissance de troncs d’arbres de l’espèce de pins
Bristlecone15 qui permettent des estimations de la
température dans l’hémisphère nord remontant sur des
siècles. Il a calibré les données des cernes de croissance avec
les observations des stations météorologiques de surface sur
une période de trente ans et employé cette calibration pour
réévaluer les températures d’un passé distant de façon à faire
disparaître la période médiévale chaude (ou « optimum
climatique médiéval »). Cette reconstruction montrait des
températures « plates » sur le dernier millénaire. Les tests
habituels pour cette procédure sont de vérifier si les
observations postérieures à la période de calibration sont
correctement retrouvées… mais il n’était pas possible de
retrouver le réchauffement montré par les stations météo de
surface. La solution apportée à cette difficulté a été
absolument simple et stupide : la série d’observations tirée
des cernes d’arbres a été coupée à la fin de la période de
calibration et a été remplacée par les observations des
stations météo de surface. Dans les mails du Climategate
(Climategate est le nom donné à la publication d’un très grand
nombre de courriers électroniques envoyés par divers
scientifiques « climato-alarmistes » discutant entre eux sur la
meilleure façon de supprimer les opinions différentes des
leurs, de faire disparaître les observations qui les gênent,
d’intimider les éditeurs de revues scientifiques, de manipuler
les données d’observation, etc.), cette opération est appelée
Mann’s trick ou tour de passe-passe de Michael Mann.
Toute la discussion qui précède visait à souligner que ce qui
compte n’est pas le réchauffement lui-même mais son
ampleur. Il faut absolument éviter la tendance habituelle des
« environnementalistes » à prétendre que tout ce qui pourrait
être mauvais en grande quantité ou à grande échelle doit être
à tout prix évité si faible que soit le phénomène réel.
En réalité, un peu de réchauffement serait fort bénéfique et
pour bien des raisons.
Si vous avez assimilé ce qui précède vous serez capable
d’analyser les annonces faites dans les médias et de
constater que, malgré des excès rhétoriques, l’auteur de
l’annonce ne dit pratiquement rien, et même souvent présente
faussement ce qu’affirme l’IPCC/GIEC.
Le mantra des événements météorologiques extrêmes
Tout prévisionniste météo de base sait que des événements
extrêmes se produisent quelque part sur le globe
pratiquement tous les jours. La tendance actuelle à attribuer
au changement climatique ces événements qui se produisent
tout normalement est évidemment très malhonnête.
Roger Pielke Jr. a écrit un livre16 détaillant cette observation
qu’il n’y a, pour chaque type d’événement extrême (dont les
tornades, les ouragans, les sécheresses, les inondations,
etc.), aucune tendance à l’augmentation du nombre
d’occurrences et même, en fait, pour certains types
d’événements une moindre fréquence.
Même l’IPCC/GIEC des Nations Unies a reconnu qu’il n’y avait
aucune raison d’attribuer ces événements au « changement
climatique anthropique ».17
 Les températures extrêmes
Le mantra des températures extrêmes contredit en fait les
observations et les fondements de la météorologie.
Des températures extrêmes se produisent en un lieu quand le
mouvement de l’air y transporte de l’air venant des zones de
la carte les plus froides ou les plus chaudes. Dans un « climat
plus chaud » on doit s’attendre à une moindre différence de
température entre les tropiques et les hautes latitudes. Ce qui
réduit nécessairement la dynamique entre les températures
extrêmes.
De plus, et c’est important, les mouvements qui transportent
ces masses d’air viennent d’un processus appelé instabilité
barocline, qui elle-même découle de la différence des
températures entre tropiques et hautes latitudes.
Et donc, dans un monde plus chaud, ces vents seront plus
faibles et moins susceptibles de transporter sur de longues
distances des masses d’air à des températures extrêmes.
Les affirmations sur la venue de températures extrêmes plus
fortes ignorent simplement la physique de base et ne sont
acceptées ou admises que parce que l’auditoire est ignare.
Ces affirmations sur les événements météorologiques
extrêmes transcendent l’utilisation habituelle d’affirmations
trompeuses. Elles correspondent très souvent à l’opposé
exact de ce qui se passe en réalité.
L’objectif est d’être aussi terrifiant que possible, et tant pis s’il
faut affirmer l’exact opposé de la réalité !
 La montée du niveau des mers
En moyenne globale, le niveau des mers a, depuis un
millénaire, monté d’environ 15 cm par siècle. Avant les
satellites la mesure se faisait avec des marégraphes qui
enregistrent le niveau de l’eau par rapport au niveau du sol.
Malheureusement le niveau du sol change aussi, et comme le
notent Emery et Aubrey dans leur livre18, c’est la tectonique
qui, en bien des endroits, est la principale cause de
changement du niveau relatif de l’eau et de la terre.
En 1979 on a commencé à employer des satellites pour
mesurer le niveau réel des mers. Les résultats ont été fort
proches des estimations tirées des marégraphes, légèrement
plus forts, mais Wunsch et al.19montrent que personne ne
peut dire que les petites différences dues au changement de
méthode de mesure représenteraient une accélération de la
montée du niveau des mers 20.
Quoi qu’il en soit, les changements sont fort petits en
comparaison des affirmations qui veulent suggérer un
changement climatique catastrophique.
Pourtant, au début des années 1980 déjà, des alarmistes tels
que St. Schneider ont compris que le niveau des mers serait
un moyen tactique commode, facilement compris, pour
susciter de la peur. Que des personnes comme Al Gore et
Susan Solomon (naguère chef du WG1 Scientific Assessment
(évaluation scientifique) du GIEC/IPCC) aient lourdement
investi dans des propriétés en bord de mer montre bien que le
sujet est un thème de propagande et non pas une question
scientifique.
 La banquise arctique
Des satellites observent la banquise arctique (et l’antarctique
aussi) depuis 1979. Chaque année voit un cycle annuel très
prononcé : la couverture, quasi-totale en hiver est en été
fortement réduite. Depuis 1979, il y a eu une tendance
significative à la diminution de la banquise d’été (et l’inverse
en Antarctique), mais ces dernières années, la couverture en
fin d’été s’est apparemment stabilisée.
Pour discuter de changements climatiques, une durée de 40
ans est bien sûr plutôt courte. Cependant on a vu des
tentatives – inévitables – d’extrapolation de tendances
observées sur des périodes courtes à l’appui d’affirmations
que l’Arctique devrait être déjà libre de glaces. Évidemment,
extrapoler des tendances observées à court terme n’est pas
approprié.
Extrapoler les variations des températures de l’air proche de
la surface observées entre l’aube et le crépuscule amènerait,
en peu de jours, à un climat bouillant.
Extrapoler la surface estivale de la banquise arctique pourrait
bien être tout aussi stupide.
De plus, quoique la couverture satellitaire soit
incomparablement meilleure que ce que l’on avait avant, les
données sont loin d’être parfaites. Les satellites peuvent
confondre de la glace couverte d’eau de fonte avec une mer
libre de glace. De plus, la température n’est pas la cause
principale de la diminution de la banquise estivale. Cette
banquise d’été est plutôt fragile et des changements de vents
jouent un rôle important en expulsant la glace flottante des
mers arctiques.
L’association entre changement de la banquise d’été et
changement climatique est en soi douteuse. Les « modèles
climatiques numériques » ne prédisent pas de façon claire ce
qui est observé. On ne saurait donc dire que le comportement
observé de la banquise confirme une quelconque de ces
prédictions.21
Des pressentiments sur la disparition de la banquise arctique
ont été publiés en 192222 ce qui suggère que les phénomènes
observés ne sont pas nouveaux. Les observations venaient
alors du voisinage du Spitzberg. Un biologiste marin qui est
aussi un activiste militant « pour le climat » a suggéré que ce
n’était qu’un phénomène local, mais les éléments qu’il avance
ne permettent pas de conclure. Entre autres, cet auteur a très
soigneusement « trié » ce qu’il appelle des preuves.
Tout ce que l’on peut dire, à ce point, est que le comportement
de la banquise arctique est l’un de ces nombreux
phénomènes que nous offre la Terre, et pour lesquels nous
n’avons ni une compréhension physique, ni de longues séries
d’observations.
De plus l’ouverture du passage du nord-ouest (au nord du
Canada) a longtemps fait rêver. Il est bizarre qu’on la
considère maintenant comme terrifiante.
Bien sûr comme l’a noté Mencken23 : « Tout l’objectif de la
pratique politique est de faire en sorte que la populace ait, en
permanence, quelque chose à redouter et donc qu’elle
réclame bruyamment qu’on assure sa sécurité. On lui fait
croire à toutes sortes de menaces et de maléfices, la plupart
imaginaires. »
Le mouvement environnementaliste a fait sienne cette
tactique, bien au-delà de ce que Mencken observait.
Le mantra des ours polaires
J’ai tout lieu de penser qu’Al Gore a fait faire beaucoup
d’études de type focus group24 pour découvrir l’efficacité
remarquable de l’idée que le changement climatique va mettre
en danger les ours polaires. L’usage qu’il a fait de l’image
pathétique – à l’évidence fabriquée par Photoshop – d’un ours
blanc sur un morceau de glace flottant25 le suggère très
fortement. Comme le souligne Susan Crockford26, spécialiste
de l’évolution des ours polaires, la population des ours blancs
a, dans le passé, diminué à cause de la chasse et de
l’exploitation commerciale de leur fourrure. Des mesures de
protection ont eu un plein succès et amené une augmentation
des populations telle que la chasse a de nouveau été
autorisée.
Il n’y a aucune indication, aucune preuve, que les
changements de la banquise arctique estivale aient eu un
quelconque effet négatif sur les populations d’ours polaires :
ces ours peuvent nager plus de deux cents kilomètres ; on ne
voit pas pourquoi moins de glace les gênerait.
Mais, pour la petite communauté d’experts des ours polaires,
les inquiétudes propagées sur le « climat » ont eu un intérêt
évident.
Le mantra de l’acidification des océans
On a là encore une de ces affirmations pas claires qui
semblent effrayantes mais ne résistent pas à l’examen.
Depuis la terreur fabriquée des « pluies acides » on a compris
que le public est facilement manipulé et terrorisé par toute
annonce avec le mot « acide ».
En réalité l’océan est basique et non pas acide (car son pH
est toujours nettement supérieur à 7), et il est absolument
impossible que des teneurs croissantes de l’air en CO2
réduisent à 7 (la neutralité) le pH de l’océan (rappel : le pH
chiffre le caractère acide ou basique : un pH supérieur à 7 est
basique, un pH inférieur à 7 est acide). Les changements
imaginés renvoient à des pH océaniques – très – légèrement
moins basiques.
Une description correcte des phénomènes ne susciterait nulle
frayeur. Comme toujours, il y a tant d’erreurs et de faussetés
dans cette affirmation d’une acidification des océans que les
analyser demanderait un article assez long. Je recommande
la source suivante : Patrick Moore Ocean « acidification »
alarmism in perspective (Nov. 2015, 28 pages).
Le mantra de la disparition des récifs coralliens
La prétendue mort des récifs de coraux est en partie liée aux
fables sur « l’acidification » exposées ci-dessus, et comme on
peut le voir, la relation causale est presque exactement
l’inverse de ce que l’on nous raconte.
Il y a aussi l’histoire selon laquelle le réchauffement lui-même
causerait le blanchiment des coraux.
On verra une présentation alarmiste typique dans :
http://www.nature.com/nature/journal/v543/n7645/full/nature2
1707.html.
L’accès en est payant mais la plupart des bibliothèques
universitaires ont un accès à Nature.
Une réponse argumentée à ce papier est :
http://landscapesandcycles.net/falling-sea-level–bleached-
great-barrier-reef.html
Jim Steele, l’auteur de cet article, explique que le blanchiment
a des causes autres que le seul réchauffement et n’est pas du
tout l’annonce de la mort des coraux qui ont les moyens de
récupérer. Cet autre article est un peu polémique mais, sur le
fond, est correct.
Le réchauffement climatique, cause de tout et de
n’importe quoi
Comme on vient de le voir, il y a une tendance à rendre le
réchauffement climatique responsable de tout ce qui est
déplaisant. Ça n’a pas empêché l’Environment Protection
Agency américaine d’employer ce genre d’argument pour
affirmer que sa politique de « lutte contre le changement
climatique » aura des effets sanitaires bénéfiques.
Devant tant d’affirmations je crains le « à quoi bon ? ».
Personne n’a assez de temps et d’énergie pour réfuter ce très
grand nombre d’affirmations.
Heureusement beaucoup sont de toutes évidences absurdes.
La revue Nation a publié récemment ce que l’on a sans doute
écrit de mieux dans le genre :
Juan Cole (18 avril 2017) : cet autre gaz toxique qui tue des
Syriens : les émissions de dioxyde de carbone.
Si Trump et ses sbires s’intéressaient vraiment aux enfants
tués par des gaz toxiques, ils n’essaieraient pas de rejeter plus
encore de CO2 dans l’atmosphère.
Le CO2, notons le d’abord, n’est pas du tout toxique. Au
contraire, le CO2 est essentiel à la vie sur notre planète et des
teneurs aussi élevées que 5000 ppm sont, dans nos sous-
marins, considérées comme sans danger.
L’article de Nation est typique en ce qu’il énonce en peu de
lignes beaucoup d’affirmations très étranges. Il argumente
qu’« un emballement de l’effet de serre » amène sur Vénus
des températures de surface supérieures à la température de
fusion du plomb27. Pourtant personne n’affirme que la Terre
puisse être sujette à un tel « emballement ».
La planète Mars dont l’atmosphère a trente fois plus de
CO2 que la Terre est plus éloignée du Soleil et a une surface
fort froide.
Mais comme nous venons de le voir, bien souvent, la réalité
est sans importance pour ceux qui font de terroriser le public
leur activité principale.
Remarques pour conclure
Une accumulation d’affirmations fausses et/ou trompeuses est
souvent appelée « preuve irréfutable » de la catastrophe qui
va arriver.
Sans ça, on pourrait légitimement se demander s’il y a même
seulement une preuve.
Quoi qu’il en soit, le changement climatique sert de
justification à de nombreuses politiques publiques qui presque
toutes semblent avoir fait beaucoup plus de mal que le
supposé changement climatique, voir :
(http://www.thegwpf.com/every-climate-initiative-imposed-
on-us-by-politicians-has-ended-in-disaster/)
et vont évidemment faire encore bien plus de mal.
Le mieux que l’on puisse dire de ces efforts est qu’il est
reconnu par tous que, malgré leur coût immense, ils n’ont que
fort peu d’effet sur les teneurs de l’air en CO2 et sur les
températures. Voilà plutôt une bonne nouvelle, car il y a bien
des preuves que ces changements des teneurs de l’air en
CO2 et des températures ont des effets bénéfiques, tandis
que l’énorme gaspillage d’argent n’est pas du tout bénéfique.
Je n’ai pas passé beaucoup de temps sur les détails
scientifiques, mais voici un point qui devrait exciter l’esprit
critique de tout lecteur intelligent : le système que nous
considérons est constitué de deux fluides turbulents en
interaction, l’air et l’eau ; ils couvrent une planète en rotation
qui reçoit du soleil une quantité de chaleur variable selon la
latitude. Le constituant vital de l’atmosphère est l’eau sous ses
phases liquide, solide et vapeur et les changements de phase
ont d’énormes conséquences.
Le bilan énergétique de ce système implique l’absorption et la
réémission d’environ 200 Watt par mètre carré. Un
doublement de la teneur en CO2 modifierait ce budget de 2%
environ.
Mais des modifications très mineures de la couverture
nuageuse et d’autres caractéristiques encore ont le même
effet, et ces modifications se produisent tous les jours.
Dans ce système complexe avec un grand nombre de
facteurs, quelle vraisemblance y a-t-il que le climat (qui lui-
même découle d’un grand nombre de variables et non pas
seulement d’une anomalie des températures calculée en
moyenne globale) soit piloté par la perturbation de 2% d’une
seule variable ?
Le croire serait quasiment croire en la magie. Mais on vous dit
que c’est croire en la « Science ».
Cette affirmation devrait vous prévenir qu’il y a là quelque
chose qui ne va pas.
La Science est en effet une façon de poser des questions et
non pas un système de croyances !
Richard Lindzen est Professeur des Sciences de
l’atmosphère, titulaire de la chaire Alfred P. Sloan, Emérite, au
Massachusetts Institute of Technology.

Et puis il y a encore :
https://www.contrepoints.org/2017/06/05/291288-istvan-
marko-directeur-scientifique-de-climat-15-verites-derangent

https://www.contrepoints.org/2013/05/18/124744-sortie-de-
climat-15-verites-qui-derangent-malaise-pour-lestablishment

Ou en plus quelques références et bibliographie :

Sur le web
1. R. Lindzen emploie le mot « mème » qui désigne
un élément culturel reconnaissable, répliqué et
transmis par l’imitation du comportement d’un
individu par d’autres individus
(Source: http://www.linguee.fr/francais-anglais).
https://fr.wikipedia.org/wiki/M%C3%A8me. NdT

2. Commentaire publié le 26 mai 2014.


https://www.wsj.com/articles/joseph-bast-and-
roy-spencer-the-myth-of-the-climate-change-97-
1401145980?tesla=y.
Voir aussi :
http://www.drroyspencer.com/2014/05/ill-see-
your-97-percent-and-raise-you-3-percent/
https://wattsupwiththat.com/2014/05/30/the-
myth-of-the-97-climate-change-consensus/
https://www.cfact.org/2014/05/30/the-myth-of-

the-97-climate-change-consensus/
3. http://www.csmonitor.com/Science/2017/0330/H
ow-climate-skeptics-are-trying-to-influence-200-
000-science-teachers?cmpid=TW
« For the record, of the nearly 70,000 peer-reviewed articles
on global warming published in 2013 and 2014, four authors
rejected the idea that humans are the main drivers of climate
change. The atmospheric carbon concentration is 44 percent
higher than it was in pre-industrial times (and rising), and 2016
was the planet’s hottest year ever, breaking the previous

record holders 2015 and 2014. »


4. La « Sun Belt » (en français la « Ceinture du
Soleil ») qui se compose des États du Sud et de
l’Ouest des États-Unis présentant un dynamisme
économique, un cadre de vie et une zone

ensoleillée agréable (wikipedia).


5. Pour la série des mesures satellitaires de la basse
troposphère en moyenne globale dite RSS/MSU
et publiée par REMS la meilleure approximation
linéaire de janvier 1999 à décembre 2015 est
0,23°C -0,00046 (t-1999) soit moins 0,046°C par
siècle équivalent à une totale absence de
réchauffement (aussi appelé « pause » ou
hiatus » du réchauffement) ; sur janvier 1999 à
décembre 1997 cette meilleure approximation
linéaire est -0,03°C + 0,0082 (t-1979) soit
+0,82°C par siècle. Les années 1998 et 2016 sont
celles de deux grands El Niño avec certains mois
à plus de 0,7°C par rapport aux mêmes mois des

années antérieures (NdT).


6. Après le grand El Niño de 2016, les températures
« mondiales moyennes » sont en février 2017
revenues – ou presque – à leur valeur moyenne
sur 1999-2015. Ci-dessous le tracé de deux
séries des anomalies des températures
« mondiales » moyennes RSS-MSU de la basse
troposphère et HadCRUT de la surface. Elles
n’ont pas la même référence et sont décalées
entre elles de quelques dixièmes de degré :
moyennes sur 1999-2015 de 0,26°C pour la
première et de 0,49°C pour la seconde (NdT).

7. Les réchauffements très comparables observés


de 1860 à 1878 et de 1920 à 1941 ne sauraient
être attribués aux « émissions anthropiques »
venant de combustibles fossiles car ces
émissions étaient alors extrêmement faibles (de
100 à 200 M t-C/an vers 1870, 1000 M t-C/an
vers 1940) comparées à celles de 1978-1998
(6000 M t-C/an), elles-mêmes de l’ordre de 3%
des dégazages annuels naturels de CO2 par les
océans (en zone intertropicale) et par les sols (de

l’ordre de 160 000 M t-C/an). NdT


8. Vallée de la mort en Californie, vers 36°N, avec
des moyennes des températures maximales sur

24 heures atteignant 46°C en juillet (NdT).


9. Températures moyennes au sommet (8848
m) de l’ordre de -35°C en hiver et -17°C en juillet

(NdT).
10. Cette plage dont les bornes sont dans un rapport
un à trois a été décrétée en 1979 par une
commission présidée par le météorologiste
américain Jules Charney ; les dizaines de
milliards de dollars dépensés depuis par les
divers États pour le financement de la
« recherche climatique » n’ont pas permis de
mieux préciser cette fourchette qui figure encore
et toujours dans le dernier rapport du GIEC (AR5,
2013).
Ce concept fait l’hypothèse que la modulation de la teneur en
vapeur d’eau des hautes couches de la troposphère (celles
d’où la vapeur d’eau rayonne effectivement vers le cosmos et
assure) n’efface pas en quelques heures ou jours les effets
des variations sur la même période des teneurs de l’air en

CO2.
11. http://journals.ametsoc.org/doi/pdf/10.1175/BAM

S-D-15-00135.1
12. La période de calibration est par exemple de 140
ans (1850-1990) et les multiples paramètres
ajustables sont ajustés pour que l’anomalie de la
température moyenne global ne s’écarte pas trop
des observations ; la période de prédiction ira

alors de 1991 à, par exemple, 2100.


13. La NOAA National Oceanic and Atmospheric
Administration est une agence du département
(ministère) du commerce des USA, chargée entre
autres de la météorologie. Une enquête a été
lancée par une commission du Sénat des États-
Unis.
https://science.house.gov/news/press-
releases/former-noaa-scientist-confirms-
colleagues-manipulated-climate-records
http://www.dailymail.co.uk/sciencetech/article-
4192182/World-leaders-duped-manipulated-
global-warming-data.html
http://www.nationalreview.com/article/444942/joh
n-bates-whistleblower-climate-scientist-smeared-
global-warming-advocates
La revue Science a publié un article d’un
journaliste visant à minimiser l’ampleur de la
fraude
: http://www.sciencemag.org/news/2017/02/how-
culture-clash-noaa-led-flap-over-high-profile-
warming-pause-study
Notons que les données et même les
programmes de calcul employés par Karl et al. ont
« bizarrement » disparu à cause « d’une panne
d’ordinateur », ce en violation de toutes les
procédures d’archivage des données et des
programmes réglementées dans des institutions
qui archivent de très gros volumes de données.
Ces procédures sont en partie décrites
dans https://judithcurry.com/2017/02/04/climate-

scientists-versus-climate-data/.
14. En anglais « hockey stick » ; le lecteur curieux
trouvera une documentation complète sur le
site https://climateaudit.org/multiproxy-pdfs/ tenu
par le découvreur de cette fraude, ingénieur des
mines et canadien, ce qui explique la référence

au hockey sur glace (NdT).


15. Aussi appelé Pinus aristata longaeva, il pousse
entre 2100 m et 3700 m dans les montagnes de
l’ouest des USA et a une longévité exceptionnelle,

de 4000 ans à 5000 ans.


16. Roger Pielke Jr. The Rightful Place of Science:
Disasters and Climate Change Paperback, 124

pages – November 1, 2014.


17. http://www.ipcc.ch/report/srex/ Managing the
Risks of Extreme Events and Disasters to
Advance Climate Change Adaptation, 2012,
Cambridge University Press, 582 pages (31 M

Octets).
18. Emery K. O., Aubrey D. G., Sea Levels, Land
Levels, and Tide Gauges, Springer, 1991, 237

pages.
19. Carl Wunsch, Rui M. Ponte, Patrick Heimbach,
« Decadal Trends in Sea Level Patterns : 1993–
2004 », Journal of Climate, AMS, 15 Dec.
2007, pp. 5889-5911.
Extrait du résumé : « Estimates made here produce a global
mean of about 1.6 mm yr−1, or about 60% of the pure
altimetric estimate, of which about 70% is from the addition of

freshwater. »
20. Les marégraphes équipés de GPS de haute
précision permettent des calculs du mouvement
du sol et du niveau des mers et même de la
variation de la quantité d’eau.
Voir articles du professeur Guy Wöppelmann: http://marine-
climate.uib.es/SLR2015/presentations/Woppelmann.pdf Wö
ppelmann, G. et al., « Rates of sea-level change over the past
century in a geocentric reference frame », Geophysical
Research Letters, 36: 10.1029/2009GL038720.
Autres articles

sur http://www.co2science.org/articles/V12/N40/C1.php
21. Depuis 1980 les modèles prédisent, pour un
doublement de la teneur de l’air en CO2, en
Arctique, +12°C en hiver, mais seulement +2°C
en été. Les observations pour la basse
troposphère polaire (série UAH MSU v6) sont
rapportées aux figures ci-dessous pour décembre
et pour janvier.
Les +12°C en hiver dits par les « modèles » pour
un doublement de la teneur en CO2 donnerait,
sur ces mois d’hiver, sur 1978-2017, selon les
formules usuelles 12°C ln(403 ppm / 335 ppm) /
ln(2) = + 3,2°C … qui ne sont pas du tout observés

sur les figures ci-dessus !


22. https://docs.lib.noaa.gov/rescue/mwr/050/mwr-
050-11-0589a.pdf
You ask, I provide. November 2nd, 1922. Arctic
Ocean Getting Warm; Seals Vanish and

Icebergs Melt.
23. Henry Louis Mencken (1880-1956), journaliste

américain.
24. Dans le monde du marketing, les focus groups,
ou réunions de consommateurs, sont perçus
comme des outils privilégiés afin de procéder à
une analyse concernant les nouveaux produits et
services. Le focus groupe permet aux entreprises
qui le désirent de développer, tester et discuter
des noms, des matériaux de conditionnement,
des emballages, avant de les commercialiser.
Cette démarche permet aussi de recueillir des
informations sur le potentiel du marché et la
réaction du public, pour que le produit ou service

soit largement accepté. (Wikipedia)


25. http://www.istockphoto.com/fr/photo/dernier-

ours-polaire-gm135183496-4095333

26. Son site est https://polarbearscience.com/


27. La température de fusion du plomb est 327°C.
La température de surface de Vénus, 462°C, est une
conséquence de la masse de son atmosphère 100 fois celle
de l’atmosphère de la Terre.
La relation entre température et pression T/Tref = (P/Pref)
R/(Cp+|Ch|) vaut sur Terre T/ (255 K) = (P/(0,53 atm))0,19 et
sur Vénus T/(243 K) = (P/(0,1 atm))0,16 avec en surface une
pression P=1 atmosphère sur Terre contre P= 92 atmosphère
sur Vénus. Les 255 K et 243 K sont les Tref , températures
équivalentes de rayonnement de la couche qui assure le gros
du rayonnement de la planète vers le cosmos et Pref la position
de ces couches, respectivement vers 5 km et vers 60 km. Le
gradient de température, g/(Cp+ |Ch|) entre cette couche et la
surface est de 6,5°C/km sur Terre et de 8,2°C/km sur Vénus,
d’où les températures de surface de 255 + 5 x 6,5 = 287,5 K
(14,4°C) sur Terre et 243 + 60 x 8,2 = 735 K (462°C) sur Vénus.
2015 publié par Victor E. Rosez