Vous êtes sur la page 1sur 95

CLIMAT

PARTIE II – Les Changements Climatiques 25 % (Jean-Louis Tison)

Cours 4 (1er de M. Tison) - 27/02/2020 OK

Table des matières


En rouge partie 1. En jaune partie 2.
D’abord comprendre le climat avant de voir
pourquoi il change.
Puis variations du climat dans le temps :
On est tous d’accord que le climat a tjs changé
dans l’histoire de la Terre mais à des échelles
différentes, avec des causes différentes… on va
voir quelles sont les causes naturelles du climat.
Allons voir comment terre répond à ces
changements.
Dernière partie sur responsabilité de l’homme.

● Le Système Terre (= ebl de la terre) et


Climat

La Terre = un Système composé d’une


série d’enveloppes, souvent qualifiées de
sphères. On a la lithosphère ou
géosphère (= la roche, la croûte terrestre,
le manteau par-dessous) et puis à la
surface de cette lithosphère, on a les
interactions avec les autres sphères :
l’hydrosphère (eau à la surface de la
terre, que ce soit l’eau des océans ou
l’eau douce à la surface des continents),
l’atmosphère (la couche la plus externe et
la + légère, extrêmement active dans le
fonctionnement du Système Terre) et
puis au centre, la biosphère (càd la vie à
la surface de la terre) qui va aussi
interagir avec l’évolution du climat.
Et ce Système terre n’est pas isolé dans
l’espace : nous faisons partie d’un
système planétaire. Le soleil fournit notre
énergie. Cette énergie, c’est la clé de tout ce qui va se produire dans le système terre et la clé de ces évolutions
climatiques au cours des âges. C’est donc un système ouvert du point de vue énergétique (le soleil nous apporte de
l’énergie).

Dans ces enveloppes, on va particulièrement s’intéresser aux enveloppes fluides, càd celles qui bougent/répondent
relativement rapidement, Ce sont celles qui sont le plus susceptibles d’interagir avec les activités de l’homme. Ceci ne
signifie pas que les autres enveloppes plus lentes à réagir, comme la géosphère, la croûte terrestre ne jouent pas un
rôle. On va d’ailleurs voir que dans l’histoire de la Terre, elles ont joué un rôle prépondérant dans l’évolution du climat,
dans les premiers âges de la Terre.
Donc, on va donc bcp s’intéresser aux océans, l’atmosphère et l’eau sous forme solide (glace ou cryosphère) qui vont
interagir à l’échelle humaine au niveau timing avec ce climat.

En effet, si on regarde les temps avec lesquels certains éléments circulent dans la basse atmosphère (= troposphère),
on a des temps de séjour qui peuvent être très courts, comme deux semaines C’est un milieu qui va répondre très vite
au changement. De la même façon, la stratosphère répond dans des temps de l’ordre du mois ou de l’année. C’est un
peu plus lent pcq plus stable mais c’est qch qui reste très actif par rapport à l’activité de l’homme.
Au niveau des océans : quand on est dans les eaux profondes, les tps de mvmt de l’eau sont de l’ordre de 20 km/an.
C’est relativement lent par rapport à l’atmosphère. Par contre, dans le Gulf stream (ce courant chaud de surface qui
amène l’excès de chaleur des régions tropicales vers nos régions), ce courant, à certains endroits, peut monter jusqu’à
100 km/jour. Ces temps de réponse là sont Rapides.
Les glaces = eau solide qui se déplace, se déforme relativement facilement sous l’effet de son propre poids. Et en se
déformant, elle se déplace. Les vitesses de déplacement de glace peuvent monter jusqu’à plusieurs km/an.

Tous ces temps de réponse sont mesurables à l’échelle de l’homme et compatibles avec les activités de l’homme.

● Météorologie VS Climatologie

Si il y a une chose à retenir de ce


cours : il faut bien dissocier la
météorologie (partie M. Pattyn) de
la climatologie. C’est notamment
différent au niveau des timing. La
météorologie = l’état de
l’atmosphère, des nuages, des
précipitations, les vents, les
pressions. Tout ça change très vite.
C’est ce qu’on voit à la TV : des
cartes de pression, de
températures… Tout ça bouge à
l’échelle de quelques jours. C’est
donc l’état de notre atmosphère à
courte échelle de temps.
Et c’est très différent de la
climatologie, qui est reliée à la
météorologie mais qui est une sorte
d’intégration sur un grand laps de
temps de ces différentes variables
de base qui font la météorologie.
C’est l’étude sur le long terme, au moins quelques décennies (20-30 ans), de l’évolution de l’état moyen de
l’atmosphère à long terme. C’est une espèce de vision statistique à long terme de la météorologie. On ne parlera
d’évènement climatique que si il se déroule sur plusieurs décennies. Un évènement qui se déroule sur quelques jours,
c’est événement météorologique.

Pour illustrer cela : Schéma carte slide 4 avec une de ces variables météorologiques qui est la t°. La distribution des t°
à la surface du globe sous forme d’une distribution de fréquence (forme gaussienne classique). On a ici la probabilité
qu’une telle température se produise et là, l’échelle des t°. Typiquement, si on a un grand nombre de mesures de t°,
elles vont se disposer ainsi à la surface de la Terre, dans une courbe en cloche. La partie la + fréquente, celle qui aura
la plus haute probabilité de se produire, c’est la moyenne de la distribution. Et à côté de cela, il y a des queues de
distribution, des évts qui se produisent moins souvent (soit vers des t° + basses, soit vers des t° + élevées que la
moyenne). Donc, la valeur de départ qu’on va prendre, c’est la valeur en tireté. C’est un état du climat à un moment X
et on va regarder comment ce climat évolue. Plusieurs façons pour ce climat d’évoluer. Par exemple, on peut garder
la même distribution (les extrêmes restent les mêmes), mais toute la distribution se déplace vers des valeurs plus
élevées. Notre nouvelle état de l’atmosphère sur le LT = la courbe solide : la moyenne est devenue plus élevée (on a
des t° moyennes plus élevées) mais en moyenne, on a le même nombre d’évènements plus froids et le même nombre
d’évènements plus chauds. Mais comme tout s’est déplacé vers la droite sur le schéma, on a, par rapport à la situation
précédente, plus de jours plus chauds.

● Première façon de changer le climat = bouger toute la distribution des t° vers des t° plus élevées.

Une autre façon de faire : on garde la même moyenne mais on étale la distribution. On écrase la courbe, la distribution.
On a plus d’évènements plus froids, et plus d’évènements plus chauds.

La 3e façon de faire, c’est une combinaison des 2. On augmente la t° moyenne, mais aussi les extrêmes. C’est ce qui
passe ce dernier siècle sur notre planète : on a monté la t° moyenne, globale et on a augmenté les évènements
extrêmes d’un côté comme de l’autre. Et on se déplace vers la droite donc on aura plus de jours chauds et moins de
jours froids et un étalement de la distribution.

C’est typiquement comme cela qu’on va décrire l’évolution du climat : on va prendre une de ces variables
météorologiques et on va l’observer sur une très longue période. On ne va jamais accorder une importance capitale à
des observations de courte durée pcq ces variabilités font partie de la variabilité interne du système et ne vont pas
permettre d’expliquer des tendances. Garder ça à l’esprit pour ne pas faire des erreurs de jugement.

● Le bilan énergétique global du


système Terre

Le système terre est alimenté en énergie


du soleil. Et c’est là la source de tous nos
avatars climatiques au cours de l’histoire
de la Terre important de comprendre
comment se redistribue cette énergie que
nous recevons du soleil au niveau du
système Terre.

Constante solaire : dans une première


approximation, on considère que la
quantité d’énergie qu’on reçoit du soleil est
constante au cours du temps. En fait, ce
n’est pas constant. Elle a varié sur le long
et aussi sur le court terme.
Cette constante solaire = la Qté d’énergie
reçue par unité de surface (par Mètre carré) et unité de temps (seconde) et que nous recevons à la limite supérieure
de l’atmosphère. Donc, on mesure ça juste avant d’entrer dans l’atmosphère et perpendiculairement à l’arrivée des
rayons solaire.
On trouve énormément de valeurs différentes selon les unités de mesure utilisées 1370 W/m2, c’est la valeur MKS, la
valeur des unités standards. Ce sont des KJ par seconde et par M2. Mais on peut trouver des valeurs de 1.94 Kcal par
cm par minute.

Attention : C’est une valeur moyenne et elle est sujette à des fluctuations. On va essayer de comprendre pq à la fin du
cours.

Subtilité :
On mesure donc cette constante solaire perpendiculairement au rayon du soleil. Donc, il faut imaginer qu’on a le soleil
qui envoie son rayonnement, la surface interceptée par les rayons du soleil, c’est en fait le grand cercle de la terre.
Mais à tout moment, cette énergie se répartit sur l’ensemble de la sphère. Et à tout moment, slmt la moitié reçoit de
l’énergie, et l’autre pas (vu qu’elle sera dans l’ombre de l’autre côté).
On doit faire un calcul pour savoir combien d’énergie réellement on reçoit à la surface de l’atmosphère à tout moment
en moyenne par M2 par seconde. Voir slide pour calcul :1370 divisé par 4 càd 342.5 watts par M2
342.5 = le chiffre de base de ce qu’on reçoit comme énergie à la surface supérieure de l’atmosphère).

Comment ça se distribue ? : Schéma slide 6.


On retrouve les 342W = la phase entrante à surface de l’atmosphère. Il va arriver toute une série de choses à ce
rayonnement. Les % = proportion de chacun de ces chiffres par rapport au rayonnement entrant.

Le premier processus qui se produit = la réflexion diffuse : Ce qui rentre va rencontrer la surface supérieure de
l’atmosphère où il y a des particules en suspension. Et de là, une partie de l’énergie est directement renvoyée vers
l’espace, elle se réfléchit comme sur un miroir. Cette proportion de ce qui est renvoyé dans l’espace ne va pas
contribuer à des changements de températures à la surface du globe. Si on raisonne en termes de lumière visible, pas
ttes les longueurs d’onde vont être réfléchies de manière diffuse de la même manière. Il y a un effet Sélectif en fonction
de longueur d’onde.

Toutes ces particules en


suspension dans atmosphère
vont capter le rayonnement
incident et le renvoyer dans
toutes les directions de
l’espace. C’est pour ça que l’on
dit « diffus ». C’est absorbé et
renvoyé dans toutes les
directions de l’espace (pas
juste dans une direction). Il n’y
a pas de perte d’énergie durant
ce processus, il n’y a pas une
partie de cette énergie
transformée en chaleur qui fait
que ce qui repart est moins
énergétique que ce qui rentre.
Et donc, en termes de
rayonnement, il n’y a pas de
chgt de longueur d’onde. La
longueur d’onde reste
constante, il n’y a pas de
transformation en chaleur, c’est
simplement redistribué dans toutes les directions de l’espace, y compris vers nous qui sommes au sol.

La loi qui contrôle ça = la loi de Rayleigh qui nous dit que cet effet de réflexion diffuse est proportionnel à lambda
exposant -4 (lambda exposant -4, c’est une symbolique qui nous dit simplement que c’est proportionnel à 1/lambda
exposant 4). Plus lambda est petit, plus ce chiffre va être grand. Pour rappel, une faible longueur d’onde, c’est un
rayonnement très énergétique. Dans le visible, ca va être des rayonnements de type bleu, violet. Et plus on va être
vers des longueurs d’onde petites, plus cet effet va être important. Et donc, ça va surtout concerner dans le visible des
couleurs de type bleu-violet. C’est pour cela que le ciel nous paraît bleu. C’est pcq les particules dans l’atmosphère
captent la lumière blanche et puis, c’est spécifiquement les longueurs d’onde de type bleu-violet qui sont les plus
courtes et qui sont les plus affectées par ce processus qui vont être redistribuées dans toutes les directions de l’espace,
y compris vers nous qui voyons cette lumière dans les bleus.

Voir illustration en bas pour les différentes longueurs d’ondes : le visibles, les infrarouges, les UV...
Cette courbe représente le flux d’énergie qui arrive du soleil avant de rentrer dans atmosphère. C’est la courbe orange.
C’est relativement régulier.
2e étape : absorption de l’énergie par l’atmosphère : une autre partie de ce qui rentre va être absorbé via des
processus physico-
chimiques par
l’atmosphère.
Le processus le plus
connu et très
important pour la vie
sur terre : la formation
d’ozone
stratosphérique (=
Absorption de
l’énergie rayonnante
au niveau de la
stratosphère qui
résulte dans la
production d’ozone).
Globalement,
comment ça marche ?
On prend de
l’Oxygène dans
l’atmosphère, ces
molécules absorbent
les ultraviolets. Le
résultat de cette
absorption est que l’on
sépare la molécule
d’oxygène en deux
atomes d’oxygène (O et O, càd O2). Ensuite, chacun de ces atomes O va pouvoir se combiner avec une nouvelle
molécule d’oxygène. Ca forme une nouvelle molécule : O3 = l’ozone. C’est ainsi qu’est synthétisé l’ozone. Le résultat
de cette synthèse va libérer une partie de l’énergie absorbée sous forme de chaleur. Donc : on prend de l’oxygène
moléculaire qui produit de l’oxygène atomique, on les combine et on a absorbé des UV pour faire ça. Résultat : on
recycle les oxygènes monoatomiques et on produit de l’ozone et de la chaleur.

Ca explique que quand on fait un profil de t° dans atmosphère (schéma avec t° de l’air dans l’atmosphère et altitude),
au lieu de diminuer régulièrement avec l’altitude, la T° présente tout à coup un maximum local au niveau de la
stratosphère. Et donc, Cette augmentation de t° au niveau de la stratosphère, c’est pcq il y a production d’ozone dans
la couche inférieure de la stratosphère libération de chaleur T° réaugmente. C’est ça qui donne de la structure à notre
atmosphère et qui permet de séparer l’atmosphère en différentes couches. Et par exemple, la troposphère est délimitée
dans sa partie supérieure à l’endroit où tout à coup la t° commence à remonter à cause du dégagement de chaleur et
puis inversement, quand on continue à monter, on quitte cette zone de production de chaleur et les t° recommencent
à diminuer.
Donc, cette réaction, qui est très importante puisqu’elle capte les UV courts qui sont dangereux pour la vie, explique
ce qu’on appelle l’inversion thermique càd un maximum de t° au niveau de stratosphère.

Schéma :au lieu de voir arriver cette quantité ci d’UV courts au niveau du sol, on a un trou. On a une différence entre
la courbe orange qui arrive en haut et la courbe en diverses couleurs, y compris les UV qui n’arrivent pas jusqu’au sol
car investis dans cette réaction.
Il y a d’autres endroits où il y a des pertes d’énergie locales. C’est parce qu’on a aussi d’autres processus d’absorption
qui vont capter une partie de l’énergie incidente. Ces absorptions sont liées à d’autres molécules que l’ozone (vapeur
d’eau, dioxyde de carbone…). Et ça ça va donner de l’absorption dans des longueurs d’ondes qui sont plus longues
(alors que l’ozone va donner des absorptions dans les longueurs d’onde qui sont les plus énergétiques).
● La Qté d’énergie qui arrive au sol a une forme de montagne russe car une partie de ce qui arrive au sommet
de l’atmosphère a été absorbée par ces différentes molécules.

(Effet d’ozone joue aussi rôle sur absorption


Ne pas confondre avec ozone troposphérique (dépend de pollution) Ici, ozone stratosphérique)

3ème flèche :
Ce qui n’a pas été affecté par ces 2 éléments va arriver au sol. 2 choses peuvent se produire : soit cette énergie va
être renvoyée vers l’espace (réflexion) soit elle va être absorbée par le sol.
La proportion de ce qui est
renvoyé vers l’atmosphère par
rapport à ce qui vient = l’albédo.
C’est la proportion entre la
quantité d’énergie qui est réfléchie
par la surface et la quantité
d’énergie qui arrive sur cette
surface (voir slide pour le calcul).
Cette proportion va dépendre des
caractéristiques de la surface (cf
liste).
Ex. neige fraîche va refléter bcp
(albédo fort) donc besoin de
lunettes de soleil.
>< l’asphalte où slmt 5 à 20% de
l’énergie qui arrive qui repart, la
majeure partie est absorbée.
Quand été intense, l’asphalte peut
fondre et coller aux chaussures.
Parce que l’asphalte capture bcp
d’énergie qui arrive au sol.
Entre ces deux extrêmes, c’est
très variable et c’est d’ailleurs un gros prob de la modélisation climatique de pouvoir refléter correctement cette
variabilité de l’albédo en fonction des surfaces. Or c’est important pour calculer le bilan calorique du système.

Attention pcq on peut calculer l’albédo à différents endroits. On a l’albédo planétaire est mesuré au-dessus de tout ce
qui forme atmosphère, à la partie supérieure de la terre. L’albédo de ciel clair est aussi calculé au-dessus mais sans
les nuages. Et on a l’albédo de surface comme on vient de voir, à la surface du sol.

L’océan va aussi se comporter différemment que le continent. En fonction des vagues, de l’agitation de la couche de
surface, on va avoir des effets d’absorption plus efficaces qu’au niveau du continent. Ca va aussi dépendre de l’état
de la mer. L’océan va aussi absorber plus de rayonnement solaire en quantité. Puisque qu’avec la convection dans les
couches de surface, l’énergie qui est absorbée en surface peut être recyclée en profondeur, bcp plus facilement que
dans le sol qui ne bouge pas (tout est absorbé très proche de la surface de contact).
Autre différence : l’océan va donc absorber une partie de l’énergie qui arrive à sa surface et ça va être préférentiel
suivant la longueur d’onde. L’océan va préférentiellement absorber (dans le visible) le rouge. C’est pour cela que
l’océan nous apparaît bleu vert. Pcq le rouge a été absorbé et ce que l’océan nous renvoie, c’est le complémentaire
par rapport à la lumière blanche, càd le bleu.
Du fait de cet effet tampon de la surface des océans, on va observer des variations de t° journalières bcp moins élevées
au niveau des océans qu’au niveau des continents. Les t° de surface vont s’élever bcp moins rapidement pcq une
partie de l’énergie va être recyclée en profondeur contrairement à la surface du sol.

Question suivante : Comment ce qui a été stocké dans la Terre va être restitué à l’atmosphère? (on va repartir dans
l’autre sens) voir le bas de l’illustration slide 9.
Plusieurs choses vont se passer:

● De l’énergie va être
restituée sous forme de chaleur
sensible : la conduction entre le
sol et l’atmosphère va faire que si
le sol se réchauffe, il va
transmettre (par conduction) une
partie de sa chaleur à l’air qui se
trouve juste au contact avec le
sol.

Donc, la chaleur sensible, c’est


un transfert de chaleur qui va
causer une augmentation de t° de
l’air qui est en contact avec sol.
Le % = 24 par rapport au 342.

Et donc, si on s’intéresse à notre


profil moyen de t° dans
l’atmosphère : près du sol, on a
une augmentation du gradient de
t°. C’est aussi parce qu’on a une accumulation d’énergie à la surface du sol qui est retransmise à l’air par cette
chaleur sensible et qui fait qu’on réchauffe préférentiellement les zones proches de la surface. Ca donne cet
aspect typique en W du profil moyen de la t° de l’atmosphère. Donc, première chose : Réchauffement par
conduction.

● Transfert de chaleur latente (en jaune). Cette fois ci, c’est de la chaleur qui contribue à changer état de l’eau
à la surface du sol, càd à provoquer de l’évaporation ou évapotranspiration. On utilise l’énergie pour évaporer
l’eau des océans. C’est ce qui se passe dans les régions intertropicales de manière extrêmement intense qui
donne naissance à ces nuages extraordinaires dans ces régions.

Donc : Deuxième chose : transfert de chaleur latente-changement d’état (l’eau passe de l’état liquide à l’état
vapeur).

● Rayonnement tellurique : une partie de l’énergie est réémie sous forme de rayonnement lumineux (on est
plus dans le transfert de chaleur, de calorie mais dans un rayonnement lumineux de la surface vers l’espace).

Comme on a pas mal d’énergie qui a été perdue au cous du transfert, ce rayonnement va être bcp - énergétique
que les rayonnements incidents. Et il va se faire typiquement dans les infrarouges (= rayonnements dont la
longueur d’onde est bcp plus grande). Car il y a eu une déperdition d’énergie, notamment à cause de ces
processus intermédiaires.

= Radiation de surface ou tellurique (Rayonnement de la terre renvoyé vers l’espace).

= 114%. En effet, on remarque que ce rayonnement est de 390 W alors que je ne reçois que 342W. En fait,
c’est expliqué par ce qui se passe avec cette radiation de surface par la suite. Donc, elle est émise sous de
rayonnement vers l’atmosphère et ce rayonnement va subir différents sorts (en fonction de la longueur d’onde).

Rem : On peut tjrs associer ces corps célestes à des corps noirs (= corps considéré comme renvoyant que
l’énergie interne, et pas en réfléchissant de l’énergie qui vient d’ailleurs. Toute l’énergie qu’il renvoie est associée
à leur énergie interne). Et c’est un rayonnement infrarouge (la T° de ce corps noir est bcp plus basse que le
soleil).

Que devient ce rayonnement tellurique ? Il se distribue en plusieurs parties vers le haut :

● La fenêtre
atmosphérique : Sur ces
390W, 40W sont d’une telle
longueur d’onde qu’ils vont
être insensibles aux
particules de l’atmosphère (ils
vont traverser cette
atmosphère comme si de rien
n’était) et vont repartir
directement vers l’espace
‘longueur d’onde qui sont
typiquement entre 8 et 10
microns). Ce rayonnement là
ne contribue pas à un
quelconque changement
dans troposphère. Et il
n’interviendra plus dans le
bilan de qui se passe à la
surface de la terre.
● Absorption et réémission
par l’atmosphère : une partie de cette énergie (165W) va être absorbé par les particules de l’atmosphère
puis réémise, mais vers l’espace (donc va s’échapper de l’atmosphère et donc pas être stockés au niveau de
l’atmosphère).
● Gros morceau : la partie absorbée mais renvoyée vers le sol. C’est le fameux effet de serre dont on parle
bcp. Il y a une boucle qui correspond à ce qui se produirait dans une serre. Comme on renvoi une partie de
cette énergie vers le sol, ça explique qu’on n’ait plus d’énergie que ce qui arrive en haut. Si on fait le bilan de
tous les chiffres, on arrivera à un bilan nul. Mais au niveau du sol, on a l’impression qu’on renvoie plus
d’énergie que celle qui arrive au niveau de l’atmosphère pcq à cette énergie contribue une partie de l’énergie
recyclée par ce phénomène d’effet de serre. Ca explique les discordances.

Et une fois que ça revient, c’est réabsorbé par le sol. Et ça va re-contribuer à la chaleur sensible, à la chaleur
latente, et donc ça va boucler dans l’atmosphère inférieure (dans la troposphère) et contribuer, si ce phénomène
s’accentue, au réchauffement de la basse atmosphère.

Effet de serre par similitude au fonctionnement d’une serre : Une serre en verre va passer le rayonnement
incident de forte énergie. Ce rayonnement va être absorbé par le sol de cette serre qui va renvoyer du
rayonnement moins énergétique (de l’infrarouge, comme pour la terre). Et une partie de cet infrarouge va partir,
mais certaines longueur d’onde plus longues vont être absorbées puis réémises vers le sol et donc contribuer à
l’augmentation de la t° (puisque cette énergie réémise vers le sol va être réabsorbée et retransformée en chaleur
latente et éventuellement en chaleur sensible).
● Répartition latitudinale du flux énergétique solaire et implications

Donc, maintenant on peut intégrer tous ces


processus.
On a une valeur moyenne de 342 W. Mais en
fait, la terre tourne autour d’un axe de rotation
qui n’est pas perpendiculaire au plan qui
contient la terre et le soleil. L’axe de rotation est
incliné l’énergie ne va pas se répartir de
manière symétrique, à tout moment, entre
l’hémisphère Nord et l’hémisphère Sud. A
certains moments, l’hémisphère Sud est plus
vers le soleil et reçoit plus d’énergie et 6 mois
plus tard, c’est l’hémisphère nord.
Cf le diagramme : On a les mois de l’année et
les latitudes (Equateur, pôles Nord et Sud). Les
chiffres (W par Mcarré) = la quantité d’énergie
qui arrive à la surface supérieure de
l’atmosphère. Donc, avant même d’arriver dans
l’atmosphère, ce qui est reçu à la surface
supérieure de l’atmosphère n’est pas la même
partout. On a une valeur moyenne pour l’ensemble du globe mais cette valeur varie en fait. En effet, la région
intertropicale et l’Equateur reçoit plus que la valeur moyenne. On est quasi tt le tps au-dessus de la valeur moyenne.
Par contre, en décembre-janvier, au pôle N, on ne reçoit quasi rien (- de 50 w). Forcément, on est dans l’ombre (on est
de l’autre côté su soleil). 6 mois plus tard, ça change.

Une autre façon de représenter la même chose : à droite. Cette fois, on a la latitude à l’horizontal. Et on a la somme
de ce que l’on reçoit par latitude. On voit la même chose. Dans les latitudes intertropicales, on va voir par rapport à un
flux nul, un excès d’énergie. Et aux pôles, on va voir un déficit d’énergie. Et donc, les deux courbes au-dessus, ça va
nous donner la balance entre ce qui est apporté (SW = short waves, l’énergie hautement énergétique qui vient, qui
descend – flèches qui descendent sur notre dessin) et ce qui est renvoyé (le rayonnement tellurique). Quand on fait la
différence des deux : là, on renvoi plus que ce qu’on a reçu (on est en déficit) et là, on renvoie moins que ce qu’on
reçoit (on est en excès). Ca voudrait dire que d’année en année, si rien d’autre se passe, on devrait voir constamment
les t° augmenter dans les régions intertropicales et baisser dans les régions polaires puisque dans les régions polaires,
on perd chaque année plus qu’on ne reçoit et inversement dans les régions intertropicales. Mais ça ne se passe pas
comme ça pcq la terre n’est pas un système inerte, mais bien un système qui va réagir via ces enveloppes qui se
déplacent rapidement, càd via l’atmosphère, via les océans… on va compenser déséquilibre.

Comprendre dans les grandes lignes de ce qui suit (les 2 prochains sides) suffit. Comprendre le principe, les moyens
par lesquels la terre rétablit le déséquilibre entre les latitudes élevées et les latitudes basses (du au fait que l’axe de
rotation de la terre est incliné et que donc elle ne reçoit pas la même quantité d’énergie partout à tout moment). Cette
compensation est liée à circulation :

● De l’atmosphère, donc des masses d’air


● Des océans.

Slide 12 : Dessin qui nous


explique ce qui se passe dans
l’atmosphère. Ce dessin =
coupe dans la Terre le long
d’un méridien, coupe qui va du
pôle Sud au pôle Nord en
passant par Equateur.

La première chose à
remarquer, c’est la différence
entre la troposphère et la
stratosphère. Il faut se rappeler
le profil de t° en W. La
température diminue, elle
réaugmente dans la couche
d’ozone, puis elle redescend.
Cet endroit où la t° remonte,
c’est la limite entre la
troposphère et la stratosphère.
Tout ce qui est dans ce dessin
concerne principalement ce qui
se passe dans la troposphère.
C’est là que la plupart des mvmts de l’atmosphère vont se produire, c’est une partie très dynamique.
Pourquoi ? Normalement, l’air ambiant se refroidit au fur et à mesure qu’on monte en altitude. Ce qui signifie que l’air
qui va se réchauffer au contact de l’océan va être bcp plus chaud que l’air ambiant et va être moins dense il va s’élever
facilement. Une fois qu’il va arriver à cette limite de la stratosphère, la t° remonte et la différence de t° entre cet air qui
monte et l’air qui l’entoure va s’amenuiser jusqu’à ce qu’il n’y ait plus de différence de t° et ça va faire que cet air va
arrêter de monter. Ce profil de t° explique que la plupart des mouvements vont se passer dans cette partie inférieure
où les masses d’air qui montent sont bcp plus chaudes que l’air ambiant qui devient de plus en plus froid au fur et à
mesure.

Donc, qu’est-ce qui se passe ?


Maximum d’énergie qui arrive à l’Equateur chaleur latente, j’évapore l’eau, cette vapeur d’eau s’élève car plus chaude
que l’air ambiant. Comme l’air est + froid, la vapeur d’eau se condense en gouttelettes d’eau de + en + importantes et
former ces grands nuages (cumulonimbus). Ces nuages montent jusqu’au moment où la t° commence à se réchauffer.
Finalement, il n’y a plus de différences de t° entre le sommet des nuages et l’air ambiant. Du coup, les densités
s’équilibrent et l’air ne sait pas monter plus haut. Il s’arrête au sommet de la troposphère. Mais comme ça se passe
partout autour de l’Equateur, cet air qui s’accumule doit bien aller qqpart. La seule solution pour cet air là en haut (au
niveau de la troposphère), c’est de partir soit vers Nord, soit vers Sud, vers les pôles. Ce qui se complique un peu,
c’est que, en même temps qu’on va vers les pôles, comme la terre tourne, on est dévié dans sa trajectoire (effet Coriolis
– effet de déviation des masses d’eau et des masses d’air lié à la rotation de la terre). Cette déviation se fait vers la
gauche de la masse d’air dans l’hémisphère Sud, vers la droite de la masse d’air dans l’hémisphère Nord. Idem pour
les courants marins.
Ca veut dire que les masses d’air qui se déplacent vers les pôles, en même temps qu’ils se déplacent vers les Tropiques
d’abord, vont être déviés vers leur droite dans l’hémisphère N et vers leur gauche dans l’hémisphère Sud.
Ce sont des vents forts, appelés les jet stream subtropicaux.

Donc, l’air qui est parti d’ici, qui s’est réchauffé, qui a chargé un maximum de chaleur latente, monte, forme des nuages,
part vers les Tropiques et en même temps est dévié et tourne autour des Tropiques comme deux anneaux de vents
forts (les Jet stream subtropicaux).
Ca ne peut pas durer éternellement (On ne peut pas injecter constamment de l’air dans ces Jet Stream) : ces Jet
stream vont saturer, et comme l’air ne peut pas monter et qu’il se sature, il va redescendre : l’excès d’air va redescendre
et former des hautes pressions au niveau des tropiques. Donc, cet air qui est chassé dans les Jet Stream, il est
repoussé vers le bas, au niveau des Tropiques et ils créent des hautes pressions au sol. En plus de ça, en descendant,
il se réchauffe. Et donc, toutes les gouttelettes d’eau qui formaient les nuages s’évaporent. La vapeur d’eau est tjrs là,
il n’y a plus de nuages et donc plus de précipitations. Et donc, on a de l’air chaud qui redescend et qui n’amène plus
de précipitation. Ca forme les déserts au sol (les grands déserts au niveau des Tropiques : ces Jet Stream refoulent
de l’air constamment).

Donc, tout est repoussé au sol au niveau des Tropiques. Une partie de cet air va repartir vers l’Equateur (cellules de
Hadley) et une autre partie va remonter vers les basses pressions au niveau de nos régions tempérées. Cet air chaud
qui va arriver dans nos régions (Belgique, France…) va rencontrer l’air polaire (l’air froid qui vient des pôles) et au
contact de cet air froid, l’air chaud qui contient tjrs sa vapeur d’eau, va la condensation et former des nuages. Mais
cette fois ci, ces nuages vont tomber sous forme de pluie. Et ça va relibérer l’énergie qui a été stockés ici. Résultat (et
c’est ça qu’il faut retenir !) : j’ai pris de l’énergie au niveau de l’Equateur, je l’ai trimballée sur la moitié de la surface de
la Terre en redescendant jusqu’au niveau des Tropiques, et puis une partie est partie dans les régions tempérées
(idem dans l’hémisphère S) et donc là, au contact des masses d’air polaires, je recondense la vapeur d’eau, je précipite
et donc je libère la chaleur que j’avais stockée.

● J’ai transféré l’excès de chaleur au niveau des Tropiques par l’atmosphère au niveau des latitudes tempérées.
● Processus global = Par cette circulation atmosphérique importante, je prends l’excès d’énergie au niveau de
l’Equateur et je l’amène aux niveaux des régions tempérées et régions au Sud. Cette énergie est relachée
par la formation des pluies (on libère la chaleur latente…).

—> 1er moyen de redistribuer la balance.

Autre moyen : l’océan.

La circulation de l’océan = Autre fluide qui va stocker l’énergie à certains endroits et la redistribuer pour homogénéiser
la t° à la surface de la Terre, pour éviter que l’Equateur et pôles deviennent un enfer.

Slide : Tapis roulant


océanique qui va affecter
à la fois les eaux profondes
(en bleu) et les eaux de
surface dans un système
de boucle. Globalement,
ce qui se produit : les eaux
de surface vont circuler au
niveau des régions
intertropicales, stocker
l’excès d’énergie, le
transporter via notamment
le gulf stream (élément
fondamental) vers nos
régions, où cette énergie
va être fournie aux régions
tempérées avant que les
eaux ne replongent.

Comment ça se passe ?
Comme il fait très froid
autour de l’Antarctique, on
forme de la banquise (l’océan gèle). Et quand l’océan gèle, il rejette les sels de l’eau en dessous de la glace qui se
forme. Et donc, cette eau très salée devient extrêmement dense et ces eaux plongent en profondeur et viennent
rejoindre ce courant froid. = une partie de la boucle. La même chose se passe en Arctique mais de façon moins intense.

Autre boucle : Comment ces eaux de profondeur vont revenir en surface ?


Cette branche qui revient des Tropiques vers l’Equateur et qui va être déviée vers sa droite dans l’Hémisphère Nord,
et vers sa gauche dans l’hémisphère gauche, ce sont les alizées (les alizées du Nord Est et les alizées du Sud Est et
qui vont souffler globalement de l’Est vers l’Ouest).
Ces vents, en soufflant, transportent les eaux de surface, ce qui permet la remontée des eaux profondes en surface et
de connecter cette boucle inférieure à la boucle supérieure.

Et donc, on va finalement emmener ces eaux chaudes en hémisphère Nord, dans nos régions, et là, on a des eaux
chaudes qui vont d’une part s’évaporer (et donc s’enrichir en sel) et d’autre part se refroidir. Et donc ces eaux vont se
densifier (pour ces deux raisons : 1. elles se refroidissent et 2. l’évaporation va laisser les sels dans l’eau en-dessous).
Cette eau, en devenant plus dense, plonge et vient rejoindre les courants de fond. La boucle est bouclée.
On boucle cette circulation thermohaline globale (liée à la t° et au sel). Ca prend et emmène l’énergie excédentaire
entre les Tropiques vers les régions polaires (surtout dans l’Hémisphère Nord), ça replonge et ça reboucle…

A la fois, l’atmosphère et l’océan contribue à rétablir le déficit énergétique.

● Variations naturelles du climat

Personne ne conteste que le climat a énormément changé dans l’histoire de la Terre. Ce n’est pas qch de nouveau.
Par contre, dans l’état actuel du système Terre, par rapport aux variations naturelles, l’impact naturel de l’homme est
suffisant que pour prendre le pas sur ces variations naturelles.
Ces variations ont été bcp plus extrêmes dans les 1res périodes de l’histoire de la terre.

Prof va nous faire un petit aperçu de ce que l’on sait sur ces variations naturelles du climat. Pour cela, on regarde les
archives du climat càd des milieux à la surface de la Terre qui enregistrent les variations du climat du passé.

Slide 14 : On a une liste de


tout ce que l’on peut utiliser
comme archives pour
essayer de reconstituer le
climat du passé. Puis, on a
des barres horizontales qui
se réfèrent à l’échelle
horizontale = longueur de
l’enregistrement en années.
Certaines archives nous
donnent des informations
sur un court laps de temps.
Typiquement, les données
satellitaires n’existent que
depuis les années 70 =
Période très courte. ><
Dans les roches
sédimentaires ou les
sédiments océaniques, on
remonte sur des dizaines de
millions d’années en arrière.
La longueur de la barre
montre jusqu’où on peut remonter dans le temps avec telle ou telle autre archive.

Deuxième info : la couleur de la barre. Ca a trait à la résolution de l’archive (combien dans le détail je peux aller pour
analyser les choses). Résolution fine : je peux vraiment aller dans le détail. Par exemple, les données satellitaires, je
peux avoir des informations à l’échelle inférieure à l’année (il y a des satellites qui passent tous les jours au-dessus du
même point infos au jour le jour) = archive de très haute résolution.

Par contre, les roches sédimentaires (on est les bruns), c’est l’autre extrême : la résolution est au mieux, de 100 à 1000
ans. : si on prend une très fine couche de sédiments marins, ça s’est déposé tellement lentement qu’on ne peut pas
lire des choses qui sont plus courtes que 100 à 1000 ans, on ne va pas pouvoir savoir ce qui se passe au niveau
saisonnier dans un sédiment océanique car sur une saison, ne se sont déposés que quelques microns de sédiments
au fond de l’océan)

Plus les archives nous permettent de remonter loin dans le tps, moins la résolution est bonne (moins elles sont efficaces
dans le détail de l’information).

Troisième info dans ce diagramme : les lettres montrent ce que l’on peut apprendre par rapport aux évènements/climat
du passé. Certaines archives sont très riches. Notamment les écrits humains (infos sur t°, humidité, composition de
l’atmosphère, biomasse…)
Les anneaux dans les arbres (les cernes des arbres) nous donnent également bcp d’informations bcp de variables du
climat.
Autres milieux ne nous donnent qu’une seule info (ex. t° dans le sol).

Dans la nature, on pt aller voir (on pt combiner)

● Les cernes des arbres


● Les graines de pollen dans les sédiments (nous donnent une idée générale des changements
d’environnement – on regarde le contraste entre le pollen des herbacés (donc les plantes basses) et le pollen
des arbres et au sein des arbres, on regarde si c’est plutôt des conifères… - on pourra par exemple dire que
le climat était plutôt tempéré et qu’ensuite il est devenu plutôt froid… mais on ne peut pas aller dans le détail
avec cette archive)
● Les coraux sont très utiles car ils ont des cernes de croissance annuelles (nous donne des infos sur t°, la
composition de l’eau de mer, le niveau des mers…)
● Les carottes glaciaires (infos fondamentales) se font dans des calottes glaciaires qui ont plus de 3000 m
d’épaisseur et elles nous permettent de remontrer à presque 1 million d’années, pt reconstituer bcp de choses.
En effet, ces glaces sont formées par l’accumulation de couches de neige année après année… sur plus de
3km et demi parfois.
● Les sédiments lacustres. Il y a des répétitions de couches dans ces sédiments lacustres qui sont des répétions
saisonnières on peut compter les années, année après année, et avoir une échelle de temps à laquelle
raccrocher les infos qu’on va apprendre sur le climat. Cette archive nous permet de raccrocher les
informations au temps qui passe. Il faut que l’on puisse dater ces archives (Avoir des infos sur l’envi et le
climat c’est bien mais il faut aussi pouvoir dater ces infos, ces archives, dire que cette couche là était avant
celle là…Sinon ne sert à rien.)
● Les loess (important - pt remonter jusqu’à 600 000 ans). Ce sont des limons, des particules très fines
transportées par vent. Et à certains endroits de la Terre, elles se sont accumulées sur plusieurs centaines de
mètres d’épaisseur. Typiquement, la Chine est une des sources les plus riches en dépôt de loess. Nous
permet de reconstituer des variations de l’humidité et des précipitations, du champ magnétique ou de la
biomasse. C’est un Matériau très cohérent (gens font leur maison dedans). On peut faire des terrasses pour
la culture sur des pentes très fortes.
● Les sédiments océaniques. Il y a énormément de missions qui se sont faites dans l’océan pour faire des
carottages dans les sédiments océaniques. Les carottes océaniques permettent de remonter plus loin dans
le tps qu’avec les carottes de glace – Pq ? Pcq les sédiments, une fois qu’ils se déposent, restent là tandis
que la glace, sous l’effet de son poids, se déforme : elle se comprime et s’étire vers les bords et donc, les
glaces les + anciennes sont perdues car écoulées vers les bords.

Si on compare les carottes de glaces avec les carottes de sédiments, les carottes de glace nous donne plus
d’informations (plus de lettres) à une meilleure
résolution mais par contre leur fenêtre
temporelle est plus restreinte – la Maximum
qu’on ait réussit à atteindre jusqu’à présent est
de 800 000 ans pour la glace. Tandis qu’avec
les sédiments océaniques, on peut remonter
jusqu’à plusieurs millions d’années (mais avec
une mauvaise résolution).

Voilà où on peut aller chercher l’info. Mais que peut-


on tirer comme information ?

En fait, il y a eu plusieurs types de changements du


climat différents en fonction de l’état de la Terre. Et
donc, les changements du climat n’ont pas toujours
été liés à la même chose. Ils ont été liés à différents
processus à différentes échelles.

On va parler des reconstitutions des


températures de l’océan qui ont pu
se faire à l’aide de toutes ces
archives au cours du temps. On peut
remonter très loin dans le temps
mais plus on remonte loin, moins
l’info est précise.

Graphique représente l’âge en


Gigaannées (= milliards d’années).
Donc 0 = aujourd’hui et 3.5 = 3
milliards d’années. La courbe en
brun = le % de terres émergées. Il y
a 3 milliards d’années, il y avait
seulement quelques % de terres qui
étaient à l’air libre, tout le reste était
immergé. Petit à petit, les terres
émergées ont vu leurs proportions
augmenter pour arriver aux valeurs
actuelles de 20%.

Ce qui nous intéresse, ce sont les infos qu’on a pu tirer. Les barres d’erreur sont importantes. On prend qq roches à
gauche et à droite dans des roches très anciennes où on ne peut faire que quelques mesures (difficiles à faire et pas
faciles à interpréter). Mais quand-même, on peut avoir des infos sur la t° de l’océan. A 3.5 milliards d’années, on obtient
des valeurs de 60 degrés dans l’océan. Puis, on voit jusqu’à 500 000 ans, il y a eu une descente régulière de t° de
l’océan. Et ça c’est mesuré dans quelques roches à gauche à droite. Il y a aussi eu des moments avec de fortes
baisses de t°.

● Donc, un océan primitif très chaud et une diminution globale jusqu’à aujourd’hui. Et des moments plus froids
(où l’on a vu apparaître des glaciations)
Schéma nous montre qu’à cette échelle de temps là, des tas de choses se sont produites à la surface de la Terre, la
plus évidente étant le réarrangement des continents (les continents n’ont pas tjrs été à la même place). On a vu que la
redistribution de l’énergie à la surface de la Terre dépend très fort des mouvements de l’océan et de l’atmosphère.
Mais la circulation océanique n’est pas la même dans ce système là que dans ce système là. Et donc, la redistribution
de l’énergie pas se faire très différemment en fonction de la position des océans.
Schéma : A travers ces périodes, on a pris une représentation des t° de l’océan reconstitué avec quelques indicateurs
du niveau de t° (60 degrés au début). Globalement on est allé vers un refroidissement avec pas mal de fluctuations
pour des raisons différentes.

Donc, il y a eu des changements majeurs. La première chose qui va se passer, c’est l’apparition des premiers végétaux
et de la photosynthèse:
Donc, 60 degrés pour commencer
puis décroissance régulière dans
les premiers milliards d’années,
liée notamment aux algues bleues
= apparition de la première forme
de vie qui va faire de la
photosynthèse et qui va donc
synthétiser le dioxyde de carbone
pour former de l‘oxygène et qui va
donc pomper le dioxyde de
carbone, gaz à effet de serre
présent dans l’atmosphère et qui
contribuaient fortement à ces t°
extrêmement élevées à la surface
de la Terre. Donc, avec ces
premiers végétaux, on entame
une descente régulière des t°
dans l’atmosphère. Ca va être un
1er processus qui va contrôler le
climat à grande échelle de temps.

Remarque : A la surface de terre,


la t° moyenne de la Terre est proche du point de fusion (à cause de la distance qui nous sépare du soleil). On est
justement bien placés pour que l’eau existe à état liquide mais aussi à l’état solide (de par la disproportion entre
l’énergie absorbée entre l’Equateur et les pôles). Et donc, un tout petit chgt dans cette balance d’énergie que nous
recevons du soleil peut donner de fortes modifications de l’état liquide de l’eau vers l’état solide de l’eau, autour du
point de fusion. Une très faible variation d’énergie va faire que l’on va pouvoir shifter de l’un vers l’autre et vice versa.

Lignes bleues = global glaciations.


Il y a eu des périodes où la Terre était complètement glacée. Comment on le sait ? grâces à des infos tirées des roches.
Ce qu’on a mesuré dans ces roches, c’est le Delta C13. C = le carbone (càd le composant principal de la matière
organique, du Co2, du calcaire…) L’atome de carbone existe sous plusieurs formes. Le C14 est une forme radioactive
càd une forme qui se décompose, qui n’est pas stable. Mais la plupart du carbone est stable. Le plus abondant est le
C12. C’est le carbone de base, le plus abondant. Il existe aussi un C13 qui est plus lourd (pcq le nombre de neutrons
dans le noyau est plus élevé). Ce C13 est moins abondant. On peut calculer ce Delta C13, c’est l’expression de la
proportion du plus lourd par rapport au plus léger. La biologie préfère le C12 par rapport au C13. Les algues vont donc
fixer le dioxyde de carbone qui vient de l’atmosphère, et dans ce dioxyde de carbone, il va y avoir du C13 et du C12
(le 13 étant moins abondant que le 12). Les algues vont préférentiellement prendre le 12 dans leurs matières
organiques, dans leurs tissus mous. Donc, si les algues sont très actives, l’eau qui se trouve autour va s’enrichir dans
13 puisque les algues
prennent le 12. Et donc, le
rapport C13/C12 (C13 sur
C12) va augmenter.
Inversement, s’il y a peu
d’algues, ce rapport va
baisser fortement.
Quand le Delta est positif, ca
veut dire qu’il y a bcp de C13
et peu de C12 et quand il est
négatif, il y a très peu de C13
et bcp de C12. Et les courbes
en pointillé qui montent et
descendent = périodes où il y
avait bcp de c13 par rapport
au C12 dans l’océan.
Si le prends une roche
calcaire qui date d’il y a lgts et
que je mesure la proportion
de C13 et C12 dans cette
roche, si j’ai bcp de C13 par
rapport au C12, ça veut dire
que ce calcaire s’est formé
dans une eau où il y avait bcp
de photosynthèse. Inversement, si j’ai peu de C13 par rapport au C12, ça veut dire qu’il n’y avait pas d’algues. A ce
moment là, on aura un Delta négatif.

Qu’est ce qu’on voit ? C’est la seule indication que l’on a mais elle est très forte : c’est qu’à certains moments de
l’histoire de la Terre, tout à coup, on a un rapport qui va vers des valeurs négatives et donc où il y a très peu de C13
par rapport au C12 pas de photosynthèse (le C12 n’est pas utilisé). Et puis, il y a des moments où il devient plus élevé.
Et puis, ça réaugmente. La seule façon d’expliquer ces creux de C13 par rapport au C12, c’est que tous les océans
sont couverts par qqch qui empêche la photosynthèse de se faire. Et le seul moyen pour que les algues ne fassent
plus de PS, c’est qu’elles n’arrivent plus à avoir de la lumière. La seule explication c’est que la lumière était empêchée
d’arriver jusqu’aux algues par de la glace à la surface des océans on a une Snowball earth, càd une grosse glaciation
qui s’est produite à ces différentes périodes.

(Inorganique = dans squelettes, roches, pas tissus mous).

Autre chose qu’on peut observer :


La courbe devient + précise dans notre période car on a plus d’informations, plus de roches à analyser, plus d’archives.
A partir de 65 millions d’années, on rentre de nouveau dans une diminution régulière de la t°. A quoi c’est dû ? C’est
la 3e raison pour laquelle on va changer le climat de façon importante. La fin du secondaire, le début du tertiaire, c’est
le moment où on commence à voir bouger les continents à la surface de la terre. Et donc on réorganise la circulation
des océans et les échanges d’énergie entre l’Equateur et les pôles : on redistribue moins facilement les excès d’énergie
pcq les océans sont plus complexes de par la position des continents. La circulation devient + compliquée. Et du coup,
la t° océanique a tendance à moins s'homogénéiser. Et donc, la T° moyenne diminue.
Au moment où ces continents se mettent en place, on a une diminution de la t° moyenne des océans à cause
de la complexification de la circulation des
océans.

A cause de ça, dans les régions les plus


froides, on va commencer à voir apparaître
des glaciers en Antarctique. La calotte
antarctique se met en place au milieu du
Miocène (il y a qqes dizaines de million
d’années). Dernière étape, le groenland il y a
2-3 millions d’années.

3 grands phénomènes qui ont fait changer le


climat très fortement :

● L’apparition des végétaux


● Développement de cette glace de
banquise qui a empêché PS et qui a fait que
les t° ont fortement diminué (pcq i y a eu des changements radicaux dans la balance de dioxyde de carbone)
● Ensuite : Diminution de t° liée au chgt de position des continents

Ces trois éléments sont des éléments sur des gdes échelles de temps qui expliquent déjà une grosse partie des
changements du climat avec des contrastes de t° bcp plus forts que ceux qu’on connaît depuis les deux derniers
millions d’années.

Et justement, on arrive au
quaternaire (les deux derniers
millions d’années) : qu’est-ce
qu’on voit ?
On va dans les carottes de
glace (à partir de la glace, on
va reconstituer les t° dans
atmosphère) : on voit une
alternance de périodes +
froides et de périodes +
chaudes. Et ça ne s’est pas tjs
produit de la même façon.
Dans le dernier million
d’année, les fluctuations ont
duré plus lgts. Entre 2 000 000
et 1 000 000 d’années, c’était
plus serré. Ce sont d’autres
variables qui vont jouer. On a
mis en place des cycles plus
froids et plus chauds, qu’on
appelle des cycles glaciaires
et interglaciaires qui sont liés
à des processus qui sont
différents des processus qui ont joué à des échelles de temps plus grandes. Essentiellement des processus qui sont
liés à des fluctuations de la constante solaire et de la façon dont la Terre a réagi à ces fluctuations. Cela ne signifie
pas que ces petites fluctuations n’ont pas existé avant mais les archives ne sont pas suffisamment complètes que pour
les mettre en évidence avant. Donc, il y a eu depuis deux millions d’années cette alternance de périodes froides et de
périodes chaudes et la fréquence était plus élevée il y a un million d’années. Et donc, le rythme auquel ces chgts se
sont effectués a changé.

On peut aussi utiliser des archives qui reconstituent les t° de l’air sur une période qui remonte à 500 millions d’années
jusqu’à aujourd’hui. On voit bien qu’à partir de 60 millions d’années (au moment où les continents se sont mis à leur
place actuelle), cette t° a diminué régulièrement. Attention aux échelles qui sont différentes.
Donc, globalement, une tendance à la diminution mais avec des périodes plus froides, plus chaudes, plus froides, plus
chaudes… Nous sommes actuellement depuis les derniers 10 000 ans dans une période où la t° est relativement stable
(période qu’on appelle l’holocène). Et, ce qui est important à retenir, ce sont les raisons différentes pour lesquelles on
a eu ces évolutions de t° : ca monte, ça descend, les glaciaires et les interglaciaires, t° très chaudes au début, puis
apparition de la vie, donc baisse de la t° mais ça fluctue bcp avec l’état de la banquise, puis on les continents qui se
déplacent avec l’effet de la circulation océanique actuelle qui se met en place et puis on a ces fluctuations régulières
qui elles, sont des variations de la constante solaire liées au bug de la mécanique céleste (dont on parlera plus tard).
= Aperçu complet de ces variations naturelles qui se sont produites à différentes échelles de temps pour différentes
raisons. Et celles qui vont varier les climats glacières-inter-glacières aujourd’hui apparaissent bien aujourd’hui pcq les
autres se sont calmés aux autres échelles de temps.

On va s’intéresser à une période plus récente pcq c’est celle qui va nous mener à la période anthropique où l’on va
voir en quoi nous changeons les choses. Que nous apprennent ces archives que l’on va chercher dans la glace ces
deux derniers millions d’années ? Ce sont les seules archives qui nous permettent de reconstituer ce qui s’est passé
avec la composition de l’atmosphère
et notamment avec les gaz à effet de
serre.

Il nous reste deux grandes calottes


glaciaires : une au pôle Sud :
l’Antarctique et l’autre en bordure du
pôle Nord : le Groenland (grande île
qui est occupée par 3000 M de glace).
Les points rouges = endroits où au prix
de très gros efforts on est allé
rechercher ces archives pour essayer
de reconstituer le climat du dernier
million d’années. Ca a été fait par des
équipes internationales. Ca coûte
presque 1 milliard d’euros pour faire
un carottage convenable. Et donc, ces
carottages, ces sondages profonds ont été faits au Groenland.
Film de 20 min. Se passe au groenland.
Normalement 4h de film. Coupures bizarres.
On a la substance. Fait par télévision danoise
au cours de projet de carottage Neem Eem
pour éemien, c’est période géologique il y a
130 000 ans. Période un peu plus chaude que
la nôtre, a précédé. On essaie de voir ce qui
s’est passé avec atmosphère naturellement
pour essayer de comprendre ce que nous
risquons de faire à présent.
On a recommencé plusieurs fois. Parce que
glaces les + anciennes sont le plus au fond. Il
leur arrive des malheurs entretemps.
Disparition. On perd l’information. Eu ce
problème à NorthGRIP. Ordre chamboulé
Raté leur coup 2x (à cause de plis, à cause de
fonte de glace) 3e fois eu des plis mais on pu
reconstituer ce qui se passait. 15 ans pour
obtenir des données.
Pt travailler que 2 mois pendant l’année. Donc on retourne pendant 4-5 ans chaque été.

Investigue glaces tout à fait au fond du groenland. 135 000 ans. Déménage tout ce qu’on avait mis en place au sondage
précédent. Emmène d’un endroit à un autre. Monte 300 km vers le nord. Glace s’écoule du centre vers les bords.
Eemien 3 à 5 degrés plus élevé qu’actuellement.
Chaque couche correspond à une année
particulière.

Pour amener matériel, dt utiliser C130 Arrête


jamais le moteur. Décharge quand avion atterrit
encore.
On reconstruit la base la première année.
Principe de igloo. Construit en forme de dôme.
Plus facile pour dégager la neige.

On fait une tranchée. 20 m de profondeur 60 m


de long.
Moins 27 degrés. Trou qu’on a formé se remplit
à nouveau. Dt recommencer. Dû travailler 24h/24
pendant short sunny season.

Met toit sur la tranchée. Murs en neige et toit en


bois.

Premier trou dans neige. Sur environ 100 m (tube pour pas que neige s’effrondre). On recommence l’année suivante.
Après, amène équipes qui vont travailler sur profondeurs, faut d’abord passer neige de surface la première année.
Carottier final très long. Formé d’un cylindre. A gauche tête avec couteaux qui coupent. Moteur de trouve au dessus.
Après, on remonte le tube.
Ressort au dessus. (doit bloquer le moteur dans le trou avec les ressorts pour ne pas faire tourner le câble au dessus)
Tout commandé de la surface.
Carotte est stockée. On fore dans du liquide. Pq? Glace pt se déformer à cause de son poids. On met dans trou de
sondage un liquide supérieur à densité de glace car pendant hiver empêche le trou de se reformer. Pt redémarrer là
où foré l’année d’après.
Avant, densifiant utilisé était CFC (polluant) mais mtnt c’est huile de noix de coco.

Traitement des carottes se fait sur


place. On fait des découpes de la
glace puis stocke. Mesure par tout sur
place. Stocke dans caisses
renvoyées en Europe.

Avant de travailler sur ice core, on le


stocke, à l’abri de la lumière. Pq? Une
fois que pression trop forte, bulles
peuvent plus être à l’état de bulle.
Gaz disparaissent, rentrent dans
glace. Fragilise structure de la glace.
Quand remonte à surface, bulles
veulent ressortir. Si lampe de poche
sur glace, qté d’énergie ft exploser
glace en 1000 morceaux. On allonge
pendant 15 jours et après on peut
commencer à travailler. Sinon,
catastrophe.

On met électrodes sur glace. Mesure


courant. Eruption volcanique enregistré dans glace. Très utile pour dater la glace.
On polit surface de la glace avec couteau. On le passe sous laser pour faire apparaître couches hiver été. Moyen pour
repérer les années. 24h/24

Dans container, mesure la chimie de la glace (les impuretés renseignement sur l’environnement). On fait fondre, suce
eau pour mesurer ce qui se trouve dans l’eau. On aspire le composé en continu. Méthane, sel, ammonia, soufre,
calcium, oxygène (lien avec t°),…

Système optique permet de faire ressortir. Renseigne sur façon dont glace se déplace (important pour datation)

Glace renvoyée par avion dans différents pays.


Avion sur skis. Avions militaires.

1er trip de la saison plus risqué. Tout est gelé. Moins 26 degrés. Il faut tout redémarrer. Eau, énergie, abri = essentiels.
Générateur fournit énergie. Drapeau pendant qu’on utilise toilettes.
Pdt hiver, murs se rapprochent. Il faut tout remettre en place.
Qd recommence à creuser, doit retirer tous les déchets d’abord. Prend 5 jours pour nettoyer. 1/4 de tonne à enlever.
Après scientifiques arrivent.

Quand avion atterrit, repartent avec matériel. Parfois, problèmes au décollage. Consomme bcp de fuel. Faut décoller
à temps, avant intempéries.
Missiles aident à décoller. —> pas mal d’aléas

Vidéo sur UN carottage = 4-5 ans. On vient d’obtenir fonds pour le faire en Antarctique. Vt remonter à 1,5 million
d’années. Ici, remonté à 800 000 ans.

(Truc : regarder dias sur UV pour fois prochaine. Prochaine fois, on commence avec questions sur séance d’avant.)

Question sur delta C13 : compare rapport dans échantillon à un standard qu’on connaît bien. C’est pour cela que peut
tomber dans négatif. Si très appauvri et plus faible que le standard.
Mesures faites sur les roches. Raisonnement que l’on fait fait que delta devient très négatif, algues pas de PS mais ne
sont pas responsables des changements. Raison c’est lié au fait que grille des continents se forme bcp d’activité
volcanique, bcp de particules dans atmosphère qui bloquent le rayonnement solaire, etc. Mécanismes géologiques de
grande envergure. Algues sont juste un indicateur!

Cours du 05/03/2020 (2e cours de M. Tison) OK


Rappel
Nous avons la fois passée établi le plan des 3 séances. Je vous ai donné une explication brève de comment fonctionne
le système-terre puisque c’est la base pour comprendre ce qui a trait au fonctionnement climatique. Puis, je vous
rappelle que nous avons insisté sur le contraste entre la notion de météorologie et la notion de climat. Essentiellement
un contraste sur la période de temps considérée, le climat étant toujours concerné par plusieurs décennies pour pouvoir
éventuellement mettre en évidence des tendances. Puis je vous rappelle qu'on a fait un tour d’horizon du bilan
énergétique de la terre puisque c’est le moteur principal éventuellement de son système météorologique qui va sur le
long terme donner le système climatique. Je vous avais montré qu’il y a une discordance au niveau de la quantité
d’énergie reçue au niveau de l’Equateur (des tropiques, disons) et des pôles et que donc, si rien ne se passait, on
risquait de voir monter la température à l’Equateur et éventuellement diminuer la température aux pôles. Nous avions
vu dans un temps suivant très brièvement qu’à la fois la circulation de l’atmosphère et la circulation de l’océan
permettent de transférer l’excès d’énergie que nous emmagasinons au niveau des zones intertropicales vers les pôles.

Equipé de ça, ce que j’avais fait dans un 2e chapitre, c’était de vous montrer quels étaient les différentes archives du
climat que l’on pouvait analyser (j’avais fait un espèce de bilan). J’avais passé en revue les différentes archives et les
différentes périodes sur lesquelles elles peuvent travailler. Les différentes résolutions qu'elles ont et les différentes
informations qu’elles apportent. Et puis, nous avions aussi épluché l’idée que les changements du climat ne sont pas
quelque chose de neuf. Pas quelque chose qui est lié à l’homme particulièrement. Cela a toujours existé. J’avais passé
un peu de temps aussi à montrer différents exemples de ces paléoclimats1, de ces changements du climat à de longues
échelles de temps...bien avant que l’homme n’ait une quelconque influence sur le milieu. Donc pour bien illustrer que
tout le monde est parfaitement conscient que ces changements du climat ont toujours existé. MAIS avec des moteurs
différents et avec des périodes différentes.

1
Le terme « paléoclimat » désigne un climat ancien, par opposition au climat actuel, sans référence à une échelle de temps. Climat
des temps préhistoriques reconstitué et étudié à partir des phénomènes géologiques et biologiques (d'apr. Villen. 1974, Hydrol.
1978).
Je m’étais arrêté au point 2.3
”spécificité des archives
cryosphériques”. Pour rappel, j’ai
montré un petit film qui montre
comment on procède pour récolter
dans les régions de grandes calottes
glaciaires (où les glaces sont très
épaisses, de plusieurs milliers de
mètres), où on va récolter ces
fameuses carottes de glace, qui sont
UNE de ces archives dont je vous
avais dit qu’elle est particulièrement
fondamentale parce qu’elle permet
notamment de reconstituer la
composition de l’atmosphère, c’est-
à-dire quel était l’état des GES dans
notre atmosphère pendant toutes ces
périodes de près d’un million
d’années, bien avant que l’homme
n’influence le climat. Le but étant de
regarder la relation de ces GES aux
températures que l'on peut aussi par ailleurs reconstituer. Et donc d’essayer de voir ce qui s’est passé dans le passé
de façon à mieux comprendre ce qui pourrait se passer sous l’effet d’un réchauffement anthropique qui vient se mettre
en surcharge par rapport au système.

(Explique que va se renseigner pour pouvoir transmettre la vidéo montrée la semaine avant.)

Comme je vous ai expliqué comment on va chercher les échantillons de glace, je vais essayer maintenant de vous
faire comprendre la richesse de ces archives et comment on les insère dans la vision globale. D’abord, pour
commencer, pour vous montrer à quoi ça ressemble, si je prends une carotte de glace et je fais des fines tranches
dedans. C’est ce que les géologues font dans les roches - ils font ce que l’on appelle de la “mince”(?) Ils prennent des
tranches de 600 microns donc 0,6 mm à peu près. On utilise un dispositif typique que je n’ai pas le temps de détailler
ici mais on place ces petites tranches entre deux polariseurs, comme on les appelle, et on envoie une lumière par en-
dessous et puis, en regardant par dessus, les propriétés de ces cristaux de glace et leur orientation dans l’espace font
qu’ils vont “trafiquer” la lumière que vous envoyez par en dessous. Ils vont sélectionner certaines longueurs d’onde et
donc cela va faire que chacun des
cristaux va apparaître avec une
couleur différente. Le fait que vous
voyez toutes ces taches de couleur,
c’est chaque fois un cristal de glace qui
est orienté différemment dans l’espace
et qui donc, en fonction de son
orientation, va dévier/modifier le
rayonnement lumineux qui vient par en
dessous. Rayon de lumière blanche
qui est traduit en une série de
colorations.

Ce que je veux surtout vous montrer,


c’est ce qui se passe avec la profondeur. La première lame, elle est à peu près à 100 m de profondeur. La 2e est à
1000 m de profondeur. La 3e est à 3000 m de profondeur. Vous voyez qu’il y a des changements. D’abord, le plus
évident c’est la taille. Vous voyez que ces cristaux avec l’âge grossissent. La température devient de moins en moins
froide au fur et à mesure que l’on descend et que l’on se rapproche du centre de la terre. Il y a ce que l'on appelle une
recristallisation qui fait augmenter la taille des cristaux. Vous voyez aussi que au début, près de la surface, on voit
très clairement entre les cristaux, ou bien même dans les cristaux, ces espèces de petites billes de couleur, un petit
peu translucides. Ca, ce sont ces fameuses bulles d’air. Il faut bien imaginer que cette glace s’est formée comme de
la neige qui a sédimenté à la surface de la calotte glaciaire et puis, entre ces cristaux de neige on a emmagasiné des
petites parcelles d’atmosphère. Au départ, cette atmosphère a continué à s’échanger (on va voir que cela pose un petit
problème d’ailleurs). Au bout d'un moment, le poids de la neige par dessus a fait que la neige se transforme en glace
et ces bulles d’air sont alors enfermées dans la glace et renferment les caractéristiques de l’atmosphère du passé,
notamment l’air que respiraient Jules César, l’homme de Cromagnon,... n’importe qui qui vivait pendant le dernier
million d’années. Ca, c’est une 1re caractéristique.

Vous voyez qu’au fur et à mesure que les cristaux grandissent, à 1000m, on en a beaucoup moins. Que se passe-t-il?
La pression devient tellement importante que cet air, cet oxygène, cet azote,...qui sont à l’état de bulles n’arrivent plus
à subsister à l’état de bulle. Les pressions deviennent tellement fortes que ces molécules de gaz vont s’insérer dans
le cristal de glace. Ils vont venir se mettre dans des cages à l’intérieur. Et donc les bulles disparaissent. Il y a de moins
en moins de ces...qui sont visibles. On voit juste des petits points. Ce sont les endroits où les gaz se sont insérés dans
la structure du cristal (dans des cages faites de molécules d’eau). C’est ce qui fait que quand on les ramène à la
pression normale à la surface, les carottes sont dépressurisées très fortement et donc très fragiles parce que dès qu’on
leur donne un tout petit peu d’énergie, par exemple en mettant une lumière dessus, les gaz vont avoir tendance à
vouloir ressortir de la glace, reformer des bulles,...une glace fragile va vous exploser à la figure si vous ne faites pas
attention. Voilà à quoi ça ressemble.

Qu’est-ce qu’on fait ? Là-dedans, dans cette glace, on va faire des mesures. Toute une série de choses, très différentes
les unes des autres. Qui vont être ce que l’on appelle les proxys donc des approximations qui vont me permettre de
reconstituer des variables de l’environnement de l’époque à laquelle cette glace s’est formée. Et donc à votre gauche,
on vous donne toutes ces variables de l’environnement et à votre droite à partir de quoi on les extrait. Il y a “...” parce
qu’il y en a des dizaines d’autres. Je ne vais pas passer mon temps (ça prendrait 60 heures) à passer au travers de
chacune de ces variables. Je vais vous en expliquer 2 principales qui sont celles du dessus (les plus essentielles pour
votre compréhension globale de ces variations du climat), à savoir :

- comment on va reconstituer, dans cette glace, les températures de l’air


- comment on va reconstituer, à partir de ces bulles d’air, la composition de l’atmosphère

Vous voyez qu’il y a plein d’autres choses que l’on peut reconstituer. On peut, par exemple, en mesurant la conductivité
de la glace, en envoyant du courant dedans, voir quelle intensité de courant ressort et mesurer la conductivité
électrique. La présence d’une trace d’éruption volcanique, par exemple, va fortement augmenter cette conductivité
électrique en augmentant les...présents dans la glace. Les sulfates aussi sont des substances qui sont évacuées par
les volcans et que vous allez retrouver éventuellement dans cette glace au niveau des éruptions volcaniques. Des
choses un peu plus ésotériques : le Béryllium 10 (Be 10), un atome particulier que l’on mesure dans la neige et dont
la concentration va nous permettre de reconstituer combien de neige tombait par an.

Toutes ces informations-là, on doit les connaître si on veut pouvoir modéliser de manière efficace le comportement de
ces calottes glaciaires en réaction à un réchauffement du climat. Je ne vais pas rentrer dans les détails. C’est juste
pour vous montrer la richesse de ce que l’on peut retirer de ces informations.

La 1re des choses que je vais développer, c’est la reconstitution de la température, à partir de la glace.
On parle de la température qu’il faisait au moment où la neige qui a formé cette glace s’est déposée à la surface de la
calotte.
Pour commencer, on va faire des rappels de chimie de base. On va travailler sur ce que l’on appelle les isotopes.
Je vous rappelle que pour
n’importe quel matériau de base
à la surface de la terre,
n'importe quel élément est
caractérisé par le nombre de
protons (charges positives) qui
sont dans son noyau et par le
nombre d’électrons qui
tournent autour de son noyau.
Je vous rappelle aussi que l’on
caractérise chaque élément par
sa masse, qui est la somme des
masses de ces fameuses
charges positives dans son
noyau et d’autres particules qui
sont les neutrons, qui n’ont pas
de charge mais qui ont aussi
une certaine masse. Les
électrons sont considérés
comme ayant une masse
négligeable dans cette
approximation.

Et donc n’importe quel élément est caractérisé par le nombre de protons qu’il y a dans son noyau. C’est ce qui va lui
donner son nom, l’oxygène par exemple en aura 8. Et un nombre de neutrons qui sont à l’intérieur de son noyau. C’est
là que les choses vont se compliquer un peu. Si je prends l’exemple de l’atome d’oxygène, c’est lui qui m’intéresse
parce que je vais m’intéresser à la molécule d’eau (H2O). En fait, il y a plusieurs versions de cet atome. Elles sont
listées sur le schéma. C’est toujours de l’oxygène parce qu’il a toujours le même nombre de protons. C’est ce qui lui
donne son nom. Mais vous voyez qu’à l’intérieur de son noyau j’ai toujours le même nombre de protons mais le nombre
de neutrons va pouvoir changer. Donc il y a différentes versions de l’atome d’oxygène en fonction du nombre de
neutrons dans son noyau. Et donc de sa masse puisque on ajoute de la masse quand il y a plus de neutrons.

Globalement, le fait que ces différentes versions existent (ce que l’on appelle les différents nuclides2 du même
élément) quand c’est toujours le même nombre de protons, c’est-à-dire quand c’est toujours de l’oxygène, ces nuclides
portent le nom d’isotope. Quand vous avez une série d’atomes qui ont tous le même nombre de protons, ils sont tous
le même élément mais il y a différentes versions, certaines plus lourdes et d’autres plus légères.

Il y a aussi des versions qui sont stables, càd ce sont des atomes qui ne vont pas bouger dans le temps, ils vont rester
tels quels. Ils seront toujours là. Ce sera toujours de l’oxygène 16, 17,... Par contre, ceux qui sont sur les bords (je n’en
parlerai pas aujourd’hui mais c’est pour compléter mon tableau) Ceux où il y a trop de neutrons ou ceux où il n’y a pas
assez de neutrons ne sont pas du tout stables. Et c’est eux qui vont se désintégrer au cours du temps. Ce n’est pas
quelque chose que je vais utiliser ici. Intéressant pour la datation. C’est en regardant combien de ces éléments
instables disparaissent au cours du temps pour donner naissance à un autre élément (qui peut être stable ou instable)
que l’on peut le faire. Ca ne se fait pas n’importe comment. Grâce à cette décroissance, on peut reconstituer le temps
qui s’est écoulé depuis le moment où la dégradation s’est produite. C’est comme cela que l’on date. Mais ce n’est pas
le sujet du jour.

2
On appelle nuclides, ou espèces nucléaires, l'ensemble des noyaux de tous les isotopes des éléments chimiques. Les isotopes d'un
élément étant caractérisés par le même nombre atomique Z et possédant un nombre variable N de neutrons, tels que Z + N = A
(masse atomique), un nuclide est parfaitement déterminé par la donnée de deux nombres Z et A, dont le premier détermine l'espèce
chimique (et par conséquent la case occupée dans le tableau de Mendeleïev) et dont le second caractérise l'isotope particulier de
l'élément considéré. Dans le cas du carbone, par exemple, la notation 126C indique que Z = 6 et qu'il s'agit de l'isotope à 12 nucléons.
Le nuclide le plus simple est 11H, noyau d'hydrogène à 1 proton. On connaît actuellement 111 éléments chimiques, dont chacun
possède plusieurs isotopes, stables ou radioactifs, totalisant environ un millier de nuclides. Il en existe probablement d'autres.
Je vais m’intéresser à ceux qui sont au milieu sur le slide, ces fameux isotopes stables (donc pas ceux que l’on utilise
pour dater). J’explique ceci pour que vous compreniez la notion de delta vue la fois passée. Il y a différentes façons de
quantifier les différents isotopes d’un même élément (combien il y a d’O17, O18,...). On peut faire cela suivant
différentes unités. On peut parler
soit :
1/ d’abondance isotopique :
c’est le plus simple - je mesure
le nombre d’atomes de l’isotope
considéré et je compare ça au
nombre total d’isotopes de
l’élément (O16 + O17 + O18)
donc c’est le nombre d’un
isotope comparé à tous les
isotopes du même élément.

Si vous regardez cela pour


l’oxygène, vous voyez que le
plus abondant (99,759%) c’est
O16. C’est la version “standard”.
C’est celui qui est le plus
abondant à la surface de la terre.
On voit aussi O17 (0,037%).
Celui qui va particulièrement
nous intéresser, c’est l’O18, un
peu plus abondant que le
précédent même si ce n’est que
0,2% du total. Avec les techniques actuelles, on peut vraiment bien les mesurer et les mettre en… Ceci est
donc une 1re façon d’exprimer combien on a de l’un ou de l’autre.

2/ Rapport d’abondance isotopique (trafiquage de la première méthode) On mesure le nombre d’atomes d’un isotope
par rapport à l’autre. L’autre étant le dominant. On va ramener chacun des mineurs au dominant. On fait le rapport de
deux abondances isotopiques. Par exemple, on mesurera la quantité d’atomes d’O18 par rapport à la quantité d’atomes
d’O16. On va avoir un nombre très petit mais c’est une autre façon de l’exprimer. Autre exemple dont on a parlé la fois
passée : on peut parler de l’atome C13 par rapport à l’atome C12 qui est plus abondant. On vous dit que c’est 1 pour
98. La raison pour laquelle le rapport d’abondance est intéressant c’est que c’est la valeur moyenne à la surface de la
terre, avec la variabilité. Ce qui est intéressant (on en avait parlé en lien avec la photosynthèse), c’est que la
biologie/tous les éléments biologiques qui comptent fixer ce carbone pour faire de la matière organique vont avoir
énormément de préférence pour le C12 par rapport au C13 et donc si je prends une matière organique, je vais avoir
quelque chose qui va être beaucoup plus petit que cette valeur moyenne puisque j’aurai beaucoup plus de C12 que
de C13.

3/ (Vu la fois passée pour le delta C13 mais c’est valable pour n’importe quel type d’isotope) Abondance isotopique
relative Pour des raisons techniques, au niveau des mesures, on va préférer utiliser cette forme transformée. Ca
semble compliqué mais c’est simple. Pourquoi avoir introduit cette notion-là? Techniquement, c’est plus facile. Plutôt
que de mesurer exactement le nombre d’atomes d’un type et celui d’un autre type, c’est plus facile de mesurer dans
un échantillon la proportion du lourd par rapport au léger en comparant à un standard pour lequel on connaît très bien
le rapport. Techniquement, c’est plus facile à réaliser avec la machine. Du coup, pour avoir un très haut niveau de
précision, on a défini cette unité delta, qui est finalement dérivée des précédentes. Simplement, on prend le rapport
d’O18 sur O16 d’un échantillon, celui que je veux connaître, c’est le rapport d’abondance isotopique de mon échantillon
et je lui retire un rapport très bien connu, ce qu’on appelle un standard (que l’on mesure une fois pour toutes, qui est
vraiment bien déterminé). Je les compare dans une machine. C’est comme cela que l’on travaille. Ensuite, on exprime
cette différence comme une valeur relative à la valeur du standard (je divise par la valeur de celui-ci). Comme c’est un
chiffre assez petit, je multiplie par 1000. Il s’agit vraiment d’un “traficotage” mais il résulte de la façon dont on le mesure.
On compare l’échantillon à un standard et on exprime la différence comme une différence relative. Cela s’exprime en
“pour 1000” parce que l’on multiplie pour avoir un chiffre qui soit manipulable.

Qu’utilise-t-on comme standard? Quelle substance je vais utiliser comme référence dans mon calcul?
Typiquement pour l’hydrogène et l’oxygène qui sont tous les deux des atomes qu’il y a dans l’eau, on va utiliser l’eau
qui est la plus abondante à la surface de la terre comme référence, à savoir ce que l’on appelle l’eau océanique
standard. On va aller quelque part en plein milieu du Pacifique, là où il y a peu de phénomènes d’évaporation, très
peu de gel d’eau, etc. où on a une masse d’eau qui est la plus homogène possible. On prend l’échantillon. Dans celui-
ci, on mesure précisément le rapport et puis on le stocke précieusement à Vienne, dans une petite fiole quelque part
parce que c’est “la” référence mondiale. Après, on va en fabriquer de clones. Comme ça, on peut les envoyer dans les
labos. C’est pour ça qu’on appelle cela le “Vienna Standard Mean Ocean Water”. Là-dedans, on connaîtra
parfaitement la valeur du rapport O18/O16 ou la valeur du rapport d’abondance isotopique.

Pour d’autres éléments, on va prendre d’autres standards. Pour le carbone, on va prendre quelque chose qui en
contient, du carbonate de calcium. Ce sera un fossile qui s’appelle la belemnite, par exemple. Pour l’azote, on prendra
l’azote de l’air.

Ce qui va m’intéresser, ce sont ces deux-ci comme c’est la molécule d’eau qui m’intéresse, c’est de la glace que je
vais mesurer et avec laquelle je vais travailler.

Première chose à retenir :


Finalement, si je prends une eau de mer “normale”, son delta va être très proche de 0. Parce que mon échantillon est
la même chose que le standard. Si j’enlève la même chose de la même chose j’obtiens 0 donc le delta en “pour 1000”
d’une eau de mer va toujours être très proche de 0. Sauf cas très particulier de la mer Rouge ou la mer d’Aral, où
l’évaporation est très forte parce que ça change les proportions. On n’aura plus cette valeur proche de 0. Pour la grande
majorité des océans, c’est le cas.

Pourquoi je vous parle de ça? Parce que l’on va maintenant essayer d’utiliser ce fait qu’il existe différents types
d’isotopes dans la nature pour en tirer des informations. Que se passe-t-il dans la nature? On a ce qu’on appelle le
fractionnement isotopique. Ca veut juste dire que ça se base sur ce principe que si je prends une molécule cette
fois-ci (donc quelque chose qui est formé d’atomes) - ne faites pas attention au CO2, regardez juste H2O. La molécule
d’eau, elle pourrait être formée à la surface de la terre soit d’hydrogène normal H1 et oxygène normal. La masse de
cette molécule d’eau ce sera 18. Mais on trouvera aussi dans la nature d’autres versions de cette molécule d’eau. Il va
y avoir la version éventuellement où on aura de l’hydrogène “lourd” H2 (forme plus lourde de l’hydrogène). Masse sera
plus élevée (16+4 = 20). Et j'aurai même des cas encore plus rares parce que plus on combine des isotopes
exceptionnels, plus c’est un cas rare. On aura par exemples des molécules d’eau où il y aura 2 atomes lourds
d’hydrogène et 1 atome lourd d’oxygène. Ca fait une masse de 22.
Le principe de ça est de
vous montrer que
différentes molécules
d’eau à la surface de la
terre vont avoir différentes
masses. Par conséquent
(et c’est intuitivement
compréhensible) elles
vont faire la même chose
dans les réactions
chimiques (de l’eau, c'est
toujours de l’eau donc elle
va toujours s’évaporer, se
combiner avec des
sulfates pour faire de
l’acide sulfurique) donc
toutes les réactions
physiques, chimiques ou
biologiques vont être les
mêmes parce que c’est
toujours la même
molécule mais comme
différentes molécules ont
différentes masses, ces réactions elles vont les faire à des vitesses différentes et dans des proportions différentes. Du
fait qu’elles n’ont pas la même masse, si je prends la réaction la plus simple à savoir l’évaporation de l’eau, ce sera
plus facile pour moi d’évaporer des molécules légères. Elles passeront plus facilement à l’état de vapeur que des
molécules plus lourdes. Voilà un exemple très simple.

Donc vous voyez ce sont les mêmes réactions physiques, chimiques, biologiques. L’intérêt c’est que ce sont les mêmes
formules chimiques mais avec des vitesses et des proportions différentes. Donc il y a un fractionnement isotopique lié
à différents processus. On change la proportion des lourds et des légers dans les molécules qui sont importantes. C’est
intéressant parce que l’on peut étudier ce fractionnement isotopique dans des expériences (qu’est-ce qui se passe
entre l’eau et la vapeur au niveau de la proportion des lourds et des légers?) Et puis, on a une série de règles. On sait
ce qui se passe et puis on va dans la nature. On mesure différents échantillons d’eau, de pluie, de neige, etc. Et on
regarde leur proportion d’isotopes lourds et légers. On observe un fractionnement isotopique et donc puisqu’on a fait
toute une série d’études sur quels processus fonctionnent comment, on va pouvoir interpréter ce que l’on voit dans la
nature en termes de processus qui ont donné naissance à ce que j’ai échantillonné dans la nature. Pour faire cela, on
va exploiter ces propriétés de fractionnement isotopique dans les phénomènes naturels pour reconstituer les
processus. En gros, c’est toujours comme ça que ça va fonctionner.

Juste pour vous montrer un exemple pour l’eau, voilà 3 molécules d’eau différentes. La plus simple, 2 hydrogène légers
et 1 oxygène léger. Un peu plus compliqué, 2 hydrogène lourds et 1 oxygène léger. Etc. Toutes les combinaisons sont
possibles. Ca c’est la plus fréquente.

Si on regarde quelque chose que l’on connaît bien, le point d’ébullition à pression atmosphérique, 100 °C (l'eau bout à
100 °C) si je mets de l’eau qui n’est formée d’eau légère, elle va bouillir exactement à 100 °C. Si je ne prends que de
l’eau hyper lourde (du moins lourde en hydrogène, pas oxygène), elle va bouillir à 101,42 °C. Et l’autre version va
bouillir à 100,14 ° C. Vous voyez que en fonction de la molécule d’eau que je considère, je vais avoir différents types
de température d’ébullition.

Celle qui va m'intéresser est celle du dessous. Si je regarde maintenant la “pression vapeur saturante“ à 100°C, à
savoir la quantité maximale de vapeur d’eau que je peux mettre dans l’atmosphère. Ici, on vous l’exprime à 100°C.
Vous voyez que ce sera 760 mm de mercure, ce qui est proportionnel à la quantité de vapeur que vous allez pouvoir
mettre dans l’air au maximum mais vous voyez que si j’ai une molécule plus lourde, je vais pouvoir en mettre moins.
J’en ai moins que le cas classique. Autrement dit, comme je vous disais tout à l’heure, si j’évapore de l’eau, dans la
vapeur, je vais avoir tendance à mettre moins de molécules lourdes que de molécules légères (c’est assez intuitif). La
phase la plus mobile va s’enrichir dans la molécule la plus légère.

Donc si vous regardez bien la formule que je vous ai montré sur le slide précédent, le delta de la vapeur sera
typiquement inférieur à zéro. Pourquoi? Dans cette équation-ci, si je prends un échantillon de vapeur qui provient, par
exemple, j’ai pris de l’eau de mer que j'ai évaporé, je viens de vous dire qu’il va s’enrichir en éléments légers par rapport
aux éléments lourds donc ce chiffre-ci va être plus petit que l’eau que l’on a utilisé au départ. Donc si j’enlève un chiffre
plus grand d’un chiffre plus petit, le chiffre va devenir négatif. Ca veut dire que mon delta sera négatif.

Maintenant que vous avez compris cela, il faut maintenant comprendre comment on va appliquer cela en milieu naturel.
Et on va faire une petite animation qui va observer ce qui se passe dans le cycle de l’eau. Avec ces atomes. Je vais
typiquement me placer sur un
méridien. Je vais aller des tropiques
vers les pôles. Les tropiques sont là où
excès de chaleur. Je vais y évaporer
beaucoup plus d’eau et donc celle-ci va
se condenser et former des nuages. Je
vous ai montré ça très brièvement. Là,
je prends un cas simple. Je pars de la
source et je vais jusqu’aux pôles avec
mon nuage.

Que se passe-t-il? Evidemment, quand


je vais des tropiques vers les pôles, la
température de l’air devient de + en +
froide. Ce qui se passe en fait et c’est
une particularité du fractionnement
isotopique : c’est que + il fait froid, + le
processus est efficace. Donc plus il fait
froid, plus je vais séparer efficacement
les légers des lourds dans la vapeur.

Et donc je pars avec mon eau de l’océan tropical, qui est l'océan moyen (0 pour 1000 delta - c’est le standard donc
son delta vaut 0), et je l’évapore. Donc je forme de la vapeur dans un nuage au niveau des tropiques. Comme je vous
l’ai dit, la vapeur va s’appauvrir en éléments lourds. Il y aura plus d’isotopes légers que d’isotopes lourds dans cette
vapeur. Donc le delta de la vapeur va être par ex. à -10. (je prends un exemple pour illustrer mon propos).

Donc la vapeur dans mon nuage est à -10. La vapeur condense, elle forme des gouttes. Qd vous vivez en Afrique,
tous les après-midis, vous vous ramassez la drache nationale parce que la convection est tellement efficace que cette
vapeur d’eau se transforme en gouttelettes d’eau qui se groupent ensemble et puis qui tombent sous l’effet de la
gravité. Donc vous reprenez de la vapeur et vous reformez de l’eau. Ca veut dire que vous faites exactement l’inverse
de ce que vous avez fait ici.

Donc les 1res pluies qui vont tomber ont un delta qui va être très proche de l’eau comme on fait exactement la
manipulation inverse. On a évaporé de l’eau, on l’a appauvrie en éléments lourds, on reprend cette vapeur, on la
recondense et on renvoie de la pluie. On a fait exactement l’inverse donc le signal qui sort il est le même que celui qui
monte.

Hypothèse que l’on formule (qui se vérifie dans la plupart des cas) : une fois que nuage est principalement formé aux
Tropiques, il y a très peu de modifications de ce nuage. Càd qu’il évolue en système fermé. Ce n’est pas tout à fait vrai
bien sûr. On peut considérer en première approximation qu’il évolue en système fermé.
Donc on ne lui injecte plus jamais rien. Par contre, il va se refroidir de plus en plus. Donc il va condenser de + en + la
vapeur (puisque la vapeur se condense d’autant plus qu’il fait plus froid). Donc il va pleuvoir de plus en plus. Que va-
t-il se passer? Dans le 1er cas, vous avez renvoyé isotopes lourds sous forme de pluie. La vapeur qui se trouve dans
votre nuage a perdu des isotopes lourds que vous avez renvoyé dans la pluie. Donc cette vapeur-là va devenir encore
plus légère puisque dans le stock on a enlevé des lourds que l’on a renvoyé comme pluie donc ce qui reste est encore
+ léger qu’avant. (Si le système est fermé et on ne réinjecte plus rien dedans.)

Mais donc la pluie qui va se former à partir de cette vapeur va être plus lourde que la vapeur (elle va s’enrichir) mais
elle va être a moins lourde que dans pluie précédente (parce qu’on a perdu des isotopes lourds dans la phase
précédente).Le stock de vapeur devient de plus en plus léger et donc la pluie qui résulte de cette vapeur au cours du
temps va devenir aussi de + en + légère. Et donc plus il fait froid, plus mon nuage va vers les pôles, plus il va perdre
des isotopes lourds sous forme de pluie et plus la vapeur va devenir négative et donc plus la pluie qui résulte de cette
vapeur va devenir négative, par rapport à la pluie initiale.

J’arrive au pôle nord. Là, la neige qui tombe a une valeur très négative en delta parce que tous les isotopes lourds sont
déjà disparus sur le trajet. Il reste essentiellement des isotopes légers. On a un O18/O16 très bas (beaucoup d’O16 et
très peu d’O18). Couche de neige se forme. Elle a un signal delta O18 de -22.95.

Conclusion
Donc ce qui se passe dans tout ce processus que je viens d’expliquer : il y a un épuisement progressif du nuage en
isotopes lourds.(Vous voyez qu’il est important de faire l’hypothèse qu’il n'est pas rechargé, à aucun moment.) Il
s’épuise en isotopes lourds et donc forcément les précipitations deviennent + en + légères. C’est ce qu’on appelle le «
rain out » ou le “pleut dehors”. On “pleut dehors” les isotopes lourds hors du nuage.

Il y a donc 2 phénomènes qui jouent : le fait que j’enlève constamment des isotopes lourds (donc ça devient de + en +
léger) et le fait que comme température devient de + en + basse, ce processus est de + en + efficace. Il y a un double
processus qui renforce ce système.

Je vais faire exactement la même chose en hiver. Donc j’imagine que le système continue à fonctionner pendant l’hiver,
chez nous. Aux tropiques, l’hiver ça ne change pas gd chose (il y a toujours bcp d’évaporation). Qu’est-ce qui va
changer par rapport à au-dessus? C’est que les températures à une latitude déterminée vont devenir de + en + froides
en hiver. Je fais exactement la même chose. Evidemment, comme il fait encore plus froid ici, on a un fractionnement
qui va être encore plus efficace ici que là. Au début, il n’y a pas de grand changement. C’est la même chose qu’au-
dessus. Par contre, dès que je vais commencer à monter un peu en altitude, il fait un peu plus froid donc le
fractionnement est + efficace. Donc au lieu d’avoir -15, je vais par exemple avoir -20 dans la vapeur puisque j’ai été
plus efficace en évacuant plus d’eau (la température influence en effet l’efficacité du processus). Ce qui tombe est
donc plus riche que la vapeur. C’est de l’eau, liquide, mais c’est évidemment appauvri par rapport à la figure précédente
et de manière plus importante qu’avant parce que la température est plus basse.

Comme vous l’avez compris, ce qui va se passer, c’est qu’en hiver, mon processus va être fortement augmenté en
efficacité. Et donc ma couche d’hiver, au lieu d’avoir -22/-23 ici, elle va avoir -25. Ca, c’est super avantageux parce
que ça veut dire que on va avoir un moyen de dater la glace. Ce que vous voyez, c’est que sur une année, vous avez
un été où les isotopes sont à - 22.9 et à -25 en hiver. Et puis, l’été suivant, on va remonter à -22.7 puis -25/-26 en hiver.
Saisonnièrement, je vais avoir un beau signal qui va monter, descendre, monter, descendre. Ca, ca va me permettre
à partir de la surface de compter les années. Et on peut remonter comme ça sur 40 000 ans si on a de la chance et si
on est courageux (avec une erreur de peut-être quelques dizaines d’années).
On peut donc dater mais ce n’est pas ce
qui m’intéresse ici. En plus de ça, il y a
une chose absolument superbe : si je me
balade un peu partout aujourd’hui à la
surface de l’Antarctique, près de la côte
antarctique, où les températures sont de
l’ordre de - 15, (on voit sur le slide delta
O18 de la neige qui y tombe et delta D
pour deutérium3 - c’est de l’hydrogène
lourd) et je prélève un échantillon de
neige. Si je vais alors jusqu’à l’intérieur de
l’Antarctique, je monte en altitude (donc il
faut plus froid donc le fractionnement est
plus efficace), je vais avoir une superbe
relation linéaire entre le delta et la
température qu’il faisait au moment où la
neige s’est formée. Ca veut dire que ma
glace enregistre la température qu’il
faisait au moment où elle s’est formée
sous forme d’un signal delta O18. Parce
que ce signal delta O18, comme je viens
de vous le montrer, dépend de l’historique de température du nuage qui a donné naissance à des précipitations. La
beauté de la chose c’est que c’est linéaire. On ne peut pas rêver de quelque chose de mieux pour en faire une
application climatique. Ce qu’il remarquer c’est que si vous allez au Groenland, la relation linéaire ne sera pas
exactement la même qu’en Antarctique. C’est normal, les trajectoires de masses d’air qui vont des tropiques au
Groenland ne sont pas les mêmes que celles qui vont des tropiques à l’Antarctique. Ca veut dire que si vous travaillez
sur une carotte de glace en Antarctique, vous allez choisir la droite de référence qui a été établie là-bas. Même chose
pour le Groenland.

3
Isotope de l'hydrogène, de symbole D, dit aussi hydrogène lourd. Le deutérium, découvert en 1931 par H. C. Urey, est un isotope
lourd et stable de l'hydrogène, dont l'atome comporte un noyau constitué d'un proton et d'un neutron, accompagné d'un unique
électron. Il se présente comme un corps gazeux, possédant les mêmes propriétés chimiques que l'hydrogène, mais deux fois plus
dense. On l'obtient par décomposition de l'eau lourde. Les océans terrestres renferment environ un atome de deutérium pour 10 000
atomes d'hydrogène. La détermination de l'abondance cosmique du deutérium revêt une importance extrême dans la cosmologie
moderne. En effet, le deutérium présent dans l'Univers est regardé comme un sous-produit des réactions nucléaires ayant engendré
l'hélium dans les toutes premières minutes après le big bang (nucléosynthèse primordiale). Le déclenchement d'une réaction entre
des noyaux de deutérium et des noyaux de tritium est à la base du fonctionnement des bombes thermonucléaires et des appareils
expérimentaux de fusion contrôlée.
Donc, qu’est-ce que vous faites maintenant si vous voulez reconstituer la température de votre carottage?
On base cette relation entre la température
qu’il fait et le signal delta O18 dans la glace.
On prend un échantillon dans notre
carottage. On l’envoie dans cette machine
sophistiquée qui s’appelle un spectromètre
de masse, qui va justement mesurer ce
delta, mesurer la proportion d’oxygène 18 et
oxygène 16. On va calculer delta en
comparant à un standard. Après, on a notre
delta qui sort de la machine. On le porte sur
la droite que je viens de vous montrer et on
en déduit la température qu’il faisait au
moment où cette couche de glace s’est
déposée à la surface de l’Antarctique.

C’est ça le principe du paléothermomètre.


Ca consiste à reconstituer la température qui
existait au moment où la glace s’est formée,
à partir de ce fractionnement isotopique de
l’oxygène 16 et de l’oxygène 18. Ca, c’est le
1er grand avantage. Ca veut dire que pour tout mon carottage, je vais pouvoir dire à tout moment quelle était la
température qu’il faisait au moment où la neige est tombée.

2e aspect intéressant de ces données cryosphériques => c’est le gaz, la composition de l’atmosphère.
Evidemment, ce qui va être intéressant, c’est de comparer les deux. Revoilà notre schéma et une photo d’une ancienne
assistante. On est occupés sur photo à faire une manip qui se fait toujours régulièrement au labo : on met cet échantillon
de glace dans un récipient, on le ferme hermétiquement. On le met avec des billes en métal dans le récipient. Et puis,
on évacue l’air du labo avec une pompe à vide parce qu’évidemment on ne veut pas mesurer la composition de l’air
du labo donc on fait le vide autour de notre échantillon de glace. Il est enfermé là et puis on le secoue vigoureusement.
Ca ne dure pas très longtemps (30, 40 secondes). En secouant cet appareil vigoureusement, les billes métalliques
viennent choquer la glace et la réduire en poussière. Les bulles qui se trouvaient à l’intérieur de la glace sont maintenant
au dessus de la poussière et sont enfermées dans la partie supérieure du récipient. Il suffit d’aller mettre ce récipient,
que l’on maintient à basse température, on le met sur une ligne et on l’envoie dans ce que l’on appelle un
chromatographe en phase gazeuse. C’est un nom très compliqué. C’est une machine qui va en fait prendre l’air qui
était dans les bulles, l’emporter et le faire passer dans une série de “colonnes” qui sont semi-poreuses. Ca va être fait
de telle manière que, à cause de la semi-porosité, certaines molécules de gaz passent plus vite que d’autres. Autrement
dit, vous faites une séparation des molécules les unes par rapport aux autres. Vous séparez l’oxygène, de l’argon, du
méthane, du CO2,… Et donc ils vont partir d’ici, passer dans ces colonnes, être séparés les uns par rapport aux autres
et puis arriver sur des détecteurs qui vont détecter comme des pics différents. Vous voyez sur l’appareil, on voit
apparaître des pics : un pour l’oxygène, un pour l’azote, un pour le CO2, un pour le méthane,...

En fait, plus il y a
d’atomes d’azote,
CO2, méthane,... dans
l’échantillon, plus le pic
sera élevé, plus sa
surface sera
importante. On calibre
ça évidemment vis-à-
vis de standards. Et
donc on en retire
quelle était la
concentration de
dioxyde de carbone,
de méthane,... dans un
échantillon qui date de
l’époque de l’homme
de Cromagnon ou de
n’importe quelle autre
époque.

Ca, c’est le principe de


base. Il faut savoir
quand même que, je
vous explique cela
simplement mais il y a plein de pièges. Le problème c’est que, en fait, quand on prend une fine couche de glace et
qu’on détermine l’âge de cette couche, l’âge des molécules d’eau donc l’age de la glace n’est pas le même que l’âge
des bulles d’air qui se trouvent dedans. C’est embêtant comme on veut comparer les deux pour voir qui est responsable
de l’autre, etc.

Pourquoi ce n’est pas le même? C’est lié à la façon dont la glace se forme. Rappelez-vous, la glace que je vais observer
en fin de parcours, c’est de la neige qui s’est transformée en ”névé4”. Elle se compacte mais elle reste moins dense
que la glace. Et puis, avec le poids qui continue de grandir avec ce qui vient par dessus, finalement, ça devient de la
glace. Il y a tout un temps pendant lequel on est dans une phase intermédiaire, où les bulles qu’il y a dans la neige et
dans le névé (phase intermédiaire) sont toutes reliées entre elles et connectées avec la surface. Donc, pendant tout
ce temps-là, l’air qui a été piégé par exemple il y a 10 ans, 15 ans ou 20 ans, il va continuer à être en contact avec l’air
d’aujourd’hui puisque toutes ces bulles d’air seront connectées entre elles. Le seul moment où on va réellement piéger
les bulles d’air, à ce moment-là elles ne pourront plus s’échanger avec l’extérieur. Donc ça veut dire que l’âge de l’air
qu’il y a dans la bulle n’est pas le même que l’âge de la glace qui l’entoure. Par ex. La glace s’est formée à l’âge 0. Et
puis, elle a vieilli 10, 20 ou 30 ans. Pendant ce temps-là, l’air qui se trouve dedans a continué à s’échanger jusqu'au
moment où la phase de glace est arrivée. Donc là, l’âge des bulles sera tjs plus jeune que l’âge de la glace dans
lesquelles elles se trouvent. Le vrai t0, c’est le moment où l’air qui se trouve emprisonné là est enfermé complètement,
occlus dans la glace. Ca a l’air d’un détail mais ce n’en est pas un. Si vous allez par exemple en Antarctique, à Vostok
par exemple, où il fait -90 en hiver et -50 en été, il n’y a pas d’eau liquide donc cette transformation, c’est vraiment sous
l’effet du poids que ça se passe. Hé bien, ça met 1000 ans pour passer de l’un à l’autre. Donc il y a un millénaire
pendant lequel l’air continue à s’échanger avec l’atmosphère, pendant que vous allez fixer la température de la glace
directement où elle s’est formée. Autrement dit : il peut y avoir jusqu’à 1000 ans de différence entre l’âge de la glace
et l’âge de la bulle qui se trouve dedans! C’est le cas extrême. Au Groenland, où les températures sont déjà moins
négatives, où il peut y avoir un petit peu de fusion et cela varie de plus en plus pendant l’été, le phénomène va plus

4
Un névé est une accumulation de neige qui peut perdurer en dessous de la limite de neiges éternelles et ce même pendant une
partie de l'été. Elle peut être à l'origine d'un glacier.
vite et on met plutôt de l’ordre de 100 à 150 ans pour que ces bulles soient vraiment complètement isolées et n’arrivent
plus à s’échanger avec l’extérieur. Quand même un siècle de différence.

C’est important parce que c’est une limite à la résolution de la méthode. Il y a évidemment des tas de modèles qui
nous permettent de reconstituer la différence d’âge. Comment? On met en place des modèles mathématiques et
physiques qui simulent la façon dont la neige se transforme en glace. A une température déterminée, avec toutes les
conditions locales. Donc on dit voilà, dans ces conditions-là, il faut xxx ans pour que les bulles soient occluses. Par
contre, à ce site-là, il faudra xxx ans. Cela reste des modèles. Difficile à gérer.

Pourquoi je vous parle de cela? On peut aller voir les données des carottages glaciaires. Qu’est-ce que ça donne
quand on fait principalement ces 2 méthodes-là? Il y a plein d’autres variables mais c’est celles-là qui vont nous
intéresser en premier lieu. Voilà sur slide graphe allant jusqu’à 600 000 ans. Maintenant, on va jusqu’à 800 000 à peu
près maximum. C’est en Antarctique. On voit sur l’axe des x de 0 à 600 000 ans. Le temps est en milliers d’années
avant aujourd'hui. En bas, le delta D (on a pris l’hydrogène, pas l’O18 - ça revient au même comme les 2 courbes sont
parallèles entre elles). On vous montre ceci, c’est un proxy pour la température (quand il est très négatif, il fait très froid
et vice cersa; c’est comme cela que l’on reconstitue courbes de température au cours du temps). Nous sommes
actuellement dans une période chaude. Il y a 20 000 ans, nous étions au maximum du froid de la période glaciaire
précédente. Il y a 130 000 ans, nous avions une période chaude, en fait légèrement + chaude que la nôtre (2-3 degrés)
donc elle nous intéresse bcp car elle pourrait être une approximation de ce qui risque de nous arriver dans un futur
relativement proche. Donc c’est la variation de température tirée du proxy isotope. Là, il fait froid (minima). Maxima, il
fait chaud.

Au-dessus, on a mis 3 autres courbes : méthane (mesuré dans des bulles d’air), CO2 en rouge, N2O. Ceci a été
complété entretemps mais c’est la philosophie qui m’intéresse. C’est celle qui est apparue depuis maintenant une
vingtaine d’années. Quand on a commencé à faire ces mesures, on allaient moins en profondeur. On voit très bien que
sur presque 1/2 million d’années (en fait, on peut montrer que c’est valable jusque 800 000 ans), chaque fois que que
vous avez une température + élevée, vous avez plus de GES. Chaque fois que vous avez des teneurs en GES plus
faibles, votre température est bcp plus basse. Bien sûr ici, il s’agit de températures reconstituées au Groenland. Pour
le global, les variations sont moins importantes. Ca n’empêche qu’on voit très bien la synergie entre les deux. C’est ce
qui a mis la puce à l’oreille et qui a déclenché une chose que l’on adressera la fois prochaine le fait que, comme vous
le voyez sur cette courbe, au bout à droite c’est ce qui se passe depuis révolution industrielle. On atteint des valeurs
qui sont nettement plus élevées que celles qui existaient lors des périodes chaudes précédentes sur le dernier million
d’années. Et on les a atteint à une vitesse absolument inégalée. Rappelez-vous, l’échelle c’est 100 000 ans. Donc ces
variations-ci de GES c’est quand même sur plusieurs milliers d’années.

Donc vous voyez l’intérêt des discussions des gens qui essaient de savoir si dans le passé c’est d’abord le CO2 qui a
changé ou d’abord la température qui a changé. Par rapport à ce que je vous ai expliqué juste avant, à cette échelle-
là, aller pouvoir dire ceci est venu à tel moment en sachant que dans certaines régions on a 1000 ans de différence
d’âge entre la glace et le gaz. Ces discussions sont donc très difficiles à mener. On essaie de raffiner les choses,
réduire les incertitudes. On est arrivés maintenant dans certaines régions à bien montrer que finalement, soit le GES
est présent légèrement après la température, soit, à l’échelle de la résolution des mesures, ils sont synchros. Donc on
n’a pas encore résolu cette question parfaitement mais vous voyez où les problèmes techniques peuvent
éventuellement arriver à des questions que bcp de gens se posent.

Conclusion
On voit globalement une très bonne synergie entre temps de variation de température et variation de GES sur les
derniers 800 000 ans, suggérant un rôle primordial des GES. Ce que l’on voit aussi et que notre ami Al Gore a eu tort
de ne pas montrer (car taxé de cachoterie ou de mensonge par omission - dommage qu’il n’ait pas expliqué pourquoi
c’était comme ça) que on voit dans ce dernier siècle l’augmentation de température n’est pas encore à son maximum.
Elle est loin d’être aussi significative que le changement de GES. Si on faisait un raisonnement bête et méchant, on
pourrait dire “ok, la température double entre période froide et période chaude, les GES ont doublé donc on devrait
voir la température doubler. Pour le moment, elle ne monte que de 1 degré par rapport à la révolution industrielle. La
raison en est on n’est pas du tout dans les mêmes timings. Ici, comme je vous ai dit, même si c’est une courbe très
redressée, ce changement de GES il s’est fait sur quelques millénaires. L’autre, il s’est fait sur un siècle. Donc le
système est compliqué. Le système réagit à ces changements mais ne réagit pas de manière immédiate. Il a une forte
inertie. Il y a énormément de rétroactions qui font que les réponses vont être déviées ou amorties en fonction des
processus que l’on considère. Ça interpelle parce que l’on se dit “oui mais on a doublé la teneur en CO2 par rapport
à une différence entre période glaciaire et interglaciaire naturelle et la température n’est montée que d’un degré. Alors
que les changements de température en Antarctique étaient de 9-10 degrés entre les deux périodes.

La clé en réponse à ça, c’est que cette augmentation de GES s’est faite dans un temps différent, loin des temps de
réaction et stabilisation du système-terre à un changement. Ce que l’on craint ce sont les effets d’emballement dans 5
ans, 10 ans, 100 ans. Les modèles donnent des réponses à ça mais pas de preuves démontrées. La preuve démontrée
c’est que sur le dernier million d’années, chaque fois que le CO2 est monté, la température est montée aussi (méthane
aussi, etc.). Ca c’est important.

Je vous ai parlé des “leads and lax”, ce sont les décalages entre température et CO2. C’est ce que je viens de
mentionner. C’est encore discuté. On a vu, c’est le problème de synchronisation à l’échelle de 1000 ans. A certains
endroits, on a réussi à descendre cette différence à seulement quelques centaines d’années. Dans ces cas-là, comme
je vous le disais, on a généralement la température qui précède légèrement, qui change légèrement avant les GES
mais on est très près de la limite de résolution. Et donc c’est ça ou bien c’est synchrone à l’échelle de résolution à
laquelle on arrive à travailler. Donc comme je vous les disais des concentrations et des taux de croissance n’ont jamais
été observés sur le dernier million d’années. Ce qui laisse à interpréter et modéliser que les projections vont monter
rapidement. C’est ce que l'on verra dans la dernière partie du cours, la fois prochaine. Il faut être conscient de ces
limitations. Je pense qu’il est important d’être conscient d’où sont les limites.

Vous voyez le détail des courbes. Tant pour le dioxyde de carbone, le méthane ou le N2O, on voit il y a 20 000 ans
(dernier glaciaire), on est remontés très fortement depuis. Puis, on voit variations sur les siècles. On peut voir que les
taux de croissance sont incommensurablement différents.

Chapitre 3 : machinerie climatique


Qu’est-ce qu’il y a derrière comme mécanisme pour comprendre ce que l’on va observer. Je vous introduis ce que
j’appelle le triangle climatique. Pourquoi triangle? Parce que 3 sommets.

- Le premier d’entre eux, c’est ce que je vais appeler le “pacemaker astronomique”. Je vais essayer de vous
montrer que c’est lui qui, actuellement (on a parlé la fois passée des variations climatiques à long terme liés
aux phénomènes géologiques et tout ça mais on est passés à maintenant à une disposition stable des
continents depuis pas mal de temps et donc le système tourne plus ou moins de manière régulière et sans
gros accrocs dans son fonctionnement et donc cela veut dire que je vais parler uniquement maintenant des
explications des variations “récentes” du climat, càd le dernier million d’années) règle la quantité d’énergie
que l’on reçoit du soleil.

- Le 2e sommet du triangle, ça va être les rétroactions du système terre. C’est-à-dire comment la terre
amplifie, d’une part, ou amortit d’autre part, les variations qui viennent de la variabilité de l’apport d’énergie
par le soleil.

- Le 3e sommet du triangle, c’est bien sûr l’homme et la question de savoir s’il est vraiment capable d’influencer
le climat. Sommes nous vraiment dans Anthropocène ? Qu’a-t-on comme arguments pour le dire?

Ce sont donc les 3 principaux acteurs du système. Je vais commencer par le pacemaker astronomique. J’utilise ce
terme-là parce que un pacemaker c’est qqch qui donne le rythme. C’est un peu ce que l’on va nous montrer ici au
niveau des principes astronomiques.

Donc ça veut dire quoi? Je vous ai dit au début du cours que nous recevions l’énergie du soleil et que en première
approximation, on disait que cette énergie était constante. C’est ce qu’on appelle la constante solaire5. (environ 340
W / m2) Et puis, je vous ai dit : attention
on l’appelle constante solaire mais en fait
ce n’est pas constant sur le long terme.

C’est en fait cette instabilité, ou cette


“non-constance”, qui va faire que l’on va
générer le rythme de ces changements
du climat sur le dernier million d’années.
Je vous rappelle qu’une fois que l’on s’est
débarrassés des grandes causes du type
qui ont émaillé le sol, la terre, à plus
grande échelle de temps.

Il y a 3 choses qui vont contrôler cette


variabilité de ce que l’on reçoit comme
énergie du soleil. Ce sont en fait des bugs
de la mécanique, du comportement de la
terre autour du soleil et sur elle-même. Ce
sont des corps célestes qui sont loin
d’être parfaits. Les masses ne sont pas
réparties de manière homogène. De ce
fait-là, il va y avoir une petite variabilité dans le comportement de la terre par rapport au soleil.

3 choses vont bouger :

1. La variation de l’Excentricité

La première est ce que l’on appelle l’excentricité de la trajectoire de la terre autour du soleil. Vous savez que cette
trajectoire a une forme souvent associée à une ellipse. Vous pouvez voir le sens de l’ellipse sur le slide. Il y a des

5
Aussi appelée irradiance solaire totale, elle exprime la quantité d'énergie solaire que recevrait une surface de 1 m 2 située à une
distance de 1 au (distance moyenne Terre-Soleil), exposée perpendiculairement aux rayons du Soleil, en l'absence d'atmosphère,
pendant 1 seconde.
points qui sont appelés “foyers”. Le soleil est situé à l'un des foyers de cette ellipse. La Terre tourne donc sur cette
trajectoire elliptique. Ce qui va changer, c’est la forme de ellipse. Comment caractérise-t-on en mathématiques la forme
d’une ellipse? C’est par son excentricité. C’est simplement le rapport C/A, c’est-à-dire le rapport de la distance du
centre de l’ellipse à l’un de ces foyers (C) et A, qui est le demi grand axe de l’ellipse.

Vous voyez que dans le cas extrême où les foyers sont au centre, il n’y a pas de foyer, l’ellipse devient un cercle : C
vaut 0 et donc votre excentricité est nulle. Et puis, au contraire, si vous commencez à écartez les foyers du cercle, C
devient de plus en plus grand. Il sera au maximum égal à 1. Ca vous donne une idée de combien l’ellipse est elliptique
ou de combien l’ellipse se rapproche du cercle. Ca, ça va bouger car il y a des irrégularités dans cette mécanique
céleste.

Je vous rappelle des choses que vous n’avez peut-être jamais vues. Je vous les rappelle si vous les avez vues il y a
longtemps. La façon dont se passe la trajectoire de la terre autour du soleil a lieu comme ceci. Cela s’appelle la
“révolution de la terre autour du soleil”. Le soleil qui se trouve à l’un des deux foyers. J’ai mis l’axe de rotation de la
terre sur le slide. C’est la ligne noire. Cet axe n’est pas perpendiculaire au plan qui contient le terre et le soleil. C’est
ce que l’on appelle le “plan de l’ecliptique”. Il est incliné.

Que peut-on encore voir? On peut remarquer qu’il y a des zones un peu plus grisées et d’autres que je n’ai pas grisées.
Ce qui n’est pas grisé, c’est là où on a de la lumière en fonction de position de la terre autour du soleil. Dans cette
position-ci, nous voyons la moitié à gauche qui reçoit du soleil et la moitié qui est derrière ne reçoit pas la lumière du
soleil. A un moment t donné. Sur image, puisqu’on regarde en perspective, on ne voit que la moitié qui reçoit la lumière
du soleil. Sur une autre, au contraire, on ne voit que la moitié qui ne reçoit pas la lumière du soleil. C’est un plan qui
est perpendiculaire au plan de l’écliptique.

La dernière chose qu’il y a sur ces schémas, c’est la latitude de Bruxelles. Juste pour vous montrer. Vous savez que
Bruxelles va faire un tour autour de la terre en 24h. Dans cette situation-ci, la trajectoire de Bruxelles dans la lumière
est beaucoup plus courte que la trajectoire pendant la nuit. Et donc c’est le moment où les jours sont les plus courts.
C’est ce que l’on appelle le solstice d’hiver. Par contre, de l’autre côté, vous voyez que la trajectoire de Bruxelles
dans la lumière est beaucoup plus grande que la trajectoire pendant la nuit. On est au jour le plus long de l’année.
C’est le solstice d’été. Et puis, dans chacun des deux autres cas, la trajectoire de Bruxelles dans la lumière est égale
à la trajectoire dans la nuit. C’est valable pour n’importe quel point à la surface de la terre. Partout sur la surface de la
terre dans ces deux positions-là, le jour est égal à la nuit. C’est ce qu’on appelle la position d’équinoxe.

Ce sont les grandes caractéristiques de cette évolution de la terre autour du soleil et de cette rotation de la terre sur
elle-même. Avec les 4 grandes périodes que vous connaissez. Et puis, que va-t-il se passer dans cette première
variation de l’excentricité? Vous voyez dans mon second dessin l’ellipse est plus proche du cercle. En fait, en réalité,
on est trompés ici par la perspective. C’est une erreur que l'on fait constamment. L’ellipse n’est jamais extrêmement
étirée en fait. On est toujours très proches du cercle mais on se rapproche parfois encore plus ou on s’éloigne un peu
plus. L’excentricité est donc faible mais elle bouge.

Et elle ne bouge pas n’importe comment. C’est une espèce de pulsion. Va se faire régulièrement au cours du temps.
Voilà ce qui est représenté sur le slide. On a le temps en milliers d’années. On remonte 800 000 ans en arrière. On a
la valeur de l’excentricité en pourcent. On peut voir qu’elle est faible. C’est de 0,02 à 0,06 à peu près. Donc on est bien
proches du cercle. Ce qu’il y a d’intéressant c’est de voir que bien sûr ça n’a pas tjs la même intensité mais ce qui est
constant, c’est le cycle de changement. En effet, entre deux pics ou entre deux creux, j’ai toujours à peu près la même
distance. C’est une distance en temps. C’est à peu près 100 000 ans.

Donc, si vous voulez, on a une 1re anomalie. C’est cette fameuse ellipse qui revient un peu plus à un cercle et vice
versa tous les 100 000 ans. Et ça, ça change la distance de la terre au soleil. Et donc ça change la quantité d’énergie
que l’on va recevoir à différentes latitudes. C’était une 1re raison de variation de la constante solaire.

2. Variations de l’Obliquité - 2e bug

2e chose qui va bouger, qui va être un peu bancale, c’est la variation de l’Obliquité. On ne fait plus référence à la
trajectoire de la terre autour du soleil, on fait référence à la rotation de la terre sur elle-même. Voilà de nouveau la
perpendiculaire au plan d’écliptique. L’axe de rotation est incliné par rapport à cet axe perpendiculaire. En moyenne,
l’inclinaison est de 23° 27’ (“23 degrés 27 minutes”). Cet angle moyen est la latitude des Tropiques6. Pourquoi ce

6
Les tropiques sont les deux parallèles du globe terrestre qui délimitent une bande à l'intérieur de laquelle le soleil apparaît au
zénith au moins une fois dans l'année.
nom particulier? Parce qu’ils sont dans une position telle ...une fois par an. Ca, c’est vraiment l’angle moyen 23°27’
que fait cet axe de rotation sur la perpendiculaire au plan d’écliptique.

Mais il se trouve qu’à cause de la répartition inégale des masses à l’intérieur


de la terre, cet angle devient de tps en tps plus petit (on se rapproche de la
verticale) ou plus grand. Et donc ce qui se passe, si on regarde la partie
dans l’ombre et la lumière, on voit que globalement la trajectoire de Bruxelles
dans l’ombre et dans la lumière va changer selon que l’on a une obliquité
plus ou moins grande. Autrement dit, la quantité d’énergie que l’on va
recevoir va changer. Evidemment, on doit intégrer cela sur toute l’année.
C’est juste pour vous suggérer que le fait que l’obliquité change fait que l’on
change aussi la quantité d’énergie qui arrive en certains lieux du globe. Ca,
de nouveau, cela ne se fait pas n’importe comment. Cela va se faire aussi
avec un cycle régulier, une période régulière. L’échelle de temps va jusqu’à
800 000 ans comme au point précédent. On vous donne évolution de cet
angle-là. Entre 2 pics ou creux, on a un intervalle de temps d’à peu près 40
000 ans. 2e bug donc, changement d’obliquité, qui revient dans la même
position tous les 40 000 ans.

3. Précession des Equinoxes

Nom a l’air très compliqué.


Le principe peut être
simplifié. C’est aussi qqch qui
est lié à la rotation de la terre
sur elle-même. Mais ce qui
va se passe, ce n’est pas
tellement l’inclinaison de
l’axe de rotation sur la
perpendiculaire verticale au
plan d’écliptique, c’est le fait
que cet axe de rotation va
avoir tendance à faire
comme une toupie. En même
temps que monter et
redescendre, il va avoir
tendance à tourner sur lui-
même.

Qu’est-ce que cela a comme


conséquences?
On va représenter la trajectoire de la terre autour du soleil à deux moments différents. Un moment où l’axe de rotation
dans ce mouvement rose, il se trouve dans le plan du tableau. Il est représenté ici. Sur un an, évidemment, on ne voit
pas de différence donc on peut le représenter pour une seule année, il n’y a pas de souci parce que c’est très lent. Par
contre (et c’est le même dessin que tout à l’heure), je peux faire la même chose. Dans ce cas-ci, ce sera 5000 ans plus
tard. Imaginez cet axe de rotation qui fait son mouvement. Il était à un endroit et 5000 ans plus tard, il sera ailleurs. Il
aura tourné d’un quart de tour. Ca veut dire que dans ma représentation (ce que j’ai essayé de faire sur mon dessin),
vous voyez le Pôle Sud, vers vous, ici en bas. Mais vous ne voyez pas le pôle nord, qui est caché derrière la terre là-
bas quelque part. Pour cette année là, il va rester parallèle à lui-même. Vous voyez que ce qui a changé
fondamentalement ce sont les positions d’équinoxe et de solstice. Le jour égal la nuit à une position et à une autre.
Alors que auparavant, c’était à 2 autres positions. Si vous voulez, la position d’équinoxe (l'endroit où l’équinoxe se
produit) a bougé sur la trajectoire de la terre autour du soleil.

Et encore 5000 ans plus tard, elle va se retrouver dans le plan du tableau mais à l’opposé du dessin du dessus. Et
puis, au bout d’un certain temps, il va revenir à la même valeur. L’important c’est que la position des équinoxes sur la
trajectoire de la terre autour du soleil bouge au cours du temps, ce qui va changer l’énergie que l’on va recevoir à
différentes latitudes (ce sera plus près, plus loin du soleil au moment où ça se produira). Ca veut dire que vous avez
un déplacement de la position des équinoxes. C’est pour cela que l’on appelle ça la précession des équinoxes. Pour
le fait que cette position se balade pendant un certain temps, régulièrement, autour du soleil. Encore une fois, cette
précession ne va pas se faire n’importe comment. Elle va parfois être plus forte (càd que le mouvement de ballant sera
plus intense) mais le cycle pour retourner à la même position sera très régulier, même si un peu moins que les 2 autres
: quelque part entre 21 et 23 000 ans, de l’ordre de 22 000 ans.

Voilà, on a bouclé les 3 raisons principales, les 3 bugs de la dynamique céleste. C’est Milankovitch7 qui a mise cela en
place au départ. Ca, ce sont des choses que vous calculez de manière très précise (même si pas évident). On peut
vraiment calculer de manière précise non seulement pour le passé mais aussi le futur. C’est quelque chose que l’on
peut vraiment mettre en place. Ces 3 mouvements simples vont se combiner au cours du temps (l’un à 100 000, l’autre
à 40 000, et le dernier à 22 000) pour donner un signal d’insolation mixte, qui va représenter la combinaison de ces
3 variantes.

Par exemple, si je calcule à


60° N, je vais additionner les
3 effets (excentricité,
obliquité et précession). Il
faut transformer ça en effet
sur le bilan radiatif8. L’effet
combiné, en termes de
radiation reçue, est en W/m2.
On voit qu’à partir de 3
courbes simples, on forme
une courbe compliquée
(parce qu’elles se combinent
avec des intensités diverses
pour chacune des courbes).
C’est une différence à la
moyenne donc ce qu’il faut
bien remarquer, c’est que la
variabilité (de -2.7 à +2.7 par
m2 - je vous rappelle que la
constante solaire c’est 348
W/m2 en termes d’énergie
qui arrive à la surface de
l’atmosphère) est faible par
rapport à l’apport global que l’on reçoit en moyenne. Ce sont des petites fluctuations ! On va revenir là-dessus.

7
C'est un mathématicien serbe du début du XXe siècle, M. Milankovitch, qui propose le premier, une explication astronomique aux
changements climatiques du quaternaire, caractérisés par une alternance de périodes glaciaires et de périodes inter-glaciaires. Sa
théorie est basée sur le fait que les variations périodiques saisonnières du climat sont directement liées aux caractéristiques du
mouvement de rotation de la Terre autour du Soleil. D'après la théorie formulée par l'astronome Milutin Milankovitch, les fluctuations
glaciaires-interglaciaires seraient dues aux variations d'insolation terrestre dans l'espace et dans le temps.
8
Le bilan radiatif de la Terre dresse un inventaire de l'énergie reçue et perdue par le système climatique de la Terre,-atmosphère-
océans.
D’abord, je vais m’intéresser à la forme de cette courbe. Je vais la comparer à des enregistrements de température à
la surface de la terre. Ce n’est pas très important de savoir comment on les a établis.

Courbe sur slide est une donnée qui reconstruit dans les sédiments océaniques la variation de la température de
l’océan et du volume des océans au cours du temps, sur la même période de temps. A côté, je mets une autre courbe,
celle des variations de température reconstituées dans la glace pour les 400 premiers 1000 ans à Vostok. Vous voyez
que l’on a une relativement bonne corrélation entre variation des températures mesurées dans la glace en Antarctique
et mesurée dans l’océan de l’Atlantique Nord. Il y a une espèce de vérité quant à la variabilité des températures
enregistrée dans les différentes archives. Ce ne sont pas des unités de température mais vous pourriez les lire comme
telles. Avec des températures plus hautes dans les pics et des températures plus basses dans les creux.

Je veux montrer quoi en sortant ces deux archives de températures à la surface de la terre? En fait, quand je la compare
au signal radiatif combiné à 65° N par exemple, ça ne se passe pas si mal que ça. Dans quel sens? Dans le sens que
les pics principaux de l’apport d’énergie (maxima) correspondent à des pics de température enregistrés. On les voit
relativement bien aux différents endroits. On voit aussi une triple variation, que l’on retrouve aussi ici avec un bruit de
fond. On voit que la forme du maximum de l’un correspond à celle de l’autre. Qd on commence à regarder dans le
détail, bien sûr c’est loin d’être parfait, mais en gros les pics et les creux correspondent. Autrement dit : quand j’ai plus
d’insolation, j’enregistre une hausse de température à la surface de la terre. L’inverse étant valable aussi.

Ceci dit, le monde n’est pas parfait parce que ce que vous voyez typiquement dans ces enregistrements c’est que on
rentre en glaciation très lentement et on sort de glaciation très vite. On diminue lentement température mais elle
augmente très vite. C’est ce qui se passe aussi dans les sédiments océaniques. Par contre, au niveau de l’insolation,
vous voyez que l’on a plutôt un signal haut plat haut plat. On n’a pas cette dissymétrie qui apparaît ici. La même chose
est éventuellement valable à d’autres endroits. Donc la comparaison n’est pas vraiment parfaite.

Mais ce que je veux vous faire passer comme message : le pacemaker, le rythme de creux et de pics lui semble être
bien donné par la combinaison de ces facteurs astronomiques.

Donc, 1re conclusion : le rythme auquel les changements du climat se sont produits au cours des 2 derniers millions
d’années (une fois que tous les éléments géologiques se sont stabilisés - rappelez-vous ce que je vous ai expliqué),
cela commence à être des variations de la constante solaire qui va commencer à contrôler le climat avec cette variabilité
qui résulte en une variation d’insolation … qui se traduit par des pics et des creux qui sont plus ou moins cohérents
dans les archives. C’est déjà une bonne nouvelle. Ca veut dire que ce rythme de glaciation naturel, il est donné pour
l’instant par l’astronomie (pour les 2 derniers millions d’années). Donc bonne cohérence entre variations de l’apport
radiatif, de la température dans les sédiments marins et de la température enregistrée dans la glace. L’aspect général
des courbes est cohérent avec une forçage astronomique des variations climatiques.
MAIS malheureusement, tout n’est pas rose dans ce monde. C’est un peu compliqué. Dans chaque courbe on a à
chaque fois ajouté un effet. Il y a des moments où ils s’annulent et des moments où ils se renforcent. Et puis on a
ajouté en plus l’obliquité. Vous avez
de nouveau le temps de 0 à 600 000
ans.

Dans ce graphique, je veux montrer


que (j'ai insisté là-dessus tout à
l’heure -2.7 à +2.7) on varie
seulement de 4% de la valeur
moyenne. Donc de +/- 2% du 348
W/m2 que je mentionnais tout à
l’heure. Donc une variation qui est
faible au niveau de l’insolation. Et qui
n’est pas suffisante pour expliquer
les variations de température . Je
vous ai dit le rythme est bien donné
mais si je convertis les variations
d’énergie reçue, je n’arrive pas à
reproduire des variations de
température aussi extrêmes que
celles que j’observe dans les
archives à la surface de la terre.

Donc ça, c’est un 1er problème. J’ai de la variabilité de l’insolation mais elle n’est pas suffisante pour expliquer l’écart
de températures observé entre glaciation et interglaciation.

2e problème : (un peu plus compliqué à expliquer mais j’essaie de vous donner la philosophie)
Quelque chose que l’on pt appliquer en musique aussi. Quand vous avez un son qui sort en musique, c’est un son qui
est complexe. Il est la combinaison de plusieurs vibrations simples. On peut toujours dans une vibration compliquée la
décomposer en vibrations simples.

On peut essayer de voir quel est poids relatif de chaque variation simple. C’est une technique que l’on appelle l’analyse
spectrale. C’est un concept mathématique assez complexe. On peut évidemment utiliser dans l’autre sens. En partant
de courbe compliquée (un peu comme le signal sonore que vous avez ici) essayer de retrouver de quelles
combinaisons de signaux simples il résulte. Autrement dit, on essaie d’aller en marche arrière. Tout à l’heure je vous
ai montré 3 courbes simples qui se combinaient pour former une courbe compliquée. Je vous ai montré que les pics et
les creux correspondaient. Maintenant, j’essaie d’aller un peu plus loin. J’essaie de voir la part de participation de
chacune des 3 courbes simples.

Ce n’est pas très logique la façon dont je l’ai présenté là. On va d’abord regarder ce qui se passe dans les deux
diagrammes. Ce sont 2 carottages océaniques où on a repris le signe qui nous permet de reconstruire la température
de l’océan au cours du temps. On fait cette analyse. On prend la courbe verte que je vous ai montré tout à l’heure. On
essaie de retrouver dans cette courbe quelle est la proportion de...qui correspondent à l’obliquité, à l’excentricité, à la
précession des équinoxes. Là, on fait des bonds de joie parce que dans un diagramme comme celui-là, on représente
sur les axes : la période (càd le cycle 100 000 ans, 50 000 ans,...au cours duquel on revient à la même valeur) et le
poids (appelé “densité spectrale”) d’un cycle particulier dans le signal “compliqué”, dans le mix. C’est son importance
relative.

Dans ces deux sondages océaniques différents dans l’Atlantique Nord, que voit-on? On voit apparaître dans le signal
un poids à 23 000 ans (précession des équinoxes), un forçage à 40 000 ans (obliquité) et puis un forçage (d'ailleurs
dominant) à 100 000 ans (voilà l’excentricité). Ca, c’est plutôt rassurant. On retrouve une participation de ces 3 périodes
de base, qui sont les “accidents” astronomiques.
Là où les choses commencent un petit peu à se compliquer c’est si je fais la même démarche avec l’autre courbe. Je
prends cette fois-ci la courbe de l’insolation ou du forçage (ce qui va provoquer les changements) à 60°N (pas 65, peu
importe) et on essaie de retrouver le poids relatif des périodes qui correspondent aux 3 processus dont je parlais.

Ca commence déjà pas très bien avec la précession des équinoxes. On a l’air d’avoir un poids à 18 000, un autre à 23
000. On a quelque chose qui ressemble à un forçage autour de 40 000 (l'obliquité). Par contre, ce que l’on voit c’est
que le forçage à 100 000, nada. Cela veut dire que l’aspect excentricité (cycle à 100 000) influence très peu la variation
mixte, il participe peu au signal. Par contre, on voit dans le signal, dans l’insolation, la précession des équinoxes
participe bcp plus.

Ceci est la 2de chose sur laquelle je veux attirer votre attention. La 1re chose c’est que les pics et les creux
correspondent (bonne nouvelle). Par contre, la variabilité est trop faible pour expliquer la variabilité des températures
observées. Aussi, le mix des 3 raisons astronomiques ne correspond pas du tout à ce qu’il est dans l’insolation. Celui
que je retrouve dans le signal des archives ne se retrouve pas aussi bien dans l’insolation et particulièrement le forçage
à 100 000 ans. Le forçage à 100 000 ans est quasi négligeable sur l’insolation alors qu’il “sort à fond de balle“ dans les
variations de températures observées à la surface de la terre.

Ces éléments-là nous font dire que donc le pacemaker astronomique (3 raisons) est bien à l’origine des fluctuations
de températures mais ce n’est pas suffisant puisque, d’une part, leur intensité n’est pas suffisante pour expliquer les
variations de températures observées (en termes de bilan radiatif) et, par ailleurs, il y a aussi le problème que on ne
retrouve pas les mêmes poids dans le mix au niveau du signal radiatif par rapport au poids dans le mix que l’on retrouve
dans la réponse de la terre.

Donc, il y a autre chose. C’est le 2e sommet de mon triangle, càd ce que j’appelle “l’amplification du système terre”.
On en a déjà parlé en partie mais
à grande échelle.

D’abord, juste pour vous rafraîchir


la mémoire sur des exemples
d’amplification du système terre
que je vous ai montrés mais qui
n’ont rien à voir avec la variation
astronomique. A des échelles de
temps beaucoup plus grandes. Je
vous rappelle que les
changements du climat à longue
échelle de temps ont aussi été liés
par le comportement de la terre.
Mais indépendamment de
l’astronomie puisqu’elle a des
effets avec une fréquence à 100
000 ans, 30 000 ans,... Ici, je vous
parle d’échelles de temps de
milliards d’années. C’est autre
chose. C’est quand même aussi
des exemples où la terre a
influencé le climat. Je vous l’ai
déjà dit la fois passée.
Je vous rappelle que l’on vous montre ici les températures de l’océan, plus froides ou plus chaudes au cours de l’histoire
de la terre. 4,6 milliards d’années9. Je vous rappelle qu’il y a eu des phases. Il y avait un océan extrêmement chaud
(+ de 60 °C) sur la terre et puis il y a eu les grandes phases de changement à la surface de la terre qui ont fait que le
climat a changé complètement.

Je vous rappelle l’apparition de la photosynthèse, qui a commencé à consommer le dioxyde de carbone de


l’atmosphère et donc a diminué l’effet de serre, ce qui a mené à une diminution importante globale de la température.

Je vous ai aussi expliqué ces grandes glaciations qui sont


apparues de temps en temps. La surface de la terre a été
complètement recouverte de glace, la fameuse “snow ball
earth”. Avec des processus tels que (on ne les connaît pas bien
parce que c’est très mal documenté) : le fait que vous avez les
formations de chaînes de montagnes et donc vous avez de ce
fait-là une érosion physico chimique accrue, càd que si vous
faites monter les chaînes de montagne, vous avez une érosion
mécanique donc vous avez une érosion chimique qui va amener
le dioxyde de carbone dans l’eau et la rendre acide. Les H+ de
l’acidité de l’eau vont attaquer la roche10 et vous la dissoudre.
Ca, cela consomme du CO2. Cela prélève du CO2 dans
l’atmosphère. Il se dissout dans l’eau, ce qui attaque la roche
donc cela diminue l’effet de serre. Cela pourrait expliquer lors
de ces grandes orogenèses11 que l’on a eu un basculement
climatique vers des températures très basses. Au cause du fait que l’on a pompé le CO2 dans les chaînes de
montagnes. C’est une explication.

Une autre explication c’est l’activité volcanique soutenue quand ces grandes chaînes de montagnes sont apparues.
On a libéré énormément d’aérosols dans l’atmosphère donc on a oblitéré, bloqué les rayonnements incidents et donc
on a diminué l’apport de chaleur dans les couches inférieures de l’atmosphère. Donc des grands phénomènes où la
terre elle-même par son comportement a influencé le climat. Mais donc à une échelle de temps qui n’a rien à voir avec
la variabilité astronomique dont je vous parlais. Cette variabilité astronomique, elle est seulement localisée dans les
quelques derniers millions d’années.

Un dernier gros accident, c’est évidemment la redistribution des continents au cours du tertiaire. On a encore diminué
les températures globalement puisqu’on a rendu moins efficace le transport de chaleur depuis les tropiques vers les
pôles. Je vais vous montrer comment cela a marché.

9
L'histoire de la Terre couvre approximativement 4,5 milliards d'années (4 567 000 000 années), depuis la formation de la Terre à
partir de la nébuleuse solaire jusqu'à l'époque actuelle.
10
Rappel : le pH 7, aussi appelé "pH neutre", caractérise un milieu neutre (ni acide ni basique). Il correspond au potentiel hydrogène
de l’eau pure à 25°C. Les solutions dont le PH est inférieur à 7 sont acides. Celles dont le PH est supérieur à 7 sont basiques. La
valeur du pH d’une solution est directement liée à sa concentration en ions oxonium H3O+ qui proviennent de la fixation d’un proton
H+ sur une molécule d’eau.
11
L'orogenèse est le terme scientifique désignant l'ensemble des mécanismes de formation des montagnes, divers systèmes
théoriques englobant ces processus de formation des reliefs, et des ensembles d'orogènes se succédant à travers les temps
géologiques encore appelés phases orogéniques.
Remarque : ce que je vous montre là ce sont des interactions du système terre qui ne sont PAS liées à l’astronomie !
Je vais revenir sur l’astronomie plus loin. Je tiens à vous rafraîchir la mémoire sur certains de ces principes du
changement climatique à long terme.

Sur slide, vous pouvez voir échelle


géologique. Je ne vous demande pas de
retenir ça mais il y a évidemment un grand
nombre de millions d’années qui s’y
retrouvent. Je vais simplement l’utiliser
pour vous repérer différentes phases de
l’évolution des continents.

Je vous ai dit 3e grande raison pour


laquelle on a changé le climat à la surface
de la terre, c’est le déplacement des
continents, qui lui-même a contrôlé la
circulation océanique, càd la
redistribution de l’énergie sur le globe.

On démarre il y a 170 mio d’années et on


remonte jusqu’à aujourd’hui. Au
Mésozoïque12, anciennement l’Ere
secondaire. Vous voyez que toutes les
masses continentales se tiennent les
unes les autres. Et puis, on a un grand océan. On appelle la Pangée13 ce grand continent. C’est la “terre regroupée”.
Ici, on est à 125 mio d’années. C’est là que les choses commencent à changer.

Vous voyez que les continents se séparent à un moment donné : la partie eurasienne, la future Afrique et la future
Amérique et l’Australie. Et donc la séparation se passe au niveau de l'Équateur. On ouvre ce que l’on appelle la thétys
(une mer intérieure qui va s’appeler comme telle) et on fragmente l’hémisphère sud. Cela a pour résultat que
maintenant la circulation océanique va pouvoir faire le tour de la terre. Avant, elle était bloquée! On ne pouvait pas
homogénéiser les eaux. Ici, cela commence à se produire et en plus de cela on a toujours les grands océans qui
permettent de redistribuer cette chaleur emmagasinée au niveau des pôles. Et de renvoyer des eaux plus fraîches
éventuellement vers les pôles pour brasser ces masses d’eau et donc homogénéiser les températures à la surface de
la terre. Donc cela commence à bien redistribuer l’énergie par différentes trajectoires.

Je continue à avancer dans le temps. 70 mio d’années. On rentre bientôt dans le tertiaire, càd ce que l’on appelle le
Cénozoïque14. Là, on continue à dilater le système. Les continents commencent à bien s’individualiser. La séparation
équatoriale est toujours bien présente. On arrive toujours bien à redistribuer entre les océans. Encore plus maintenant
puisque on a séparé l’Afrique et Amérique du Sud et aussi l’Australie de l’Antarctique. Cela améliore encore les
échanges. Et donc des eaux relativement chaudes arrivent jusqu’en bordure de l’Antarctique et donc on a très peu de
glaciers dans les régions polaires. A cette époque-là, on va retrouver dans les sédiments de l’Antarctique des feuilles
de chêne notamment qui prouvent bien que le système s'homogénéise vraiment bien, dans cette disposition-là des
continents. Voilà une redistribution de l’excès de chaleur. Cf schéma qui reprennent l'ensemble.

12
Le Mésozoïque est une ère géologique qui s'étend de -251 millions d'années à -65,5 millions d'années, donc sur une période de
185,5 millions d'années.
13
Le nom « Pangée », qui signifie littéralement « toutes les terres », vient du grec ancien πᾶν (pân), « tout », et γαῖα (gaïa), « terre
», qui devient en latin pangaea. Le concept et le nom de Pangée viennent du météorologue et astronome allemand Alfred Wegener.
Dans son ouvrage intitulé La Genèse des continents et des océans, publié en 1915, il décrit la Pangée comme rassemblant la quasi-
totalité des terres émergées, qui a existé de la fin du Carbonifère au début du Permien, il y a 290 millions d'années.
14
Le Cénozoïque est la troisième ère géologique du Phanérozoïque et la plus récente sur l’échelle des temps géologiques. Débutant
il y a 66 millions d’années après l’extinction du Crétacé, il se poursuit jusqu’à nos jours.
Je continue. Je rentre dans le
tertiaire donc les continents vont
commencer à se mettre en place
comme aujourd’hui. Et donc cela
va compliquer un peu les
affaires.

Pourquoi? Parce que la 1re


chose qui va se faire, il y a 60 mio
d’années, c’est que l’Afrique va
venir cogner contre l’Europe. La
Méditerranée se ferme. Donc on
a des eaux très peu profondes,
très chaudes (parce que c’est un
climat de type tropical). On va
créer des récifs coralliens (récifs
calcaires qu’on trouve dans le
sud de la Belgique maintenant).
Donc on ferme cette circulation
circum-équatoriale donc si vous
voulez on n’arrive plus à faire
passer ces courants. On fait
d’autres choses aussi : on ouvre
le détroit qui au sud sépare l’Australie de l’Antarctique, il y a 40 millions d'années. Vous voyez que l’on avance
progressivement dans le temps.

A à peu près 25 mio d’années, on va ouvrir la connexion entre l’Amérique du sud et l’Antarctique. Et donc on commence
à isoler complètement l’Antarctique. Il va donc y avoir une circulation circum-antarctique. Dans le nord, il va y avoir une
circulation circum-arctique autour de l’océan Arctique, moins marquée mais qui va avoir tendance à isoler l’océan
Arctique.

Qu’est ce qui se passe à cause de ça? On limite les échanges avec les pôles, càd que l’on arrive moins à homogénéiser
les eaux à l’Equateur ...et en plus de ça, on va avoir des courants marins froids qui vont tourner autour de l’Antarctique
et qui vont bloquer la possibilité de descendre des eaux chaudes qui viennent des Tropiques. Autrement dit, on
redistribue moins bien l’énergie vers les pôles. Cela explique que l’on continue encore à régulièrement faire descendre
les températures moyennes des océans.

Le dernier évènement qui se passe c’est la connexion entre l’Amérique du Sud et l’Amérique du Nord.
Fermeture/formation de l’isthme de Panama15 il y a 3 mio d’années. C’est à ce moment là que le gulf stream, qui
n’existait pas avant parce qu’on arrivait encore à passer dans le Pacifique, est bloqué par l’Amérique centrale et va
remonter vers nos régions et commencer à nous apporter des grandes quantités de précipitations. Ce qui va démarrer
la formation de la calotte groenlandaise. Bcp de neige qui va arriver dans un climat relativement froid donc et cela va
développer la calotte.

Et donc on a un autre schéma de circulation avec deux océans circum-arctique circum-antarctique. Deux océans qui
bloquent les échanges de chaleur vers les pôles et une circulation qui est rendue plus difficile à cause des combinants
(?) qui traversent l’hémisphère sud et l’hémisphère nord. Autrement dit, je l’avais déjà plus ou moins mentionné, vous
allez refroidir l’ensemble des océans à cause de ces différents effets.

15
Etroite bande de terres se trouvant entre la mer des Caraïbes et l’océan Pacifique, reliant l’Amérique du Sud et l’Amérique du
Nord.
J’arrête ici ce flashback qui vous montre les rétroactions du globe terrestre à longues échelles de temps. Donc aucune
interaction avec les échelles de temps des variations cycliques de la constante solaire.

Maintenant, je vais démarrer les interactions à + courtes échelles de temps qui, elles, vont interagir avec les fluctuations
de la radiation solaire. Et donc qui vont faire que l’on va changer cette distribution dans le mix que je vous ai montré
tout à l’heure.

Première chose que je vous montre, c’est ce que l’on appelle les rétroactions : la façon dont la terre va réagir à ces
variations de l’énergie qui viennent à cause des fluctuations astronomiques puisque tout le reste s’est stabilisé. On va
commencer à voir les fluctuations astronomiques qui changent les choses. Donc ces rétroactions sont définies comme
étant “des processus dans lesquels vous avez une chaîne d’évènements en “boucle” ayant pour effet une amplification
ou un amortissement de l’évènement initateur”. Vous démarrez quelque chose et puis ça réagit et ça renvoie un signal
qui éventuellement amplifie ou amortit ce que vous avez envoyé. Et ce que l’on va envoyer c’est justement les variations
de température, par exemple liées aux variations astronomiques dans je vous parlais tout l’heure. On va voir comment
la terre réagit.

1° Rétroaction « vapeur d’eau »


Dont tout le monde parle. Qu’est-ce que ça veut dire? Chaque fois, je vais faire apparaître un petit signal à gauche
pour dire c’est un lieu de forçage supposé astronomique. Supposons donc que à cause de l’astronomie tout à coup
on réchauffe, il y a un peu plus d’énergie qui arrive. On réchauffe le climat à la surface de la terre. Que se passe-t-il?
J’ai plus d’énergie qui arrive à la surface du sol et des océans. J’ai donc plus d’évaporation, de fabrication de chaleur
latente. J’ai plus de vapeur d’eau (qui est le principal GES donc l’effet de serre augmente). Comme l’effet de serre
augmente, je maintiens l’énergie
dans les couches inférieures de
l’atmosphère. Rappelez-vous le
schéma de départ. Et donc ça me fait
réaugmenter la température, qui
augmente la vapeur d’eau, qui
augmente l’effet de serre. C’est le
plus simple des effets de serre. Très
important. Fait que la Terre amplifie
le signal original de variation
d’énergie qui vient du soleil.

2° Rétroaction Albedo neige/glace


Je vous ai expliqué ce qu’est l’albedo
quand on a parlé du bilan radiatif.
Pour rappel, c’est la proportion d’énergie qui arrive qui est réfléchie. Supposons que pour des raisons astronomiques
il fait plus froid, on va vers un peu moins d’énergie. Il y a plus de neige qui subsiste à la surface des montagnes et
donc de ce fait-là l’albedo de la montagne augmente. Si vous voulez, cette boucle-ci qui renvoie l’énergie vers l’espace
devient plus importante. Du coup, la température diminue puisqu’une grande partie de l'énergie qui arrive au sol est
renvoyée vers l’espace. Du coup, la vapeur d’eau présente dans l’air diminue. Du coup, on diminue l’effet de serre. Et
du coup, on diminue la température. Voilà une 1re boucle. Vous allez voir que cela va se compliquer de plus en plus,
ce qui rend ces modélisations compliquées.Cette 1re boucle va être une boucle de rétroaction positive puisque l’on va
continuer. Au départ, on a diminué la température qui a augmenté la couverture neigeuse. On voit que l’on a une 1re
boucle qui va constamment diminuer la
température.

Mais en même tps, puisqu’il fait plus


froid, on va augmenter les masses
d’air froides, lourds mais hautes
pressions. Vont devenir de plus en
plus importantes, notamment sur ces
chaînes de montagnes. Donc si les
hautes pressions sont généralisées
sur ces chaînes de montagnes ou
calottes glaciaires. Les dépressions
qui amènent la neige vont avoir de plus
en plus de difficultés à envahir ces
zones-là puisqu‘elles sont protégées
par les hautes pressions. Elles vont
avoir tendance plutôt à s’en aller plutôt
que venir et apporter de la vapeur
d’eau. Donc, si vous voulez, à cause
de ces hautes pressions, on va
diminuer la quantité de neige qui va
s’accumuler là et on va éventuellement
avoir une diminution de l’Albedo. Qui va résulter en une augmentation de la température. Donc on a là une rétroaction
négative. A cause de cette généralisation de ces hautes pressions.

3e chose aussi : si vous diminuez la température, plus de précipitations vont tomber sous forme de neige plutôt que
sous forme de pluie. Ca aussi, ça va renforcer l’effet et ce sera un autre climat. Vous voyez que tout de suite, ça devient
beaucoup plus compliqué et que une seule cause va avoir différents effets dans les 2 sens. Le problème est d’arriver
dans les projections, dans les modélisations, d’être bien au niveau de la physique que l’on va utiliser dans les modèles
pour arriver à reproduire la bonne balance entre ces + et ces -, dans ces refroidissements. Donc le bilan est complexe.
Et donc des petites fluctuations de l’un ou de l’autre vont avoir des effets décisifs puisque on est proche du point de
congélation. On peut donc très vite changer la donne.

3° Rétroaction : couvert nuageux


La plus difficile à modéliser. Supposons que à cause de l’apport astronomique, je chauffe un peu +. Donc j’ai un peu +
d’évaporation donc + de nuages qui se forment. Ici, ce n’est plus tellement la vapeur d’eau qui va m’intéresser, c’est
le nuage en lui-même donc les gouttelettes d’eau qui sont condensées. Vous savez que ces nuages peuvent se former
à différentes altitudes et avoir différentes formes. On le voit quand on regarde le ciel pendant la journée. Que va t-il se
passer? 2 effets différents et opposés, une fois de plus.
Rappelez-vous le schéma que je vous ai
expliqué. D’abord, s’il y a plus de nuages
vous avez un effet aussi qui va renforcer
l’effet des gaz à effet de serre. Donc je
vais augmenter la température. Si je fais
cela, j’augmente l’évaporation et donc
j’augmente le couvert nuageux. J’ai donc
déjà une boucle de rétroaction positive.
Parce que à cause de plus de nuages,
j’augmente l’effet de retour.

Mais d’un autre côté, rappelez-vous, les


mêmes nuages (pas vraiment les mêmes
car ce sont des nuages qui sont
généralement à plus haute altitude) vont
pouvoir réfléchir directement l’énergie du
soleil vers l’espace. Au départ, à l’arrivée.
Et donc si j’ai plus de nuages, cet effet
pourra aussi être renforcé. Donc moins de
l’énergie incidente arrive jusqu’au sol.
Cela va résulter en une baisse de la température qui va baisser la vapeur d’eau présente, baisser le couvert nuageux
et qui va donc mener à une diminution de température. Et donc cela va dépendre du type de nuages qui se forment.

Cirrus très haut dans le ciel à quelque part comme 12 km d’altitude. Ceux-là vont avoir un effet essentiellement de ce
type-ci. Ils vont vaporiser la quantité d'énergie qui va partir vers l’océan. Tandis que si ce sont des stratus, qui sont
plus bas dans le ciel, on va avoir plutôt un effet d’un autre type. C’est là que météo rejoint la climatologie. Et qu’il faut
arriver dans un modèle climatologique qui travaille sur plusieurs dizaines d’années à reproduire fidèlement ce qui va
se passer à courte échelle de temps. D’où la complication, encore une fois.

Comment océan va réagir à ces variations astronomiques?


Rétroaction : pompe solubilité océanique
Je pars de supposition que sous une variation
astronomique même légère, j’augmente la
température. Ce qui va se passer : je vais
changer la solubilité du dioxyde de carbone
(qui est un GES) mais aussi du méthane.
Tous les gaz en général, leur solubilité c’est-
à-dire la facilité avec laquelle ils se dissolvent
dans l’eau océanique va dépendre de la
température. Plus il fait chaud, moins on peut
mettre de gaz dans l’océan. Donc plus il fait
chaud, moins de CO2 dans l'atmosphère va
pouvoir passer dans l’océan. Et même si vous
réchauffez la température, du CO2 qui était
dans l’océan ne pourra plus y rester, il va
repasser dans l’atmosphère.

Autrement dit : on va limiter la capacité de


l’océan à stocker des GES à l’état dissous.
Donc, si vous voulez, à partir d’un équilibre
comme celui-ci (entre le CO2 qu’il y a dans l’atmosphère et le CO2 qui est dissous dans l’eau), on va aller vers un
équilibre qui se déstabilise, où plus de CO2 qui était dans l’eau va repartir dans l’atmosphère parce qu’on solubilise
moins facilement le CO2 dans l’eau.

Par rapport à la situation précédente, ce réchauffement fait que je relâche plus de CO2 dans l’atmosphère. J’augmente
la quantité de GES donc j’ai un effet de rétroaction positive car je contribue à continuer à augmenter la température.
On appelle ça la “pompe de solubilité océanique” ou “pompe physique océanique”. Ce sont les propriétés de
l’eau qui, quand elle se réchauffe, solubilisent moins de gaz. Et donc, de ce fait-là, une plus grande quantité - à
conditions égales - une plus grande quantité de CO2 va se retrouver dans l’atmosphère par rapport à celle qui est dans
l’océan.

Alors, il y a non seulement des effets physiques et chimiques mais la biologie s’en mêle aussi...ce qui rend les choses
encore plus compliquées.

Rétroaction : pompe biologique de l’océan

C’est-à-dire liée aux algues qui vivent


dans l’océan. Si je prends la même
variation ici, si j’augmente la température
pour des raisons astronomiques (comme
je vous ai expliqué tout à l’heure), je vais
éventuellement améliorer les conditions
de photosynthèse. Je vais avoir plus de
photosynthèse dans l’océan pour des
raisons de température (éventuellement,
en supposant que la photosynthèse est
toujours accentuée par des
températures plus élevées). Si la
photosynthèse augmente, à partir d’un
équilibre qui existait, je vais avoir plus de
CO2 qui va passer dans l’eau puisque je
vais diminuer la quantité de CO2 qui est
dans l’eau. Je l’utilise pour former de la
matière organique et donc l’équilibre se
rétablit et une partie de CO2 qu’il y avait
dans l’atmosphère va aller se dissoudre
dans l’eau. Donc je pompe le CO2 atmosphérique puisqu’il est utilisé pour la photosynthèse par les algues dans
l’océan. Ca, c’est intéressant. C’est un puits de CO2 atmosphérique et donc de ce fait-là, je baisse la quantité de CO2
dans l’atmosphère, je baisse les gaz à effet de serre et donc il en résulte une baisse de température, c’est-à-dire qu’à
une hausse de température d’origine astronomique, j’induis une
baisse de température d’origine biologique.

C’est ce qu’on appelle, un grand type de processus que l’on a rassemblé sous le nom d’hypothèse Gaia. Que dit cette
hypothèse? Elle analyse l’histoire de la terre sur toute son histoire. On repart dans le long terme. On sait que
globalement, de par les réactions dans le soleil, nous avons reçu de l’énergie dans une quantité qui a augmenté de
25% depuis la création de la terre, depuis 5 milliards d’années. 25% en plus d’énergie solaire. Or, la température n’a
pas augmenté de 25% Au contraire, elle a diminué régulièrement à cause de tous ces autres effets dont je vous ai
parlé tout à l’heure.

Donc certains scientifiques ont émis l’idée que c’est un système d’auto régulation lié à l’action de la biologie. C’est-à-
dire que c’est parce que la biologie est apparue et a commencé la photosynthèse (et donc a fixé le dioxyde de carbone)
que l’on a surcompensé l’augmentation de l’apport énergétique du soleil depuis l’histoire de la terre. On parle d’un
espèce de système d’auto régulation de la terre qui, par l’activité biologique (essentiellement la photosynthèse) a
commencé à fixer le CO2 et a diminué les GES de telle manière que ils ont compensé l’apport d’énergie
supplémentaire, cette fois-ci liée à une longue échelle de temps à l’histoire du soleil. Ca, c’est une des rétractions qui
est impliquée éventuellement aussi à long terme. C’est très discuté mais disons que c’est un schéma relativement
simple à comprendre ici dans cette pompe biologique.

Ce slide est en liaison avec ce que j’ai dit juste avant : je vous ai parlé du fonctionnement de cette pompe biologique
mais je vous ai dit que j’ai basé mon raisonnement en disant “s’il fait plus chaud, la photosynthèse sera plus efficace”
Il se trouve que si on va voir dans les archives ce que l’on retrouve dans les sédiments océaniques, on a en fait des
indicateurs que la photosynthèse était, dans certaines parties de l’océan Antarctique notamment, polaire, plus efficace
en période froide et non pas en période chaude ! On le montre par l’augmentation de composés sucrés,... par le fait
qu’il y a plus de delta C13 (rappelez-vous il nous donne une indication sur l’intensité de la photosynthèse) et par le fait
que l’on retrouve plus de fer dans les sédiments marins pendant les périodes froides.

Ca, ce sont des éléments qui auraient tendance à prouver que la photosynthèse sera + efficace en période froide et
non pas en période chaude. Donc l’inverse de ce que j’ai dit dans le raisonnement précédent. En tout cas, dans certains
océans, notamment l’océan austral. Dans ce cas de figure, si j’ai une augmentation de température, elle va diminuer
l’activité photosynthétique donc on va aller dans l’autre sens par rapport à l'hypothèse précédente. On va donc diminuer
la pompe à CO2. On va relâcher plus de CO2 dans l’atmosphère. On augmente le gaz à effet de serre. C’est
exactement le schéma inverse de celui que je viens de présenter. Et donc on va avoir éventuellement une rétroaction
positive. A ce stade-là on a des réactions différentes suivant les endroits où l’on se trouve à la surface de la terre donc
cela complique, comme vous le voyez, la modélisation qui va essayer de reproduire ces choses-là pour voir ce qui va
se passer dans le futur.

DONC la rétroaction pompe biologique, elle peut aller dans les 2 sens en fonction de la dépendance de l’activité
photosynthétique à la température.

Toujours dans ce listing de systèmes d’amplification, un autre important (cette fois-ci lié à la présence de glace à la
surface la terre - ou de neige, aussi) : l’albedo des glaces continentales. Voilà par exemple une situation. C’est une
carte très particulière dans la façon dont c’est présenté. Comme vous le voyez, c’est centré sur le Pôle Nord. Le
Groenland est visible aussi. On est il y a 18 000 ans. C’est ce qu’on appelle le dernier maximum glaciaire. Il y a une
grande calotte glacIaire sur l’Amérique du Nord. Il y a une grande calotte glacIaire sur la Scandinavie et sur la mer
de…ici On voit tout de suite que la terre paraît très blanche de l’extérieur à cause de cette glace. Très différent de la
situation actuelle, où il n’y a plus
que le Groenland comme calotte
glaciaire. Tout le reste, c’est soit
de l’océan, soit de la terre. Avec
un albedo bcp plus faible.

Et donc l’idée, si vous vous


rappelez les valeurs d’Albedo. La
neige fraîche, c’est presque
jusqu’à 95% de l’énergie qui est
renvoyée vers le ciel tandis que
pour une forêt c’est au contraire
80 à 90% de l’énergie qui est
absorbée. Seulement +/- 10%
renvoyé.

Donc il y a un gros contraste


d’Albedo entre les deux situations
de la terre. Evidemment,
rappelez-vous, qd vous regardez
cette petite simulation, qui est
une reconstruction basée sur des
sites géologiques, sur de
l’archéologie, etc. (plusieurs facteurs ont aidé à faire cette
reconstruction) vous reconnaissez la forme de l’Amérique du
Nord et l’Amérique centrale. Vous voyez ici les années qui
défilent en milliers d’années par rapport à aujourd’hui. On va
attendre qu’elle redémarre au début. Vous allez voir ici 18 000
ans. On avait une grande calotte sur toute l’Amérique du Nord,
celle-ci, et puis vous voyez qu’il y un changement. La
proportion de blanc change complètement à l’échelle du
continent. Ca, ça va jouer bcp sur la qté d’énergie qui va être
soit absorbée, soit réfléchie.

Donc vous voyez que quand les calottes glaciaires


commencent à - supposons que l’on est dans un même type
de schéma - supposons que l’astronomie nous envoie un peu
plus d’énergie, à ce moment-là on commence à faire fondre
les calottes. Donc on remplace des surfaces blanches par des
surfaces noires. Ce qui fait qu’une plus grande partie de
l’énergie est stockée au niveau de la couche intérieure de
l’atmosphère, ce qui fait fondre encore plus la calotte, ce qui
fait que la partie blanche rétrécit encore plus. Et ainsi de suite.
Donc vous avez là clairement une rétroaction positive.
Ca, c’est pour les glaces continentales. Il y a aussi les
glaces océaniques. Avec une différence de 0,25 à
0,95, non pas entre le dos et le ventre des manchots,
mais entre la glace de mer et l’océan. L’océan, vous
voyez : albedo, 0,2 quelque chose. Et glace de mer,
0,95. Si cette glace de mer se rétrécit parce qu’on
amène un petit peu d’énergie en plus par des
phénomènes astronomiques, à ce moment-là, on
diminue la surface occupée par la glace. Et donc on a
plus d’océan qui absorbe plus. Vous avez un petit
schéma ici. C’est l’idée que plus vous absorbez
l’énergie par la glace, elle fond. Plus grande surface
foncée qui absorbe d’autant plus d’énergie. Et donc
cela ne fait que renforcer l’effet de disparition de la
glace. Si on intègre ce processus-là à l’ensemble de
l’Arctique… voilà tout l’océan Arctique ici sur le slide.
Au départ, il y a très peu d’océan, qui absorbe peu. Quand la glace commence à rétrécir sur les bords, il y a plus de
surfaces foncées, qui absorbent plus d’énergie, qui accélèrent encore la disparition de l’océan Arctique. Et c’est ce qui
se passe. C’est LE phénomène le + marquant (on en reparlera la fois prochaine) Pour le moment, dans les
changements récents du climat, c’est ce rétrecissement de la banquise arctique.

Younger Dryas = Dryas récent


Je vous donne surtout la partie visible de l’iceberg (sans jeu de mots), tout ce qui est le plus important.
Il y a aussi les interactions entre calotte et océan.
Je vous rappelle : un des systèmes par lesquels l’océan recycle l’énergie en excès entre les tropiques, c’est par la
circulation océanique avec les eaux qui plongent sous l’effet de la formation de la glace et puis qui remontent en surface
sous l’effet des alizés. Qui trimballent toute cette eau très chaude vers le nord. Que se passe-t-il? Dégagement de
chaleur. Si on regarde de nouveau un changement, par exemple, supposons que l’on passe d’une période glaciaire à
une période interglaciaire -> donc on diminue la surface de ces calottes. On les fait disparaître. Elles disparaissent
sous quelle forme? Sous forme d’eau. Cette eau douce va éventuellement venir s’accumuler, depuis les anciennes
grandes calottes nord-américaines ou scandinaves, dans l’Atlantique Nord.

Ce sont les 10 secondes de vérité du “Jour d’après” (film). C’est le moment où vous avez ce scientifique qui présente
au gouvernement américain ce qui s’est passé il y a 14 000 ans, c’est-à-dire quand les grandes calottes glaciaires ont
fondu lors de la sortie de la dernière glaciation. On a eu une très très grande quantité d’eau douce qui est arrivée à la
surface de l’Atlantique Nord. Et qui a bloqué ce tapis roulant. Parce que l’eau douce étant plus légère, elle contient
moins de sel, elle est froide (c’est vrai - ça ça ferait en sorte qu’elle plonge parce qu’elle est plus dense) mais il se
trouve que c’est la salinité qui l’emporte sur la température au niveau de la densité à ces températures-là.

Bref, toute l’eau de fonte qui est apparue ici s’est stockée provisoirement dans l’Atlantique Nord et a bloqué l’arrivée
des eaux chaudes qui venaient du gulf stream. Et donc l’idée c’est qu’à cause de ça, si je vais maintenant reprendre
un carottage au Groenland entre la surface et (on l’a mis en 2 parties ; normalement, cette partie-ci se trouve en
dessous de l’autre ; on l’a mis en 2 colonnes)... Ce que l’on a en noir, ce sont les profondeurs de 0 à 3000 mètres. En
rouge, ce sont les milliers d’années. Comme je vous l’avais expliqué, les épaisseurs de glace sont + importantes (la
résolution est meilleure) dans les parties supérieures au fur et à mesure que la glace se comprime et se compacte, le
temps se racrapote. Vous voyez que le temps en milliers d’années augmente bcp plus rapidement. Il n’est pas linéaire.
On arrive à 250 000 ans à la base.

La courbe bleue, maintenant vous connaissez ça. C’est le delta O18 de la glace. Donc c’est un équivalent de la
température. Vous voyez que sur les derniers 10 000 ans, on est très stables (sauf petit accident vers 8000 ans) mais
sinon c’est très stable. Et donc regardez la valeur -34, -35 c’est la même valeur qu’ici. Ceci vient se mettre là en
dessous.

Et puis, vous voyez qu’avant ça, on a eu pas mal de déboires. On a d’abord toute une période qui est beaucoup plus
froide en niveau de base. C’est la dernière glaciation. Mais vous voyez que celle-ci a eu des hauts et des bas. Il y a eu
des moments plus chauds.

Période chaude précédente. On voit que les valeurs sont globalement moins négatives. Elles sont même moins
négatives qu’aujourd’hui. -32 au lieu de -34 ou 35.

Ce qui m’intéresse, c’est surtout cette zone-ci, ce qui s’est passé à ce moment-là. C’est-à-dire que l’on était au
maximum glacier à 18 000 ans. Et puis, on a reçu de l’énergie en excès de l’astronomie. (Le processus dont je vous
parlais) Et donc on a fait disparaître progressivement ces calottes glaciaires. Elles ont fondu. Vous voyez que, comme
elles ont fondu, on a dû monter la température au départ (parce qu’on a reçu de l’énergie vers 14 000 ans) et puis tout
à coup BOUM le système s’est inversé. On a rediminué fortement les températures au Groenland (cf. le carottage qui
est ici quelque part) et pendant 2 milliers d’années (+/- 1500 ans) on est restés à basse température. C’est un
changement non négligeable. C’est de l’ordre de 8 degrés la différence (au Groenland!).

Et puis après, on est remontés en température. Si vous voulez, on est retournés au niveau d’avant. On a stabilisé pour
les 10 000 dernières années. Soit dit en passant au moment où les systèmes agricoles ont commencé à se développer.
C’est assez intéressant au niveau de l’histoire de l’Homme et de son développement. Ce n’est pas ça que je veux vous
dire. Ce que je veux vous dire c’est ce qui s’est passé ici : c’est que on a commencé à réchauffer le climat. On a fait
fondre les calottes. On a produit cette grande quantité d’eau ici, qui a bloqué l’arrivée du gulf stream. Qui a amené la
chaleur des régions tropicales. Du coup, la chaleur n’est plus arrivée jusque chez nous. Et au Groenland, la température
est redescendue en flèche jusqu’au moment où l’agitation sous l’effet des vents, ...et la quantité d’eau qui arrivait est
devenue de + en + faible. Et donc on a remélangé l’ensemble. On a rééquilibré les températures et on a permis alors
à la circulation thermohaline(?) de redémarrer. C’est donc un phénomène naturel par lequel lors de la dernière
glaciation (et cela s’est passé pour les précédentes aussi) on a amené énormément d’eau douce à la surface de
l’Atlantique Nord, ce qui a bloqué le Gulf Stream et qui a fait baisser les températures de plusieurs degrés.

Et donc je disais que ce sont les « 10 secondes de vérité » dans le film “Le Jour d’après”. Cette explication-là est
correctement donnée. Seulement au début du film. Après, ce n’est plus la vérité scientifique. L’idée, c’est de se baser
sur le fait que à cause du réchauffement climatique anthropique, l’idée, qui a d’ailleurs été émise par les scientifiques
aussi, c’est que ce qui reste ici de glace disparaîtra aussi ! Le Groenland pourrait disparaître si on a un impact suffisant
sur le climat. Et donc on a un peu un mini évènement. On appelle ce que l’on a vu le “Dryas récent”. Et donc on aurait
un mini Dryas récent. D’autant plus qu’en plus de la fonte de la calotte, puisqu’il fait plus chaud, le cycle hydrologique
est plus important. Donc toutes les grandes rivières qui se trouvent en Russie (l’Ob, le Ienisseï, la Léna et tout ça)
fourniraient d’autant plus d’eau de pluie à l’Arctique.
Ca c’est de l’eau douce qui viendrait flotter sur l’Arctique. Et qui aurait un effet similaire. Viendrait bloquer la remontée
du gulf stream. Si on bloque la remontée du gulf stream, on aurait tout à coup, à cause du réchauffement climatique,
un refroidissement brutal lié au fait que l’on a bloqué la circulation thermohaline.

Pour vous dire en bref. Toutes les modélisations qui ont été faites jusqu’ici ne montrent pas un arrêt de la circulation
thermohaline globale, même dans les scénarios les plus catastrophiques. 8.5,... Si on va jusqu’en 3000 avec un
business as usual, à ce moment-là, certains modèles commencent à montrer un ralentissement important de cette
situation thermohaline globale. Ce n’est pas à l’ordre du jour simplement parce que la quantité qui reste encore est
beaucoup plus faible que celle qui existait avant donc son effet sera moins important. L’augmentation des pluies ne
sera pas suffisante non plus. Et en plus de ça, le timing, si vous voulez, ne sera pas le même.

Et donc, pour le moment en tout cas, les modèles n’arrivent pas à reproduire un scénario catastrophe du même type
que celui-là sous l’effet anthropique, en tout cas dans l’état actuel des connaissances et jusqu’au 3e millénaire.

Voilà un autre potentiel d’interaction : on bloque les systèmes de redistribution de l’énergie par cette production d’eau
douce importante et donc, du coup, une rétroaction négative si on veut de la terre. La terre est en réchauffement mais
à cause de cet effet-là, elle repart en refroidissement. En tout cas, dans l’hémisphère Nord. Mais il y a aussi des choses
qui se passent dans l’hémisphère Sud.
Pour aller plus vers ces fameuses calottes de glace, voilà par exemple une photo de la bordure de la calotte antarctique,
au moment où elle passe la chaîne transantarctique
(Transantarctic Mountains).

Elle
arrive, elle flotte sur
l’océan. La glace
devient beaucoup plus
plane. C’est parce
qu’elle flotte à partir de
là...vers nous. On a
l’océan dans notre dos. Ca, si vous voulez, c’est une falaise de 20 mètres donc ce
n’est pas négligeable. Ca, c’est la glace qui vient du continent et qui flotte. C’est
ce qu’on appelle un “ice shelf”, une plateforme de glace flottante. Le devant, le
blanc, c’est la mer gelée. C’est l’océan gelé, c’est quelques mètres d'épaisseur
maximum. Donc c’est de la glace de mer qui est gelée, c’est la banquise tandis
que l’autre c’est la glace qui vient du continent et qui flotte. Cela forme ce que l’on
appelle des plateformes de glace flottante.

Vous voyez que ces plateformes sont importantes parce qu’elles sont ralenties car
elles viennent buter contre les îlots centraux et il y en aussi que l’on ne voit pas
mais qui sont en profondeur, sur le fond rocheux. Des ilôts latéraux, sur le flanc
des baies Tout cela, cela ralentit l’écoulement de ces plateformes de glace
flottante. Elles bloquent si vous voulez la glace qui vient de l’intérieur du continent.

Donc, si vous voulez, ces plateformes sont un peu comme les robinets du système.
Du fait que sont freinées sur les bords et les ilôts sous-marins qu’elles ralentissent la glace qui vient de derrière, qui
s’écoule vers l’océan et donc elles limitent l’accélération de l’augmentation du niveau marin. Autrement dit, si on ouvre
le robinet, si on fragilise ces plateformes de glace flottante, la glace qui est derrière ne sera plus freinée et s’écoulera
de + en + vite vers l’océan. C’est ça qui fait monter le niveau marin. Si vous prenez le glaçon qui se trouve à l’extérieur
et vous le mettez dans l’eau, vous faites monter le niveau marin. Si vous prenez la glace qui est sur le continent et que
vous l’envoyez dans l’océan à un rythme accéléré, vous augmentez le niveau marin.

Donc ça ce sont les robinets du système. Ils vont jouer un rôle important. Si vous regardez bien ici dans la coupe par
exemple de la calotte qui était sur l’Amérique du Nord, à un moment donné, il y a 8000 ans que se passe-t-il? A un
moment donné, si vous réchauffez l’océan, vous allez éventuellement diminuer l’épaisseur de cette plateforme et donc
vous allez rapidement faire flotter une très grande partie de la calotte parce qu’une bonne partie du fond rocheux est
en dessous du niveau marin donc dès que vous décollez ici, il y a une grande quantité d’eau qui va pouvoir pénétrer
et qui va pouvoir faire flotter une grande quantité de glace. Et dès que cette glace flotte, elle forme des icebergs. Elle
s’en va. On diminue l’albédo, on réchauffe encore plus et ça, ça a un effet catastrophe. Je ne sais pas si vous vous
rappelez l’animation de tout à l’heure avec...qui se rétrécissait, cela allait à un certain rythme et puis tout à coup ça
s’accélère.
Ca s’est accéléré vers 8000 ans. Tout à coup, tout disparaît en un coup. Eh bien c’est parce qu’on est passé à un stade
où on a franchi ce seuil pour la baie du… Donc ça c’est un phénomène par lequel la glace va pouvoir accélérer
éventuellement ou renforcer un effet d’origine astronomique. Donc : montée du niveau marin -> du coup, on perd la
glace, on perd l'albédo ...

Le dernier d’entre eux qui a


été découvert récemment :
ce sont les aérosols
sulfatés biogéniques. Ca
paraît complexe mais c’est
quoi? Aérosols, ce sont des
fines particules en
suspension dans l’air.
Sulfatés = ils sont basés sur
des sulfates. Biogéniques =
qui ont été engendrés par
biologie. Quelle biologie? La
biologie océanique !
Notamment, dans les océans
polaires.

Que se passe-t-il dans les


océans polaires? L’air est
très froid, l’eau est froide, les
algues qui vivent là-dedans
ne sont pas très à l’aise.
Voilà que l’on vient geler leur
habitat. Donc elles vont se
retrouver dans les petites poches d’eau de mer, isolées dans la glace. Ce n’est pas très agréable. Elles vont donc
devoir survivre à des basses températures et fortes salinités. Parce que...que va-t-il se passer? Quand vous allez
former votre glace, elle va venir se former en surface. Cette glace va commencer à croître de + en +. Elle va
incorporer/inclure des poches de saumure16 avec dedans des petites algues qui se sont fait piéger parce qu’elles n’ont
pas fait attention (caricature). Si j’agrandis l’espace et qu’il fait de + en + froid, l’eau va geler partiellement dans ces
poches. Si j’agrandis poches avec les algues qui sont dedans, l’eau va commencer à geler mais en rejetant les sels à
l’intérieur de la poche. Et donc la poche va devenir de + en + petite. Les algues vont rester dedans. Mais au lieu d’avoir
une salinité de 34/1000 qui est la salinité de l’eau de mer, la salinité va monter jusqu’à environ 190/1000 ou 200/1000.
En tout cas, c’est pas très rigolo. L’environnement de la cellule est très salin. Celle-ci n’aime pas trop cela parce que
en tant que cellule, elle doit constamment régler la salinité intérieure en fonction de la salinité extérieure. C’est ce que
l’on appelle la pression osmotique. Et donc la cellule va fabriquer des choses pour cela. Cela s’appelle des
régulateurs osmotiques.

D’un autre côté, comme il fait froid (était dans un océan à -2 degrés ; maintenant dans une glace à -20 ou - 30 degrés),
la cellule doit éviter de geler. Besoin d’un antigel. Une même substance va faire les 2. Elles vont produire ces algues
ce qu’on appelle DMSP (Diméthylsulfoniopropionate). C’est une substance fabriquée par ces algues qui permet de
réguler leur salinité intérieure en fonction de la salinité extérieure et ne pas geler.

La raison pour laquelle DMSP m’intéresse, c’est parce que vous avez dedans un “S” pour soufre. C’est un composé
qui contient du soufre.

16
La saumure (du latin sal, sel, et muria, eau salée) est une solution aqueuse d'un sel, généralement de chlorure de sodium (sel de
cuisine) NaCl, saturée ou de forte concentration. La saumure est formée naturellement sur les côtes, dans des lagunes, des rivières
ou des lacs salés, ou des flaques isolées de la mer, par évaporation de l’eau sous l’action du soleil et du vent. Elle se forme également
par lessivage de bancs de sel gemme, lors de l'infiltration d’eau douce à travers des couches perméables du sol. Parmi les saumures
naturelles les plus connues, on peut citer celles de la Mer Morte (dont la salinité est dix fois supérieure à la salinité moyenne des
océans) ou du Grand Lac Salé (Utah, États-Unis).
Quand l’algue meurt ou se fait manger par un zooplancton (ou dégrader par un virus), elle va former un composé plus
simple qui s’appelle le DMS (Diméthylsulfure). Ca, c’est un gaz (très important !). Et puis, ce gaz, il s’évacue vers
l’atmosphère. Il (soufre) va s’oxyder en présence d’oxygène et former du sulfate. Et donc, des aérosols sulfatés.

Voici ci-dessous la chaîne complexe de tous ces évènements. (Je ne vous demande pas de retenir tout ça.) Donc,
voilà une algue qui fabrique ce composé et par différentes voies, ce composé est dégradé dans un gaz, qui s’échappe
dans l’atmosphère. Il s’oxyde et forme des sulfates.

Pourquoi sont-ils importants, ces sulfates? Pour 2 raisons :


- Parce que ce sont des aérosols, des particules solides qui vont être en suspension dans l’atmosphère et qui
vont faire un peu comme la partie supérieure des nuages, vont bloquer le rayonnement et renvoyer vers
l'espace, ce qui contribuer à l'albédo de la planète.
- Ces aérosols/sulfates vont servir par ailleurs de noyaux de condensation pour les petites gouttelettes d’eau
dans les nuages donc ils vont favoriser la formation des nuages.

Pour ces 2 raisons-là, ils vont


éventuellement un peu jouer un
effet opposé à celui des GES. Ils
vont renvoyer une partie de
l’énergie incidente vers l’espace
en plus grande quantité.

Donc il y a un effet direct par leur


présence : ils bloquent le
rayonnement incident. Et un
effet indirect : ils favorisent la
condensation dans les nuages.

Les nuages, c’est un peu plus


délicat comme je vous ai montré
tout à l’heure. Soit ils vont
renvoyer vers l’espace et vont
encore contribuer à refroidir la
terre, soit ils vont augmenter
l’effet de serre et alors là, ils vont
contribuer à réchauffer la terre.
Donc c’est à balancer dans les
processus.

Vous voyez que dans ce schéma très compliqué, on vient rajouter ce rôle du soufre qui vient du plancton à des autres
sources de soufre : les volcans, l’érosion (qui amène des sels en suspension dans l’air) mais aussi évidemment le
chauffage domestique (avec les impuretés dans le fuel qui sont des impuretés sulfurées -> quand ça sent l’oeuf pourri
dans la chaudière, il est temps de la remplir) et puis aussi l’industrie.

Ca, ce sont les sources que l’on connaissait bien. On se rend compte maintenant que le plancton qui vit dans ces
conditions spécifiques dans les océans polaires produit ces composés soufrés et contribue à/favorise un effet de
refroidissement (donc un effet opposé à celui de l’effet de serre), d’où l’intérêt de mieux comprendre et quantifier ce
processus car on a tout intérêt à ce que se poursuivre. Ceci pour vous montrer que cela va très loin au niveau de ces
interactions.

Retour au “triangle climatique”


Je vous ai parlé du forçage astronomique. Je vous ai parlé de comment la terre peut renforcer certains aspects ou en
amortir d’autres. Vous avez vu, par exemple, le pic à 100 000 ans. Visiblement, il est renforcé par la terre puisqu’il
n’apparaît pas du tout dans… (le forçage des radiations?) Les calottes glaciaires se construisent et se déconstruisent.
Elles mettent de l’ordre de 100 000
ans pour se construire et se
déconstruire. C’est la source probable
de ces distorsions.

Venons-en à l’homo climaticus


potentiel. C’est-à-dire : que vient faire
l’homme dans cette galère? A-t-il un
rôle ou pas? On va rentrer dans cette
dernière partie. On va essayer de voir
comment homme vient se greffer sur
tous ces processus que je viens
d’expliquer.

Première question : quelles sont les


tendances récentes du climat ?
(Càd depuis que l’homme existe en
“quantité suffisante” avec des effets
suffisants donc on va se limiter à la
révolution industrielle - on va on avait
déjà des suspicions pour savoir si
l’Homme avait un impact sur le climat
notamment les Indiens d’Amérique, il y a des articles là-dessus mais nous allons nous concentrer sur la période la plus
significative)

Alors, évidemment, quand on parle tendances récentes du climat, la première variable à laquelle on pense, c’est la
température. Bien sûr, c’est ce que l’on ressent le plus facilement.

Vous allez voir que dans ce qui va suivre, je vais à la fois emprunter des choses à l’état des lieux du rapport AR417 du
GIEC (donc 2007). Pas le dernier, l’avant-dernier. Et puis, je vais emprunter des choses au dernier rapport. Juste pour
vous montrer comment les choses vont éventuellement évoluer de l’avant-dernier au dernier parce que l’on va voir qu’il
y a déjà pas mal de choses qui ont bougé et il est intéressant de les mettre en évidence.

Ici, il s’agit de courbes qui sont apparues dans l’avant-dernier rapport :

17
https://www.ipcc.ch/report/ar4/syr/
En fait, on s’intéresse à l’évolution de la température au cours du temps. Vous allez voir que du premier panneau au
deuxième panneau, on va simplement changer l’échelle de temps. D’abord, on va travailler sur la période dite
“instrumentale”, c’est-à-dire où on a réellement eu des thermomètres pour mesurer la température. Donc la période la
plus récente. Vous avez différentes courbes. Ce sont les températures globales pour le globe. En degrés centigrades.
Par rapport à WRP (= with regard to). Ca veut dire “comparé à” la période moyenne, c’est-à-dire 1961-1990. Vous
voyez qu’elle est sur le 0. On prend une période de référence et puis on compare les observations à période de
référence. C’est traître parce que vous allez voir que la période de référence change d’un rapport à l’autre donc ce
n’est pas facile de comparer les résultats d’un rapport à ceux du suivant.

Mais donc, voilà les mesures. Quelque chose que vous voyez d’abord c’est que la marge d’erreur de ces mesures
augmente au fur et à mesure que l’on remonte dans le temps. Plus on remonte loin, moins précis on est. Les précisions
deviennent bien meilleures aujourd’hui évidemment. Ca, c’est une première chose.

Si on regarde un peu l’évolution récente, il y a une autre courbe sortie du rapport de 2013 IPCC. Ce n’est pas le rapport
global, c’est le suivant dans la série. C’est la même chose, si vous voulez, ce l’on voit c’est que on a globalement de
l’ordre de 0.85 (alors, ça dépend encore une fois quelle période de référence on prend) avec une marge de manoeuvre
de 0.65 à 1.06. Donc 0.85 de 1880 à 2012. Avec une chose que j’ai du mal à faire mais que l’on peut faire aussi : c’est
de prendre des exemples relativement récents. Malheureusement, on a peu de recul. Je me base sur les 20 dernières
années. C’est un peu court au niveau climat donc c’est un peu dangereux à faire mais ça n’empêche que depuis l’an
2000, entre 2000 et 2017, on a eu les 12 années les plus chaudes. Avec un record en 2017, qui n’est pas une année
El Nino. On s’attend à avoir des records pendant les années El Nino. On y reviendra un petit peu plus tard. Mais donc
quand même, ce sont les 12 années les plus chaudes dans les 20 dernières années. Ce n’est quand même pas
négligeable même si ça ne s’intéresse pas à une période de temps suffisamment longue pour que l’on puisse parler
réellement de “tendance climatique”.

Un autre chiffre aussi : en 2016, on est à 0,94 degré au dessus de toute la moyenne du 20e siècle. Ca vous montre
quand même qu’il y a des indicateurs, que les choses sont bien claires sur ce dernier siècle.

Erreur sur les mesures croissantes dans le passé. Vous le voyez surtout dans les années avant 1950.

Maintenant, on passe au diagramme du dessous. Qu’est-ce qu’on a fait? On a élargi l’intervalle de temps. On va
maintenant jusqu'à 800, donc on va vers ce fameux Moyen-Age dont tout le monde parle. En fait, on retrouve cette
courbe-ci. Cette région grise, ici. On racrapote cette courbe-là, si vous voulez, en la courbe noire que vous voyez. La
courbe noire, c’est la même que l’autre. Et puis, derrière, on voit courbes de températures reconstruites au cours du
temps, qui sont bcp plus discordantes. C’est la première chose que l’on peut voir. Elles sont le résultat de 12 ou 13
études, qui ne sont plus des mesures directes avec un thermomètre mais des mesures indirectes, déduites des
mesures, qui sont comme vous le savez très courantes pour cette période de temps-là, c’est-à-dire des mesures dans
les cernes des arbres. Vous savez que l’épaisseur/la densité des cernes des arbres va être proportionnelle à la
température d’été. En gros, c’est ça le principe de base. Evidemment, c’est un proxy comme on dit. C’est quelque
chose que l’on mesure, que l’on calibre et on en déduit des températures. Ca dépend aussi des variations de
température régionales. C’est plus délicat à utiliser. De ce fait, les courbes sont un peu plus bancales les unes par
rapport aux autres. Pour une même période, vous avez des grandes différences de températures, parfois.

Ce qui est intéressant, c’est la façon dont on a réalisé 3e image. Ce sont les mêmes données, exactement la même
chose mais on n’a plus tracé des courbes (sauf la courbe de mesures..). Qu’est-ce qu’on a fait? Autour de chaque
courbe, on a mis la marge d’erreur sur la reconstruction. Un peu comme une gaussienne où on aurait la valeur et puis
où est-ce qu’on va, de part d’autre. On a fait cela pour chacune des courbes. Ce que vous voyez dans les couleurs,
c’est le pourcentage de données, d’études (dans toutes ces études-là) qui donnent cette température-là, à cet âge-là.
On a par exemple ici en 700, on une couleur très gris clair, ça veut dire que je n’ai qu’une seule valeur, en l’occurrence,
une seule étude donc seulement 10% des études qui me disent que la température était aussi basse à cette époque.
Par contre, si je vais au milieu, j’ai une couleur très brun foncé. Ca veut dire cette température-là, elle est dans la marge
d‘erreur de, à peu près, 90% des études. Donc elle a un sens statistique plus fort que celle où on ne recouvre que 10%
des études. En fait, cela nous permet de donner plus de poids à l’ensemble des observations.

Si on suit les courbes brun foncé, c’est là que l’on a le plus de chance statistiquement de trouver la réelle valeur de
température qui existait à cette époque-là. C’est intéressant à regarder parce qu’évidemment on se débarrasse des
effets de pointe de UNE étude qui aurait des valeurs très élevées ou très basses. Par exemple, si je regardais
seulement l’étude X, on voit que les températures étaient en l’an 1800 aussi élevées que ce qu’elles étaient peut-être
il y a une dizaine d’années. On va revenir là-dessus. Les climatosceptiques ont bcp clamé qu’au Moyen Age il a fait
aussi chaud que maintenant et “c’est pour ça que toute la variabilité que l’on maintenant, c’est une variabilité naturelle”.
Il faisait aussi chaud au Moyen-Age qu’il y a 10 ans (c’est déjà dépassé). C’est le cas dans UNE étude SUR 12, oui.
L’ensemble des autres études se situent à un niveau à peu près équivalent à 0 donc à la période de référence (1960-
1990). Donc c’est intéressant d’avoir cette perspective-là car cela donne plus de poids à l’ensemble des observations
et cela nous empêche d’être biaisés par UNE observation donnant des valeurs extrêmement faibles.

Ce que l’on voit quand même, même dans cette zone recoupée, c’est que il y a eu une variabilité naturelle du climat
au cours du dernier millénaire. Il y a eu des températures relativement plus chaudes que la moyenne au cours du
Moyen-Age et qu’il y a eu aussi des températures plus froides au cours de cette période assez large que l’on a appelée
“le Petit Age de la Glace”, Little Ice Age (LIA). Et donc il y a eu cette variation naturelle des températures avant la
révolution industrielle. Cela représente la variabilité naturelle du climat. C’est une chose mais comme vous le savez,…
Je vais revenir dans les slides qui vont suivre cette problématique parce qu’il y a beaucoup de gens qui s’interrogent
là-dessus donc j’en profite pour vous donner un peu d’informations à ce sujet.

Est-ce que il n’y a pas réellement eu variabilité naturelle sur quelques


centaines d’années et donc est ce qu’on n’est pas simplement là-dedans?
J’insiste sur le fait que nous sommes bien au-delà des valeurs maximales
prévues par études. Mais je sais que beaucoup de gens viennent avec
l’argument du Groenland. Vraiment un grand thème depuis plusieurs années.
Si on l’appelle comme ça, c’est parce qu’il était très vert au moment où on l’a
découvert. Ce serait pour ça que Erik le Rouge, viking notable qui est venu de
Scandinavie via l’Islande et a découvert le sud du Groenland dans les années
980 et donc a favorisé l’implantation de colonies viking sur le sud.

C’est intéressant de voir ce que les historiens ont à dire là-dessus. Evidemment, ce sont les seuls qui peuvent explorer
les traces écrites. C’est un peu beaucoup de texte mais vous le lirez à votre aise. Je vais reprendre simplement
quelques arguments. C’est un travail fait par une série d’historiens.
Je vous lis le texte : “les historiens disposent de précieux témoignages concernant les colonies de viking de cette
époque. Ces témoignages, ce sont les sagas islandaises essentiellement. Ce qu’ils disent c’est que malgré la présence
d’éléments fantastiques dans ces sagas, elles ne sont pas pour autant des légendes taillées de toutes pièces, bien au
contraire. Leurs auteurs anonymes s’interdisaient en effet tout embellissement ou apport personnel. Il nous est donc
parvenu des récits en prose d’une concision et d’une rigueur remarquables. Ces sortes de chroniques journalistiques
de l’époque sont particulièrement riches d’enseignement : dans la Saga d’Erik le Rouge, nous en apprenons d’ailleurs
plus sur la première colonisation du Groenland… cet été-là Erik alla coloniser le pays qu’il avait découvert et qu’il
appela Groenland, car il dit que les gens auraient fort envie d’y aller si ce pays portait un beau nom.»

Donc la mise en opposition de l’Islande, terre de glace, et Groenland, la terre verte, est (dans l’opinion de ces historiens)
la première grosse opération de marketing de l’histoire. Pour attirer mes copains viking et leur donner envie d’aller
coloniser ces terres, il s’agit de faire une belle description.

Ainsi, les Vikings ne vécurent pas dans un « Greenland » qui portait bien son nom en l’an 1000 et aurait cédé la place
à un enfer blanc. Contrairement à son étymologie, le Groenland n’est pas le vert pays de Cocagne des Vikings, mais
un simple nom pompeux qu’Erik le Rouge lui attribua pour en faire la promotion auprès de ses compatriotes. Voilà une
approche faite par des historiens qui ont lu les textes et qui ont extrait des descriptions. Et donc en effet le Groenland
est très vert sur sa côte sud ouest mais il ne l’est pas moins ou plus qu’il ne l’était.

Ca, c’est pour régler ce problème du maximum médiéval par rapport à ce que l’on observe aujourd’hui.

Je vous montre quand même cette image que vous avez sûrement toujours déjà vu. C’est intéressant, c’est une
reconstruction animée des variations de température reconstruites. La ligne de base, c’est la période 1951-1980. Les
couleurs sont blanches/bleus, c’est quand il fait froid. Quand ça va dans le rouge, c’est plus chaud. Vous avez les
années. Moyennes sur 5 ans. C’est juste pour vous montrer que clairement, même si l’intervalle est de 1 ou 2 degrés,
la tendance sur cette période est particulièrement bien soutenue. Même si se fait dans range de températures de 1,5
degré.

Réponse aux climatosceptiques


On va commencer à rentrer dans une espèce de
discussion. Je vais commenter certains arguments
que vous avez pu entendre. Comme ça, vous pouvez être un peu équipés pour répondre. Je vous dis tout de suite que
ce que je dis maintenant, il y a 15 ans, je n’aurais pas présenté choses de la même façon. Nos avis ont changé très
très fort au cours des dernières décennies. On reste des scientifiques et on reste humains. Il y a certaines choses qui
sont un peu trop grossières. Il est temps qu’on les résolve !

Pendant tout un temps, dans les années 2010, il y a eu une discussion sur le fait que entre 2005 et 2010 les
climatosceptiques ont commencé à
dire “regardez, la température se
stabilise...toute cette histoire de
réchauffement, c’est n’importe quoi”.
Il faut se rappeler le début de exposé
: on a dit que différence entre
météorologie et climatologie. Si on
veut travailler sur climatologie, si on
travaille par 10 ans, si on prend
chacune des sections de
l’enregistrement, vous pouvez
toujours dire qu’il n’y a pas eu de
variations. Mais c’est clair qu’une fois
que l’on travaille sur de multiples
décennies, ça devient très difficile de
se débarrasser de la tendance. Donc
aller dire que c’est de la foutaise
parce que le réchauffement n’a plus
bougé depuis 10 ans ce n’est pas
suffisant pour discuter tendances
climatiques.

Si vous regardez plus récemment


encore les tendances (ceci s’arrête en 2012), vous voyez que ça a eu tendance à réaugmenter sérieusement dans les
dernières années, comme je vous le disais tout à l’heure. C’est une première chose importante !

Ce qu’il est important de comprendre, c’est que cela fonctionne un peu par paliers. Beaucoup de ces paliers que vous
regardez là, en fait, peuvent correspondre à des années El Nino. C’est-à-dire des moments où dans cette dynamique
du Pacifique, on a eu une baisse de l’intensité des alizés, qui a permis un retour des eaux chaudes qui avaient été
emmagasinées (...on verra un peu plus tard quand je vous montrerai les courbes) du côté du Pacifique ouest. Et puis
qui, comme les alizés ne les repoussaient plus autant, ont pu revenir vers les côtes de l’Amérique du Sud et remonter
vers la surface et donc on a un stock d’eaux chaudes qui reviennent à la surface, qui s’échangent avec l’atmosphère
et qui sont redistribuées dans l’ensemble du système climatique. C’est ce que l’on appelle les...connexions. Chaque
fois que l’on a eu des années El Nino, on a eu des augmentations de température plus significatives, liées à ce
relargage de l’énergie vers l’atmosphère à partir de ces masses d’eaux chaudes qui revenaient vers la surface, dans
le système El Nino.

C’est probablement ce qui fait que cette augmentation de température à l’échelle du cycle El Nino, qui est de l’ordre
de 7-10 ans, on a l’impression d’une évolution par paliers comme ceci. C’est pour ça qu’il faut que l’on intègre les
mesures sur des plus grandes échelles de temps pour avoir des conclusions qui tiennent la route.

Ce que l’on dit dans le texte sur slide, c’est que suivant qu’on inclut une année El Nino dans la décennie que l’on
considère ou pas, on a résultats très différents dans les tendances d’augmentation de température.

Parlons un petit peu de l’océan...


Niveau marin : autre élément qu’on entend beaucoup. Autre critère de jugement sur les tendances du climat. Pour le
niveau marin, je vais juste vous présenter quelques informations. On a d’abord des enregistrements anciens en haut
à gauche. On essaie de retrouver villes ou ports où il y a eu des enregistrements réguliers des variations du niveau
marin. Précision qui a augmenté avec le temps. Voilà, ici, Brest, Świnoujście et Amsterdam. Vous voyez que
globalement, même si le signal est… on a dans toutes ces courbes une tendance à l’augmentation du niveau marin.
Attention, l’échelle est en millimètres. Donc on a en gros une augmentation depuis le début de la révolution industrielle
de à peu près 200 mm donc de 20 cm. C’est ce que l’on a déjà pris en termes de niveau marin dans ces enregistrements
jusqu’à l’an 2000.

Voilà, à droite, les mêmes mesures au niveau global. Sur les jauges (tide gauge? jauge des marées?), à la surface du
globe avec une marge d’erreur qui se réduit de plus en plus. Et puis, les courbes bleues c’est quand on arrive avec les
mesures de type satellitaire c’est-à-dire des mesures où avec beaucoup de précisions (à quelques dizaines de mm)
on arrive à bien reconstituer la hauteur des eaux et donc la variation du niveau marin.

Qu’est-ce qui est responsable de ça? Justement, c’est là que quelque chose a changé très fort entre le rapport 4 et le
rapport 5. Voilà, en anglais (désolé), la contribution à l’augmentation du niveau marin total, sur 2 périodes différentes,
une période honnête au niveau climatique (40 ans) et une période un peu moins honnête (10 ans) Un peu limite au
niveau raisonnement climatique mais c’est juste pour montrer qu’il y a une accélération dans dernière décennie si on
se réfère à ce rapport-là.

Différents contributeurs. La 1re chose qui peut contribuer au niveau marin, (ça, c’est observé ; premier mètre par an
d’augmentation du niveau marin 2 dans le cadre de la période plus longue) c’est simplement parce que vous chauffez
l’océan ce qui veut dire que quand vous chauffez l’océan vos… augmentent et donc par rapport à quelqu’un qui se
trouve sur le sol, il regarde ce volume océanique, il le voit augmenter donc ça veut dire que le niveau marin monte par
rapport à un repère fixe au sol.
C’était 57% encore en 2007.
Donc la majorité du niveau
marin.

Et puis, la fonte des glaces. Voit


sur slide glacier soit du
Groenland, soit de l’Antarctique.
Le total fait 43% donc vous
voyez que là, clairement, le
niveau marin est dominé par
l’augmentation de volume mais
que dans la fonte, c’est surtout
les glaciers de montagne qui
sont les principaux
contributeurs : 0.77 mm par an
contre 0.20 pour les deux
autres. A la louche.

Déjà, juste pour vous montrer


que ça bouge tt le tps, à peine
rapport était sorti que quelques
années plus tard (2 ans?) on a
sorti une nouvelle estimation de fonte de glaces, en 2008. En Antarctique, cela s’est renforcé. On avait des situations,
cette fois-là pour 96-2006, où on avait 0.54 mm par an au lieu de 0.21 donc vous voyez que cela bougeait déjà dans
les 2 années qui ont suivi le rapport. Pour vous montrer combien ça bouge rapidement... Nous verrons comment ça a
bougé la semaine prochaine !

Cours du 12/03/2020 (3e cours de M. Tison) OK


La fois dernière, on a parlé des différentes tendances récentes du climat. La première variable qu’on a abordé : la
température. Et on insisté sur le fait qu’il faut tjrs l’observer sur une période suffisamment longue pour faire apparaître
des tendances. C’es très dangereux que de ne regarder qu’une période d’une dizaine d’années pcq le système ne
répond pas de manière linéaire mais justement d’une façon hautement non linéaire.
Il ne faut pas regarder seulement une dizaine d’années pcq on a toute une série de phénomènes climatiques de courtes
échéances. Le plus évident = le phénomène El Niño avec un retour tous les 7 ans – et même maintenant tous les 5
ans. Et ce phénomène va injecter un supplément d’énergie dans l’atmosphère ce qui va faire que les températures
vont augmenter un peu plus vite que d’habitude

● Ce genre de phénomène va nous donner l’impression en escalier dans l’évolution de la température.

Donc, danger de ne considérer que 10-15 ans car soit on aura une année El Niño dans ces 10-15 ans, soit on ne l’aura
pas et en fonction de ça, nos valeurs moyennes vont être très différentes.

● Toujours regarder sur le LT, au moins une trentaine d’années.

Deuxième variable : LA HAUSSE DU NIVEAU MARIN :


Plusieurs millions de personnes vivent de 0 à 1 mètre au-dessus du niveau marin actuel sont en dangers si ce niveau
marin continue à augmenter depuis le début de la période de la révolution industrielle.

Slide 68 :
On a des courbes bleues qui
viennent d’enregistrements à 3
endroits différents (Amsterdam,
Brest et Swinoujscie). Dans ces
enregistrements, qui sont des
jauges qui mesurent la marée
haute/la marée basse (avec une
relative imprécision), on nous
montre que le niveau marin est
monté d’environ 200 MM (20cm)
depuis la révolution industrielle.
Dans les mesures plus récentes, la
marge d’erreur (en rouge) diminue,
car on est passé à d’autres
systèmes de détection : on passe
des mesures par jauge à des
mesures satellitaires, et donc en
altitude : points bleus. Ça permet
d’avoir une vision bcp plus
fréquente et donc plus précise du
vrai niveau marin.
On voit que les valeurs récentes, plus précises recoupent les valeurs de jauge, ce qui donne une certaine crédibilité
au moment où il n’y avait pas ces mesures plus précises.
Qu’est-ce contribue à la montée du niveau marin ?
On va constamment basculer de l’avant dernier rapport du GIEC vers le dernier rapport pour montrer quels ont été les
changements entre ces deux périodes, 2007 et 1013.
3ème petit schéma du slide :
On a travaillé sur deux échelles du temps. Dans la dernière décennie les choses s’accélèrent.
Ce qui est observé = Le taux de relèvement du niveau marin annuel en mm/an. Ce qu’on pense qui contribue à ces
chiffres :

L’expansion thermique (le phénomène stérique), càd le fait que si on réchauffe l’océan, l’eau se dilate, et donc, le
volume de l’océan augmente et donc si on est sur un point fixe en bordure de mer, on va voir monter le niveau marin.
Donc, c’est simplement la dilatation de l’océan. Dans le rapport de 2007, ce phénomène était dominant dans l’ensemble
des facteurs (57%).
La fonte des glaces (on a classé ces glaces en trois catégories) :

● Tous les petits glaciers, les petites calottes glacières qui sont des petites masses localisées à partout travers
le monde.
● Le Groenland qui est cette grande calotte glacière localisée en hémisphère Nord (pas au pôle Nord mais en
hémisphère Nord, en bord de l’Arctique).
● L’Antarctique.

Pour chacun de ces contributeurs, on a une estimation de contribution. Pour l’Antarctique, la marge d’erreur est
supérieure à la valeur. Donc, il y a encore pas mal d’incertitude dans ces contributions passées. Mais ce qui est
important, c’est qu’on voit que la fonte des glaces globalement est moins importante que l’expansion thermique.

Quand ce rapport est sorti, déjà deux, trois ans plus tard, les chiffres ont changé, parce qu’on s’est rendu compte que
l’Antarctique contribuait beaucoup plus qu’avant, et donc au lieu d’avoir un chiffre de 0,21 par an sur cette décennie là,
dans la nouvelle décennie, on arrive 0,54 mm par an. Donc on a réévalué cette décennie en 2008 avec des estimations
de montée de niveau marin en 2050 qui sont basées juste sur ces chiffres, donc à prendre avec des pincettes.
Ce que le prof veut dire, c’est que constamment, les chiffres qui sont sortis dans un rapport sont remis en question,
généralement à la hausse par les observations.
Donc, trois grands types de contributions à la hausse du niveau marin :

● Glaciers de montagnes/les petits glaciers (Slide 69) : ces glaciers sont plus petits, plus exposées et plus
réactifs aux premiers signes du réchauffement, donc c’est eux qui ont répondu le plus vite, au niveau fonte.

Ce qu’on ne peut pas faire c’est prendre


2 photos de la même vallée (en 1040 et
en 2004) pour en tirer des conclusions.
N’importe quel climatosceptique
trouvera un exemple inverse ailleurs (un
glacier qui fera l’inverse que la tendance
générale). Donc ce genre d’approche
est dangereuse.
Schéma 2 : Ce qu’il faut faire : on est allé
regarder tous les glaciers du globe
pendant une longue période de temps –
des années 60 à 2000- on les a
regrouper par différentes régions et on a
exprimé la masse totale perdue pour
chacune de ces régions. Et c’est
exprimé en équivalent en MM de niveau
marin (SLE sea level energy). Donc, on
exprime une perte de masse de glace
en équivalent d’augmentation de niveau
marin (SLE).
Et donc, toutes les régions ont cette décroissance. Certaines plus que d’autres.
Plusieurs choses peuvent entrer en ligne de compte : l’orientation des glaciers vers le soleil, plus de pente… la réponse
individuelle de chaque glacier sera différente.
Mais clairement, depuis les années 60, on est dans une diminution globale de masse.
L’Europe est dans une situation un peu particulière (ça bouge pas bcp) pcq on n’a qu’une petite quantité de glace
finalement. Les effets sont moins marqués.
3ème schéma : Ce qui est intéressant à voir dans ces données du rapport AR4, c’est de comparer ces 3 grands
ensembles de glace en termes de volume (la colonne blanche – l’Antarctique a typiquement un volume bcp plus grand
que le Groenland et les autres glaciers à la surface du globe), de surface (en gris), et, le plus intéressant, en termes
de contribution actuelle à l’augmentation du niveau marin (en rouge). On voit que, alors que les glaciers sont minimals
au niveau volume et surface, ce sont eux qui, en 2007, contribuaient le plus à l’augmentation du niveau marin.

● Les calottes glaciaires (Slide 70) : (Il y en a deux : le Groenland au nord et l’Antarctique au sud).

Schéma 1 : ce qu’on représente


ici c’est la Total Melt Area.
Qu’est-ce que c’est ? Quand le
satellite passe au-dessus du
Groenland, on peut, par le
rayonnement infrarouge qui vient
à (ou de) la surface, on peut très
facilement faire la différence
entre l’eau liquide et la glace.
Pcq la glace est bcp plus blanche
et donc sa signature infrarouge,
sa signature de rayonnement est
très différente de celle de l’eau
liquide. Et donc, pour chaque
pixel des photos satellites, on
peut se dire ça c’est de la glace
et ça c’est de l’eau. Et on fait ça
sur toute la période de l’été.
Toutes les parties où il y a du
rouge, ça veut dire qu’au moins
un jour dans l’été, on a vu
apparaître de l’eau liquide à la
surface du Groenland. Donc, au moins un jour dans l’été, la surface était à l’état de fonte.
Et ce qu’on ne peut pas faire, c’est juste montrer les deux « dessins 1992 -2007 » - Prof dit que c’est bien pire
maintenant (que tout est rouge) - on ne peut pas juste montrer deux extrêmes. Il faut regarder l’ensemble des données
collectées depuis l’avènement du satellitaire, et clairement même si il y a bcp de variabilité, on est avec une tendance
globale à l’augmentation de la fonte à la surface du Groenland de plus en plus importante.
2e graphe : Autre moyen de montrer que le Groenland perd de la masse et l’envoie dans l’océan, c’est une méthode
encore plus sophistiquée, encore plus récente : un satellite qui mesure la force de la gravité, et ça, ça va dépendre de
ce qui se trouve en dessous, càd de la quantité de roche/glace/eau. Et comme il fait ça régulièrement et qu’il passe
toujours au-dessus du même point, la roche, elle ne bouge pas, mais la glace bien et une partie disparaît. La mesure
est suffisamment précise pour voir changer la valeur de la gravité liée au fait qu’on a perdu de la glace (l’attraction est
moins forte puisqu’on a perdu de la glace).
Par ces mesures de gravité, on peut voir combien de glace on a perdu d’année en année à la surface de Groenland.
Le « 0 » veut dire « je n’ai ni gagné ni perdu de la masse en gigatonne par an ». C’est le « rate of mass increase »,
donc, le taux d’augmentation de masse ou de perte de masse par an. On voit différentes cases de différentes couleurs
dans les dernières années – c’est différentes études qui utilisent les mêmes données mais qui les traitent différemment.
Ca donne une idée des erreurs d’interprétation (c’est pas parfait, il y a bcp de variables à paramétrer) mais toutes ces
études sont en-dessous de 0 Depuis les années 80, on est en perte régulière de masse.
L’Antarctique : même chose. Un peu plus tard. Deux illustrations.
Schéma 1 : Juste pour nous montrer les augmentations de températures décennales (deux degrés par 10 ans). Donc,
augmentation de température extrêmement importante de plus de 4 degrés dans certaines régions.

● L’Antarctique ne se réchauffe pas partout de la même façon : c’est surtout dans la péninsule antarctique.

Donc, on a fait la même chose au-dessus de l’Antarctique qu’au-dessus du Groenland mais plus récemment. On a que
des données depuis les années 90. C’est court, ça ne fait que 20 ans d’information. Mais clairement, quel que soit les
études (le rouge, bleu ou noir), on est en-dessous de 0. Alors que dans le rapport de 2004, on en était encore à dire
qu’à des endroits dans l’antarctique on gagnait de la masse (et qu’on en perdait à d’autres), ici, globalement, on est
avec une perte de masse dans les 15 dernières années.

On saute d’un cran : Ce que le prof


nous a montré, ce sont des valeurs de
2007 (le rapport 4). Maintenant, on
passe au rapport 5 (le dernier sorti). Et
si on compare les deux, on constate
comme gros changement ceci :
Maintenant on n’est plus dans une
situation où c’est le volume qui est le
facteur dominant dans l’augmentation
du niveau marin (il faisait 57 % et
maintenant on est plus qu’à 39 %). La
fonte des glaces est passée de 43 % à
48 %.
Rem : le problème est que les
références changent d’un rapport à
l’autre. Entre les deux rapports, on a
ajouté une rubrique. On a commencé
à avoir maintenant des estimations de
ce qu’on appelle le « land water
storage » (une autre contribution
qu’on a commencé à prendre en compte) = le fait que l’homme prélève l’eau dans les nappes phréatiques et la déverse
dans l’océan. Donc, transfert d’eau qui se trouve sur le continent par l’activité de l’homme qui l’envoi dans l’océan.
Du coup, les chiffres ne sont pas exactement comparables ici.
Mais même si on ne tient pas compte de cela, les % sur la fonte des glaces restera dominant. Donc, ça c’est un gros
changement à partir de 2010 : ce n’est plus l’augmentation de volume qui est dominant, c’est la contribution de la fonte.
Et ce qu’on voit aussi, en termes de %, c’est que le Groenland commence à reprendre du poil de la bête par rapport à
la période précédente, de même que l’Antarctique, alors que les glaciers restent plus ou moins similaires (ils restent
dominants)
Donc, voilà l’état des lieux plus récemment.
Nous verrons dans le nouveau rapport (qui va sortir dans un an et demi), que pour l’Antarctique, toutes les mesures
que l’on a maintenant et qui sont publiées montrent, il y a probablement de nouveaux processus de déstabilisation de
l’Antarctique qui n’étaient pas inclus dans les projections à venir. Et donc, les projections avoir une plus grande marge
d’erreur. Pcq si ces nouveaux processus entrent en jeu et sont démontrés comme étant efficaces, ça va boosté de
manière extrêmement forte la composition de l’Antarctique.
Troisième variable : LA
BANQUISE :
Par opposition aux grandes calottes
glaciaires (= masses de glace qui se
construisent pas les chutes de neige
progressives), la banquise, c’est
l’océan qui gèle, de l’eau de mer qui
gèle. C’est seulement au maximum
quelques mètres d’épaisseur. Mais
ça couvre de très grandes surfaces :
28 millions de km2 (c’est l’équivalent
de surface de la banquise
Antarctique et Arctique à son
maximum – c’est une valeur
maximale car ça évolue).

Schéma : la banquise apparaît sur


les deux images en couleur rose. On
voit aussi des autres couleurs, une
échelle de couleurs qui va de 0 à
100% = Représente le %age de
surface observée par le satellite et
qui est couvert par de la glace. Donc, attention, c’est un effet de surface et pas d’épaisseur, ça dit : il y a de la glace
ou il n’y en a pas. Pcq cette glace n’est pas tjrs continue : il y a des parties d’eaux de mers entre… Et plus on va sur
les bords, plus ce phénomène est important : le jaune montre cela – il nous signale 40 % (sur les pixels que l’on voit,
40 c’est de l’eau et 60 c’est de l’eau).
C’est au centre que va plus vers le rose. Au bord, c’est plus chaud donc la banquise est moins continue.
CECI n’est pas la bonne manière de faire (montrer les deux extrêmes pour frapper les esprits).

Mais on voit une réduction drastique de surface de banquise. Entre 1979 et 2007. C’est la fin de l’été, donc au minimum
de l’extension de la banquise, qui va ensuite se reconstruire quand il va faire plus froid (la mer va geler à nouveau)

Ce qu’il faut faire, c’est montrer un autre graphe en même temps (celui qui se trouve entre les deux images). On voit
les extrêmes. On voit une tendance globale à la décroissance.
Conséquences : en 2050 on pourra faire le tour de l’Arctique en bateau sur eaux libres d’après ce que l’on sait (avec
quelques obstacles). Mais ce sera possible d’aller en bateau de Sibérie aux USA à travers l’Arctique. On ne devra plus
passer par l’Afrique. Csq importantes au niveau économique.

Une autre façon de se représenter les choses (en bas à gauche) : c’est de regarder la variabilité, non pas d’année en
année, mais au cours de l’année : juillet – Août - Septembre : Minimum d’extension et puis pendant l’hiver, la banquise
reconstruit. Ce qu’on veut montrer, c’est la valeur moyenne sur la période 1081-2010 (en noir)
La marge grise = +/- 2 sigma (90% de l’ensemble des données de toutes les années).
Et puis, on a les années récentes : 2012 a été le record de tous les temps mesurés en tant que minimum.

Ce qu’on peut faire, mais c’est un peu dangereux : c’est de voir cette tendance à la diminution et supposer que ça va
continuer de manière linéaire jusque 2050 et on aurait la carte extrapolée Cf en bas à droite slide 72. Mais attention,
c’est une extrapolation linéaire alors que les phénomènes à la surface de la terre sont souvent non linéaires, complexes
et à tendance exponentielle. Donc : pas meilleure façon de faire. Mais on peut le faire facilement puisqu’on dispose
des données pour le faire.
Slide 73 : En épaisseur, c’est bcp
plus difficile à mesurer.
Historiquement, qu’a-t-on fait ? On a
des données, c’est l’histoire qui
nous les donne. On a eu une
période de guerre froide dans les
années 60 à 80. S’est passé quoi ?
USA souvent allés voir ce qui se
passait chez les Soviétique, et ils
l’ont fait sous la banquise Arctique et
donc avec des sous-marins. Ces
sous-marins devant refaire surface
de temps à autres, ils avaient besoin
de sonars = un système qui envoie
une onde électromagnétique
jusqu’à la surface et cette onde
rebondit à la surface, revient vers le
sous-marin. Et en fonction du temps
que ça met pour aller et revenir dans
un milieu homogène comme
l’océan, on sait à quelle distance on
est de la surface au-dessus de nous
(cette surface, c’est de l’eau libre ou de la glace).
Une fois qu’on a la différence de surface entre la surface de l’eau libre et la base de la glace, on peut appliquer le
principe d’Archimède : la glace a une densité de 0.9 et l’eau de mer une densité de 1.03. En multipliant cette épaisseur-
ci par la différence de densité, on peut reconstruire combien de glace j’ai au-dessus en supposant que cette glace
flotte. C’est le principe d’Archimède : Tout corps plongé dans un liquide subit de la part de ce liquide une force égale
au poids du même volume … ?

Et donc, à partir de cette mesure-ci, la différence entre la surface et le fond, on peut savoir quelle est l’épaisseur totale
de la glace.

Ces mesures sont restées dans les tiroirs de intelligentia aux USA durant longtemps mais depuis 15 ans on a accès à
ces informations. Les scientifiques se sont dit qu’on allait refaire la même chose dans les années 90 (pcq il y a tjrs des
sous-marins qui se baladent) et ils ont regardé les épaisseurs pour l’ensemble de l’Arctique et ils ont comparé les
mesures de la guerre froide avec les mêmes mesures mais réalisées en 1990 pour voir la différence d’épaisseur. On
voit que dans toute la partie centrale de l’Arctique, on a perdu jusqu’à 3 m de glace (de 3 m de différences entre les
deux mesures)! Le max. d’épaisseur un centre est environ d’10 m Ca fait bcp (30% au niveau de l’Arctique centrale).
Maintenant, il faut être honnête aussi : sur le schéma, il y a bleu près du Canada et au Nord du Groenland et donc on
a gagné de l’épaisseur. Ce serait alors une opération neutre. Ben non, ce n’est pas opération neutre ! Parce qui est
gagné là, c’est en fait ce qui a été évacué ici, accumulé contre ces continents, et qui mets du temps à être évacué à
travers les détroits par les courants. C’est donc une situation transitoire : Si on avait pu refaire les mesures en 2000-
2010 on aurait probablement vu encore une partie disparue.

● Pas seulement une disparition en surface mais aussi en épaisseur (de plusieurs mètres).

Pourquoi c’est difficile d’actualiser ces données ? On essaie de le faire activement par satellite, et donc dans l’autre
sens puisque le satellite regarde d’en haut. Les altimètres des satellites peuvent mesurer avec précision la hauteur de
l’océan ici, puis la hauteur de la glace là, et puis on travaille dans l’autre sens : connaissant ce qui dépasse, on peut,
en appliquant le principe d’Archimède, aller retrouver ce qui se trouve en-dessous.
Avec l’avantage que le satellite passe tous les jours.
Le problème est que pour faire ce calcul, il faut connaître la densité de la glace. Or il se trouve que la densité de la
glace de mer est qqch qui bouge beaucoup. Pcq il n’y a pas que de la glace. Il y a aussi de la neige qui vint par-dessus.
Et puis, de temps en temps, cette neige peut fondre et ça devient de l’eau. Et puis, la neige qui fond peut envahir le
reste de neige ailleurs et regeler Encore une autre densité. Et donc, il y a une difficulté de choisir la bonne densité
pour reconstruire l’ensemble de l’épaisseur. Difficulté à cause de ces différentes densités. On essaie d’appliquer des
algorithmes qui transforment cette épaisseur là en épaisseur totale en faisant des hypothèses sur la densité. Et au sol,
il y a des gens qui vont suivre exactement la même trajectoire que le satellite et faire des mesures réelles, et ça va
servir à valider ce que le satellite a mesuré.
Mais ça ne fonctionne pas bien pcq les densités bougent trop vite spatialement. Et ça c’est un gros gros problème
actuellement pour reconstruire le volume de glace. On sait bien voir la surface occupée mais c’est plus difficile de
reconstruire le volume.

Autre élément qui bouge : La température de l’océan :

C’est très important à savoir.


C’est vraiment un gros progrès
dans le dernier rapport du GIEC
: on a mis le doigt plus
efficacement sur les mesures.
Déjà dans le rapport AR4 :
On mesure, avec des croisières
en bateau. Les gens envoient
une CTD = engin qui descend à
3000-5000 M de profondeur et
qui mesure à tout moment la t°
de l’eau, la salinité…
La température nous donne une
idée de la quantité d’énergie
stockée dans l’eau. Cette
température est proportionnelle
à la quantité d’énergie. Ce qu’on
a pu montrer dans le rapport
AR4, c’est que 80% de
l’excédent de chaleur stocké
dans la partie inférieure de la
terre (donc, excédent lié aux
effets de serre), 80% a été stocké dans les océans.

Première figure slide 74 :


Chiffre astronomique : 10 exposant 22 jouls (jouls = unités d’énergie). Le vert c’est la marge d’erreur sur les estimations
et on voit que cette marge d’erreur est grande au début. Les courbes de différentes couleurs, ce sont différentes études.
Ce qu’on voit, c’est que globalement, cette marge d’erreur diminue et que la quantité d'énergie par rapport aux années
60 est clairement en augmentation dans le diagramme. Ca c’était dans l’AR4.

2ème graphique : Encore + intéressant et probablement le meilleur graphique qui ait jamais existé (dans le dernier
rapport du Giec) avec + de mesures et + de données, on fait exactement la même chose. Et on va plus loin : jusqu’en
2010 (là on s’arrêtait en 2000 sur le premier graphique). Les erreurs deviennent de moins en moins importantes. Les
différentes couleurs correspondent aux différentes enveloppes du globe terrestre. L’atmosphère = la petite ligne mauve.
C’est le qté de chaleur qui explique le degré en plus que l’on a pris depuis la révolution industrielle. Tout le reste, ca a
été produit à cause des GES, mais ça a été stocké ailleurs, essentiellement dans le bleu clair et dans le bleu foncé,
càd dans l’océan. Et donc, c’est là, latent, en profondeur dans l’océan. Et ça a été stocké durant toute la période
anthropique. Et c’est un excès d’nrj. C’est l’augmentation des températures à travers tous les océans qui permet de
calculer la quantité totale d’énergie stockée là.
Ca veut dire que c’est un peu comme une bombe à retardement. Il suffit que par l’un ou l’autre processus (et on va on
voir un), cette eau chaude en profondeur revienne vers la surface et s’échange avec atmosphère pour que tout à coup,
on voit les températures atmosphériques se modifier.
Et donc, ce qui est vraiment très important dans ce graphique, c’est la proportion de surface entre ce qui a réellement
contribué à l’augmentation de t° observée qui pourrait paraître un peu mièvre (de 0.8 à 1 degré depuis la révolution
industrielle) et la quantité d’énergie qui correspond à tout ce qui se trouve dans l’océan. C’est là que ça a été stocké et
si ça sort à un moment, on va voir s’accentuer les paliers d’enregistrement des températures de l’air.
Ca c’était vraiment une observation qui s’est raffinée au niveau de précision. Un peu épée de Damoclès dans l’océan.

On va enchaîner sur processus qui pourrait se produire : le processus d’El Niño.

Slide 75 :
C’est quoi d’El Niño ? C’est un
processus d’interaction entre
l’atmosphère et l’océan, sur le
schéma représenté entre
l’Amérique du Sud et l’Australie.
Les Alizés soufflent en
permanence à la surface de
l’océan. Ils soufflent
globalement de l’est vers
l’ouest, du Sud Est et Nord est
vers l’Ouest. Ces alizés
entraînent avec eux les eaux de
surface qui se sont chargées
d’énergie. Et c’est dans les
tropiques que le maximum
d’énergie a été stockée dans
l’océan. Et cette eau de surface
est amenée du côté de
l’Australie et s’empile. Sous
l’effet de son propre poids, ces
eaux chaudes sont chassées
vers le fond. Et c’est pour ça
qu’on voit les températures
augmenter dans ces océans
pcq c’est là qu’on voit augmenter qté d'énergie stockée. Et tant que fonctionne, c’est bon.
= La Nina = c’est la situation normale. Par opposition à la situation El Niño : pour des raisons que l’on ne connaît pas
encore très bien, les Alizés soufflent moins fort et donc emmènent moins facilement l’eau chaude vers l’Australie.

Ce que le prof avait oublié de dire : comme l’eau de surface est entrainée vers l’Australie, il y a une inclinaison (trop
d’eau là et moins ici) et donc par réajustement hydrostatique, l’eau va se mettre à horizontale. Comment ? Les eaux
profondes vont remonter vers la surface. Ces eaux profondes sont des eaux froides qui viennent de l’Antarctique et qui
contiennent bcp moins d’énergie. Tant que ça se passe, on refroidit la surface ici et on emmène les eaux chaudes là
et on les emmène en profondeur.

Si on diminue les Alizés, toute cette masse d’eau chaude va retourner vers l’Amérique du Sud. Il va y avoir un courant
de retour d’eau chaude qui va repousser vers le bas les eaux froides et une partie des eaux en profondeur vont
remonter en surface et s’échanger avec l’atmosphère.
Ca c’est un des mécanismes possibles, cette interruption régulière de la Nina par El Nino. Ce qui va avoir pour effet
de ramener des eaux chaudes qui sont en profondeur du côté Est du Pacifique et de les ramener vers la surface et
comme ce sont des eaux plus chaudes que celles qui existaient auparavant, on va avoir potentiellement plus
d’échanges de chaleur avec l’atmosphère, ou en tout cas moins de refroidissement de l’atmosphère. Puisqu’ici ce sont
les eaux froides qui refroidissent l’atmosphère.
Voilà, un des processus qui a été proposé et qui pourrait, si il s’accentue, et on sait que ça devient plus fréquent (avant
: tous les 7 ans, maintenant, c’est tous les 5 ans) pourrait amener à ce que cette énergie excédentaire arrive à retrouver
le chemin vers l’atmosphère et contribuer de manière plus intense à l’augmentation des températures atmosphériques.

En plus des grandes tendances


(températures, niveau marin, banquise et
stockage de chaleur dans l’océan), d’autres
choses bougent aussi mais qui sont un peu
plus subtiles, moins approfondies pour le
moment. L’ID est que puisque le climat se
réchauffe, on a plus d’évaporation au-
dessus des océans et donc plus de pluie qui
tombent sur les continents et notamment
sur les grandes rivières de Sibérie qui
contribuent de l’eau douce à l’océan
Arctique. Ce que l’on essaie de voir c’est si
le débit devient de plus en plus important.
C’est pas très convainquant mais on est en
légère augmentation de ce débit des
rivières en eau douce vers l’Arctique.

La fois dernière, prof avait dit que c’était une


des raisons invoquées pour expliquer qu’on
bloque la circulation du gulf stream. Mais c’est pas énorme comme contribution.
Par contre, ce que l’on voit aussi, c’est que la couverture de neige au printemps d’année en année, la surface couverte
par la neige (donc des surfaces d’albedo fort) diminue plus d’énergie solaire sera absorbée par le sol puisque plus de
neige pour la renvoyer vers l’espace. On peut voir ça par satellite.

Slide 77 : Autre chose qui bouge aussi : la fonte du pergélisol (Permafrost). C’est quoi ? Dans le sol, on a tjrs une gde
qté d’eau qui est présente Dans les contrées nordiques, comme les t° de l’air sont tjs très basses, l’eau du sol gèle.
Elle peut geler en profondeur Jusqu’à 1600 m en Sibérie. Et donc, il y a une grande quantité d’eau qui est à l’état de
glace et qui contient notamment bcp de GES de type méthane (il a tendance à se reproduire en anaérobie). Ce méthane
est donc plus ou moins piégé dans la glace mais avec le réchauffement des températures atmosphériques, il y a plus
d’énergie absorbée par le sol ce qui fait
fondre cette glace dans le sol.

Le schéma montre de 1900 à 2000 : On a


des anomalies de l’extension de ce
permafrost. De nouveau, ce n’est pas
linéaire. Ca bouge beaucoup : il y a des
moment où il y avait plus de permafrost, des
moment où il y en avait moins mais sur
plusieurs décennies, la tendance est à une
perte de surface de sol gelé, de plus en plus
au cours du temps. Récession de l’ordre de
7% en superficie du permafrost saisonnier.

Les T° dans le sol augmentent aussi :


jusqu’à +3 degrés. Qu’est-ce que cela
implique ? Si construit qch sur du sol gelé,
une fois que ça fond, on va avoir des
problèmes de stabilité dans les maisons.
Mtnt, il y a des techniques de construction dans ces régions pour éviter que tout s’écroule.

Slide 78 : Ca n’empêche qu’il y a des plus en plus d’endroits où cette glace dans le sol fond et où les températures
remontent. « Barrow » est le patelin le plus au Nord de l’Alaska. C’est une région où on a bcp de pétrole on a bcp
d’infos sur ce qui se passe dans le sol (les pétroliers ça les intéresse bcp de savoir quelle est la température du sol
puisqu’ils font remonter du pétrole qui est très chaud dans de la glace qui est très froide. Pour éviter que tout s’écroule,
ils ont intérêt à savoir la température du sol).

Schéma : on a les températures et on a la profondeur. En-dessous de 40 M, ça ne bouge plus : on est à -9.5 (donc,
c’est bien gelé en profondeur) mais,
d’année en année (2003 – 2009), on a
des différences plus en surface (les 15
premiers mètres) avec une
augmentation des températures.
Les deux autres schémas :
(1) On voit Barrow et puis différentes
stations le long d’un oléoduc où on a
aussi fait des mesures de
températures dans le sol.
(2) On a la température à 20 M dans
le sol pour les différentes stations : au
cours des années, clairement où que
l’on soit dans le trajet, la t° à 20 M
dans le sol a régulièrement augmenté.
Toutes ces régions de Permafrost
sont en augmentation régulière de
températures depuis les années 70.

Slide 79 : un autre ex., plus en Am du


Nord mais en Suède (Tarfala). Très
intéressé de savoir ce qui se passe
avec les températures du sol. On a
des mesures sur 10 dernières
années. On passe régulièrement du
rouge au gris dans les 70 premiers
mètres. 0,4 degré de réchauffement
sur 10 ans.
Donc : progressif et régulier.

Donc, réchauffement, fonte de glace


et ça ça implique aussi que dans ces
masses de glace qui sont dans le sol,
qui dégèle l’été et qui regèle l’hiver,
on a des bactéries qui vivent dans
l’eau, eau où il y a très peu d’oxygène
pcq c’est une eu qui circule peu. Ces
bactéries qui vivent en milieu d’anaérobie, vont produire du méthane. C’est un GES et il est stocké dans la glace. Si
on fait fondre la glace de surface, le Méthane stocké dedans va repasser dans l’atmosphère. Or c’est un GES.

Slide 80 : Etude réalisée par les Soviétiques sur plusieurs dizaines d’années. On se trouve sur la mer Est Sibérienne.
On est vraiment au Nord Sibérien, le long de l’océan Arctique. Et on a regardé le sol qui se trouve en-dessous de
l’océan. Les épaisseurs d’eau, c’est seulement 7-10 M. Ca veut dire que toute cette zone qui est maintenant sous
l’océan, tous les points rouges (toutes les mesures), ce sol là pendant la dernière glaciation il y a 20 000 ans, le niveau
marin était 120 m plus bas. Puisqu’une partie de l’eau de l’océan était stockée sous forme de calotte glaciaire en
Amérique du Nord, au
Groenland, en Scandinavie...
Donc, le niveau marin était 120
M plus bas. Pdt toute la
période glaciaire ceci était à
l’air libre en région polaire,
avec des températures très
basses. Donc, on a dvpé du
permafrost qui s’est enrichi en
méthane par l’activité
bactérienne. Maintenant, avec
la sortie de la glaciation, le
niveau marin est remonté mais
cette eau océanique se
réchauffe de + en + et l’eau
devient plus chaude que le sol
et fait fondre la glace du sol le
méthane qui était prisonnier
pendant la période glaciaire,
commence à sortir. Cf photo en
haut à droite : c’est des bulles
de méthane qui sortent du sol
et qui vont aller dans
l’atmosphère.
Et ce que les cartes nous montrent, c’est qu’on a mesuré à bcp d’endroits la concentration de méthane dans l’eau (se
mesure en môle par litre) et ce qu’on peut voir, c’est :
Dans l’océan normal, l’équilibre, c’est 1 à 2 nanomoles. Quand on regarde les couleurs, on voit qu’on est typiquement
à 70-80-100 nanomoles par litre. Donc, 10-20-30 fois plus que ce qui a d’habitude dans l’océan.
Le Méthane s’échappe dans atmosphère. D’après les calculs du travail fait dans les années 2010, par an, la moitié du
méthane libéré dans l’atmosphère pourrait très bien être libérée dans cette zone là (dans cette bête petite zone côtière
là) tellement il y a du méthane. C’est une estimation évidemment mais c’est un processus en cours lié au réchauffement
de l’océan qui fait fondre le permafrost et fait libérer le méthane.

Question d’un élève : Pdt tout un tps, un argument des climato sceptiques c’était de dire « le méthane est stable, il ne
monte plus ». C’était dans les années 2010. Mais c’était sur une décennie. Si on regarde sur 40 ans, on voit que c’est
juste un palier car après, le Méthane est remonté entre 2010 et 2020 de manière aussi agressive qu’avant. C’est pas
linéaire, il y a des pauses.
Slide 81 :
Autre indicateur encore : indicateurs de
l’intensité de la sécheresse. Càd on a
des indicateurs météorologiques qui
regardent sur plusieurs années
combien de jours avec une température
de l’ordre de 5 degrés au-dessus de la
moyenne pendant 5 jours successifs.
Et ça c’est considéré comme une
période de sécheresse intense. Les
zones rouges = les zones où les
périodes de sécheresse deviennent
plus importantes. C’est le cas pour le
Sahara et le Sahel mais aussi pour la
Méditerranée.

Ce qui augmente aussi, ce sont des


périodes de fortes intensités de
précipitations. Augmentation
croissante des précipitations intenses.

Autre chose dont a bcp parlé


(notamment, dans les films d’Al Gore
car c’est très visuel) mais aussi le plus difficile à croire avec certitude (pcq les chiffres bougent bcp) : la fréquence des
ouragans et tempêtes tropicales. Schéma : En jaune, on a les tempêtes tropicales et en gris les ouragans. C’est
simplement une question de différence de vitesse du vent. On a un ouragan une fois qu’on passe au-dessus de 120
km par heure. Les tempêtes tropicales sont moins fortes (entre 60 km/h et 120 km/h).

Slide 82 : C’est pas très clair le prof a repris les chiffres un peu mieux : En rouge, c’est les tempêtes tropicales et en
bleu, les ouragans. On voit que le nombre total augmente régulièrement. Mais surtout àpt des années 90. Et donc, prof
est un peu prudent pcq c’est un peu court comme période d’observation. On a 20 ans, c’est déjà pas mal mais peut-
être pas une période suffisante.

Mais le prof a en plus fait la part entre les ouragans et les tempêtes tropicales. Et pour les ouragans, il n’y a pas
vraiment de tendance. La tendance est surtout donnée par l’augmentation des tempêtes tropicales depuis les années
90. Donc, la fréquence augmente, mais pas nécessairement pour les évènements les plus catastrophiques. Pour le
prof, c’est aussi en partie pour ça qu’on voit de plus des inondations chez nous en Europe

Slide 83 : Autre graphe qui montre la même chose.


Ca montre le pourcentages des ouragans en nombre
total. Bleu : année après année. Noir ; moyenne sur
5 ans. On voit que la proportion des ouragans dans
l’ensemble des évènements a tendance à décroitre.
C’est plutôt les tempêtes tropicales qui augmentent.

Dernier schéma : données un peu plus discutables


pcq un peu plus difficiles à établir. Ce schéma nous
parle des évènements météorologiques extrêmes.
Donc, on repart vers la météorologie, sur des deux-
trois jours mais qui ont causé des gros dégâts
(tempêtes, inondations…). Sur le graphe : on a les
années, et on a les couts pour ces évènements,
ajustés en inflation, les coûts annuels en milliards de
$. En rouge, c’est le nbre de ces évts météos
extrêmes. Il y a définition très précise de àpt de quand un évènement devient extrême. C’est le WMO qui l’a établi. Ce
nombre était en perpétuelle augmentation des années 50 aux années 2000. Ce qu’on voit aussi, c’est le « total
economic loss » en vert clair. Au début, on a le même genre de coûts mais depuis 85-90, on a une très forte
augmentation des coûts qui deviennent plus nombreux.
La dernière information, la plus interpellante, c’est le vert foncé = c’est ce qui est remboursé par les compagnies
d’assurances. Ils essaient de réajuster comme on sait que ces évts vont devenir de plus en plus fréquents.

Ca c’était pour clôturer tendances récentes.

Mtnt on va essayer de répondre, slmt sur 2 dias car


ce sont les seules infos que l’on a, à la question :
L’homme est-il réellement responsable ou avons-t-on affaire à une variabilité naturelle, à CT et ça va s’arranger
bientôt ?

Slide 85 :
La première chose qu’on peut
regarder, c’est les paléo-
informations. Ici, ça remonte jusque
20 000 ans. C’est le dernier
maximum glaciaire. Mais Vous savez
mtnt qu’on peut remonter jusqu’à 1
million d’années.
Et la première information
importante, c’est que les taux de
croissance des GES comme le
dioxyde de carbone, le méthane et le
N2O le dernier siècle ont des valeurs
qui n’ont jamais été observées
auparavant dans les données paléo.
(on peut remonter sur le graphe
jusqu’à 600 000 ans (et on pourrait
continuer jusqu’à 800 000 ans). On a
vu ça, ce graphe déjà (dans un cours
précédent) avec les périodes
glaciaires et les périodes chaudes.

On a vu très bien dans les données


que chaque fois qu’on avait un pic de chaleur, on avait un pic de ces GES mais je vous rappelle que pour que ce pic
se marque, ça prend quelques milliers d’années. Donc, dans les phénomènes naturels, les variations de températures
liées aux variations des GES sont tout le temps là. Ce qui prouve que cet effet de serre est tout le temps-là, il n’est pas
saturé, il est bien présent. Mais ça n’empêche qu’on voit dans tous ces enregistrements que chaque fois qu’on a une
période interglaciaire (comme la nôtre) on avait des maxima de dioxyde de carbone. Mais ce qu’on voit surtout, c’est
que ce qu’on a mis dans l’atmosphère en quantité de ces GES est bcp plus élevée. C’est en général le double de ce
qu’on a comme différence entre une période naturelle froide et une période naturelle chaude.

L’autre point : La vitesse à laquelle on a augmenté cette teneur en CO2 est incommensurablement plus rapide que le
phénomène naturel de rééquilibrage du système Terre par les feedbacks dont nous avons parlé la fois passé.

● Ca été bcp plus vite et c’est inégalé sur les derniers milliers d’années.

Et on voit que dès qu’on fait monter ces GES, à l’échelle des enregistrements paléo, ces T° a monté de la même façon.

Donc, un des premiers arguments que l’on peut donner : c’est qu’on a augmenté le CO2 en un temps record et qu’on
l’a fait atteindre des valeurs jamais observées depuis des millions d’années. Alors que pendant ces millions d’années,
on est passé par 10 glaciations différentes

Deuxième point : se rabattre sur les modèles. C’est facile de dire que les modèles sont imparfaits et qu’on ne peut pas
croire ce qu’ils racontent. Pour le prof, on peut raisonnablement croire ce qu’ils racontent.

Slide 86 : Le schéma à gauche : on prend toutes les couleurs qui correspondent à modèles climatiques globaux càd
des modèles qui essaient de reproduire les relations entre l’atmosphère, l’océan et la glace au cours du temps, en
fonction de l’énergie qui arrive, du volcanisme, en fonction des phénomènes naturels, mais aussi en fonction des
phénomènes anthropiques.

Le meilleur moyen de vérifier si ces


modèles sont valables, c’est
d’essayer de le valider, de voir si il
est capable de reproduire les chgts
climatiques du passé. Si oui, on
pourra lui faire plus confiance pour
les projections à avenir. Il n’y en a
pas tellement : 10-12 qui ont passé
ce test. Et comment on fait ce test ?
On prend tout ce qui contrôle, tout ce
qui force le climat. Et donc, la 1re
chose, c’est la variabilité de la qté
d’nrj incidente (la constante solaire
n’est pas constante).
Ici, on est sur une très courte échelle
de temps, sur les derniers
millénaires, où c’est relativement
constant, parfois c’est un peu plus,
parfois un peu moins mais on le
connait parfaitement : ça a été
mesuré dans les deux derniers siècles. Cette variabilité, c’est de la mécanique céleste. Et ça peut être calculé de
manière précise. Donc, on peut tenir compte de la variabilité de la constante solaire à l’échelle d’1 millier d’années.

L’autre chose qu’on va injecter : les éruptions volcaniques. Ces éruptions injectent bcp de particules dans l’air : des
cendres, ces aérosols vont se répandre dans atmosphère supérieure et bloquer le rayonnement incident et donc
refroidir le climat, provisoirement sur le temps de l’éruption.
Les unités sur ces axes c’est ce qu’on appelle le forçage radiatif, c’est combien de W par M carré en moins on aura/va
arriver à la surface de la Terre lié au fait qu’il y a une éruption volcanique. On diminue la quantité d’énergie qui nous
arrive (provisoirement).
Donc, on a la variation en W par M carré de ce qu’on reçoit du soleil. Ce sont les deux 2 principaux forçages naturels
: l’énergie qu’on reçoit du soleil et les éruptions volcaniques qui ont bloqué à l’échelle du monde provisoirement les
rayonnements incidents.
La dernière chose que l’on ajoute (petit c) : tous les autres forçages, parmi lesquels la contribution essentielle est les
GES. Donc, ici, tous les autres forçages autres solaires et volcaniques et c’est essentiellement d’origine anthropique.

Quand on utilise tous ces forçages ensemble (solaire, volcanique, plus les GES), chacun de ces modèles nous donne
une courbe de couleurs. Donc, toutes les courbes de couleurs, ce sont des résultats de modèles qui essayent de
reconstruire au cours du dernier millénaire les anomalies de températures autour d’une période moyenne qui est la
période de 1500 à 1899.

Il y a des différences entre les courbes de couleur : certains donnent des variations plus élevées de températures,
d’autres des variations plus faibles. Ce qui est intéressant c’est de comparer ces modèles à la courbe grise (que le prof
nous a déjà montrée pour monter les évolutions de températures au début du chapitre sur les tendances récentes du
climat). C’est cette courbe où on a pris tous les enregistrements de t° (anciens, dans les cernes des arbres…) et on
les a affublé de leur erreur et on les a superposé les uns aux autres : Et plus ce schéma est sombre, plus il y a un
grand nombre d’observations qui donnent la même valeur de température pour le même moment. Et donc, on va croire
ce qui est gris foncé plutôt que ce qui est gris clair.
Donc, ce qui est grisé, c’est les observations, et les couleurs, ce sont les modèles.
● Les modèles, équipés de ces forçages qu’on leur a donnés, même avant qu’on ajoute les GES et qu’on tenait
compte que des deux autres, on arrive à montrer en effet qu’au Moyen Age, en l’an 1000, il faisait un peu plus
chaud que la valeur moyenne, avec des valeurs de températures proches de ce qu’on avait en l’an 2000 et
puis, il y a aussi une période plus froide (« petite âge de la glace »). Et tout ça, on arrive à le reproduire avec
slmt ces deux premières variables.
● Avant que les GES d’origine anthropiques n’interviennent, ces modèles arrivent à suivre raisonnablement les
tendances du gris foncé (les observations).
● Ces modèles ne sont pas n’importe quoi, ne sortent pas de n’importe où et on garde ceux qui sont capable
de reproduire ceux qui arrivent à reproduire le passé.

Donc, une première chose avec ces modèles, c’est de montrer qu’ils sont capables de montrer les variations liées aux
phénomènes naturels dans le dernier 1000 ans et de montrer qu’une fois qu’on injecte les GES, on commence à faire
monter les t° de un degré sur la période de la révolution industrielle.

Ces modèles fonctionnent bien pour reconstituer le climat sur 1000 ans, on peut les utiliser pour travaille à une échelle
de temps encore plus courte, de 1 siècle.

Toutes les petites lignes bleues et toutes les petites lignes jaunes, c’est les mêmes 12 modèles mais avec des couleurs
différentes. Et encore une fois, sur cette période de 100 ans, ils vont donner des résultats un peu différents. Alors, on
a utilisé une ligne grasse pour représenter la moyenne de tous ces modèles individuels (grasse bleue et grasse rouge).
Et quelle est la différence entre a et b?
A fait tourner tous ces modèles mais en ne considérant que les 2 forçages naturels. Et ça donne cette espèce de
bruitage bleu clair dont la valeur moyenne, c’est le bleu foncé. Et on ne voit absolument aucune augmentation de
température dans les dernières décennies. Alors que la ligne noire montre les valeurs observées.
Si j’utilise exactement les mêmes modèles et que j’ajoute les valeurs des autres forçages, de types anthropiques, on
a ces courbes jaunes dont la moyenne est la courbe rouge.
Quand on utilise ces modèles que pour les forçages naturels, on n’arrive pas à reproduire la tendance de
l’augmentation de température. Mais quand on injecte les GES, on arrive à reproduire cette tendance des températures
!

Ce ne sont que des modèles, il y a des marges d’erreur mais ils vont dans la bonne direction. Ca suit les observations.

C ce que l’on peut amener comme info sur la responsabilité de l’homme.

● Il a injecté une Qté des GES inégalée sur le dernier ??? d’années et 2) à un taux bcp plus rapide que les
variations naturelles liées aux réactions du système Terre en l’absence de l’homme.

Et on sait que cet effet de serre est là, il n’est pas saturé. Donc, ça ne va pas s’arranger tat qu’on continuera à
augmenter cet effet de serre.
La question est : à quelle échéance les choses vont se produire.

Visions du futur : Les Modèles :

Les Modèles sont imparfaits. Mais ils l’ont été encore bcp plus avant.
C’est le seul outil que l’on a pour faire des projections. On ne sait pas faire autrement. On les reboute en bloc et on
fait rien soit on accepte et on considère qu’ils sont imparfaits tout en essayant de les raffiner le + possible (efforts
constants en ce sens).

Slide 87 :
Montre une évolution historique des modèles. Les abréviations = les noms des différents rapports du GIEC. Les deux
premiers, c’était avant le GIEC. Dans les années 70, il y avait la pluie et le CO2 industriel. En 80, on a ajouté les nuages
(importants pour l’albédo) et la glace (aussi importante pour albedo mais là, elle ne bouge pas, elle ne change pas de
forme : « Prescribed ice »).

Dans le 1er rapport du GIEC, on a rajouté


l’océan. C’est un « Swamp Ocean »,
donc un océan sans circulation, sans
échanges d’eau.
2e rapport : On a donné de la profondeur
à cet océan et à le faire circuler, on a
ajouté les aérosols liés à l’activité de
l’homme donc les sulfates (en plus des
aérosols volcaniques)
3e rapport : les aérosols sont exprimés
globalement. On commence à tenir
compte des rivières, du cycle du carbone
sur le continent.
4e rapport (AR4) : très important : on
ajoute la chimie de l’atmosphère (influe
par la quantité d’ozone… sur la quantité
d’énergie qui arrive au sol). Et aussi de la
culture.
On est donc parti de quasi rien et puis,
ces modèles se sont affinés de plus en
plus.

Slide 88 :
Dans AR4, on avait déjà fait un 1er
bilan de qu’est-ce qui va influencer
cette situation du climat liée à l’activité
de l’homme. On exprime ça dans unités
appelées « forçage radiatif ». C’est
exprimé en W/m2, donc c’est une qté
d’nrj qui est ajoutée au système par
rapport au 340 W par M Carré (ce qu’on
reçoit du soleil). On voit que ce n’est
pas grand-chose : 2 w par M carré
(c’est – de 1/100ème de ce que nous
recevons à la surface supérieure de
l’atmosphère. Mais ce n’est pas
négligeable.

Sur le schéma, on exprime toutes les


contributions en termes de forçage
radiatif. Si c’est positif, ça va ajouter de l’énergie et donc contribuer à réchauffer le climat, si c’est négatif, ca va
contribuer à le refroidir. Ex : on a parlé des aérosols, le fait que des sulfates vont être envoyés dans l’atmosphère, qui
(1) vont bloquer le rayonnement incident et (2) favoriser la formation des nuages, ca va refroidir, bloquer une partie de
l’énergie qui vient du soleil.
Les marges d’erreur sont énormes sur ces estimations.
Aux premières loges, on a ces GES : le CO2, le N2O, le méthane, l’ozone troposphérique (= celui qui se trouve près
du niveau du sol, pas l’autre qui se trouve en altitude et qui capte les UV et qui a tendance à refroidir le climat).

Donc, voilà l’état des lieux. Il y a des barres d’erreurs. Et si on fait le total de tout ça, des positifs et des négatifs, on a
une valeur totale de 1.6 avec une grosse marge d’erreur (de 0,6 à 2,34).
= C’était la situation en 2007.
Slide 89 : On a fait exactement la
même chose en 2013. Mais on a
rajouté des choses. Cette fois-ci, on
a fait un état des lieux en 1950. C’est
tjrs par rapport à 1750, donc par
rapport à avant la révolution
industrielle. En 1950, on avait ajouté
0.57 W par M carré de forçage. En
1980, on avait 1,25 et en 2011, on
est à 2.29, tjrs par rapport à 340 W
par M carré.
Ce sont toujours des valeurs
relativement faibles et tjrs le même
genre de contributions : le CO2, le
méthane, le N2O… et les aérosols
qui tirent vers le refroidissement.
Puis, on est allé plus dans le détail,
on a regardé quel type d’aérosol…

L’inconnue des modèles.


Slide 90 : Ces modèles sont donc
imparfaits, ils donnent des résultats différents, il y a une dispersion, ils sont loin de refléter la réalité. Mais il y a une
autre source d’inconnue très importante dans les projections : Ce que fait l’homme càd Comment va évoluer l’attitude
de l’homme ? Et on va être obligés d’introduire cela dans les modèles pour voir dans quel sens ils vont aller dans le
futur. Combien de CO2, de méthane l’homme va ajouter.
Ca c’est très difficile à faire ces projections. Ce sont des socio économistes qui font cela. Et dans l’ancien rapport du
GIEC (pour montrer que les choses changent
constamment ce qui rend choses compliquées)
et dans tous les précédents aussi, on avait
fonctionné comme ceci : on avait vraiment
imaginé des scénarios socio économiques.

Et on s’est dit :

● Soit l’homme va se comporter de


façon inconsidérément capitaliste et
donc, on va faire un scénario très
économique, très profit. Scénario A.
● Soit prise de conscience
environnementale, on va limiter les
dégâts et donc scénario B.

Et la différence, c’est que soit chaque


pays agit différemment ou tout le
monde agit ensemble. Ca donne 4
grands types de scénarios.
On a aussi raffiné le scénario le plus
catastrophique, en prenant soit fossile
intensif…

Chacun de scénario va correspondre à


des scénario différents de qté de
population, de quantité de CO2 utilisé,
ou d’utilisation du fuel fossile…

Chaque couleur correspond à chacun


des scénario.
Si on prend par exemple le B1 =
scénario assez optimiste où la
population croît peu, avec peu
d’utilisation nrj, il y a un apport de cO2 relativement bas
Par contre, le scénario A1FI « fossil intensive », Popu grandit pas bcp mais utilise bcp d’nrj (gagne bcp d’argent) et
produit bcp de CO2…
Voilà un peu comment on a procédé pour tenir compte de la marge d’erreur liée à ce que l’homme va faire

Il y a des erreurs liées au fait que les modèles ne sont pas parfait et des erreurs en fonction du scénario que l’on a
choisi.

Slide 92 :
Du fait que différents scénarios, on peut
commencer à voir comment va évoluer
par exemple la production de cO2 sur
les différents scénarios : le B1 (le moins
catastrophiste) = faible augmentation de
CO2 jusque 2100. Sur le schéma, il y a
les émissions, et les concentrations.
Même chose pour le méthane.

Slide 93 :
Dans le cas des nouvelles versions (et
ça va être la même chose dans le
suivant), on s’est dit plutôt que faire des
scénarios compliqués, socio
économiques, finalement, ce qui est
importe, c’est à quoi on aboutit au
niveau forçage radiatif.
Si c’est intensif, très économique, on
aura un gros forçage radiatif et si on fait
des efforts envi, ce sera un faible forçage radiatif.
Et on a introduit ces notions de RCP
(representative concentration profil, donc
profil représentatif des concentrations,
sous-entendu des GES).
Ces RCP ont un chiffre derrière. Ces
chiffres en première approximation, c’est
le forçage radiatif auquel on arrivera en
2100 par ce scénario. Donc, par
exemple, si c’est 2.6, l’excès d’énergie
qu’on va ajouter sera relativement faible
et donc on aura une augmentation
relativement faible de t° et … niveau
marin (équivalent de B1 montré tout à
l’heure).
Par contre, si on fait tout « business as
usual », on aura un forçage radiatif bcp
plus fort : 8,5 WMcarré en 2100 et on suit
courbe rouge.
On change un peu de philosophie et on
fait moins d’hypothèses sur ce qui va se
passer à l’intérieur des boîtes.

Qu’est-ce que ça dit ces modèles ?


Slide 94 :
Comment analyser ces graphiques pcq ls ne sont pas tjs avec les mêmes références (= une erreur fondamentale de
ceux qui ont conçu)?
RCP c’est le nouveau rapport, A1, B1,…c’est celui avant (Premier schéma vs schéma 2).

On commence avec la
température :

Les courbes qui


essayent de dire à
chaque année ce que
sera la température.
Ca c’est une moyenne
sur les 20 dernières
années de la série. On
voit quoi ? En 2100
avec le scénario le plus
catastrophique, «
Buisness as usual »,
on est avec une valeur
moyenne
d’augmentation de
température de 3.5
degrés et une balance
qui va d’à peu près de
3 degrés jusqu’à 4
degrés par rapport à la
période de référence
1961-1990 (moyenne).
Le 0, c’est la moyenne de ce qui se passe en 1961-1990.
Schéma 2 : En AR5, on passe avec des RCP, on nous montre le plus optimiste et le plus pessimiste (avec le noir pour
le passé). Avec la valeur la plus catastrophique, on est aux alentours de +4 degrés en 2100.
Avec le plus optimiste, on est à + 1 degré. Mais la période de référence Période de référence n’est pas la même !
C’est maintenant 1986-2005.

● On ne peut pas comparer les 4 degrés de ce rapport avec les 4 degrés du rapport précédent pcq ce n’est pas
la même période de référence ! On a l’impression que c’est la même prévision de t° dans rapports 4 et 5 mais
ce n’est pas la même chose. En fait, on serait plus haut que 4 degrés.
● Fait est que c’est différent donc ne pas comparer chiffres entre les 2 rapports.

Slide 95 :
Ils ont produit des cartes avec des
situations en fonction des scénarios
de ce qui se passe avec la
température. Pas très secret. C’est
surtout au niveau des continents
qu’on va avoir de fortes
augmentations puisque c’est là qu’on
a moins de redistributions d’énergie
puisque c’est un solide (l’énergie
reste en surface). C’est surtout dans
régions nordiques qu’on a les + gros
changements (c’est là que les
couleurs sont les plus importantes).

En gros, la 1re raison pour laquelle


l’Arctique se réchauffe plus que le
reste, c’est pcq on a la disparition de
la banquise qui change fortement
l’albédo : comme le climat se
réchauffe, ça fait fondre la banquise
de manière plus importante, n capte
plus d’énergie sur l’eau libre qui est autour et cette énergie, soit retarde la formation de la banquise l’année suivante,
soit fait fondre ce qui existe encore.
= Effet de l’albédo.

2e raison : on a la pénétration des rayons du soleil qui est bcp plus oblique dans l’atmosphère Arctique et donc on
traverse avec ces rayons solaires une qté d’air plus importante. Et donc, on a un stockage d’énergie plus important
que si les rayons arrivaient directement, sur une surface plus faible.

3e raison : on est dans un milieu froid et donc dans l’air froid, on peut mettre très peu de vapeur d’eau (Plus l fait froid,
plus il y a de condensation de la vapeur sur les vitres).

Rappel schéma :
L’énergie absorbée par le sol sert à plusieurs choses :

● Augmenter la température de l’air qui est en contact ‘= transfert de chaleur sensible).


● Elle peut aussi servir à évaporer l’eau.

Si le climat est froid comme dans l’Arctique, comme air est déjà complètement saturé en vapeur d’eau, on ne peut plus
utiliser l’excès d’énergie comme chaleur latente, on ne peut plus utiliser cette énergie pour évaporer les eaux. Et donc,
l’excès d’énergie va forcément contribuer exclusivement à la chaleur sensible, càd à faire monter la température de
l’air. C’est une question de redistribution de l’énergie absorbée par le sol entre la chaleur latente (=changement d’état)
qui ne se produit plus puisque l’air est déjà saturé en vapeur d’eau et donc l’excès d’énergie est utilisé pour faire monter
la température de l’air par conduction (transfert de chaleur sensible).

Là où il y a le moins de changements : c’est l’Océan austral pcq il est très isolé du reste du monde par les courants
marins qui tournent autour. Et une partie de l’atlantique Nord. Pour raisons que l’on n’a pas bien compris (= tache
blanche).

● Prévisions sur les précipitations :

Slide 96 : On peut faire cartes. Ces


modèles permettent de reconstituer
l’intensité des pluies. Schéma : en %, on
peut être en positif ou en négatif par
rapport à la période de référence. Et ce
sera pour 2100. On voit par exemple
clairement que dans les hautes altitudes,
on a accroissement des précipitations
(on est dans des valeurs positives) et on
aura probablement une décroissance
dans les régions méditerranéennes. En
été, on aura clairement une décroissance
des précipitations dans tout le bassin
méditerranéen.

Slide 97 : Dans ce même rapport AR4,


au lieu de nous montrer des valeurs en
%, on va nous montrer des axes un peu
biscornus en std dev (standard deviation)

Et donc, au lieu de donner des chiffres


précis, on préfère travailler
statistiquement pour dire « il y a autant de
chances que… ». Et donc, on travaille par
rapport à une distribution normale de la
variable, par exemple de l’intensité des
précipitations ou du nombre de jours secs
et si on prend toutes ces valeurs de
précipitation ou de jours secs, comme il y
a bcp de valeurs partout à la surface du
globe, on aura une distribution de type
normale. On a la distribution actuelle. Et
on a des évènements extrêmes dans
cette distribution et on en a d’autant plus
extrêmes qu’on est à 1 sigma ou 2 sigma.
Petite courbe en haut à gauche : +/-2
sigma : 95 % des données sont à
l’intérieur et 5 % sont à l’extérieur, 3 sigma
: 99 % des données sont à l’intérieur et seulement 1 % à l’extérieur.
● Quand on regarde les cartes avec les codes de couleurs et les valeurs, si on a une valeur de 1.25 sigma
(couleur mauve), dans toutes les zones de couleurs mauves, on va observer une intensité de précipitation qui
est observée dans seulement 13 % des cas. Actuellement. (Pour connaître ce 13 %, il faut se référer à l’autre
graphe en haut à gauche). Donc, on va avoir comme norme des précipitations qui ne correspondent qu’à ce
qu’on observe dans 13 % des cas actuellement.

Si on regarde l’évolution au cours du temps, pour l’ensemble du globe, on va avoir des intensités de précipitation, quel
que soit le scénario que l’on prend qui vont avoir tendance à augmenter. Les couleurs sont dans les bleus et dans les
verts partout. On va être partout dans la queue de distribution par rapport à ce qu’on observe actuellement.

Pour le nombre de jours de sécheresse, on est aussi dans les valeurs positives (plutôt dans les rouges en
méditerranée), On est toujours avec 1 sigma…

Au lieu de donner des chiffres (il y aura autant de jours en plus ou autant de précipitation en mm par M carré), on dit
plutôt : on va observer des choses qui aujourd’hui ne se passent que dans 13% des cas ou 10 % des cas… Donne
une vision statistique.

Slide 98 : Parfois ça monte beaucoup plus


haut. Si on prend le nombre de jours de gel,
on a des valeurs qui vont jusqu’à -4, -5. Donc,
on va être dans 5 sigmas par rapport à la
distribution donc, des valeurs quasi pas
observées actuellement. On est en-dessous
de 1% des observations actuelles.

Même chose avec les jours de chaleurs, on


arrive à 3, 4 sigmas, on observera là des
valeurs qui se produisent dans – de 1% des
cas.

Slide 99 : Prédictions concernant la montée


du niveau marin :
AR4 : chaque colonne, c’est 1 scénario. La valeur grise, c’est la somme de toutes les contributions. Selon le scénario,
on va entre 25 cm et 45 cm de relèvement du niveau marin. Et les petites croix, ce sont les contributions.
En AR4, la contribution principale, c’est l’expansion thermique qui est plus grande que les 3 autres qui sont la verte
(les glaciers et les…), la bleue (le Groenland) et la blanche (l’Antarctique) qui dans ces modèles est encore en négatif
càd la contribution de l’Antarctique dans ces modèles au nveau marin sera négative. Autrement dit, on va prendre de
l’eau de l’océan et l’ajouter comme précipitation sur l’Antarctique. Pcq s’il fait plus chaud, le cycle hydrologique
augmente : on prend une partie de l’eau de l’océan, on forme des nuages et on précipite des précipitations sur
Antarctique. C’est comme ça qu’on arrive à avoir des valeurs négatives.
Pour l’Antarctique, on a aussi une croix rose
et elle est positive et c’est pcq il y a perte de
glace par l‘Antarctique qui elles sont
positives, vont contribuer positivement à
l’augmentation du niveau marin.

Ca c’est la situation de l’AR4 avec des


valeurs maximales de 40 cm.

Passe à un autre schéma où on a une


présentation globale pour le A1 et B. On voit
que mes marges d’erreur sont importantes
(modèles pas parfaits comme on a vu) et
puis il y aussi le fait qu’il y a les différents
scénarios. Mais ici, on a le scénario A1B et
donc, on se débarrasse de l’imprécision liée
aux scénarios socio-économiques
puisqu’on a choisi un scénario et donc il
reste la variabilité liée à ce qu’on ne sait pas
dans le modèle. On arrive aussi à qch
autour de 400 MM.

Puis, on a l’AR5. Là, les choses ont quand-même changé. Si on prend le scénario le plus catastrophique, le rouge, on
arrive à une augmentation du niveau de marin d’environ 70 cm. Alors que dans le scénario le moins catastrophique,
on est à 45 cm (donc plus que prévu dans l’autre rapport). Le minimum c’est la valeur moyenne que l’on obtenait dans
R4.
Et donc, ce qui risque de changer bcp dans le nouveau rapport du GIEC, c’est la contribution de l’Antarctique où on
verra probablement des marges d’erreur un peu plus importantes. On sera en 2100 à 1,5m ou à 40 cm. C’est le negative
learning : plus on apprend des choses sur comment fonctionnent les choses, plus il y a de l’incertitude sur les résultats
qu’on obtient.

Slide 100 : Ce qui se passe aussi c’est


que l’on acidifie les océans. Puisqu’il y a
de plus en plus de CO2 dans
l’atmosphère, on va solubiliser du CO2
dans océan, on va l’acidifier. On a des
mesures de 1885 à 2005 à différentes
stations où on mesure en continu la
teneur en CO2 de l’océan. Et on mesure
aussi le PH. Plus on met du CO2 dans
l’océan plus on augmente l’acidité. Ce
qui se passe, c’est une réaction
thermoréaction( ?)
On prend h2O + CO2 (flèche dans deux
sens) H+ + HCO3-
= l’acidification.
C’est très dommageable aux coraux…
Donc, ce PH est en diminution
constante. On dirait des petites
variations (8.14, 8.12, 8.10, 8.08) mais le
pH c’est pas la concentration de H+. Le
pH c’est moins le logarithme de la
concentration en H+. Ca veut dire que quand on a une variation de 1 au niveau du Ph…
Chose importante en fonction des différents modèles : en 2060, on atteindra une saturation en carbonate de calcium.
Sous saturé donc tendance à avoir dissous carbonate de calcium donc les coraux. Va se passer à partir de 2050-2060.
On est dans une trajectoire régulière d’abaissement de cette saturation en carbonate de calcium.

Dernières slides : Les scénarios du GIEC sont-ils pessimistes ou catastrophistes ?


Les climatosceptiques disent que ces modèles ne sont pas fiables, trop grossiers, trop imparfaits. Prof a montré que
c’est pas tout à fait vrai, il y a des validations et ces modèles sont déjà très complexes et donnent de bons résultats.

Slide 101 :
On regarde les émissions de CO2. On a
des points blancs et des points bleus (ha
bon ?), ça dépend de qui fait les
statistiques, et les courbes de couleur,
c’est ce que prédisaient, depuis les
premiers rapports du GIEC, les différents
scénarios. On voit que les observations
flirtent avec le scénario le plus
catastrophiste (A1FI). Autrement dit, tous
ces modèles de couleur sous estimaient
l’émission de CO2 dans années 90-2005.
Depuis les 2000, on suit le scénario le
plus catastrophiste. Donc ça veut dire
que les modèles étaient en fait
optimistes. Au niveau du CO2.

Slide 102 : Les variations des niveaux


marins :
Le triangle gris, c’est de nouveau ce que les
modèles du GIEC avaient prédit pour 2010
en 1990. On voit que toutes les projections
sont en dessous de la réalité. Les
observations suivent à nouveau les
prévisions du modèle le plus pessimiste.
Malgré les imperfections des modèles, on
suit fidèlement la courbe la plus pessimiste
des modèles.

Slide 103 : La Banquise : on a montré qu’elle rétrécissait (sea Ice Extent).


Toutes les petites courbes de pointillés sont les modèles qui essayent de reproduire le cpt de la banquise Arctique.
Ces modèles sont plus ou moins bons, ils ne sont pas tjs très d’accord entre eux. Ils pédalent dans la choucroute mais
on les utilise car ils arrivent à reproduire l’histoire du dernier siècle de manière relativement satisfaisante. La courbe
rouge, ce sont les observations faites par
satellite. Une fois de plus, tous les modèles
se plantent mais en étant trop optimistes.

Slide 104 : 4ème exemple :


Une observation intéressante dans le
dernier rapport du GIEC. Qu’est-ce que on
représente là ? On représente à la fois pour
le passé (en noir) et pour les projections
futures la quantité de CO2 émis par homme
depuis 1870. Et puis, on a les évolutions de
températures relatives à la valeur moyenne
1861-1880, donc
au début de la révolution industrielle Le noir,
ce sont les observations jusqu’en 2010. On
voit qu’on est à peu près sur une relation
linéaire. Donc plus on augmente la quantité de CO2 dans l’atmosphère, plus on augmente l’anomalie de température
et c’est linéaire. Et on a toutes les chances que ça continue à se produire comme ça.
Si on regarde ce que donnent les différents modèles.
Le plus optimiste : d’ici 2100, on arrive à maintenir la température en dessous de 2 degrés tandis que le plus pessimiste
: on arrive à plus 4 degrés en 2100. Et ce en suivant cette relation linéaire qui est une réalité actuelle.
Csq : si on veut stabiliser la température à 2 degrés en 2100, on ne peut pas monter plus haut que plus ou moins 750
gigatonnes de carbone cumulées depuis le début de la révolution industrielle. En 2010, on est déjà à 500. Donc, il nous
reste à peu près la moitié de ce que nous avons déjà dépensé.

Juste pour vous montrer l’importance de limiter le plus possible l’importance des émissions.

On fera une séance de questions-réponses après Pâques !! A fixer un peu avant l’examen. Investissez du temps à
regarder dias avant cela.
Séance de questions-réponses 11/05/2020

Question 1 - slide 6 : Pouvez-vous réexpliquer la loi de Rayleigh ?

Question 2 - slide 7 : pourquoi la réaction chimique (2)O+(2)O2 -> (2) O3 crée-t-elle de la chaleur ?

Question 3 - slide 13 : Pouvez-vous réexpliquer le phénomène Evaporation-Refroidissement-Salinisation et pourquoi


est-il dans cette zone ? Et pourquoi le courant remonte-t-il dans l’océan Indien et Pacifique ?
Question 4 - slide 24 : Un phénomène qui a fait changer le climat très fortement = le développement de la banquise
(qui a empêché la PS). Et qui a fait que les températures ont fortement diminué. Dans le cours 2, vous avez parlé de
l’orogenèse qui pompait le CO2 dans l’atmosphère. Je n’ai pas très bien compris le processus. Mais donc, ce
processus, s’il était avéré, compenserait le fait que la PS ne soit plus possible pour impacter le climat dans le sens
d’une diminution des températures ?

Question 5 : Les climatosceptiques disent : "oui mais si nous ne pouvons pas prévoir les changements de météo sur
2 ou 3 semaines plus tard avec précision, comment prévoir les changements climatiques à long terme ?” On a beau
expliquer la différence entre météorologie et climatologie, comment vous expliqueriez cela à des climatosceptiques ?

Question 6 - slide 26 : ...la période est plus courte? La fréquence...

Question 7 - slide 5 : ce n'est pas clair pour moi car dans les notes que j'ai on parle de la surface de perception et de
la constante solaire... Mais dans la dia , je ne vois pas de mention de la surface de perception. Quelle est-elle dans le
calcul ? Est ce juste de dire que pour connaître la quantité totale d'énergie interceptée par la Terre, il faut multiplier la
constante solaire par la surface de perception. Quels calculs représentent ces deux termes du calcul ?

Question 8 - slide 5 : au niveau de 390 “surface radiation”, comment ça se répartit?

Question 9 - slide 34 : En quoi les carottes glaciaires ont l’avantage de présenter une haute résolution temporelle par
rapport au sondage des sédiments?

Question 10 - slide 34 : le changement de résolution sur un même type d'archive, provient-il en général d'une
déformation de l'archive?

Question 11 - slide 34 : Est-ce que la première tranche (celle que l’on voit complètement) est celle qui est décrite
comme la plus éloignée de la surface de la Terre, et la troisième, une tranche de la glace proche de la surface ?

Question 12 - slide 34 : qu'est-ce que le Be10 exactement? (variable correspondant à l'intensité des précipitations
neigeuses)

Question 13 - slide 34 : devons-nous retenir les deux tableaux?

Question 14 - slide 8 : l'albédo planétaire : il est à la surface de l'atmosphère. C'est à dire au niveau de la
thermosphère, à son intersection entre le vide de l'espace et le commencement de l'atmosphère ?

Question 15 - slide 9 : je lis "ce qui est émis à la surface de la terre sous forme de radiation (390) est plus élevé que
ce qui arrive à la surface parce qu'elle est en partie recyclée dans le système. Comment ? Par quel mécanisme ?
comment est ce possible que la Terre puisse produire plus de chaleur que reçue ? Est ce par ce mécanisme qu'on
explique le réchauffement climatique entre autres ? Est ce que la chaleur venant de la Terre ne joue pas un tout petit
peu là dedans ?
Question 16 : En quoi les sondages glaciaires nous renseignent sur la composition isotopique ancienne des nuages
?
Question 17 - slide 9 : En quoi s'explique les chaleurs latentes, sensibles dans les 390 du rayonnement IR ?

Question 18 - slide 34 : les bulles occluses dans la glace donnent elle bien une information à une résolution moindre
(100/1000ans)? et donc pour retrouver cette composition de l'atmosphère nous sommes obligés de passer par d'autres
informations.

Question 19 - slide ? : Par quel mécanisme les nuages ne s'élèvent ils pas plus haut que la troposphère ? Et Pourquoi
les masses d'air chaud montant de l'équateur s'arrêtent à la tropopause ? Les masses d'air chaud sont-elles à distinguer
des nuages montant de l'Equateur ?

Question 20 : slide 37: pourquoi le delta vapeur est négatif?


Question 21 : Si mes notes sont correctes, la circulation thermohaline distribue de la chaleur sous forme de chaleur
latente. C'est correct ?

Question 22 : Du coup, selon le delta on sait différencier aussi bien si c'est une période glaciaire ou interglaciaire et
aussi si nous sommes en été et en hiver.

Question 23 : Je n'ai pas bien compris le principe de base de Delta O18.

Question 24 - slide 42 : Le Leads and Lags semble dire que la variation de température précède l’augmentation des
GES. Est-ce-que ce n’est pas en contradiction avec la vision qu’on a du réchauffement climatique actuel?

Question 25 : Quel est l'ordre de l'ancienneté des propositions suivantes :


● Forçage sédimentaire
● Carotte glaciaire
● Cerne des arbres
● Documents écrits
● Satellites

→ Copié-collé d’une liste de questions d’examens des années précédentes. Cherchez vous-mêmes !

Question 26 - slide 42 : le graphique à droite, les différentes couleurs signifient quoi? // par rapport au Leads and
Lags, on semble dire que l'élévation de température précédent l'augmentation de GES, est ce que ça veut juste dire
que d'autres paramètres agissent ?
Oui, c’est ce que je viens d’expliquer.

Question 27 - slide 14 : je vois qu'aucune de ces archives ne peut aller au delà de 10 millions d'années. Comment
peut-on alors estimer le climat de périodes aussi anciennes que celles représentées sur la dia 23 ?

Question 28 - Slide 43 : Pourquoi l’excentricité de l’ellipse varie-t-elle ?

Question 29 : on sait que certains archives peuvent regorger plus d'informations que d'autres mais est ce que cela
vaut la peine de les substituer?

Question 30 : L'ellipse, j'ai une question dessus. Dans mes notes j'ai : "l'excentricité de l'ellipse = rapport entre la
distance entre le centre de l'ellipse et le foyer divisé par le grand axe de l'ellipse. Est ce juste ? Et si oui, qu'est ce que
le "grand axe de l'ellipse" ?

Question 31 : j'ai pas très bien compris ce qu'était la précession des équinoxes

Question 32 : Merci Monsieur pour votre réponse sur l'ellipse, mais c'était déjà acquis pour moi, la forme. Ma question
concernait plus la formule de calcul.
Voici la formule qui me pose question :" Dans mes notes j'ai : "l'excentricité de l'ellipse = rapport entre la distance entre
le centre de l'ellipse et le foyer divisé par le grand axe de l'ellipse. Est-ce juste ? Et si oui, qu'est ce que le "grand axe
de l'ellipse" ?"

Question 33 - slide 48 : il est question de "bugs" dans le cours. Qu'est-ce qu'un bug ?

Question 34 : Qu'est ce que le pacemaker astronomique?

Question 35 - slide 33 : comment réalise-t-on une analyse spectrale ? Je n'ai pas trop compris.
Question 36 - autre question : pendant le cours, vous avez dit qu'il y avait un point que chaque année les élèves ne
comprennent pas selon vous. Je n'ai pas réussi à retenir ce que c'était ? Qu'est ce que c'était ?

Question 37 : Différence entre le forçage astronomique, climatique et sédimentaire

Question 38 - slide 49 : il y a deux lignes distinctes dans la formule... A quoi correspondent chacune de ces deux
lignes ? En fait, je parlais du dia 49 je parlais de ces deux lignes sur l'orogenèse hercynéenne.

Question 39 - slide 54 : vous avez dit qu'il y avait quelque chose de complexe concernant le rôle du couvert nuageux
dans les mécanismes d'amplification-amortisseur du système Terre. Est ce que vous seriez d'accord de nous
réexpliquer le rôle du couvert nuageux ?

Question 40 - slide 49 : Je n’ai pas bien compris le phénomène d’érosion physico-chimique de l’Orogénèse
Hercynienne, plus particulièrement à quoi correspond les 2 réactions chimiques.

Question 41 : les pluies sont-elles toujours acides?

Question 42 : comment pompe-t-on les H+ ?

Question 43 : j'ai une question pour la suite, désirez vous que nous retenions les évènements majeurs de chaque ère
géologique (qui sont décrit notamment lorsque nous nous concentré sur la dérive des continents)?

Question 44 - slides 55-56-57 : Pouvez-vous réexpliquer les rétroactions liées à la solubilité océanique et à la pompe
biologique ?

Question 45 - slide 61 : Pouvez-vous réexpliquer la boucle de rétroaction liée aux plateformes de glace flottante ?

Question 46 : dans les boucles de rétroaction, est ce que la variation de ces boucles à un comportement exponentiel?

Question 47 : si un climatosceptique vous disait : "Ce n'est pas vrai que l'origine du réchauffement climatique est
d'origine anthropique", vous prendriez quoi comme preuve en premier pour réfuter ce qu'avance cette personne ?
Après les examens, j'aimerais vous envoyer une longue liste d'objections écrite par des climatosceptiques, car cela
m'intéresse de savoir comment les scientifiques y répondent. Serait-ce possible ?

Question 48 : ne pensez vous pas que les activités photosynthétiques favorisées par l'apport de la même lumière dans
les océans aient des effets sur le rejet du CO2 dans l'atmosphère?

Question 49 : Donc les moteurs de la machinerie climatique se résument sur quoi essentiellement?

Question 50 : slide 62-63 : Pouvez-vous réexpliquer l'amplification liée aux aérosols sulfatés biologiques ?

Question 51 : vous désiriez nous dire un mot par rapport à l'examen?

Question 52 - slide 71 : Comment la séquestration d’eau terrestre contribue-t-elle à l’augmentation du niveau de la


mer ?

Question 53 - slide 97 : Pouvez-vous réexpliquer les standard deviations ?

---

3) La banquise (ppt 74). La banquise c’est l’océan qui gèle. Cette banquise elle apparait en couleur rose. Le spectre de couleur
représente le % de la surface qui est couvert par de la glace. Ce qu’on veut montrer ici, c’est les « 2 extrêmes », la différence entre
1979 et 2007. Ce qu’il faut faire, comme on l’a vu, c’est montrer le graph en même temps que les photos. Celui-ci montre l’évolution
sur des dizaines d’années. En 2050 probably on pourra faire le tour de l’arctique en bateau.
ppt 75 : donc on a vu en surface, mtn on va voir l’épaisseur. Mais c’est plus difficile à mesurer. Quand même on a des données qui
datent de la guerre froide (US submarines navigated under Russian ice, et le submarine pouvait reconstruire combien de glace il y
avait au-dessus de lui. Ses mesures sont restées dans les tiroirs de US for a while. And 15 years later they published them. Maintenant
grâce à ces données on va comparer les épaisseurs de ajd à la période de la guerre froide. Résultat : on a une grosse perte de
plusieurs mètres de épaisseurs.

Actualiser ces données ce n’est pas facile. Why? Problem=pour faire ce calcul, on doit savoir the ice density. Mais ça bouge bcp (cos
on the ice, on a also snow, on top that can it melt and become water. Tous ces changements font qu’il est dur de mesurer). Ça fait a
plus de 10 ans qu’on essaye de mesurer ça. Pour le moment ça foire, les densités bougent trop vite. Même ajd on a un problème à
évaluer le volume de glace.

ppt 76 : autre élément qui bouge c’est la température de l’océan. La température de l’eau nous donne une idée de la quantité d’énergie
stockée. Dans le rapport d’avant, on a pu montrer que 80% de l’excédent de chaleur qui a été stocké dans la partie inférieur de la
terre (donc qui contribue aux ghg) a été stocké dans les océans. 2e graph = meilleur graph that even existed in GIEC: en pointillé
c’est la marge d’erreur. Les couleurs correspondent aux différentes enveloppes du globe terrestre. L’atmosphère c’est la petite ligne
mauve= la quantité de chaleur qui explique why we went up 1°C depuis la révolution industrielle (so why we are at 1.5 °C now). Tout
le reste ça été produit à cause des ghg, mais a été stocké dans les océans. Ça veut dire que c’est un peu comme une bombe à
retardement parce que, il suffit d’un processus pour que cette eau chaude qui est en profondeur, revienne à la surface et s’échange
avec l’atmosphère pour que tout à coût on voit les températures atmosphériques augmenter.

Qu’est ce qui va être déclencheur de ce relargage d’énergie excédentaire stockée dans l’océan vers l’atmosphère ? Une des solutions
proposées : c’est ce processus de El Nino. C’est un processus d’interaction entre l’atmosphère et l’océan (ce qui est représenté entre
l’Amérique du Sud et l’Australie). On sait que soufflent en permanence à la surface des océans les Alysée (qui soufflent de l’est vers
l’ouest). Elles entrainent avec eux les eaux de surface qui sont chargés d’énergie. Et toute ces eaux de surface sont amenées du
côté de l’Australie, s’empilent et sous l’effet de leur propre poids ces eaux sont chassées vers le fond. Tant que ça fonctionne c’est
bon, mais le problème c’est que ce système (=la nina=la situation normale). Mais when El nino, c’est quand les alizés soufflent moins
forts, donc elles amènent moins facilement les eaux chaudes vers l’Australie.
J’ai oublié de vous dire que comme cette eau de surface est entrainée vers l’Australie et s’empile là-bas, la surface de l’océan est
inclinée comme ça (trop d’eau là et moins ici), et donc par réajustement hydrostatique l’eau va se mettre à l’horizontal, et comment
on va faire ça ? Les eaux profondes qui sont ici vont remonter vers la surface. Et les eaux profondes froides de l’Antarctique qui
contiennent très peu d’énergie. Tant que ça ça se passe on refroidit la surface ici, et on emmène les eaux chaudes là et on les envois
en profondeur. Si maintenant (avec El Nino) je diminue les Alysée, toute cette masse d’eau chaude ici va retourner vers l’Amérique
du Sud, et donc il va avoir un courant de retour ici d’eau chaude qui va repousser les eaux froides qui sont là, et une partie des eaux
en profondeur ici vont remonter vers la surface pour s’échanger avec l’atmosphère.

Ces interruptions de la El Nina par le El Nino, vont avoir pour effet de ramener des eaux chaudes qui sont en profondeur du côté Est,
les ramener à la surface, et comme ce sont des eaux plus chaudes qu’auparavant, on va avoir plus d’échange de chaleur avec
l’atmosphère et donc moins de refroidissement de l’atmosphère. Si les évènement El Nino continuent à se produire plus souvent, ça
pourrait amener à ce que cette énergie excédentaire arrive à trouver le chemin vers l’atmosphère et donc contribue à augmenter plus
intensément les températures atmosphériques.

Bien sur cette hypothèse est encore sous discussions et ont est toujours en train de mettre en place des arguments.
ppt 78 : d’autres choses qui bougent mais qui sont un peu plus subtiles et moins approfondies comme idée. L’idée c’est que puisque
le climat se réchauffe, on a plus d’évaporation du côté des océans et donc on a plus de pluie qui tombe sur les continents. Notamment
plus de pluie sur les grandes rivières de toute la Sibérie, qui contribue de l’eau douce à l’océan arctique. Et donc ce qu’on veut voir
c’est si ce débit devient de plus en plus important. On est en légère augmentation du débit de ces rivières en eau douce vers l’arctique
(mais rien d’énorme). Par contre ce qu’on voit sur le graph c’est que la couverture de neige au printemps dans l’hémisphère nord,
d’année en année, la surface couverte par la neige, donc la surface d’albédo fort, diminue. Ça veut dire que plus d’énergie d’origine
solaire sera absorbée par le sol.

ppt 79 : autre chose qui bouge beaucoup c’est la fonte du pergélisol (permafrost)= dans le sol on a toujours une grande quantité
d’eau qui est présente, et dans les contrées nordiques, quand les températures moyennes de l’air sont très basses (bvb en dessous
de zéro degré même en été), et bien l’eau du sol gèle, et peut geler en profondeur (dans certains endroits en Sibérie on a jusqu’à
1600 mètres de sol gelé en profondeur). Cette eau en état de glace contient pas mal de ghg de type le méthane (car le méthane à
tendance à se produire en milieu anaérobie = sans oxygène), donc quand certaines parties se dégèlent, on a des bactéries qui en
absence d’oxygène produisent du méthane. Ce méthane est piégé dans la glace là. Ce qui se passe c’est que maintenant avec le
réchauffement des températures atmosphériques, on a plus d'énergie absorbée par le sol et donc cette énergie fait fondre cette glace
dans le sol, et ce que ce schéma nous montre ici de 1900 à 2000 c’est des estimations des anomalies de l'extension de ce permafrost.
On voit que ce n'est pas linéaire qu’il y avait des moments avec moins/plus de permafrost mais on voit que sur une échelle de plusieurs
décennies il y a une tendance à une diminution des surfaces du sols qui sont gelées.
Barrow : région où il y a bcp de pétrole dans l’Alaska.
ppt 81 : en Suède, les températures du sol sur les 10 dernières années. Il y a un réchauffement indeed.
Dans ce sol, on a des bactéries qui vivent dans l’eau, et en aérobie vont produire du méthane, qui est stocké dans la glace, and
obviously si elle fond, les ghg vont finir dans l’atmosphère.

(Le dessin) : on a regardé ce qui se passait dans le sol sous l’océan. Toute cette zone qui est maintenant sous l’océan, ce sol,
pendant la dernière glaciation, il y a 20 000 ans, le niveau marin était 120 mètres plus bas, donc pendant toute la période glaciaire ce
sol était à l’air libre, en région polaire (donc dvlpnt de permafrost qui s’est enrichit en méthane par l’activité bactérienne). Maintenant
avec la sortie de la glaciation, le niveau marin est monté, mais cette eau océanique se réchauffe de plus en plus. Ce qui se passe,
cette eau devient plus chaude que le sol en bas, et ce sol fond. Donc le méthane qui s’est fait prisonnier pendant la période glaciaire,
il comme à sortir. Sur l’image, ce sont des bulles de méthane qui sort des roches dans l’eau et remonte vers l’atmosphère.

Autres indicateurs l’intensité de la sècheresse, on regarde sur plusieurs années, combien de jours sont secs. Les périodes de forte
d’intensité de précipitation (là où il y a des signes +). Et la fréquence des ouragans (le gris) et des tempêtes tropicales (le jaune). Next
ppt, on a le total de ceux-ci.

Schémas « augmentation du nombre d’évènements météorologique extrêmes »ça nous parle des extreme weather events lié au
climat. On voit les couts annuels. En rouge, en bas, c’est le nombre de ces events. On voit que c’est en augmentation. Le total
economic loss c’est en vert clair. La partie en vert foncé c’est les couts qui sont remboursé par les assurances.

4.2 L’Homme est-il responsable ?


Ça c’était les tendances récentes. Now let’s see, est l’Homme responsable ? les seules choses qu’on peut dire c’est :
1) ppt 87. On regarde les paléos informations : la première info c’est que les taux de croissance des ghg actuels, sont des valeurs qui
n’ont jamais été observé auparavant dans l’histoire. Tout au long de l’histoire, il y a des pics, mais pour que ces pics se marque, ça
prend des milliers d’années. Or que nous, it took less than a century. Donc la vitesse d’augmentation is unprecedented.

2) on se rabat sur les modèles. Oui, ils sont imparfaits, oui il y a des marges d’erreur. Mais en fait ce schéma ppt 88, toutes les
couleurs =les modèles climatiques globaux. Tout d’abord ce graph prend en compte la variabilité de la quantité d’énergie incidente
qui provient du soleil. Après on prend en compte dans ce graph la lumière captée quand on a des particules venant de volcans (à
chaque fois que ça drop, c’est une éruption et donc on absorbe moins de lumières). Puis les effets de serre lié aux gaz libéré dans
l’atmosphère (=all other forcings). Ensuite, en bas on a toutes ces courbes de couleur ensemble. Ce qui est intéressant c’est de
comparer ces courbes au graph des températures. On voit que même avant que les courbes de ghg interviennent, ces modèles
arrivent à suivre les tendances du gris fond ». Donc ces modèles sont capables de lier les variations naturelles aux causes actuelles.
Ces modèles, on peut les use pour travailler sur une échelle de temps plus courte comme un siècle. Sur 100 ans on a des résultats
un peu différents et donc on a représenté avec une ligne grasse, la moyenne de tout ça. Graphes sur la droite : a= ne considère que
les forçages (a) et (b) et b=a + les courbes de ghg.

Et on voit que quand on ne les utilise qu’avec le forçage naturel on n'arrive pas à reproduire la tendance d'augmentation de
température, tandis que quand injecte les gaz à effet de serre on arrive À reproduire cette tendance de température. Donc, oui, ce
sont des modèles imparfaits, il y a des marges d'erreurs, n'empêche qu’ils vont dans la bonne direction // la tendance. Donc si l’homme
est responsable ou pas ? Well we know that on a injecté tellement de ghg dans l’atmosphère, et tant que les ghg augmentent, CC
augmente.

5. Les visions du futur


5.1. La modélisation climatique : outil précieux et incontournable. ppt 87
On voit comment les modèles ont été fait au fil des années. Genre, en 1970, le rapport de GIEC ne considérait que le soleil, le CO2
et les précipitations. On voit qu’au fourth assessment report, les rapports sont bcp plus complet que le tout premier rapport. Round of
applause.
5.2. Les incertitudes des forçages radiatifs. ppt 88
AR4on voit qu’on exprime dans les unités de forçage radiatif, exprimé en W/m3. Si c’est positif, on contribue à réchauffer le climat, et
en bleu, donc négatif, c’est une contribution de refroidissement du climat. Si on fait le total du forçage, on a 1.6. Ces valeurs de
forçage sont toujours comparées aux 348W/m3 de constante solaire.
5.3. Une grande inconnue : le comportement Humain. ppt 90
ppt 92 : « scenarii » ce que fait l’homme, comment va évoluer le comportement de l’Homme, combien de CO2 on doit rajouter. Ces
projections sont très difficiles à faire. On a pris 4 grands cas A1, A2, B1, B2. Chacun de ses scénarios vont correspondre à des
couleurs sur le graphe à droite. Le B1 c’est un scénario optimiste. FI (=fossil intensive).
5.4 : les tendances globales et leur disparités spatiales
ppt 94 : grâce à ces scénarios, on peut commencer à voir comment ça va évoluer, selon les différents scénarios.
ppt 95 : dans le cas des nouvelles versions, on s’est dit qu’au lieu de faire des scénarios compliqués, on regarde juste si le forçage
radiatif est faible ou fort. Ces RCP ont un chiffre derrière, c’est le forçage radiatif auquel on arrivera en 2100.
ppt 96 : on voit que en 2100, on est avec une valeur moyenne de 3.5°C par rapport à 1961-1990. En AR5, le noir=passé, le bleu=moins
catastrophique, en rouge=plus catastrophique scénario. Donc le plus optimiste c’est + 1°C. mais attention l’année de référence est
différente !! On ne peut pas mélanger les valeurs de AR4 et AR5.
ppt 97 : c’est surtout dans les régions nordiques qu’on a les plus grands changements. Il y trois raisons pour cela. Tout d'abord on a
cette disparition de la banquise qui change l’albédo. La 2e raison c'est qu'on a une pénétration des rayons (venant du soleil) beaucoup
plus oblique et donc on traverse avec ses rayons une quantité d'air plus importante. La 3e raison c'est qu'on est dans un milieu froid
et donc dans l'air froid on ne peut mettre que très peu de vapeur d'eau (càd si on ramène plus d’énergie, elle sert soit à augmenter la
température de l’air, ou à évaporer l’eau à la surface du sol). Si on est dans un climat froid comme l’arctique, comme l’air est déjà
saturé en vapeur d'eau, on ne peut plus utiliser l’excès d'énergie comme chaleur latente. Donc forcément l’excès d’énergie va
contribuer exclusivement à la chaleur sensible, càd à faire remonter la température de l’air. C'est une question de redistribution de
l'énergie absorbée par le sol, entre la chaleur latente (qui est un changement d'état qui ne se produit plus car l’air est déjà saturé en
vapeur d’eau donc on n’arrive plus à évaporer de l’eau. Donc cette énergie là on ne peut pas l’utiliser pour ça) et la chaleur sensible
(et donc forcément, l’excès d’énergie est utilisée pour faire monter la température de l’air).
ppt 98 : les prévisions sur les précipitations. En % soit en positif, soit en négatif par rapport à la période de référence.
ppt 99 : Dans ce même rapport de AR4, au lieu de montrer des valeurs en %, on a des axes en STD DEV (standard déviation). Au
lieu de donner des chiffres précis, on préfère travailler statistiquement. Et donc on travaille par rapport à une distribution normale (bvb
de précipitations). On a des évènements d’autant plus extrêmes quand on est à 1 ou 2 sigmas. Ça veut dire que quand j’ai des valeurs
dans mes codes de couleurs sur les cartes, si j’ai une valeur de 1.5 sigma, ça veut dire que toutes les zones mauves, on va observer
une intensité de précipitations qui n’est observé que dans seulement 13% des cas actuellement.

5.4 Les scénarii de GIEC sont-ils pessimistes/catastrophistes ?


ppt 101 : monté du niveau marin, chaque colonne c’est un scénario. La somme de toutes les contributions=zone grise. Les petites
croix=contributions. La contribution de l’antarctique dans ces modèles au niveau marin sera négative. Autrement dit, on va prendre
l'eau de l'océan et l'ajouter comme précipitation sur l'Antarctique, parce que s'il fait plus chaud, le cycle hydrologique augmente et là
on prend une partie de l'eau de l'océan, on forme des nuages puis des précipitations se font sur l’antarctique (c’est comme ça qu'on
arrive à avoir des valeurs négatives). On a aussi une croix rose pour l’antarctique, c’est donc positif parce que la perte de glace est
positive. ça c’est la situation AR4 avec des valeurs maximales de 40cm.
En rouge (thermal expansion) ça va contribuer positivement à l’augmentation du niveau marin. A1B, on arrive à 40cm de plus. Mais
en AR5 on arrive à 70cm pour worst case scenario.
Dernière chose ppt 102 : on acidifie l’océan. Graph : mesures à différentes stations de la teneur en CO2 de l’océan et le Ph. Une
petite variation de ph has big conséquences.
On voit aussi qu’en 2060 on atteint la saturation en carbonate de calcium (donc le plafond de saturation est en diminution), càd la
valeur en dessous de laquelle on n’est plus saturé en carbonate de calcium (donc tendance à dissoudre le carbonate de calcium donc
les coraux).
103 : Les émissions de CO2. IL y a des points blanc/bleus, cela dépend de qui fait des statistiques. Les courbes de couleur c'est ce
que prédisaient les différents scénarios depuis les premiers rapports du GIEC. On voit que depuis les années 2000 on se penche du
côté du scénario le plus catastrophique. Càd tous ces modèles de couleurs sous-estimaient les émissions de CO2. Le triangle gris
c'est de nouveau ce que les modèles de GIEC avaient prédit pour 2010 en 1990. On voit que tous les modèles sont en dessous de
la réalité.
105 : la surface de la banquise toutes les petites courbes en pointillés sont les modèles qui essaient de reproduire le comportement
de la banquise arctique. La ligne grise c’est leur valeur moyenne. La courbe rouge=les observations faites par le satellite que je vous
ai montré tout à l’heure. Tous les modèles se trompent mais ils se trompent en étant trop optimistes…bad news for us.
106 : 4e exemple : on rpz le passé et les projections futures. On rpz la quantité de CO2 émis par l’Homme depuis 1870 et les évolutions
de la température. La ligne noire : on voit on est à peu près sur une relation linéaire. Donc on a des chances que ça continue dans
cette lignée. On regarde donc les différents modèles. Le modèle 2.6 c’est le plus optimiste, il arrive à maintenir la température en
dessous de 2°C d’ici 2100. C’est pour montrer l'importance de réduire au plus vite les émissions.

Vous aimerez peut-être aussi