Vous êtes sur la page 1sur 209

5O

CLÉS POUR COMPRENDRE L’


UNIVERS
GILES
SPARROW

Traduit de l’anglais par Jacques Paul


table des matières

Introduction 3 27 L
 es géantes rouges 108
28 L
 es étoiles pulsantes 112
01 Notre place dans l’Univers 4 29 L
 es supergéantes 116
02 Observer les cieux 8 30 L es supernovæ 120
03 Le royaume du Soleil 12 31 L  es vestiges stellaires 124
04 La formation du Système solaire 16 32 L  es étoiles binaires extrêmes 128
05 Les migrations planétaires 20 33 L  es trous noirs 132
06 L’origine de la Lune 24 34 L  a Voie lactée 136
07 De l’eau sur Mars 28 35 L  e cœur de la Voie lactée 140
08 Géantes de gaz et géantes de glaces 32 36 L  es types de galaxies 144
09 Les lunes-océan 36 37 C  ollisions et évolution de galaxies 148
10 Les planètes naines 40 38 Q  uasars et galaxies actives 152
11 Astéroïdes et comètes 44 39 L  ’Univers à grande échelle 156
12 De la vie dans le Système solaire ? 48 40 L  ’expansion cosmique 160
13 Notre Soleil, une étoile en gros plan 52 41 L  e Big Bang 164
14 Mesurer les étoiles 56 42 N  ucléosynthèse et évolution
15 La chimie stellaire 60 cosmique 168
16 Le diagramme de Hertzsprung-Russell 64 43 É  toiles-monstre et galaxies
17 La structure des étoiles 68 primordiales 172
18 La source d’énergie des étoiles 72 44 L  es confins de l’Univers 176
19 Le cycle de vie des étoiles 76 45 L  a matière noire 180
20 Nébuleuses et amas stellaires 80 46 L  ’énergie sombre 184
21 La naissance des étoiles 84 47 R  elativité et ondes gravitationnelles 188
22 Les étoiles naines 88 48 L  a vie dans l’Univers 192
23 Les systèmes d’étoiles binaires 49 L  e multivers 196
et multiples 92 50 L  e destin de l’Univers 200
24 La recherche des exoplanètes 96
25 Les autres systèmes solaires 100 Glossaire 204
26 Les zones habitables 104 Index 206
Introduction 3

introduction

Dans la mesure où le comportement des astres sur la voûte céleste n’a que très
rarement un impact direct sur les vies humaines, il peut sembler étrange de
voir l’astronomie se vanter d’être la plus ancienne des sciences. Et pourtant,
les racines de l’astronomie remontent à la Préhistoire – la plus ancienne carte
d’étoiles connue a été peinte sur les parois de la grotte de Lascaux, au beau
milieu de la dernière glaciation, il y a 17 300 ans. À première vue, il s’agit sim-
plement d’une belle représentation d’un taureau qui charge, mais une inspec-
tion plus approfondie révèle un groupe de signes derrière la bosse de l’animal :
c’est la représentation sans équivoque de l’amas d’étoiles des Pléiades dans
l’actuelle constellation du Taureau.

Pour les anciens, les mouvements du Soleil, de la Lune et des étoiles avaient un
lien vital avec les événements sur Terre : la technologie nous a peut-être rendus
moins sensibles aux changements des saisons, mais pour nos ancêtres, c’était
une question de vie et de mort. Aujourd’hui, l’astronomie exerce son influence
sous d’autres formes, souvent à travers l’innovation scientifique qu’elle inspire
(comme l’atteste la caméra CCD de votre smartphone). Mais peut-être la vraie
fascination pour l’astronomie réside-t-elle, en ces temps confus, dans le fait
qu’elle touche les mystères de l’infini et aborde plus que n’importe quelle autre
science l’explication de nos origines.

Ce livre est une célébration des plus grandes idées de l’astronomie et des esprits
brillants, perspicaces et parfois iconoclastes qui ont contribué à les façonner.
Au travers d’une cinquantaine de thèmes, j’espère tout aborder, de la diversité
des planètes et des autres mondes au seuil de notre porte céleste, en passant par
la vie et la mort des étoiles, jusqu’à la structure et les origines de l’Univers lui-
même. Certaines des théories passées en revue remontent à des siècles, d’autres
sont étonnamment modernes, et certaines sont encore en cours de mise au
point – l’une des grandes beautés de l’astronomie en tant que science est que,
comme l’Univers lui-même, elle est en perpétuelle évolution. Ma sélection de
sujets est forcément personnelle, façonnée par mes propres intérêts et mes
discussions avec de nombreux astronomes en activité, mais j’espère qu’il y a
matière ici pour fasciner, voire inspirer tout un chacun.
4 50 clés pour comprendre l’Univers

01 N
 otre place
dans l’Univers
L’astronomie nous aide à comprendre notre place dans l’Univers et progresse
à mesure que notre importance au sein du cosmos diminue. Jadis au centre
de la création, notre Terre est désormais perçue comme une poussière dans
l’immensité du cosmos.

L’humanité a été fascinée par les étoiles tout au long de son histoire, non seu-
lement en racontant des légendes à leur sujet et en leur attribuant des signi-
fications, mais aussi en les utilisant à des fins pratiques comme la mesure du
temps. Les Égyptiens de l’Antiquité prédisaient l’arrivée de la saison des crues
du Nil lorsque Sirius, l’étoile la plus brillante du ciel, se levait peu avant l’aube.
Mais un autre volet important de la pensée des anciens, l’astrologie, a produit
les premières représentations de notre place dans le cosmos.

À l’époque, les astrologues voyaient les cieux comme un miroir de la Terre : pour
eux, les mouvements du Soleil, de la Lune et autres astres errant parmi les figures
remarquables que forment les étoiles fixes – les constellations – n’influençaient
pas nécessairement les événements sur Terre, mais ils les reflétaient. Ainsi, si une
grande famine frappait lorsque Mars et Jupiter étaient en conjonction (proche
l’une de l’autre sur le ciel) dans la constellation du Taureau, alors vous pourriez
anticiper un événement similaire si ces deux planètes s’approchaient de nou-
veau dans cette même constellation. Qui plus est, les mouvements des planètes
n’étaient pas totalement imprévisibles, donc anticiper leurs déplacements pou-
vait signifier être en mesure de prédire les événements futurs sur Terre.

L’Univers géocentrique Le grand défi était donc de développer un


modèle suffisamment précis des mouvements planétaires. La plupart des
astronomes croyaient alors avec bon sens que la Terre était fixe dans l’espace
(après tout, nous ne ressentons pas son mouvement). Sans avoir conscience
de l’échelle du cosmos, ils supposaient que la Lune, le Soleil, les planètes et

chronologie
– 150 1543 1608
L’Almageste de Ptolémée Copernic publie sa vision d’un Kepler modélise les orbites
consolide la vue classique Univers héliocentrique, centré comme des ellipses plutôt
d’un Univers géocentrique, sur le Soleil. que comme des cercles,
centré sur la Terre. expliquant enfin les
mouvements des planètes.
Notre place dans l’Univers 5

les étoiles suivaient tous des trajectoires


circulaires autour de la Terre à des vitesses
variables, de manière à produire les
« Ce vaste Univers
dont nous faisons
partie, comme un grain

»
mouvements apparents observés sur la
voûte céleste (voir l’encadré page 6). de sable dans un océan
Malheureusement, ce modèle géocentrique cosmique.
(centré sur la Terre), pourtant d’une sédui- Carl Sagan
sante simplicité, ne faisait pas de prédic-
tions correctes. Les planètes s’écartaient
rapidement de leurs trajectoires prédites sur le ciel, ce que les astronomes corri-
gèrent au prix d’artifices variés. Le modèle géocentrique atteignit son apogée au
iie siècle de notre ère grâce aux travaux de l’astronome grec-égyptien Ptolémée
d’Alexandrie. Son grand ouvrage, l’Almageste, émettait l’idée que chaque pla-
nète se déplaçait sur un petit cercle, appelé épicycle, dont le centre tournait
lui-même autour de la Terre. Les astronomes de l’Empire romain, comme leurs
successeurs chrétiens et musulmans, adoptèrent tous le modèle de Ptolémée
qui domina pendant plus d’un millénaire. Ils se consacrèrent, pour la plupart, à
affiner les mesures des mouvements planétaires dans l’espoir de mieux estimer
les divers paramètres du modèle afin d’en améliorer les prédictions.

Le Soleil au centre À l’aube de la Renaissance européenne, la conviction


que la sagesse antique ne pouvait être récusée commença à décliner dans un
certain nombre de domaines. Certains astronomes se demandèrent ainsi si les
bases du modèle géocentrique de Ptolémée pouvaient être remises en cause. En
1514, le prêtre polonais Nicolas Copernic fit circuler un petit livre arguant que
les mouvements des astres observés sur le ciel pourraient être mieux expliqués
par un modèle héliocentrique (centré sur le Soleil). Dans cette conception, la
Terre n’est qu’une planète parmi d’autres effectuant des trajectoires circulaires
autour du Soleil, seule la Lune gravitant autour de la Terre (une théorie qui
avait été proposée par plusieurs philosophes de la Grèce antique). L’idée de
Copernic commença à gagner du terrain avec la publication posthume de son
œuvre maîtresse Des révolutions des sphères célestes parue en 1543, mais ses orbites
circulaires n’étaient pas sans causer des problèmes lorsqu’il s’agissait de faire
des prédictions précises. Ce n’est qu’en 1608, lorsque l’astronome allemand
Johannes Kepler présenta un nouveau modèle dans lequel les orbites étaient des
ellipses plus ou moins allongées, que le mystère des mouvements planétaires fut
finalement résolu. Notre monde fut alors banni de sa position centrale.

1781 1924 1929


William Herschel établit Edwin Hubble montre que les Hubble démontre que
la première carte de la Voie nébuleuses à l’allure de spirale l’Univers est en expansion
lactée qui montre notre sont des galaxies à part entière – c’est le fondement de
galaxie comme un plan aplati situées à des millions d’années- la théorie du Big Bang.
d’étoiles. lumière de la nôtre.
6 50 clés pour comprendre l’Univers

Mouvements planétaires
Sur la voûte céleste, les planètes sont globa- ment se complique de boucles rétrogrades,
lement divisées en deux groupes : celles dont périodes où elles ralentissent et inversent
l’orbite est plus petite que celle de la Terre (les temporairement leur dérive vers l’est par
planètes « inférieures ») et celles dont l’orbite rapport aux étoiles, avant de reprendre leur
est plus grande (les planètes « supérieures »). cours. Le mouvement rétrograde était un
Les planètes inférieures – Mercure et Vénus – défi majeur pour les modèles géocentriques
font des boucles sur la voûte céleste autour du Système solaire, et pour l’expliquer,
de la position du Soleil, sans jamais s’éloigner Ptolémée introduisit la théorie des épicycles.
de lui, et apparaissent donc toujours à l’ouest En revanche, dans un système héliocentrique,
après le crépuscule, ou à l’est avant l’aube. le mouvement rétrograde est assez facile à
En revanche, les planètes supérieures – Mars, expliquer : les planètes extérieures se dépla-
Jupiter, Saturne, Uranus et Neptune – suivent çant plus lentement sur leurs orbites que la
des trajectoires qui les emmènent tout autour Terre sur la sienne, notre planète les rattrape
du ciel et peuvent apparaître sur le ciel du puis les dépasse périodiquement, nous don-
côté opposé au Soleil. Mais leur mouve- nant l’illusion que ces planètes reculent…

Les astronomes réalisèrent vite que la révolution copernicienne rabaissait plus


encore notre place dans l’Univers. La Terre se déplaçant d’un bout à l’autre
d’une vaste orbite, l’effet de parallaxe (le déplacement apparent d’objets voi-
sins vus de différents points) ne devrait-il pas affecter la position des étoiles ?
Le fait qu’aucun effet de parallaxe ne puisse être détecté, même avec de nou-
velles aides à l’observation comme la lunette astronomique (voir page 8),
impliquait que les étoiles étaient incroyablement distantes : il ne s’agissait pas
de luminaires fixés sur une sphère autour du Système solaire, mais de soleils
lointains à part entière. Par ailleurs, les lunettes astronomiques décelèrent d’in-
nombrables étoiles précédemment invisibles et montrèrent que la pâle bande
de la Voie lactée était en fait constituée de denses nuages d’étoiles.

L’Univers au sens large À la fin du xviiie siècle, les astronomes avaient


commencé à cartographier la structure de notre galaxie, le plan aplati d’étoiles
(plus tard représenté comme un disque, puis une spirale ; voir page 136) qui
était censé contenir toute la création. Au départ, la Terre fut une fois de plus
privilégiée en étant placée près du centre de la Galaxie ; ce n’est qu’au xxe siècle
que l’emplacement véritable de notre Système solaire fut confirmé – à près
de 26 000 années-lumière du centre, dans une partie assez banale de la Voie
lactée. À ce moment-là, des avancées dans notre connaissance des étoiles, y
compris les mesures précises de leurs distances (voir page 56), avaient montré
Notre place dans l’Univers 7

Loi de Hubble (voir page 161). Mesurer les distances


Portée : de quelques centaines de millions des objets célestes proches
d’années-lumière jusqu’aux confins de l’Univers. et éloignés nécessite un vaste
éventail de techniques.
Supernovæ de type Ia (voir pages 130 et 185). Tout au long de l’histoire
Portée : jusqu’aux confins de l’Univers. de l’astronomie, établir
un nouveau degré sur cette
Étoiles variables de type céphéide (voir page 113). échelle de distance a souvent
Portée : environ 50 millions d’années-lumière révélé des indices sur la façon
(actuellement). dont les objets du prochain
Ajustement aux étoiles de la séquence principale échelon pourraient être
(voir page 67). trouvés.
Portée : environ 50 000 années-lumière.
Parallaxe stellaire (voir page 58).
Portée : environ 30 000 années-lumière (actuellement).
Mesures radar.
Portée : environ un milliard de kilomètres.

que même notre Soleil n’avait rien de spécial. Ce n’est en fait qu’une étoile
naine jaune, dont l’éclat, assez faible, est dépassé par celui de beaucoup des
quelque 200 milliards d’étoiles de notre galaxie.

Un dernier grand changement dans notre perspective cosmique survint en


1924, lorsque l’astronome américain Edwin Hubble montra que ces « nébu-
leuses à l’allure de spirale » vues dans diverses régions du ciel étaient en fait
des systèmes d’étoiles incroyablement distants. La Voie lactée, dont nous ne
sommes qu’une insignifiante partie, n’est elle-même qu’une parmi d’innom-
brables galaxies (voir page 144) – peut-être aussi nombreuses que les étoiles
dans notre galaxie, éparpillées à travers un Univers toujours en expansion
(voir page 160). Et ce n’est peut-être même pas la fin de l’histoire : il apparaît
de plus en plus clairement que notre Univers lui-même n’est peut-être qu’un
parmi une infinité d’autres dans la structure insondable connue sous le nom
de multivers (voir page 196).

L’idée clé
Chaque nouvelle découverte
 réduit notre place
dans l’Univers
8 50 clés pour comprendre l’Univers

02 O
 bserver
les cieux
Lunettes et télescopes ont transformé notre aptitude à comprendre l’Univers.
Aujourd’hui, observatoires terrestres et spatiaux peuvent scruter jusqu’aux
confins de l’espace et discerner maints détails sur de vastes distances, tandis
que d’autres instruments sophistiqués utilisent des rayonnements invisibles
pour découvrir des aspects cachés du cosmos.

Avant l’invention des lunettes et télescopes, les principaux outils à la dispo-


sition des astronomes étaient les astrolabes, les quadrants et autres dispositifs
utilisés pour mesurer la position des objets sur la voûte céleste et les distances
angulaires qui les séparent. L’œil nu a placé des limites naturelles à la fois sur
la brillance des astres pouvant être perçus et sur la quantité de détails discer-
nables. Mais en 1608, le Néerlandais Hans Lippershey, un fabricant de lunettes,
déposa un brevet pour un dispositif ingénieux alliant deux lentilles (un objectif
convexe et un oculaire concave) pour obtenir une image agrandie environ
trois fois, créant ainsi la première lunette d’approche (ou réfracteur).

Une meilleure vue L’annonce de l’invention hollandaise s’étant


rapidement propagée, l’information atteignit Galileo Galilei (dit Galilée) à
Venise en juin 1609. En reprenant à son compte le principe de cette invention,
Galilée fabriqua diverses lunettes, l’une d’elle offrant un grossissement sans
précédent de trente-trois fois. En les braquant vers le ciel, il fit en 1610
plusieurs découvertes importantes, dont les quatre gros satellites de Jupiter, les
taches solaires et les phases de Vénus. Il fut alors convaincu de la pertinence
du modèle héliocentrique de Copernic et s’attira ainsi les foudres des autorités
conservatrices de l’Église catholique.

En 1611, Johannes Kepler expliqua comment, en principe, obtenir un bien


meilleur grossissement avec un réfracteur à deux lentilles convexes, un type
de lunette qui devint, au milieu du xviie siècle, l’instrument le plus répandu,

chronologie
1609 1668 Années 1870
Galilée est l’un des premiers Isaac Newton construit William Huggins commence
à pointer une lunette le premier télescope réflecteur à utiliser la photographie
d’approche vers le ciel. fonctionnel. et la spectroscopie sur
lunette et télescope comme
outil de recherche.
Observer les cieux 9

conduisant à de nombreuses nouvelles découvertes.


Le savant hollandais Christiaan Huygens bâtit ainsi
des instruments de plus en plus longs avec lesquels
il découvrit la lune de Saturne, Titan, et décrivit la
« Notre
connaissance
des étoiles et
véritable morphologie des anneaux de Saturne (que de la matière
Galilée avait pris pour une étrange déformation). interstellaire doit
Cependant, la fin du xviie siècle vit émerger un surtout être basée
sur le rayonnement

»
instrument astronomique inédit : le télescope (ou
réflecteur). Cet instrument est composé d’un miroir électromagnétique
primaire incurvé, qui recueille et focalise la lumière, qui nous atteint.
et d’un plus petit, le miroir secondaire, qui dévie
les rayons lumineux vers un oculaire. Le premier Lyman Spitzer
télescope de cette conception, réalisé en 1668 par
Isaac Newton, a engendré de nombreuses variantes. Les télescopes offrent aux
astronomes une meilleure collecte de lumière et une puissance de résolution
améliorée. Pour recueillir la faible lueur des étoiles, l’objectif d’un réfracteur
ou le miroir primaire d’un réflecteur disposent d’une bien plus grande sur-
face de collection que le petit diamètre d’une pupille humaine ; lunettes et
télescopes sont ainsi en mesure de discerner des objets beaucoup plus pâles.

Oculaire
Lentille
objectif

Miroir
Miroir secondaire
primaire

Oculaire

Représentation schématique des deux téléscopes les plus répandus. Dans une lunette astronomique de type
réfracteur (en haut), la lumière collectée par un objectif est déviée vers un foyer où elle forme une image
qui est ensuite agrandie par la lentille de l’oculaire. Dans un télescope de type réflecteur newtonien (en bas),
un miroir primaire courbé recueille la lumière et la renvoie vers un miroir secondaire qui la défléchit
jusqu’à la lentille de l’oculaire.

1957 1979 1990


Bernard Lovell construit Le premier télescope à Le télescope spatial Hubble
à Jodrell Bank, en Angleterre, miroirs multiples est construit devient le premier grand télescope
le premier grand radiotélescope au mont Hopkins, en Arizona. opérant depuis l’espace dans
orientable au monde. le domaine visible.
10 50 clés pour comprendre l’Univers

Parallèlement, le grossissement offert par l’oculaire peut permettre de résoudre


les détails et de distinguer des objets très proches.

Télescopes modernes Réflecteurs et réfracteurs ont leurs avantages et


leurs inconvénients, mais d’une manière générale, les problèmes pratiques de
fabrication et de montage de lentilles massives, ainsi que la grande quantité de
lumière stellaire qu’elles absorbent, limitent la taille des réfracteurs à environ
un mètre. Durant la plus grande partie du xxe siècle, la taille des réflecteurs
plafonnait autour de cinq mètres. Cependant, de nouveaux matériaux (miroirs
constitués de segments en nid d’abeilles), et surtout le contrôle informatisé, ont
permis à la taille des miroirs d’atteindre dix mètres et plus (voir encadré ci-dessous).

Bien sûr, la plupart des télescopes modernes ne sont pas construits pour l’œil
humain, et depuis le milieu du xixe siècle, la photographie joue un rôle impor-
tant dans l’astronomie. Elle permet non seulement l’enregistrement d’images
pour études ultérieures, mais elle amplifie surtout davantage la capacité d’un
télescope à collecter la lumière. À condition que le télescope soit assujetti à une
monture lui permettant de pallier les effets de la rotation du globe terrestre, il

Repousser les limites


La dernière génération de grands télescopes la distorsion de la lumière que rayonne l’objet
astronomiques utilise le contrôle par ordina- cible quand elle traverse l’atmosphère et
teur et les matériaux modernes pour créer des ajuste en permanence le miroir pour en tenir
surfaces collectrices de lumière plus grandes compte, ce qui entraîne des images dont la
que jamais auparavant. Les plus grands ins- netteté peut rivaliser avec celles du télescope
truments à un seul miroir sont les monstres spatial Hubble.
jumeaux de 8,4 mètres de diamètre du grand Les télescopes à miroirs multiples peuvent
télescope binoculaire (LBT) de l’observatoire s’avérer encore plus grands. Le Gran Telescopio
international du mont Graham, en Arizona, Canarias (GTC ; Grand télescope des îles
avec, non loin derrière, les quatre miroirs Canaries) sur l’île de La Palma aux Canaries,
de 8,2 mètres de diamètre du Very Large met en œuvre 36 miroirs emboîtés qui offrent
Telescope (VLT ; très grand télescope) de l’Euro- une surface équivalente à un miroir unique de
pean Southern Observatory (ESO ; Observatoire 10,4 mètres de diamètre. Des projets encore
européen austral) au Chili. Les deux instru- plus ambitieux sont prévus, avec la construc-
ments utilisent une optique active : le miroir tion en cours, au Chili, de l’European Extremely
repose sur une série de dispositifs informatisés, Large Télescope (E-ELT ; ultra-grand télescope
les actuateurs, propres à neutraliser les distor- européen), dont l’énorme miroir primaire
sions provoquées par son propre poids. Un de 39,3 mètres de diamètre est constitué de
autre système, l’optique adaptative, mesure 798 segments individuels.
Observer les cieux 11

peut enregistrer une image à longue exposition qui intègre des heures durant
les faibles quantités de lumière que rayonnent les astres distants. La photog-
raphie astronomique est désormais dominée par les dispositifs électroniques
de type CCD, qui peuvent même suivre le nombre précis de photons frappant
un pixel semi-conducteur individuel. La lumière d’un objet éloigné traverse
souvent un spectroscope (un dispositif avec un réseau de diffraction finement
gravé qui agit à la manière d’un prisme), qui la décompose en un spectre aux
allures d’arc-en-ciel dans lequel on peut mesurer l’intensité de couleurs spéci-
fiques dans le cadre d’une étude spectroscopique (voir page 60).

Rayonnements invisibles La lumière visible qui atteint la surface de la


Terre depuis l’espace n’est qu’une petite partie d’un spectre électromagnétique
global. Les rayonnements électromagnétiques se composent de paquets d’ondes
appelés photons, et nos yeux ont évolué pour s’ajuster à l’une des rares bandes
de rayonnement apte à traverser l’atmosphère terrestre. Les autres formes de
rayonnement sont l’infrarouge (« rayonnement thermique », avec des longueurs
d’ondes légèrement plus longues que celles de la lumière rouge) et la radio (avec
des ondes encore plus longues). Les rayonnements infrarouges provenant de
l’espace tendent à être submergés par le rayonnement thermique émanant de
notre propre atmosphère (voire par celui des instruments utilisés pour les détecter).
Ils sont donc généralement observés à l’aide de télescopes spécialement refroidis
installés au sommet de montagnes ou à bord d’observatoires spatiaux. Quant aux
grandes longueurs d’onde des ondes radio, elles présentent des défis pratiques
de détection et sont habituellement recueillies au moyen de grandes structures
paraboliques qui agissent de la même manière que les miroirs des télescopes.

Les rayons ultraviolets, à l’inverse, ont des longueurs d’onde plus courtes que
la lumière violette et emportent plus d’énergie, tandis que les rayons X et les
rayons gamma ont des longueurs d’onde encore plus courtes et emportent
encore plus d’énergie. Ces trois types de rayonnement électromagnétique
peuvent être nocifs pour les tissus vivants. Heureusement, ils sont pour
la plupart bloqués par l’atmosphère terrestre. L’ère de l’astronomie à haute
énergie a suivi l’avènement des télescopes spatiaux, et les appareils aptes à
collecter et détecter les rayons X et les rayons gamma ne ressemblent guère plus
aux schémas familiers des instruments de Galilée et de Newton.

L’idée clé
Les télescopes révèlent
les secrets cachés de l’Univers
12 50 clés pour comprendre l’Univers

03 L e royaume
du Soleil
Notre Système solaire comprend le Soleil, tous les objets qui gravitent autour
de lui, ainsi que toute la région de l’espace placée sous son influence directe. Il
englobe huit planètes majeures, cinq planètes naines connues, de nombreuses
lunes et d’innombrables objets célestes plus petits faits de roches ou de glaces.

Dans la plupart des écrits historiques, le Système solaire ne comprenait que


huit objets célestes connus – la Terre, la Lune, le Soleil et les cinq planètes visibles
à l’œil nu : Mercure, Vénus, Mars, Jupiter et Saturne. Chaque objet errait à sa
guise tout autour du ciel sur un fond apparemment fixe d’étoiles plus distantes.
Il fallut attendre le xvie siècle pour que la Terre soit unanimement reconnue
comme n’étant que la troisième de six planètes en orbite autour du Soleil et que
le mouvement des planètes commence à avoir un sens (voir page 6).
Il devint alors évident que le Soleil était l’astre principal de notre Système
solaire, exerçant une force apte à retenir autour de lui toutes les planètes sur
des orbites elliptiques, ce qu’Isaac Newton expliqua en 1687 comme étant la
conséquence de la même force gravitationnelle qui fait tomber les objets vers
le centre de la Terre. Avec ce modèle mathématique désormais bien établi, et
disposant des mesures précises fournies par les nouveaux moyens d’observation,
les astronomes s’efforcèrent de mesurer la véritable échelle du Système solaire
(voir encadré page 14).
L’étape décisive fut l’estimation de la distance moyenne entre la Terre et le
Soleil, qui s’avéra être d’environ 150 millions de kilomètres. Cette distance
est devenue une unité pratique de mesure à part entière, connue aujourd’hui
sous le nom d’unité astronomique (UA). Tout naturellement, établir l’échelle
du Système solaire a aussi fourni les dimensions de ses planètes individuelles
– Vénus s’est avérée être à peu près de la même taille que la Terre, Mercure et
Mars nettement plus petites, tandis que Jupiter et Saturne sont, en compa-
raison, d’énormes géantes.

chronologie
1543 1610 1781 1801
Copernic propose une Galilée découvre William Herschel En recherchant une
configuration du Système des lunes, jamais découvre une nouvelle nouvelle planète entre
solaire centrée sur vues auparavant, planète au-delà de Mars et Jupiter, Giuseppe
le Soleil, la Terre étant en orbite autour Saturne, nommée plus Piazzi découvre Cérès,
l’une des six planètes. de Jupiter. tard Uranus. le plus grand astéroïde.
Le royaume du Soleil 13

Nouveaux mondes Alors que les astronomes


du xviie siècle commençaient à découvrir des
lunes jusqu’alors invisibles autour de Jupiter et de
Saturne, ainsi que le magnifique système d’anneaux
« Le Système
solaire devrait être
vu comme notre
de Saturne, les seuls objets non planétaires en orbite arrière-cour, non pas
autour du Soleil lui-même semblaient n’être que comme une séquence
des comètes, comme celle dont Edmond Halley, de destinations

»
l’ami de Newton, avait calculé l’orbite en 1705. Les
comètes étaient alors perçues comme des visiteurs
que nous prenons
occasionnels de l’intérieur du Système solaire. C’est une par une.
ainsi qu’en 1781, l’astronome d’origine allemande Neil deGrasse Tyson
William Herschel, qui avait repéré une vague tache
bleu-vert alors qu’il effectuait un recensement
d’étoiles depuis son domicile dans la ville anglaise de Bath, supposa tout
naturellement qu’il s’agissait d’une comète. Une série d’observations ultérieures
révélèrent sa véritable nature : le lent déplacement de l’objet par rapport aux
étoiles indiquant une distance d’environ 20 UA, il fut alors suggéré qu’il ne
s’agissait pas d’une comète, mais d’une planète majeure à part entière, que
nous connaissons aujourd’hui sous le nom d’Uranus. La découverte d’Herschel
déclencha une frénésie de chasse à la planète. L’intérêt se porta sur un supposé
déficit de planète entre les orbites de Mars et de Jupiter, débouchant en 1801 sur
la découverte de Cérès (voir page 40). Ce petit planetoïde n’était en fait pas une
véritable planète, mais le premier et le plus grand spécimen d’une nombreuse
population d’astéroïdes – des corps rocheux en orbite autour du Soleil dans tout
le Système solaire interne, mais qui peuplent surtout une large ceinture entre
Mars et Jupiter.

Alors qu’Uranus et les astéroïdes ont été détectés à la suite d’heureux hasards,
ce furent les mathématiques pures qui conduisirent en 1846 à la découverte
d’une autre planète majeure. En l’occurrence, le mathématicien français Urbain
Le Verrier avait réalisé une analyse approfondie des irrégularités observées dans
l’orbite d’Uranus, en déterminant la taille et l’emplacement d’un astre plus dis-
tant (connu maintenant sous le nom de Neptune), qui fut rapidement repéré
par l’astronome allemand Johann Galle à l’observatoire de Berlin.

La traque de la planète X Au lendemain du triomphe de Le Verrier,


beaucoup d’astronomes furent fascinés par l’idée de trouver de nouvelles planètes
par le truchement des mathématiques. Le Verrier lui-même se fourvoya en

1846 1930 2016


Urbain Le Verrier utilise des Clyde Tombaugh découvre Batygin et Brown prétendent
irrégularités dans l’orbite Pluton, un nouveau planétoïde trouver les preuves d’une
d’Uranus pour prédire la qui s’avère être le premier neuvième planète majeure
position d’une huitième objet connu de la ceinture de dans les orbites des objets de
planète, Neptune. Kuiper. la ceinture de Kuiper.
14 50 clés pour comprendre l’Univers

prédisant l’existence d’une autre

Aristarque planète, Vulcain, gravitant


autour du Soleil à l’intérieur de

mesure le l’orbite de Mercure, tandis que


d’autres firent des prédictions

Système solaire régulières au sujet d’une


planète X en orbite au-delà
de Neptune. Le plus engagé
Au iiie siècle avant notre ère, l’astronome grec
de ces chasseurs de planètes
Aristarque de Samos utilisa une méthode ingé-
était l’amateur fortuné Percival
nieuse pour estimer les distances de la Lune et
Lowell (également fervent
du Soleil. Réalisant que les phases de la Lune sont
adepte des soi-disant canaux
causées par un éclairage solaire variable, il mesura
sur Mars ; voir page 28), qui
l’angle entre le Soleil et la Lune dans son premier
quartier, quand la moitié même du disque lunaire
créa son propre observatoire
est éclairée, et se servit de la géométrie pour cal- à Flagstaff, en Arizona, et
culer la distance entre les deux astres. Il estima légua des fonds pour que la
ainsi que le Soleil était vingt fois plus éloigné que recherche se poursuive après sa
la Lune (et donc environ vingt fois plus grand). mort, en 1916. C’est à Flagstaff
Bien qu’entaché d’erreurs (la valeur réelle étant que Clyde Tombaugh, un
quatre cents fois), la différence était encore suf- jeune astronome américain,
fisante pour le convaincre que le Soleil, et non la fut engagé pour mener à
Terre, se trouvait au centre du Système. bien une nouvelle recherche
exhaustive sur la planète X,
chère à Lowell. En 1930, il
repéra un minuscule point
se déplaçant par rapport aux
étoiles sur deux plaques photographiques prises à quelques jours d’intervalle. Ce
monde lointain fut rapidement nommé Pluton et proclamé neuvième planète
du Système solaire. Toutefois, la taille et la masse de Pluton étaient bien trop
petites et dès le début, certains astronomes émirent des doutes quant au fait
que ce corps céleste soit classé comme une planète au même titre que les autres.
Beaucoup pensaient qu’il s’agissait, comme ce fut le cas pour Cérès auparavant,
du premier d’une toute nouvelle classe d’objets : des petits astres de glaces
évoluant au-delà de Neptune dans ce que nous appelons maintenant la ceinture
de Kuiper (voir page 47). Ce n’est qu’en 1992 que le télescope spatial Hubble
repéra finalement un autre Kuiper Belt Object (KBO, objet de la ceinture de Kuiper),
mais leur nombre a connu depuis une augmentation fulgurante, avec plus d’un
millier identifiés aujourd’hui. Compte tenu de ce rythme de découverte, il était
inévitable qu’un jour ou l’autre, le statut de Pluton en tant que planète finisse
par être remis en cause. En 2006, l’Union astronomique internationale (UAI) a
créé la nouvelle catégorie des planètes naines dans laquelle on retrouve Pluton,
Cérès et plusieurs autres objets célestes (voir page 41).
Le royaume du Soleil 15

D’autres globes importants attendent-ils encore d’être découverts dans l’immen-


sité du Système solaire externe ? Cela semble peu probable au vu des modèles
actuels de la formation et de l’évolution du Système solaire (voir pages 16‑25),
mais certains astronomes affirment que les orbites de certains KBO pourraient
être perturbées par de grandes planètes encore inconnues. En 2016, deux astro-
nomes de Caltech, Konstantin Batygin et Mike Brown, publièrent les indices les
plus sûrs jusqu’à présent en faveur d’une « neuvième planète » avec une masse
dix fois supérieure à celle de la Terre, et qui évoluerait sur une orbite elliptique
de grande excentricité. Jusqu’à présent, cependant, les seuls objets invisibles
dont nous pouvons affirmer l’existence sont les milliers de milliards de comètes
du nuage d’Oort : l’existence de ce vaste halo sphérique de comètes, entourant
le Soleil à une distance d’environ une année-lumière, est attestée par les orbites
des comètes qui se déversent dans le Système solaire interne.

L’héliosphère
Quand ils discutent des limites du Système à des vitesses supersoniques bien au-delà de
solaire, certains astronomes préfèrent mettre l’orbite de Pluton, mais se dégrade en turbu-
en avant non pas la portée gravitationnelle du lences subsoniques dans la région où il fait
Soleil, mais l’héliosphère, la région où le vent face à une pression croissante du milieu inters-
solaire domine l’influence des autres étoiles. tellaire environnant (voir page 170). Le bord
Le vent solaire est un flux de particules (élec- extérieur de l’héliosphère, là où cesse l’écou-
triquement chargées et soufflées par la surface lement du vent solaire, est connu sous le nom
du Soleil) qui emporte le champ magnétique d’héliopause ; c’est la limite qu’invoquent les
du Soleil à travers le Système solaire. Ce vent spécialistes des sciences spatiales à propos de
est responsable de phénomènes comme les missions sortant du Système solaire. La sonde
aurores polaires (boréales et australes) sur Voyager 1 de la NASA a franchi l’héliopause à
diverses planètes. Il se propage avec r­ égularité environ 121 UA du Soleil en août 2012.

L’idée clé
La taille et la complexité
de notre Système solaire
ne cessent de s’accroître
16 50 clés pour comprendre l’Univers

04 L a formation du
Système solaire
Comment se sont formés le Soleil et le système hétéroclite de planètes et de
petits corps qui l’entourent ? Pendant plus de deux siècles, les scientifiques
ont avancé différentes théories, mais une nouvelle idée, l’accrétion de
cailloux, promet désormais de résoudre les questions restées sans réponse.

Le Système solaire compte trois secteurs bien distincts. Près du Soleil, le


domaine des planètes rocheuses et des astéroïdes, faits surtout de matériaux
« réfractaires » avec des points de fusion assez élevés, comme les métaux. Plus
loin, au-delà de la ceinture d’astéroïdes, la région des planètes géantes avec
leurs lunes de glaces, composées pour l’essentiel de produits chimiques volatils
qui fondent à des températures plus basses. Au loin, les petits corps de glaces
de la ceinture de Kuiper et du nuage d’Oort.

La première théorie scientifique des origines planétaires, connue sous le nom


d’hypothèse de la nébuleuse, ne cherchait qu’à expliquer la différence entre les
planètes rocheuses et les géantes plus éloignées. En 1755, le philosophe allemand
Emmanuel Kant suggéra l’idée que le Soleil et les planètes aient été formés de
concert lors de l’effondrement d’un vaste nuage de gaz et de poussière. En 1796, le
célèbre mathématicien français Pierre-Simon de Laplace conçut indépendamment
un modèle similaire. Il y montra que les collisions dans le nuage de gaz ainsi que
la conservation du moment cinétique contraindraient naturellement le disque
protoplanétaire à s’aplatir et à tourner plus rapidement vers son centre, tout en
forçant les planètes résultantes à évoluer sur des orbites plus ou moins circulaires.

Une multitude de théories Au milieu du xixe siècle, certains


astronomes pensaient que les nébuleuses à l’allure de spirale que révélaient
les plus grands télescopes et les premières images photographiques pouvaient
être des systèmes solaires en formation (voir page 146). D’autres exprimaient
toutefois des doutes profonds, en particulier concernant la lente rotation du

chronologie
1734 1755 1796
Emanuel Swedenborg suggère Emmanuel Kant propose l’idée Laplace avance sa propre
que les planètes se forment que le Soleil et les planètes version de l’hypothèse
par effondrement de nuages se condensent ensemble à de la nébuleuse en décrivant les
de gaz éjectés par le Soleil. partir d’une nébuleuse initiale. processus physiques à l’œuvre.
La formation du Système solaire 17

Soleil (environ 25 jours) – 99,9 % de la masse du


Système solaire étant concentrée en son centre
même, dans notre étoile, le Soleil ne devrait-il donc
pas tourner beaucoup plus vite ?
« Sur une simple
conjecture… je suis
parti à l’aventure
et je contemple
Lorsque ces objections prirent racine, l’hypothèse de
la nébuleuse fut abandonnée au profit de nouvelles
déjà les contreforts
théories. Se pourrait-il que les planètes se soient for- de nouvelles
mées à partir d’une longue traînée de matière, arra- contrées. Ceux
qui ont le courage

»
chée à l’atmosphère solaire au passage d’une étoile ?
Qu’elles aient été créées à partir de matière capturée de continuer…
par le Soleil auprès d’une autre étoile ? Ou qu’elles
aient été détachées d’un nuage de « protoplanètes »
y poseront le pied.
dans l’espace extérieur ? Emmanuel Kant
Il fallut attendre les années 1970 pour que les astronomes reprennent à leur
compte l’hypothèse de la nébuleuse, en grande partie grâce aux travaux de l’as-
tronome soviétique Viktor Safronov. Les nouveaux éléments alors introduits
dans la théorie permettaient aux planètes de se former à partir d’un disque
protoplanétaire bien moins massif, réduisant ainsi la nécessité d’un Soleil en
rotation rapide. La clé du modèle de disque de nébuleuse solaire de Safronov
était le concept d’accrétion par collision, un processus dans lequel des objets
individuels se développent par une succession de collisions et de fusions à
partir de grains de poussière, jusqu’à des protoplanètes de la taille de Mars.

Accrétion par collision À l’époque où les idées de Safronov diffusaient


en dehors de l’Union soviétique, les astronomes avaient beaucoup appris sur
l’évolution initiale des étoiles elles-mêmes ; ces deux volets furent alors réunis pour
construire un tableau cohérent. Quand une protoétoile jeune, chaude et instable
commence à briller (voir page 84), elle provoque des vents stellaires intenses
au travers de la nébuleuse qui l’entoure, tout en produisant un rayonnement
important qui élève la température de ses régions internes. Cette augmentation
de température entraîne l’évaporation de la matière volatile gelée à proximité de
l’étoile, qui est alors soufflée au loin, ne laissant sur place qu’une poussière de
matériau réfractaire. Des collisions aléatoires se prolongeant sur quelques millions
d’années font que ces particules s’agrègent pour former des cailloux, voire de petits
astéroïdes. Une fois qu’ils sont assez massifs pour exercer une gravité modérée, le
processus fait boule de neige, un effet connu sous le nom d’accrétion galopante.

1905 1917 1978 2012


Thomas Chamberlain et James Jeans avance Andrew Prentice montre Michiel Lambrechts et Anders
Forest Moulton proposent une hypothèse que la présence de grains de Johansen proposent l’accrétion
une première théorie de à base d’effets de poussière dans la nébuleuse de cailloux comme le moyen
l’accrétion pour expliquer marée pour expliquer solaire peut freiner la rotation de former rapidement
la croissance des planètes. l’origine des planètes. de ses régions centrales. des noyaux planétaires.
18 50 clés pour comprendre l’Univers

Bien que les détails


précis de la formation
du Système solaire
ne soient pas encore
connus avec certitude,
les grandes étapes
sont claires : un nuage
de gaz et de poussière
a commencé à
s’effondrer sous l’effet
de sa propre pesanteur
(1) tout en s’aplatissant
en un disque avec un 1. Nuage protostellaire 3. Formation de noyaux planétaires
renflement central (2).
Le Soleil s’est formé
au centre avec les
noyaux solides des
protoplanètes en orbite
autour de lui (3). Ces
derniers ont capturé la
matière alentour pour
constituer les planètes
majeures actuelles (4). 2. Disque protoplanétaire 4. Les planètes purgent leur voisinage
orbital de toute matière

Ces corps en croissance, qualifiés de planétésimaux, attirent de plus en plus de


matière vers eux-mêmes, déblayant la majeure partie de l’espace environnant,
jusqu’à ce qu’il ne subsiste plus que quelques dizaines de protoplanètes dont la
taille serait équivalente à celle de notre Lune. Des collisions entre ces dernières
forment finalement un plus petit nombre de planètes rocheuses, en fusion sous
l’effet de la chaleur relâchée par les impacts, ce qui permet à leurs intérieurs de se
différencier et à leurs croûtes d’adopter une forme sphérique.

Loin de l’étoile, il fait plus froid. Les matériaux volatiles restent congelés et le
gaz a tendance à persister, ce qui laisse beaucoup de matériaux pour construire
des planètes. Le processus de formation de planète s’y déroule plus ou moins
de la même manière, mais à beaucoup plus grande échelle, ce qui conduit à
des planètes dotées de gros noyaux solides attirant ensuite le gaz alentour et
se nimbant d’une atmosphère dense, riche en hydrogène. Sur les bords exté-
rieurs de la région où se forment les planètes, la matière est trop dispersée
pour former de grands individus, seule peut se constituer une proto-ceinture
de Kuiper de planétésimaux nains et faits de glaces.

La théorie de Safronov a dominé pendant plus de quatre décennies. Étayée par la


découverte de disques protoplanétaires autour de beaucoup d’autres étoiles, elle
recueille un large consensus quand il s’agit d’une vue d’ensemble. Depuis peu, cer-
tains astronomes commencent toutefois à soupçonner que la théorie de Safronov
n’explique pas tout. Certains en particulier expriment des doutes sur le modèle de
collision à deux corps utilisé par Safronov ; il est aussi de plus en plus évident que
de nombreux mondes du Système solaire n’ont pas subi le type de fusion com-
plète qu’impliquent les collisions répétées entre planétésimaux de la théorie de
La formation du Système solaire 19

Safronov. Les scientifiques ont également réalisé qu’il y avait une lacune dans la
chaîne de croissance : à petite échelle, les grains de poussière peuvent s’assembler
sous l’effet des minuscules charges d’électricité statique qu’ils emportent, tandis
que les objets de grande taille peuvent s’agglomérer par attraction gravitationnelle
mutuelle. Mais qu’en est-il des objets de taille intermédiaire, celle d’un rocher par
exemple ? Ces problèmes trouveraient une solution dans le cadre d’une remar-
quable nouvelle théorie, l’accrétion de cailloux (voir l’encadré ci-dessous), qui
implique la coalescence simultanée d’un grand nombre de petits objets.

Accrétion de cailloux
Les planétologues ont récemment mis au point f­ormation du Soleil, ces amoncellements ont
une nouvelle théorie pour expliquer plusieurs suffisamment grandi pour devenir gravitation-
mystères restés en suspens dans la formation nellement instables, s’effondrant en quelques
planétaire : comment la croissance des corps années, voire en quelques mois, pour former
par accrétion a pu franchir la limite entre petite des planétésimaux de la taille de Pluton. La
et grande taille, comment les planètes géantes gravité de ces derniers a alors rapidement
gazeuses ont vu leur noyau s’accroître suffi- attiré les cailloux restants alentour, ne laissant
samment vite pour retenir un gaz disparaissant subsister que quelques dizaines de planétési-
rapidement, pourquoi les planètes telluriques maux de la taille de Mars. Les planètes géantes
(similaires à la Terre) semblent s’être formées ont ainsi été très tôt en mesure d’amasser leurs
à des époques aussi différentes ? La théorie enveloppes de gaz et de glaces, alors que Mars
de l’accrétion de cailloux avance l’hypothèse avait déjà achevé sa croissance. Seules les plus
que le Système solaire primitif a rapidement grandes des planètes telluriques, la Terre et
créé d’énormes entassements de petits frag- Vénus, nécessitèrent, au cours des cent mil-
ments solides, freinés et regroupés par leurs lions d’années suivantes, une phase finale de
déplacements à travers le gaz environnant. En collisions de type Safronov pour atteindre leur
seulement quelques millions d’années après la taille actuelle.

L’idée clé
La croissance des planètes
se fait par le regroupement
de petits objets
20 50 clés pour comprendre l’Univers

05 L es migrations
planétaires
Encore récemment, la plupart des astronomes croyaient que les planètes de
notre Système solaire avaient suivi les mêmes orbites stables tout au long
de leur histoire. Mais de nouvelles avancées en matière de modélisation
informatique suggèrent qu’à son début, le Système solaire a vu se dérouler
une formidable partie de flipper à échelle planétaire, dont les répercussions
sont encore visibles aujourd’hui.

Avant la découverte des premières exoplanètes au milieu des années 1990 (voir
page 96), les astronomes avaient tendance à penser que les autres systèmes solaires
seraient plus ou moins semblables au nôtre, avec des planètes ancrées sur des
orbites quasi circulaires autour de leur étoile. Cependant, au moment même où
les deux dernières décennies de recherche astronomique montraient que les sys-
tèmes planétaires sont beaucoup plus variés que prévu, des progrès dans la simu-
lation et la modélisation du modèle de la formation de notre Système solaire par
accrétion collisionnelle ont suggéré que les ingrédients de la formation planétaire
se raréfiaient vers l’orbite de Saturne. Mais alors, comment se sont formées Uranus
et Neptune ? En 2005, dans une démarche visant à répondre (entre autres) à ces
questions, un groupe d’astronomes présenta une nouvelle théorie très remarquée
selon laquelle l’échelonnement des planètes aurait été bouleversé au cours des
premières centaines de millions d’années d’existence de notre Système solaire.

Mondes nomades Les théories selon lesquelles des planètes changeraient


d’orbites ont fait florès dès le xixe siècle, tout en étant sévèrement rejetées par
l’élite astronomique qui les qualifiait d’inepties pseudo-scientifiques. Il est en
effet assez aisé de faire fi des trouvailles de « savants indépendants », comme
Emmanuel Velikovsky, pour qui l’errance récente de planètes à travers le Système
solaire rendrait compte de nombreux événements mythologiques et historiques.
En revanche, le modèle de Nice, ville où travaillaient nombre de ses concepteurs à
l’observatoire de la Côte d’Azur, ouvre une perspective très différente. Ce modèle est

chronologie
1950 1974 2005
L’ouvrage Mondes en Collision Tera, Papanastassiou et Wasserburg Lancement du modèle
d’Immanuel Velikovsky tente découvrent des éléments de preuve Nice par la publication
d’expliquer des événements historiques du grand bombardement tardif dans de trois articles
au moyen d’une théorie pseudo- les échantillons de roches lunaires scientifiques
scientifique de migration planétaire. rapportés lors des missions Apollo. dans la revue Nature.
Les migrations planétaires 21

un ensemble de propositions emboîtées, bâti sur une modélisation numérique de


l’évolution du Système solaire primitif afin de résoudre certaines énigmes tenaces.
En un peu plus d’une décennie, il a ouvert un champ de recherche nouveau et
stimulant dans le domaine négligé de la dynamique du Système solaire.

Le modèle de Nice Le modèle estime que peu de temps après sa formation,


le Système solaire externe était dans un état très différent d’aujourd’hui. Les
quatre planètes géantes étaient plus resserrées, avec des orbites quasi circulaires
échelonnées à l’intérieur de l’orbite actuelle d’Uranus (à environ 20 UA du
Soleil). En outre, Neptune, aujourd’hui la planète la plus extérieure, évoluait
plus près du Soleil qu’Uranus. Au-delà des planètes majeures, s’étendait
une proto-ceinture de Kuiper – un disque d’objets faits de glaces, contenu à
l’intérieur de l’orbite actuelle de Neptune, et dont les plus grands individus

«
seraient à peu près de la taille des planètes naines d’aujourd’hui.

Des simulations numériques indiquent qu’un tel arran-


gement de planètes géantes serait resté stable pendant Ce fut un
environ 500 millions d’années, avant qu’une série de événement très
rapprochements serrés entre Uranus et Neptune per- violent et éphémère,
turbe leurs orbites, les propulsant sur des trajectoires subsistant à peine
elliptiques allongées. Ces orbites excentriques les ame- quelques dizaines

»
nèrent bientôt à passer près de Jupiter et de Saturne,
deux planètes majeures dont la puissante gravité les
de millions
envoya autour du Soleil sur des trajectoires elliptiques d’années.
bien plus grandes, et fit graviter Neptune au-delà Hal Levison
d’Uranus pour la première fois. C’est sans doute aussi
au cours de cet événement que l’axe de rotation d’Uranus acquit sa remarquable
inclinaison, qui fait que la géante gazeuse pivote couchée sur le flanc, à la manière
d’une balle qui roule, contrairement au mouvement de toupie des autres planètes.

Délocalisation de la ceinture de Kuiper Les nouvelles orbites


d’Uranus et de Neptune les poussèrent toutefois à s’enfoncer au plus profond
de la proto-ceinture de Kuiper, où une série de rencontres avec des petits
planétésimaux amenèrent finalement les deux géantes de glaces à se retrouver
à une plus grande distance du Soleil sur des orbites circulaires. Nombre de
ces objets furent éjectés au loin, dans une zone que l’on nomme le disque
dispersé, tandis que d’autres furent ramenés vers le Système solaire interne,
où ils causèrent l’événement cataclysmique connu sous le nom de grand
bombardement tardif (voir l’encadré ci-après).

2011 2011 2016


David Nesvorny propose une Certains des chercheurs Le chasseur de planète Mike Brown
cinquième planète géante dans le impliqués dans le modèle de affirme avoir trouvé des preuves en
Système solaire primitif comme Nice originel proposent le grand faveur d’une cinquième planète géante
moyen de résoudre certains virement de bord de Jupiter pour exilée au loin et dont l’orbite se mêle à
problèmes du modèle de Nice. expliquer la petite taille de Mars. celles des objets de la ceinture de Kuiper.
22 50 clés pour comprendre l’Univers

Le grand bombardement tardif


Grâce aux datations radiométriques des roches fois à la fin des années 1970, n’était qu’une
lunaires ramenées par les astronautes des mis- phase de nettoyage à la fin du processus
sions Apollo, de nombreux astronomes esti- d’accrétion planétaire, mais des preuves plus
ment que le Système solaire interne a connu, récentes suggèrent que la phase principale de
il y a environ 3,9 milliards d’années, une phase la formation planétaire a pris fin beaucoup plus
traumatique au cours de laquelle des plané- tôt. En lieu et place, l’interprétation privilégiée
toïdes comme la Lune ont subi un intense tient désormais aux perturbations créées lors
bombardement de grands planétésimaux. Les de la migration des planètes géantes dans le
cratères laissés par ces impacts sur la Lune ont cadre du modèle de Nice. Certains sceptiques
ensuite été remplis de lave provenant d’érup- ont cependant suggéré qu’un tel bombarde-
tions volcaniques, créant les « mers » lunaires ment ne s’est jamais produit à l’échelle que
lisses et sombres qui dominent aujourd’hui la certains envisagent, et avancent plutôt l’idée
face visible de notre satellite. que tous les échantillons collectés par les
On a longtemps supposé que ce grand bom- astronautes d’Apollo ne provenaient en fait
bardement tardif, identifié pour la première que d’un grand impact unique.

L’attrait du modèle de Nice tient notamment à la promesse qu’il fait de répondre


aux questions comme celles que posent l’inclinaison d’Uranus, l’emplacement
des géantes gazeuses et le grand bombardement tardif. Il peut aussi fournir les
mécanismes de capture des astéroïdes troyens qui partagent une orbite avec
Jupiter, Uranus et Neptune. Mais le modèle n’est pas parfait : il peine à expli-
quer comment Jupiter s’est retrouvée avec sa grande famille actuelle de lunes
capturées, et l’influence gravitationnelle de Jupiter se combinant à celle de
Saturne lors de leur résonance orbitale (la période orbitale de Jupiter valant
exactement la moitié de celle de Saturne) pose également problème. Certaines
simulations menées dans de telles conditions suggèrent des effets violents, tels
que l’éjection complète de Mars et la déstabilisation des autres planètes – des
problèmes assez graves pour que le modèle soit nettement modifié. De même,
la fréquence avec laquelle les rencontres modélisées entre Jupiter et Uranus ou
Neptune aboutissent à l’expulsion finale de planétésimaux plus petits hors du
Système solaire a conduit certains astronomes à préconiser un Système solaire
précoce qui n’aurait contenu que trois géantes de glaces.
En dépit de ces problèmes, le modèle de Nice (ou un modèle analogue) reste un
élément clé des idées actuelles concernant l’histoire de notre Système solaire.
D’autres astronomes ont d’ailleurs recours à des raisonnements similaires pour
résoudre d’autres questions. Par exemple, pourquoi Mars n’est-elle jamais devenue
un individu de la taille de la Terre ? D’où proviennent les grandes quantités
Les migrations planétaires 23

d’eau de notre planète ? La


réponse à ces deux ques-
tions se trouve peut-être
dans la théorie du grand
virement de bord, un
cheminement hypothé-
tique suivi par une Jupiter
nouvellement formée
dans l’environnement
riche en gaz de la nébu-
leuse solaire très primitive Il y a 4,5 milliards d’années, Il y a 4,1 milliards d’années,
les planètes géantes, confinées sous l’influence de Jupiter et de
(voir page 19). Selon cette à l’intérieur de l’orbite actuelle Saturne, Neptune et Uranus ont
théorie, l’interaction avec de Saturne, étaient entourées migré sur des orbites elliptiques
d’une vaste proto-ceinture et commencé à perturber
la nébuleuse aurait amené de Kuiper. la ceinture de Kuiper.
Jupiter à migrer d’abord
vers l’intérieur, puis vers
l’extérieur. Au cours de
cette double migration,
la gravité de la planète
géante aurait perturbé (et
capturé) une grande partie
de la matière susceptible de
former des planètes dans la
région future de l’orbite de
Mars, et plus tard enrichi
la ceinture d’astéroïdes
avec des corps de glaces
venus de plus loin dans le Il y a 4,1 à 3,8 milliards d’années, Il y a 3,5 milliards d’années, les
Neptune et Uranus, à leur orbites d’Uranus et de Neptune
Système solaire. Une fois maximum d’excentricité, ont sont devenues plus ou moins
ainsi délogés, ces derniers échangé leur position par rapport circulaires et le Système solaire
au Soleil. Les objets de la ceinture a pris sa configuration actuelle.
auraient pu s’abattre sur de Kuiper sont projetés dans
Terre, apportant avec eux toutes les directions, bombardant
le Système solaire interne.
l’eau qui rend aujourd’hui
notre planète habitable.

L’idée clé
Les planètes n’ont pas
toujours suivi les mêmes orbites
24 50 clés pour comprendre l’Univers

06 L ’origine
de la Lune
Notre Lune est très différente de la majorité des autres satellites du Système
solaire. Sa très grande taille, comparée à celle de notre propre planète, est le
signe d’une origine peu commune. C’est seulement depuis les années 1980
que la vérité sur cette origine a été éclaircie, même si certaines questions
demeurent sans réponse.

La Lune de la Terre est énorme. Avec un diamètre valant environ le quart de


celui de la Terre, elle est de loin la plus grande Lune d’une planète majeure
proportionnellement à sa propre planète. Mais sa nature inhabituelle
n’est devenue évidente que peu à peu au cours des siècles, après l’inven-
tion des lunettes et télescopes. Les théories sur l’origine du Système solaire
(voir page 16) ont facilement pu expliquer les familles de lunes des planètes
géantes, qui sont en fait des débris résiduels s’assemblant en orbite autour de
ces dernières (une version à plus petite échelle de la formation du Système
solaire lui-même), mais il est vite apparu que ce modèle de « co-accrétion » ne
fonctionnait pas pour la Terre. Mis à part la question fondamentale de savoir
pourquoi seule la Terre disposait d’un excès de matériau propre à former
un satellite massif, le moment angulaire de l’ensemble du système Terre-
Lune était aussi bien plus grand que celui des autres planètes telluriques, en
contradiction avec l’idée que la Lune s’est formée à partir d’un disque en
rotation lente.

Théories anciennes En quête de solutions, les astronomes du xixe siècle


en vinrent à imaginer deux théories : capture et scission. Le modèle de capture
suggère que la Lune s’est formée ailleurs dans le Système solaire, avant d’être
capturée par la Terre à la suite d’une rencontre resserrée. Mais ce modèle
ne parvenait pas à expliquer pourquoi la densité de la Lune est nettement
inférieure à celle de la Terre, tout en nécessitant un scénario de rencontre
hautement improbable. Capturer un satellite important est bien moins à la

chronologie
1946 1969‑1972 1974
Reginald Daly est le premier Les atterrissages des modules Hartmann et Davis
à suggérer qu’un impact géant habités Apollo apportent sur élaborent un modèle
est à l’origine de la Lune. Terre 382 kg de roches lunaires des origines probables
en vue d’analyses ultérieures. d’un planétoïde impacteur.
L’origine de la Lune 25

portée d’une planète assez petite que d’une géante (et même alors, un seul
gros satellite est connu pour avoir été capturé dans le Système solaire externe :
Triton, la lune de glaces de Neptune).

L’hypothèse de la scission, quant à elle, fut d’abord soutenue par l’astronome


anglais George Darwin (le fils de Charles). Ce dernier étudia les forces de marée
entre la Terre et la Lune et démontra que notre satellite s’éloigne d’environ
quatre centimètres par an, tandis que la rotation de la Terre est progressivement
ralentie. Il en conclut correctement que la Terre et la Lune étaient autrefois
bien plus proches l’une de l’autre, et fit valoir qu’elles provenaient d’un objet
unique en rotation rapide : le ­matériau qui a formé la Lune s’est détaché du
renflement équatorial de la Terre ­primordiale avant de s’agglomérer en orbite.
Darwin affirma même que le bassin de l’océan Pacifique marquait la cicatrice
encore visible de cette violente séparation. Au début du xxe siècle, cette théorie
connut plusieurs décennies de ­popularité, avant que, vers 1930, de nouvelles
études portant sur les forces à l’œuvre démontrent qu’un tel scénario était
essentiellement ­impossible.

Dans les années 1970, de nouveaux indices parvinrent enfin sous la forme
d’échantillons de roches rapportés par les missions lunaires Apollo. Ces der-
niers montrèrent que les roches lunaires étaient extrêmement sèches – ce n’est
pas seulement l’eau qui manque dans les couches supérieures de la croûte, mais
également les minéraux hydratés présents sur Terre. S’agissant des éléments
volatils (à bas point de fusion) tels que le potassium, le plomb et le rubidium,
les roches lunaires s’avérèrent aussi très appauvries, par comparaison avec
la Terre et les modèles de la nébuleuse solaire primordiale locale. La Lune se
révéla, à l’inverse, plus riche en oxyde de fer que le manteau de la Terre, bien
que dotée seulement d’un petit noyau de fer.

Le grand impact Ces résultats inspirèrent un intérêt renouvelé pour


une théorie dédaignée, avancée dès 1946 par le géologue canadien Reginald
Daly : l’hypothèse de l’impact géant. Dans cette version modifiée de la théorie
de la scission, l’essentiel du matériau pour former la Lune est venu de la Terre,
éjecté non pas en raison d’une rotation rapide, mais à la suite d’une collision
interplanétaire avec un gros planétoïde.

William Hartmann et Donald Davis, de l’Institut des sciences planétaires de


Tucson, en Arizona, montrèrent qu’il était concevable que d’autres corps se
soient formés près de la Terre primordiale, tandis qu’Alastair Cameron et

1976 1994 2012


Cameron et Ward élaborent La mission Clementine de La preuve d’une extrême similarité
un modèle de la dynamique la NASA dévoile la persistance entre les matériaux de la Terre et de
d’un impact formant la Lune. insoupçonnée d’éléments la Lune suscite de nouvelles théories
volatils dans la croûte lunaire. sur leur origine.
26 50 clés pour comprendre l’Univers

Modélisation de Théia
Au fur et à mesure que s’accumulaient les que cette explication soit suffisante). De plus,
preuves que la Lune s’était formée à partir de les deux planetoïdes évoluant sur des orbites
matériaux pour l’essentiel semblables à ceux très similaires, l’énergie de la collision aurait
de la Terre, des contraintes de plus en plus été bien plus faible, expliquant peut-être la
sévères ont pesé sur les origines du plané- persistance aujourd’hui de résidus d’éléments
toïde impacteur. Les abondances relatives des volatils dans la Lune.
isotopes à travers la nébuleuse solaire étant
tellement sensibles à leur distance au Soleil
(voir page 18), il est évident que Théia a dû se
former à proximité de la Terre, pour l’essentiel
à partir du même mélange de matériaux. La
gravité de la Terre étant susceptible d’entraver
la formation de tout objet dans son voisinage,
d’où Théia pourrait-elle donc bien provenir ?
Une théorie suggère que Théia s’est formée
en l’un des deux points de Lagrange L4 ou L5
– emplacements attrayants d’un point de vue
gravitationnel sur l’orbite même de la Terre,
mais à 60 degrés en avant ou en arrière de
la plus grande planète, là où l’emprise de
la Terre était amoindrie. C’est là que Théia
aurait pu se développer jusqu’à atteindre
environ 10 % de la masse de la Terre, avant
que la stabilité de son orbite soit finalement
Une simulation par ordinateur modélise
perturbée et qu’elle rejoigne le chemin d’une la formation d’une proto-Lune quelques
inévitable collision. Ce scénario pourrait expli- heures seulement après la collision entre
un planétoïde de la taille de Mars et
quer la similitude des matériaux de base dans une Terre primitive dont la masse serait
les deux mondes (bien que certains doutent d’environ 90 % de sa masse actuelle.

William Ward à Harvard modélisèrent l’impact lui-même, en soulignant que


l’événement impliquait sans doute un planétoïde de la taille de Mars percutant
la Terre sous un angle oblique. Une telle collision aurait entraîné la fusion et
l’éjection en orbite d’un fragment appréciable de l’impacteur ainsi que d’une
bonne partie du manteau terrestre, la Terre absorbant l’essentiel du noyau du
planétoïde. La très forte chaleur de l’impact expliquerait le manque d’eau et
d’autres substances volatiles dans les roches lunaires.
L’origine de la Lune 27

Questions en suspens La grande majorité


des planétologues acceptèrent l’hypothèse de
l’impact géant dès les années 1980. Les spécialistes
considèrent que la collision est survenue il y a
« Théia fut
complétement
mêlée à la Terre et
à la Lune et répartie

»
4,45 milliards d’années, la Lune s’agglomérant
rapidement dans les heures suivant l’événement. de façon égale entre
Le planétoïde impacteur a même été officieusement
elles deux.
dénommé Théia, d’après le nom de la mère de
Séléné, la déesse de la Lune dans la mythologie de la Edward Young
Grèce antique. Toutefois, d’importantes questions
restent encore sans réponse. Une étude plus approfondie des échantillons
de roches lunaires a montré qu’elles ne sont pas suffisamment dépourvues
d’éléments volatils comme cela devrait être le cas après une collision aussi
violente. En fait, les températures ne semblent pas s’être élevées au-dessus
de 950 °C environ. En parallèle, le dosage des isotopes (atomes d’un même
élément avec des masses différentes, dont les abondances relatives sont des
traceurs ultra-sensibles de l’origine des matériaux de base dans la nébuleuse
solaire) s’est avéré en parfaite adéquation avec celui de la Terre, au point de ne
pas imposer de contribution de Théia.

Différentes théories ont été avancées pour répondre à ces questions, la plus
radicale sans doute supposant que la Terre et la Lune se sont formées simulta-
nément par coalescence à la suite d’une collision initiale entre deux planétoïdes
beaucoup plus grands, chacun d’environ cinq fois la taille de Mars. En 2016,
au même moment, une équipe dirigée par Edward Young, de l’université de
Californie à Los Angeles, a mis en évidence de nouveaux indices basés sur des
comparaisons chimiques en faveur d’une collision entre Théia et la Terre de
type frontal, donc plus apte à homogénéiser leurs compositions respectives.
Il semble clair que la genèse de la Lune – voire celle de la Terre – a été plus
désordonnée et plus complexe que ce qu’avait suggéré l’hypothèse du simple
impact géant.

L’idée clé
Notre satellite est né d’une
collision interplanétaire
28 50 clés pour comprendre l’Univers

07 D
 e l’eau sur Mars
Une succession de découvertes a transformé notre vision de Mars, la célèbre
planète rouge. Juste au-dessous de sa surface, longtemps considérée comme
un désert aride et froid, il est aujourd’hui établi que se cache de l’eau à
profusion sous forme de glace, mais aussi à l’état liquide. De plus, de temps
en temps, il est possible que de l’eau devienne bien plus répandue.
Les astronomes sont fascinés par la possibilité que de l’eau coule à la surface de
Mars depuis que l’Italien Giovanni Schiaparelli a déclaré, en 1877, percevoir des
chenaux étroits (canali) reliant les zones plus sombres de sa surface. Interprétés
à tort dans le monde anglophone comme étant des canaux artificiels, des che-
naux similaires furent signalés par bien d’autres observateurs, suscitant une
vague de suppositions sur la possibilité d’une forme intelligente de vie sur
Mars. Même lorsque des observations de meilleure qualité menées au début
des années 1900, avec de meilleurs instruments, montrèrent que les canaux
n’étaient rien d’autre qu’une illusion d’optique, la croyance que Mars était un
monde accueillant, avec une atmosphère assez dense et de l’eau en surface,
subsista pendant une bonne partie du xxe siècle. La vérité n’éclata qu’au milieu
des années 1960, lors des survols de la planète par les sondes spatiales Mariner
de la NASA : l’atmosphère ténue de Mars ne laissait entrevoir qu’un monde de
cratères, froid et d’aspect lunaire, saupoudré à l’infini de poussière rouge.

Un passé humide… mais quid du present ? Après avoir été


délaissée à la fin des années 1960, la planète rouge retrouva son pouvoir
d’attraction passé avec une succession de missions spatiales, révélant toujours
plus de similitudes avec la Terre. Ce retour vers Mars débuta avec Mariner 9, qui
rejoignit la planète rouge en novembre 1971 ; il fallut quand même attendre
deux mois qu’une énorme tempête de poussière – à l’échelle de la planète – se
dissipe avant que la sonde puisse commencer ses premiers relevés en orbite.
Connue surtout pour avoir repéré les immenses volcans martiens et la grande
faille de Valles Marineris, Mariner 9 révéla également de grandes parties de la
surface martienne beaucoup moins cratérisées portant la marque d’une action
possible de l’eau dans un passé lointain. Ces vallées sinueuses, ressemblant aux
vallées des fleuves terrestres, et ces zones aplanies d’érosion furent selon toute
apparence créées lors d’inondations catastrophiques.

chronologie
1877 1965 1972
Giovanni Schiaparelli Mariner 4 devient le premier Mariner 9 découvre à la
annonce à tort l’existence vaisseau spatial à survoler Mars, surface de Mars des preuves
de chenaux d’eau sur Mars. en renvoyant des images qui d’inondations passées et
suggèrent un monde aride et mort. de cours d’eau asséchés.
De l’eau sur Mars 29

Il fut donc un temps où Mars, semble-t‑il, aurait pu


«
Il y a aujourd’hui

»
être humide. Mais qu’en est-il aujourd’hui ? Alors
qu’au milieu des années 1970, les modules orbiteurs de l’eau liquide à la
des missions Viking renforçaient les preuves de pré- surface de Mars.
sence d’eau dans le passé martien et que les modules
atterrisseurs découvraient des indices montrant que, Michael Mayer,
dans un passé lointain, les roches en surface avaient NASA, 2015
été exposées à de l’humidité, voire submergées, il n’y
avait que très peu de preuves d’une présence d’eau dans le présent, mis à part
celle éventuellement congelée dans les calottes polaires martiennes.

Un changement de situation rapide s’amorça à partir de la fin des années 1990.


Mars Global Surveyor (MGS), un satellite en orbite capable de photographier la
planète avec beaucoup plus de détails que les sondes Viking, détecta à basses
latitudes, loin des calottes polaires, des signes de glaces enterrées. En 2002, la
sonde Mars Odyssey de la NASA apporta la preuve que le sol martien renfer-
mait d’énormes gisements de glace d’eau. Tellement, en fait, que dans chaque
hémisphère, à des latitudes supérieures à 55°, on estime aujourd’hui qu’un
kilogramme de sol contient environ 500 grammes d’eau. En 2008, la sonde
Phoenix de la NASA a atterri près de la calotte polaire nord et confirmé la pré-
sence de glace dans le sol.

Mais de l’eau coule-t‑elle aujourd’hui à la surface de Mars ? À première vue,


cela semble peu probable : les températures à la surface de Mars peuvent certes
s’élever jusqu’à 20 °C, mais elles restent en général bien en dessous du point de
congélation de l’eau, tandis que de l’eau liquide ne peut que s’évaporer rapi-
dement quand elle est soumise à la très faible pression qu’exerce l’atmosphère
ténue de dioxyde de carbone (1 % de la pression atmosphérique terrestre).

De mysterieuses ravines Une autre découverte marquante de MGS


relança le débat sur la présence d’eau sur Mars, avec des photographies de
traces évoquant des ravinements récents sur les flancs d’une région chaotique
dénommée Gorgonum Chaos, située à moyenne latitude au sud de la planète.
De nombreux spécialistes se demandèrent si ces traces, provenant apparemment
d’une couche juste en dessous de la surface, étaient des signes d’eau liquide
s’écoulant d’un aquifère enterré et creusant des chenaux dans la poussière du
sol avant de s’évaporer. L’action de l’eau s’écoulant sur Terre produirait le même
résultat, mais des avis plus prudents mirent en avant d’autres causes possibles,
comme l’évaporation brutale de glace carbonique présente dans le sous-sol.

2002 2006 2015


La mission Mars Odyssey découvre Mars Reconnaissance Orbiter (MRO) MRO trouve des minéraux hydratés
d’énormes quantités de glace d’eau trouve des traces de ravines récents dans des lignes de pente
dans le sol d’une grande partie récentes qui pourraient résulter récurrentes, confirmant la présence
de l’hémisphère nord. de processus impliquant de l’eau. d’eau liquide près de la surface.
30 50 clés pour comprendre l’Univers

Cycles de Milanković martiens


Au début des années 1920, le scienti- • Une variation sur 124 000 ans de l’incli-
fique serbe Milutin Milanković proposa naison de la planète entre des angles de 15°
une théorie remarquable pour aider à et 35°, affectant la rigueur des saisons.
­comprendre les cycles climatiques à long • Les oscillations ou « précession » sur
terme pendant la période glaciaire la plus 175 000 ans de la direction de l’axe de rota-
récente de la Terre. Il émit l’hypothèse que tion de la planète, ce qui affecte la propor-
la quantité de lumière solaire qui chauffe tion dans laquelle chaque hémisphère est
notre planète est modifiée lentement mais affecté par des changements saisonniers.
dans des proportions appréciables, dans • Les cycles de 100 000 ans et de 2,2 millions
la mesure où plusieurs des paramètres d’années affectant l’excentricité de l’orbite
­orbitaux de la Terre varient avec le temps de Mars qui évolue d’un cercle quasi par-
en raison de l’influence des autres pla- fait jusqu’à une ellipse prononcée, tendant
nètes. Les planétologues se demandent à exagérer ou à atténuer l’effet des saisons.
aujourd’hui si des cycles de Milanković du Les astronomes qui étudient les couches de
même type pourraient être responsables glaces annuelles des calottes polaires mar-
des changements à long terme du climat tiennes pensent qu’ils ont peut-être trouvé
martien. Les évolutions spécifiques en ques- des signes de variation qui pourraient coïn-
tion sont les suivantes : cider avec certains de ces cycles.

Le mystère s’accentua en 2006 après que la sonde Mars Reconnaissance Orbiter


(MRO) de la NASA, nouvellement arrivée, a découvert des ravines dans des
zones qui en étaient dépourvues sur les images que la sonde MGS avait enre-
gistrées quelques années auparavant. La formation de ravines est à l’évidence
un processus actif et persistant. Ces nouvelles ravines se sont formées à des
latitudes similaires à celles de Gorgonum Chaos, et, pour l’essentiel, sur des
pentes raides donnant au sud. Une théorie suggère une accumulation de neige
dans de telles zones (qui reçoivent peu de soleil en hiver) ; les ravines résulte-
raient alors d’une décongélation printanière. Aucune preuve catégorique que
les ravines sont formées par de l’eau n’a pu être obtenue, mais une focalisation
sur les latitudes moyennes où les ravines sont abondantes a donné des résultats
plus probants. En 2011, la NASA annonçait la découverte d’un nouveau type
de traces, les RSL (recurring slope lineae, lignes de pente récurrentes), de lon-
gues stries sombres qui s’étirent durant l’été martien sur des pentes comme des
parois de cratères, avant de disparaître en hiver. Contrairement aux ravines, les
RSL se concentrent sur des pentes équatoriales qui reçoivent le plus de lumière
solaire tout au long de l’année et sont donc relativement chaudes, à des tem-
pératures de l’ordre de – 23 °C.
De l’eau sur Mars 31

Envisagées au début comme les conséquences de l’action d’une eau saumâtre


(de l’eau incorporant une quantité importante de sel, ce qui abaisse son point
de fusion), les RSL ne sont pas uniquement des zones humides du sol. Elles
ont plutôt l’allure de taches rugueuses qui se lissent tant bien que mal et dis-
paraissent pendant la saison froide. La preuve tranchante que l’eau est bien la
cause des RSL a été trouvée en 2015, lorsque les instruments à bord de MRO ont
confirmé que leur propagation s’accompagne de la formation de sels minéraux
hydratés. Le nouveau consensus considère que les RSL sont bien créées par de
l’eau saumâtre qui s’écoule juste sous la surface et qui trouble le sol meuble
sus-jacent. La planète rouge n’est pas, semble-t‑il, le désert desséché que nous
avions envisagé auparavant, ce qui soulève des questions fascinantes quant aux
perspectives de vie sur Mars (voir page 48).

Réchauffement climatique ?
Des preuves récentes provenant de sondes comme s’échappant de la fonte de glaces
spatiales suggèrent que le climat de Mars souterraines. Bien qu’à courte durée de vie
pourrait passer sous nos yeux de froid et sec à dans l’atmosphère, le méthane est un gaz
plus chaud et plus humide. Les comparaisons à effet de serre efficace et pourrait ainsi agir
entre les températures moyennes globales pour accélérer le taux de réchauffement.
mesurées par les orbiteurs Viking au cours
des années 1970 et celles enregistrées au
milieu des années 2000 montrent une éléva-
tion de 0,5 °C sur trois décennies, coïncidant
avec une rétraction des glaces au niveau des
calottes polaires (voir photo ci-contre). Un
agent important de ce réchauffement clima-
tique apparent pourrait être l’émission d’im-
menses panaches de méthane, découverts en
2009 au-dessus des zones les plus chaudes
de la planète, panaches qui sont considérés 1999 2001

L’idée clé
Mars est peut-être
un désert, mais il n’est pas
d’une extrême aridité
32 50 clés pour comprendre l’Univers

08 G
 éantes de gaz et
géantes de glaces
Les astronomes ont récemment découvert qu’il existe deux types de planète
géante dans le Système solaire externe : les géantes de gaz, Jupiter et Saturne,
énormes et de faible densité, et les géantes de glaces, Uranus et Neptune,
plus petites et plus denses. Mais, précisément, comment ces planètes se
sont-elles formées et pourquoi les deux types sont-ils si différents ?
Jusqu’aux années 1990, les termes « géante gazeuse » et « planète géante »
étaient synonymes. Les plus grandes planètes du Système solaire étaient toutes
supposées avoir une structure similaire, avec un noyau solide (peut-être d’une
taille comparable à celle de la Terre) entouré d’une atmosphère épaisse com-
posée principalement d’éléments légers, hydrogène et hélium. On estimait alors
que les couleurs distinctives remarquées dans la haute atmosphère des planètes
géantes étaient dues à d’assez petites quantités d’autres composés chimiques,
tandis que la pression croissante régnant à 1 000 kilomètres et plus sous la sur-
face visible transformait les éléments gazeux en un océan d’hydrogène liquide.

La découverte des géantes de glaces Cette vue d’ensemble


commença à changer lorsque les chercheurs analysèrent les données de la sonde
Voyager 2 enregistrées lors des survols d’Uranus et de Neptune (en 1986 et 1989
respectivement). L’élément de preuve en faveur d’une différence majeure de
structure interne entre ces deux planètes fut fourni par l’étude des champs
magnétiques, qui s’avérèrent assez faibles, fortement inclinés par rapport à
l’axe de rotation des planètes et décalés par rapport au centre de chacune d’elle.
Le contraste est saisissant avec Jupiter et Saturne, dont les champs magnétiques
sont beaucoup plus puissants, centrés sur chaque planète et étroitement alignés
avec leurs axes de rotation.
Le magnétisme de Jupiter et de Saturne pourrait être expliqué par le truchement
d’un effet de dynamo produit par une couche d’hydrogène métallique liquide
tournoyant autour du noyau solide de chaque planète. Dans des conditions
extrêmes de température et de pression, la dissociation des molécules dans le gaz

chronologie
1665 1690 1781 1846
Jean-Dominique Cassini mesure des vitesses William Herschel Johann Galle
Cassini fait la de rotation variables de découvre Uranus, découvre Neptune,
première observation traits distinctifs de Jupiter, la première nouvelle à la suite d’une
de la grande tache prouvant qu’il ne s’agit pas planète dans prédiction d’Urbain
rouge de Jupiter. d’un corps solide. le Système solaire. Le Verrier.
Géantes de gaz et géantes de glaces 33

liquéfié crée un océan d’ions chargés électriquement.


Le fait que ce mécanisme ne soit pas à l’œuvre dans le
cas d’Uranus et de Neptune a suggéré que l’hydrogène
liquide n’est pas abondant à grandes profondeurs.
« Il ne faut pas
s’étonner qu’une
telle chimie se
Les scientifiques ont conclu que l’intérieur des produise à l’intérieur
deux géantes lointaines était plutôt dominé par des des planètes,
glaces d’eau et d’autres produits chimiques volatils, la plupart des
comme c’est très souvent le cas dans le Système solaire spécialistes ne s’étant
externe. En dessous d’une profondeur de quelques pas occupés des

»
milliers de kilomètres, les couches extérieures riches
en hydrogène laissent place à un manteau constitué
réactions chimiques
de composés relativement lourds – pour l’essentiel de à l’œuvre.
l’eau, de l’ammoniac et du méthane. Donc, bien que Laura Robin Benedetti
l’hydrogène et l’hélium représentent plus de 90 %
de la masse de Jupiter et de Saturne, ces
deux éléments ne constituent que 20 % STRUCTURE DES GÉANTES
de la masse d’Uranus et de Neptune. GAZEUSES

Noyau solide
Ce serait cependant une erreur de consi-
Couche d’hydrogène
dérer les géantes de glaces, en dépit de métallique liquide
leur nom, comme des globes surgelés
faits de matière solide. Le terme de glaces Couche d’hydrogène
est en fait le raccourci que les planétolo- moléculaire liquide
gues utilisent pour désigner un mélange
Atmosphère riche
de composés volatils – eau, méthane en hydrogène
et ammoniac – qui forment un océan
liquide tourbillonnant sous une atmos-
phère extérieure d’hydrogène. On estime
STUCTURE DES GÉANTES
que la circulation de courants électriques DE GLACES
de faible intensité dans cette zone du
Noyau solide
manteau des géantes de glaces explique
les singularités de leur magnétisme. Manteau fait d’une
gadoue gelée de
composés chimiques
L’origine des géantes Toutefois,
Atmosphère épaisse
comprendre comment ces étranges comprimée en
planètes intermédiaires se sont formées hydrogène liquide
reste une énigme pour les planétologues. Haute atmosphère
Le modèle traditionnel de formation riche en hydrogène
planétaire par accrétion (voir page 17)

1952 1972 1986‑89 2014


L’auteur de science- La NASA lance Voyager 2 survole Uranus et Lambrechts, Johansen et
fiction James Blish les premières sondes Neptune, découvrant qu’elles Morbidelli avancent l’idée d’un
propose le terme spatiales Pioneer vers sont plus enrichies en glaces modèle d’accrétion de cailloux
de « géante Jupiter et Saturne. que les planètes géantes pour expliquer la formation
de gaz ». intérieures. des planètes géantes.
34 50 clés pour comprendre l’Univers

éprouve des difficultés à constituer quoi que ce soit si loin dans le Système solaire
(Uranus est en orbite à environ 19 UA du Soleil, Neptune à environ 30 UA). Le
problème est que les planétésimaux (phase intermédiaire de taille moyenne dans
la formation planétaire) qui seraient en orbite aussi loin du Soleil n’auraient
besoin que d’un petit coup de gravité pour être complètement éjectés du Système
solaire. L’effet de la gravité de Jupiter et de Saturne, en orbite plus près du Soleil,
ferait qu’il serait plus facile pour de tels planétésimaux d’être éjectés que de
s’agglutiner en nombre par collision.
Une éventuelle solution serait de s’en remettre au modèle de formation par insta-
bilité de disque, dans lequel les planètes géantes ne se développent pas par accré-
tion, mais résultent de l’effondrement très soudain de remous à grande échelle
dans la nébuleuse solaire. Selon les promoteurs d’un tel modèle, une planète pour-
rait ainsi se former en moins de mille ans. Une solution alternative serait l’idée
que toutes les géantes se seraient formées dans des conditions plus stables plus
près du Soleil, Uranus et Neptune passant ensuite par une période de change-
ment orbital qui les aurait fait migrer vers leurs orbites actuelles (voir page 20 les
bases du modèle de Nice de migration planétaire). Dans ce contexte, de nouveaux
modèles montrent que leurs noyaux auraient pu se former assez vite par accrétion
de cailloux (voir page 19). En moins de dix millions d’années, ces mêmes noyaux
auraient pu exercer une gravité suffisante pour soutirer assez de gaz avant que ce
dernier ne soit balayé au loin par un jeune Soleil en train de se renforcer.
Aucun modèle ne propose pourtant d’explication satisfaisante aux différences
entre géantes de gaz et géantes de glaces. Pour y parvenir, les planétologues
ont avancé différents mécanismes : par exemple, dans le cadre du modèle de
formation par instabilité de disque, ils émettent l’hypothèse que toutes les
planètes géantes se sont formées encore plus gigantesques, avant de perdre la
plus grande partie de leurs couches atmosphériques sous les assauts du féroce
rayonnement ultraviolet que produisent d’autres étoiles proches (un processus
dénommé photo-évaporation qui a été vu autour d’étoiles nouvellement for-
mées aujourd’hui ; voir page 84). Jupiter et Saturne, plus massives, étaient plus
en mesure de résister à cette épreuve et conservaient donc davantage d’hydro-
gène, tandis qu’Uranus et Neptune en avaient été largement dépouillées.
Une étude récente portant sur l’accrétion de cailloux suggère une autre possibi-
lité, dans laquelle une petite différence initiale entre noyaux planétaires en phase
de croissance aboutit à une grande différence entre les planètes créées. Ce modèle
de « seuil de masse » suggère l’idée que la croissance rapide de noyaux planétaires
par accrétion de cailloux – dont les tailles sont de l’ordre du centimètre – génère
une quantité de chaleur qui entrave la chute de gaz sur le noyau. Toutefois,
pour peu que le noyau atteigne un certain seuil de masse, sa gravité ouvre une
­séparation dans le disque de cailloux en orbite autour de lui, interrompant le
processus d’accrétion. Le noyau, qui commence à refroidir, accumule rapidement
Géantes de gaz et géantes de glaces 35

le gaz qu’il peut à nouveau soutirer dans son environnement proche, devenant
ainsi une géante de gaz. Les géantes de glaces, quant à elles, sont des planètes
dont les noyaux – qui se sont formés un peu plus à la périphérie de la nébuleuse
protoplanétaire – n’ont jamais atteint le seuil de masse, ou l’ont du moins atteint
trop tard pour fixer une bonne partie d’un hydrogène primitif en voie de dis-
parition rapide. Elles préservent donc une composition qui tient beaucoup aux
cailloux de glaces primitifs de la nébuleuse solaire extérieure.

Des pluies de diamants ?


L’une des théories les plus accrocheuses qui à travers les couches intérieures liquides de la
a émergé des récentes études portant sur la planète avant de rejoindre son noyau solide.
structure des géantes de gaz ou de glaces est En 2013, les scientifiques du Jet Propulsion
que les deux types de planète pourraient sus- Laboratory de la NASA ont estimé qu’un
citer des pluies de carbone cristallin (diamant) phénomène encore plus spectaculaire pour-
au plus profond de leurs couches internes. En rait survenir dans les atmosphères des pla-
1999, une équipe de chercheurs de l’univer- nètes géantes. Dans leurs hautes couches,
sité de Californie à Berkeley a étudié le com- de puissants éclairs pourraient désintégrer
portement du méthane liquide, le même que le méthane en une poussière de carbone ;
celui trouvé en grande quantité à la fois au comprimée graduellement tout au long de sa
sein d’Uranus et de Neptune, sous une pres- chute, une telle suie formerait des diamants
sion 100 000 fois plus élevée que la pression de la taille d’un doigt. Toutefois, contraire-
atmosphérique terrestre, tout en le chauffant ment au cas des géantes de glaces, ces dia-
à environ 2 500 °C. Ils ont obtenu une pous- mants ne survivraient pas à leur descente à
sière de diamants microscopiques en suspen- travers la planète. Au-dessous d’une profon-
sion dans un mélange de produits chimiques deur d’environ 30 000 km, les températures
hydrocarbonés huileux. La température à deviennent si extrêmes que ces diamants
l’intérieur des géantes de glaces n’étant pas fondraient, formant peut-être même une
assez élevée pour que le diamant fonde, toutes couche de carbone liquide sur laquelle flotte-
les particules produites progressent lentement raient des sortes d’icebergs faits de diamants.

L’idée clé
Les planètes géantes de gaz
et de glaces ont des
compositions très différentes
36 50 clés pour comprendre l’Univers

09 L es lunes-océan
Chacune des planètes géantes du Système solaire externe est entourée
d’une grande famille de satellites de glaces dont beaucoup se sont formés
en même temps et à partir des mêmes matériaux que les planètes elles-
mêmes. Mais il y a de plus en plus de preuves que plusieurs de ces lunes ne
sont pas aussi profondément gelées qu’elles semblent l’être à première vue.

Les plus grandes lunes du Système solaire externe furent découvertes dans la
foulée de l’invention des lunettes et télescopes, au début du xviie siècle – les
quatre grands satellites de Jupiter en 1610 et Titan, la lune géante de Saturne,
en 1655. Par la suite, de nombreuses autres lunes furent identifiées autour de
ces deux planètes, tandis qu’Uranus et Neptune s’avéraient également entou-
rées de leurs propres familles de satellites. La nature de ces lunes resta toutefois
inconnue jusqu’au milieu du xxe siècle, quand des télescopes terrestres perfec-
tionnés découvrirent par spectroscopie (voir page 60) que la surface de beau-
coup d’entre elles était faite de glace d’eau. En règle générale, la proportion de
roche dans les lunes diminue avec la distance du Soleil, mais les glaces restent
les éléments majeurs de presque tous les principaux satellites, ce qui est tout
à fait prévisible dans la mesure où tous ces objets se sont formés au-delà de la
ligne de gel du Système solaire primordial, dans une région où les glaces étaient
les plus abondants des éléments de base de la formation planétaire.

Premières théories En 1971, quelques années avant que les premières


sondes spatiales atteignent Jupiter, le planétologue américain John Lewis publia
la première analyse détaillée des éventuelles découvertes qu’elles pourraient
faire parmi les lunes joviennes. Il soutint ainsi que la désintégration lente de
matériaux, comme l’uranium radioactif, présents dans la partie rocheuse de
ces lunes pourrait générer des grandes quantités de chaleur – assez peut-être
pour faire fondre les manteaux de glaces autour des noyaux rocheux et créer
un océan global recouvert d’une croûte de glaces. La notoriété de cette opinion
commença à grandir au vu des images enregistrées par les sondes Pioneer 10
et 11 confirmant que les trois grandes lunes extérieures de Jupiter – Europe,
Ganymède et Callisto – avaient en commun l’aspect général d’un monde de
glaces (avec cependant des différences notables). Io, la lune la plus intérieure,

chronologie
1971 1979
Lewis fait valoir que certaines lunes Peale propose le processus de chauffage
peuvent être suffisamment chauffées par par effet de marée comme un mécanisme
désintégration radioactive pour maintenir pouvant entraîner une activité géologique
des océans liquides sous une croûte glacée. sur les plus grandes lunes de Jupiter.
Les lunes-océan 37

semblait toutefois très différente, sans aucune trace d’eau dans sa composition.
Elle présentait un problème patent et tout au long des années 1970, les

«
spécialistes s’efforcèrent de trouver la cause de cette différence frappante.

Puis, en 1979, quelques jours à peine avant le passage


de la sonde Voyager 1 auprès de Jupiter – ­parcours
Tous ces mondes
programmé pour inclure des survols bien plus proches sont à vous, sauf
Europe. N’essayez

»
des lunes joviennes –, une explication audacieuse
des particularités d’Io fut divulguée. Stanton Peale, pas de vous y
de l’université de Californie à Santa Barbara, soute- poser.
nait, avec deux collègues de la NASA, que Jupiter, par
le truchement de sa puissante gravité, échauffe par Arthur C. Clarke,
effet de marée ses satellites les plus proches. Même 2010 : Odyssée deux
si elles évoluent sur des orbites quasi circulaires, les
lunes intérieures (notamment Io et Europe) restent sujettes à de légères différences
de distance qui provoquent des contractions à chaque orbite. Ces dernières pro-
duisent, au sein de leurs roches, des phénomènes de friction qui les échauffent
bien plus que ne pourraient le faire les seules désintégrations radioactives.

Plus important encore, Peale suggéra l’idée que la surface d’Io devrait montrer
des signes d’activité volcanique, une prédiction confirmée par Voyager 1 qui
renvoya des photos de flux de lave et un énorme panache de composés soufrés
fondus, projetés dans l’espace au-dessus de la lune. Il semble évident que toute
l’eau qu’Io aurait pu contenir autrefois se serait évaporée depuis longtemps.

De l’eau vers Jupiter La découverte d’un processus efficace de chauf-


fage par effet de marée a bouleversé les idées sur certains environnements du
Système solaire externe, avec des conséquences notables pour Europe. Les
images de Voyager ont confirmé la présence d’une épaisse croûte de glaces,
mais elles ont également montré que la surface était manifestement renouvelée
et réarrangée sur une courte échelle de temps (en termes géologiques). Entachée
d’impuretés jaillissant d’en dessous, selon toute apparence, la croûte d’Europe
ressemblait plus à une banquise comprimée qu’à une coquille de glaces lisses.
La meilleure explication de ces caractéristiques est que des éruptions volca-
niques sous la croûte libèrent de la chaleur, créant un océan global fait d’eau
liquide sur lequel la croûte solide se déplace lentement et s’agite.

Toutefois, l’une des caractéristiques clés du processus de chauffage par effet


de marée est que ses effets diminuent rapidement en fonction de la distance
à la planète mère, il ne semblait donc pas en mesure d’affecter les lunes plus

1979 1995‑2003 2005 2013


Voyager 1 découvre Les mesures de la sonde La sonde Cassini Le télescope spatial
l’activité volcanique Galileo révèlent qu’Europe, découvre un vaste Hubble détecte de la
d’Io ainsi qu’une croûte Ganymède et Callisto confinent panache de glace d’eau vapeur d’eau au-dessus
de glaces sur Europe. des couches d’eau liquide. jaillissant d’Encelade. du pôle sud d’Europe.
38 50 clés pour comprendre l’Univers

­ istantes, Ganymède ou Callisto. Les images de Voyager ont en effet suggéré


d
qu’au début de son histoire, Ganymède serait passé par un stade similaire à
celui d’Europe, avant de se retrouver complétement gelé, alors que l’intérieur de
Callisto n’a peut-être jamais dégelé. La surprise fut donc de taille quand la mis-
sion Galileo vers Jupiter trouva des indices en faveur d’un champ magnétique
provenant d’océans sous la surface des deux lunes (voir l’encadré ci-dessous).

Il fallut attendre la mise en orbite du vaisseau spatial Cassini autour de Saturne


en 2004 pour faire des découvertes encore plus étonnantes. L’une des premières
cibles de la mission était Titan, la lune géante de Saturne, un monde gelé où le
méthane semble jouer un rôle similaire à celui de l’eau sur Terre. La lune pour-
rait pourtant dissimuler un manteau profondément enfoui sous sa surface, fait
d’eau liquide et d’ammoniaque (voir l’encadré ci-contre).

Les panaches d’Encelade Encelade, une lune bien plus petite, fut
néanmoins, contre toute attente, le clou de la mission Cassini. Avec un diamètre de
seulement 504 kilomètres, ce satellite possède l’une des surfaces les plus brillantes
du Système solaire dont l’apparence, si l’on en croit la poignée de photos prises par
les sondes Voyager, est celle d’un paysage couvert de neige fraîche. La surprise fut
pourtant de taille lorsque Cassini, au cours de l’un de ses premiers survols, traversa
un grand panache de cristaux de glace d’eau jaillissant non loin du pôle sud de la
lune. Certains des contenus du panache s’échappent dans l’espace où ils forment
un anneau ténu autour de Saturne, la plupart retombant sur Encelade lui-même.

La preuve par le champ magnétique


En plus de chercher une activité de surface ou embarqués à bord de sondes spatiales. Le
des traces d’eau à partir d’antécédents géo- champ induit est tout à fait dissemblable de
logiques, les planétologues peuvent partir tout champ magnétique intrinsèque, comme
directement à la recherche d’océans souter- celui dû à un noyau de fer ; l’étude de sa mor-
rains en étudiant les champs magnétiques phologie et de son intensité permet d’estimer
des diverses lunes. Pour peu qu’un satellite la profondeur et les propriétés électriques de
renferme sous sa surface une couche d’élé- la couche conductrice. Les champs magné-
ments mobiles électriquement conducteurs, tiques induits découverts non seulement
le mouvement de ces derniers à travers le autour d’Europe et d’Encelade, mais égale-
champ magnétique de la planète parentale ment autour de Ganymède et de Callisto, les
génère des courants de Foucault. Ces derniers plus grands satellites de Jupiter, et autour de
suscitent alors autour de la lune un champ Titan, la lune géante de Saturne, signalent
magnétique induit distinct que peuvent tous la présence, à différentes profondeurs,
détecter au passage des magnétomètres d’océans salés hautement conducteurs.
Les lunes-océan 39

Cryovolcanisme
Encelade et Europe sont peut-être les seuls liquide – même avec un processus de chauf-
globes où le processus de chauffage par effet fage par effet de marée moins efficace –, suffi-
de marée suffit à faire fondre de la glace d’eau samment également pour qu’elle se vaporise
pure, mais bon nombre des autres lunes-océan sous forme de panaches à l’aspect de geyser,
du Système solaire externe peuvent devoir leur comme ceux vus sur Encelade. De plus, un
environnement liquide à la présence d’autres mélange ammoniaque-eau conservant un
produits chimiques. On sait aujourd’hui que aspect de neige mouillée sur une gamme de
la présence de sel dans les océans terrestres température beaucoup plus étendue, les pla-
abaisse le point de congélation à environ nétologues estiment qu’à l’instar du magma
– 2 °C, et il semble bien établi que de nom- volcanique sur Terre, cette mixture a été en
breux océans souterrains extraterrestres mesure de s’épancher à travers des fissures et
sont tout aussi salés que ceux de la Terre. de ragréer des zones entières de nombreuses
Cependant, la présence d’ammoniaque a un lunes. Un tel « cryovolcanisme » pourrait être
effet encore plus spectaculaire : elle abaisse à l’œuvre aujourd’hui encore sur des astres
le point de congélation de plusieurs dizaines tels que Titan, Pluton et Triton, un des satel-
de degrés, suffisamment pour que l’eau reste lites de Neptune.

Plus d’une centaine de panaches distincts furent identifiés, dont beaucoup jail-
lissent le long de structures à l’allure de faille, dénommées rayures de tigre. Il s’agit
de points faibles de la croûte où des fissures permettent à l’eau liquide salée des
sous-sols de s’évaporer dans l’espace. La cause en serait une fois de plus le processus
de chauffage par effet de marée ; en l’occurrence, il trouve son origine dans le fait
que l’attraction de Dioné, la lune voisine, force l’ellipticité de l’orbite d’Encelade.
Contrairement à Europe, les conditions semblent réunies sur Encelade pour qu’il y
ait de l’eau au voisinage immédiat de la surface, faisant de cette lune l’un des sites
les plus prometteurs de notre Système solaire pour rechercher des formes de vie.

L’idée clé
Plusieurs lunes du Système
solaire externe dissimulent
de profonds océans
40 50 clés pour comprendre l’Univers

10 L es planètes naines
Reconnues récemment comme une classe distincte d’objets célestes, les
planètes naines de notre Système solaire semblent être l’un des territoires les
plus excitants et les plus surprenants pour l’exploration planétaire. Deux d’entre
elles en particulier – Cérès et Pluton – ont reçu la visite de sondes spatiales.

Au moment où l’Union astronomique internationale (UAI) prit, en 2006, la


décision historique de reclasser les planètes (voir l’encadré page suivante),
seuls cinq objets obtinrent le nouveau statut de planète naine : Cérès (le plus
grand objet de la ceinture d’astéroïdes) et quatre objets de la ceinture de Kuiper
– Pluton, Hauméa, Makémaké et Éris (dans l’ordre de distance croissante au
Soleil). Les espoirs que Vesta, un autre astéroïde d’une taille d’environ 525 kilo-
mètres, ait pu satisfaire aux critères furent déçus quand les observations du vais-
seau spatial Dawn montrèrent que sa gravité n’était pas suffisante pour lui faire
adopter une forme sphérique (même en tenant compte de l’énorme cratère
d’impact à son pôle sud). Hauméa, Makémaké et Éris évoluent dans les profon-
deurs de la ceinture de Kuiper, si loin que les télescopes ne peuvent en révéler
que les traits les plus saillants. Heureusement, cependant, les deux autres pla-
nètes naines ont désormais été visitées par des sondes spatiales.

Le plus grand astéroïde Cérès fut le premier astéroïde découvert, dès


1801, par l’astronome italien Giuseppe Piazzi. Évoluant à une distance du Soleil
comprise entre 2,6 et 3,0 UA, il se trouve en gros à mi-chemin entre Mars et Jupiter,
au beau milieu de la ceinture d’astéroïdes. Des observations spectroscopiques
menées au xxe siècle avec des télescopes terrestres suggérèrent que sa composition
de surface est similaire à celle des astéroïdes plus petits de type C. Ces objets faits
de roches sont riches en minéraux carbonatés et sont perçus comme constituant
un matériau essentiellement inchangé depuis les débuts du Système solaire.

Des observations récentes révèlent toutefois un aspect plus complexe pour


Cérès. Des images du télescope spatial Hubble et du télescope Keck ont signalé
la présence, à la surface, de taches sombres semblant correspondre à des ­cratères
d’impact, ainsi qu’une région étonnamment brillante dont la nature est devenue
un mystère persistant. En 2014, alors que la sonde spatiale Dawn (« aube » en

chronologie
1801 1930 2005
Giuseppe Piazzi découvre Clyde Tombaugh découvre Pluton, Des astronomes découvrent
Cérès, le premier astéroïde le premier objet de la ceinture Éris, un objet de taille similaire
et la planète naine la plus de Kuiper. Il est initialement classé à Pluton, évoluant au-delà
proche du Soleil. comme une planète. de la ceinture de Kuiper.
Les planètes naines 41

Définition des planètes naines


Lorsque Pluton fut découverte en 1930, elle fut Cependant, l’Union astronomique inter-
naturellement désignée comme la neuvième nationale, responsable de la nomenclature
planète du Système solaire. Mais des doutes astronomique officielle, était d’un tout
quant à son statut surgirent rapidement, autre avis. Confrontée à la possibilité que
les astronomes commençant à s­oupçonner bien d’autres planétoïdes semblables soient
qu’il s’agissait juste du premier d’une cein- tapis dans le Système solaire externe, l’UAI
ture hypothétique d’objets é ­ voluant au-delà réunit une commission d’astronomes dans
de Neptune. Même après que de n ­ ouveaux le but de proposer une définition officielle
objets de la ceinture de Kuiper ont été décou- du mot « planète ». En conséquence, depuis
verts dans les années 1990, Pluton s’est août 2006, une planète a été définie comme
accrochée à son statut de planète – jusqu’à un astre évoluant sur une orbite indépen-
la découverte, en janvier 2005, d’un nouvel dante autour du Soleil, avec une gravité
objet nommé 2003 UB313. Ce dernier, suffisante pour lui faire adopter une forme
d’abord surnommé Xéna puis appelé officiel- sphérique et pour purger son voisinage
lement Éris, avait un diamètre plus grand que orbital d’autres corps célestes. La nouvelle
celui de Pluton, d’environ 2 000 kilomètres ; il catégorie des planètes naines correspond
fut donc présenté par ses découvreurs comme aux objets qui respectent les deux premiers
la dixième planète du Système solaire. critères, mais pas le dernier.

anglais) faisait déjà route de Vesta vers Cérès, des astronomes, en utilisant l’ob-
servatoire spatial infrarouge Herschel, détectèrent autour de la planète naine une
mince atmosphère de vapeur d’eau et déterminèrent que cette dernière était
renouvelée par un certain mécanisme d’émission à partir de la surface – le plus
probable étant la sublimation des glaces de surface directement en gaz. Alors
que Dawn s’approchait de Cérès début 2015, la sonde dévoila le plus gros des
astéroïdes avec un luxe de détails sans précédent. Sa surface est assez lisse, avec
un certain nombre de cratères au relief émoussé, suggérant ainsi que Cérès pos-
sède une croûte malléable, riche en glace d’eau, qui se « détend » au fil du temps
pour niveler les surélévations comme les dépressions de sa surface.

Dawn a aussi découvert de nombreux points brillants situés à l’intérieur de


certains cratères, l’un d’eux semblant être associé à une brume qui apparaît
par intermittence au-dessus de lui. L’analyse chimique de ces emplacements
dans les mois qui ont suivi l’arrivée de Dawn a suggéré qu’il pourrait s’agir d’un

2006 2015 2015


L’Union astronomique Le vaisseau spatial Dawn est La sonde New Horizons survole
internationale instaure une mis en orbite autour de Cérès Pluton à grande vitesse,
définition des planètes naines et en renvoie les premières envoyant une multitude de
incluant Cérès, Pluton et Éris. images rapprochées. données.
42 50 clés pour comprendre l’Univers

Les lunes de Pluton


En dépit de sa petite taille, Pluton est au
centre d’un système étonnamment com-
plexe de lunes. La plus grande, Charon,
présente un diamètre un peu plus grand
que la moitié de celui de Pluton elle-même
et fait le tour de sa compagne en seulement
6,4 jours. Les forces de marée assurent que
chaque globe conserve la même face dirigée
en permanence vers l’autre. Quatre corps
plus petits, nommés Styx, Nix, Kerberos et De gauche à droite : Pluton
avec ses lunes Charon, Nix et
Hydra, évoluent légèrement au-delà de l’or- Hydra, vues par le télescope
bite de Charon. spatial Hubble.

dépôt de sel, la manière dont ce dernier pourrait se déposer restant inconnue.


Une des hypothèses est qu’il pourrait être déposé par de la saumure suintant à
la surface à partir d’une couche souterraine d’eau à l’état liquide.

Planète déchue Alors que la sonde spatiale Dawn a été en mesure de se


mettre en orbite autour de Cérès puis de l’étudier des mois durant, la mission
New Horizons (« nouveaux horizons » en français) vers la lointaine planète
naine Pluton s’est limitée à un superbe survol à haute vitesse, en juillet 2015.
Étant donnée la formidable distance de Pluton, la seule manière possible de
l’atteindre dans un délai raisonnable (un peu moins d’une décennie) était de
mettre en œuvre une sonde légère et rapide en vue d’un périple à sens unique.
Une certaine pression avait été exercée pour rejoindre Pluton sans trop tarder,
tant que la planète naine restait proche de son périhélie sur son orbite elliptique
parcourue en 248 ans – des experts supposaient que tant que la planète naine
restait proche du Soleil, elle développerait une atmosphère ténue qui se figerait
rapidement à la surface à partir du moment où elle quitterait le voisinage de
l’orbite de Neptune pour les profondeurs de la ceinture de Kuiper (voir page 44).
Des études spectroscopiques avaient déjà montré, dans les années 1990, que
la surface de Pluton est dominée par de l’azote congelé à des températures
d’environ – 230 °C, avec des traces de méthane et de monoxyde de carbone.
Dès 1985, des changements minimes de l’éclat d’étoiles distantes occultées par
Pluton démontraient la présence d’une atmosphère, sa pression ne dépassant
de guère plus d’un millionième celle régnant sur Terre. Il n’est pas surprenant
que l’atmosphère soit dominée par de l’azote, dans la mesure où elle résulte de
la sublimation des glaces de surface.
Les planètes naines 43

Dans les années 1990 et 2000, les premières tentatives de cartographie de Pluton
furent menées avec le télescope spatial Hubble dans le but de surveiller les suc-
cessions d’éclipses mutuelles entre Pluton et sa lune géante Charon. Il ne fut
pas possible de résoudre directement les caractéristiques de surface, mais l’étude
des variations de luminosité et de couleur quand chacun des deux globes mas-

«
quait une partie de la lumière de l’autre, a révélé de
forts contrastes d’éclat et de teinte de surface. Les
planétologues ont ainsi identifié de grandes taches Ce monde est
rouge foncé qu’ils supposent dues à des tholins, actif. Il a une météo,
des molécules d’hydrocarbures complexes formées il a des nuages dans
par le méthane dans la mince atmosphère avant de son atmosphere,

»
retomber à la surface.
il a une géologie
La plus grande surprise du rendez-vous avec New dynamique.
Horizons fut la variété des terrains de Pluton, non
seulement au niveau des couleurs, mais aussi de la Alan Stern,
géologie globale. Alors que la surface de Cérès est d’un investigateur principal
aspect assez uniforme, celle de Pluton présente des de la mission New Horizons
différences frappantes qui dénotent un passé géolo-
gique turbulent, voire un présent lui aussi actif. La région Tombaugh, une région
claire en forme de cœur, dévoile une surface lisse avec très peu de cratères, elle est
donc considérée comme relativement jeune (peut-être cent millions d’années).
Elle semble couverte par une grosse épaisseur de glace d’azote, et présente des
caractéristiques dénotant sans doute le travail des glaciers. En revanche, la région
Cthulhu, plus sombre, apparaît accidentée et fortement cratérisée ; elle signale les
zones de tholins identifiées dans les images du télescope spatial Hubble.
Ailleurs, les planétologues ont trouvé des traces d’éruptions de gaz à l’allure
de geysers, le long de deux montagnes très élevées (altitude d’environ 5 kilo-
mètres) faites de glace d’eau. De profondes dépressions centrales (ou calderas)
suggèrent que ces deux sommets, le mont Wright et le mont Piccard, sont des
cryovolcans (voir page 39). Si l’hypothèse se confirme, ce serait de loin les plus
grands spécimens jamais découverts dans le Système solaire externe.

L’idée clé
Les petits mondes du
Système solaire peuvent être
étonnamment complexes
44 50 clés pour comprendre l’Univers

11 A
 stéroïdes
et comètes
Les astronomes partagent généralement les corps célestes plus petits qui
gravitent entre les planètes en fonction de leur composition : les astéroïdes
rocheux d’un côté, et les comètes de glaces de l’autre, bien que la distinction
soit un peu floue. Ils peuvent également les classer en fonction des zones
orbitales dans lesquelles ils évoluent. Ils distinguent ainsi les groupes
d’astéroïdes, les centaures de glaces, les comètes à longue et à courte période,
les objets relevant de la ceinture de Kuiper et ceux du disque des objets épars.
Il y a environ 4,6 milliards d’années, après la formation du Système solaire,
d’importantes quantités de matériau restaient en orbite entre les planètes et
au-delà. L’influence gravitationnelle de Jupiter provoqua l’arrêt brutal de la
croissance de Mars et débarrassa son voisinage orbital d’ingrédients de forma-
tion planétaire (voir page 23). N’a subsisté qu’un anneau clairsemé de débris
rocheux, qui forme la ceinture d’astéroïdes actuelle.

En revanche, au-delà de la ligne de gel où les glaces subsistent en dépit des


atteintes du rayonnement solaire, un grand nombre de petites comètes de glaces
se formèrent par coalescence sur des orbites qui louvoyaient entre les planètes
géantes. La suite de rapprochements qui modifia peu à peu les orbites des planètes
s’est avérée bien plus traumatisante pour les corps plus petits. Des comètes furent
souvent précipitées vers l’intérieur du Système solaire, d’autres éjectées au loin
sur des orbites démesurées, à près d’une année-lumière du Soleil. Des milliards de
milliards de comètes s’attardent encore de nos jours dans cette région, constituant
le nuage d’Oort, à la limite extrême de l’influence gravitationnelle du Soleil.

Finalement, la migration d’Uranus et de Neptune vers leurs emplacements actuels,


il y a environ 4 milliards d’années, a perturbé une grande partie des mondes de
glaces de taille modérée qui s’étaient formés aux confins du Système solaire. Les
individus les plus à l’extérieur de cette proto-ceinture de Kuiper sont en grande
partie restés en place et forment aujourd’hui la ceinture de Kuiper « classique »,

chronologie
1705 1801 1866 1866
Edmond Halley prédit Piazzi découvre Kirkwood identifie des lacunes Schiaparelli relie
que la comète qui porte Cérès, le premier dans la ceinture d’astéroïdes, les pluies d’étoiles
son nom gravite sur une et le plus grand confirmant que les orbites des filantes aux orbites
orbite qu’elle boucle astéroïde. astéroïdes peuvent évoluer des comètes.
en 76 ans. avec le temps.
Astéroïdes et comètes 45

mais leurs cousins qui gravitaient plus près du Soleil


ont été pour la plupart éjectés sur des orbites très
excentriques fortement inclinées, constituant le
disque des objets épars.
« Comme son
déplacement est
si lent et assez
Astéroïdes inconstants La ceinture
uniforme, il m’est
d’astéroïdes est le grand regroupement de petits venu à l’esprit que
[Cérès] pourrait être

»
corps le plus proche de l’orbite terrestre, mais c’est
aussi le seul à avoir été trouvé par hasard. Après bien plus qu’une
la découverte d’Uranus en 1781, de nombreux comète.
astronomes accordèrent du crédit à une relation
empirique, la loi de Bode, qui semblait expliquer Giuseppe Piazzi
l’échelonnement des orbites planétaires et prédisait
une planète « manquante » entre Mars et Jupiter. En 1801, l’astronome italien
Giuseppe Piazzi découvrit Cérès, le plus grand et le plus brillant des astéroïdes
gravitant dans cette région, une découverte bientôt suivie de beaucoup d’autres.
En 1866, les astronomes avaient reconnu assez d’astéroïdes pour que l’améri-
cain Daniel Kirkwood identifie un certain nombre de lacunes dans la ceinture
d’astéroïdes. Ces vides se produisent lorsque l’orbite de n’importe quel astéroïde
à l’intérieur de la ceinture entre en résonnance avec celle de Jupiter. L’astéroïde
est alors vite expulsé sur une trajectoire plus elliptique. En 1898, l’astronome
allemand Gustav Witt découvrit le premier objet ainsi refoulé de la ceinture,
433 Éros, un astéroïde dit géocroiseur (gravitant à proximité de la Terre). Plusieurs
catégories d’objets de ce type sont désormais reconnues et leur relation avec
l’orbite terrestre est étroitement surveillée en raison de menaces potentielles.

Comètes à longue et à courte période Des interactions


gravitationnelles du même type avec les planètes géantes contribuent également
à guider les corps de glaces du Système solaire externe. C’est ainsi que des comètes
tombant vers le Soleil, au cours de la brève période où elles évoluent sur la partie la
plus interne de leurs très longues orbites, peuvent voir ces dernières radicalement
raccourcies à la suite d’une rencontre avec une planète géante (Jupiter en
particulier), les laissant avec des périodes orbitales se mesurant en décennies ou
en siècles plutôt qu’en milliers d’années, et avec un aphélie (point de l’orbite le
plus éloigné du Soleil) quelque part dans la ceinture de Kuiper. De telles comètes à
courte période sont des visiteurs fréquents et prévisibles du Système solaire interne.
Graviter dans le voisinage solaire réduit fortement la durée de vie d’une comète
– chaque passage autour du Soleil fait disparaître un peu plus les glaces d
­ éposées
en surface et accroît le risque d’un rapprochement avec Jupiter, raccourcissant

1898 1930 1932 1992


Gustav Witt Kenneth Edgeworth et ses Öpik avance l’existence Le télescope spatial Hubble
découvre Éros, le collaborateurs suggèrent d’un nuage de comètes découvre le premier objet
premier astéroïde la présence d’une ceinture de qui entourerait le Système de la ceinture de Kuiper
géocroiseur. petits corps gravitant au-delà solaire à grande distance. autre que Pluton.
de l’orbite de Neptune.
46 50 clés pour comprendre l’Univers

Échantillonnage du Système solaire


primordial
Les astéroïdes sont importants pour notre • L e groupe X comprend des objets faits de
compréhension du Système solaire, car métaux (principalement fer et nickel).
ils conservent des fragments de matériau Les groupes S et X proviennent probable-
datant de leur formation. En s’appuyant sur ment de corps relativement massifs qui,
des études spectrales de la lumière qu’ils au cours de leur formation, ont connu une
rayonnent, sur des vues rapprochées prises phase de réchauffement et dont les inté-
lors de rencontres avec des sondes spatiales, rieurs se sont donc organisés en couches
ainsi que sur des études de météorites (frag- de différentes densités. Ces objets ont
ments d’astéroïdes qui tombent sur Terre), ils ensuite été morcelés lors de collisions qui
ont été répartis en plusieurs grands groupes : ont dispersé leurs fragments au sein de la
• Le groupe C comprend des astéroïdes car- ceinture d’astéroïdes (la ceinture s’étend
bonés présentant des surfaces sombres, ils certes dans un vaste volume d’espace, mais
sont considérés comme riches en maté- comme elle contient des dizaines de mil-
riaux primordiaux non altérés. lions d’objets, les collisions sont fréquentes
• Le groupe S comprend des corps siliceux sur des échelles de temps astronomique).
ou pierreux présentant des surfaces ayant Beaucoup de familles d’astéroïdes, en raison
été modifiées chimiquement sous l’effet des similarités de leur composition ou des
de températures plus élevées et de pro- concordances de leurs orbites, sont les
cessus ­géologiques. preuves de tels événements.

son orbite encore davantage. Certaines comètes finissent plutôt sur des orbites
semblables à celles des astéroïdes, avec des périodes orbitales d’à peine quelques
années, perdant rapidement les glaces qui leur restent, jusqu’à ce que ne sub-
siste qu’un noyau noir et desséché, indiscernable d’un astéroïde.

Facilement identifiables, les comètes ont retenu l’attention des contempla-


teurs du ciel depuis la Préhistoire. À l’approche du Soleil, elles prennent une
apparence caractéristique avec une atmosphère étendue, ou coma, autour d’un
noyau solide relativement petit, et une queue qui pointe toujours vers le Soleil.
L’astronome anglais Edmond Halley est célèbre pour avoir été le premier savant
à calculer la période orbitale d’une comète en 1705, en réalisant que les astres
vus en 1531, 1607 et 1682 étaient, en fait, le même corps céleste qui gravitait
autour du Soleil avec une période de 76 ans. L’astre en question est maintenant
connu sous le nom de comète de Halley.

De lointaines origines Les origines ultimes des comètes ne furent élucidées


qu’au milieu du xxe siècle. L’astronome estonien Ernst Öpik fut en 1932 le premier
Astéroïdes et comètes 47

Composition des comètes


Dès 1755, le philosophe allemand Emmanuel Kant fut le premier à suggérer que les comètes
étaient en grande partie constituées de glaces volatiles. En 1866, cependant, Giovanni
Schiaparelli relia les pluies de météores (ou pluies d’étoiles filantes) qui apparaissent à une cer-
taine période de l’année avec le passage de la Terre à travers l’orbite de comètes. L’idée que les
comètes aient laissé derrière elles une traînée de poussière fut à l’origine du modèle populaire
assimilant les noyaux cométaires à des amas de cailloux retenus ensemble par de la glace. Au
début des années 1950, l’astronome américain Fred Whipple avança même la théorie de la
« boule de neige sale » qui faisait des glaces la composante dominante. Les études menées
ensuite au moyen des sondes spatiales ont confirmé les grandes lignes du modèle de Whipple,
avec des variantes importantes d’une comète à une autre. D’une façon générale, elles semblent
faites d’un mélange de poussières carbonées (y compris des produits chimiques organiques
relativement complexes) et de glaces volatiles : non seulement de la glace d’eau, mais aussi des
glaces faites de monoxyde et de dioxyde de carbone, de méthane et d’ammoniac.

à envisager l’existence d’un réservoir de comètes très lointain afin d’apporter une
explication au fait que les comètes à longue période abordent le Système solaire
interne en provenant de toutes les directions. En 1950, le Néerlandais Jan Oort
avança indépendamment une hypothèse similaire pour expliquer comment les
comètes avaient pu subsister depuis le début du Système solaire sans disparaître,
après avoir entièrement perdu toutes les glaces dont elles sont constituées.
En revanche, après de la découverte de Pluton en 1930, de nombreux astronomes
proposèrent l’existence de la ceinture de Kuiper. C’est par un hasard de l’histoire
que le nom de l’astronome néerlando-américain Gerard Kuiper lui fut attaché,
après que ce dernier ait publié, en 1951, un article proposant qu’une telle cein-
ture ait existé dans les premiers jours du Système solaire. Contrairement au
nuage d’Oort, dont la réalité tient à divers éléments de preuve, l’existence de la
ceinture de Kuiper n’a été confirmée qu’à la suite de la découverte de 1992 QB1,
avec le télescope spatial Hubble, le premier des nombreux nouveaux objets iden-
tifiés dans la partie du Système solaire qui s’étend au-delà de l’orbite de Neptune.

L’idée clé
Les comètes et les astéroïdes
   sont les débris de notre
    Système solaire
48 50 clés pour comprendre l’Univers

12 D
 e la vie dans le
Système solaire ?
Se pourrait-il que des formes de vie primitives, voire relativement avancées,
soient en attente de découverte sur l’un ou l’autre des myriades de mondes
de notre Système solaire ? De récentes découvertes ont mis à jour une variété
inattendue d’habitats potentiellement viables, mais également le fait que la
vie elle-même serait bien plus robuste qu’on ne le pensait auparavant.

Depuis l’Antiquité, les hommes ont spéculé sur les perspectives de vie dans les
autres mondes de notre Système solaire, mais jusqu’à la fin du xixe siècle, alors
que le compte-rendu de Giovanni Schiaparelli sur les canaux de Mars (voir
page 28) inspirait la première étude scientifique de ce sujet, la vie extraterrestre
restait en grande partie le domaine des satiristes et des conteurs. Par analogie
avec la Terre, de nombreux astronomes étaient prêts à accepter que Vénus soit
une planète humide et tropicale sous ses nuages, et que Mars, plus froide et
aride, soit encore en mesure d’héberger une vie végétale primitive, voire les
créatures extraterrestres intelligentes imaginées par Percival Lowell.

Cependant, dès le début du xxe siècle, les perspectives de vie subirent une série
de revers spectaculaires. En 1926, l’astronome américain Walter Adams montra
que l’atmosphère martienne était presque entièrement dépourvue d’oxygène
et de vapeur d’eau, tandis que Bernard Lyot établit en 1929 qu’elle était consi-
dérablement plus ténue que celle de la Terre. Prises ensemble, ces découvertes
révélaient un monde des plus arides, à la surface duquel les températures ne
dépassaient que rarement le point de fusion de la glace d’eau. Au cours des
années 1960, les survols de sondes spatiales apportèrent un coup d’arrêt défi-
nitif aux espoirs de vie sur Mars. Les premières explorations spatiales de Vénus
transmirent des informations tout aussi sombres : la surface avait tout d’un four
toxique qui détruisit en quelques minutes des atterrisseurs lourdement blindés.

Les espoirs de vie dans le Système solaire (et au-delà) resurgirent à la suite de
deux afflux distincts de découverte, qui se sont rapidement fortifiés l’un l’autre

chronologie
1977 1977 1979
Les océanographes Carl Woese identifie La découverte du processus
découvrent sur Terre des un troisième domaine de chauffage par effet de marée
écosystèmes florissants du vivant, celui des archées, accroît les possibilités de
autour de cheminées qui comprend de nombreux rencontrer de l’eau liquide sur les
volcaniques sous-marines. organismes extrémophiles. lunes du Système solaire externe.
De la vie dans le Système solaire ? 49

depuis les années 1970. Des missions spatiales vers les planètes lointaines
confirmèrent que d’immenses nappes d’eau liquide pouvant convenir au déve-
loppement de la vie se dissimulaient contre toute attente au sein de certains
planétoïdes (surtout les lunes Europe et Encelade – voir chapitre 9), tandis que
des études plus approfondies montrèrent que Mars n’était peut-être pas une

«
planète si aride qu’on imaginait auparavant (voir chapitre 7).

La vie aux extrêmes Des recherches menées


sur Terre se révélèrent tout aussi importantes, Je pense qu’en
avec une série d’avancées bousculant les idées moins d’une
traditionnelles sur les conditions dans lesquelles la décennie, nous allons
vie peut se maintenir et s’épanouir. Ces découvertes recueillir de fortes

»
commencèrent en 1977, lorsque les océanographes indications de vie
utilisant le submersible Alvin mirent en évidence
d’abondantes formes de vie au voisinage de
hors de la Terre.
cheminées volcaniques présentes en eau profonde Ellen Stofan
sur le plancher de l’océan Pacifique. Sans lumière
solaire pour stimuler la photosynthèse (un processus
Scientifique en chef de la NASA, 2015
habituellement à la base de la chaîne alimentaire
sur les continents comme dans les océans),
ces formes de vie ont plutôt développé un écosystème fondé sur des micro-
organismes prospérant à des températures proches de l’ébullition et assimilant
des composés soufrés volcaniques. Ces bactéries existent dans les boyaux de
longs vers tubicoles et contribuent au bout du compte à la subsistance d’autres
créatures telles que les poissons et les crustacés qui se sont retrouvés isolés sur
ces points chauds nichés dans les profondeurs glaciales des océans.

À la fin des années 1970, le microbiologiste américain Carl Woese fit la décou-
verte remarquable, en étudiant l’ADN des micro-organismes attachés à ces che-
minées volcaniques sous-marines, qu’il ne s’agissait pas simplement de bactéries
adaptées, mais plutôt des membres d’un domaine à part entière de la classifica-
tion du vivant, à savoir celui des archées. Caractérisées par des processus uniques
dans leur métabolisme cellulaire, les archées se retrouvent d’une manière surpre-
nante dans une grande variété de biotopes tels que l’eau des océans, le sol et la
flore intestinale. Plus important encore pour la recherche de vie extraterrestre,
des archées extrémophiles spécialisées prospèrent aussi dans une vaste gamme
d’environnements hostiles – pas uniquement à basse et haute température, mais
aussi dans les conditions les plus arides, salées, acides, alcalines, voire toxiques.

1996 2003 2014


Les scientifiques de la NASA Des astronomes découvrent avec des Le rover Curiosity de la NASA
annoncent la présence possible télescopes terrestres des signatures détecte une trace de méthane
de molécules biogènes du méthane dans l’atmosphère dans l’atmosphère de Mars,
et de microfossiles dans martienne, mais les études qui probablement d’origine
une météorite provenant de Mars. s’ensuivent sont contradictoires. volcanique ou biogène.
50 50 clés pour comprendre l’Univers

Les affinités évolutives des archées sont encore incertaines : elles partagent des
caractéristiques avec les membres des deux grands autres domaines du monde
vivant, les bactéries et les eucaryotes multicellulaires. Certains experts pensent
qu’elles pourraient être la forme de vie la plus ancienne sur Terre, augmentant
la probabilité qu’elles se soient développées dans ce que l’on pourrait considérer
aujourd’hui comme un environnement extrême. Avant d’atteindre sa compo-
sition actuelle, l’atmosphère terrestre a certainement subi des changements
majeurs, certains d’entre eux ayant été influencés par l’apparition et l’évolution
de la vie elle-même. Il est certain que les conditions dans lesquelles les premiers
organismes ont évolué seraient hostiles à la grande majorité de la vie d’au-
jourd’hui. Du point de vue des archées, c’est nous qui sommes les extrémophiles.

À la recherche de la vie Si la possibilité que la vie ait évolué dans


d’autres mondes a reçu un sérieux coup de pouce, en apporter la preuve est une
autre histoire. Désormais, l’exploration d’autres planètes se limite aux sondes
robotiques ; la mise en évidence de signatures de vie passée ou présente est une
tâche si spécialisée que peu de missions ont été conçues avec un tel objectif.
La seule entreprise à ce jour, celle de l’atterrisseur Beagle 2, a malheureusement
échoué lors de son atterrissage sur la planète rouge en 2003. Mars est le lieu le
plus accessible pour la recherche de vie et l’Agence spatiale européenne (ESA) va
bientôt revenir à la charge avec ExoMars, une mission à deux volets, orbiteur et
atterrisseur, spécialement conçue pour rechercher de prétendues biosignatures. La
NASA, en attendant, développe activement des plans pour une future mission vers
Europe, avec divers concepts également étudiés pour une étude ciblée d’Encelade.

Panspermie
La possibilité que la vie ait pu être ense- suggéra que des microbes pourraient se
mencée depuis l’espace est une idée certes propager à travers l’espace, entraînés par la
ancienne, mais elle est devenue populaire pression de la lumière des étoiles.
au xixe siècle, quand les scientifiques se Plus récemment, les études sur les bactéries
sont rendu compte que des matériaux tom- et les archées extrémophiles ont montré que
baient régulièrement sur Terre sous forme de des micro-organismes peuvent survivre dans
météorites. En 1834, le chimiste suédois Jöns l’espace pendant des temps assez longs (en
Jakob Berzelius discerna pour la première fois particulier s’ils sont confinés à l’intérieur de
la présence de carbone dans une météorite, météorites). La découverte de météorites
et plus tard, les scientifiques observèrent ce provenant à la fois de la Lune et de Mars a
qu’ils pensaient être des traces de bactéries ravivé l’intérêt pour des idées avançant que
fossilisées dans les météorites carbonées. En des formes de vie pourraient être transférées
1903, un autre Suédois, Svante Arrhenius, d’une planète à l’autre du Système solaire.
De la vie dans le Système solaire ? 51

Microfossiles martiens ?
En 1996, une équipe de chercheurs de la son arrivée sur
NASA fit la une des journaux en affirmant que Terre, un groupe
la météorite d’origine martienne, cataloguée démontra que
ALH 84001, contenait d’anciennes traces de ces mêmes molé­
vie. À côté de molécules biogéniques, qui sur cules pouvaient
Terre seraient considérées comme résultant se former sans
du travail d’organismes vivants, l’équipe a nécessiter une
trouvé de minuscules structures tubulaires quel­conque forme de vie. Les microfossiles
évoquant des bactéries fossilisées (voir photo présumés, quant à eux, sont plus petits que
ci-contre). En dépit de l’enthousiasme suscité n’importe quel micro-organisme terrestre
à l’époque, d’autres scientifiques exprimèrent reconnu. Avec tant de questions soulevées,
rapidement des réserves. Alors que certains se il faudra s’en remettre à de nouvelles décou-
demandaient si des molécules biogéniques vertes pour apporter la preuve définitive d’une
avaient pu s’introduire dans la météorite après forme de vie sur Mars.

Les deux vaisseaux spatiaux seraient des orbiteurs ; dans le cas d’Encelade, il serait
aussi envisageable de détecter des signatures de vie dans le matériau éjecté dans
les célèbres panaches de glaces de cette lune.

Toute recherche robotique d’une forme de vie a une portée inévitablement limitée
si on la compare à ce qui pourrait être atteint in situ par d’authentiques géologues
ou biologistes, de sorte qu’un verdict final sur la vie dans le Système solaire pour-
rait finalement devoir attendre l’exploration humaine. L’identification des météo-
rites réputées provenir de Mars (et éventuellement d’autres objets célestes) ouvre la
possibilité d’obtenir une réponse plus rapide, mais comme l’a montré la polémique
sur les « microfossiles martiens », les preuves ainsi recueillies apportent leur propre
lot de complications (voir encadré ci-dessus). En effet, le fait que les matériaux en
question soient ainsi transférés d’un monde à l’autre soulève des questions intri-
gantes quant aux origines de la vie sur notre propre planète.

L’idée clé
Des habitats propices à la vie
   se trouvent à notre porte
    cosmique
52 50 clés pour comprendre l’Univers

13 N
 otre Soleil,
une étoile
en gros plan
L’étoile la plus proche de notre planète se trouve à à peine 150 millions
de kilomètres de la Terre, et elle domine le Système solaire. En raison de
sa proximité, nous pouvons étudier le Soleil en détail et repérer certains
processus qui se produisent aussi sur la plupart des autres étoiles, mais qui
demeurent impossibles à détecter.

À première vue, le Soleil semble n’être que ce disque incandescent aux bords
nets qui domine les cieux diurnes. Mais même les tout premiers astronomes
auraient vu que ce n’était pas le cas. En premier lieu, durant une éclipse solaire
totale, le passage de la Lune – qui bloque l’éclat de ce disque – fait en effet
apparaître de grandes bandes lumineuses d’une brillante pâleur.

Cette couche externe du Soleil s’appelle la couronne, tandis que le terme « protu-
bérances » désigne les anneaux roses et rouges en forme de flammes qui décrivent
un arc juste au-dessus du disque sombre de la Lune lors des éclipses. Vers 1605,
Johannes Kepler suggéra l’idée que la couronne était produite par une matière ténue
autour du Soleil réfléchissant quelque peu sa lumière, mais il fallut attendre 1715
pour qu’Edmond Halley soutienne que le Soleil avait sa propre atmosphère.

Taches solaires Ce fut toutefois la découverte de Galilée qui observa,


en 1612, des taches sombres sur le Soleil, qui changea définitivement notre
compréhension de sa vraie nature. La présence de taches sur le Soleil attestait
qu’il ne s’agissait pas d’une sphère immuable, mais d’un objet physique
imparfait et susceptible d’évoluer. Le mouvement des taches permit au savant
de démontrer que le Soleil tournait sur lui-même en 25 jours environ.

chronologie
1612 1843 1863
Galilée mène la première Samuel Schwabe découvre Carrington découvre la rotation
observation des taches la variation périodique différentielle du Soleil, prouvant
solaires et les utilise pour du nombre de taches qu’il ne s’agit pas d’un corps
mesurer la rotation du Soleil. solaires. solide.
Notre Soleil, une étoile en gros plan 53

Au cours des années 1760, l’Écossais Alexander


Wilson fit une découverte qui envoya les astronomes
dans une impasse pendant près d’un siècle. Son étude
minutieuse des taches solaires montrait que ces der-
grands
«
L’un des plus
défis de
la physique solaire
nières, à l’approche du limbe (la limite visible) du est de comprendre,
Soleil, étaient creusées, par comparaison avec celles et à la fin de prédire,

»
du reste de la partie visible. Cette dernière observation
permit à William Herschel, dont l’influence s’était
l’activité magnétique
considérablement accrue à la suite de la découverte du Soleil.
d’Uranus et d’autres avancées majeures, de conclure Dr Giuliana de Toma
que la surface brillante du Soleil n’était en réalité
qu’une couche de nuages. Ces nuages denses enveloppaient une surface solide
bien plus froide, Herschel spéculant même que cette dernière pourrait être habitée.
Un autre astronome allemand, Johann Schröter, créa le terme « photosphère »
pour décrire cette incandescente surface apparente, et ce nom perdure.

Dans les années 1870, l’hypothèse d’un Soleil solide fut finalement infirmée par
l’astronome amateur anglais Richard Carrington. Grâce à des mesures minu-
tieuses, il parvint à la conclusion que la vitesse de rotation des taches solaires
variait avec la latitude. Cette rotation différentielle, plus rapide à l’équateur
qu’aux pôles, démontrait que le Soleil était en réalité un corps fluide.

Le cycle solaire En utilisant des archives constituées avec soin pendant


17 ans, l’astronome suisse Heinrich Schwabe fit en 1843 une découverte
clé : les taches solaires évoluaient selon un cycle régulier. Certes, les taches
individuelles apparaissaient et disparaissaient au bout de quelques jours, voire
deux ou trois semaines, mais il repéra un cycle dans le nombre total de taches
qui augmentait puis diminuait sur une dizaine d’années. Aujourd’hui, il est
généralement admis que ce cycle solaire est – en moyenne – d’environ 11 ans.
En 1858, Carrington démontra de son côté que les taches solaires apparaissaient
plus près de l’équateur au fur et à mesure de la progression du cycle.

L’année 1859 apporta le premier indice en faveur de l’idée que des événements
survenant sur le Soleil pouvaient avoir un effet spectaculaire sur Terre, alors
que Carrington et d’autres surveillaient le développement d’une tache bril-
lante dans la photosphère. En quelques jours, une vaste tempête géomagné-
tique bouscula le champ magnétique terrestre en affectant tout, des aurores
polaires jusqu’aux réseaux télégraphiques. Ce fut la première mention d’une
éruption solaire, un violent jaillissement de matière extrêmement chaude juste

1908‑1919 1946 1976


Hale découvre la nature Au moyen d’instruments montés John Eddy met en évidence
magnétique des taches à bord de fusées, les astronomes une diminution durable du
solaires et l’utilise par la suite observent pour la première fois nombre des taches solaires
pour en expliquer l’origine. l’atmosphère solaire dans l’ultraviolet vers la fin du xviie siècle.
et dans le domaine des rayons X.
54 50 clés pour comprendre l’Univers

Cycles d’autres étoiles


En général, les étoiles lointaines rayonnent similaires mettent en évidence des variations
de si faibles flux de lumière qu’il n’est pas d’éclat de la surface de l’étoile lorsque diffé-
possible d’y détecter, depuis la Terre, l’effet rentes parties sont ainsi occultées.
de leurs cycles magnétiques, mais il y a des Des méthodes plus complexes impliquent
exceptions. Les étoiles à éruptions chromos- l’effet Zeeman – modification des raies
phériques sont des petites étoiles de type d’absorption dans le spectre de l’étoile (voir
naine rouge qui produisent des éruptions page 60) due à un champ magnétique
bien plus puissantes que celles observées intense – ou le « rapport de profondeur de
sur le Soleil (voir page 90). Différentes tech- raies » – variation de l’intensité de raies spec-
niques peuvent être mises en œuvre pour trales qui met en évidence des différences
estimer la taille et l’intensité de grandes de température de la surface stellaire. Un
taches chromosphériques (des centaines de suivi minutieux d’étoiles avec d’importantes
fois plus grandes que celles à la surface du taches chromosphériques a permis de déceler
Soleil). La technique la plus simple, l’imagerie certains cycles stellaires similaires à celui de
Doppler, implique la mesure de légères varia- notre Soleil, mais également des cycles com-
tions d’éclat et de couleur des étoiles au cours plétement différents. Par exemple, les étoiles
de leur rotation. Dans le cas d’étoiles binaires variables de la classe RS Canum Venaticorum
à éclipse ou d’étoiles avec transits d’exopla- présentent un cycle dans lequel l’activité
nètes (voir pages 94 et 98), des approches passe sans cesse d’un hémisphère à l’autre.

au-dessus de la photosphère. Les études qui s’ensuivirent montrèrent que de


tels événements sont liés au cycle des taches solaires : ils émanent d’ailleurs des
mêmes régions du Soleil (voir l’encadré ci-dessus).

Une explication magnétique En 1908, l’astronome américain George


Hale établit le fait que les taches solaires sont des zones de champ magnétique
intense. Cette découverte, s’ajoutant à celle de la rotation différentielle par
Carrington, fut un élément clé pour expliquer le cycle solaire. Si l’intérieur fluide
du Soleil est incapable de susciter un champ magnétique permanent, une couche
interne tourbillonnante d’ions hydrogène électriquement chargés génère un
champ transitoire. En début de cycle, un tel champ s’étend de manière uniforme
entre les pôles nord et sud sous la surface du Soleil, mais au fil des rotations, le
champ tend à s’enrouler autour de l’équateur solaire. L’enchevêtrement des lignes
de force du champ magnétique fait sortir des boucles magnétiques hors de la
photosphère, créant ainsi des zones de plus basse densité qui contribuent à faire
disparaître le mécanisme de transport de chaleur par convection (voir page 71).
Par conséquent, la température est plus basse aux extrémités de ces boucles
coronales, et le gaz visible y est plus sombre qu’alentour, formant ainsi une tache
Notre Soleil, une étoile en gros plan 55

solaire. En début de cycle, les boucles magnétiques sortent du Soleil à des latitudes
assez élevées, mais le cycle se poursuivant, le champ s’enchevêtre de plus en plus,
la quantité de boucles s’accroît, ces dernières étant peu à peu entraînées vers
l’équateur, ce qui correspond à un maximum d’activité solaire. C’est également
le maximum du nombre des éruptions solaires. Ces dernières sont suscitées par
le court-circuitage des boucles de champ magnétique au voisinage de la surface
du Soleil, relâchant une énorme quantité d’énergie magnétique, échauffant le
gaz environnant à des températures extrêmes, se projetant au travers du Système
solaire et transportant des enchevêtrements de champ magnétique.

Finalement, les taches solaires se rapprochant de l’équateur, les polarités oppo-


sées des champs enchevêtrés commencent toutefois à s’annuler. Le nombre de
boucles magnétiques diminue jusqu’au point où l’ensemble du champ magné-
tique disparaît vraiment. C’est alors la fin du cycle des taches solaires, au bout
d’environ 11 ans, mais le cycle magnétique complet du Soleil n’en est qu’à mi-
parcours : un nouveau champ magnétique uniforme est promptement rétabli
sous la surface, et cette fois, sa polarité nord-sud est inversée. La totalité du
processus se répète à nouveau, le Soleil ne retrouvant sa configuration magné-
tique initiale qu’au bout de 22 ans.

1. Début de cycle 2. Rotation différentielle 3. Champ enchevêtré Au début d’un cycle


solaire (1), un champ
magnétique faible
s’établit d’un pôle
à l’autre sous la surface
du Soleil. Dès que le
cycle évolue, la rotation
différentielle commence
à étirer le champ
magnétique vers
l’équateur (2). Puis,
le cycle se poursuivant,
le champ devient plus
enchevêtré (3) et des
boucles magnétiques
provoquent taches
et éruptions solaires.

L’idée clé
Le magnétisme changeant
du Soleil peut produire
des effets spectaculaires
56 50 clés pour comprendre l’Univers

14 M
 esurer
les étoiles
Même un simple coup d’œil sur le ciel nocturne révèle des disparités au
sein des étoiles – d’éclat et de couleur, notamment. Comprendre comment
ces différences d’aspect reflètent des particularités physiques permet de
montrer que les étoiles sont encore plus diverses que ce que pourrait
suggérer leur apparence.

Depuis la nuit des temps, les astronomes se sont efforcés de mesurer et de cata-
loguer les inégalités d’éclats flagrantes entre les étoiles. Vers 129 avant notre ère,
l’astronome grec Hipparque classait les étoiles en six magnitudes, des plus bril-
lantes, comme Sirius, de première magnitude, aux plus ténues, encore visibles
à l’œil nu, de sixième magnitude. L’avènement des lunettes et télescopes ayant
aussitôt mené à la découverte d’innombrables étoiles d’éclats encore plus faibles,
l’échelonnement fut étendu à des magnitudes plus grandes et ne fut appliqué
avec une véritable rigueur scientifique qu’en 1856 par Norman Pogson à l’obser-
vatoire de Madras, aujourd’hui Chennai, en Inde (voir l’encadré page suivante).

Distance et luminosité Les disparités des magnitudes « apparentes » des


étoiles résultent-elles d’écarts de leur luminosité intrinsèque, de leur distance à la
Terre, ou d’un mélange des deux ? William Herschel, dans sa première tentative
de cartographier la Voie lactée (voir page 136), avait supposé à tort que les étoiles
étaient toutes plus ou moins du même éclat ; leur magnitude était donc une
estimation de leur distance à la Terre. La question demeura sans réponse jusqu’en
1838, date à laquelle l’astronome allemand Friedrich Bessel parvint à mesurer
la distance d’une des étoiles les plus proches, une paire d’étoiles dénommée 61
du Cygne, en utilisant la méthode de la parallaxe (voir l’encadré page 58) : elle
s’avéra se trouver à environ 100 millions de millions de kilomètres de la Terre, une
distance si grande qu’il est plus utile de s’y référer en termes de laps de temps que
la lumière met pour nous atteindre, en l’occurrence 10,3 années-lumière. À cette
distance, les magnitudes des deux étoiles de la paire – 5,02 et 6,05 – signifiaient
que leurs luminosités valaient respectivement 1/6e et 1/11e de celle du Soleil.

chronologie
1827 1838 1856
Félix Savary calcule l’orbite Bessel parvient à mesurer Pogson normalise l’échelle
de l’étoile binaire Xi la distance de 61 du Cygne des magnitudes apparentes
de la Grande Ourse, clé de la en utilisant la méthode utilisée pour mesurer
détermination de sa masse. de la parallaxe. l’éclat des étoiles.
Mesurer les étoiles 57

Le système moderne de magnitude


Grâce à de minutieuses comparaisons entre sous le nom de rapport de Pogson). Ayant
étoiles, l’astronome du xixe siècle Norman établi que la magnitude de l’étoile Polaire
Pogson, remarquant qu’une étoile de pre- valait exactement 2,0, Pogson constata que
mière magnitude est environ 100 fois plus la magnitude des étoiles les plus brillantes
brillante qu’une étoile de sixième magni- s’avérait négative (c’est ainsi que la magni-
tude, proposa de normaliser ce rapport de tude de Sirius vaut officiellement – 1,46).
telle manière qu’une différence d’exactement Depuis l’époque de Pogson, les astronomes
six magnitudes corresponde à une différence se sont rendu compte que l’étoile Polaire était
d’éclat d’un facteur 100 (une différence d’une très légèrement variable ; l’étoile de référence
magnitude correspond donc à une différence est donc maintenant Véga (alpha de la Lyre),
d’éclat d’un facteur 2,512, un nombre connu définie comme étant de magnitude 0,0.

À la fin du xixe siècle, des progrès techniques ayant permis de mesurer directe-
ment plus de distances stellaires, les astronomes prirent rapidement conscience de
l’extrême diversité des étoiles en termes d’éclat. Sirius, par exemple, se tient à notre
porte cosmique, à une distance de 8,6 années-lumière à peine, et s’avère environ
25 fois plus lumineuse que le Soleil. Canope, la deuxième étoile la plus brillante du
ciel, se trouve à une distance estimée à 310 années-lumière (trop éloignée pour une
mesure de distance par la méthode de la parallaxe jusqu’à une époque récente) et
doit donc afficher un éclat 15 000 fois plus grand que celui du Soleil.
Cependant, même sans mesure directe de distance, les astronomes peuvent
parfois prendre un raccourci pour estimer les luminosités relatives des étoiles.
Ils se basent ainsi sur la présomption que les étoiles des amas stellaires serrés
– comme celui des Pléiades dans la constellation du Taureau (dont les étoiles
sont trop étroitement assemblées pour qu’il s’agisse d’un regroupement dû à
un hasard statistique) – sont bien toutes à la même distance de notre Système
solaire. Toute différence de magnitude apparente traduit donc une différence
en magnitude « absolue », autrement dit en luminosité.

Couleur, température et taille Mais il n’y a pas que la luminosité. La


couleur est également une caractéristique importante des étoiles. Ces dernières
ont un vaste éventail de teintes, du rouge et de l’orange jusqu’au bleu, en
passant par le jaune et le blanc (bien que, curieusement, seule une étoile dans le
ciel soit reconnue comme verte). Il existe un rapport intuitif entre ces couleurs

1869 1989 à 1993


Gustav Kirchhoff évalue La mission Hipparcos de l’Agence
quantitativement le rapport spatiale européenne réalise
entre couleur et température le premier grand relevé
de surface des étoiles. de parallaxes depuis l’espace.
58 50 clés pour comprendre l’Univers

La méthode de la parallaxe
Le seul moyen direct pour mesurer la distance d’une étoile est Changement
l’effet de parallaxe, c’est-à-dire le changement de la position de
position
angulaire d’un objet proche par rapport à un fond plus éloigné par rapport
dès lors que le point de vue de l’observateur se modifie. À partir aux étoiles
lointaines Étoile
du moment où les astronomes ont compris que la Terre tour-
proche
nait autour du Soleil et qu’ils avaient bien évalué l’échelle du
Système solaire, le déplacement de la Terre entre deux positions
opposées de son orbite autour du Soleil (environ 300 millions
de kilomètres) fournissait une base de référence idéale pour une
mesure de ce type, même si seules les étoiles les plus proches
présentaient une parallaxe mesurable avec les techniques du
xixe siècle. Les étoiles-cibles potentielles avaient été choisies sur
la base de leurs grands mouvements propres, autrement dit leurs
grands déplacements sur la voûte céleste (voir page 65). Il n’en « Base de
fallut pas moins des années d’effort à Friedrich Bessel pour effec- référence »
entre deux
tuer sa mesure de la parallaxe de 61 du Cygne – 0,313 seconde positions
d’arc, soit 1,11005 centième de degré. De nos jours, des satel- opposées de
lites – comme Gaia de l’Agence spatiale européenne – peuvent l’orbite de la Terre
autour du Soleil
mesurer des angles 50 000 fois plus petits.

et celles que rayonne, par exemple, une barre de fer chauffée dans un four, mais
ce n’est qu’en 1869 que Gustav Kirchhoff théorisa le rapport entre température
et couleur d’ensemble. Il détermina une courbe de radiation caractéristique
qui exprime la quantité de rayonnement de différentes longueurs d’onde et
couleurs émis par un « corps noir » porté à une température donnée (un corps
noir est un objet hypothétique qui absorbe parfaitement la lumière, mais il
se trouve que les étoiles se comportent de manière très semblable). Kirchhoff
découvrit que plus un objet est chaud, plus son rayonnement d’ensemble tire
vers le bleu. Avec le développement de la spectroscopie stellaire au tournant
du xxe siècle (voir page 60), il devint possible d’estimer la température de
surface effective d’une étoile à partir de sa couleur. Ce nouvel outil s’avéra des
plus efficaces dans la mesure où il permit aux astronomes d’estimer, pour la
première fois, la taille des étoiles.

La marche à suivre pour cette estimation n’est pas très compliquée : on calcule
d’abord la puissance nécessaire pour porter à la température mesurée un mètre
carré de la surface de l’étoile (en utilisant une relation assez simple, la loi de Stefan-
Boltzmann). Puis on évalue la puissance totale rayonnée par l’étoile, autrement dit
Mesurer les étoiles 59

sa luminosité (en comparant sa distance et sa magnitude apparente). On calcule

«
ainsi facilement la surface de l’étoile qui est elle-même fonction de son diamètre.
Pour donner un exemple concret, une étoile jaune
assez petite, comme le Soleil, a une température Cette réussite
moyenne de 5 800 °C, résultant du chauffage de sa a été l’objet des plus
surface par la puissance (d’une luminosité solaire)
hautes aspirations

»
qu’elle relâche. Par contraste, l’étoile jaune instable
rho Cassiopeiæ passe par des phases durant les- de chaque
quelles sa température de surface est similaire à celle astronome…
du Soleil, bien qu’elle soit un incroyable demi-mil- John Herschel,
lion de fois plus lumineuse (comme l’implique sa
distance de 8 200 années-lumière et sa magnitude
à propos de la mesure de la ­parallaxe
apparente de 6,2). Dans ces conditions, son diamètre stellaire par Bessel
doit être environ 500 fois celui du Soleil. C’est en
fait une supergéante jaune (voir chapitre 29), une étoile si grande que, placée
au centre de notre Système solaire, elle s’étendrait au-delà de l’orbite de Mars.

Peser les étoiles La dernière caractéristique clé d’une étoile est sa masse.
Mais comment pouvons-nous peser une étoile ? Jusqu’à une période très récente,
le seul moyen de mesurer directement des masses stellaires a été de calculer
l’orbite de systèmes binaires (voir page 95). Dans de tels systèmes, les étoiles sont
en orbite autour de leur centre de gravité commun, autrement dit leur barycentre,
à une distance moyenne qui dépend de leurs masses relatives (la plus massive se
tenant plus près du barycentre). Dès 1827, le mathématicien et astronome français
Félix Savary calcula de cette manière la première orbite d’un système binaire. En
associant des données portant sur les binaires spectroscopiques et sur des mesures
de parallaxe, il est possible de trouver des paramètres plus détaillés concernant les
orbites de certaines binaires. On peut alors calculer soit des masses exactes, soit
une fourchette de masses, mais même la seule connaissance des masses relatives
s’est avérée très précieuse pour comprendre l’évolution des étoiles (voir page 76).

L’idée clé
La couleur et l’éclat
d’une étoile révèlent
sa distance et sa taille
60 50 clés pour comprendre l’Univers

15 L a chimie stellaire
La spectroscopie est un procédé permettant de découvrir les constituants
chimiques des matériaux à partir de la lumière qu’ils émettent. Elle a un très
grand nombre d’applications en chimie et en physique, mais elle est d’une
importance toute particulière en astronomie, la lumière que produisent les
objets distants étant généralement notre seul moyen de les étudier.

En 1835, Auguste Comte déclarait : « nous ne saurons jamais étudier, par aucun
moyen, la composition chimique des étoiles ». Quelques décennies plus tard,
cette prédiction s’avéra tout à fait erronée, mais il serait injuste de critiquer le
manque de clairvoyance du philosophe français : bien d’autres négligèrent des
indices découverts plus de 20 ans auparavant.

En effet, dès 1814, l’opticien allemand Joseph von Fraunhofer publia en détail
les découvertes faites avec ses nouvelles inventions en matière d’optique : le
spectroscope et le réseau de diffraction. Les deux instruments permettaient
d’étudier le spectre de la lumière solaire de manière bien plus précise qu’en la
décomposant avec un simple prisme de verre. Fraunhofer se rendit compte que
le spectre solaire, loin d’être l’étalement continu des couleurs de l’arc-en-ciel
identifié par Isaac Newton plus d’un siècle auparavant, était en réalité par-
semé d’étroites raies sombres, comme si des substances inconnues bloquaient
la lumière correspondant à certaines couleurs. Fraunhofer recensa quelque
574 raies dans le spectre solaire. Il trouva même des raies sombres dans le
spectre d’étoiles brillantes comme Sirius, Bételgeuse et Pollux, et montra aussi
que certaines raies des spectres stellaires correspondaient à celles du spectre
solaire, tandis que d’autres étaient différentes.

L’empreinte des éléments L’origine de ces raies de Fraunhofer


demeura inconnue jusqu’en 1859, date à laquelle Gustav Kirchhoff et Robert
Bunsen les associèrent aux atomes de l’atmosphère solaire. Les deux chimistes
allemands avaient utilisé le spectroscope pour disséquer les couleurs des
lumières produites quand des substances diverses brûlent dans une flamme, et
constaté que ces lumières avaient tendance à être un mélange d’un très petit

chronologie
1814 1842 1848 1859
Fraunhofer Doppler décrit le décalage Hippolyte Fizeau suggère Kirchhoff et Bunsen
découvre des raies en longueur d’onde de la que l’effet Doppler établissent le lien
sombres dans lumière dû au mouvement se manifestera le plus entre raies spectrales
le spectre solaire. relatif de la source et clairement par le décalage et présence de certains
de l’observateur. des raies spectrales. éléments.
La chimie stellaire 61

nombre de couleurs spécifiques, et que chaque élément produisait un spectre


exclusif de raies brillantes. Réalisant que les couleurs des raies lumineuses
émises lors de la combustion d’éléments chimiques coïncidaient avec les
plages de couleurs du spectre solaire où apparaissaient des raies sombres, ils en
conclurent que ces dernières étaient dues à l’absorption de la lumière par ces
mêmes éléments.

L’origine de ce que l’on appelle aujourd’hui spectres d’absorption et d’émission


ne fut comprise qu’au début du xxe siècle, lorsque le physicien danois Niels Bohr
décrivit comment ces derniers découlaient de la configuration des électrons
entre différents niveaux d’énergie au sein d’un atome. Quand ils sont bom-
bardés par une vaste gamme de lumière (un spectre continu), comme le rayon-
nement de corps noir émis par la surface d’une étoile (voir page 58), les électrons
absorbent les fréquences spécifiques qui leur permettent de sauter rapidement
à des niveaux d’énergie supérieure. Chaque élément possédant une configura-
tion d’électrons qui lui est propre, il crée un motif unique de raies d’absorption.
Quant aux spectres d’émission, ils sont produits lorsqu’un électron qui se trouve
à un niveau d’énergie élevé retourne à un niveau inférieur plus stable en aban-
donnant son excès d’énergie sous la forme d’un petit paquet de lumière (un
photon) avec sa propre longueur d’onde et, par conséquent, sa propre couleur.

Dans la foulée de la découverte de Kirchhoff et Bunsen, les astronomes reprirent


l’examen des raies de Fraunhofer et réussirent à les associer à des éléments
présents dans les couches externes du Soleil tels que l’hydrogène, l’oxygène,
le sodium et le magnésium. En 1868, l’astronome français Jules Janssen et le
Britannique Norman Lockyer identifièrent indépendamment dans le spectre
solaire des raies qu’ils ne pouvaient pas associer à des éléments connus. Lockyer

Source de lumière Nuage de gaz ou Prisme/spectroscope Spectre dispersé avec raies d’absorption
continue (une étoile atmosphère stellaire
par exemple) intervenant

1866 1868 1890 1913


Secchi élabore Huggins utilise le décalage Publication de Bohr explique comment,
le premier système de Doppler des raies la première édition dans un atome, le passage
classification stellaire spectrales pour estimer du catalogue d’un niveau d’énergie
basé sur les raies la vitesse de déplacement Henry Draper. à un autre fait apparaître
spectrales. d’étoiles loin de la Terre. une raie spectrale.
62 50 clés pour comprendre l’Univers

L’effet Doppler
La présence de raies d’absorption dans la beaucoup plus faible que ce qu’il avait prévu
lumière des étoiles fournit un ensemble pra- (sauf dans des circonstances extrêmes, voir
tique de marqueurs pour mesurer le mou- page 160). L’effet Doppler, attesté dans le
vement des étoiles grâce à l’effet Doppler. Il cas des ondes sonores en 1845, n’est donc
s’agit d’un décalage, en fréquence et en lon- pas l’explication de la couleur des étoiles. Il
gueur d’onde, des ondes atteignant un obser- n’en reste pas moins que les « décalages vers
vateur en fonction du mouvement de la source le rouge » (redshift) et les « décalages vers le
de ces mêmes ondes. En 1842, le physicien bleu » (blueshift) des raies d’absorption par
autrichien Christian Doppler fut le premier à rapport aux positions attendues peuvent être
proposer un tel décalage dans l’espoir d’ex- utilisés pour mesurer avec précision la vitesse
pliquer les différentes couleurs des étoiles : la d’un objet qui s’éloigne ou qui s’approche de
lumière de celles s’approchant de nous aurait la Terre. William Huggins fut parmi les pre-
une plus haute fréquence et une plus courte miers à essayer d’utiliser ce procédé dans le
longueur d’onde, elle serait donc plus bleue, cas des étoiles, mais ce sont Angelo Secchi et
tandis que la lumière des étoiles s’éloignant l’astronome allemand Herman Vogel qui, au
de nous aurait une plus basse fréquence, une cours des années 1870, utilisèrent avec succès
plus grande longueur d’onde, elle serait alors le décalage Doppler des raies d’absorption
plus rouge. Hélas pour Doppler, la très grande dans la lumière provenant de différentes par-
vitesse de la lumière faisait qu’un tel effet était ties du Soleil pour en démontrer la rotation.

en conclut que le Soleil contenait un élément important encore inconnu sur


Terre et le nomma hélium, d’après Hélios, le dieu grec du Soleil.

Classification spectrale D’autres astronomes s’intéressèrent aux


spectres des étoiles, les deux plus productifs en la matière étant William Huggins
à Londres, et Angelo Secchi à Rome. Secchi développa un système minimal de
classification en retenant quatre grandes classes d’étoiles : les étoiles avec des
spectres semblables à celui du Soleil, les étoiles bleues ou blanches avec des
spectres comme celui de Sirius, les étoiles rouges avec des raies d’absorption
larges comme Bételgeuse, et les soi-disant étoiles carbonées (également de
couleur rouge, mais avec de fortes raies d’absorption du carbone).

Pendant ce temps, Huggins fut le premier à se rendre compte que la lumière


rayonnée par ces objets diffus, connus sous le nom de nébuleuses, se composait
uniquement de quelques raies d’émission spécifiques. Il en conclut à juste titre
que les nébuleuses étaient d’énormes nuages de gaz chauds gavés d’énergie.
Pionnier de l’astrophotographie, Huggins créa certains des premiers catalogues
photographiques complets de spectres stellaires. Ses travaux furent toutefois
La chimie stellaire 63

éclipsés par l’œuvre – et plus tard par l’héritage –


du médecin américain Henry Draper, un astro-
nome amateur qui fut le premier à photographier
le spectre d’une étoile et d’une nébuleuse, avant de
« La voie est
ouverte pour
la détermination
succomber en 1882 à une pleurésie, âgé d’à peine de la composition
45 ans. En 1886, sa veuve, Mary Anna, fit des dons chimique du

»
d’argent et d’équipements à l’observatoire de l’uni-
versité Harvard pour financer le projet le plus ambi-
Soleil et des étoiles
tieux de l’époque en matière d’astronomie : établir fixes.
un catalogue photographique de grande ampleur Robert Bunsen
de spectres stellaires. Il fallut près de quatre décen-
nies pour achever le catalogue Henry Draper, fort en définitive des spectres de
plus de 225 000 étoiles.

Edward Pickering, le directeur de l’observatoire, fut l’élément moteur du cata-


logue, mais le plus gros du travail fut mené par un groupe de femmes connues
comme les calculatrices de Harvard. Les motivations de Pickering pour recruter
un groupe féminin reposaient en partie sur des raisons budgétaires : les femmes
étant prêtes à travailler pour un salaire inférieur, il pourrait constituer une plus
grande équipe pour analyser l’énorme quantité de données produite par son
relevé photographique. Elles furent toutefois nombreuses à faire preuve d’un
indéniable talent scientifique, et certaines d’entre elles furent à l’origine de plu-
sieurs grandes avancées dans notre compréhension des propriétés des étoiles.

La première recrue de Pickering fut Williamina Fleming, son ancienne domes-


tique, d’origine écossaise. Elle mena la majeure partie des tâches initiales de
catalogage en partant du système de classification de Secchi qu’elle approfondit
en assignant à chaque étoile une lettre de A à N, en fonction de la vigueur des
raies de l’hydrogène dans son spectre (avec O, P et Q pour les astres à spectre
atypique). Cette méthode de classification, utilisée dans le premier catalogue
Henry Draper publié en 1890, connut plusieurs évolutions majeures avant de
devenir celle que nous utilisons aujourd’hui.

L’idée clé
La lumière des étoiles
porte l’empreinte de leur
composition chimique
64 50 clés pour comprendre l’Univers

16 L e diagramme
de Hertzsprung-
Russell
L’avancée la plus importante dans la compréhension des cycles de l’évolution
stellaire eut lieu au début du xxe siècle, lorsque les astronomes mirent en
regard la luminosité des étoiles avec leurs types spectraux qui venaient d’être
catalogués. Le graphique de propriétés stellaires obtenu, le diagramme de
Hertzsprung-Russell (H-R), changea l’astronomie à jamais.

Le premier fruit du projet de recherche d’Edward Pickering à l’observatoire de


l’université Harvard fut le catalogue des spectres stellaires Henry Draper, publié en
1890. Compilé principalement par Williamina Fleming, il contenait les spectres
de quelque 10 351 étoiles brillantes. Tout en œuvrant pour ajouter plus d’étoiles
au catalogue principal, Pickering et son équipe exclusivement féminine de « cal-
culatrices » examinèrent en détail quelques-uns des spectres les plus brillants.

Le système de Maury Antonia Maury, nièce d’Henry Draper, était


l’une des plus douées des calculatrices de Harvard. Elle remarqua d’abord, dans
les spectres des étoiles les plus brillantes, d’importants éléments qui avaient
été négligés dans la classification purement alphabétique de Fleming. Non
seulement les raies spectrales changeaient d’une étoile à l’autre (révélant la
diversité des éléments chimiques présents dans leur atmosphère), mais en plus,
l’intensité et la largeur des raies variaient entre les étoiles dont les propriétés
chimiques étaient identiques en apparence. Persuadée que la largeur des
raies révélait un trait fondamental de la nature des étoiles, Maury proposa
une réorganisation des types spectraux pour en tenir compte. Toutefois,
Pickering et Fleming ayant estimé que ce nouveau système de classification
était trop complexe, Maury quitta finalement le projet. Malgré les demandes de

chronologie
1890 Années 1890 1901
Publication de Maury lance une classification Cannon élabore la version finale du
la première édition du des étoiles basée sur la largeur système de classification de Harvard
catalogue Henry Draper. des raies spectrales. des différents types spectraux.
Le diagramme de Hertzsprung-Russell 65

Pickering, elle refusa d’abandonner son travail sur les largeurs des raies et espéra
une reconnaissance officielle lorsque son catalogue de quelque 600 étoiles fut
finalement publié en 1897.

Les idées de Maury, dont Pickering continua à minimiser l’importance, ne man-


quèrent pas d’influencer celle qui lui succéda. Annie Cannon avait rejoint le
groupe de Harvard pour s’occuper des étoiles de l’hémisphère sud, désormais
ajoutées au catalogue. Elle développa son propre système de classification qui
combinait la simplicité du système alphabétique de Fleming avec la méthode
de Maury pour les largeurs des raies spectrales. L’abandon de plusieurs lettres et
leur réorganisation pour refléter l’enchaînement des couleurs du spectre du bleu

«
au rouge aboutissent à la succession des types spectraux O, B, A, F, G, K et M.

Les spectres sont la clé Quelques années


plus tard, l’astronome danois Ejnar Hertzsprung La classification
s’intéressa à nouveau au problème des variations des étoiles a
des largeurs de raie. Il utilisa une ingénieuse règle nettement profité
empirique pour estimer la distance, et donc l’éclat à toutes les études
absolu, d’étoiles dont la distance ne pouvait portant sur la

»
pas être mesurée par la méthode de la parallaxe.
Il soutint qu’en règle générale, les étoiles plus
structure de
distantes auraient un plus petit mouvement propre l’Univers.
(les déplacements d’année en année sur la voûte Annie Jump Cannon
céleste dus aux mouvements relatifs d’une étoile et
du Système solaire). Le mouvement propre pourrait ainsi être utilisé comme
une mesure grossière de distance par procuration : si deux étoiles étaient d’une
même magnitude apparente, on pourrait présumer que celle avec le plus petit
mouvement propre était plus éloignée, et donc d’une plus grande luminosité.

Fort de cette méthode, Hertzsprung détermina une partition globale entre


étoiles de mêmes couleurs en séparant les géantes lumineuses des naines plus
ténues, bien plus nombreuses et à l’extrémité la plus froide du spectre. Il décou-
vrit ainsi que les étoiles avec des raies spectrales étroites étaient plus lumineuses
que celles avec des raies larges, et appuya cette hypothèse en calculant à grand-
peine la distance de plusieurs groupes d’étoiles (la raison de ces différences entre
largeurs de raies est devenue évidente quelques années plus tard ; voir page 119).

En 1911, Hertzsprung publia un graphique comparant les caractéristiques spec-


trales des étoiles dans l’amas des Pléiades (à titre de substitut de leurs tempé-
ratures de surface et du type spectral d’Annie Cannon) avec leurs ­magnitudes

1908 1911 1913


Hertzsprung fait le lien entre Hertzsprung publie dans sa forme Russell produit le premier
variations de largeur de raie de Maury la plus basique le diagramme H-R diagramme H-R incluant toute
et luminosité intrinsèque des étoiles. des étoiles de l’amas des Pléiades. la diversité des étoiles.
66 50 clés pour comprendre l’Univers

Supergéantes apparentes (homolo-


Brillante gues en l’occurrence
des magnitudes
absolues, puisque
toutes les étoiles
de l’amas sont à la
même distance).
LUMINOSITÉ

Quoique nécessai-
Géantes rouges rement limité car
les étoiles impli-
quées sont large-
Séquence principale
ment similaires, le
diagramme montre
une tendance sans
Ténue
Naines blanches équivoque : plus une
étoile est lumineuse,
O B A F G K M
Bleu TYPE SPECTRAL Rouge plus sa température
de surface est élevée.

L’essor du diagramme Au cours des deux années suivantes, Henry


Norris Russell, de l’université de Princeton, prolongea les travaux de Hertzsprung
avec un diagramme basé sur le même principe mais bien plus ambitieux. Le
diagramme de Russell offrait un éventail d’étoiles bien plus large, incluant
celles de l’amas des Hyades (un groupe plus vieux et plus diversifié), ainsi que
celles dont la luminosité pouvait être déterminée par des mesures de parallaxe.
Il compara des types spectraux pour estimer des magnitudes absolues, révélant
pour la première fois quelques structures essentielles.

La grande majorité des étoiles peuple une bande qui s’étire en diagonale de
la zone des astres rouges et froids jusqu’à celle des astres bleus et très chauds.
Cette bande, qu’Hertzsprung avait déjà identifiée, englobait la totalité des étoiles
naines et fut désignée du nom de séquence principale. Bien moins nombreuses,
les étoiles géantes et supergéantes s’éparpillaient dans la partie supérieure du
diagramme à toutes couleurs et à toutes températures, avec, se détachant de la
séquence principale, une concentration de géantes lumineuses rouges et oranges.

Le diagramme de Hertzsprung-Russell fut des plus influents, et les astronomes


continuèrent à l’enrichir durant les deux décennies suivantes. Les points repré-
sentatifs de certains types d’étoiles variables (voir page 112) se retrouvaient
systématiquement dans des zones précises du graphique, tandis que les astro-
nomes découvraient de nouveaux types d’étoiles qui comblaient les vides (voir
page 124). Le fait qu’un nombre écrasant d’étoiles se retrouvent sur la séquence
principale indiquait que les étoiles passent l’essentiel de leur évolution dans
Le diagramme de Hertzsprung-Russell 67

Le diagramme H-R et la question


des distances
L’établissement du diagramme H-R a permis diagramme qui devrait montrer les mêmes
d’obtenir une idée approximative de la lumi- traits caractéristiques de la séquence princi-
nosité intrinsèque des étoiles (et donc de leur pale que le diagramme H-R portant sur l’en-
distance) uniquement à partir de leurs pro- semble des étoiles. Trouver la différence entre
priétés spectrales. Mais la séquence principale luminosité observée et luminosité intrinsèque
ainsi que les autres branches du diagramme revient alors à estimer le décalage entre les
peuvent être si étendues que déduire la deux graphiques. Comme beaucoup d’étoiles
luminosité d’une étoile donnée à partir de sont impliquées, ce décalage peut être déter-
son seul type spectral implique toujours une miné avec une grande précision.
certaine dose d’estimation. Heureusement, Bien sûr, comme dans la plupart des tech-
le diagramme H-R permet aussi une mesure niques astronomiques, des complications ne
bien plus précise de la distance des amas manquent pas d’apparaître. Par exemple, la
stellaires, une technique connue sous le nom teneur en éléments lourds des étoiles d’un
d’ajustement de la séquence principale. amas peut affecter quelque peu leur réparti-
Dans la mesure où les étoiles d’un même tion. D’autre part, plus un amas évolue dans
amas stellaire sont toutes bel et bien à la le temps, plus ses étoiles les plus massives
même distance de la Terre, toute diffé- commencent à quitter la séquence princi-
rence de leur magnitude apparente est le pale ; il est alors important de localiser avec
reflet direct de différence de leur magnitude précision sur le graphique les étoiles de l’amas
absolue. Il devient alors possible de tracer le qui relèvent vraiment de la séquence princi-
diagramme H-R d’un amas stellaire donné, pale et d’en exclure toutes les suspectes.

cette zone. Toute la démarche pourrait aussi être inversée : l’analyse appro-
fondie du spectre d’une étoile peut lui assigner un emplacement précis sur le
diagramme, ce qui permet non seulement d’estimer le type spectral et la tem-
pérature de surface de l’étoile en question, mais fournit aussi une idée approxi-
mative de sa luminosité intrinsèque et donc de sa distance à la Terre.

L’idée clé
Comparer couleur et éclat
révèle les secrets des étoiles
68 50 clés pour comprendre l’Univers

17 L a structure
des étoiles
Connaître la structure interne des étoiles est un facteur clé pour expliquer
leurs différences. Les astrophysiciens n’ont toutefois commencé à se rendre
compte de leur diversité qu’au début du xxe siècle, avec la mise au point du
diagramme de Hertzsprung-Russell.

Curieusement, en dépit des avancées en spectroscopie stellaire au tournant


du xxe siècle, les astronomes n’avaient que peu de connaissances sur la com-
position interne des étoiles. Ils supposaient alors que les raies spectrales ne
fournissaient des données que sur les constituants de l’atmosphère, laissant
sans réponse les interrogations sur ce qui pouvait bien se cacher sous la pho-
tosphère. L’astronome anglais Arthur Eddington avait pourtant montré qu’il
était possible de bâtir un modèle sophistiqué des intérieurs stellaires sans faire
précisément référence aux éléments présents. En 1919, Eddington acquit une
réputation internationale en apportant une preuve expérimentale de la théorie
de la relativité générale d’Albert Einstein (voir page 191). Il avait également
étudié la structure des étoiles et, en 1926, il publia son livre très influent intitulé
The Internal Constitution of Stars (la constitution interne des étoiles, en français).

Couches en équilibre L’approche d’Eddington, basée sur le fait que les


températures à l’intérieur du Soleil étaient certainement suffisamment élevées
pour faire fondre n’importe quel élément, a été de traiter l’intérieur d’une étoile
comme un fluide, pris entre la gravité qui l’attire vers l’intérieur et sa propre
pression qui le pousse vers l’extérieur. Des astronomes, comme l’Allemand
Karl Schwarzschild, s’étaient déjà penchés sur cette hypothèse dans le cadre
de modèles supposant que la pression qui s’exerçait vers l’extérieur était due
dans sa totalité à des facteurs thermiques, mais ils n’avaient rencontré qu’un
succès mitigé. Eddington, en revanche, estima qu’à l’instar de la pression d’un
gaz suscitée par des atomes surchauffés, porteurs d’une très grande quantité
d’énergie cinétique et ricochant alentour, un autre effet, la pression de radiation,

chronologie
1906 1925 1926
Schwarzschild étudie dans une étoile Cecilia Payne L’ouvrage d’Eddington intitulé
l’équilibre entre les forces de pression soutient que le The Internal Constitution of Stars
dues à des facteurs thermiques qui Soleil est surtout introduit l’idée d’une pression
s’exercent vers l’extérieur et les forces fait d’hydrogène. de radiation s’exerçant vers
de gravité qui s’exercent vers l’intérieur. l’extérieur à partir du noyau.
La structure des étoiles 69

avait aussi un rôle à jouer. D’après sa théorie, un


rayonnement était produit au cœur de l’étoile (et
non pas en totalité à sa surface, comme la plupart
des astronomes le croyaient alors). Ce dernier
« À première vue,
il semblerait que
les zones les plus
exerçait de lui-même une pression considérable internes du Soleil
dans la mesure où, à l’intérieur de l’étoile, ses et des étoiles sont
photons interagissaient à toutes profondeurs avec
les particules individuelles du milieu stellaire.
moins accessibles
à l’exploration
que n’importe

»
Eddington, contraint de mettre en œuvre une
grande part de sa théorie en partant des principes quelle autre région
de base, arriva à la conclusion que les étoiles ne
pouvaient rester stables que si l’énergie était pro-
de l’Univers.
duite uniquement dans le cœur, à des températures Arthur Eddington
de millions de degrés (bien plus élevées que celles
qui règnent à la surface des étoiles les plus chaudes). Il démontra aussi que,
grâce à la diminution du rayonnement à plus grande distance du cœur, chaque
couche donnée de l’étoile se maintenait en équilibre hydrostatique. En d’autres
termes, en un point donné à l’intérieur de l’étoile, pression de radiation et
pression thermique s’ajustaient pour contrebalancer les effets centripètes de la
force de gravité.

D’après Eddington, la structure interne des étoiles était régie par les change-
ments d’opacité de ses matériaux. Un autre astronome britannique, James
Jeans, avait auparavant soutenu qu’à des températures aussi élevées, les atomes
du milieu seraient totalement ionisés (dépouillés de leurs électrons et réduits
à l’état de simples noyaux atomiques). Eddington réalisa alors que différents
degrés d’ionisation (à différents niveaux de pression et températures à l’inté-
rieur de l’étoile) déterminaient si le milieu était opaque ou transparent. La
théorie d’Eddington des intérieurs stellaires s’avéra efficace en prédisant la
manière dont se comportaient les étoiles : elle apporta notamment une explica-
tion concernant les étoiles présentant des pulsations cycliques (voir page 112).

La percée de l’hydrogène Mettre de côté la question de la chimie


permit à Eddington de réfléchir utilement à la structure des étoiles de manière
tout à fait abstraite, mais il était indispensable d’apporter une réponse à
une telle question pour comprendre à la fois pourquoi les étoiles brillent et
pourquoi elles évoluent au cours du temps tout en changeant de structure
(voir page 76). Le hasard voulut qu’au moment où Eddington composait son

1930 1938 1975


Unsöld découvre que les Öpik se prononce contre l’hypothèse Gough propose d’utiliser
couches externes du Soleil généralement admise que les intérieurs l’héliosismologie pour sonder
forment une zone convective. stellaires sont parfaitement mélangés. la structure interne du Soleil.
70 50 clés pour comprendre l’Univers

Dans les étoiles Zone


de la séquence radiative
principale,
l’énergie est
transportée
du cœur jusqu’à
la surface par
convection ou
par radiation,
la profondeur
et la position
de ces différentes
zones de Étoile de moins de
transport variant 0,8 masse solaire
Étoile entre 0,8 et
en fonction 4 masses solaires
de la masse Cœur Zone
de l’étoile. convective
Étoile de plus de
4 masses solaires

ouvrage à Cambridge, Cecilia Payne rédigeait sa thèse de doctorat à Harvard,


dans laquelle elle effectuait une avancée décisive en associant la présence et
l’intensité de raies spectrales à la température de la photosphère d’une étoile.
Ce fut la clé qui permit de déterminer la composition élémentaire du Soleil.

L’intensité des raies spectrales avait jusqu’alors été considérée comme décou-
lant directement de l’abondance relative des éléments chimiques au sein de
l’atmosphère d’une étoile, mais Payne démontra qu’elle découlait avant tout,
en réalité, d’écarts de température. Elle estima ainsi que dans l’ensemble, les
proportions d’oxygène, de silicium et de carbone dans l’atmosphère du Soleil
étaient les mêmes que sur Terre, mais que notre étoile contenait une quantité
d’hélium, et surtout d’hydrogène, qui dépassait tout ce qu’on avait pu imaginer
auparavant. Payne en concluait que ces deux éléments étaient les principaux
constituants du Soleil et donc de toutes les étoiles. Plusieurs années furent tou-
tefois nécessaires pour que son idée soit largement admise.

Les zones de transport d’énergie En revanche, Eddington se


trompait en émettant l’hypothèse que l’intérieur d’une étoile était homogène,
avec la même composition élémentaire partout. Il estimait que la production
d’énergie dans la région centrale la plus surchauffée contribuait au brassage
de la totalité de l’étoile. Selon lui, des courants de convection transportaient
alors la matière plus chaude vers le haut, tandis que la matière plus froide
s’enfoncerait vers le bas, assurant ainsi un mélange complet de l’intérieur.

Ernst Öpik avança toutefois en 1938 une théorie selon laquelle la matière cir-
culant au cœur d’une étoile y demeure tout au long de son évolution. Le cœur
est enveloppé d’une vaste zone radiative où les rebonds des photons sur les par-
ticules du milieu créent d’énormes pressions. Dans les étoiles comme le Soleil,
cette zone radiative est elle-même couronnée d’une couche s­ upplémentaire
La structure des étoiles 71

d’un milieu convectif assez froid, dont l’existence fut établie en 1930 par
l’astrophysicien allemand Albrecht Unsöld. Ce changement de moyen de
transport d’énergie est dû à une transition où le milieu devient brusquement
opaque. Au sommet de cette couche, le Soleil devient à nouveau transparent,
mais les particules y sont bien moins densément comprimées, tant et si bien
que le rayonnement émis par le gaz qui remonte de l’intérieur peut tout sim-
plement s’échapper dans l’espace. C’est ainsi que se constitue cette surface
incandescente de l’étoile, ou photosphère, que nous observons depuis la Terre.

Héliosismologie
Le moyen le plus direct d’étudier la structure comme de simples effets de surface, jusqu’à
du Soleil ou de n’importe quelle étoile est de ce qu’un autre physicien solaire, l’Américain
tirer parti des ondes sonores qui les rident Roger Ulrich, suggère en 1970 qu’il s’agissait
en permanence. Ces ondes sismiques sont d’une structure permanente due à des ondes
du même type que celles qui provoquent oscillant de haut en bas à l’intérieur du Soleil.
les tremblements de terre sur notre planète. Quelques années plus tard, en 1975, Douglas
En 1962, des physiciens solaires de l’Institut Gough démontra comment les modes d’oscil-
de technologie de Californie qui utilisaient lation de type P pouvaient être utilisés pour
la spectroscopie pour étudier le Soleil ont sonder l’intérieur du Soleil. Selon la manière
découvert une structure oscillante de cellules, dont ces ondes P pouvaient influencer l’allure
chacune d’un diamètre d’environ 30 000 kilo- des structures oscillantes en surface, Gough
mètres, se décalant alternativement de haut en déduisit la présence de frontières à l’inté-
en bas avec une période de 5 minutes environ. rieur du Soleil, comme celle entre les zones
Ces cellules ont été longtemps considérées convectives et radiatives.

L’idée clé
Pression et gravité
s’équilibrent subtilement
à l’intérieur des étoiles
72 50 clés pour comprendre l’Univers

18 L a source d’énergie
des étoiles
Comprendre comment le Soleil et les autres étoiles produisaient chaleur
et lumière était l’une des plus vieilles énigmes de l’astronomie, et l’une
de celles dont la solution ne pouvait venir de la seule physique classique.
Les pièces du puzzle de l’énergie des étoiles ne se sont emboîtées qu’avec
l’avènement de la physique nucléaire, dans la première moitié du xxe siècle.

Les toutes premières théories qui tentaient d’expliquer le Soleil en tant qu’objet
physique présumaient que notre étoile n’était qu’une énorme boule faite de
charbon (ou de tout autre combustible) flambant joyeusement dans l’espace. Le
processus chimique de la combustion était alors méconnu, de même que l’ab-
sence d’oxygène dans l’espace, et il fallut attendre 1843 pour que le physicien
écossais John Waterston analyse correctement les implications d’une telle théorie.
Il démontra que si le Soleil devait briller avec son éclat actuel tout au long de son
histoire, il ne renfermerait pas assez de combustible pour brûler durant plus de
20 000 ans, même si les réactions chimiques impliquées étaient des plus efficaces.

Le pouvoir de la gravitation Les savants du xixe siècle n’avaient pas


la moindre idée de l’âge véritable de la Terre, mais les études géologiques et les
découvertes de fossiles commençant à démontrer qu’une existence datant de
plusieurs millions d’années était plus plausible que les quelques milliers d’années
déduits en général de la Bible, les scientifiques se mirent donc à la recherche d’un
nouveau mécanisme pour faire briller le Soleil. Waterston avait lui-même suggéré
qu’une grande quantité d’énergie pourrait être relâchée par une pluie de petites
météorites tombant en permanence à la surface du Soleil. Mais en 1854, le physicien
allemand Herman von Helmholtz proposa une théorie plus crédible en suggérant
que l’énergie du Soleil provenait de sa propre gravité, sous l’effet de laquelle il se
contractait peu à peu tout en s’échauffant. Remanié par le savant britannique Lord
Kelvin, un tel mécanisme, dit de « Kelvin-Helmholtz », ouvrait la possibilité pour le
Soleil de produire de l’énergie au niveau actuel pour plus de 100 millions d’années.

chronologie
1843 1854 De 1856 aux années 1890
Waterston démontre Helmholtz propose un Plusieurs estimations menées dans le cadre
que l’éclat du Soleil ne mécanisme, que Kelvin remaniera du mécanisme de Kelvin-Helmholtz placent
peut pas résulter d’une plus tard, qui permettrait aux la durée de vie du Soleil aux alentours
réaction chimique telle étoiles de produire de l’énergie de 20 millions d’années.
que la combustion. par contraction gravitationnelle.
La source d’énergie des étoiles 73

Un tel laps de temps était en bon accord avec les idées sur l’âge de la Terre, que les
géologues de l’époque estimaient être de quelques dizaines de millions d’années,
faute de quoi l’intérieur de notre planète se serait refroidi et solidifié.

Cette théorie basée sur la gravitation commença


à perdre tout crédit au début du xxe siècle, quand
la découverte de nouveaux éléments radioactifs
révéla le moyen de maintenir bien plus longtemps
«
L’hypothèse
probablement
la plus simple
l’intérieur de la Terre à une température élevée. Au
même moment, la théorie de l’évolution de Darwin est qu’il y a peut-
être un processus

»
suggérait que plusieurs centaines de millions, voire
des milliards d’années de sélection naturelle étaient lent d’annihilation
nécessaires pour rendre compte de la diversité de matière.
actuelle de la vie. Lorsqu’Arthur Eddington aborda
le problème de la source d’énergie du Soleil dans Arthur Eddington
son œuvre maîtresse de 1926 sur la structure des
étoiles (voir page 68), la question était donc à nouveau à l’ordre du jour.

De l’énergie à partir de la masse Eddington s’était rendu compte que si


la contraction gravitationnelle était la source d’énergie des étoiles, certaines d’entre
elles auraient dû présenter des variations spectaculaires à des échelles de temps de
l’ordre du siècle, donc déjà couvertes par les archives astronomiques. Comme de
tels changements n’ont pas été constatés, la source d’énergie doit être plus stable
et afficher une durée de vie bien plus longue. Eddington avait également rejeté
la théorie de l’impact météorique, incapable d’influencer les processus au cœur
d’une étoile. Il soutint plutôt l’hypothèse que la seule source d’énergie plausible
des étoiles était de nature subatomique : au vu de la célèbre équation d’Einstein
E = mc2 établissant l’équivalence masse-énergie, une étoile comme le Soleil s’avérait
contenir plus qu’assez de matière pour briller pendant des milliards d’années.

Mais comment cette énergie était libérée ? Eddington envisagea trois options
principales : la division radioactive de noyaux atomiques lourds (la fission), le
regroupement de noyaux légers pour en fabriquer de plus lourds (la fusion), et
une hypothétique « annihilation » de la matière, lors de la rencontre d’électrons
ou de protons de charges opposées. Il en conclut rapidement que le mécanisme
le plus probable était la fusion. À titre de démonstration, il souligna qu’un noyau
d’hélium était 0,8 % moins massif que les quatre noyaux d’hydrogène requis
pour le créer (un « défaut de masse » qui correspond à la quantité de matière
relâchée sous forme d’énergie lors du processus de fusion). Comme les idées de
Cecilia Payne sur la composition stellaire (voir page 70) avaient été admises dès

1926 1927 1937 1939


Eddington suggère que le Arthur Holmes publie Gamow et Weizsäscker Bethe découvre
Soleil est alimenté par des la preuve que la Terre décrivent le cycle proton- le cycle CNO qui
réactions nucléaires qui est vieille de plusieurs proton, qui est la principale joue un rôle majeur
convertissent directement milliards d’années. source d’énergie des dans les étoiles plus
la masse en énergie. étoiles comme le Soleil. massives que le Soleil.
74 50 clés pour comprendre l’Univers

Le cycle proton-proton
Le cycle proton-proton implique la fusion de Fusion des
deux noyaux d’hydrogène (protons), dont l’un protons
se transforme spontanément en neutron pour Noyaux de
créer un noyau stable de deutérium (hydro- deutérium

gène lourd). La fusion avec un autre neutron


crée un nouvel isotope stable, un hélium-3
et, finalement, deux noyaux d’hélium-3 Noyaux
fusionnent pour créer un hélium-4 normal, d’hélium-3
Libération
libérant deux protons « inutilisés » au cours du d’un excès
de protons
processus. L’énergie est libérée en quantités
croissantes à chaque étape du processus, et
Bethe a également reconnu d’autres branches Noyaux
d’hélium-4
que le cycle pourrait emprunter, en particulier
dans des étoiles avec des intérieurs plus chauds
que le Soleil (voir l’encadré page suivante).

la fin des années 1920, les astronomes se rendirent à l’évidence que l’hydrogène
et l’hélium étaient bel et bien les éléments principaux à l’intérieur des étoiles.

Bâtir le modèle de fusion Problème majeur pour la théorie de la


fusion d’Eddington : les températures au sein du Soleil ne semblaient pas assez
élevées pour qu’elle soit mise en œuvre. Les particules chargées positivement
se repoussant mutuellement, les températures devraient être extrêmement
élevées pour que des protons individuels entrent en collision et fusionnent.
En 1928, cependant, le physicien russe George Gamow, en se basant sur les
singularités d’une nouvelle science – la mécanique quantique –, imagina le
moyen par lequel les protons pourraient surmonter leur répulsion mutuelle
pour fusionner. Avec son collègue allemand Carl Friedrich von Weizsäcker, il
fut ainsi en mesure de proposer en 1937 le cycle proton-proton dans lequel des
collisions entre noyaux d’hydrogène créent progressivement de l’hélium, l’idée
qu’Eddington avait caressée une décennie auparavant.

La chaîne de réactions proposée par Gamow et Weizsäcker avait des pro-


blèmes spécifiques, elle impliquait en effet la production d’isotopes (variantes
­atomiques) hautement instables se désintégrant dès leur formation, c’est-à-
dire avant qu’il leur soit possible de s’accoler à d’autres protons pour créer un
noyau d’hélium stable. En 1938, Gamow invita un petit groupe de physiciens
nucléaires de premier plan à une conférence à Washington pour en discuter,
La source d’énergie des étoiles 75

Le cycle CNO
Dans des conditions de températures plus s­ upérieure à 1,3 masse solaire, est si rapide et
élevées que celles prévalant au sein du noyau efficace que sa présence ou son absence dans
de notre Soleil, le carbone peut servir de cata- une étoile est un facteur clé pour déterminer
lyseur, tout en restant lui-même inchangé, sa durée de vie (voir page 77).
accélérant le taux de fusion d’hydrogène
en hélium. Les noyaux d’hydrogène (pro-
Carbone-12
tons) fusionnent avec le noyau de carbone Hélium-4 Proton
pour créer un noyau d’azote, puis un noyau Proton γ (rayon
d’oxygène. Enfin, lorsqu’un proton supplé- gamma)
Azote-15
mentaire tente de fusionner avec le noyau Azote-13
ν
d’oxygène, ce dernier se désintègre, libérant
Positron ν (neutrinos)
un noyau d’hélium complètement formé et
restituant le noyau de carbone d’origine. Oxygène-15 Carbone-13
Encore une fois, l’énergie est libérée à tous γ Proton
les stades du processus. Le cycle CNO, γ
Proton Azote-14
qui domine dans les étoiles d’une masse

dont l’émigré allemand Hans Bethe. Bien que ne manifestant pas beaucoup
d’intérêt pour ce problème, Bethe n’en eut pas moins l’intuition d’une solution
possible dont il élabora rapidement les détails avec Charles Critchfield. L’année
suivante, il publia deux articles décrivant non seulement le processus de fusion
de l’hydrogène qui domine dans les étoiles comme le Soleil, mais également un
processus alternatif, le cycle CNO, qui se déroule surtout dans les intérieurs plus
chauds d’étoiles plus massives (voir l’encadré ci-dessus). En estimant rigoureuse-
ment les taux respectifs des deux processus dans diverses conditions, Bethe put
non seulement expliquer comment les étoiles brillent, mais aussi comment leurs
différents cycles de fusion produisent une grande variété d’éléments lourds.

L’idée clé
Les étoiles brillent en faisant
fusionner des noyaux atomiques
pour libérer de l’énergie
76 50 clés pour comprendre l’Univers

19 L e cycle de vie
des étoiles
Conjointement, le diagramme de Hertzsprung-Russell et les avancées dans
la compréhension des sources d’énergie des étoiles ont finalement permis
aux astronomes d’attaquer l’un des plus grands mystères scientifiques :
comment vivent et meurent les étoiles. Cependant, la démarche impliquait
l’abandon de certaines théories largement répandues.

La présentation d’Henry Russell en 1912 du premier diagramme reportant la lumi-


nosité des étoiles en fonction de leur type spectral souleva d’intenses questions
chez les astrophysiciens. Le nombre considérable d’étoiles trouvées le long de
la séquence principale qui s’étire en diagonale entre les pâles étoiles rouges et
les radieuses étoiles bleues impliquait clairement que c’était à cet endroit que la
majorité des étoiles passait la plus grande partie de leur vie ; mais comment les
caractéristiques de cette structure devaient-elles être interprétées ? Les créateurs
du diagramme avaient des points de vue différents, mais tous deux partageaient la
conviction que le graphique reflétait l’évolution d’une étoile. Russell soupçonnait
les étoiles de débuter leur évolution en tant que géantes rouges, pour se contracter
ensuite et devenir des étoiles bleues et brillantes, puis pâlir peu à peu en descen-
dant le long de la séquence principale tout en se refroidissant à mesure qu’elles
vieillissaient. Les idées d’Ejnar Hertzsprung étaient moins explicites, mais il était
d’avis que la séquence principale d’une part, la bande horizontale des géantes de
toutes couleurs et des supergéantes qui s’étendaient au sommet du diagramme
d’autre part, représentaient deux chemins évolutifs différents.

La relation masse-luminosité Les différentes théories en


concurrence jusqu’au milieu des années 1920 étaient généralement ancrées
dans l’idée que l’énergie des étoiles provenait d’une forme de contraction
gravitationnelle (voir page 72). Le livre d’Arthur Eddington sur la structure
des étoiles, paru en 1926, apporta toutefois un éclairage nouveau. En se
basant sur son modèle théorique des intérieurs stellaires, il établit une relation

chronologie
1913 1926 1938
Les astronomes interprètent Eddington souligne Öpik soutient que le matériau
initialement la séquence l’importance de la relation stellaire n’est pas bien mélangé, ce
principale du diagramme H-R masse-luminosité pour qui limite les réserves de combustible
en tant que chemin évolutif. l’évolution stellaire. et donc l’âge des étoiles.
Le cycle de vie des étoiles 77

La durée de vie des étoiles


La durée de vie d’une étoile peut varier consi- La masse est le facteur le plus important
dérablement en fonction de sa masse et de affectant la durée de vie d’une étoile. Les
sa composition. Les étoiles massives, dont la températures et les pressions plus élevées qui
masse peut atteindre plusieurs fois celle du règnent au sein du noyau des étoiles mas-
Soleil, brillent avec plusieurs milliers de fois sives permettent au cycle de fusion CNO,
sa luminosité et brûlent donc beaucoup plus bien plus efficace, de devenir dominant (voir
rapidement leur combustible. Alors que notre page 75). Dans les étoiles moins massives en
Soleil passera environ dix milliards d’années revanche, c’est le cycle proton-proton, moins
sur la séquence principale (en fusionnant dans efficace, qui produit l’essentiel de l’énergie.
son cœur de l’hydrogène en hélium), puis des La composition chimique joue également un
centaines de millions d’années dans les der- rôle : le cycle CNO ne peut se dérouler que
niers stades de son évolution, une étoile de si le carbone est présent pour agir en tant
huit masses solaires peut épuiser ses réserves que catalyseur, et comme l’Univers ne s’est
d’hydrogène en seulement quelques millions enrichi en carbone qu’au fil du temps (voir
d’années, les étapes ultérieures de son évolu- chapitre 42), le cycle CNO joue un moindre
tion étant aussi considérablement raccourcies. rôle dans les premières générations d’étoiles.

fondamentale entre masse et luminosité pour presque toutes les étoiles : plus
l’étoile est massive, plus elle devrait être brillante.
Cette idée n’était pas nouvelle ; Hertzsprung lui-même en avait déjà trouvé l’indice
dans des étoiles binaires (voir chapitre 23). Cependant, l’approche d’Eddington
confirmait théoriquement que la masse augmentait avec la luminosité et la tem-
pérature de surface. En supposant que les étoiles gardent la même masse tout au
long de leur évolution, il leur était impossible de changer leur équilibre entre
température et luminosité sans modifications majeures de leur source d’énergie
interne. La conséquence pour les étoiles conformes au modèle de structure stellaire
d’Eddington était qu’elles se situaient pour la plus grande partie de leur évolution
en un point précis de la séquence principale du diagramme H-R – un emplacement
fixé à la naissance par la masse avec laquelle elles avaient été formées.
Cette nouvelle interprétation révolutionnaire du schéma H-R fut accueillie avec
un scepticisme retentissant chez les collègues d’Eddington, ne fût-ce qu’en raison
du problème récurrent des sources d’énergie des étoiles. Eddington l­ui-même
avait contribué à réfuter l’ancien modèle de contraction ­gravitationnelle, mais

1945 1956 1961


Gamow présente la phase Iossif Chklovski démontre que Chushiro Hayashi précise les
géante rouge comme une les nébuleuses planétaires chemins évolutifs que suivent
étape tardive dans l’évolution sont des géantes rouges ayant les étoiles avant de rejoindre
des étoiles de type solaire. expulsé leur atmosphère. la séquence principale.
78 50 clés pour comprendre l’Univers

« Les étoiles ont


un cycle de vie
très semblable à
celui qu’il favorisait en remplacement était un
modèle hypothétique basé sur une « annihilation
de matière » (voir page 74) qui produirait une quan-
tité d’énergie abondante et permettrait peut-être
celui des animaux. aux étoiles de briller pendant des milliards d’an-
Elles naissent, elles nées, mais au prix d’une perte de masse significative
au cours de la vie d’une étoile. Sur la base de cette
grandissent, elles hypothèse, il semblait donc logique d’envisager une
passent par une évolution vers le bas le long de la séquence princi-
phase bien définie pale, avec les étoiles perdant de la masse et voyant
d’évolution interne,

»
leur éclat faiblir à mesure qu’elles évoluaient.
et à la fin, elles Ce ne fut qu’à la fin des années 1930, avec les tra-
meurent. vaux innovants de Hans Bethe sur le cycle proton-
proton (voir page 74) que tout commença à se
Hans Bethe mettre en place. Pour garantir aux étoiles le débit
d’énergie observé, la fusion nucléaire devrait certes
suivre un rythme plus rapide que le processus d’annihilation, mais elle n’en
permettrait pas moins à une étoile comme le Soleil de briller régulièrement
pendant des milliards d’années. Qui plus est, il y aurait alors assez peu de perte
de masse entre le début et la fin de la vie de l’étoile.

L’explication des géantes Même si les travaux de Bethe justifiaient


les arguments d’Eddington selon lesquels les étoiles passaient la majeure partie
de leur vie en un point précis de la séquence principale, il restait encore à
répondre à des questions majeures sur la manière dont d’autres types d’étoiles
pouvaient trouver leur place dans ce récit. Or, l’année même où Bethe publia ses
réflexions sur la fusion, l’astronome estonien Ernst Öpik proposa une nouvelle
vision de la structure stellaire, qui avait également d’importantes répercussions
sur notre vision de l’évolution des étoiles.
L’hypothèse d’Eddington selon laquelle le matériau à l’intérieur d’une étoile était
constamment agité et mélangé avait été largement acceptée par la communauté
astronomique ; elle impliquait que les réactions de fusion nucléaire pouvaient
tirer parti de tout ce matériau jusqu’à épuisement. Öpik, quant à lui, plaida pour
un modèle en couches dans lequel les produits de fusion restaient dans le noyau.
Dans ces conditions, l’approvisionnement en combustible nucléaire de l’étoile
était bien plus restreint et le noyau devenait plus dense et plus chaud à mesure que
son stock d’hydrogène fusionnait en hélium. Ce noyau convectif si malaxé était
entouré d’une enveloppe d’hydrogène bien plus épaisse dans laquelle le transport
de l’énergie vers l’extérieur se faisait principalement par rayonnement. Le matériau
de toute cette enveloppe qui constituait la majeure partie de l’étoile ne pouvait
normalement pas servir de combustible aux réactions de fusion, sauf dans le cas
des phases les plus avancées de l’évolution des étoiles. En se basant sur une idée
Le cycle de vie des étoiles 79

Une étoile passe


la plus grande partie
de son évolution à
fusionner l’hydrogène
en hélium dans son
cœur (1). Quand les
réserves d’hydrogène
sont épuisées,
le processus de fusion
migre dans une couche
périphérique (2).
À la fin, le cœur, en
se contractant, devient
assez chaud et assez
dense pour que les
1. Fusion sur la séquence 2. Fusion en couche 3. Réallumage du cœur réactions de fusion
principale de l’hélium puissent
s’amorcer (3).

suggérée par George Gamow, Öpik soutint que la proximité d’un noyau de plus
en plus chaud pourrait échauffer la base de l’enveloppe radiative au point qu’elle
devienne à son tour le siège de réactions de fusion. Cette migration des réactions
de fusion provoquerait aussi un accroissement démesuré de la taille de l’enveloppe.

Le modèle en couches d’Öpik se révéla être la clé pour expliquer les schémas de
l’évolution stellaire, mais il fallut attendre quelques années avant qu’il soit large-
ment accepté. George Gamow tenta lui aussi de modéliser la structure des étoiles
géantes rouges et leur séquence évolutive, mais il fut à plusieurs reprises induit en
erreur par la conviction que les étoiles devaient être « bien mélangées ». Ce n’est
qu’en 1945 qu’il incorpora une approche en couches dans son modèle et démontra
que les géantes rouges sont une étape tardive de l’évolution d’étoiles normales, la
fusion de l’hydrogène dans une coquille autour du noyau les rendant à la fois très
brillantes et bien plus grandes que leurs précurseurs sur la séquence principale.
Gamow réalisa même qu’une géante rouge finirait par se dépouiller de ses couches
extérieures ; son noyau ainsi mis à nu ne serait plus qu’une naine blanche encore
très chaude, mais d’un bien faible éclat (voir page 124). Ces avancées ne furent
qu’une première étape provisoire dans les tentatives de clarification de l’histoire
compliquée des phases d’évolution stellaire au-delà de la séquence principale.

L’idée clé
La masse d’une étoile
à sa naissance détermine
sa durée de vie
80 50 clés pour comprendre l’Univers

20 N
 ébuleuses
et amas stellaires
Les étoiles proviennent de l’effondrement d’énormes nuages de gaz
interstellaire, et leur formation illumine souvent ce gaz pour créer de
spectaculaires nébuleuses. Mais alors que l’association entre amas stellaires
compacts et nébuleuses a été reconnue dès le début des années 1800, il a
fallu du temps pour déterminer comment l’un engendre l’autre.

Nebula, le terme latin pour « nuage », fut utilisé dès Ptolémée d’Alexandrie
par les passionnés d’astronomie pour désigner une poignée d’objets du ciel
nocturne d’apparence diffuse, qui de toute évidence n’étaient pas composés
d’étoiles individuelles. Ce n’est toutefois qu’à l’avènement des lunettes et téles-
copes que les astronomes commencèrent à découvrir un grand nombre de ces
objets. L’un des premiers catalogues de nébuleuses, et certainement le plus
célèbre, fut dressé par le chasseur de comètes français Charles Messier en 1771,
manifestement pour aider les astronomes à éviter de mal identifier les objets
célestes quand ils arpentaient le ciel à la recherche de comètes.

Deux décennies plus tard, en examinant de nouveau les objets du catalogue de


Messier avec un télescope plus puissant, William Herschel parvint à discerner
plusieurs catégories de nébuleuses. Certaines se résolvaient d’elles-mêmes en
groupes ou en amas d’étoiles – ou du moins laissaient imaginer qu’il en serait
ainsi pour peu qu’elles soient étudiées avec un télescope encore plus puissant.
D’autres, au contraire, semblaient n’être que des nuages lumineux de gaz, en
général incrustés d’étoiles, voire d’amas ouverts d’étoiles.

Sites de formation d’étoiles Ces nuages, qu’Herschel qualifia de


« fluides brillants », furent la première preuve irréfutable de présence dans
l’espace de matière entre les étoiles. Après avoir repris de temps en temps
l’examen de ces nuages, il esquissa en 1811 la théorie selon laquelle ces
fluides brillants étaient des sites de formation d’étoiles. Herschel croyait qu’en

chronologie
1771 1791‑1811 1864
Messier dresse le premier Herschel décèle des nébuleuses Huggins démontre la
catalogue d’objets gazeuses en tant que « fluides nature gazeuse des fluides
astronomiques non stellaires. brillants ». brillants.
Nébuleuses et amas stellaires 81

examinant une grande variété de nébuleuses, il pourrait retracer presque pas


à pas les étapes de leur condensation en étoiles individuelles, voire en amas
stellaires. Il commit cependant une erreur importante en supposant que les
étoiles se formaient une par une avant de se regrouper sous l’effet de la gravité
pour constituer des amas : en d’autres termes, les amas les plus étroitement

«
serrés lui semblaient plus anciens que les plus dispersés.

La seconde moitié du xixe siècle connut des progrès


significatifs dans l’étude des nébuleuses et des amas Nous pouvons
stellaires ouverts. À partir de 1864, en analysant les concevoir que
spectres des nébuleuses, William Huggins démontra parfois, au cours du
que la lumière émise par ces objets qualifiés par temps, ces nébuleuses
Herschel de fluides lumineux n’était constituée que
de quelques raies d’émission étroites de couleurs bien
pourraient être
spécifiques, tandis que d’autres types de nébuleuses se encore plus
condensées

»
caractérisaient plutôt par la présence de raies sombres
d’absorption se détachant sur un fond continu afin de devenir
mêlant différentes couleurs. C’était bien la preuve que des étoiles.
ces nébuleuses supposées former des étoiles (appelées
de nos jours nébuleuses en émission) étaient surtout William Herschel
de nature gazeuse, mais c’était aussi l’indice que beau-
coup d’autres, souvent en forme de spirale, combinaient la lumière d’un grand
nombre d’étoiles (voir page 146).

À la même époque, en 1888, l’astronome dano-irlandais John Dreyer publia le


New General Catalogue of Nebulæ and Clusters of Stars ou NGC (Nouveau catalogue
général de nébuleuses et d’amas d’étoiles), une nouvelle liste exhaustive d’objets
non stellaires dans lesquels il distinguait deux types d’amas d’étoiles : des globes
sphériques d’une part, étroitement liés et remplis de milliers d’étoiles, et des
groupes plus lâches d’autre part, forts de dizaines ou de centaines d’individus.
Par la suite, les premiers furent appelés amas globulaires, mais seuls les derniers,
qualifiés d’amas ouverts, s’avérèrent être associés à des nébuleuses en émission.

La représentation que les astronomes se faisaient des régions de formation stellaire


devint confuse au début du xxe siècle, lorsque l’Américain Edward Barnard, l’un des
pionniers de l’astrophotographie, et son collègue allemand Max Wolf, montrèrent
qu’elles étaient souvent associées à des régions opaques, faites de poussières absor-
bant la lumière (les « nébuleuses sombres »). Enfin, en 1912, Vesto Slipher décou-
vrit un autre type de nuage interstellaire dans l’amas d’étoiles des Pléiades, à savoir
une « nébuleuse par réflexion » qui réfléchissait la lumière d’une étoile voisine.

1888 1929 1947


Dreyer fait la distinction Hertzsprung élabore une méthode pour Victor Ambartsumian identifie
entre amas stellaires ouverts estimer l’âge des amas ouverts à partir les premières associations
et amas globulaires. de la couleur de leurs étoiles. d’étoiles OB.
82 50 clés pour comprendre l’Univers

Amas globulaires
En plus des amas ouverts, Dreyer a iden- avec des durées
tifié un deuxième type d’amas stellaire. de vie de plusieurs
Ces amas globulaires ont une structure milliards ­d’années.
beaucoup plus concentrée et une origine Des preuves spec-
radicalement différente. Ils renferment des troscopiques sug-
centaines de milliers d’étoiles, dont les gèrent que ces
orbites elliptiques s’entremêlent pour édi- dernières sont
fier une structure grossièrement sphérique dépourvues des
ou elliptique. Les distances entre étoiles éléments les plus
individuelles se comptent en jours-lumière, lourds trouvés dans des étoiles nées plus
voire en mois-lumière, plutôt qu’en années- récemment, elles se sont donc formées
lumière. Des amas globulaires se trouvent longtemps avant notre Soleil, au cours des
près du centre des galaxies, d’autres évo- premières phases de l’Univers. Au vu des
luent dans le halo de ces dernières (voir travaux les plus récents, des collisions entre
page 137) ; ils sont presque entièrement galaxies seraient à l’origine des amas globu-
composés d’étoiles naines de faible masse laires (voir page 149).

La datation des amas stellaires Même s’il semblait certain que les
nébuleuses en émission étaient des sites de formation d’étoiles, l’enchaînement
réel des événements était désespérément incertain. Pourtant, des avancées dans
la compréhension des cycles de vie des étoiles et de l’évolution des amas stellaires
commençaient à faire sens. En 1929, par exemple, Ejnar Hertzsprung nota des
différences significatives dans les propriétés des étoiles des célèbres amas ouverts
des Pléiades, de la Ruche et des Hyades. Les étoiles les plus brillantes de l’amas des
Pléiades sont toutes chaudes et bleues, tandis que celles de la Ruche, et surtout
celles des Hyades, contiennent plus d’étoiles brillantes orange et rouges. Quelques
années plus tard, il devint évident que les différences de couleur sont une
indication de l’âge relatif des amas : les étoiles les plus brillantes et les plus massives
sont les plus chaudes et elles brillent d’un éclat plus bleu lorsqu’elles résident sur
la séquence principale, mais elles vieillissent beaucoup plus rapidement quand
elles la quittent pour devenir, en quelques millions d’années seulement, des
étoiles géantes encore plus brillantes, mais plus froides. Par conséquent, plus un
amas stellaire est vieux, plus il contient de géantes rouges lumineuses.
La faculté de classer les amas stellaires par ordre chronologique a montré qu’il
fallait inverser ce que disait Herschel lorsqu’il affirmait que les amas stellaires
devenaient de plus en plus denses au fil du temps. En fait, les amas les plus
jeunes sont les plus resserrés et ils n’arrêtent pas de se disperser pendant des
Nébuleuses et amas stellaires 83

millions d’années. En 1947,


l’astronome arménien Victor
Ambartsumian fit une nou- L’amas mouvant
velle avancée en identifiant
les premières associations OB, de la Grande Ourse
des amas d’étoiles assez jeunes,
Des amas ouverts restent parfois liés ensemble pen-
chaudes et lumineuses, disper-
dant un temps étonnamment long – par exemple,
sées sur des espaces bien plus
plusieurs dizaines d’étoiles largement dispersées, dont
vastes, mais qui présentaient
cinq membres du célèbre Grand Chariot, évoluent
des mouvements propres
encore ensemble à travers le ciel en tant que p
­ rétendu
qui ont permis de démon-
courant d’étoiles de la Grande Ourse. Cette association
trer qu’elles provenaient
d’étoiles, dont les membres se sont tous formés dans la
toutes d’un même point. La
même nébuleuse voici environ 300 millions d’années, a
découverte d’Ambartsumian
été découverte en 1869 par Richard Proctor, un astro-
confirma définitivement que
nome et écrivain anglais.
les étoiles naissent au sein
des nébuleuses en formant
des amas ouverts, avant de se
disperser lentement à travers
l’espace. Aujourd’hui, nous savons que ce principal mécanisme de dispersion
implique des interactions proches entre les étoiles qui finissent par être éjectées
tous azimuts hors de l’amas, parfois à de très hautes vitesses.
Au milieu du xxe siècle, les sites de formation stellaire étaient bien connus,
mais il fallut attendre une révolution technologique des moyens d’observation
pour que les astronomes puissent vraiment découvrir les processus à l’œuvre
(voir page 85). Une autre question clé était de savoir quel mécanisme avait pu
déclencher l’effondrement initial des nébuleuses pour créer des amas stellaires
en premier lieu. Plusieurs hypothèses furent avancées – l’action de forces de
marée suscitées par l’approche d’étoiles ou le passage d’ondes de choc produites
par des explosions de supernova –, mais si de tels événements fortuits ont sans
doute un rôle à jouer, le mécanisme principal s’avérerait bientôt étroitement
lié à la structure à grande échelle des galaxies, dont la nôtre (voir page 138).

L’idée clé
Les nuages de gaz interstellaires
sont les pépinières
des nouvelles étoiles
84 50 clés pour comprendre l’Univers

21 L a naissance
des étoiles
Au milieu du xxe siècle, les astronomes admettaient que les étoiles naissaient
au sein d’amas stellaires denses que produisait l’effondrement de nuages
de gaz au sein de nébuleuses en émission. Il fallut cependant attendre
l’avènement de l’astronomie spatiale pour dénicher, à l’intérieur de ces
nébuleuses, de nouveaux détails propres à élucider les processus spécifiques
à l’œuvre dans la formation stellaire.

Les premiers indices du mécanisme précis de la naissance des étoiles émergèrent en


1947, lorsque l’astronome néerlando-américain Bart Bok souligna la présence de
petits globules opaques au sein de nébuleuses censées former des étoiles. Il suggéra
qu’à l’instar des cocons d’insectes, ces globules, d’une taille pouvant atteindre une
année-lumière, abritaient la formation d’équivalents stellaires du Système solaire.

Il fut longtemps impossible de vérifier une telle hypothèse, en raison de l’opa-


cité naturelle de ces « globules de Bok ». Mais au cours des années 1970, grâce
au développement de l’astronomie spatiale, il devint enfin possible d’aborder de
tels problèmes. Le satellite IRAS (Infra Red Astronomical Satellite, satellite astro-
nomique infrarouge) en particulier, lancé en 1983, a fourni une vision complè-
tement nouvelle du ciel. Fruit d’une collaboration internationale, IRAS ne fut
opérationnel que dix mois, mais au cours de cette période restreinte, il a pu car-
tographier 96 % du ciel dans quatre longueurs d’ondes infrarouges différentes,
générant un ensemble de données qui occupa les astronomes pour des années.

Lumière dans l’obscurité Avec des longueurs d’ondes plus grandes


que celle de la lumière visible, les rayonnements moins énergétiques du
domaine infrarouge sont émis par tous les objets de l’Univers et se propagent à
travers les milieux les plus opaques, comme les cocons de poussière des globules
de Bok. En 1990, les astronomes João Lin Yun et Dan Clemens révélèrent que
de nombreux globules coïncidaient avec des sources infrarouges identifiées dans

chronologie
1852 Années 1940 1947 1954
John Hind découvre George Herbig et Guillermo Bok identifie des Victor Ambartsumian suggère
l’étoile T Tauri, Haro étudient de petites globules opaques que les objets de Herbig-Haro
l’archétype des étoiles nébuleuses découvertes et compacts au prennent forme quand des
variables de la pré- dans le voisinage de jeunes sein de nébuleuses étoiles de type T Tauri éjectent de
séquence principale. étoiles individuelles. formant des étoiles. la matière lors de leur évolution.
La naissance des étoiles 85

les données IRAS, exactement comme on aurait pu l’attendre si de tels globules


cachaient des étoiles jeunes n’ayant pas encore rejoint la séquence principale.

Quelques années plus tard, en 1995, le télescope spatial Hubble produisit la


célèbre image des « Piliers de la création ». Forte d’un luxe de détails sans pré-
cédent, cette vue agrandie de la nébuleuse de l’Aigle (Messier 16), une région
connue comme un site de formation stellaire, dévoilait des colonnes opaques
de gaz et de poussières sur lesquelles se greffaient d’étranges rejets filamenteux.
Les piliers étaient nimbés de halos brillants résultant de leur évaporation sous
l’effet des torrents de rayonnement relâchés par les étoiles massives alentours.
Jeff Hester et Paul Scowen, les auteurs de l’image, interprétèrent la forme des
piliers comme des zones plus denses ayant mieux résisté aux effets des rayon-
nements au sein de la plus vaste nébuleuse. Les rejets mentionnés plus haut se
manifestaient quand un nœud de matériau autour d’une étoile coalescente (un

«
globule de Bok) demeurait intact même si son environnement était bousculé.

Depuis la prise de ce premier cliché, les astronomes


ont accumulé des images des Piliers de la création
Les étoiles
et de bien d’autres régions de formation stellaire, [de type T Tauri]
dans le visible comme dans l’infrarouge, et partout, sont nées dans ces
le même scénario semble se répéter. Un rayonne- nuages sombres…
ment intense provenant d’une première génération et elles n’ont pas eu
d’étoiles massives et lumineuses nouvellement for- assez de temps pour

»
mées contribue à former dans la nébuleuse envi-
ronnante de grandes cavités. Piliers et filaments se
s’éloigner de leur
dégagent des parois, marquant les sites où la forma- lieu de naissance.
tion stellaire persiste. Les effets de ce rayonnement Georges Herbig
qui entraîne le matériau de la nébuleuse – s’ajoutant
aux ondes de choc lorsque ces étoiles précoces explosent en tant que supernovæ
(voir chapitre 30) – limitent efficacement la croissance de leurs congénères plus
jeunes dans l’amas. Selon une étude de 2001, seulement un tiers environ du gaz
de la nébuleuse primitive finit par être incorporé dans des étoiles qui se forment
en son sein, et le processus de formation stellaire dure quelques millions d’an-
nées tout au plus avant que tout le gaz soit perdu. Dans la grande majorité des
cas, la perte d’une telle quantité de matière fait que l’amas stellaire embryonnaire
perd son intégrité gravitationnelle, il est alors victime d’une sorte de « mortalité
infantile », dans la mesure où les étoiles et les protoétoiles qui le composent
partent toutes à la dérive. Seule une minorité en réchappe pour édifier des amas
stellaires ouverts adultes, renfermant une centaine à quelques milliers d’étoiles
pouvant être maintenues ensemble pendant des dizaines de millions d’années.

1961 1990 1995


Hayashi décrit les détails Yun et Clemens identifient Le télescope spatial Hubble
de l’évolution des étoiles les globules de Bok avec des photographie les structures
avant la séquence principale sources intenses de rayonnement des piliers de la création
en termes de trajets infrarouge, ce qui suggère qu’ils dans la nébuleuse de l’Aigle.
sur le diagramme H-R. renferment des étoiles.
86 50 clés pour comprendre l’Univers

Nouveau-nés stellaires massifs


En 1960, l’astronome américain George sur le diagramme H-R, la branche verticale
Herbig découvrait une classe distincte du trajet de Hayashi. Déjà très lumineuses
d’étoiles variables bleu-blanc au comporte- lorsqu’elles deviennent visibles, elles ne font
ment imprévisible, dénommées de nos jours que se contracter au fil du temps, et en se
étoiles Ae/Be de Herbig. Elles se sont avérées déplaçant le long de la branche horizontale
être une étape précoce dans la genèse des du trajet de Henyey, elles voient leur tem-
étoiles plus massives que le Soleil (masse pérature de surface augmenter rapidement
comprise entre 2 et 8 masses solaires). afin de rejoindre l’extrémité supérieure de
Comme les étoiles de type T Tauri, ces gigan- la séquence principale. Les premières étapes
tesques nouveau-nés stellaires sont entourés de l’évolution des étoiles les plus massives
de disques de matière, dont une fraction de toutes (dont les masses se comptent en
est encore accrétée alors que le reliquat est dizaines de masses solaires) ne sont pas aussi
éjecté dans l’espace interstellaire. Les astro- bien comprises, mais il semble acquis qu’à
nomes soulignent que ces étoiles jeunes et l’entame de leur courte vie, elles se déplacent
de grande masse ne suivent pas du tout, également le long du trajet de Henyey.

Nouveau-nés stellaires Un seul globule de Bok peut produire une


étoile unique ou un système binaire, voire multiple, s’il se condense en deux
ou plusieurs noyaux distincts. La modélisation informatique suggère un
effondrement initial assez rapide formant, en quelques dizaines de milliers
d’années, des protoétoiles chaudes et denses. Elles restent enchâssées dans un
nuage plus vaste de matière animée d’un mouvement de rotation, s’aplatissant
peu à peu en un disque d’accrétion assez large. Au fur et à mesure que la gravité
de la protoétoile augmente, elle soutire plus de matière, mais ce noyau stellaire
dont la température s’accroît produit des rayonnements qui ralentissent le taux
d’accrétion ; par ailleurs, sous l’effet de champs magnétiques, une partie de la
matière accrétée se retrouve éjectée sous forme de jets s’échappant de part et
d’autre du disque. On estime que cette association d’un fort vent stellaire et de
champs magnétiques transfère le moment angulaire vers le disque, ralentissant
la rotation de l’étoile et accélérant celle du matériau environnant ; se trouve ainsi
résolu un vieux dilemme sur les origines de notre Système solaire (voir page 17).
Une étoile comme le Soleil peut rester dix millions d’années ou plus à l’état de
protoétoile, émettant un rayonnement infrarouge tout en devenant de plus en
plus chaude et énergique. Elle finit par briller dans le domaine visible, les astro-
nomes la qualifiant alors d’étoile de type T Tauri. Ces astres sont grands, rouges,
et plus lumineux que les étoiles qu’ils deviendront. Tirant l’essentiel de leur
énergie de la contraction gravitationnelle plutôt que des réactions de fusion
La naissance des étoiles 87

nucléaire (voir page 72), 15 masses


solaires

Brillante
ils peuvent varier de
manière imprévisible.
60 000 ans
9,0
Une phase T Tauri typique
150 000 ans
dure 100 millions d’an-
nées ou plus, période 3,0
3 millions d’années
pendant laquelle l’étoile

LUMINOSITÉ
se contracte progres- 1,0
sivement tandis que 50 millions 0,5
son transport interne d’années masse
d’énergie se modifie. En solaire
1961, l’astrophysicien 150 millions
d’années
Chushiro Hayashi sché-
matisa ce que ces chan-
gements signifient au
Ténue

niveau du diagramme
de Hertzsprung-Russell. Bleue M Rouge
O B A F G K
Avant de rejoindre la
séquence principale, les
étoiles deviennent moins lumineuses à mesure qu’elles deviennent plus denses, Ce diagramme
ce qui leur permet de conserver la même température de surface. Les étoiles H-R présente les
trajets évolutifs
dont la masse vaut moins de la moitié de celle du Soleil suivent ce « trajet de de Hayashi
Hayashi » jusqu’à ce que leurs noyaux soient assez denses pour que s’amorce et de Henyey
d’une étoile
le cycle proton-proton et qu’elles se stabilisent à l’état de naines rouges (voir nouvellement
page 88). Les étoiles dont la masse vaut jusqu’à deux fois celle du Soleil voient formée
à l’approche
cependant leur trajet évolutif changer de direction quand leur intérieur devient de la séquence
suffisamment chaud pour développer une zone radiative (voir page 70). Elles principale.
conservent alors la même luminosité tout en continuant à se contracter, ce
qui entraîne une augmentation de leur température de surface (le « trajet de
Henyey »). Dans les deux cas, le début du cycle proton-proton marque le point
où l’étoile rejoint la séquence principale, entamant la période la plus longue et
la plus stable de sa vie.

L’idée clé
L’astronomie infrarouge révèle
comment naissent les étoiles
88 50 clés pour comprendre l’Univers

22 L es étoiles naines
Les étoiles dont la masse est inférieure à celle du Soleil ont des propriétés
uniques et parfois surprenantes, notamment la surprenante violence de
leur activité. À très faibles masses, ces naines rouges deviennent des naines
brunes – des étoiles dites avortées –, dont l’existence n’est confirmée que
depuis les années 1990.
Techniquement, presque toutes les étoiles sont des naines, y compris notre
Soleil, de même que des étoiles beaucoup plus massives et lumineuses comme
Sirius (voir encadré ci-contre). Cependant, dans l’usage courant, le terme
est plus particulièrement utilisé pour qualifier de petites étoiles beaucoup
moins lumineuses que le Soleil. Mais même cette acception peut être source
de confusion : les naines blanches par exemple, des résidus stellaires entière-
ment consumés (voir page 124), sont des astres foncièrement différents des
naines rouges, qui ne sont que des étoiles ordinaires de très faible masse sur la
séquence principale. Qui plus est, elles se différencient toutes deux des naines
brunes, qui ne répondent même pas à la définition habituelle d’une étoile.
Les étoiles présentent une bien plus grande disparité de luminosité que de
masse : les poids lourds ont la capacité de briller cent mille fois plus que le Soleil,
et les étoiles les moins massives peuvent quant à elles s’avérer cent mille fois
moins lumineuses. Une étoile dont la masse est la moitié de celle du Soleil
(soit une masse considérée en général comme limite supérieure pour une
naine rouge) brille d’un éclat valant seulement un seizième de la luminosité
de notre étoile, tandis que l’éclat d’une étoile d’une masse de 0,2 masse solaire
est environ 1/200e de celui du Soleil. Les naines rouges sont donc majoritai-
rement des astres à l’éclat des plus ténus. Pendant longtemps, les seuls spéci-
mens connus étaient ceux se trouvant à notre seuil cosmique, comme l’étoile
de Barnard (voir page 96) et Proxima du Centaure (l’étoile la plus proche du
Soleil). Bien que la distance de cette dernière soit de 4,25 années-lumière seule-
ment, cette naine, d’une masse de 0,12 masse solaire, 100 fois moins lumineuse
que la plus ténue des étoiles visibles à l’œil nu, n’a été découverte qu’en 1915.
La surabondance de naines rouges dans notre galaxie est devenue patente au cours
des années 1980, avec le lancement des premiers télescopes spatiaux o
­ pérant dans

chronologie
1915 1948 1962
Robert Innes découvre Proxima Jacob Luyten détecte l’étoile Shiv Kumar prédit qu’il existe
du Centaure, une naine rouge proche UV Ceti, la première un grand nombre d’étoiles
très peu lumineuse, l’étoile la naine rouge manifestant une avortées, dénommées naines
plus proche du Soleil. évidente activité éruptive. brunes par la suite.
Les étoiles naines 89

Définir les naines


D’après la définition première d’Ejnar Par ailleurs, en haut et à gauche du diagramme
Hertzsprung, une naine est simplement H-R, il devient très difficile de faire la distinction
une étoile qui se conforme à la relation la entre naines et géantes bleues très lumineuses
plus courante entre température et lumi- sur la seule base de leur couleur et de leur
nosité ; elle réside donc sur la séquence luminosité ; elles ne peuvent être différenciées
principale du diagramme H-R. À l’origine, que si des indices supplémentaires attestent
le terme naine était utilisé pour distinguer bien qu’une étoile est toujours en train de
ces étoiles des géantes – les étoiles très faire fusionner l’hydrogène dans son noyau.
lumineuses de tous types spectraux dont L’emploi du terme naine blanche pour dési-
les points représentatifs s’alignent en haut gner les résidus stellaires carbonisés dont les
du diagramme H-R –, mais avec le temps, points représentatifs sur le diagramme H-R sont
cette terminologie est devenue de plus en très à l’écart de la séquence principale (voir
plus confuse. page 124) n’a fait qu’ajouter à la confusion.

l’infrarouge. La production de rayonnement de nature thermique de ces étoiles


sans éclat étant bien plus grande que leur débit de lumière visible, les cartes du
ciel dressées dans le domaine infrarouge montraient une surabondance de naines
rouges, constituant peut-être les trois quarts des étoiles de la Voie lactée.

Structure des naines Une différence importante entre les naines rouges et
les étoiles plus massives, d’ailleurs mise à profit pour définir la limite supérieure de
leur masse, est qu’elles ne transportent pas, en interne, l’énergie par rayonnement.
Les intérieurs de ces étoiles sont au contraire entièrement convectifs, le matériel
qu’ils renferment étant donc mélangé et recyclé en permanence. L’hélium produit
par les réactions de fusion nucléaire est ainsi transporté hors du cœur et remplacé
par de l’hydrogène frais ; toute la matière qui constitue l’étoile est donc disponible
pour alimenter les réactions de fusion. Une telle situation, s’ajoutant au fait que le
taux des réactions de fusion est naturellement plus lent en raison de la moindre
température du cœur, fait que les naines rouges peuvent en théorie maintenir
le cycle proton-proton (et donc rester sur la séquence principale) des milliers de
milliards d’années – bien plus longtemps que toute autre étoile.
Le noyau d’une naine rouge libère beaucoup moins de rayonnement que celui
du Soleil, il exerce donc une pression moindre vers l’extérieur pour empêcher
l’effondrement des couches externes de l’étoile. Par conséquent, ces étoiles sont

1995 2006
Rebolo et ses collaborateurs En se basant sur les étoiles les moins lumineuses d’un amas
découvrent Teide 1, la première globulaire, Michael Marks et Pavel Kroupa démontrent que la limite
naine brune authentifiée. inférieure de masse des étoiles est 0,083 masse solaire.
90 50 clés pour comprendre l’Univers

beaucoup plus petites et plus denses que ne le suggèrent leurs masses. Proxima du
Centaure n’est que 40 % plus grande que Jupiter, et environ 40 fois plus dense,
en moyenne, que le Soleil. Cette haute densité, associée à la structure convective

«
d’une naine rouge, peut avoir des effets inhabituels.
La première preuve que les naines peuvent avoir une
Les étoiles dont la activité spectaculaire fut fournie par l’astronome
masse est inférieure néerlando-américain Jacob Luyten qui mit en évi-
à une certaine dence, dans les années 1940, des variations insolites
masse critique dans les spectres de plusieurs naines proches. L’une
se contracteront d’elles en particulier, l’étoile la plus brillante d’un
système binaire située à environ 8,7 années-lumière
jusqu’à devenir des

»
dans la constellation de la Baleine, était ainsi sujette à
objets totalement d’énormes sursauts d’éclat de courte durée. Au cours
degénérés. d’une éruption en 1952, la luminosité de cette étoile
« UV Ceti » augmenta d’un facteur 75 en quelques
Shiv S. Kumar
secondes. Les astronomes réalisèrent dans les années
1970 que les sursauts de cette étoile ne se manifestaient pas uniquement dans le
domaine visible, mais aussi dans celui des ondes radio et des rayons X de haute
énergie, et qu’ils étaient très semblables aux éruptions solaires (voir page 54),
quoiqu’à une beaucoup plus grande échelle, ce qui leur vaut aujourd’hui la déno-
mination d’étoiles éruptives. La densité de ces étoiles et le malaxage convectif
de leurs intérieurs génèrent des champs magnétiques beaucoup plus puissants et
concentrés que ceux observés dans les étoiles comme le Soleil. Les naines rouges
sont ainsi sujettes à des épisodes de « reconnexion » magnétique pouvant libérer
jusqu’à 10 000 fois plus d’énergie que ceux qui déclenchent les éruptions solaires,
avec des résultats bien plus impressionnants.

Naines brunes Selon la plupart des modèles de fusion nucléaire, une


étoile doit avoir au moins 0,08 fois la masse du Soleil pour que températures et
pressions soient assez élevées dans son noyau pour entretenir les cycles proton-
proton. C’est donc la limite de masse des étoiles, mais beaucoup d’objets de
masse inférieure se sont quand même formés de la même façon que les étoiles et
peuvent encore relâcher d’importantes quantités de rayonnements infrarouges
et visibles. De telles « étoiles avortées », connues sous le nom de naines brunes,
sont maintenues à haute température par contraction gravitationnelle et par
des réactions de fusion nucléaire de noyaux de deutérium (isotope d’hydrogène
lourd) nécessitant des conditions moins exigeantes. L’hypothèse de leur
existence avait été théorisée dans les années 1960 par l’astronome Shiv Kumar
(même si leur nom actuel fut inventé un peu plus tard).
Durant les années 1980, les astronomes repérèrent bien des objets dont les
propriétés limites firent débat, mais la première découverte incontestable d’une
naine brune dut attendre 1995. Détectée par une équipe espagnole dirigée par
Les étoiles naines 91

Météo des naines brunes


À l’instar des étoiles, les naines brunes peuvent être classées par type spectral, selon leur température
et les raies d’absorption identifiées dans leur atmosphère. Les astronomes, qui avaient d’abord attribué
le type spectral M aux naines brunes les plus brillantes ainsi qu’aux naines rouges les moins lumineuses
(voir page 65), ont ajouté les nouveaux types spectraux L, T et Y à leur classification. Comme ces astres
sont de plus en plus froids, des molécules de plus en plus complexes peuvent persister dans leurs atmos-
phères. Des études récentes portant sur les naines brunes les moins lumineuses ont mis en évidence
des variations d’émission infrarouge qui
semblent être suscitées par d’énormes
complexes nuageux (d’une taille pla-
nétaire) se déplaçant dans leurs atmos-
phères et bloquant d’une manière
transitoire tout rayonnement venant de
l’intérieur. Ces nuages tourbillonnent
tout autour de l’astre, poussés par des
vents extrêmes. Comme on pouvait s’y
attendre, la météo sur les naines brunes
est encore plus déchaînée que celle des
géantes de gaz telles que Jupiter. Carte météo de la naine brune Luhman 16B.

Rafael Rebolo, cette naine brune présumée, dénommée Teide 1, était l’un des
astres les plus ténus de l’amas stellaire lointain des Pléiades. La présence attestée
de lithium dans son spectre était bien la preuve de sa véritable nature naine
brune, car même les moins massives des étoiles véritables sont encore assez
chaudes pour faire disparaître toute trace de cet élément par fusion nucléaire.
Par la suite, les astronomes identifièrent des centaines d’autres naines brunes,
souvent en orbite autour d’autres étoiles naines, dont beaucoup dans notre voi-
sinage cosmique ou dans des nébuleuses connues pour former des étoiles. Les
estimations de leurs masses suggèrent que les plus petites naines brunes peuvent
tout à fait être moins massives que les plus grandes planètes gazeuses géantes, le
seul facteur distinctif entre les deux types d’objets étant leur mode de formation.

L’idée clé
Les étoiles les plus petites sont
aussi les plus nombreuses
92 50 clés pour comprendre l’Univers

23 L es systèmes
d’étoiles binaires
et multiples
Son statut d’étoile unique fait de notre Soleil un astre minoritaire. Nous
savons aujourd’hui que la plupart des étoiles de la Voie lactée font partie de
systèmes binaires ou de systèmes d’étoiles multiples. Pour les étoiles de tels
systèmes, avoir le même âge et se trouver à la même distance peut révéler
des éléments importants concernant l’évolution stellaire.

La distribution sur la voûte céleste des quelques milliers d’étoiles visibles à l’œil nu
depuis la Terre paraît plus ou moins aléatoire, et pourtant, même un astronome
amateur sans assistance peut repérer un couple d’étoiles qui semble faire figure
d’exception. Les jumelages proches sur la voûte céleste sont généralement connus
sous le nom d’étoiles doubles, l’exemple le plus célèbre étant sans doute Mizar et
Alcor, le couple d’étoiles qui se trouve au milieu de la queue de la Grande Ourse.
Les premiers astronomes s’en sont peu souciés : même si la distribution des étoiles
était réellement aléatoire, des couples aussi rapprochés restaient possibles. Mais
au début de l’année 1617, quand l’astronome italien Benedetto Castelli braqua
une des premières lunettes vers ce système d’étoiles, il découvrit tout autre chose.
Alors que Mizar apparaît à l’œil nu comme une étoile unique, c’est en réalité un
couple serré de deux étoiles blanches, chacune d’un éclat perceptible à l’œil nu.
Un rapprochement aussi étroit de deux étoiles brillantes est bien moins pro-
bable que la liaison assez lâche entre Mizar et Alcor, mais il fallut encore bien
du temps avant que quiconque n’en mesure correctement les implications.
C’est le philosophe anglais John Michell qui fut, en 1767, le premier à suggérer
que les étoiles jumelles de Mizar étaient de véritables voisines dans l’espace.
Puis, en 1802, William Herschel produisit les preuves statistiques – suite à
un balayage minutieux de la voûte céleste – que les étoiles doubles étaient

chronologie
1617 1783 1804
Castelli découvre Mizar Goodricke propose un Herschel démontre que les
dans la Grande Ourse, mécanisme d’éclipse pour deux étoiles du couple stellaire
la première étoile expliquer l’étoile variable Alula Australis sont en orbite
double télescopique. Algol dans Persée. l’une autour de l’autre.
Les systèmes d’étoiles binaires et multiples 93

bien trop nombreuses pour être explicables par les


seules lois du hasard.

Orbites binaires Herschel soutenait qu’il


« Il est facile
de prouver… que
deux étoiles peuvent
s’agissait d’étoiles « binaires », maintenues en
orbite l’une autour de l’autre par leur attraction
être si bien liées l’une
gravitationnelle réciproque. En 1804, il confirma à l’autre qu’elles en
son argumentaire en montrant que les deux étoiles viennent à évoluer
du couple stellaire Alula Australis (un autre système sur des cercles, voire
double dans la Grande Ourse, qu’il avait découvert des ellipses, autour

»
24 ans auparavant) avaient modifié leur position de leur centre de
relative, démontrant qu’elles étaient bien en orbite
l’une autour de l’autre. En 1826, l’astronome
gravité commun.
français Félix Savary observa cette paire d’étoiles William Herschel
avec assez d’attention pour analyser leur orbite en
détail. Il démontra qu’il s’agissait de deux étoiles d’une masse solaire environ,
qui suivaient des orbites elliptiques parcourues en 60 ans avec une séparation
variant entre 12 et 39 UA.
Au xixe siècle, profitant de l’amélioration des lunettes et télescopes, les astro-
nomes découvrirent de nombreuses étoiles binaires, voire des systèmes mul-
tiples contenant plus de deux composants. Il apparut rapidement que dans
de tels systèmes, la distance entre les étoiles varie énormément : elles peuvent
être séparées par des distances type interplanétaires de quelques unités astro-
nomiques, ou par des distances interstellaires d’une année-lumière ou plus.
Les systèmes binaires et multiples aidèrent également les astronomes à comprendre
les relations entre les étoiles. Par exemple, comme toutes les étoiles d’un système
donné se trouvent à la même distance de la Terre, les différences de magnitude
apparente correspondent à des différences de luminosité réelle. De plus, en déter-
minant la taille de l’orbite de chaque étoile, nous pouvons estimer leurs masses
relatives, et comme nous pouvons présumer que toutes les étoiles d’un système
donné se sont formées en même temps, nous pouvons même entrevoir comment
des propriétés telles que la masse affectent l’évolution d’une étoile au fil du temps.

Étoiles binaires spectroscopiques L’observation directe impose des


limites sévères à la découverte d’étoiles multiples. Peu importe la puissance des
télescopes, si les étoiles sont trop proches l’une de l’autre ou trop éloignées de
la Terre, elles apparaîtront comme un unique point de lumière. Mais à la fin du
xixe siècle, des astronomes découvrirent une nouvelle méthode pour détecter
les étoiles multiples.

1889 1901 1903


Maury et Pickering Vogel déduit les propriétés Gustav Müller et Paul Kempf
reconnaissent Mizar A comme physiques des deux étoiles de découvrent W de la Grande Ourse,
la première des binaires Mizar A à partir de données la première binaire à contact.
spectroscopiques. spectroscopiques.
94 50 clés pour comprendre l’Univers

Étoiles binaires à éclipse


Dans certains cas, la nature binaire de systèmes 2 jours et 21 heures. Il suggéra que la meilleure
d’étoiles trop proches l’une de l’autre pour être explication de ce phénomène était qu’un corps
séparées avec un télescope peut être établie par plus sombre, en orbite autour d’Algol, passait
son effet sur l’émission de lumière du système devant l’étoile à chacune de ses révolutions et
global. Algol (Bêta de Persée), fut le premier sys- bloquait alors une partie de la lumière émise par
tème binaire ainsi identifié ; connue depuis long- cette dernière. Cette idée – le premier mécanisme
temps comme le « démon clignotant », cette proposé pour expliquer une étoile variable de
étoile fut décrite plus ou moins précisément, toute nature – valut à Goodricke de recevoir la
avant même qu’Herschel ne règle le cas d’étoiles prestigieuse médaille Copley de la Royal Society.
binaires ayant une réalité physique. Ce n’est qu’en 1880 que Pickering et son équipe
En 1783, John Goodricke, un astronome amateur de Harvard montrèrent que le corps plus sombre
anglais de 18 ans, avait noté que l’éclat d’Algol, en orbite était en fait une étoile à part entière.
qui fait montre en général d’une magnitude Algol est aujourd’hui considéré comme le proto-
constante de 2,1, chute abruptement à 3,4 pen- type d’une importante classe d’étoiles variables,
dant environ 10 heures avec une périodicité de celle des binaires à éclipse.

Curieusement, ce furent des études de Mizar qui ouvrirent à nouveau la voie. Dans
le cadre de son projet de cataloguer les types spectraux et la composition chimique
des étoiles (voir page 63), l’astronome de Harvard Edward Pickering avait recueilli
en 70 nuits, de 1887 à 1889, une série de spectres des deux composantes de la
célèbre étoile double, puis avait chargé Antonia Maury, âgée de 21 ans, de les ana-
lyser. Maury mit rapidement en évidence un fait étrange dans la suite des spectres
de Mizar A, la composante la plus brillante. L’une des raies en absorption, la raie K
dénotant la présence de calcium dans l’atmosphère de l’étoile, apparaissait nette et
bien définie dans certains spectres, large et floue dans d’autres, et sur trois plaques
photographiques, elle était même divisée en deux raies distinctes.

Maury s’était aussi rendu compte que cet effet de « dédoublement de raies » se
produisait tous les 52 jours, un fait dont Pickering identifia correctement la cause :
Mizar A, en réalité, est elle-même un système de deux étoiles très rapprochées en
orbite l’une autour de l’autre. Les deux étoiles contribuent chacune au spectre du
système, mais le déplacement de la raie K révèle que leurs émissions de lumière
sont continuellement décalées par effet Doppler en fonction de leurs mouvements
relatifs par rapport à la Terre (voir page 62). En certains points de leurs orbites,
l’une des étoiles du système se déplace vers la Terre, provoquant la diminution de
la longueur d’onde de la lumière qu’elle rayonne, ainsi que le déplacement de la
raie K vers l’extrémité bleue du spectre, tandis qu’au même moment, l’autre étoile
s’éloigne de la Terre et voit augmenter la longueur d’onde de la lumière qu’elle
Les systèmes d’étoiles binaires et multiples 95

rayonne et la raie K de son


spectre se décaler vers le
rouge. À certains moments, Étoiles binaires
la situation est inversée, à
d’autres enfin, les étoiles se à contact
déplacent latéralement par
Dans certains systèmes binaires,
rapport à la Terre et tout
les deux composantes peuvent
effet Doppler disparaît.
être si proches que des chan-
Mizar A devint la première gements évolutifs portant Tant qu’elles restent sur la
séquence principale, les deux
de la nouvelle classe des sur la taille de l’une ou des étoiles demeurent bien à
étoiles binaires spectro­ deux étoiles les mettent en l’intérieur de leurs lobes Roche.
scopiques, qui a peu à contact direct. Cela se produit
peu contribué à démon- quand une étoile déborde de
trer qu’en vérité, la grande son « lobe de Roche », la sur-
majorité des étoiles de notre face qui définit les limites de son
galaxie se trouvent dans des influence gravitationnelle. Dans
systèmes binaires ou mul- ce scénario, les deux étoiles for-
Alors que l’étoile la plus massive
gonfle au point de devenir une
tiples. Tout aussi important, ment une variable de type W de géante, elle transfère de la
Pickering se rendit compte la Grande Ourse, une binaire matière à sa voisine.
que ces étoiles constituaient à éclipse dont l’émission de
un nouvel outil puissant lumière varie constamment.
pour les astronomes : en D’importants transferts de
estimant vitesse et période masse d’une étoile vers l’autre
orbitale, il devient pos- se prolongeant des millions
sible de mesurer la distance d’années peuvent même modi- Enfin, l’étoile la moins massive
fier le chemin évolutif d’une despeut à son tour devenir une
entre les étoiles et d’estimer géante. La matière circule
directement leurs masses en étoiles, voire des deux. désormais dans les deux sens.
utilisant la loi de la gravita-
tion universelle de Newton.
Il fallut encore quelques
années pour que la formule correcte soit mise au point (ce n’est qu’en 1901 que
l’astronome allemand Hermann Vogel parvint à déterminer l’orbite de Mizar A),
mais l’aptitude à mesurer directement les propriétés physiques de lointaines
étoiles, et de fait la simple existence de systèmes d’étoiles binaires et multiples, eut
une grande influence sur l’astronomie du xxe siècle.

L’idée clé
Les étoiles uniques comme
notre Soleil sont en minorité
96 50 clés pour comprendre l’Univers

24 L a recherche
des exoplanètes
Lorsque les astronomes commencèrent à accepter que notre Soleil et notre
place dans la Voie lactée n’avaient rien d’exceptionnel, il fut difficile de
comprendre pourquoi les étoiles distantes n’auraient pas leurs propres
systèmes planétaires. Il fallut bien du temps pour le prouver, et ce n’est que
depuis les années 1990 que ces objets célestes dénommés « exoplanètes »
ont été trouvés en grand nombre.
La recherche de planètes en orbite autour d’autres étoiles a longtemps été entravée
par des limitations technologiques. Cependant, la découverte de l’étoile de Barnard
en 1916 fit entrevoir, pour la première fois, la possibilité de découvrir des planètes
extraterrestres. Cette naine rouge d’un faible éclat était déjà répertoriée dans les
catalogues stellaires, mais l’astronome-photographe Edwards Barnard fut le pre-
mier à constater qu’elle avait un mouvement propre exceptionnel par rapport à
l’arrière-plan des étoiles. Un déplacement sur la voûte céleste dont la vitesse angu-
laire était estimée à un diamètre apparent de la pleine Lune par 180 ans suggérait
que l’étoile de Barnard était proche de notre propre Système solaire. Les mesures
de cet effet de parallaxe (voir page 58) confirmèrent rapidement qu’étant située à
six années-lumière de la Terre, c’était la quatrième étoile la plus proche du Soleil.
Faux départ L’astronome néerlandais Peter van de Kamp eut tôt fait de
comprendre que le rapide cheminement de l’étoile de Barnard devrait présenter
des oscillations mesurables, pour peu que l’étoile soit soumise à l’attraction
gravitationnelle de grandes planètes en orbite autour d’elle-même. À partir de
1937 et pendant plus de trois décennies, il suivit régulièrement la position précise
de l’étoile avant de finalement rendre publiques en 1969 les preuves que son
mouvement propre était effectivement perturbé par deux planètes de type Jupiter.
Il s’avéra toutefois difficile pour d’autres de répéter ses observations et dans les
années 1980, la plupart des astronomes s’accordaient pour conclure que Van de
Kamp s’était trompé, peut-être en raison de défauts dans son équipement. L’affaire
de l’étoile de Barnard ayant laissé beaucoup d’astronomes mal à l’aise, une vague
de scepticisme déferla sur la communauté scientifique, persuadée que pour une

chronologie
1969 1992 1995
Van der Kamp publie des éléments Wolszczan et Frail Mayor et Queloz annoncent
de preuve erronés en faveur découvrent la première la découverte de 51 Pegasi b, la
de la présence d’une planète autour planète en orbite première exoplanète en orbite
de l’étoile de Barnard. autour d’un pulsar. autour d’une étoile normale.
La recherche des exoplanètes 97

Planètes de pulsars
En vérité, les toutes premières planètes décou- d’apparition des éclairs de rayonnement que les
vertes autour d’une autre étoile furent dénichées pulsars produisent avec une grande régularité,
quelques années avant 51 Pegasi b. Elles ne firent moments a priori mesurés avec une extrême pré-
toutefois pas l’objet d’une aussi grande attention cision. En notant les minimes décalages Doppler
car leur situation au voisinage d’un pulsar les qui se produisent quand le pulsar se déplace
rendait hostiles à la vie. En 1992, les astronomes dans différentes directions sous l’effet des globes
Aleksander Wolszczan et Dale Frail annoncèrent massifs en orbite autour de lui, les astronomes
la découverte de deux planètes en orbite autour peuvent estimer certains paramètres orbitaux de
du pulsar matricule PSR B1257+12, situé à une ces mêmes planètes. Il est peu probable que des
distance d’environ 23 000 années-lumière dans planètes aient survécu à l’explosion de super-
la constellation de la Vierge (voir page 126). La nova à l’origine du pulsar. On estime plutôt que
détection d’une troisième planète suivit en 1994. les planètes dont il est question se sont formées
Plusieurs systèmes planétaires furent ainsi iden- à partir des débris d’une éventuelle étoile com-
tifiés grâce à une étude minutieuse des instants pagnon détruite par la suite.

raison ou pour une autre, les planètes autour d’autres étoiles étaient très rares. Par
chance, il ne fallut pas longtemps avant que cette posture négative soit ébranlée
par une nouvelle méthode de détection de planète d’une sensibilité accrue.
Enfin la réussite Dès 1952, Otto Struve avait eu l’idée de détecter la
présence de planètes autour d’autres étoiles en mesurant les changements
de vitesse radiale (c’est-à-dire les mouvements de l’étoile s’approchant ou
s’éloignant de la Terre). Cet astronome russo-américain suggérait qu’à l’instar
des binaires « spectroscopiques », dont la véritable nature se signale par le va-et-
vient du décalage Doppler de raies spectrales à mesure que l’une ou l’autre des
deux composantes s’éloigne ou se rapproche de l’observateur (voir page 94), il
serait possible de mettre en évidence l’influence d’une planète sur son étoile
pour peu qu’un spectrographe suffisamment sensible soit utilisé.
Toutefois le problème majeur, comme l’avait découvert Van de Kamp à ses
dépens, est qu’une planète n’exerce qu’une influence minime sur son étoile.
En fonction de leurs masses relatives et de la taille de l’orbite de la planète, la
perturbation la plus grande que l’on pourrait envisager serait une oscillation de
l’ordre de quelques mètres par seconde, se superposant à une vitesse moyenne
qui se mesure en général en kilomètres par seconde. Détecter des variations
aussi minimes avait comme implication de répartir la lumière de l’étoile sur
un très grand spectre à « haute dispersion », un procédé incompatible avec la

1999 2009
Première découverte La NASA lance la mission Kepler
d’une exoplanète par dévolue à la recherche de planètes,
la méthode du transit. débouchant sur l’identification
de milliers de nouvelles exoplanètes.
98 50 clés pour comprendre l’Univers

technologie de l’époque. Les avancées des années 1980 permirent cependant


de réaliser les premiers « spectromètres à échelle », aptes à analyser la très faible
lumière des étoiles. Ces instruments utilisent une paire de réseaux de diffrac-
tion afin de créer le plus grand spectre possible, avec des fibres optiques pour
injecter sur le réseau la lumière d’étoiles individuelles.
En 1993, à l’Observatoire de Haute-Provence, Michel Mayor et Didier Queloz
mirent en service l’instrument ELODIE, un spectromètre à dispersion croisée
conçue spécifiquement pour la recherche des exoplanètes, qui ne tarda pas à
faire ses preuves. En 1995, Mayor et Queloz annoncèrent la découverte d’une
planète d’une masse valant au moins la moitié de celle de Jupiter, en orbite
autour de l’étoile relativement proche 51 de Pégase. Ce fut la première parmi
plusieurs autres à donner du crédit à l’instrument ELODIE et des autres du

«
même type en opération dans l’hémisphère sud.

Transits et autres méthodes Quelques


La mission années après ces premières découvertes, une
Kepler de la NASA technique encore plus efficace décrocha son premier
est d’élargir nos sens succès. La méthode du transit consiste à mesurer la
minuscule baisse de l’émission lumineuse globale
et de nous révéler d’une étoile quand une planète lui passe juste
à quel point notre

»
devant. Comme la taille de l’étoile est assez facile
monde d’origine est à estimer à partir de ses caractéristiques spectrales
typique. (voir page 65), la variation relative de l’émission
lumineuse révèle aussi la taille de la planète
Set h Shostak en transit. De toute évidence, les transits ne se
produisent que dans les rares cas où l’orbite d’une
planète est directement alignée avec la Terre, mais compte tenu de la sensibilité
des photomètres modernes aptes à mesurer des quantités précises de lumière, la
méthode du transit est pour l’instant le moyen le plus pratique pour identifier
des exoplanètes de nature tellurique de petite taille.
En 1999, eut lieu la première découverte par la méthode du transit d’une exo­
planète en orbite autour de l’anonyme étoile de type solaire, matricule HD 209458,
située dans la constellation de Pégase, à 150 années-lumière du Soleil. Grâce à la
méthode de la vitesse radiale, les astronomes savaient déjà qu’une planète évo-
luait sur une orbite serrée autour de HD 209458, mais la méthode du transit leur
permit d’évaluer que son rayon valait environ 1,4 fois celui de Jupiter. Depuis cette
première découverte, à porter au crédit de l’observatoire Keck à Hawaï, les cham-
pions de la chasse à la planète sont des télescopes spatiaux dévolus au repérage des
transits. Le premier fut opérationnel de 2006 à 2012 dans le cadre de la mission
française COROT, la mission Kepler de la NASA (voir encadré ci-contre) arrivant
plus tard. Une orbite spécifique permet à ces télescopes de surveiller sans cesse les
luminosités des étoiles de tout un champ stellaire pendant de longues périodes,
ce qui facilite la détection du transit de planètes évoluant sur de grandes orbites.
La recherche des exoplanètes 99

La mission Kepler
Lancé en 2009, le satellite Kepler de la NASA est lactée s’étendant surtout dans la constellation du
un vaisseau spatial dédié à la chasse aux planètes Cygne. À la suite de la défaillance de deux de ces
qui a bouleversé notre compréhension des exo- roues et de la perte de suivi précis qui en a résulté,
planètes. L’unique instrument qu’il emporte est les ingénieurs ont trouvé une manière astucieuse
un télescope d’un diamètre de 0,95 m équipé de maintenir l’orientation du télescope dans l’es-
d’une caméra photométrique apte à mesurer de pace en tirant parti de la pression de radiation
petites variations d’éclat des étoiles dans le but induite par le rayonnement solaire. Ils ont ainsi
de détecter les transits planétaires. Au cours de pu préserver des périodes de suivi d’étoiles plus
sa mission principale, quatre « roues de réac- courtes, mais toujours profitables. La mission
tion » étaient mises en œuvre pour maintenir Kepler a jusqu’à présent permis la découverte de
l’axe de visée du télescope en direction d’un plus d’un millier d’exoplanètes, plusieurs milliers
unique champ de vue – un secteur de la Voie d’autres étant en attente de confirmation.

Propriétés planétaires Chaque technique de chasse à l’exoplanète


révèle des propriétés physiques spécifiques. Par exemple, la méthode de la
vitesse radiale est en mesure d’assigner une limite inférieure à la masse de la
planète, la propriété même à l’origine de l’oscillation de l’étoile, mais à moins
de connaître l’inclinaison de l’orbite de la planète en question, la méthode ne
permet pas de déterminer une valeur plus précise de sa masse. En revanche,
la méthode du transit peut dévoiler la taille d’une planète, mais pas sa masse.
Dans la pratique, c’est l’étude d’une planète par les deux méthodes qui fournit
le maximum d’informations. À condition d’obtenir aussi les données de vitesse
radiale, le simple fait qu’une planète transite devant son étoile contraint donc
son inclinaison orbitale et sa masse possible, ce qui, avec la mesure de sa
taille, ouvre la possibilité d’estimer la densité de la planète et de permettre aux
astronomes de cerner sa probable composition.

L’idée clé
Rechercher des planètes autour
d’autres étoiles exige des
méthodes ingénieuses
et des instruments sensibles
100 50 clés pour comprendre l’Univers

25 L es autres
systèmes solaires
Avant la découverte des premières exoplanètes, les astronomes supposaient
que l’aspect des systèmes planétaires autour d’autres étoiles serait le même
que celui de notre Système solaire. De récentes découvertes ont révélé toute
une gamme de types d’orbites imprévus et de planètes nouvelles, ce qui
suggère que les systèmes planétaires évoluent d’une manière importante
tout au long de leur histoire.

Depuis ce jour de 1995 où Mayor et Queloz annoncèrent leur découverte


de 51 Pegasi b – la première exoplanète attestée autour d’une étoile de type
solaire (voir page 98) – les planétologues se retrouvèrent face à une énigme.
La nouvelle planète parcourait en seulement 4,23 jours une orbite sept fois
plus proche de son étoile que Mercure l’est du Soleil. Qui plus est, la masse de
la planète était d’au moins la moitié de celle de Jupiter (et peut-être beaucoup
plus). Que pouvait donc bien faire une éventuelle planète géante de gaz si près
de son étoile ?
Au fur et à mesure que de nouvelles exoplanètes se manifestèrent à un
rythme toujours croissant, il apparut vite que 51 Pegasi b n’étaient pas un
cas unique. En fait, de nombreuses découvertes initiales s’avérèrent être des
« Jupiters chauds » – des planètes géantes évoluant sur des orbites proches de
leurs étoiles. C’était en partie la conséquence du fait que les premières exopla-
nètes avaient été découvertes par la méthode de la vitesse radiale : seules de
grandes planètes ont une masse suffisante pour affecter le décalage Doppler de
la lumière de leur étoile, et il est plus facile de repérer les décalages répétitifs
dus à des planètes évoluant sur des orbites à courte période. La méthode du
transit favorise également la découverte de planètes proches de leur étoile,
non seulement parce que leurs transits sont plus fréquents, mais aussi parce
que de telles conditions de proximité avantagent les alignements propices à
l’observation d’un transit.

chronologie
1995 2005 2007
Mayor et Queloz Eugenio Rivera et collaborateurs Snellen et collaborateurs
découvrent le premier découvrent Gliese 867 d, la déduisent la présence de vents à
« Jupiter chaud », première super-Terre autour d’une haute vitesse dans l’atmosphère
51 Pegasi b. étoile de la séquence principale. de HD 209548 b.
Les autres systèmes solaires 101

Il n’en reste pas moins que selon des modèles de


formation planétaire, efficaces par ailleurs (voir
page 18), des planètes de type géante de gaz ne
pourraient pas se former aussi près d’une étoile.
« Il n’existe pas
a priori de bonnes
raisons pour que
les hypothetiques
Planètes déplacées Une solution acceptable
au problème que posent les exoplanètes de type
planètes d’autres
Jupiter chaud découle des théories de migration étoiles… ne soient
pas bien plus proches

»
planétaire, d’après lesquelles les planètes peuvent se
déplacer sur de longues périodes de temps. Pour peu de leurs étoiles
que les bonnes conditions initiales soient réunies, parentes.
il n’est pas trop difficile de concevoir un scénario
dans lequel une planète géante se forme au-delà de Otto Struve, 1952
la ligne de gel de son système stellaire, là où le gaz
et les glaces sont abondants, avant de cheminer en spirale vers l’intérieur sous
l’effet d’interactions gravitationnelles de type effet de marée avec le gaz qui
subsiste dans la nébuleuse protoplanétaire. Une planète géante évoluant ainsi
lentement vers l’intérieur pourrait perturber les orbites de tous les planétoïdes
qui s’étaient formés plus près de son étoile, soit précisément le genre de petits
mondes rocheux qui auraient pu accueillir des formes de vie extraterrestre.

Les exoplanètes de type Jupiter chaud déjà identifiées présentent un large éven-
tail de masses qui s’étend d’un peu moins d’une masse jovienne (la masse
de Jupiter), jusqu’à environ dix fois plus, soit à peu près la masse des plus
petites étoiles de type « naines brunes » (voir page 90). S’agissant des objets
les moins massifs de cette gamme, la chaleur de l’étoile voisine peut d’autant
mieux dilater l’atmosphère de la planète que sa gravité est relativement petite,
créant ainsi une « planète enflée » dont la densité est assez faible. Un tel effet,
prédit théoriquement, s’est vu confirmé par des observations ultérieures d’exo-
planètes en transit, dont le diamètre peut être estimé directement.

Des astronomes ont toutefois noté que certaines exoplanètes plus massives,
avec une gravité plus élevée, s’avèrent plus grandes et plus chaudes que ne le
prédit la théorie. En 2013, Derek Buzasi, de l’université de la côte du golfe de
Floride, a identifié un éventuel lien entre ces planètes plus grandes que prévu et
l’activité magnétique de leurs étoiles, suggérant que le magnétisme peut jouer
un rôle important dans le processus de chauffage.

Un zoo extrasolaire La catégorie des Jupiters chauds fut la première de


plusieurs nouvelles classes d’exoplanètes qui surgirent à partir des années 1990

2009 2012
Le lancement de la mission Nikku Madhusudhan et
Kepler renouvelle les types collaborateurs identifient
d’exoplanètes pouvant être 55 Cancri e comme une
détectées. éventuelle planète de carbone.
102 50 clés pour comprendre l’Univers

des données d’observation et des

La mesure modélisations informatiques. Ces


nouveaux types d’exoplanètes sont :

des atmosphères • Les Neptunes chauds. Comme leur

planétaires
nom l’indique, ces planètes sont des
géantes d’une masse comparable
à celle de Neptune, évoluant sur
Jusqu’à présent, produire l’image d’exoplanètes à des orbites proches de leur étoile.
partir de leurs seules lumières n’est possible que Étonnamment, certains modèles
dans de très rares cas. Cependant, les observations de formation planétaire laissent
d’exoplanètes en transit peuvent fournir à l’occa- à penser que des géantes de cette
sion des données sur leur atmosphère. Quand une classe pourraient éventuellement se
planète passe devant son étoile, les gaz de son former à une distance de leur étoile
atmosphère absorbent certaines longueurs d’onde comparable à la distance Terre-Soleil
de lumière, modifiant en conséquence la configu- et qu’une phase de migration ne
ration et l’intensité du spectre en absorption de serait donc pas nécessaire.
l’étoile en question (voir page 60). En 2001, cette
• Les planètes chthoniennes. Les pla-
technique a été utilisée pour identifier du sodium
nétologues ont découvert quelques
dans l’atmosphère de HD 209548 b, un Jupiter
systèmes planétaires où rayonne-
chaud situé à environ 154 années-lumière dans la
ment et vents stellaires dégagent
constellation de Pégase. D’autres études de cette
les couches externes d’une planète
planète intrigante ont révélé une enveloppe riche
de type Jupiter chaud en formant
en hydrogène, carbone et oxygène, s’étendant à
une queue semblable à celle d’une
plus de deux fois son propre rayon. C’est l’indice
comète. Les planètes chthoniennes
que la planète perd son atmosphère sous l’effet de
sont l’éventuel produit final d’un
l’afflux de chaleur de son étoile parente qui élève
tel processus. Ainsi, d’une planète
sa température à environ 1000 °C. En mesurant
autrefois géante, un implacable vent
le décalage Doppler des raies d’absorption du
stellaire ne laisserait plus subsister
monoxyde de carbone dans l’atmosphère de la
qu’un noyau rocheux d’une masse
planète, une équipe dirigée par Ignas Snellen de
comparable à celle de la Terre.
l’université de Leiden aux Pays-Bas a non seulement
mesuré la vitesse orbitale précise de la planète, mais • Les super-Terres. Les planètes de
elle a également repéré dans son atmosphère la ce type ont une masse d’environ
présence de vents soufflants à très hautes vitesses, 5 à 10 masses terrestres. Au vu des
entre 5 000 et 10 000 kilomètres par heure. observations, les super-Terres pré-
sentent une grande variété de den-
sité et donc une grande disparité de
compositions. Certaines peuvent
simplement n’être que des planètes rocheuses surdimensionnées, d’autres des
« naines de gaz ». La distance de l’étoile centrale détermine les conditions de
surface, qui pourraient éventuellement passer de l’état de mers de lave semi-
fondues à celui de glace surgelée. Les planètes-océan sont un sous-groupe des
Les autres systèmes solaires 103

COMPOSITION Ce tableau
montre
Silicate Monoxyde comment
Fer (cf. la Terre) Carbone Eau de carbone Hydrogène pur
les tailles
d’exoplanètes
Planète
plus ou moins
de la
semblables à la
même
Terre varient en
masse
fonction de leur
que la Équivalent masse et de leur
MASSE

Terre à la Terre composition.

Super-
20 000 km
Terre

plus intrigants, les grandes quantités d’eau qu’elles contiennent pouvant appa-
raître quand un monde au départ fait de glace migre plus près de son étoile.

• Les planètes de carbone et les planètes de fer. En fonction des conditions régnant
dans la nébuleuse protoplanétaire initiale, des planètes de type terrestres peuvent se
retrouver avec des quantités beaucoup plus importantes de carbone ou de fer, alors
que le manteau de notre Terre est plutôt composé de roches silicatées. Des mondes
dominés par le fer peuvent également être créés pour peu qu’une planète subisse
des impacts majeurs éliminant les éléments plus légers de son manteau. Dans notre
Système solaire, une telle éventualité est envisageable dans le cas de Mercure.

L’étude de ces exoplanètes, dont le nombre ne cesse de croître, n’en est aujourd’hui
qu’à ses débuts, mais il est déjà possible de reconnaître une surprenante variété
de caractéristiques physiques pour ces objets que nous ne pouvons pas encore
observer directement. Les astronomes préparent déjà la nouvelle génération des
télescopes géants qui pourront résoudre et étudier les exoplanètes individuelles
afin d’en savoir encore plus sur ces mondes aussi fascinants que variés.

L’idée clé
La configuration de notre
Système solaire n’est qu’une
possibilité parmi tant d’autres
104 50 clés pour comprendre l’Univers

26 L es zones habitables
La recherche de planètes qui ressemblent vraiment à la Terre, aptes à
accueillir des formes de vie mettant en œuvre une biochimie à base de
carbone, est l’un des plus grands défis de l’astronomie moderne. Toutefois,
comprendre de façon précise ce qui crée la « zone habitable » d’une étoile
donnée est pourtant une tâche étonnamment complexe.

En 1953, deux scientifiques, le médecin néerlandais Hubertus Strughold et l’as-


tronome américain Halton Arp, formalisèrent chacun de leur côté l’idée selon
laquelle les particularités du rayonnement que produit une étoile affectent l’ha-
bitabilité des planètes qui l’entourent. Qu’il fasse chaud à la surface d’une pla-
nète proche du Soleil et plus froid plus loin dans le Système solaire fut considéré
comme allant de soi pendant des siècles, mais Strughold fut le premier à définir
des « zones » dans lesquelles la vie était plus ou moins probable, tandis qu’Arp
calcula dans quelles conditions l’eau liquide pourrait persister à la surface d’une
planète. En 1959, Su-Shu Huang, un astrophysicien américain d’origine chinoise,
réunit ces deux concepts dans l’idée de « zone habitable », basée sur les connais-
sances de l’époque au sujet des origines de la vie et des conditions propices à son
développement.

Définir la zone habitable Depuis lors, la notion de zone habitable


– popularisée depuis les années 1970 dans les pays de culture anglo-saxonne sous le
nom de « zone Goldilocks » (ou boucles d’or en français) – est devenue un concept
facile à comprendre pour considérer les perspectives de vie autour des autres étoiles.
Les annonces de découvertes de nouvelles exoplanètes font souvent la belle part à
la question de savoir s’il s’agit de planètes similaires à la Terre, leur position dans
la zone habitable étant un point clé pour correspondre à notre planète.

Par allusion au conte Boucle d’or et les trois ours, la zone dite « Goldilocks »
devrait être celle où il ne fait ni trop chaud ni trop froid, mais « juste comme
il faut ». Dans le cas d’une planète, l’orbite idéale pourrait sembler assez
simple à déterminer : la distance à l’étoile doit être telle qu’à la surface de
la planète, le rayonnement stellaire ne soit pas trop intense pour vaporiser
l’eau (point d’ébullition), mais quand même suffisamment intense pour

chronologie
1953 1959 1979
Strughold et Arp étudient Su-Shu Huang combine La découverte du processus
indépendamment les les idées de Strughold de chauffage par effet de marée et
facteurs qui conditionnent et Arp pour établir le de lunes-océan ouvre la possibilité
la température et l’habilité des concept de zone habitable d’existence de formes de vie
planètes autour d’autres étoiles. autour de chaque étoile. en dehors de la zone habitable.
Les zones habitables 105

faire fondre la glace d’eau (point de


fusion). Ce n’est malheureusement
pas aussi simple : la planète doit Le chauvinisme
également posséder une atmosphère
assez dense pour que l’eau se main- du carbone
tienne à l’état liquide à sa surface.
Faute d’une pression atmosphérique La plupart des idées sur les zones habitables
suffisante, l’eau liquide ne peut que impliquent de façon implicite que la vie extra-
s’évaporer, quelle que soit la tempé- terrestre serait plus ou moins semblable à celle
rature. Plus la pression est basse, plus sur Terre. Cependant, dès 1973, le planétologue
le point d’ébullition est bas, comme Carl Sagan a prévenu que cette forme de « chau-
des générations d’alpinistes désap- vinisme du carbone » pourrait être trompeuse.
pointés en ont fait l’expérience en En réalité, il y a de bonnes raisons de supposer
essayant sans succès de se faire une que certains éléments essentiels à la vie seraient
bonne tasse de thé. les mêmes dans toute la Galaxie. À en croire
la plupart des définitions, même les formes de
L’aptitude à conserver une atmos- vie les plus simples impliquent une molécule
phère est elle-même fonction de la porteuse d’informations analogue à l’ADN et
masse de la planète et de sa position capable d’être transmise lorsqu’un organisme
par rapport à son étoile. Une forte se reproduit. Le carbone peut raisonnablement
gravité et/ou une température froide être considéré comme la base la plus probable
font en sorte qu’une atmosphère en pour une telle molécule, car la structure de cet
perpétuel déplacement ne soit pas élément abondant lui permet de former une
emportée dans l’espace. De plus, exceptionnelle variété de liaisons chimiques
toute atmosphère exerce un effet complexes (d’autres éléments, tels que le silicium
isolant qui a pour effet d’égaliser et le germanium, forment des liaisons de manière
les températures entre les côtés jour similaire, mais sont chimiquement moins actifs).
et nuit de la planète, empêchant Quant au rôle clé de l’eau, il tient au simple
que la chaleur accumulée pendant besoin d’un milieu fluide au sein duquel les
la journée soit rayonnée immédia- composés chimiques peuvent se déplacer et se
tement après le crépuscule. En la soumettre aux réactions requises pour édifier des
matière, la composition chimique molécules complexes initiales. D’autres liquides,
précise d’une atmosphère planétaire à l’instar de l’ammoniac, pourraient en théorie
joue également un rôle significatif. jouer le même rôle, mais pour autant que nous
Les gaz à effet de serre, tels que le le sachions, l’eau est à la fois le plus abondant des
dioxyde de carbone, le méthane et la milieux possibles et celui qui reste à l’état liquide
vapeur d’eau, bloquent efficacement sur la plus large gamme de températures.
la chaleur qui s’échappe et gardent

1987 1993 2011 2014


Marochnik et Mukhin formulent Kasting et collaborateurs Des astronomes découvrent Découverte de Kepler-186f,
le concept de zone habitable introduisent une nouvelle Kepler-22b, la première la première planète d’une
galactique en examinant les régions définition de la zone exoplanète authentifiée taille comparable à celle de
de notre galaxie qui pourraient habitable qui tend à qui évolue dans la zone la Terre située dans la zone
abriter des formes de vie. s’écarter de l’étoile centrale. habitable de son étoile. habitable de son étoile.
106 50 clés pour comprendre l’Univers

la surface d’une planète relative-


ment plus chaude. Cet effet est
flagrant dans le cas de Vénus, où
une atmosphère dense de dioxyde
de carbone réchauffe la surface de
centaines de degrés.

Puisqu’il ne nous est pas encore


possible d’analyser directement les
atmosphères de la plupart des exo-
planètes, les exobiologistes s’en
remettent à des modèles standar-
disés pour anticiper les effets de leur
éventuel réchauffement. En 1993,
le géophysicien James Kasting et ses
collaborateurs modélisèrent la zone
habitable comme une région qui
s’étend entre un bord interne, là où
une planète dont la gravité serait
égale à celle de la Terre perdrait tou-
Mercure Vénus Terre Mars
Kepler-22b jours son eau indépendamment de
la composition de son atmosphère,
Comparaison entre l’orbite de Kepler-22b, la première exoplanète et un bord externe, où l’eau serait
évoluant dans la zone habitable d’une étoile de type solaire, et les
orbites des planètes de notre Système solaire interne. juste au-dessus du point de congé-
lation sous une atmosphère à « effet
de serre maximal » (atmosphère à haute teneur en dioxyde de carbone). Les
estimations de Kasting placent la zone habitable de notre propre Système
solaire entre 0,95 et 1,67 UA du Soleil, ce qui suggère que la Terre frôle dan-
gereusement le bord interne. En 2013, un nouveau modèle a poussé la zone
habitable plus à l’extérieur, entre 0,99 et 1,70 UA.

Changer les règles du jeu Même si certains scientifiques se


sont efforcés d’affiner la position de cette zone habitable « classique », de
nouvelles découvertes ont ajouté à la difficulté de définir la zone habitable
et ont montré que nous sommes loin de clore la question de la recherche
de la vie. La découverte de nombreux organismes extrémophiles sur
Terre (voir page 49) prouve que la vie peut s’épanouir dans une gamme
d’environnements beaucoup plus large qu’on ne le pensait. Par ailleurs,
la mise en évidence des processus de réchauffement par effets de marée
des océans confinés sous la surface des lunes de glaces du Système solaire
externe a accru la possibilité que des mondes situés bien au-delà des limites
plus conventionnelles de la zone habitable soient susceptibles d’abriter des
formes de vie.
Les zones habitables 107

D’autres scientifiques ont étendu le concept d’habi-


tabilité encore davantage, réduisant encore la pos-
sibilité que des exoplanètes accueillent des formes
de vie. Un axe de réflexion envisageable consiste à
«signes
Les premiers
d’une autre
vie dans la Galaxie
étendre le concept de zone habitable à toute une pourraient bien
galaxie. Dans le cadre de cette « zone habitable venir de planètes en

»
galactique », les étoiles situées dans le cœur bondé
d’une galaxie sont plus susceptibles d’être en proie
orbite autour d’une
aux rayonnements stérilisants des explosions de naine de type M.
supernova, tandis que les étoiles à la périphérie se Elisa Quintana,
formeront sans la poussière nécessaire pour éla- Institut SETI
borer en premier lieu des planètes de type terrestre.
Certains astrophysiciens doutent cependant que la
position d’une étoile soit aussi utile. Nikos Pranzos, de l’Institut d’astrophy-
sique de Paris, a ainsi soutenu qu’il y a tout simplement trop de variables impli-
quées, parmi lesquelles, et non des moindres, le fait que dans une galaxie, la
trajectoire d’une étoile peut considérablement changer tout au long de sa vie.

Une autre considération, non pas d’ordre spatial mais temporel, rappelle, en
prenant l’exemple de notre planète, que l’évolution vers des formes de vie
avancées semble prendre du temps. Dans le cas de la Terre, les formes de vie
unicellulaires les plus primitives apparurent environ un milliard d’années après
la formation de notre planète, mais trois milliards d’années supplémentaires
furent nécessaires pour que l’explosion de la vie multicellulaire se produise.
La possibilité d’accueillir des formes de vie évoluées serait ainsi limitée aux
systèmes planétaires des étoiles avec une durée de vie de plusieurs milliards
d’années, c’est-à-dire celles dont la limite supérieure de masse est à peine plus
grande que la masse de notre Soleil. Certains ont enfin soutenu que notre géné-
ration de mondes est peut-être la première abritant une forme de vie avancée,
dans la mesure où galaxie a mis du temps à développer les éléments lourds
nécessaires à la formation de planètes de type terrestre.

L’idée clé
Des conditions propices
à la vie pourraient exister sur
de nombreuses exoplanètes
108 50 clés pour comprendre l’Univers

27 Les géantes rouges


Parmi les plus grands astres de l’Univers, les géantes rouges constituent
l’état d’évolution le plus spectaculaire des étoiles de type solaire, et jouent
un rôle clé dans la création d’éléments lourds. Considérées jadis comme des
étoiles naissantes, leur véritable nature ne fut reconnue qu’après l’abandon
d’idées fausses concernant la structure stellaire.

Le terme « géante rouge » remonte à la répartition des étoiles entre naines et


géantes proposée en 1905 par Ejnar Hertzsprung sur la base de leur éclat. Henry
Russell et lui s’étaient rendu compte que la grande luminosité et la basse tem-
pérature de surface de ces étoiles dénotaient une taille énorme. Cependant, il
était également clair que, malgré leur importance sur la voûte céleste, de telles
étoiles lumineuses sont extrêmement rares par rapport à leurs sœurs naines,
dont l’éclat est plus faible.

Expliquer les monstres Les géantes rouges sont si gigantesques que si


l’une d’elles se trouvait à la place du Soleil, elle engloutirait les orbites de plusieurs
planètes, y compris celle de la Terre. Dès 1919, Arthur Eddington proposa une
estimation de la taille de Bételgeuse, la célèbre géante rouge de la constellation
d’Orion. L’année suivante, à l’observatoire du Mont Wilson, en Californie, Albert
Michelson et Francis Pease pointèrent le télescope Hooker, alors le plus grand au
monde, en direction de Bételgeuse pour confirmer l’évaluation d’Eddington. Des
indices semblaient curieusement indiquer que la masse des géantes rouges n’était
pas vraiment plus élevée que celles des naines ordinaires. De toute évidence,
une différence fondamentale devait exister entre les processus de production
d’énergie au sein des naines et des géantes, mais laquelle ?

La solution découla de l’hypothèse audacieuse d’Ernst Öpik de 1938 qui suggéra


que les étoiles ne sont pas homogènes (voir page 78). À l’encontre des théories
dominantes de l’époque, présumant que les intérieurs stellaires étaient totale-
ment mélangés, Öpik proposa l’idée que les processus de production d’énergie
se déroulent dans une région centrale distincte où les produits de la fusion de
l’hydrogène s’accumulent avec le temps. En appliquant l’idée d’Eddington d’un
équilibre entre pression de radiation s’exerçant vers l’extérieur et force de gravité

chronologie
1920 1938 1945
Michelson et Pease Öpik présente l’idée d’un George Gamow élabore un
confirment le processus de fusion en coquilles modèle des géantes rouges
gigantesque diamètre dont la croissance déclenche en tant que stade avancé de
de l’étoile Bételgeuse des changements de la taille et l’évolution des étoiles de type
dans Orion. de la luminosité d’une étoile. solaire.
Les géantes rouges 109

vers l’intérieur, il montra comment un tel noyau deviendrait plus dense et plus
chaud en consommant ses réserves d’hydrogène. Au bout du compte, en dépit du
tarissement du combustible en son sein, le noyau dégage une telle quantité de cha-
leur dans le milieu environnant que les conditions sont réunies pour que des réac-
tions de fusion nucléaire s’amorcent dans une coquille de matériau autour de lui.

En raison des températures plus élevées qu’elle


implique, cette phase de « fusion de l’hydrogène
en couches » se déroule à un rythme beaucoup plus
rapide que la fusion dans le noyau, stimulant la
luminosité de l’étoile et amenant la partie de l’en-
« Le temps qu’une
étoile passe en tant
que géante rouge
veloppe au-dessus de la coquille à se dilater énor- au cours de son
mément, formant ainsi une géante rouge. Dans la évolution doit être
mesure où les processus de fusion en couches dila- infiniment plus bref
pident rapidement leur combustible, Öpik constata
que la période passée

»
qu’il s’agissait d’une phase relativement brève dans
le cycle de vie d’une étoile, expliquant pourquoi sur la séquence
les géantes rouges sont bien plus rares dans notre principale.
galaxie que les étoiles naines.
George Gamow
Au-delà des couches d’hydrogène Au
début des années 1950, les astrophysiciens
s’accordaient sur l’idée que la fusion nucléaire de l’hydrogène était la principale
source de l’énergie stellaire et qu’un processus de fusion en couches était bien
le facteur de l’évolution des géantes rouges. La question suivante était bien sûr
de savoir si d’autres réactions de fusion pourraient également jouer un rôle.
L’hélium était particulièrement mis en avant, car il est produit en abondance
par les premiers cycles de fusion de l’hydrogène. Plusieurs astrophysiciens et
physiciens nucléaires commencèrent à s’intéresser à une chaîne spécifique de
réactions de fusion de l’hélium comme moyen par lequel les étoiles pourraient
continuer à briller tout en générant certains éléments parmi les plus abondants
de l’Univers. La solution s’est présentée sous la forme de la réaction triple-alpha
(voir encadré page 110). Il s’agit d’une réaction de fusion entre les noyaux
d’hélium pouvant s’amorcer dès que certains seuils de densité et de température
sont atteints au sein du noyau d’une géante rouge.

Une fois que le processus de fusion de l’hélium devient possible, il se propage


rapidement au sein du noyau ; on appelle cet événement le « flash de l’hé-
lium ». Cette phase de régénération du noyau a un effet significatif sur la struc-

1952 1956 1962


Hoyle et Fowler Chklovski montre que les géantes rouges Schwarzschild et Härm découvrent
découvrent la réaction perdent leurs atmosphères sous forme le flash de l’hélium, un changement
triple alpha de la de nébuleuses planétaires, mettant à nu soudain de la structure des géantes
fusion de l’hélium. leurs noyaux qui deviennent des étoiles rouges déclenché par le début de la
de type naine blanche. combustion de l’hélium.
110 50 clés pour comprendre l’Univers

ture interne de l’étoile. Le regain de

La réaction la pression de radiation exercée par


le noyau provoque la dilatation de

triple alpha la couche où se déroulent les réac-


tions de fusion de l’hydrogène ; cette
coquille devient donc moins dense,
Le mécanisme responsable de la fusion nucléaire jugulant le processus de fusion qu’elle
de l’hélium en carbone dans les cœurs d’étoiles abrite. De ce fait, l’étoile dans son
évoluées est connu sous le nom de réaction triple ensemble se contracte et devient un
alpha. En effet, un noyau courant d’hélium (com- peu moins lumineuse. Les ressources
posé de deux protons et de deux neutrons) équi- en hélium du noyau étant assez vite
vaut aux particules alpha émises par certaines épuisées, le processus de combus-
substances radioactives. La première étape du tion de l’hélium reprend dans une
processus fait intervenir deux noyaux d’hélium coquille qui lui est propre, située sous
s’unissant pour former un noyau de béryllium-8. la coquille de combustion de l’hydro-
Cet isotope du béryllium est hautement instable gène ; l’étoile se dilate à nouveau et
et se désintègre presque aussitôt en deux noyaux son éclat s’accroît. Pour la grande
d’hélium, mais lorsque les conditions physiques majorité des étoiles, c’est bientôt la
régnant dans les noyaux stellaires franchissent fin – désormais enrichi en carbone et
un certain seuil, les noyaux d’hélium peuvent en oxygène, le noyau continue à se
produire des noyaux de béryllium plus vite que contracter, mais sa température n’at-
ces derniers ne se désintègrent. Lorsque le béryl- teindra jamais les valeurs extrêmes
lium commence ainsi à s’accumuler, la deuxième propres à lui fournir un autre sursis.
étape du processus devient possible : la fusion
d’un noyau de béryllium avec un noyau d’hélium À la fin de leur évolution, maintes
pour créer un noyau de carbone. À en croire les géantes rouges développent des
modèles d’interactions nucléaires du début des pulsations au sein de leurs couches
années 1950, il semblait peu probable que ce externes, se dilatant et se contractant
processus puisse se produire, même lorsque les au gré des instabilités de leur structure
noyaux de béryllium et d’hélium sont précipités interne (voir page 112). Ces oscilla-
les uns contre les autres. L’astrophysicien britan- tions s’accompagnent parfois d’im-
nique Fred Hoyle s’est rendu célèbre pour avoir portantes variations d’éclat pouvant
compris que cette réaction devait obligatoire- résulter d’une modification directe
ment se produire lorsque les étoiles forment bien de la production d’énergie au sein
du carbone. Il a donc prédit l’existence d’une de l’étoile, ou de l’effet de couches
« résonance » entre les énergies des trois noyaux opaques de gaz et de poussières riches
impliqués qui rendraient la réaction plus pro- en carbone rejetées hors de l’atmos-
bable. Malgré le scepticisme de la communauté phère et obscurcissant le rayonne-
des physiciens nucléaires, cette résonance précise ment de la photosphère sous-jacente.
a ensuite été découverte par l’équipe de William
Fowler à l’Institut de technologie de Californie La fin ultime L’astronome
(Caltech) en 1952. soviétique Iossif Chklovski expliqua
en 1956 quel pourrait être le destin
Les géantes rouges 111

des géantes rouges. Il découvrit que

Brillante
les nébuleuses planétaires étaient
un « chaînon manquant » de leur 4
parcours évolutif. Ces magnifiques 2
bulles de gaz interstellaire en

LUMINOSITÉ
forme de sabliers et d’anneaux
qu’illumine en leur centre une 3
1
étoile blanche chaude, semblent
s’étendre à une vitesse formidable.
Chklovski se rendit compte que Séquence principale

de telles caractéristiques faisaient

Ténue
des nébuleuses planétaires des
objets à courte durée de vie en
termes astronomiques (peut-être Bleue O B A F G K M Rouge
quelques milliers d’années). Il en
conclut qu’elles ne devaient représenter qu’une phase entre deux stades Quand une étoile de type
d’évolution incarnés par des types d’astres plus répandus. L’étoile solaire a épuisé tout
l’hydrogène présent dans
centrale blanche et chaude semble être une version plus chaude encore son noyau, elle quitte
d’une « naine blanche » (voir page 124), le destin ultime de toutes les la séquence principale
du diagramme de
nébuleuses planétaires. Quant aux bulles de gaz interstellaires évoquées Hertzsprung-Russell (1)
plus haut, elles présentent une forte similitude avec les atmosphères en augmentant d’éclat
et en se dilatant pour
des géantes rouges. Pouvaient-elles être à l’origine des nébuleuses devenir une géante
planétaires ? rouge (2). Lors de la
phase de combustion
de l’hélium dans le
Des recherches ultérieures confirmèrent ces audacieuses déductions. En cœur, l’étoile rejoint la
1966, George Abell et Peter Goldreich montrèrent précisément comment branche horizontale (3),
mais dès que l’étoile
les couches les plus externes d’une géante rouge pouvaient s’échapper entame la phase de
pour former une nébuleuse planétaire, tandis qu’entre les années 1950 combustion de l’hélium
en coquille, elle se dilate
et 1970, Martin Schwarzschild et Richard Härm de Princeton modéli- encore plus et rejoint la
sèrent sur ordinateur l’histoire complète des géantes rouges avec un luxe zone dite asymptotique
des géantes (4).
croissant de détails. Plus récemment, les images fournies par le téles-
cope spatial Hubble et d’autres observatoires modernes ont révélé encore
davantage de détails sur la fin de vie des étoiles comme le Soleil.

L’idée clé
Les géantes rouges sont
de vieilles étoiles de type
solaire ayant évolué
112 50 clés pour comprendre l’Univers

28 Les étoiles pulsantes


Alors que la luminosité de la grande majorité des étoiles est plus ou moins
constante pendant l’essentiel de leur vie, l’éclat de certaines d’entre elles
varie considérablement sur des durées relativement courtes. Certaines
d’entre elles sont des étoiles binaires à éclipse, mais les changements de
luminosité peuvent aussi être le fait d’une étoile unique en proie à de
spectaculaires pulsations.

La première étoile pulsante jamais découverte est aujourd’hui encore la


plus célèbre. Cataloguée sous le nom d’Omicron Ceti, cette étoile rouge de
la constellation de la Baleine située au niveau de la nuque du mastodonte
marin subit des variations spectaculaires de luminosité : sur un cycle d’environ
onze mois, elle passe de visible à l’œil nu à détectable seulement au télescope.
D’abord remarquée par David Fabricius en 1596, Johannes Hevelius lui attribua
peu après le nom latin Mira (littéralement « la merveille »).

Les étoiles variables, qui n’ont été découvertes en grand nombre qu’à partir de
la fin du xviiie siècle, ont vite fait preuve d’une surprenante variété. Alors que
certaines, comme Mira, étaient assurément des étoiles rouges avec des pulsa-
tions de longue période, d’autres, comme delta de Céphée, variaient de façon
moins spectaculaire et en quelques jours seulement.

Si les variations de Mira pouvaient s’avérer quelque peu erratiques, les étoiles
dites céphéides ont vite été connues pour répéter leur cycle avec une précision
de métronome. Au xxe siècle, les progrès des techniques photométriques pour
la mesure à haute précision des magnitudes stellaires révélèrent un éventail de
changements encore plus grand, comprenant notamment des étoiles modifiant
leur luminosité par des fractions de magnitude en quelques minutes, ainsi que des
configurations plus complexes constituées de pulsations multiples superposées.

Changements internes En 1879, l’ingénieur allemand August Ritter


fut le premier à proposer l’idée que les variations de luminosité de ces étoiles
sont imputables aux seules modifications de leur taille et de leur luminosité.
Mais à l’époque, ses idées furent largement ignorées. En effet, les astronomes

chronologie
1596 1784 1879
Fabricius note le changement John Goodricke Ritter propose l’hypothèse que
d’éclat de Mira, la première découvre la variabilité la pulsation des étoiles résulte de
étoile variable jamais de delta Cephei. changements internes plutôt que
découverte. d’interactions avec d’autres étoiles.
Les étoiles pulsantes 113

étaient alors persuadés que la variabilité n’était


que le résultat d’interactions au sein de systèmes
d’étoiles binaires (voir page 94). En 1908, cependant,
Henrietta Leavitt (l’une des calculatrices de
de
«
Il convient
noter que
les variables plus
Harvard recrutées par Pickering ; voir page 63) fit brillantes ont

»
une importante découverte. Parmi des milliers de les periodes plus
variables de type céphéide photographiées dans le
Petit Nuage de Magellan (un nuage d’étoiles isolé
longues.
désormais reconnu comme galaxie satellite de la Henrietta Leavitt
Voie lactée), une association évidente se faisait jour :
plus l’éclat moyen d’une céphéide était grand, plus son cycle de variation était
long. En supposant que le nuage était bien un objet physique à une distance
relativement grande de la Terre (de sorte que toutes ses étoiles sont effectivement
à la même distance et que les différences de magnitude apparente représentent
bien des différences de luminosité intrinsèque), Leavitt fut en mesure de conclure
qu’une véritable relation entre période et luminosité était à l’œuvre.

En 1912, elle publia des preuves plus détaillées de cette relation période-lumi-
nosité. Sa découverte infirma des idées soutenues depuis longtemps au sujet
des étoiles variables, faute d’explication plausible pour justifier qu’un sys-
tème binaire à éclipse ou un système similaire doive se conformer à cette règle
période-luminosité. La relation que Miss Leavitt avait découverte devait aussi
jouer un rôle clé dans la mise au point d’idées concernant l’Univers à grande
échelle (voir page 146).

Malgré les preuves rassemblées en 1914 par Harlow Shapley en faveur de l’hypo-
thèse que les céphéides étaient stimulées par un type quelconque de mécanisme
de pulsation, une explication détaillée restait inaccessible. Puis, dans les années
1920, Arthur Eddington, en s’appuyant sur son nouveau modèle d’intérieurs
stellaires, affirma que les pulsations devaient être régulées par une « soupape »
naturelle limitant le rayonnement qui s’échappe de la surface de l’étoile.

Il montra également qu’une telle situation pourrait survenir si une couche


particulière à l’intérieur de l’étoile devenait plus opaque. La densité au sein
d’une telle couche qui s’accroît en raison de la compression tend à ralentir la
fuite des rayonnements, mais il en résulte un supplément de pression venant
d’en dessous qui pourrait éventuellement pousser la couche vers l’extérieur,
après quoi elle deviendrait plus transparente et permettrait à l’excès d’énergie
de s’échapper. C’est ainsi que le processus devient un cycle récurrent.

1908 1926 1953


Leavitt découvre la relation période- Eddington montre que les Jevakin montre que l’ionisation
luminosité dans les céphéides, pulsations stellaires sont sans de l’hydrogène peut causer
renforçant l’idée que leur variabilité doute dues à des changements des changements d’opacité
est d’origine interne. d’opacité interne. dans le modèle d’Eddington.
114 50 clés pour comprendre l’Univers

Un seul problème majeur handicapait

D’autres types la théorie d’Eddington : les indices


qui suggèrent que l’accroissement de

de variables pression dans la plupart des régions


d’une étoile réduit réellement son
opacité (un effet connu sous le nom
Le mécanisme de pulsation proposé par Eddington de loi d’opacité de Kramers). Dans les
n’est pas à même d’expliquer toutes les étoiles années 1950, Sergei Jevakin trouva un
intrinsèquement variables. L’éclat de beaucoup mécanisme pour expliquer les pulsa-
d’étoiles jeunes varie, à l’instar de celui des étoiles tions des céphéides. Des structures
de type T Tauri (voir page 86), car l’intérieur de ces connues sous le nom de zones d’ioni-
astres n’est pas encore en équilibre et ils peuvent sation partielle sont des régions à l’in-
encore gagner ou perdre des quantités considé- térieur d’une étoile, relativement près
rables de matière. La production de lumière des de sa surface, où l’ionisation (l’arra-
supergéantes massives et très lumineuses, quant chage des électrons d’un atome), sous
à elle, peut aussi être variable car l’ampleur même l’effet d’une température élevée, est
de la pression de radiation qu’elles exercent les incomplète. Comprimer le gaz dans
rend instables, une singularité qui se traduit sou- ces zones libère une énergie qui pro-
vent par l’éjection de leurs couches externes dans duit un supplément d’ionisation et
l’espace environnant (voir page 117). augmente l’opacité.
D’autres variables nécessitent une interpré-
tation totalement différente. Il s’agit notam- L’éventail des pulsations Ce
ment des étoiles de type R Coronæ Borealis, mécanisme d’opacité (connu désormais
des géantes qui expulsent parfois des nuages sous le nom de kappa-mécanisme) offre
opaques de poussières pouvant bloquer des une bonne explication à la pulsation
années durant une grande partie de la lumière des céphéides et de bien d’autres types
qu’elles rayonnent. Depuis peu, les astronomes d’étoiles. Une large bande s’étendant
ont commencé à examiner avec attention une en diagonale sur le diagramme H-R
large variété d’étoiles variables, des astres dont – dite « bande d’instabilité » – constitue
la luminosité varie à mesure qu’ils tournent sur une région où l’équilibre entre masse,
eux-mêmes en raison d’énormes taches stellaires taille et luminosité suscite la formation
sombres dans leurs atmosphères, des effets de de telles zones d’ionisation partielle
champs magnétiques puissants, voire des défor- au sein des étoiles. Les étoiles dont
mations de leurs silhouettes générales dans le les points représentatifs se trouvent
cas des étoiles en rotation les plus rapides et des sur cette bande comprennent les
étoiles membres de systèmes binaires serrés. « céphéides classiques », celles qui
ressemblent à delta Cephei, ainsi que
de nombreuses autres classes d’étoiles
variables :
• Les étoiles de type W Virginis. Globalement semblables aux céphéides clas-
siques, mais d’une moindre masse, ces étoiles renferment moins d’éléments
lourds et présentent une relation période-luminosité distincte.
Les étoiles pulsantes 115

Le kappa-
mécanisme
commence
par une zone
d’ionisation partielle
transparente aux
rayonnements.
Sa présence réduit
la pression de
radiation, si bien
que les couches
1. Effondrement lent 2. Ionisation 3. Dilatation 4. De nouveau transparent externes de l’étoile
tombent lentement
vers l’intérieur
• Les étoiles de type RR Lyræ. Ces vieilles étoiles de « Population II » se trouvent (1). Sous l’effet de
souvent dans des amas globulaires (voir page 82). cette compression,
les températures
augmentent au
• Les étoiles de type delta Scuti. Également connues sous le nom de « céphéides point que la zone
naines », ces étoiles, moins lumineuses que les céphéides, ont un profil de devient plus ionisée
et opaque, piégeant
variabilité assez similaire, mais d’une bien plus courte période. le rayonnement (2).
Cet épisode
Bien que le kappa-mécanisme ait souvent réussi à expliquer de nombreux types augmente la
pression vers
d’étoiles variables, les astronomes sont encore à la recherche d’une compréhen- l’extérieur et l’étoile
sion complète de Mira, le meilleur exemple d’étoile pulsante sur toute la voûte commence à se
dilater (3) jusqu’à
céleste. Sa classe de « variables à longue période » rassemble des astres trop ce que la zone,
froids pour que le kappa-mécanisme fonctionne comme dans les céphéides. Le se refroidissant
et voyant son
mécanisme à l’œuvre dans ces étoiles ne semble pas modifier leur production ionisation diminuer,
globale d’énergie, mais la déplacer totalement du domaine de la lumière visible devienne à nouveau
à celui de l’infrarouge, et inversement. L’explication la plus probable pour le transparente
(4) pour que le
moment est que les pulsations des variables à longue période seraient créées par processus puisse
un mécanisme d’opacité externe, comme le serait, dans la haute atmosphère, se répéter.
une formation corrélée à la température de grains de poussières absorbant sélec-
tivement le rayonnement de l’étoile.

L’idée clé
Bien des étoiles varient
en luminosité, certaines avec
une périodicité pouvant
être prédite
116 50 clés pour comprendre l’Univers

29 Les supergéantes
Les étoiles les plus brillantes de l’Univers sont jusqu’à un million de fois plus
lumineuses que le Soleil. Elles vont des supergéantes bleues compactes de la
catégorie poids lourd jusqu’à des supergéantes rouges boursoufflées, certes
moins massives, mais tout aussi brillantes. De tels monstres stellaires jouent
un rôle clé dans l’enrichissement du cosmos en éléments lourds.

La recherche des étoiles les plus brillantes et les plus massives est une activité
pérenne pour les astronomes, mais déterminer la physique sous-jacente fut une
avancée cruciale dans notre compréhension de l’Univers dans son ensemble.
Le terme supergéante tient à la position de ces étoiles sur le diagramme de
Hertzsrprung-Russell. Au cours des années 1940 et 1950, William Morgan,
Philip Keenan et Edith Kellman formalisèrent une répartition des étoiles en
différentes « classes de luminosité », destinée à accompagner leurs types spec-
traux. Dans cette classification, souvent dite classification MK ou de Yerkes
(voir encadré page 119), chaque classe de luminosité est désignée par un chiffre
romain. C’est ainsi que la classe V a été attribuée aux naines normales de la
séquence principale, tandis que les supergéantes sont réparties en deux classes,
Ia et Ib. La classe O a été ajoutée plus tard pour les hypergéantes, une catégorie
d’étoiles encore plus brillantes.

Dès les années 1920, Arthur Eddington suggéra qu’il existe une limite de
luminosité au-delà de laquelle aucune étoile ne peut rester stable, la pres-
sion de radiation exercée vers l’extérieur ne pouvant plus être contenue.
Masse et luminosité étant liées, il existe donc une limite supérieure de masse
pour les étoiles stables. Jusque récemment, les astrophysiciens pensaient que
cette limite se situait autour de quelques dizaines de masses solaires, mais
ils ont maintenant compris qu’une vaste gamme de facteurs affecte la sta-
bilité des étoiles et leur permet de devenir considérablement plus massives
sans que le processus de formation en soit vraiment affecté. Ainsi, l’étoile
la plus massive connue aujourd’hui est R136a1, une géante de 265 masses
solaires située au cœur d’un amas stellaire jeune et dense du Grand Nuage
de Magellan.

chronologie
1843 1867 1943
L’étoile bleue variable Êta de Charles Wolf et Georges Morgan, Keenan et Kellman
la Carène entre en éruption Rayet identifient les adoptent le terme supergéante
et devient brièvement premiers exemples pour désigner les étoiles les
la deuxième étoile la plus d’étoiles de Wolf-Rayet. plus brillantes de leur système
brillante de la voûte céleste. de classification.
Les supergéantes 117

Monstres divers Dans les étoiles les plus


massives, la gravité l’emporte sur la tendance
naturelle à se dilater, les maintenant à l’état de
supergéantes bleues assez compactes avec des
y
«
ait
Il semble qu’il
une relation
générale entre
températures de surface qui se comptent en la masse d’un amas
et celle de l’étoile

»
dizaines de milliers de degrés. Toutefois, le point
essentiel d’Eddington, à savoir que la grande la plus massive
luminosité des étoiles massives les rend instables,
se confirme dans la diversité des supergéantes
en son sein.
étudiées jusqu’à présent. Les variables lumineuses Paul Crowther
bleues (Luminous Blue Variables en anglais, ou LBV)
sont des étoiles très évoluées (bien qu’âgées seulement de quelques millions
d’années en raison de la durée de vie accélérée des étoiles les plus massives)
qui fluctuent violemment en taille, en luminosité et en température de surface
quand s’approche la fin de leur brève existence.

Un peu moins massives que les LBV, les supergéantes blanches, dites étoiles de
Wolf-Rayet, furent observées pour la première fois dans les années 1860. Les
études de leurs spectres révèlent qu’elles sont entourées de gaz en expansion
rapide, et qu’elles ne se conforment pas à ce qui est attendu des relations entre
masse, température et luminosité. Elles sont un exemple classique de la théorie
d’Eddington en action : il s’agit en effet d’étoiles qui commencent leur vie avec
une luminosité telle qu’un vent stellaire à grande vitesse emporte au loin leurs
couches superficielles. Le fait d’exposer ainsi les couches plus profondes et plus
chaudes ne fait qu’accroître la pression de radiation dirigée vers l’extérieur,
instaurant un effet d’emballement qui fait qu’elles perdent une énorme frac-
tion de leur masse – peut-être des dizaines de masses solaires – au cours de leur
courte phase de combustion de l’hydrogène. Cette rapide perte de masse a un
effet significatif sur la manière dont ces étoiles évoluent au cours des dernières
étapes de leur vie.

Les supergéantes jaunes, plus froides, sont des étoiles qui ont épuisé l’hydro-
gène de leur noyau et sont en expansion vers l’état de supergéante rouge. Ce fai-
sant, elles traversent la « bande d’instabilité » du diagramme H-R et deviennent
des variables de type céphéide (voir page 112). En raison d’une perte de masse
antérieure, elles ont tendance à être moins massive que les LBV, avec une masse
ne dépassant pas 20 masses solaires. Les supergéantes rouges, quant à elles, sont

1954 1971 2010


Hoyle montre comment les Keenan formule Paul Crowther et ses collaborateurs
supergéantes produisent la définition moderne identifient R136a1 dans le Grand
toute une variété d’une étoile hypergéante. Nuage de Magellan, l’étoile la plus
de processus de fusion. massive jamais connue.
118 50 clés pour comprendre l’Univers

L’intérieur d’une Enveloppe Fusion


supergéante évoluée d’hydrogène de l’hydrogène
se compose d’une
énorme enveloppe Fusion
d’hydrogène dont le de l’hélium
diamètre est peut-
être similaire à celui Fusion
de l’orbite de Jupiter. du carbone
Vers le centre, les Fusion
astrophysiciens du néon
discernent une Fusion
assez petite série de de l’oxygène
coquilles abritant des
processus de fusion Fusion
aptes à synthétiser du silicium
des noyaux de
Cœur inerte
différentes masses,
de fer
jusqu’à celle du fer.

le résultat de l’expansion au cours des dernières phases de l’évolution stellaire.


À l’instar des géantes rouges, elles se forment quand les processus de fusion
nucléaire migrent du noyau de l’étoile vers une ou plusieurs couches en forme
de coquille. Ce sont en volume les plus grandes étoiles de l’Univers, avec des
diamètres équivalents à celui de l’orbite de Jupiter, voire encore plus grand.
Cependant, ce stade n’est atteint que par des étoiles dont la masse ne dépasse
pas 40 masses solaires ; les étoiles plus massives connaissent des fins violentes
en tant que supernovæ alors qu’elles sont encore à l’état de LBV.

Fourneaux nucléaires En 1954, Fred Hoyle décrivit les processus à


l’œuvre au sein des supergéantes. Il soutint que les énormes pressions exercées
par les couches extérieures de ces étoiles finiraient par comprimer leurs noyaux
en élevant leur température au point que les mécanismes de fusion nucléaire
ne pourraient pas prendre fin au stade de la réaction triple-alpha de la même
manière que dans les étoiles comme le Soleil (voir page 110). Au lieu de cela, les
processus de fusion seraient amenés à se poursuivre, en agrégeant les noyaux
d’éléments comme le carbone et l’oxygène conjointement avec des noyaux
résiduels d’hélium pour former des noyaux d’éléments de plus en plus lourds,
tels que le néon et le silicium.

Un tel processus pourrait au bout du compte créer tous les éléments jusqu’au fer,
au cobalt et au nickel – les plus lourds des éléments, dont la formation rejette
plus d’énergie qu’elle n’en capte. Les origines des éléments plus lourds que le fer
demeuraient toutefois mystérieuses. Puis, en 1952, les époux Geoffrey et Margaret
Burbidge découvrirent quelques rares étoiles qui semblaient être enrichies de tels
éléments encore plus lourds. Comme ils ne pouvaient pas avoir été synthétisés
par fusion directe, la seule solution pour expliquer leur formation était le lent
bombardement de noyaux plus légers par des neutrons subatomiques indivi-
Les supergéantes 119

duels. William Fowler, ayant remarqué le travail des Burbidge, commença à tra-
vailler avec eux, ainsi qu’avec Fred Hoyle. Ils publièrent f­ inalement un article de
revue, en 1957, resté célèbre en tant qu’article B2FH (acronyme bâti avec les ini-
tiales de ses auteurs). C’était la première fois qu’un article exposait le rôle joué,
dans la création des éléments dans les étoiles massives, par la fusion nucléaire,
mais aussi par deux types de capture de neutrons, le lent « ­processus-s » et le
rapide « processus-r ». L’astrophysicien canadien Alastair Cameron, en suivant
de son côté une ligne de recherche similaire, relia le ­processus-r aux explosions
de supernova (voir page 122). Ce succès constitua la dernière étape cruciale de
l’explication de l’origine des éléments dans les étoiles.

Classes de luminosité
En 1913, le physicien allemand Johannes Stark détectées dans les spectres des naines doivent
découvrit un phénomène connu sous le nom donc être plus larges que celles observées
d’élargissement par pression, ayant pour effet dans les spectres des géantes. Ce fut l’une
d’élargir les raies d’absorption ou d’émission des innovations clé du système de classifica-
d’un gaz donné, quand le gaz en question est tion MK, créant un raccourci pour déterminer
soumis à une pression plus élevée. Cet effet les luminosités stellaires.
est dû à un accroissement du nombre de col- Une fois que cette méthode indépendante
lisions entre les particules du gaz proches les pour mesurer les tailles stellaires fut com-
unes des autres, créant de légères variations binée avec des informations sur la couleur et
de l’énergie totale émise ou absorbée par le type spectral, il devint possible de déduire
chaque atome individuel. Morgan et Keenan, directement les luminosités des étoiles, et par
de l’observatoire Yerkes, s’aperçurent qu’un conséquent, d’estimer leur probable distance
tel effet pourrait être utilisé pour estimer la de la Terre. Pour la première fois, il apparut
taille d’une étoile. Étant donné que la pression que plusieurs types d’étoiles apparemment
des gaz de la photosphère d’une petite étoile sans rapport, aux couleurs et aux propriétés
dense est plus élevée que celle des gaz de la différentes, étaient en fait toutes des super-
photosphère d’une géante distendue, les raies géantes très lumineuses.

L’idée clé
Les étoiles poids lourd
vivent vite et meurent jeunes
120 50 clés pour comprendre l’Univers

30 Les supernovæ
Alors que les étoiles comme le Soleil finissent leurs vies dans les ronds de
fumée cosmique assez paisibles d’une nébuleuse planétaire, les poids lourds
stellaires vivent à toute vitesse et meurent jeunes. Ils finissent leurs vies dans
l’explosion spectaculaire d’une supernova, dont l’éclat peut alors surpasser
celui des mille milliards d’étoiles de toute une galaxie et projeter à travers
l’espace de nouveaux matériaux de formation stellaire.

Les supernovæ se produisent en moyenne une fois par siècle, dans notre galaxie,
et peuvent parfois devenir les objets les plus brillants de notre voûte céleste. À ce
titre, leurs apparitions furent remarquées et consignées tout au long de l’histoire,
notamment en 1054, lorsque la mort violente d’une étoile dans la constellation
du Taureau illumina le ciel nocturne et abandonna le nuage effiloché de gaz sur-
chauffé connu sous le nom de nébuleuse du Crabe. Plus tard, en 1572, une nou-
velle supernova contribua à ébranler les hypothèses sur l’immuabilité des cieux et
précipita la révolution copernicienne (voir page 5). Mais en raison de leur rareté, les
supernovæ sont difficiles à étudier – depuis l’invention des lunettes et télescopes,
les astronomes n’en ont répertorié aucune dans notre galaxie. Il fallut attendre les
années 1920 et l’acceptation de l’existence de galaxies bien au-delà de la Voie lactée
pour que les études des supernovæ prennent vraiment leur essor, alors que les astro-
nomes commençaient à les repérer et à les examiner dans de lointaines galaxies.

La traque des supernovæ Les astronomes mirent un certain


temps avant de parvenir à faire la différence entre les supernovæ et les novæ
ordinaires, qui ne sont que des sursauts d’éclat fortuits d’étoiles par ailleurs
assez modestes (voir page 129). La première supernova à être reconnue comme
telle, en 1934, s’était en réalité produite près d’un demi-siècle auparavant dans
une galaxie proche repérée dans la constellation d’Andromède. Une avancée
dans la mesure des distances (voir page 146) fut nécessaire pour estimer à
quel point l’explosion de « S Andromedæ » avait été violente en 1885. Walter
Baade et Fritz Zwicky, qui travaillaient à l’Observatoire du Mont Wilson, en
Californie, calculèrent que l’événement avait été au moins un million de fois
plus lumineux que le Soleil et inventèrent le terme supernova pour le décrire.

chronologie
1921 1934 1941
John Duncan découvre que Baade et Zwicky calculent Rudolph Minkowski et Zwicky
la nébuleuse du Crabe est en le véritable éclat classent les supernovæ
expansion. Knut Lundmark note de la nova S Andromedæ. en deux types distincts.
sa parenté avec la nova de 1054.
Les supernovæ 121

Dans les années qui suivirent, Zwicky, Baade et Rudolph Minkowski menèrent
un suivi intensif de supernovæ se produisant dans d’autres galaxies. Zwicky
était en charge de la recherche initiale de l’apparition d’étoiles nouvelles,
Baade en faisait le suivi en mesurant l’évolution de leur luminosité (en
bâtissant un modèle de leurs « courbes de lumière ») tandis que Rudolph
Minkowski se concentrait sur l’obtention de spectres. Baade étudia égale-
ment les éventuelles supernovæ historiques dans notre galaxie. Il confirma
ainsi que l’astre considéré en 1572 comme une « étoile nouvelle » était bien
une supernova, et découvrit que la nébuleuse du Crabe devait aussi être une
supernova (plutôt qu’une nébuleuse planétaire) en raison de son taux d’ex-
pansion rapide.

Disposant d’une base de données de plus d’une


douzaine de supernovæ individuelles, Rudolph
Minkowski et Zwicky établirent en 1941 une clas-
sification dont les caractéristiques de base sont
encore utilisées aujourd’hui. En combinant carac-
« Nous défendons
l’opinion qu’une
supernova représente
téristiques de raies spectrales et différences entre la transition d’une
profils de décroissance de courbes de lumière, ils étoile ordinaire
répartirent d’une manière globale les supernovæ vers une étoile

»
en types I et II, avec quelques subdivisions dans
chaque catégorie. Une telle répartition peut tou-
composée surtout
tefois sembler quelque peu contestable, dans la de neutrons.
mesure où l’on sait aujourd’hui que l’origine des Fritz Zwicky
objets classés supernovæ de type Ia est assez diffé-
rente de celles de tous les autres (voir page 130).

Étoiles en explosion En se basant sur le comportement de


S Andromedæ, Zwicky et Baade montrèrent dès 1934 qu’une explosion de
supernova mettait en œuvre la conversion de grandes quantités de masse
en pure énergie, conformément à la célèbre équation d’Einstein E = mc2. Ils
firent valoir qu’une supernova représentait la transition entre une étoile poids
lourd et une entité beaucoup moins massive. Ils firent également l’hypothèse
de l’existence d’étoiles à neutrons super-denses (voir page 126) en tant que
produit final possible d’un tel événement. Les véritables processus à l’œuvre
dans une supernova typique de type II ne furent expliqués qu’en 1957 dans
l’article historique « B2FH » (voir page 119) de Margaret et Geoffrey Burbidge,
William Fowler et Fred Hoyle.

1942 1957 1987


Baade mesure le taux Les Burbidge, Fowler et Hoyle La supernova la plus brillante
d’expansion de la nébuleuse expliquent comment les des temps actuels, SN 1987A,
du Crabe et la relie éléments lourds se forment dans apparaît dans le Grand Nuage
à la supernova de 1054. les explosions de supernova. de Magellan.
122 50 clés pour comprendre l’Univers

En expliquant la fusion du carbone dans les étoiles (voir page 110), Hoyle
s’était convaincu que les intérieurs des astres les plus massifs (plus de
huit fois la masse du Soleil) édifiaient, à l’abri d’une vaste enveloppe d’hy-
drogène, une série de coquilles en pelure d’oignon dévolues à la synthèse
des éléments jusqu’au fer et au nickel. Toutefois, la synthèse du fer absor-
bant plus d’énergie qu’elle n’en relâche, priverait l’étoile de toute source
d’énergie. Hoyle comprit que, ne disposant plus d’une pression de radia-
tion dirigée vers l’extérieur pour le soutenir, le cœur de l’étoile, dont la
masse dépassait forcément la limite de Chandrasekhar de 1,4 masse solaire
(voir page 125), s’effondrerait brutalement pour former une étoile à neutrons
(voir encadré ci-contre).

Effondrement et rebond
Faute de support, les coquilles

Neutrinos externes tombent vers l’intérieur


avant de rebondir à la surface de

de supernovæ l’étoile à neutrons, produisant une


gigantesque onde de choc dont les
effets font que la supernova devient
La formation d’une étoile à neutrons implique
visible. S’ensuit une compression
une réaction nucléaire dans laquelle des protons
soudaine et un considérable
et des électrons chargés électriquement sont
chauffage des couches externes de
poussés les uns contre les autres pour former
l’étoile, où se déchaîne une vague de
des neutrons. Des particules subatomiques, les
réactions nucléaires qui n’auraient
neutrinos, sous-produits de ce processus, sont
pas pu s’amorcer autrement.
relâchées ; d’autres neutrinos sont émis pour
Le premier rôle est tenu par le
permettre à l’étoile à neutrons de se débarrasser
processus-r, au cours duquel des
rapidement d’un excès de chaleur généré par
neutrons produits en abondance par
l’effondrement gravitationnel de l’astre. Les neu-
la formation de l’étoile à neutrons
trinos sont presque dépourvus de masse et se
sont capturés par des noyaux lourds
propagent à des célérités très proches de celle
comme ceux du fer. Hoyle comprit
de la lumière, ils émergent donc de la supernova
qu’un tel mécanisme pourrait
bien avant que les effets de l’explosion s’inten-
produire en grande quantité toute
sifient dans ses couches externes. Ces particules
une gamme d’éléments lourds,
animées d’un mouvement rapide sont notoire-
résolvant enfin le problème de leur
ment difficiles à détecter, mais des moyens per-
origine restée jusque-là sans réponse.
fectionnés d’observation de neutrinos, enterrés
très profondément, offrent un système d’alerte L’article B2FH convainquit beaucoup
précoce utile pour signaler une supernova immi- de scientifiques car ses prédictions
nente, ainsi qu’un moyen de sonder les événe- s’accordaient bien aux nouvelles
ments survenant autant dans le noyau de l’étoile estimations des abondances cos-
qui explose qu’autour de ce dernier. miques des éléments publiées en
1956 par les chimistes Hans Suess et
Les supernovæ 123

Harold Urey (estimations basées sur


des mesures méticuleuses d’échan-
tillons de météorites). Ce fameux Hypernovæ
article n’avait toutefois pas tout
résolu. L’importance du ­processus-r, Les ultimes étapes des étoiles vraiment mas-
notamment, fut expliquée correc- sives peuvent être encore plus spectaculaires
tement pour la première fois par que celles d’une supernova « normale ». Ces
Alastair Cameron, qui travaillait de étoiles-monstre, dont les cœurs ont des masses
manière indépendante ; des modé- comprises entre 5 et 15 fois celle du Soleil,
lisations informatiques menées s’effondrent pour former en leurs centres
par William Fowler, son étudiant des trous noirs (voir page 132). Ces derniers
Donald Clayton, et par Cameron, peuvent capturer et promptement engloutir le
furent nécessaires pour résoudre bien matériau des couches externes de l’étoile alors
d’autres problèmes en suspens. qu’elles sont encore dans un processus explosif.
Normalement, tout cela réduit l’éclat de l’explo-
Les supernovæ de type II typiques sion initiale, mais si l’étoile tourne assez rapide-
(appelées parfois supernovæ gra- ment sur elle-même, la frénésie d’alimentation
vitationnelles) surviennent dans du trou noir sera aussi en mesure de susciter
des étoiles avec des masses jusqu’à l’éjection de puissants faisceaux de particules
40 à 50 fois celle du Soleil. Celles à des vitesses proches de celle de la lumière.
de type Ib et Ic, qui s’illuminent et Ces derniers, en interagissant avec l’enveloppe
s’éteignent de manière assez diffé- stellaire externe en train d’exploser, peuvent la
rente, impliquent un mécanisme dynamiser pour porter l’éclat de l’explosion à dix
similaire, mais surviennent dans des ou vingt fois celui d’une supernova normale. De
étoiles de Wolf-Rayet ayant répandu telles « hypernovæ » sont également en mesure
autour d’elles une fraction impor- de relâcher des bouffées de rayons gamma de
tante de leurs couches externes (voir haute énergie. Curieusement, les plus massifs de
page 117). Pour ajouter encore à la tous les cœurs stellaires ne produisent aucun de
confusion, les supernovæ de type Ia ces effets : la gravité des trous noirs qu’ils for-
mettent en œuvre un mécanisme ment est si intense qu’ils engloutissent l’étoile
tout à fait différent, et encore plus avant qu’elle puisse complètement exploser.
spectaculaire (voir page 130).

L’idée clé
Les étoiles supergéantes
meurent dans de violentes
explosions
124 50 clés pour comprendre l’Univers

31 Les vestiges stellaires


Parvenue à la fin de son évolution, une étoile se débarrasse finalement de
ses couches extérnes pour mettre à nu un noyau consumé qui deviendra son
seul vestige durable. Les circonstances exactes de ces agonies stellaires et
le type d’objets qui subsistent par la suite dépendent en premier lieu de la
masse globale de l’étoile.

Les astronomes reconnaissent trois principaux types de vestiges stellaires : par


ordre de densité croissante et de taille décroissante, ce sont les naines blanches,
les étoiles à neutrons et les trous noirs. Ces derniers sont les objets les plus
bizarres de l’Univers (voir chapitre 33), mais la plupart des vestiges sont des
naines blanches ou des étoiles à neutrons. Aujourd’hui, nous savons que les
naines blanches sont l’étape finale des étoiles dont la masse est inférieure à
huit masses solaires, soit l’écrasante majorité de la population stellaire de notre
galaxie. Étoiles à neutrons et trous noirs sont les vestiges d’étoiles plus massives
qui vivent leur phase de fusion de l’hydrogène à l’état de supergéantes, avant
de mourir dans une spectaculaire explosion de supernova (voir page 120).

Naines blanches Tous les vestiges stellaires sont bien plus petits que
leurs étoiles progénitrices, ils brillent donc d’un plus faible éclat et sont plus
difficiles à détecter. Aucun n’est visible à l’œil nu ; la première naine blanche
fut détectée dès 1783 par William Herschel qui la répertoria comme un membre
du système d’étoiles multiples 40 Eridani. L’importance de cette étoile ne
fut comprise que beaucoup plus tard, c’est pourquoi les premières naines
blanches reconnues comme une classe stellaire importante et rare furent les
compagnons de deux des étoiles les plus brillantes du ciel : Sirius et Procyon.
En 1844, Friedrich Bessel, ayant noté de légères variations dans la position de
ces deux astres proches, imputa ces oscillations à la présence d’étoiles invisibles
en orbite autour d’elles. L’étoile liée à Sirius (Sirius B) ne fut toutefois pas
repérée avant 1862, quand l’astronome américain Alvan Clark parvint enfin à
la détecter avec une lunette astronomique.

Au début du xxe siècle, les astronomes mesurèrent pour la première fois le


spectre des naines blanches et constatèrent qu’ils étaient très similaires à ceux

chronologie
1862 1926 1931
Clark découvre la petite Fowler décrit une naine blanche Chandrasekhar calcule la
et dense naine blanche comme une étoile effondrée limite supérieure de la masse
Sirius B. soutenue par la pression de des naines blanches.
dégénérescence des électrons.
Les vestiges stellaires 125

des étoiles blanches « normales », mais que leur


atmosphère contenait des quantités accrues de car-
bone, d’azote et d’oxygène. Leurs orbites, quant à
elles, impliquaient que les naines blanches aient
« Alors que
le graphique
se déroulait sous
une masse importante en dépit de leur faible éclat. le stylo, je pouvais
Il était donc clair que ces étoiles étaient beau- constater que
coup plus petites et plus denses que celles de la
séquence principale, mais que leurs surfaces n’en
le signal était une
étaient pas moins extrêmement chaudes. Dans ces serie d’impulsions…
séparées d’une

»
conditions, la pression de radiation ne pouvait pas
contrebalancer les forces de gravité comme c’est seconde et
le cas dans des étoiles bien plus grandes, quelque un tiers.
chose d’autre devait donc empêcher les naines
blanches de s’effondrer entièrement sous leur Jocelyn Bell Burnell
propre poids.

Matière exotique En 1922, Willem Luyten dénomma « naines


blanches » ces étranges petites étoiles poids lourd, mais il fallut attendre 1926
pour que le physicien britannique Ralph Fowler explique leurs propriétés
inhabituelles, en appliquant à ce problème un phénomène récemment
découvert en physique des particules. Le principe d’exclusion de Pauli interdit
en effet à deux électrons, des particules subatomiques, d’être dans le même
état quantique. Dans des situations extrêmes – comme celles qui règnent à
l’intérieur d’une étoile effondrée –, les électrons suscitent une « pression
de dégénérescence » qui empêche la naine blanche dans son ensemble de
s’enfoncer sous son propre poids, créant à la place une étoile super-dense dont
la taille est environ celle de la Terre.

Un aspect singulier de la pression de dégénérescence des électrons est que


plus un objet contient de matière, plus il devient petit et dense. Tôt ou tard,
on franchit un seuil où même la pression de dégénérescence des électrons ne
parvient plus à empêcher l’effondrement. En 1931, l’astrophysicien indien
Subrahmanyan Chandrasekhar fut le premier à calculer quelle serait, dans
ces conditions, la limite supérieure de la masse d’une naine blanche (environ
1,4 masse solaire d’après des évaluations récentes). La valeur de cette limite
correspond à la masse du cœur d’une étoile dont la masse totale est environ
huit fois celle du Soleil. Chandrasekhar croyait qu’une naine blanche d’une
masse supérieure à la cruciale « limite de Chandrasekhar » s’effondrerait inévi-
tablement en un trou noir.

1934 1939 1967


Baade et Zwicky prédisent Oppenheimer et Volkoff découvrent Bell et Hewish découvrent
l’existence des étoiles à la limite supérieure de la masse le premier pulsar.
neutrons en tant que vestige des étoiles à neutrons en utilisant
de supernova. les travaux antérieurs de Tolman.
126 50 clés pour comprendre l’Univers

Chandrasekhar, qui avait résolu le

Magnétars problème de manière plutôt juste au


niveau des seules mathématiques, ne
pouvait pas savoir qu’un état inter-
Type Inhabituel d’étoiles à neutrons, les magné- médiaire e­ xistait entre naine blanche
tars pourraient fournir une explication à certains et trou noir. La confirmation en 1933
événements parmi les plus violents de notre de l’existence des neutrons, un autre
galaxie, que les spécialistes appellent « sources type de particules subatomiques,
à répétition de rayons gamma mous », connues ouvrit aux physiciens un nouveau
pour émettre de puissantes bouffées périodiques champ d’exploration. Il devint vite
de rayons X, voire des rayonnements plus énergé- clair que les neutrons peuvent pro-
tiques du domaine gamma. Ces magnétars sont duire leur propre pression de dégé-
des étoiles à neutrons dont la période de rota- nérescence, qui agit à des échelles
tion, anormalement lente, se mesure en secondes encore plus courtes que celle suscitée
plutôt qu’en fractions de seconde, tout en étant par les électrons. Un an plus tard,
dotée d’un champ magnétique particulièrement Walter Baade et son collègue Fritz
intense ancré dans sa structure interne et produit Zwicky prédirent l’existence d’étoiles
lors de l’effondrement initial de l’étoile à neutrons. à neutrons en tant que produit final
L’intensité de ce champ diminue rapidement, en des explosions de supernova (voir
quelques milliers d’années, mais tant qu’il per- page 122). Ils firent valoir que la pres-
siste, d’intenses séismes stellaires secouant la sur- sion de dégénérescence des neutrons
face de l’étoile à neutrons peuvent déboucher sur pourrait maintenir les étoiles au-delà
de brusques réarrangements de champ magné- de la limite de Chandrasekhar en
tique qui relâchent alors de l’énergie, alimentant bloquant leur effondrement à un
des bouffées de rayons gamma. diamètre de 10 à 20 kilomètres seu-
lement. Il semblait alors impossible
d’observer directement des objets
d’une aussi petite taille.

Phares cosmiques Bien que les étoiles à neutrons soient indubitablement


des objets hypothétiques intéressants, leur invisibilité présumée fait que peu de
gens ont pris la peine de les étudier en détail. Mais, en novembre 1967, Jocelyn
Bell, doctorante à Cambridge, tomba sur un étrange signal radio périodique
provenant du ciel. Avec une durée de 16 millisecondes, et se répétant toutes
les 1,3 seconde, ce signal venait d’un objet pas plus grand qu’une planète. Il
fut d’abord surnommé « LGM-1 » (sigle pour little green men, petits hommes
verts), en référence à la possibilité qu’il pourrait s’agir d’un signal de créatures
extraterrestres. La découverte de signaux similaires provenant d’autres parties
du ciel élimina rapidement cette éventualité, et la traque de leur origine se
concentra alors sur les vestiges stellaires extrêmes.

Par une remarquable coïncidence, l’astrophysicien italien Franco Pacini avait


publié, quelques semaines auparavant, un article scientifique discutant de la
Les vestiges stellaires 127

manière dont la conservation du moment angulaire et du moment magné-


tique pourrait influencer l’effondrement d’un cœur stellaire. Il y soutenait
que les étoiles à neutrons devraient tourner extrêmement vite sur elles-mêmes
tandis que matière et rayonnement s’échappant de l’étoile seraient canalisés
par leurs champs magnétiques en deux intenses faisceaux émergeant de leurs
pôles. Pacini et d’autres confirmèrent bientôt que Jocelyn Bell avait justement
déniché un tel objet – un phare cosmique connu de nos jours sous le nom de
pulsar. Ce fut toutefois Antony Hewish, le directeur de thèse de Jocelyn Bell,
avec Martin Ryle, un pionnier de la radioastronomie, qui reçut le prix Nobel de
physique pour cette découverte.

Étoiles à quarks
Pour peu que la masse d’un noyau stellaire objets étranges sont maintenus par une sorte
en effondrement soit supérieure à la limite de pression de dégénérescence suscitée par
dite Tolman-Oppenheimer-Volkoff (TOV) les quarks eux-mêmes. Une matière faite de
– valant entre deux et trois masses solaires –, quarks ne peut rester stable que sous l’effet
alors même la pression de dégénérescence de températures et de pressions extrêmes et
des neutrons n’est pas suffisante pour mettre pourrait limiter l’effondrement à un diamètre
un terme à son effondrement. On présumait équivalent à la moitié de celui d’une étoile
autrefois qu’un tel noyau devrait s’effondrer à neutrons, soit environ 10 kilomètres. Il est
en un trou noir dès que les neutrons se désin- aussi possible que se crée, à l’intérieur d’une
tégreraient en composants connus sous le étoile à neutrons, un noyau hyperdense de
nom de quarks, mais la physique nucléaire matière de quarks, ce qui pourrait permettre
contemporaine suggère un éventuel sursis à l’étoile à neutrons en question de subsister
sous la forme d’une étoile à quarks. Ces au-delà de la limite TOV.

L’idée clé
La mort des étoiles laisse
derrière elle les objets les
plus étranges de l’Univers
128 50 clés pour comprendre l’Univers

32 L es étoiles
binaires extrêmes
Au xxe siècle, les astronomes qui étudiaient les domaines spectraux en
dehors de celui de la lumière visible dénichèrent toute une gamme d’objets
exotiques, comme des étoiles émettant de forts signaux dans les domaines
des rayons X et des ondes radio. L’interprétation de ces étranges systèmes
s’est avérée tenir aux interactions entre étoiles normales et vestiges stellaires.

Dans un article scientifique de 1941 visant à expliquer les propriétés de Bêta Lyræ,
une binaire à éclipse singulière (voir page 94), Gerard Kuiper suggéra que des
étoiles en système binaire pourraient parfois graviter suffisamment près l’une de
l’autre pour que s’opère un transfert de matière entre elles. Il modélisa alors le cas
où une étoile d’un tel système (voire les deux) débordait de son « lobe de Roche »
(la limite au-delà de laquelle elle ne peut plus résister aux forces d’attraction gra-
vitationnelle de sa voisine). Il démontra que dans une telle situation, la matière
ne serait pas seulement déplacée d’une étoile vers l’autre, mais constituerait un
« disque d’accrétion » ceinturant l’équateur de l’étoile de réception. Cette éven-
tualité est particulièrement susceptible de survenir dans des systèmes composés
d’un petit vestige stellaire dense et d’une géante rouge pléthorique n’ayant qu’une
emprise assez faible sur ses couches externes de gaz (un scénario possible car des
étoiles de différentes masses vieillissent à des rythmes différents). Dans un tel cas,
l’étoile initialement moins massive et d’un plus faible éclat peut devenir la plus
lumineuse de la paire, avec en orbite autour d’elle une naine blanche, petite mais
massive, voire une étoile à neutrons ou un trou noir, pour peu que l’étoile com-
pagne ait produit une supernova. En raison de la présence d’un disque d’accré-
tion, un tel système est en mesure de produire tout un éventail d’effets.

Variables cataclysmiques Curieusement, les binaires impliquant


la forme la moins extrême de vestige stellaire (à savoir une naine blanche)
produisent les résultats les plus violents et les plus spectaculaires. Outre
des éruptions stellaires occasionnelles, connues sous le nom de novæ ou

chronologie
1892 1941 1967
Un gaz en expansion est Kuiper propose Chklovski esquisse le modèle du
détecté autour de la nova l’existence de binaires disque d’accrétion des binaires à
T Aurigæ, attestant à contact pour expliquer rayons X utilisé pour la détection des
sa nature explosive. l’étoile Bêta Lyræ. étoiles à neutrons et des trous noirs.
Les étoiles binaires extrêmes 129

de « variables cataclysmiques », ces binaires suscitent des explosions plus La plupart du


temps, la naine
rares, mais encore plus impressionnantes, appelées supernovæ de type Ia. La blanche, dans
distinction entre ces deux catégories d’événement n’est clairement apparue un système binaire
que dans les années 1930, à la suite de la chasse aux supernovæ dans d’autres à nova, soutire
régulièrement la
galaxies conduite par Fritz Zwicky et Walter Baade (voir page 121). matière de son
étoile compagne (1),
T Aurigæ, la première nova dont les astronomes attestèrent la nature explosive, accumulant ainsi
perça l’obscurité en 1892 et devint une étoile facilement perceptible à l’œil nu. une atmosphère
autour d’elle
Des études spectroscopiques montrèrent qu’elle était entourée d’une coquille par le biais d’un
de gaz en expansion rapide ; une théorie préliminaire avait alors suggéré que disque d’accrétion.
De temps en temps,
les novæ étaient créées quand des gaz de nuages interstellaires denses étaient l’atmosphère
portés à l’incandescence par des passages d’étoiles. L’interprétation correcte ne devient si chaude
vit le jour que dans les années 1950, lorsque les astronomes établirent que les et si dense qu’elle
explose dans une
novæ sont en général des systèmes binaires avec une seule étoile visible autour tempête de feu
de laquelle gravite une petite compagne de masse importante. nucléaire (2).

Dans les années 1970, l’astronome américain Sumner 1. Phase de quiscence


Starrfield et quelques collègues déterminèrent que ces
compagnes massives étaient des naines blanches et
développèrent un modèle dit « d’emballement ther-
monucléaire » pour expliquer l’enchaînement des
faits. Selon ce modèle, les phénomènes de type nova
se produisent dans des systèmes binaires serrés où
la plus grande étoile du couple déborde de son lobe
de Roche, permettant à la naine blanche de soutirer 2. Éruption de la nova
la matière de la vaste enveloppe gazeuse de sa com-
pagne. Le gaz, qui s’écoule alors du disque d’accrétion
vers le vestige stellaire, s’accumule autour de ce der-
nier pour créer une couche d’hydrogène comprimée
par le champ de gravité intense de la naine blanche
et chauffée par la brûlante surface sous-jacente. Les
conditions dans cette atmosphère d’hydrogène
deviennent alors extrêmes au point de susciter, des
semaines durant, un processus de fusion nucléaire dont les réactions s’em-
ballent en progressant à travers l’atmosphère. La nova s’estompe certes dès
que l’hydrogène disponible est épuisé, mais le processus peut se rétablir et,
tôt ou tard, produire à nouveau une soi-disant « nova récurrente ». Entre
deux ­éruptions, le rayonnement que produit la matière accrétée provoque un
comportement irrégulier distinctif de l’émission globale du système.

1971‑1974 1973 1974


Starrfield et ses collègues interprètent les John Whelan et Icko Iben Warner explique
novæ comme des explosions thermonucléaires Jr. expliquent les supernovæ l’origine des explosions
associées à des naines blanches dans de type Ia par l’effondrement de nova naine.
des systèmes d’étoiles binaires à contact. soudain d’une naine blanche.
130 50 clés pour comprendre l’Univers

Désintégration d’étoiles
Novæ naines Pour les novæ, des paramètres comme
l’intensité des éruptions et le laps de
temps entre deux éruptions consé-
Certaines éruptions de nova se produisent à
cutives dépendent de la dynamique
beaucoup plus petite échelle et de manière quasi
précise du système, il n’y a donc pas
régulière, avec des périodes allant de la journée à
deux novæ identiques. Il en va tout
quelques années. Ces « novæ naines » (souvent
autrement des aînées de la grande
appelées étoiles U Geminorum, d’après le spécimen
fratrie des variables cataclysmiques,
prototype découvert en 1855) impliquent le même
à savoir les supernovæ de type Ia. En
genre de système binaire à transfert de masse ren-
réalité, une clé de compréhension
contré dans les « novæ classiques » bien plus lumi-
contemporaine décisive de l’Univers
neuses. En 1974, l’astronome britannique Brian
repose sur le fait que l’intensité de ces
Warner fut le premier à expliquer de quelle manière
explosions spectaculaires est toujours
survient l’éruption des novæ naines en mettant en
la même.
avant un mécanisme tout à fait différent. La matière
transférée s’accumule avec une telle densité dans Les supernovæ de type Ia se déve-
le disque d’accrétion qu’il devient instable, ce qui loppent à partir de novæ dans
déclenche son brutal effondrement à la surface de lesquelles la masse de la naine
la naine blanche, suivi d’une spectaculaire explo- blanche est proche de la limite de
sion dont l’éclat décroît avant que le système Chandrasekhar (1,4 masse solaire, voir
revienne à la normale. Plusieurs centaines d’étoiles page 125). Les astronomes partaient
U Geminorum ont été découvertes, révélant une du principe que si une assez grande
tendance claire entre intensité et fréquence de leurs quantité de matière s’accumulait dans
éruptions : plus l’attente entre deux explosions est l’atmosphère d’une naine blanche,
longue, plus l’explosion est lumineuse. Des astro- l’astre subissait tout simplement un
nomes envisagèrent ainsi d’étudier la possibilité effondrement soudain et violent pour
d’utiliser les novæ naines comme chandelles stan- former une étoile à neutrons. Des
dards – moyen, entre autres, d’étalonner les dis- recherches récentes ont toutefois sug-
tances au sein de notre galaxie. géré qu’avant d’atteindre ce stade, la
pression croissante au sein de la naine
blanche déclenche une nouvelle
vague de fusion des noyaux de car-
bone et d’oxygène qui y sont implantés. Dans la mesure où la matière au sein de
la naine blanche est dégénérée, l’astre ne peut pas se dilater à l’instar d’une étoile
normale, la température de son cœur grimpe donc en flèche jusqu’à atteindre des
milliards de degrés ; les processus de fusion échappent alors à tout contrôle. Les
conditions de dégénérescence sont finalement transgressées à l’occasion d’une
explosion aussi soudaine que spectaculaire qui détruit totalement l’étoile et dont
la luminosité maximale est environ 5 milliards de fois plus élevée que celle du
Soleil. Comme les supernovæ de type Ia convertissent toujours la même quantité
de masse en énergie, les cosmologistes peuvent les utiliser comme chandelles
standards pour mesurer la distance des galaxies lointaines (voir page 184).
Les étoiles binaires extrêmes 131

Binaires à rayons X Si l’étoile invisible dans un système binaire est


une étoile à neutrons ou un trou noir, les résultats peuvent être radicalement
différents. Au lieu de produire des sursauts d’émission intermittents dans le
domaine visible, la matière formant le disque d’accrétion est mise en pièces
et portée à très haute température sous l’effet des forces de marée extrêmes
suscitées par le champ de gravitation bien plus intense du vestige stellaire. À des
températures de l’ordre du million de degrés, des parties du disque deviennent
des sources fortes mais variables de rayons X de haute énergie, un mécanisme
que Iossif Chklovski utilisa en 1967 pour expliquer pourquoi certaines étoiles

«
visibles sont apparemment aussi de brillantes sources de rayons X.

La grande majorité des étoiles à neutrons identi-


fiées jusqu’à présent sont connues par les binaires Un objet de la
à rayons X ou par le mécanisme de pulsar (voir taille d’un astéroïde,
page 127), et jusque très récemment, les binaires source brillante
à rayons X ont été le seul moyen de localiser des et irrégulière
trous noirs de masse stellaire (voir page 135). Il
n’y a cependant aucune raison théorique pour
de rayons X, visible
qu’il n’existe pas de système binaire composé de sur des distances
interstellaires.

»
deux étoiles à neutrons voire de deux trous noirs
– les astrophysiciens estiment en effet que de tels Qu’est-ce que ça peut
systèmes constituent une proportion substantielle bien être ?
de toutes les binaires extrêmes. Dans l’un ou l’autre
type de binaires, la formidable gravité qui s’exerce Carl Sagan
entre vestiges stellaires suscite de puissantes forces
de marées qui les font tomber en spirale l’un vers l’autre sur une trajectoire
inexorable de collision, dont les ultimes moments génèrent des trains d’ondes
gravitationnelles (voir page 191). Alors que la coalescence de deux trous noirs
ne produit pas d’explosion apparente, celle de deux étoiles à neutrons pourrait
être à l’origine d’énormes bouffées de rayons gamma, et certains astrophysi-
ciens suggèrent que ces événements pourraient aussi offrir un autre moyen de
synthétiser les éléments les plus lourds dans l’Univers.

L’idée clé
Les étoiles en systèmes binaires
peuvent avoir des cycles de
vie radicalement différents
132 50 clés pour comprendre l’Univers

33 Les trous noirs


L’idée d’astres si massifs que même la lumière ne peut échapper à leur gravité
existe depuis étonnamment longtemps, mais comprendre la physique à
l’œuvre dans ces objets étranges n’est pas une tâche facile, et traquer un
objet qui ne produit aucune lumière peut s’avérer encore plus ardu.

En 1915, Albert Einstein publia sa théorie de la relativité générale. Cette


modélisation unifie espace et temps en un « continuum » spatio-temporel à
quatre dimensions qui peut être déformé par de grandes accumulations de
masse, donnant lieu à l’effet que nous ressentons comme de la gravité (voir
page 190). Il décrivit la théorie en faisant appel à des « équations de champ »,
que Karl Schwarzschild utilisa quelques mois plus tard pour étudier comment
l’espace-temps se déformerait autour d’un objet de grande masse placé en un
point donné de l’espace.

Schwarzschild démontra que tout objet de masse donnée, s’il est comprimé au
point de se maintenir dans une sphère d’un rayon inférieur à un certain rayon
critique (connu maintenant sous le nom de rayon de Schwarzschild), ne serait
plus en mesure de respecter les équations d’Einstein : en langage mathéma-
tique, l’objet deviendrait une singularité. En outre, la vitesse nécessaire pour
échapper à la gravité de cet objet (autrement dit, la vitesse d’échappement,
comme nous la désignons désormais) dépasserait la vitesse de la lumière. Il
serait donc véritablement impossible de s’échapper d’un tel objet car, d’après
la théorie de la relativité, la vitesse de la lumière est la vitesse la plus élévée de
l’Univers.

Arthur Eddington, qui avait déjà fait beaucoup pour défendre la théorie d’Eins-
tein (voir page 191), tint compte de ces astres effondrés dans son livre de 1926
sur la structure stellaire, et affina considérablement l’idée de base. La vitesse de
la lumière étant constante, la lumière émise par une étoile, aussi super-dense
soit-elle, ne peut pas ralentir. Eddington soutint au contraire que la lumière
doit perdre de l’énergie, sa longueur d’onde étant de plus en plus décalée
vers le rouge du côté des plus grandes longueurs d’onde. Quand l’étoile est
comprimée au point que son rayon est égal à son rayon de Schwarzschild,

chronologie
1783 1941 1926 1931
Michell prédit l’existence Schwarzschild prédit Eddington montre Chandrasekhar affirme
d’étoiles sombres dont la l’existence des trous comment des que des singularités
gravité est si intense que noirs à partir de son singularités décalent pourraient être dues à
la lumière ne peut s’en analyse de la relativité la lumière vers le l’effondrement des cœurs
échapper. générale. rouge autour d’elles. stellaires les plus massifs.
Les trous noirs 133

la ­longueur d’onde de sa lumière, indéfiniment décalée vers le rouge, cesse


d’exister. L’étoile est devenue invisible.

De la théorie à la réalité Les astres étranges de Schwarzschild sont


restés de pures entités théoriques jusqu’en 1931, date à laquelle Subrahmanyan
Chandrasekhar suggéra qu’ils étaient l’inévitable résultat de l’effondrement
d’un noyau stellaire contenant une quantité de matière d’une masse supérieure à
1,4 masse solaire (voir page 125).
Il faisait valoir qu’une telle

Prédire les astres


étoile n’était plus en mesure de
susciter une pression suffisante

sombres
pour contrebalancer sa propre
gravité. Il n’avait cependant pas
anticipé la découverte des étoiles
à neutrons, mais en 1939, Robert En 1783, l’Anglais John Michell, pasteur et astro-
Oppenheimer et ses collègues nome, présenta à la Royal Society de Londres
montrèrent que même ces étoiles un document remarquablement prémonitoire.
super-denses ont une limite La plupart des scientifiques de l’époque avaient
supérieure de masse d’environ adopté la théorie corpusculaire d’Isaac Newton,
3 masses solaires. Oppenheimer selon laquelle la lumière se composait de minus-
argua alors qu’au moment où cules particules se déplaçant à des vitesses élevées.
le rayon de l’étoile en train Michell estimait quand à lui que ces particules
de s’effondrer devient égal à devant être soumises à la gravité, il était donc pos-
son rayon de Schwarzschild, sible en théorie qu’une étoile suscite une gravité
la distorsion de l’espace-temps tellement puissante que la vitesse nécessaire pour
est alors telle qu’à la surface de s’en échapper soit supérieure à la vitesse de la
l’astre, le temps semble gelé. lumière. Il fit valoir que dans un tel cas, le résultat
C’est ainsi que ces astres contre- serait un « astre sombre » : un astre n’émettant
intuitifs furent connus, pendant aucun rayonnement, mais qui pourrait néanmoins
un certain temps, sous le nom être détecté par son influence gravitationnelle sur
d’étoiles gelées. des étoiles visibles s’il appartenait à un système
binaire. Le document de Michell était une prédic-
Une nouvelle ère dans l’étude tion impressionnante du phénomène des trous
des trous noirs s’ouvrit en 1958 noirs, mais son travail fut négligé jusqu’aux années
quand le physicien américain 1970, date à laquelle des trous noirs avaient été
David Finkelstein redéfinit leur découverts par d’autres moyens.
rayon de Schwarzschild comme
un « horizon des événements ».

1958 1963 1969 1974 2015


Finkelstein Roy Kerr élabore un Lynden-Bell Webster, Murdin et Une coalescence de
expose l’idée modèle de trous noirs propose un trou noir Bolton démontrent deux trous noirs est
d’un horizon des en rotation, le type le supermassif comme que Cygnus X-1 est détectée pour la première
événements. plus probable repéré explication possible de probablement un fois par le truchement
dans la nature. l’activité des quasars. trou noir. d’ondes gravitationnelles.
134 50 clés pour comprendre l’Univers

Ergosphère où
Axe de rotation À l’intérieur de cette limite, l’effon-
les objets doivent drement de l’étoile continuait jusqu’à
tourner avec le trou former un point infiniment dense (la
noir mais peuvent
encore s’échapper Singularité vraie singularité), mais aucune infor-
annulaire mation n’était en mesure de parvenir
à un observateur extérieur à l’horizon
– et tout ce qui franchissait cette
frontière était voué à un voyage sans
retour.

Au-delà de l’horizon des


événements Dans les années
Horizon des 1960 et au début des années 1970,
événements
les cosmologistes examinèrent plus
Horizon interne défini
par la modification en détail les propriétés de ces astres
de la structure de étranges, découvrant qu’elles ne
l’espace-temps
dépendaient que de leur masse, de
Les trous noirs en rotation sont susceptibles d’être le leur moment cinétique et de leur
type le plus commun dans la nature. Selon l’analyse du
mathématicien néo-zélandais Roy Kerr menée en 1963, ils charge électrique. En accord avec ce
présentent plusieurs caractéristiques qui ne se retrouvent constat popularisé à l’époque selon
pas dans les trous noirs statiques.
lequel « les trous noirs n’ont pas de
cheveux », toute autre information
sur les propriétés de l’étoile dont ils sont issus est irrémédiablement perdue.
Quant au terme « trou noir », il fut utilisé pour la première fois en 1964 par la
journaliste scientifique Ann Ewing pour décrire ces astres, et gagna en popularité
quelques années plus tard quand il fut adopté par le physicien John Wheeler.

En 1969, l’astrophysicien britannique Donald Lynden-Bell suggéra pour la pre-


mière fois que les trous noirs pourraient ne pas se limiter à des objets de masse
stellaire, faisant valoir que la disparition de matière dans l’énorme gorge d’un
trou noir (dont la masse serait des millions de fois celle du Soleil) pourrait sti-
muler l’activité étrange et violente observée au cœur des galaxies actives (voir
chapitre 38). De tels trous noirs supermassifs, comme les astrophysiciens les
désignent aujourd’hui, pourraient être créés par quelque chose d’aussi simple
que l’effondrement d’un énorme nuage de matière interstellaire au sein d’une
jeune galaxie. En 1971, Lynden-Bell et son collègue Martin Rees allèrent jusqu’à
suggérer qu’un trou noir inactif constituait l’ancrage gravitationnel de notre
propre galaxie (voir page 140).

La détection des trous noirs En 1974, un jeune physicien dénommé


Stephen Hawking fit sa réputation en montrant que malgré l’absence de
rayonnement s’échappant de l’intérieur, des effets de physique quantique
amèneraient un trou noir à produire à son horizon des événements un
Les trous noirs 135

rayonnement de faible intensité avec une longueur d’onde liée à sa masse. Ce


« rayonnement de Hawking » est toutefois si faible qu’il est indétectable, les
trous noirs restent donc pour ainsi dire invisibles.

Heureusement pour les astronomes, les conditions sont si extrêmes autour des
trous noirs qu’ils produisent d’autres effets pouvant être détectés. Plus précisé-
ment, des rayons X sont émis par la matière tombant dans un trou noir, cette
dernière étant portée à des températures se mesurant en millions de degrés
par l’action des forces de marées dues à l’énorme gravité que suscite l’astre
effondré. Dans les années 1960, plusieurs sources cosmiques de rayons X ont
été découvertes à l’aide d’instruments portés par fusées, puis des centaines
d’autres après le lancement, en 1970, du satellite Uhuru, le premier consacré

«
à l’astronomie des rayons X. Beaucoup de ces sources se sont avérées être des
nuages de gaz surchauffé au sein de lointains amas
de galaxies (voir page 157), mais certaines d’entre
elles étaient compactes et apparurent comme étant
Les trous
associés à des étoiles visibles de la Voie lactée. noirs de la nature
sont les objets
Le scénario le plus probable pour expliquer ces macroscopiques les

»
sources lumineuses et rapidement variables met-
tait en scène une « binaire à rayons X », avec un
plus parfaits dans
vestige stellaire compact qui soutire la matière l’Univers.
d’une étoile compagne visible (voir page 131). En Subrahmanyan Chandrasekhar
général, ces systèmes font intervenir des étoiles à
neutrons, mais en 1973, les astronomes britanniques Louise Webster et Paul
Murdin, ainsi que le Canadien Thomas Bolton, étudièrent la brillante source de
rayons X Cygnus X-1 et mesurèrent le décalage Doppler de la lumière rayonnée
par l’étoile visible, une supergéante bleue. Cette étude révéla que l’étoile était
en orbite autour d’un compagnon invisible d’une masse de plus de huit fois
celle du Soleil. Un tel astre ne pouvait être qu’un trou noir. Ce procédé de
détection d’un trou noir par son influence sur une étoile compagne a été utilisé
depuis pour dénicher plusieurs systèmes similaires.

L’idée clé
Il n’y a pas d’échappatoire
pour les objets les plus
denses de l’Univers
136 50 clés pour comprendre l’Univers

34 La Voie lactée
La Voie lactée est une bande de lumière diffuse qui s’étend tout autour du
ciel nocturne. Célébrée depuis la Préhistoire, sa nature plus profonde ne fut
révélée qu’après l’invention de la lunette astronomique, et son identité en tant
que vaste système d’étoiles en forme de spirale ne fut établie qu’au xxe siècle.

Il n’est pas surprenant que la Voie lactée ait été l’une des premières cibles de
l’astronome italien Galilée qui, en janvier 1610, braqua dans sa direction sa
lunette astronomique primitive. En découvrant qu’elle était constellée d’in-
nombrables étoiles invisibles à l’œil nu, il en conclut que la Voie lactée devait
aussi contenir un nombre incommensurable d’étoiles hors de portée de son
instrument. Allant encore plus loin, il soutint que les « nébuleuses » à l’aspect
de nuages diffus étaient également constituées d’étoiles distantes (une conclu-
sion parfois correcte mais pas toujours).
C’est seulement en 1750 que l’astronome anglais Thomas Wright émit l’hypo-
thèse que la Voie lactée devait être un vaste nuage d’étoiles en rotation que la
gravité aplatissait pour ne former qu’un unique plan avec une structure similaire à
celle de notre propre Système solaire. Cinq ans plus tard, Emmanuel Kant évoqua
également une galaxie semblable à un disque, suggérant, avec une remarquable
prescience, que la Voie lactée n’était qu’un des nombreux « univers-îles », certains
d’entre eux étant perceptibles à d’immenses distances en tant que nébuleuses.

Cartographier la Voie lactée Dans les années 1780, William


Herschel fit la première tentative pour tracer les contours de la Voie lactée. Il
estima d’abord le nombre d’étoiles présentes dans différents secteurs du ciel,
puis supposa que toutes les étoiles avaient la même luminosité intrinsèque,
de sorte que leur magnitude apparente était une indication directe de leur
distance. Au vu de la carte ainsi tracée, notre galaxie se présentait comme une
structure amorphe, avec le Soleil près du centre. Plus d’un siècle plus tard, dans
le but de reproduire la démarche de Herschel, l’astronome néerlandais Jacobus
Kapteyn entama un travail bien plus approfondi en utilisant des instruments
plus puissants ainsi qu’une gamme complète de données astronomiques pour
estimer la vraie luminosité des étoiles. L’énorme étude de Kapteyn, finalement
publiée en 1922, parvint plus ou moins aux mêmes conclusions, proposant une

chronologie
1000‑1300 1610 1750 1785
Divers astronomes Galilée mène la première Wright estime pour Herschel publie la
islamiques soutiennent étude de la Voie lactée avec la première fois la première carte de
que la Voie lactée une lunette astronomique et forme de la Galaxie la Voie lactée.
rassemble les lueurs découvre un grand nombre en se basant sur la
d’innombrables étoiles. de nouvelles étoiles. répartition des étoiles.
La Voie lactée 137

représentation de notre galaxie d’environ 40 000 années-lumière de diamètre


en forme de lentille, avec le Soleil près de son centre.

Ironiquement, à l’époque où Kapteyn publia son


travail, une découverte qui remettait en cause
sa vision de la Voie lactée avait déjà été faite. En
1921, Harlow Shapley compila sa propre étude sur
« La Voie
lactée n’est rien
d’autre qu’un
les amas globulaires denses détectés dans certaines
rassemblement

»
parties du ciel (voir page 82). Il en conclut que ces
amas étaient approximativement groupés autour d’innombrables
d’une région distante de l’espace dans la direction étoiles en amas.
de la constellation du Sagittaire. À en croire Shapley,
cette région était le véritable centre de la Voie lactée,
Galileo Galilei
dont notre Système solaire, à la périphérie du vaste
disque de notre galaxie, se trouvait très éloigné.

Shapley se trompa toutefois dans son évaluation du véritable diamètre de la Voie


lactée. Sur la base d’estimations erronées de la distance des amas globulaires, il
l’estima immense, 300 000 années-lumière de part en part. L’erreur commença à
être corrigée à partir de 1927, lorsque Jan Oort entreprit de démontrer une théorie
(proposée peu de temps avant par le Suédois Bertil Lindblad) selon laquelle la
révolution des étoiles s’accomplissait à différentes vitesses en fonction de leur
distance au centre de notre galaxie. Les mesures minutieuses d’Oort lui permirent
de mettre au point une formule pour calculer cette « rotation différentielle » et
confirmèrent que le Système solaire était à environ 19 000 années-lumière du
centre d’une galaxie d’un diamètre d’à peu près 80 000 années-lumière, soit une
légère sous-estimation des valeurs actuelles de 26 000 et 100 000 années-lumière.

Bras spiraux La première confirmation de la structure en spirale de la


Voie lactée émergea suite aux tentatives de William Morgan qui cherchait
à cartographier, au début des années 1950, la répartition des amas stellaires
ouverts. Il identifia trois chaînes distinctes d’amas qui, d’après ses suggestions,
pouvaient être des fragments de bras spiraux ; sa découverte fut d’ailleurs
validée quelques années plus tard lorsque Jan Oort utilisa des observations
radio pour tracer la distribution des nuages d’hydrogène atomique neutre à
travers notre galaxie. Les signaux radio émis par l’hydrogène à une longueur
d’onde de 21 cm, en se propageant à travers les nuages d’étoiles et les bandes
de poussière placés sur la ligne de visée, permirent à Oort de cartographier la
Voie lactée à une beaucoup plus grande échelle que celle des études de Morgan.

1921 1927‑1940 1930 1956 2005


Shapley identifie le Oort détermine Robert Trumpler catalogue Oort confirme Des observations
centre approximatif l’échelle de la les amas ouverts de la structure spirale menées dans
de la Voie Galaxie en se basant la Voie lactée et identifie de la Voie lactée l’infrarouge
lactée d’après la sur le mouvement la présence de bandes à partir de la confirment que
distribution des des étoiles. de poussière absorbant cartographie des notre galaxie est
amas globulaires. la lumière entre les étoiles. nuages d’hydrogène. une spirale barrée.
138 50 clés pour comprendre l’Univers

Formation des bras spiraux


La rotation différentielle de notre galaxie fait Les plus brillantes et les plus massives d’entre
que ses bras spiraux ne peuvent pas être des elles ont une durée de vie si courte qu’elles
structures physiques permanentes – si c’était vieillissent et meurent avant d’avoir eu la
le cas, la rotation plus rapide des régions cen- chance de quitter leur site de formation et de
trales amènerait les bras à « s’entortiller » de rejoindre la population générale du disque.
plus en plus et à disparaître en quelques rota- Mais comment se produit la zone d’embou-
tions. Au lieu de cela, la structure en spirale teillage elle-même ? La meilleure théorie dispo-
doit être constamment régénérée. nible est celle des ondes de densité, proposée
Nous nous sommes rendu compte aujourd’hui à la fin des années 1960 par Chia-Chiao Lin et
que les bras spiraux sont des zones de for- Frank Shu. Elle repose sur le fait que tous les
mation stellaire intense au sein d’un disque objets gravitant autour du centre galactique
d’étoiles, de gaz et de poussière entourant suivent des orbites elliptiques plutôt que par-
le noyau. Des objets individuels entrent et faitement circulaires, et évoluent plus lente-
sortent de ces zones sur des dizaines de mil- ment dans les parties extérieures de ces orbites.
lions d’années – des étoiles ralentissent et Lorsqu’une influence extérieure, telle que la
s’entassent comme des voitures prises dans gravité exercée par une petite galaxie satellite,
un embouteillage, tandis que des nuages tend à décaler ces orbites les unes par rapport
interstellaires sont comprimés au point de aux autres, une zone en spirale où se retrouvent
déclencher la formation de nouvelles étoiles. étoiles et matière interstellaire en résulte.
Ce schéma montre comment
des zones en spirale où
la densité est plus élevée
peuvent naturellement se
constituer, pour peu qu’un
grand nombre d’orbites
elliptiques soient légèrement
décalées les unes par rapport
aux autres, comme c’est le
cas sous l’influence d’une
autre galaxie passant à
proximité.

À mesure que les astronomes se consacraient à ces nouveaux moyens d’observa-


tion, l’image d’une structure spirale de la Voie lactée s’imposa, avec quatre bras
majeurs et plusieurs composants mineurs intercalés, les éperons (l’un d’eux,
l’éperon d’Orion, est la structure la plus proche de notre Système solaire). La Voie
lactée a longtemps été considérée comme une galaxie spirale « normale » dotée
d’un noyau central ovoïde, mais dans les années 1970, de nouvelles cartes radio
commencèrent à mettre en évidence une zone de formation d’étoiles en forme de
barre s’étendant de part et d’autre des régions centrales, ainsi qu’un énorme anneau
La Voie lactée 139

de formation stellaire d’un rayon


d’environ 16 000 années-lumière.
Vue depuis l’espace inter­galactique,
cet anneau pourrait bien être le trait
dominant de notre galaxie. Bras Écu-Ce
nta
ur
En 2005, des observations infrarouges

e
Br
ire
tta

as
menées avec le télescope spatial Spitzer gi

de la Rè
le
a
de la NASA confirmèrent la présence

ra
uS

nt
ce
de la barre centrale, le positionne-

d
Bras

rre

gl
ment des géantes rouges sur une

Ba

e
Épe Bra
étendue de 28 000 années-lumière
on

r
attestant sans aucun doute que la s
d’O
r io n
de
Voie lactée est bel et bien une spirale

Br
Pers
ée

as
barrée (voir page 144). Les galaxies de e xt
ern
ce type ont deux grands bras spiraux e

(s’étendant l’un et l’autre à partir de


Position du
chaque extrémité de la barre), et l’as- Système solaire
tronome Robert Benjamin de l’uni-
versité du Wisconsin utilisa en 2008
les observations de Spitzer pour tracer Carte simplifiée de la Voie lactée montrant la position
une concentration de géantes rouges de notre Système solaire et des principaux traits distinctifs
de notre Galaxie.
froides en deux bras. Cependant, en
2013, un nouveau balayage radio de la Voie lactée rétablit la distinction des régions
riches en formation stellaire et des étoiles jeunes en quatre bras majeurs.

De nouvelles études seront sans aucun doute nécessaires pour résoudre cette
divergence entre étoiles anciennes et étoiles jeunes, mais la solution pour-
rait être liée à une succession continue de collisions entre la Voie lactée et
la plus petite galaxie elliptique naine du Sagittaire. Selon des simulations
numériques publiées en 2011, cette petite galaxie – située actuellement à
environ 50 000 années-lumière de l’autre côté du centre galactique – est quasi-­
certainement responsable de la structuration actuelle en spirale de la Voie lactée.

L’idée clé
Notre galaxie est une spirale
d’étoiles avec le Soleil
loin de son centre
140 50 clés pour comprendre l’Univers

35 L e cœur
de la Voie lactée
Les régions centrales de notre galaxie se trouvent à 26 000 années-
lumière, dans la constellation du Sagittaire. Des nuages denses empêchent
l’observation visuelle de ce noyau, mais les progrès importants des
observations menées dans le domaine radio, ainsi que les télescopes
spatiaux, ont permis de révéler la présence d’un monstre tapi au cœur de la
Voie lactée : un trou noir d’une masse de quatre millions de Soleils.

Après la découverte par Harlow Shapley du véritable centre de notre galaxie,


en 1921 (voir page 137), les astronomes portèrent une attention particulière à
l’étude de cette région intrigante du ciel. En dépit des techniques d’observation
limitées dont ils disposaient à l’époque, ils furent bientôt en mesure de com-
parer la structure de la Voie lactée à celle des nébuleuses spirales qui, dans les
années 1920, venaient d’être reconnues comme des galaxies à part entière. Ils
arrivèrent rapidement à la conclusion que le centre de notre galaxie se carac-
térise par un vaste renflement d’une taille de 20 000 années de lumière fait
d’étoiles jaunes et rouges de Population II (voir encadré ci-contre). Mais com-
ment tant d’étoiles se sont-elles accumulées en premier lieu dans cette région ?

L’idée selon laquelle des noyaux galactiques pourraient dissimuler des trous
noirs « supermassifs », dont les masses se mesurent en millions de fois celle du
Soleil, émergea suite aux tentatives menées dans les années 1960 et 1970 pour
expliquer les quasars et autres galaxies actives (voir page 152). En 1971, Donald
Lynden-Bell et Martin Rees soutinrent que des trous noirs supermassifs dormants
pourraient se trouver au centre de toutes les galaxies, y compris celui de la Voie
lactée, agissant comme un centre gravitationnel autour duquel tournerait tout le
système. Avec un centre galactique échappant aux observations dans le domaine
visible en raison de nuages placés sur la ligne de visée des télescopes, et avec des
observations spatiales encore à leurs balbutiements, les premiers indices corro-
borant les vues de Lynden-Bell et Rees émergèrent du domaine des ondes radio.

chronologie
1921 1933 1971 1974
Shapley localise le Jansky identifie Lynden-Bell et Rees Brown et Balick
centre de notre galaxie les émissions radio suggèrent qu’il existe un identifient la source
loin dans le Sagittaire. des régions centrales trou noir supermassif au radio compacte
de la Galaxie. cœur de la Voie lactée. Sagittarius A*.
Le cœur de la Voie lactée 141

Signaux du centre Le
premier radiotélescope était un
réseau improvisé d’antennes, Populations stellaires
très différent des collecteurs
L’idée de deux populations stellaires distinctes fut
paraboliques qui existent
lancée par Walter Baade sur la base de ses études de
ajourd’hui. Construit dans les
la galaxie voisine d’Andromède, puis mise en pra-
années 1930 par le physicien
tique sur des étoiles d’autres sites, y compris celles
Karl Jansky dans les laboratoires
de notre propre galaxie. Les étoiles de Population I
de la compagnie Bell Telephone
se trouvent dans les disques et les bras des galaxies
dans le New Jersey, ses
spirales. Elles sont relativement jeunes, offrent toute
capacités directionnelles
une gamme de couleurs, et leur « métallicité » (pro-
étaient rudimentaires ; ce fut
portion d’éléments plus lourds que l’hydrogène
pourtant suffisant pour que
et l’hélium) est assez élevée, ce qui leur permet
Jansky identifie un signal radio
de briller par le truchement du cycle CNO (voir
provenant du ciel qui semblait
page 75). Les étoiles de Population II, en revanche,
se lever et se coucher tous
se retrouvent surtout dans les bulbes centraux des
les jours. Au départ, le signal
galaxies spirales, les amas globulaires et les galaxies
paraissait se conformer au
elliptiques (voir pages 82 et 145). Individuellement,
mouvement diurne du Soleil,
elles brillent d’un faible éclat, leur masse est en
mais au bout de quelques mois,
général plus petite que celle du Soleil, et elles sont
Jansky remarqua qu’il dérivait,
majoritairement rouges et jaunes. Un manque de
se levant et se couchant un
métaux restreint leur capacité de fusion de l’hydro-
peu plus tôt chaque jour,
gène au cycle proton-proton (voir page 74) et leur
correspondant au mouvement
assure une vie longue et peu spectaculaire. Les
apparent d’un objet solidaire de
étoiles de Population II sont en général regardées
la voûte céleste. En 1933, Jansky
comme étant aujourd’hui les plus vieilles de l’Uni-
fut en mesure d’annoncer
vers, certaines subsistant depuis le premier milliard
la détection d’ondes radio
d’années qui a suivi le Big Bang.
provenant de la Voie lactée, le
signal étant le plus fort dans la
direction du Sagittaire.

Cette radiosource, située apparemment dans les régions centrales de la Voie


lactée et désignée plus tard sous le nom de Sagittarius A, demeura une forme
floue pour les radioastronomes jusqu’aux années 1960, dates à laquelle ils par-
vinrent enfin à la résoudre dans les moindres détails. Elle est en réalité divisée
en deux unités : la partie orientale est reconnue aujourd’hui comme étant un
vestige de supernova, tandis que l’autre, « Sagittarius A Ouest » se présente sous
la forme d’une curieuse structure à trois bras spiraux. Mais en 1974, Robert

1998 2008-2009 2009 2015


Ghez et collaborateurs Les astronomes Stefan Gillessen et Des télescopes à rayons X
confirment la présence contraignent la masse collaborateurs découvrent détectent la destruction
d’un trou noir à partir du du trou noir à environ de grandes quantités de d’un astéroïde entrant
mouvement rapide des étoiles 4,2 millions de masses matériaux invisibles près dans le trou noir.
autour de Sagittarius A*. solaires. du trou noir central.
142 50 clés pour comprendre l’Univers

Brown et Bruce Balick repérèrent un troisième élément distinct : une source


beaucoup plus compacte, localisée dans Sagittarius A Ouest, qui fut nommée
Sagittarius A* par la suite. Les astronomes supposèrent immédiatement que cet
objet pourrait signaler l’énorme concentration de masse au centre même de la
Galaxie dans son ensemble, ce qui fut confirmé en 1982 par la mesure précise
de son mouvement – ou plus précisément, sa notable absence de mouvement.

« La clé pour
attester la présence
d’un trou noir est de
Les années 1970 et 1980 virent également naître
d’autres méthodes pour voir à travers les nuages
de poussières et d’étoiles placés entre la Terre et le
centre de la Voie lactée. Les télescopes spatiaux opé-
rant dans l’infrarouge se révélèrent très utiles pour
démontrer qu’une repérer les amas stellaires ouverts massifs qui par-
énorme quantité de sèment la région centrale. Les astronomes décou-
matière se trouve vrirent ainsi que l’un d’eux, l’amas du Quintuplet,

»
dans un volume hébergeait un phénomène stellaire considérable,
connu sous le nom d’étoile du pistolet. Avec une
très petit. luminosité environ 1,6 million de fois plus élevée
Andrea Ghez que celle du Soleil, c’est le plus formidable des nom-
breux géants stellaires qui se pressent dans l’amas
du Quintuplet ainsi que dans l’amas voisin, plus massif, des Arches (découvert
tardivement, dans les années 1990).

Bien que ces deux amas stellaires soient situés à des dizaines d’années-lumière
de Sagittarius A*, la présence d’étoiles aussi monstrueuses à courte durée de vie
a sapé les hypothèses selon lesquelles le centre galactique n’abriterait que de
modestes étoiles naines de Population II à longue durée de vie. Il semble au
contraire que les régions les plus centrales de la galaxie ont été les sites d’une
intense formation stellaire, active au cours des derniers millions d’années.

En orbite autour d’un monstre Bien que ne correspodant pas aux


amas des Arches et du Quintuplet, un autre amas stellaire notable, constitué
d’étoiles de grande masse, entoure Sagittarius A* lui-même. Découvert dans les
années 1990 et modestement surnommé « amas des étoiles-S », il rassemble des
étoiles qui jouèrent un rôle décisif pour prouver l’existence même du trou noir
au centre de notre galaxie et pour en contraindre les propriétés.

Les décalages Doppler montrèrent que les étoiles de cet amas se déplacent à des
centaines de kilomètres par seconde, voire plus. En l’espace de quelques années,
des observations à très haute résolution angulaire ont permis de suivre le dépla-
cement de ces étoiles et de démontrer qu’elles évoluent sur des orbites elliptiques
autour d’un corps central invisible, ce qui permet de contraindre la taille de cet
objet massif qui fournirait un ancrage à tout l’amas stellaire ainsi qu’à l’ensemble
de la Voie lactée. Une étoile en particulier, nommée S2, une géante de 15 masses
Le cœur de la Voie lactée 143

solaires, a été suivie en continu


depuis 1995. Elle parcourt en
15,6 ans environ une orbite ellip- Un individu
tique autour de Sagittarius A*,
avec un périastre (le point de au sommeil léger ?
l’orbite le plus proche de l’astre
central) d’environ quatre fois Au cours de la dernière décennie, des études ont
la distance entre le Soleil et révélé que le trou noir central de notre galaxie
Neptune. L’analyse de l’orbite de avait été actif dans un passé relativement récent.
S2 et de celle de S102 – une autre Des télescopes à rayons X opérant en orbite
étoile encore plus proche, décou- observent de temps en temps des sursauts
verte en 2012 – confirme l’exis- d’émission provenant du centre galactique,
tence d’un objet invisible, d’une causés sans doute par de petits objets comme des
masse d’environ quatre millions astéroïdes s’approchant trop près du trou noir,
de fois celle du Soleil, confiné et que la formidable gravité brise en autant de
dans une sphère d’un rayon net- débris portés à très haute température. Toujours
tement plus petit que celui de à l’aide de télescopes spatiaux à rayons X, des
l’orbite terrestre. Un tel objet ne astronomes détectèrent les « échos de lumière »
peut être qu’un trou noir. de phases d’activité passée du trou noir : en
observant des nuages de gaz situés à environ
Comme tout ce qui s’en approche 50 années-lumière de ce dernier, ils repérèrent
de trop près sera rapidement en effet des émissions de fluorescence provenant
anéanti, la plupart des astronomes d’une violente éruption qui se serait produite au
supposèrent que le trou noir cen- centre galactique il y a quelques décennies et qui
tral avait nettoyé son proche aurait illuminé les nuages de gaz alentour.
environnement puis sombré
dans l’inactivité. Ne resteraient
à sa portée que quelques étoiles,
comme S2 et S102, qui prennent le risque de graviter à proximité, ainsi qu’un
courant de gaz vers le trou noir, lent mais continu, propre à susciter les rayonne-
ments qu’émet Sagittarius A*. La surprise n’en fut que plus grande quand une étude
publiée en 2009 avança l’hypothèse que la zone où gravite l’étoile S2 serait remplie
d’un autre million de masses solaires de matériau supposé fait d’étoiles de faible
éclat et de vestiges stellaires indétectables. Dans un environnement aussi encombré,
le trou noir central pourrait ne pas être aussi assoupi que prévu.

L’idée clé
Un trou noir supermassif est
tapi au cœur de la Voie lactée
144 50 clés pour comprendre l’Univers

36 L es types
de galaxies
Edwin Hubble découvrit, en 1924, que de nombreuses nébuleuses du ciel
sont des galaxies à part entière situées bien au-delà de la nôtre, ouvrant
un champ astronomique complètement nouveau. Il fut ainsi possible de
comparer la Voie lactée avec ces autres systèmes, et il devint tout à fait
évident que certains types de galaxies sont très différents.

Le système de classification des galaxies utilisées de nos jours a été maintes fois
modifié et amendé, mais les astronomes reconnaissent aujourd’hui encore les
cinq principaux types de galaxies identifiés par Hubble dans son livre de 1936,
The Realm of the Nebulae (le royaume des nébuleuses en français) : les spirales,
les spirales barrées, les elliptiques, les lenticulaires et les irrégulières.

Les galaxies spirales ont un renflement central, ou bulbe, de vieilles étoiles de


Population II (voir page 141), d’où émergent des bras spiraux soulignés par des
régions de formation stellaire et par de brillants amas de lumineuses étoiles de
Population I à courte durée de vie. En 1939, Horace Babcock, sur la base d’études
spectroscopiques de la galaxie d’Andromède, confirma que les étoiles des galaxies
spirales tournent à des vitesses différentes selon leur distance au centre, une idée
proposée pour la première fois par Bertil Lindblad en 1925 (voir page 137). Les
périodes de rotation typiques à mi-distance du centre vers le bord sont d’environ
200 millions d’années. En plus des spirales normales, Hubble identifia un grand
groupe de galaxies dans lesquelles une barre rectiligne traverse le noyau, les bras
spiraux sortant des extrémités. Les spirales barrées constituent en fait environ les
deux tiers des spirales de l’Univers proche, dont notre Voie lactée.

Actuellement, spirales et spirales barrées représentent à elles deux environ


60 % des galaxies lumineuses, ce nombre ayant sans aucun doute changé au
fil du temps. Leurs tailles vont de quelques dizaines de milliers à environ un
demi-million d’années-lumière, sachant que rares sont les individus de plus

chronologie
1924 1936 1937 1939
Hubble confirme que Hubble présente Shapley découvre Babcock confirme la
les nébuleuses spirales un système de la première des rotation différentielle
sont des galaxies bien classification global nombreuses galaxies des étoiles au sein
au-delà de la Voie lactée. des types de galaxie. naines sphéroïdales. des galaxies spirales.
Les types de galaxies 145

grande taille que la Voie lactée, dont le diamètre


est de l’ordre de 100 000 années-lumière. Hubble « L’histoire de
l’astronomie est une

»
subdivisa les deux types de spirales en fonction du
resserrement de leurs bras spiraux. Il existe d’autres histoire d’horizons
­différenciations notables, parmi lesquelles, peut- qui s’éloignent.
être, la plus importante sépare spirales de « grand
style », avec des bras s­ piraux bien définis, et spirales Edwin Hubble
dites « cotonneuses », dans lesquelles la formation
stellaire est plus dispersée et fragmentée. Les spécialistes estiment que la diffé-
rence entre les deux tient aux contributions relatives à la formation stellaire de
facteurs à grande échelle comme les ondes de densité spirales (voir page 138)
et des facteurs locaux tels que les ondes de choc de supernova.

Elliptiques et lenticulaires La troisième grande classe de galaxies


identifiée par Hubble est celle des elliptiques, des concentrations sphéroïdales
d’étoiles rouges et jaunes évoluant sur des orbites de grande excentricité et
dont les plans présentent les angles d’inclinaison les plus variés. Contrairement
aux spirales, les elliptiques sont en grande partie dépourvues de nuages de
gaz interstellaires propres à la formation stellaire. Toutes les étoiles massives
bleues et blanches, à courte durée de vie, ont vieilli et disparu depuis
longtemps, ne laissant place qu’à de placides étoiles de faible masse relevant
de la Population II. L’absence de gaz est aussi responsable de leur structure
désordonnée : les collisions entre nuages de gaz ont un penchant naturel
pour former des disques de toutes tailles, de celles des systèmes stellaires
jusqu’à celles des galaxies, or l’influence gravitationnelle de ces disques tend
à rectifier les plans des orbites stellaires. Les rencontres rapprochées entre
étoiles – un autre mécanisme apte à homogénéiser les orbites – sont rares et
les elliptiques adoptent donc toute un éventail de formes, des sphères les plus
parfaites aux cigares allongés.

Les tailles des elliptiques sont bien plus variées que celles des spirales, leurs dia-
mètres s’étalant de quelques milliers à quelques centaines de milliers d’années-
lumière. Elles représentent aujourd’hui environ 15 % de toutes les galaxies, mais
les plus grands spécimens ne se trouvent que dans des amas de galaxies denses,
une particularité qui fournit un indice important quant à leur origine (voir
pages 150 et 157). Hubble disposa spirales, spirales barrées et elliptiques sur son
célèbre schéma, dont la forme de fourche lui valut le surnom de « diapason »
(voir page 147), avec un type de galaxie intermédiaire, les lenticulaires, qui se

1944 1959 1964


Baade identifie deux populations Gérard de Vaucouleurs instaure Lin et Shu proposent leur
stellaires dans la Voie lactée une extension largement utilisée théorie des ondes de densité
et d’autres galaxies. du système de Hubble. pour expliquer les bras spiraux.
146 50 clés pour comprendre l’Univers

La découverte des autres galaxies


La nature des nébuleuses spirales – reconnues i­ndépendante menée par Hertzsprung de
comme de lointains nuages d’étoiles grâce la distance de plusieurs céphéides proches.
à des études spectroscopiques – fit l’objet Hubble fut ainsi en mesure d’utiliser la période
d’un féroce débat astronomique au début du des céphéides pour estimer leur luminosité
xxe siècle. Étaient-elles d’assez petits systèmes intrinsèque et donc leur distance probable à
en orbite autour d’une Voie lactée supposée la Terre (par comparaison avec leur lumino-
englober l’Univers tout entier ? Étaient-elles sité apparente sur la voûte céleste). Plusieurs
plutôt de grandes galaxies lointaines à part années durant, Hubble mit à profit le téles-
entière, ce qui impliquait une beaucoup plus cope de 2,5 mètres de diamètre de l’obser-
grande échelle pour l’Univers ? vatoire du Mont Wilson en Californie pour
Le soi-disant « Grand débat » fut finalement localiser des céphéides dans certaines des
tranché en 1925 grâce aux travaux opiniâ- nébuleuses spirales les plus brillantes et suivre
tres d’Edwin Hubble, s’appuyant sur ceux les variations de leur éclat. Dès 1924, il fut
d’Henrietta Leavitt (voir page 113) et d’Ejnar capable de confirmer que les nébuleuses spi-
Hertzsprung. Il y conjuguait la découverte rales étaient bien des systèmes indépendants
de Leavitt d’une relation entre période et situés à des millions d’années-lumière de la
luminosité dans le cas d’étoiles variables Voie lactée, la première étape d’une décou-
de type céphéide, avec la détermination verte plus grande encore (voir page 160).

place à la jonction entre les deux branches et la tige de ce diapason. Les lenticu-
laires ressemblent à des « spirales sans bras ». Elles ont un bulbe central d’étoiles,
entouré d’un disque de gaz et de poussière, mais peu de signe de formation stel-
laire en cours pour créer des bras spiraux. Comme Hubble l’avait deviné, les lenti-
culaires marqueraient un stade clé de l’évolution des galaxies d’un type à l’autre.

Galaxies irrégulières et galaxies naines Plus petites que les


spirales, les galaxies irrégulières identifiées par Hubble sont des nuages informes
d’étoiles, de gaz et de poussière, souvent riches en étoiles jeunes et brillantes
d’un bleu très distinct. Les astronomes estiment qu’elles constituent environ
un quart des galaxies, mais étant en général plus petites et moins lumineuses
que les spirales et les elliptiques, elles sont difficiles à observer. Par chance,
deux de nos plus proches galaxies voisines – le Grand et le Petit Nuage de
Magellan – sont des irrégulières, ce type est donc bien étudié.

Hubble divisa les irrégulières en deux classes : les galaxies « Irr I », présentant
une vague structure interne, et les galaxies « Irr II », dépourvues de structure
organisée. L’agencement interne des plus grandes galaxies Irr I peut inclure des
traces de barres centrales ou de bras spiraux mal définis. Les images de l’Uni-
Les types de galaxies 147

SPIRALE
Schéma représentant la classification
des galaxies de Hubble.

ÉLLIPTIQUE S0 Sa Sb Sc

LENTICULAIRE IRRÉGULIÈRE

E0 E3 E6 SPIRALE BARRÉE

SBa SBb SBc

vers lointain enregistrées par le télescope spatial Hubble, qui montrent que les
galaxies irrégulières étaient bien plus abondantes dans le passé, accréditent
l’idée que les spirales proviennent de fusions.

Les galaxies naines sphéroïdales constituent un dernier groupe important de


galaxies encore plus petites et moins lumineuses que les irrégulières. Ces petits ras-
semblements stellaires sphériques ou elliptiques, d’une très faible luminosité de
surface et sans noyau manifeste, furent découverts par Harlow Shapley en 1937.

En dépit d’une similitude extérieure avec les galaxies elliptiques, les naines
sphéroïdales semblent contenir un mélange plus complexe d’étoiles, ainsi que
de grandes quantités de « matière noire » indétectable dont la gravité main-
tient ensemble les éléments dispersés détectés dans le domaine visible. Plus
des deux tiers des galaxies situées dans le voisinage de la nôtre sont des naines
sphéroïdales, impossibles à repérer à de plus grandes distances.

L’idée clé
Les galaxies se présentent
sous des formes
très différentes
148 50 clés pour comprendre l’Univers

37 C
 ollisions
et évolution
de galaxies
Alors que les distances séparant les galaxies sont immenses comparées à
nos échelles quotidiennes, elles sont relativement modestes en regard de
la taille des galaxies elles-mêmes, ce qui fait des collisions et rencontres
rapprochées entre galaxies un événement étonnamment commun, jouant
un rôle clé dans leur évolution.

Une fois la vraie nature des galaxies révélée, dans les années 1920, les astro-
nomes s’aperçurent rapidement que maintes galaxies situées les unes à côté
des autres sur la voûte céleste sont effectivement proches dans l’espace. Dès
1937, l’astronome suédois Erik Holmberg accomplit dans ce domaine un tra-
vail de pionnier : en 1941, il fut ainsi le premier à étudier ce qui se passerait si
deux galaxies entraient en collision. Il utilisa dans ce but un ordinateur ana-
logique primitif, composé de dizaines d’ampoules électriques dont les inten-
sités variables représentaient des concentrations d’étoiles. Ses travaux mirent
en évidence plusieurs effets importants : il montra notamment comment des
galaxies, en s’approchant l’une de l’autre, induiraient des forces de marée au
sein de chacune d’entre elles, lesquelles déclencheraient des vagues de for-
mation stellaires, tout en ralentissant leur mouvement d’ensemble à travers
l’espace, de sorte qu’elles finiraient par s’interpénétrer puis par fusionner.

Les collisions entre galaxies ne furent pourtant perçues que comme des acci-
dents inhabituels jusqu’en 1966, avec la publication, par Halton Arp, de l’Atlas
of Peculiar Galaxies (Atlas de galaxies particulières en français), un catalogue
décrivant la grande variété de galaxies qui ne s’ajustaient pas au schéma de
classification d’Edwin Hubble (voir page 147).

chronologie
1941 1951 1966
Holmberg simule Lyman Spitzer Jr. et Walter Baade Alton Arp publie
les événements associés à suggèrent que les collisions pourraient son Atlas of Peculiar
d’hypothétiques collisions être un mécanisme pour transformer Galaxies.
de galaxies. des galaxies d’un type en un autre.
Collisions et évolution de galaxies 149

Modéliser les fusions À


peu près au même moment,
les frères estoniens Alar et Jüri Superamas
Toomre mirent à profit la nouvelle
technologie des super-ordinateurs stellaires
pour résoudre le problème des
L’un des résultats les plus spectaculaires des inte-
fusions. Les résultats auxquelles
ractions de galaxies est la formation d’amas stel-
ils parvinrent étaient certes
laires de plus petites tailles que celles des amas
similaires à ceux de Holmberg,
normaux, qu’ils soient ouverts ou globulaires
mais avec beaucoup plus de
(voir page 82). Quant aux soi-disant superamas
détails. Les deux frères simulèrent
stellaires, ce sont les éléments constitutifs d’une
même des collisions de galaxies
plus vaste flambée d’étoiles survenant quand de
spécifiques. Les galaxies des
puissantes forces de marée déclenchent l’effon-
Antennes, par exemple, sont une
drement gravitationnel de nuages de gaz interstel-
paire de spirales en interaction
laires géants. Le plus important de la voûte céleste
située à environ 45 millions
est R136, un amas ouvert extrêmement dense du
d’années-lumière en direction
Grand Nuage de Magellan, qui abrite les étoiles les
de la constellation du Corbeau :
plus massives jamais découvertes (voir page 117).
lorsque les deux galaxies se sont
Toutefois, deux superamas stellaires au moins sont
approchées l’une de l’autre, les
désormais identifiés dans la Voie lactée elle-même.
forces de marée ont « dévidé » leurs
L’importance des superamas stellaires tient au
bras spiraux, créant deux longs
fait qu’ils proposent une origine probable aux
filets d’étoiles s’étendant à travers
amas globulaires, restée autrement mystérieuse.
l’espace intergalactique. Depuis
En dépit de leur formidable gravité, ils ont rapi-
les années 1990, les images du
dement perdu leur gaz, ce qui empêche toute
télescope spatial Hubble ont mis
nouvelle formation stellaire après la première
en évidence, dans les principales
flambée. En effet, les monstrueuses étoiles à
structures de ces galaxies, des
courte durée de vie créées lors de la première
sites d’intense formation stellaire,
vague de formation stellaire meurent au bout
tandis que des images enregistrées
de quelques millions d’années seulement, géné-
dans la bande des rayons X
rant d’énormes ondes de choc de supernova qui
montrent que l’ensemble du
dispersent aussitôt la nébuleuse environnante.
système est maintenant entouré
Une fois que les étoiles intermédiaires ont aussi
d’un halo de gaz chaud.
atteint la fin de leur évolution, subsiste un amas
En dépit du spectacle offert par globulaire compact regroupant plusieurs milliers
les collisions de galaxies, les col- d’étoiles de faible masse et d’âge identique.
lisions entre étoiles i­ndividuelles

Vers 1970 1977 1978 2002


Les frères Toomre Alar Toomre Leonard Searle et Robert Matthias Steinmetz et Julio
appliquent des modèles suggère que la Zinn proposent que les Navarro utilisent des modèles
numériques de collisions fusion des galaxies galaxies spirales résultent informatiques perfectionnés pour
de galaxies à des spirales produit des de la fusion de galaxies soutenir le modèle hiérarchique
galaxies spécifiques. elliptiques. irrégulières plus petites. de l’évolution des galaxies.
150 50 clés pour comprendre l’Univers

À gauche : lors d’une fusion majeure


de galaxies, les spirales en collision
perdent leur structure et entrent en
coalescence pour former une galaxie
elliptique plus grande.

À droite : dans une fusion mineure


de galaxies, l’absorption d’une
petite galaxie naine par une spirale
améliore la structure de la spirale
et le taux de formation stellaire.

sont rares. Il en va tout a


­ utrement des nuages plus diffus de gaz et de poussière
qui, lorsqu’ils se rencontrent, créent un grand nombre de nouvelles étoiles au
cours d’un événement connu sous le nom de flambée d’étoiles. Des ondes de choc
déchirant le matériau en collision le portent à haute température. Pendant ce
temps, des explosions de supernova, provenant d’étoiles massives à courte durée
de vie créées au cours de la flambée d’étoiles, chauffent encore davantage le gaz,
portant sa température à des millions de degrés et l’enrichissant d’éléments syn-
thétisés par fusion nucléaire lors de l’explosion. Le gaz peut devenir si chaud et se
mouvoir si vite qu’il finit par constituer un halo autour des galaxies en collision.
Malgré des progrès importants tant en technologie informatique que dans notre
compréhension de la composition des galaxies depuis ces premières simulations
(y compris la découverte de la matière noire – voir chapitre 45), le modèle Toomre
de « collisions majeures » entre grandes galaxies spirales a survécu plus ou moins
intact. Bien sûr, toutes les fusions n’impliquent pas une paire de spirales : bien plus
fréquentes sont les rencontres avec de plus petites galaxies, elliptiques naines ou
irrégulières. Il s’agit pour la plupart de rencontres à sens unique, dans lesquelles la
galaxie la plus petite est déchiquetée sous l’influence du système le plus important,
finissant par perdre complètement son identité dès lors qu’elle est cannibalisée.
L’attraction gravitationnelle de la galaxie la plus petite semble, par effet secondaire,
intensifier le taux de formation d’étoiles et la structure en spirale dans la plus grande
galaxie (voir page 138). Il existe de bonnes raisons de penser que notre propre
galaxie est actuellement impliquée dans un tel épisode, et qu’elle interagit avec
une petite galaxie connue sous le nom de galaxie naine sphéroïdale du Sagittaire.

Les collisions comme moyen d’évolution Sur la base des études


qu’il mena sur la manière dont se comportent les étoiles survivant à une fusion
majeure, Alar Toomre avança en 1977 l’audacieuse hypothèse que les fusions
entre spirales produiraient des galaxies elliptiques. Les étapes initiales du processus
de fusion déstabiliseraient les orbites des étoiles sur une multitude de trajectoires
elliptiques dérèglées, et la disparition d’une grande partie du gaz dans le système
Collisions et évolution de galaxies 151

fusionné supprime une possibilité clé de rectifier les orbites stellaires. Lorsqu’ils
entrent en collision, les nuages de gaz s’aplatissent naturellement en un disque
exerçant une attraction gravitationnelle sur les étoiles existantes et contrôlant
le plan dans lequel se forment les nouvelles générations d’étoiles. À mesure que
vieillissent et meurent les étoiles plus brillantes et plus massives créées lors de la
véritable fusion, le résultat final est une boule amorphe d’étoiles rouges et jaunes
plus tranquilles gravitant sur des orbites se chevauchant, autrement dit une
galaxie elliptique. En supposant que toutes les galaxies ont commencé en tant que
spirales, Toomre calcula le taux de fusion probable depuis le début de l’Univers,
montrant qu’il correspondait à la proportion actuelle de galaxies elliptiques.

Les idées des frères Toomre mirent du temps à être


remarquées, et furent farouchement débattues au
cours des années 1980, mais des observations plus
détaillées de fusions de galaxies décelèrent peu à peu
« Les systèmes
doubles et multiples,
ainsi que les amas,
de nombreux systèmes semblant marquer l’une ou
l’autre phase de la transition de l’état de spirale à
sont explicables
celui d’elliptique. Les progrès récents, quant à eux, par des captures
ont permis de combler les lacunes subsistant autour entre galaxies que
de l’idée de fusion. En offrant des images de galaxies troublent des forces
se trouvant à plusieurs milliards d’années-lumière, de marée en cas

»
donc à une époque plus précoce de l’évolution cos-
mique (voir page 177), le télescope spatial Hubble
de rencontres
montra que la plupart des galaxies débutaient en tant rapprochées.
qu’irrégulières avant de fusionner et de se développer Erik Holmberg
en spirales plus complexes. Il apparut également que
les elliptiques issues de processus de fusion peuvent peu à peu récupérer du gaz à
partir de leur environnement. Elles peuvent ainsi se régénérer à travers une phase
lenticulaire (voir page 146) pour former de nouveaux bras spiraux. L’ensemble
du processus de fusion se répète probablement plusieurs fois – le gaz étant porté à
des températures de plus en plus élevées et repris de plus en plus lentement – au
cours de l’évolution d’une galaxie au cœur d’un amas de galaxies, depuis l’état de
jeune spirale à celui d’ancienne géante elliptique (voir page 157).

L’idée clé
Les galaxies entrent souvent
en collision et changent
de forme en conséquence
152 50 clés pour comprendre l’Univers

38 Q
 uasars et
galaxies actives
Les galaxies actives se présentent sous diverses formes, mais sont rassemblées
par la présence d’un noyau central lumineux et variable, dans lequel un trou
noir supermassif se nourrit de matériaux provenant de son environnement.
Les galaxies actives les plus célèbres sont sans aucun doute les quasars, qui
ont tenu un rôle clé dans l’histoire de l’évolution des galaxies.

En 1908, les astronomes Vesto Slipher et Edward Faith de l’observatoire Lick,


en Californie, publièrent des détails sur des aspects étranges du spectre de
Messier 77, l’une des galaxies les plus brillantes du ciel, qui se singularisait car
son spectre ne ne présentait pas le mélange habituel de raies d’absorption créées
par la lumière d’innombrables étoiles, mais des raies d’émission – des excès de
lumière à des longueurs d’onde spécifiques, si brillants qu’ils ressortaient même
du « continuum » des spectres stellaires. Slipher et Faith ne le savaient pas à
l’époque, mais ils venaient de découvrir la première galaxie active.

Galaxies de Seyfert et galaxies radio Il fallut attendre 1943


pour identifier des galaxies aux propriétés similaires à celles de M 77, avec la
découverte par Carl Seyfert d’un certain nombre de galaxies spirales avec un
noyau central très brillant à l’allure d’étoile. La largeur des raies d’émission
indiquait qu’elles étaient produites par des nuages de gaz évoluant à grande
vitesse autour de la région centrale (ce qui provoquait le décalage Doppler de
leurs raies d’émission sur toute une plage de longueurs d’ondes ; voir page 62).
De tels systèmes sont aujourd’hui connus sous le nom de galaxies de Seyfert, et
sont perçus comme la forme la moins puissante de galaxie active.

Pendant ce temps, en 1939, Grote Reber, jeune radioastronome américain, iden-


tifia quelques-unes des premières sources radio célestes en dehors de la Voie lactée
elle-même (voir page 141). Dénicher les objets visibles desquels émanaient ces
sources radio s’avéra toutefois difficile, dans la mesure où la résolution des pre-

chronologie
1943 1953 1960 1963
Seyfert identifie un certain Baade et Rudolph Sandage identifie Schmidt découvre
nombre de galaxies Minkowski établissent un la première des la grande distance
spirales avec des noyaux lien entre la radiosource radiosources quasi- du quasar 3C 273.
compacts brillants et des Cygnus A et une étrange stellaires ou quasars.
raies d’émission larges. galaxie distante.
Quasars et galaxies actives 153

mières cartes radio était des plus limitées. Ce ne fut


qu’en 1953 que Walter Baade et Rudolph Minkowski
menèrent des balayages du ciel plus précis dans le
domaine des ondes radio dans le but de localiser les
« Cette région
compacte brillerait
d’un éclat environ
sources de Reber. La plupart étaient associées à des 100 fois plus élevé
objets de notre galaxie, comme des vestiges de super- dans le visible que
nova, mais l’une d’entre elles, Cygnus A, semblait
être liée à un système distant de galaxies en colli-
celui des galaxies
sion. Quelques mois plus tard, il apparut clairement lumineuses
identifiées jusqu’à

»
que Cygnus A était en fait constituée de deux lobes
étendus de part et d’autre d’une structure centrale. présent avec des
Le mystère des quasars La fin des années
radiosources.
1950 vit s’épanouir la radioastronomie avec la Maarten Schmidt
mise au point à Jodrell Bank, près de Manchester
en Angleterre, du premier radiotélescope à surface collectrice en forme de
paraboloïde. Beaucoup de nouvelles radiosources extragalactiques furent alors
découvertes, certaines conformes au modèle à deux lobes de Cygnus A, d’autres
n’étant que des sources isolées. En 1960, l’astronome américain Allan Sandage,
en examinant avec soin la voûte céleste dans la direction de ces objets, constata
qu’ils étaient généralement associés à des astres d’aspect stellaire et de faible
éclat. Il les nomma sources radios quasi stellaires, expression à laquelle fut
préférée, au bout de quelques années, l’abréviation plus élégante de « quasar ».
Le spectre de leur lumière visible paraissait montrer de larges raies d’émission
lumineuses, bien plus intenses que celles des galaxies de Seyfert, mais il était
frustrant de ne pouvoir les associer à aucun élément connu.

Une avancée décisive dans la compréhension des quasars survint en 1963,


lorsque Maarten Schmidt, un collègue hollandais de Sandage, réalisa que les
raies spectrales du quasar 3C 273 coïncidaient en fait parfaitement avec les
raies d’émission familières que produit l’hydrogène, pour peu que ces dernières
soient déplacées vers la partie rouge du spectre. Estimant que ce décalage vers
le rouge était probablement dû à l’effet Doppler, Schmidt suggéra que 3C 273
s’éloignait de la Terre à une vitesse valant un sixième de celle de la lumière.

Quelques astronomes tentèrent d’expliquer cet objet mystérieux comme une


étoile en fuite, accélérée à une vitesse extrême par un mécanisme jusqu’alors
inconnu, mais ces tentatives tournèrent court à mesure que des décalages vers
le rouge aussi excessifs étaient mesurés dans les spectres d’autres quasars, sans
qu’aucun décalage vers le bleu d’une même ampleur ne soit mis en évidence

1964 1968 1969


Edwin Salpeter et Iakov Zeldovich John Schmitt découvre Lynden-Bell soutient que toutes
suggèrent que les émissions des un autre type de galaxie les galaxies actives s’expliquent
quasars peuvent provenir d’un disque active : celui des blazars, par la présence d’un trou noir
d’accrétion ceinturant un trou noir géant. ou objets de type BL Lac. supermassif.
154 50 clés pour comprendre l’Univers

(comme ce serait le cas si un méca-

Collisions entre nisme aléatoire était à l’œuvre).


La plupart des experts arrivèrent

galaxies et plutôt à la conclusion que les qua-


sars devaient leurs grands décalages

galaxies actives vers le rouge à l’expansion de l’Uni-


vers dans son ensemble (voir cha-
pitre 40). Selon la loi de Hubble, ils
Depuis la découverte initiale des galaxies actives, doivent donc être à la fois extrême-
il est devenu évident qu’une activité violente dans ment distants et extrêmement bril-
le noyau est souvent associée au processus specta- lants. De plus, la taille de la source
culaire de collisions de galaxies ou de rencontres de lumière en question doit être assez
rapprochées. Par exemple, Centaurus A, l’une des minuscule : la brièveté des variations
radiogalaxies les plus proches de la Terre, appa- imprévisibles de la luminosité des
raît dans le domaine visible comme une galaxie quasars impliquait des tailles maxi-
elliptique, matricule NGC 5128, traversée par males de quelques heures-lumière,
une bande sombre de poussière opaque, elle- probablement pas plus grandes que
même parsemée de sites de formation stellaire notre Système solaire. La théorie
et de jeunes amas lumineux. Les astrophysiciens selon laquelle les quasars étaient des
estiment que ce système est le résultat d’une régions d’activité intense au sein des
fusion entre une galaxie elliptique existante et une noyaux de galaxies lointaines fut
grande spirale qui a été engloutie. Résultat inévi- finalement confirmée par l’obser-
table d’une telle situation : de grandes quantités vation des galaxies hôtes d’un bien
de gaz interstellaires, voire des étoiles entières, sont moindre éclat qui les entouraient.
amenées à portée du trou noir central, contribuant
à l’activité du noyau. Une activité basse en compa- Une théorie unifiée Les liens
raison, comme celle observée dans les galaxies de entre ces trois types de galaxies actives
Seyfert, peut être entraînée par des perturbations – galaxies de Seyfert silencieuses en
dues aux effets de marées induits par de petites radio, radiogalaxies et quasars – sont
galaxies fusionnant avec le plus large système, devenus plus évidents dans les années
voire simplement en orbite autour de ce der- 1960 et 1970. Au fur et à mesure que
nier. En fin de compte, une fois qu’un processus s’améliorait la résolution angulaire des
de fusion de galaxies est terminé, les trous noirs radiotélescopes, il apparut clairement
supermassifs individuels des systèmes jusque-là que les lobes des radiogalaxies étaient
indépendants peuvent également tomber en spi- produits quand des jets de matière
rale l’un vers l’autre avant d’entrer en coalescence, fortement focalisés, émergeant à
produisant alors de puissantes ondes gravitation- grande vitesse du cœur de la galaxie
nelles (voir page 191). centrale, rencontraient le « milieu
intergalactique » (voir page 157) où
ils s’étalaient en énormes nuages.
Certains quasars produisent des
lobes jumelés d’émissions radio, alors que certaines galaxies de Seyfert émettent
également de faibles signaux radio. La découverte d’une nouvelle classe de galaxies
Quasars et galaxies actives 155

actives, celle des blazars, a Les jets s’étalent en lobes


radio quand ils rencontrent
accru encore davantage la le gaz intergalactique.
variété des types d’activités Jet éjecté le long de Un AGN apparaît
répertoriés. l’axe de rotation du comme quasar si le
trou noir disque d’accrétion
est bien visible.
Dès 1969, Donald Lynden-Bell Disque d’accrétion
soutint que le comportement qui produit un
des radiogalaxies et des galaxies rayonnement intense.
Un AGN apparaît
de Seyfert se trouvant dans comme radiogalaxie
l’univers proche pourrait être si la vue sur la région
centrale est bloquée.
une version réduite de celui
des quasars, et que le compor-
tement de toutes les galaxies
actives tenait finalement à un
trou noir géant central souti- Tore de poussière qui
rant à son environnement une bloque la vue du disque
grande quantité de matière. observé de côté.

Bien que l’idée de Lynden-Bell


Trou noir Une activité plus faible
ait fait polémique à l’époque, dans un AGN crée
supermassif
des preuves croissantes en sa une galaxie de Seyfert.
faveur conduisirent, dans les
années 1980, à développer Regarder les jets des AGN
dans l’axe donne lieu au type
un modèle unifié des noyaux « blazar ».
actifs de galaxies, ou AGN (de
La structure complexe d’un AGN donne lieu à différents types de
l’anglais Active Galactic Nuclei). galaxies actives en fonction de l’angle sous lequel il est observé.
Dans ce modèle, le rayonne-
ment est émis par un disque d’accrétion porté à très haute température ceinturant
le trou noir central, le mécanisme d’accrétion suscitant l’éjection d’un système
bipolaire de jets de particules qui s’échappent de part et d’autre du disque avant de
créer les lobes radio. L’observation d’un type donné d’AGN dépend de la vigueur
de son activité et de son orientation par rapport à la Terre.

L’idée clé
Les trous noirs monstrueux
peuvent générer de violentes
activités au sein des galaxies
156 50 clés pour comprendre l’Univers

39 L ’Univers
à grande échelle
Les galaxies se rassemblent à diverses échelles, constituant des groupes et
des amas assez compacts dont les bords se chevauchent pour former de plus
vastes superamas, ainsi qu’un réseau de filaments et de vides immenses à
l’échelle du cosmos. La distribution des différents types de galaxies nous
révèle les secrets de leur évolution et nous informe sur les conditions de
l’Univers primitif.

Plus les astronomes des xviiie et xixe siècles découvraient les nébuleuses deve-
nues aujourd’hui galaxies spirales et elliptiques, plus il devenait évident que
ces objets étaient inégalement distribués sur la voûte céleste. L’amas le plus
visible se trouvait dans la constellation de la Vierge, mais d’autres avaient aussi
été repérés dans différentes constellations, comme la Chevelure de Bérénice,
Persée, ou le Fourneau et la Règle dans l’hémisphère sud. Quand Edwin Hubble
découvrit, en 1929, une relation entre la distance d’une galaxie et le décalage
vers le rouge de sa lumière (voir page 161), il confirma que dans chacune de ces
régions, des centaines de galaxies brillantes étaient entassées dans un assez petit
volume d’espace. Notre « Groupe Local » – le groupe de galaxies auquel appar-
tient la Voie lactée – est beaucoup moins impressionnant que ces lointains
amas. Identifié par Hubble en 1936, cette collection de quelques douzaines de
galaxies contient seulement trois spirales – la Voie lactée et celles d’Andromède
et du Triangle – et deux grandes irrégulières (les Nuages de Magellan).

Tout au long des années 1930, les astronomes identifièrent des amas de galaxies
et mirent en place une approche plus exigeante pour déterminer la composi-
tion d’un amas, ces derniers n’étant plus définis sur la simple base de proxi-
mité d’individus, mais en tant qu’agrégats de galaxies liées par leur attraction
gravitationnelle, à laquelle elles ne peuvent échapper. Les amas de galaxies
sont souvent reconnus comme les plus grandes structures de l’Univers liées
par la gravitation. L’effet de la gravité diminuant rapidement avec la distance,

chronologie
1929 1933 1936 1953
Hubble établit le lien Zwicky applique le Hubble identifie De Vaucouleurs
entre la distance théorème du viriel à le groupe local suggère l’existence d’un
d’une galaxie et le l’amas de galaxies de la des galaxies superamas contenant le
décalage vers le Chevelure de Bérénice et proches de la Groupe Local et l’amas
rouge de sa lumière. découvre la matière noire. Voie lactée. de la Vierge.
L’Univers à grande échelle 157

Galaxies elliptiques géantes


La plus grande galaxie de notre région de des survivants errants de collisions passées,
l’Univers est Messier 87, au centre de l’amas rejetés sur des orbites autour de la galaxie
de la Chevelure de Bérénice. Cette énorme centrale. Ils sont aussi souvent escortés
agglomération d’étoiles d’aspect sphérique, d’amas globulaires gravitant dans la même
d’une étendue de 120 000 années-lumière, région : Messier 87 en retient environ 12 000
renferme une quantité de matière dont la (par comparaison, la Voie lactée en retient
masse est d’environ 2,5 milliards de masses environ 150). Si le lien entre amas globu-
solaires. Il s’agit de l’archétype d’une galaxie laires et superamas d’étoiles (voir page 149)
elliptique géante, également connue sous le est avéré, le grand nombre d’amas globu-
nom de galaxie de « type cD » (pour cluster laires de Messier 87 est aussi le résultat de
dominant, dominante de l’amas). Les ellip- collisions cosmiques. D’autres preuves que
tiques géantes sont des cannibales galac- des collisions de galaxies soutiennent la
tiques, résultat final de multiples épisodes croissance des elliptiques géantes sont four-
de fusions de galaxies qui ont vu de plus nies par plusieurs spécimens dont les noyaux
petites elliptiques et spirales être englouties. abritent plus d’un trou noir supermassif.
De ce fait, elles sont souvent entourées de Celui de Messier 87 en abrite un seul, mais
halos stellaires d’un faible éclat s’étendant grâce à son épisode de fusion le plus récent,
sur un diamètre total pouvant atteindre c’est un noyau galactique actif et l’une des
un demi-million d’années-lumière. Il s’agit sources radio les plus brillantes du ciel.

groupes et amas occupent en général un espace d’environ 10 millions d’années-


lumière, quel que soit le nombre de galaxies.

Propriétés des amas de galaxies En 1933, Fritz Zwicky utilisa le


théorème du viriel, une relation générale de la mécanique classique, pour estimer
la masse de l’amas de la Chevelure de Bérénice à partir des vitesses de ses galaxies.
Il fut ainsi amené à postuler que les amas contenaient bien plus de matière et
étaient plus massifs que ce que suggéraient les caractéristiques de leurs galaxies
visibles. Les premiers satellites à rayons X, lancés dans les années 1970, montrèrent
que les centres des amas denses étaient souvent des sources intenses de rayons X,
interprétées de nos jours comme émanant d’un gaz « intra-amas » assez clairsemé,
porté à des températures de plus de 10 millions de degrés Celsius. Ce gaz émetteur
de rayons X contribue certes largement à la masse totale d’un amas, mais laisse

1958 1977 1982‑1985 2014


Abell publie la Les astronomes du centre Harvard- Les résultats des relevés Le superamas de la
première version Smithsonian pour l’astrophysique du décalage vers le rouge Vierge est remplacé
de son catalogue entament le premier relevé à des galaxies révèlent une par une plus grande
d’amas de grande échelle du décalage vers le structure cosmique mêlant structure appelée
galaxies. rouge des galaxies. filaments et vides. Laniakea.
158 50 clés pour comprendre l’Univers

inexpliquée la plus grande partie de la matière manquante de Zwicky (voir


page 180).

Un autre aspect notable est la répartition particulière des types de galaxies. Les
galaxies du champ – les 20 % des galaxies proches qui ne font partie d’aucun
groupe ou amas particulier – ne sont en général que des irrégulières ou des spi-
rales, alors que celles qui se trouvent dans des groupes assez relâchés comme
le nôtre sont de tous les types. Quant aux amas denses, ils sont dominés par
des elliptiques, et leurs centres mêmes se distinguent souvent par la présence
d’une galaxie elliptique géante énorme (voir encadré page 157). En 1950, Lyman
Spitzer Jr. et Walter Baade soutinrent qu’une telle distribution était le signe que

«
l’évolution des elliptiques est le résultat de collisions plus susceptibles de se
produire dans les environnements encombrés des
amas denses. Ils prédirent même que de telles col-
Depuis le lisions videraient les galaxies de leur gaz interstel-
4 septembre laire, anticipant les théories d’évolution des galaxies
2014, nous avons des années 1970 (voir page 149), prédiction qui fut
officiellement une corroborée par la découverte du gaz intra-amas

cosmique !
»
nouvelle adresse émettant des rayons X.

Hélène Courtois,
à propos du superamas Laniakea
Dans les années 1950, George Abell débuta la
compilation d’un catalogue exhaustif d’amas de
galaxies, qu’il n’acheva qu’en 1989. Le catalogue
Abell conduisit à de nombreuses découvertes
importantes, mais la plus remarquable fut proba-
blement la « fonction de luminosité des amas » : la relation entre la luminosité
intrinsèque de la galaxie la plus lumineuse d’un amas et le nombre de galaxies
dont la luminosité se situe au-dessus d’un seuil donné. Même s’il est facile de
mesurer la luminosité relative des galaxies d’un amas, la fonction de luminosité
permet de prédire leurs luminosités vraies et constitue donc une importante
« chandelle standard » pour la mesure des distances cosmiques à grande échelle.

Des structures au-delà des amas Abell et l’astronome franco-


américain Gérard de Vaucouleurs soutirent tous deux la réalité d’un autre
niveau de structure au-delà des amas de galaxies. En 1953, de Vaucouleurs
suggéra l’existence d’une « super-galaxie locale » centrée sur l’amas de la Vierge
et englobant de nombreux autres groupes, y compris le Groupe Local. Ce ne
fut qu’au début des années 1980 que des relevés de décalage vers le rouge
attestèrent son existence avec certitude. Plusieurs autres « superamas » furent
rapidement identifiés, mais leur définition précise fait encore débat, car ils
ne sont pas liés par la gravité comme le sont les galaxies au sein des amas
individuels. Ils sont plutôt définis comme de simples concentrations d’amas
dans une région de l’espace, souvent animés d’un mouvement d’ensemble.
Une telle définition, basée sur la dynamique des amas, est l’une des raisons
L’Univers à grande échelle 159

pour lesquelles, en 2014, une équipe internationale, dont la Française Hélène


Courtois, a proposé de remplacer le superamas de la Vierge par une nouvelle et
plus vaste structure, Laniakea, d’une largeur d’environ 500 millions d’années-
lumière et contenant au moins 100 000 galaxies majeures.

Les progrès technologiques ont rendu possible, depuis les années 1970, la collecte
de spectres et de décalages vers le rouge pour un grand nombre de galaxies, per-
mettant de réaliser des cartes précises de l’Univers à grande échelle. Ces relevés
montrent que les superamas s’enchaînent bord à bord, formant des filaments
longs de centaines de millions d’années-lumière qui entourent de vastes régions
apparemment dépourvues
de matière, nommées
vides. Cette découverte
inattendue allait à l’en-
contre des hypothèses
selon lesquelles le cosmos
serait, en principe, le
même dans toutes les
directions. Bien que
l’uniformité semble rede-
venir la règle aux échelles
encore plus grandes
de milliards d’années-
lumière, la plus grande
structure que nous perce-
vons ne peut pas résulter
d’interactions gravitation-
nelles sur la durée de vie
du cosmos. Ceci n’est pas Tranche du relevé de décalages vers le rouge de galaxies, produit
par le balayage du ciel mené par le télescope anglo-australien
sans poser de restrictions de Siding Spring, en Australie, au moyen du spectrographe
importantes sur la façon multi-objets dont le champ est de deux degrés (d’où son nom :
2dF, acronyme pour Two-degree Field, champ de deux degrés),
dont l’Univers s’est formé qui révèle la distribution de dizaines de milliers de galaxies dans
(voir chapitre 41). un réseau cosmique de filaments et de vides.

L’idée clé
Des structures sont trouvées à
toutes les échelles du cosmos
160 50 clés pour comprendre l’Univers

40 L ’expansion
cosmique
La découverte surprenante que l’Univers dans son ensemble est en
expansion a révolutionné l’astronomie au milieu du xxe siècle, bien que les
astronomes aient discuté de sa signification pendant plusieurs décennies.
Étonnamment, ces derniers n’ont établi que récemment le véritable taux
de cette expansion, avec des implications importantes pour l’origine et le
destin de l’Univers.

La découverte de l’expansion de l’Univers est habituellement attribuée à Edwin


Hubble, qui effectua vers 1929 les mesures pionnières de distance de galaxies
ainsi que les calculs clés, mais la réalité est plus complexe. Dès 1912, Vesto
Slipher constata, à l’observatoire Lowell, à Flagstaff, en Arizona, en examinant
les spectres de nébuleuses spirales, que la plupart présentaient un grand déca-
lage vers le rouge. En supposant que ce décalage était le résultat d’un effet
Doppler suscité par des nébuleuses s’éloignant de nous, Slipher calcula qu’elles
devaient reculer à des vitesses de centaines de kilomètres par seconde. C’était
un indice important pour montrer que les nébuleuses n’étaient pas juste des
petits nuages d’étoiles gravitant autour de la Voie lactée, mais la preuve décisive
fut apportée par les mesures de Hubble portant sur des étoiles variables de type
céphéides (voir page 146).

Théorie et pratique En 1915, Albert Einstein publia sa théorie de la


relativité générale (voir page 190). Cette dernière passa les premiers tests haut
la main, mais elle créa un problème majeur pour les théories de l’Univers :
dans son interprétation la plus simple, la théorie d’Einstein prétendait en effet
que la présence de grandes quantités de matière dans l’Univers le conduirait
inévitablement à s’effondrer sur lui-même. Le consensus scientifique de
l’époque consistait à dire que l’Univers existait de tout temps et qu’il était
statique ; Einstein crut alors résoudre le problème en ajoutant à ses équations

chronologie
1912 1922 1927 1929
Slipher découvre Friedmann trouve une Lemaître prédit que Hubble établit la
le grand décalage solution de la relativité des galaxies plus relation entre distance
vers le rouge générale dans laquelle éloignées devraient d’une galaxie et
de nombreuses l’Univers est en afficher de plus décalage vers le rouge
nébuleuses spirales. expansion. grands décalages de sa lumière.
vers le rouge.
L’expansion cosmique 161

un terme ad hoc : la « constante cosmologique ». Cette faible entité de nature


anti-gravitation n’agissait qu’aux plus grandes échelles pour contrecarrer la
contraction de l’espace. Einstein déclara plus tard qu’introduire la constante
cosmologique avait été sa plus grande erreur, bien que la récente découverte de
l’énergie sombre ait quelque peu légitimé cette idée (voir page 186).

En 1922, le physicien russe Alexander Friedmann proposa une solution alternative


aux équations d’Einstein en montrant qu’elles étaient aussi applicables si l­’espace-
temps était en expansion, mais son travail resta largement ignoré en raison du
manque de preuves pour l’étayer. Quelques années plus tard, en 1927, le Belge
Georges Lemaître, prêtre et astronome, parvint aux mêmes conclusions, tout en
prédisant une conséquence observationnelle cruciale : à très grandes échelles,
toutes les galaxies devraient s’éloigner les unes des autres, et plus une galaxie est

«
distante, plus sa vitesse de récession par rapport à la Voie lactée est grande.

Ni le travail de Friedmann, ni celui de Lemaître, ne


semble avoir influencé directement Hubble quand Les théories
il commença à la fin des années 1920 à comparer s’effondrent, mais de
ses mesures de distances de galaxies avec les déca- bonnes observations

»
lages vers le rouge consignés par Slipher et son col- ne disparaissent
lègue Milton Humason. Hubble découvrit toutefois
rapidement la relation exacte prédite par Lemaître
jamais.
et il en publia les indices en 1929, y compris Harlow Shapley
un graphique montrant le lien entre distance et
vitesse de la galaxie. Cette relation est maintenant connue sous le nom de loi
de Hubble, alors que le gradient du graphique – le taux avec lequel la vitesse
de récession des galaxies augmente avec la distance – s’appelle la constante de
Hubble (notée H0).

La signification de l’expansion La découverte de Hubble eut


d’énormes conséquences pour l’histoire de l’Univers, même si Hubble lui-
même mit du temps à les accepter (voir encadré page 162). Si tous les objets
de l’Univers s’éloignent de la Voie lactée, les deux possibilités sont que notre
région de l’espace est tellement impopulaire que les galaxies s’enfuient
réellement, ou que l’Univers dans son ensemble est en expansion et que toutes
les galaxies qu’il emporte sont entraînées loin les unes des autres comme
l’avait prédit Lemaître. Aucun astronome ne prit la première option au sérieux,
car elle impliquerait que nous ayons une position privilégiée dans l’Univers
(à l’encontre de toutes les dures leçons tirées depuis Copernic). Mais l’idée

1931 1958 2000


Lemaître soutient que l’expansion Sandage fournit la Publication des
cosmique indique que l’Univers a première estimation résultats du projet
commencé dans un atome primordial moderne de la clé du télescope
porté à haute température. constante de Hubble. spatial Hubble.
162 50 clés pour comprendre l’Univers

découlant d’un Univers en expansion

L’erreur étant qu’il avait débuté dans un


passé mesurable était tout aussi

de Hubble intolérable pour des astronomes qui


croyaient globalement à l’éternité du
cosmos. Ce fut Lemaître qui accepta
La découverte d’Edwin Hubble du lien entre pleinement cette idée en 1931,
décalage vers le rouge et distance des galaxies soutenant que l’expansion cosmique
était primordiale, mais Hubble lui-même rejeta impliquait un Univers plus chaud et
finalement l’idée d’un Univers en expansion. plus dense dans le passé, et trouvant
Au moment de ses mesures, les astronomes ne en fin de compte son origine dans
faisaient pas complètement la distinction entre un « atome primordial ». C’était
« céphéides classiques » (étoiles de Population I l’ébauche de la théorie moderne du
contenant des quantités importantes d’éléments Big Bang (voir page 164).
lourds) et des spécimens d’un éclat légèrement
plus faible de Population II (avec leur relation En 1964, avec la découverte du
période-luminosité distincte). Hubble fut ainsi rayonnement micro-onde de fond
conduit à sous-estimer de manière significative cosmologique (voir page 178), la
les distances intergalactiques (il plaça ainsi la plupart des cosmologistes esti-
galaxie d’Andromède à 900 000 années-lumière, mèrent que la théorie du Big Bang
alors que les mesures modernes indiquent une était prouvée. La mesure exacte de
distance de 2,5 millions d’années-lumière). la constante de Hubble prit alors
Voilà pourquoi Hubble surestima également le une importance nouvelle dans la
taux avec lequel le décalage vers le rouge aug- mesure où il suffisait d’inverser le
mentait avec la distance ; il calcula ainsi que si taux d’expansion actuel pour estimer
les décalages vers le rouge étaient dus à l’effet l’âge de l’Univers. Au fur et à mesure
Doppler, la vitesse de récession des galaxies que s’amélioraient les techniques
devrait augmenter avec la distance d’un taux de d’observation, il en allait de même
500 km·s–1·Mpc–1. Rembobiner le film montre- de l’aptitude à détecter les étoiles
rait toutes les galaxies coïncider au même point variables de type céphéide dans des
(l’œuf primordial de Lemaître), il y a 2 milliards galaxies de plus en plus éloignées (et
d’années. Cet âge étant inférieur à la moitié à distinguer céphéides et étoiles de
de celui de la Terre, Hubble rejeta l’explication type RR Lyræ pouvant prêter à confu-
Doppler en faveur d’autres hypothèses, comme sion). En 1958, Allan Sandage publia
le concept d’une lumière « fatiguée » qui, sur de une estimation très améliorée de H0,
grandes distances, se décalerait de plus en plus indiquant que le taux de récession
vers le rouge en raison d’autres effets. des galaxies lointaines augmentait
de 75 kilomètres par seconde pour
chaque mégaparsec de distance (un
mégaparsec, abréviation Mpc, est
unité de distance valant 3,26 millions d’années-lumière). Cette valeur de H0,
environ un sixième de celle qu’Hubble avait estimé (voir encadré ci-contre),
impliquait un âge de l’Univers bien plus plausible de 13 milliards d’années.
L’expansion cosmique 163

Lorsqu’on considère l’expansion de l’Univers, une analogie


classique est d’imaginer l’espace comme un ballon qui
gonfle. À mesure que le ballon s’étend, les points à
sa surface (les galaxies) s’éloignent les uns des autres.
Plus la distance initiale entre ces points est grande, plus ils
se déplacent rapidement. L’étirement des longueurs d’ondes
de la lumière dans un espace en expansion peut également
être imaginé de la même manière.

Au cours des décennies suivantes, les estimations de H0 fluctuèrent énormément


autour de la valeur trouvée par Sandage, soit environ de 50 à 100 km·s–‌1·Mpc–1,
impliquant un âge de l’Univers compris entre 10 et 20 milliards d’années. En
finir avec une telle indétermination fut le « projet clé » du télescope spatial
Hubble (ou HST, pour Hubble Space Telescope) et orienta la conception de l’ap-
pareil de ses premières esquisses dans les années 1970, jusqu’à son lancement
en 1990. Entre des observations de cibles plus prestigieuses, le HST consacra la
plus grande partie de sa première décennie de collecte de données à mesurer les
courbes de lumière de céphéides dans des galaxies distantes de plus de 100 mil-
lions d’années-lumière, ce qui conduisit en 2000 à la publication finale d’une
valeur de H0 de 72 km·s–1·Mpc–1. Des mesures ultérieures ont fourni des estima-
tions oscillant autour de la même valeur, aboutissant à un âge largement accepté
pour l’Univers de 13,8 milliards d’années.

L’idée clé
L’Univers s’accroît
à chaque moment
qui passe
164 50 clés pour comprendre l’Univers

41 Le Big Bang
L’idée que l’Univers s’est formé dans une énorme explosion il y a environ
13,8 milliards d’années est le pilier de la cosmologie moderne et est
essentielle pour expliquer de nombreuses observations. Pourtant, quand il
fut avancé pour la première fois, le concept d’un univers fini dans le temps
était une abomination pour beaucoup dans la communauté scientifique.
Bien que le physicien russe Alexander Friedmann ait indiqué dès 1922 qu’un
Univers en expansion était en adéquation avec la théorie de la relativité générale
d’Einstein (voir page 161), c’est le prêtre belge Georges Lemaître qui est habituel-
lement considéré comme le pionnier du concept de Big Bang, avec sa théorie de
l’atome primitif publiée en 1931. À première vue, il pourrait paraître étrange pour
un prêtre catholique d’apporter une contribution aussi fondamentale à la physique
moderne, mais Lemaître avait étudié la cosmologie à Cambridge sous la férule
d’Arthur Eddington et à Harvard avec Harlow Shapley. Il avait également invoqué
l’expansion de l’Univers bien avant qu’elle soit confirmée par Edwin Hubble.

Théories rivales Pendant près de 30 ans, la théorie de Lemaître ne fut


considérée que comme l’une des nombreuses en concurrence pour expliquer
l’expansion de l’Univers. Incapable d’accepter le concept d’un instant de création,
Friedmann plaida pour un univers cyclique avec une alternance de phases
d’expansion et de contraction. Dans les années 1940, Hermann Bondi, Thomas
Gold et Fred Hoyle publièrent des arguments en faveur d’un « état stationnaire »
pour l’Univers, un cosmos en perpétuelle expansion où de la matière serait créée
en permanence pour maintenir une densité constante. En 1948, les physiciens
Ralph Alpher et Robert Herman avancèrent que la boule de feu primordiale de
Lemaître laisserait une rémanence détectable, sous la forme du rayonnement d’un
corps noir porté à une température de quelques degrés au-dessus du zéro absolu.
Aucune des théories rivales n’était en mesure de créer de manière plausible un
tel rayonnement micro-onde de fond cosmologique, et sa découverte quelque
peu accidentelle par Arno Penzias et Robert Wilson, en 1964, apporta la preuve
cruciale d’un instant de création de type « Big Bang » (voir page 178).
Le défi pour toute théorie de la création est d’aboutir à un Univers doté de condi-
tions semblables à celles que nous connaissons aujourd’hui, et à cet égard, la

chronologie
1931 1948 1948
Lemaître soutient à partir de Alpher et Gamow montrent Alpher et Herman prédisent
l’expansion cosmique que comment les conditions dans l’existence d’un rayonnement
l’Univers est originaire d’un l’Univers primordial pourraient baignant tout l’espace comme
atome primitif chaud et dense. produire des éléments. conséquence de la théorie
de l’atome primordial.
Le Big Bang 165

théorie du Big Bang a prouvé sa valeur bien avant


la découverte de Penzias et Wilson. Les éléments de
sont
« Vos calculs
corrects, mais

»
preuve tiennent au fait que la masse et l’énergie sont
équivalentes et peuvent être échangées dans des votre physique est
situations extrêmes, un fait contenu dans la célèbre abominable.
équation d’Einstein E = mc2 (voir page 189). Si l’on
remontait aux temps primordiaux de l’expansion de Albert Einstein
l’Univers, la hausse des températures verrait alors la à Georges Lemaître
matière se désintégrer en ses particules constitutives,
et finalement disparaître dans un déchaînement d’énergie pure. En 1948, Ralph
Alpher et George Gamow publièrent un article marquant qui exposait comment
la dégradation de cette boule de feu intense produirait des éléments dans des
proportions identiques à celles attendues dans l’univers primitif (voir page 169).

La question des structures Alors que des travaux théoriques


ultérieurs ainsi que les résultats des premiers accélérateurs de particules (voir
encadré page 166) accréditaient l’idée que le Big Bang pourrait forger les
éléments de base du cosmos, une série de découvertes soulevèrent, dans les
années 1970, de nouvelles questions concernant la structure de l’Univers. Bien
qu’extrêmement complexes, elles se réduisaient à une énigme fondamentale :
comment le Big Bang pourrait générer un cosmos suffisamment homogène pour
ne pas présenter de grandes différences d’un point à un autre (une situation
que reflète l’uniformité apparente du rayonnement micro-onde de fond
cosmologique), mais quand même suffisamment diversifié pour faire apparaître
les grandes structures que sont superamas de galaxies, filaments et grands vides
(voir page 159). La théorie de base du Big Bang envisageait une boule de feu
primordiale dans laquelle la matière était répartie de manière homogène. Au
cours des 380 000 ans suivant le Big Bang, la haute température du milieu
empêchait noyaux atomiques et électrons de s’unir pour former des atomes.
De plus, la haute densité de particules déviait et diffusait en permanence les
photons de lumière, les empêchant de se déplacer en ligne droite (il en va plus
ou moins de même dans un épais brouillard). Dans un tel environnement,
le rayonnement exerce sur les particules une pression qui, en s’opposant à
la gravité, les empêche de se rassembler pour former les germes de structures
propres à donner naissance aux immenses filaments actuels. Finalement, le
milieu se refroidit assez pour que protons et électrons s’associent, que la densité
de particules chute et que le brouillard se dissipe soudainement. La lumière
qui filtre à la suite de cet événement – connu comme le « découplage » du

1949 1964 1981 1992


Hoyle invente Penzias et Wilson Alan Guth propose Le satellite COBE produit la carte
l’expression de découvrent le l’inflation comme un du rayonnement micro-onde
« Big Bang » pour rayonnement moyen de produire de fond cosmologique, confirmant
tourner la théorie micro-onde de fond la structure observée la présence de structures dès
en dérision. cosmologique. de l’Univers. les premiers temps de l’Univers.
166 50 clés pour comprendre l’Univers

De l’énergie à la matière
Une grande partie de notre compréhension des triplets pour former les protons et les
du Big Bang, en particulier la manière dont neutrons nécessaires à la nucléosynthèse (voir
de l’énergie pure produit rapidement de la page 168). Des particules plus légères de la
matière, provient d’expériences utilisant des famille des leptons (principalement des élec-
accélérateurs de particules. Ces énormes trons), ont continué à se former jusqu’à ce
machines utilisent de puissants électroai- que l’Univers soit âgé d’environ 10 secondes.
mants pour accélérer des particules subato- Curieusement, les cosmologistes ne trouvent
miques électriquement chargées jusqu’à des pas dans la théorie du Big Bang des argu-
vitesses très proches de celle de la lumière, ments propres à expliquer pourquoi l’Univers
avant de les précipiter les unes contre les est dominé par des particules de matière de
autres et d’observer les résultats. Des colli- la famille des « baryons » plutôt que par des
sions telles que celles provoquées au LHC particules d’antimatière (particules miroir
(Large Hadron Collider, grand collisionneur avec des charges électriques opposées).
d’hadrons), à Genève, en Suisse, transfor- La plupart des cosmologistes estiment que
ment de petites quantités de matière en une l’explosion initiale a créé en quantités égales
énergie pure qui se matérialise ensuite en une particules de matière et d’antimatière, la
foule de particules de masses et de propriétés grande majorité d’entre elles s’annihilant
différentes. C’est de cette manière que nous mutuellement dans une débauche d’énergie.
savons que des particules relativement mas- Les spécialistes soupçonnent qu’un processus
sives, les quarks, n’ont pu se former que dans encore inconnu de « baryogénèse » a permis
les températures ultra-hautes du premier mil- qu’il y ait en définitive un tout petit excès
lionième de seconde après le Big Bang, après de matière, expliquant l’absence quasi-totale
quoi ils se retrouvent rapidement liés dans d’antiparticules dans l’Univers actuel.

rayonnement et de la matière – constitue aujourd’hui le rayonnement micro-


onde de fond cosmologique. À cette époque, la matière serait trop dispersée
pour former de grandes structures de type superamas et elle s’éparpillerait peut-
être encore trop pour créer des galaxies.

De toute évidence, un autre processus était à l’œuvre. En 1981, Alan Guth,


de l’Institut de technologie du Massachusetts, envisagea une solution : que
se passerait-il si, dans les premiers instants du Big Bang, quelque événement
cataclysmique accroissait dans d’énormes proportions les dimensions d’un
petit fragment, en principe homogène, de l’Univers primordial ? La bulle résul-
tante d’espace-temps, englobant la totalité de notre Univers observable et bien
­au-delà, aurait une température uniforme, mais d’infimes fluctuations, décou-
lant d’incertitudes inhérentes à la physique quantique, se retrouveraient aussi à
grande échelle, comme des zones froides assez éparses aux côtés de régions plus
Le Big Bang 167

Fin de la nucléosynthèse
Fin de formation de la

Les premières étoiles


nucléosynthèse

Découplage
Début de la
Inflation

matière

brillent
0 10–32 s 10 s 3 minutes 20 minutes 380 000 ans 560 millions d’années

chaudes et plus denses. Au fil du temps, des variations mineures pourraient Chronologie
ainsi constituer les noyaux autour desquels la matière s’est accumulée. simplifiée
montrant
les principales
La théorie de Guth, rapidement nommée inflation, fut adoptée avec enthou- étapes de
l’histoire
siasme par bien des cosmologistes, y compris Andrei Linde (voir page 197). La de la matière,
vraisemblance de leurs modèles fut aidée par la reconnaissance croissante du du Big Bang
rôle joué par la soi-disant matière noire. Cette dernière, étant insensible à la à la formation
des premières
pression de radiation qui empêche la matière normale de se regrouper (voir étoiles
chapitre 45), serait donc apte à débuter la formation de structure précoce bien et galaxies.
avant l’étape de découplage. Cette idée fut confirmée avec panache, en 1992,
par les résultats du satellite COBE (voir page 179), puis corroborée par d’autres
instruments. Alors que les cosmologistes continuent à se heurter à certaines
des implications plus larges de l’inflation, cette dernière est un élément clé du
Big Bang tel que nous le concevons aujourd’hui.

L’idée clé
L’Univers a vu le jour
dans une explosion
d’énergie dense et chaude
168 50 clés pour comprendre l’Univers

42 N
 ucléosynthèse
et évolution
cosmique
Comment le Big Bang a-t‑il fabriqué les éléments de base du cosmos, et
comment ces derniers ont-ils ensuite changé au fil du temps pour créer
le mélange de matière que l’on observe aujourd’hui dans l’Univers ? Les
réponses se trouvent dans une multitude de processus différents réunis sous
le nom de nucléosynthèse.

Dans l’Univers actuel, toute matière est faite d’atomes, et chaque atome se
compose d’un noyau atomique (un assemblage de protons et de neutrons rela-
tivement massifs) entourés d’un nuage d’électrons beaucoup plus légers. Les
atomes des différents éléments se distinguent les uns des autres par le nombre
de protons contenu dans leur noyau, tandis que les neutrons influencent
leur stabilité. C’est pourquoi la fabrication des éléments consiste principa-
lement à créer différents noyaux dans un processus connu sous le nom de
­nucléosynthèse.

L’établissement des différentes chaînes de nucléosynthèse fut un thème récur-


rent de l’astrophysique du xxe siècle. Par exemple, dans les étoiles de faible
masse de la séquence principale, le cycle proton-proton et le cycle CNO (voir
pages 74 et 75) ont tous deux permis de transformer les noyaux d’hydrogène (le
noyau atomique le plus simple, composé d’un seul proton) en hélium. La réac-
tion triple-alpha (voir page 110) à l’œuvre dans les géantes rouges, permet en
parallèle aux noyaux d’hélium de construire des noyaux de carbone et d’oxy-
gène. La fusion nucléaire dans les étoiles supergéantes va encore beaucoup
plus loin, créant des éléments de plus en plus complexes, jusqu’au fer et au

chronologie
1904 1930 1948 1952
Hartmann identifie Robert Trumpler L’article signé par Fred Hoyle et Alfred
l’existence d’un gaz démontre les effets Alpher, Bethe et Gamow Fowler découvrent la
interstellaire froid d’absorption de la décrit la manière dont les réaction de fusion triple
grâce à son effet sur poussière interstellaire éléments peuvent être alpha de l’hélium pour la
les spectres stellaires. de la Voie lactée. formés dans le Big Bang. synthèse d’éléments tels
que le carbone.
Nucléosynthèse et évolution cosmique 169

nickel (voir page 118). Enfin, les explosions de supernova constituent le ­dernier
barreau de l’échelle vers les éléments naturels les plus lourds (voir page 122).

Construire les premiers atomes Mais comment l’hydrogène lui-


même, le premier barreau de cette échelle, a-t‑il été créé ? Les fondamentaux furent
établis à la fin des années 1940 par George Gamow et Ralph Alpher dans le cadre
d’une théorie généralement connue sous le nom de nucléosynthèse du Big Bang.
Les deux physiciens se basèrent sur des travaux antérieurs de Gamow pour
envisager une boule de feu primordiale en pleine croissance dans l’Univers primitif,
composée entièrement de neutrons commençant à se désintégrer spontanément
en protons et électrons à mesure que tombe la pression environnante. La formation
de noyaux plus complexes que l’hydrogène devient alors une course contre la
montre : combien de neutrons
peuvent-ils s’unir à des protons
pour former des noyaux stables
plus lourds avant que les neutrons
ne se désintègrent ?
Alpher, Bethe
Quand Alpher et Gamow exa- et Gamow
minèrent le problème des possi-
La courte publication de 1948, la première à
bilités de capturer des neutrons
décrire la nucléosynthèse du Big Bang, n’avait
qu’offrent diverses particules, ils
pas deux, mais trois auteurs – Ralph Alpher,
constatèrent que les éléments
Hans Bethe et George Gamow. L’adjonction in
les plus abondants de l’Univers
absentia de son collègue Bethe tient au carac-
primordial seraient de loin l’hy-
tère facétieux de Gamow qui voulait jouer sur
drogène, qui représente 75 %
l’analogie entre les noms des trois auteurs et les
de toute la masse de la matière
trois premières lettres de l’alphabet grec (alpha,
atomique cosmique, et l’hélium,
beta et gamma). Alpher, qui préparait à l’époque
comptant pour les 25 % restants,
sa thèse de doctorat, admit qu’il était loin d’être
avec des pincées de lithium et de
impressionné par la petite blague de Gamow,
béryllium également formées de
craignant surtout que sa propre contribution
cette manière. Par la suite, ces
soit éclipsée en la partageant non pas avec un,
prédictions s’avérèrent corres-
mais deux astrophysiciens très respectés. Bethe
pondre aux nouvelles mesures
apporta quand même son aide en révisant l’ar-
de l’abondance cosmique des
ticle avant publication puis en participant ensuite
éléments. La seule erreur impor-
au développement de la théorie.
tante des deux physiciens était
leur hypothèse selon laquelle

1957 1961 1977


L’article B2FH démontre Guido Münch et Harold Zirin Christopher McKee
comment des éléments trouvent des preuves de l’existence et Jeremiah Ostriker
lourds sont formés dans les de nuages de gaz dans le halo proposent un modèle
étoiles les plus massives et galactique et dans une couronne à trois phases du milieu
les supernovæ. galactique chaude. interstellaire.
170 50 clés pour comprendre l’Univers

tous les éléments devaient être créés par capture de neutrons. C’est en effet
impossible en raison du « goulot d’étranglement » dû au fait que des noyaux
avec certaines configurations se désintègrent aussi rapidement qu’ils se for-
ment. De tels goulots ne peuvent pas être franchis en ajoutant des particules
une par une ; dans ces conditions, le béryllium est l’élément le plus massif dont
le noyau peut être créé de zéro en suivant cette voie. Fabriquer des éléments
plus lourds nécessite l’implication d’un plus grand nombre de particules, ce que
seule la réaction triple-alpha est en mesure d’accomplir.

Matière stellaire Une meilleure compréhension de la manière dont les


éléments se sont formés et de la manière dont leurs abondances changent au
fil du temps donna lieu à une vision beaucoup plus cyclique de l’évolution
stellaire. À la même époque, cela permit d’obtenir une image plus nette de la
relation entre les étoiles et le milieu interstellaire (MIS), à savoir le matériau qui
entoure les étoiles et celui à partir duquel elles se sont formées.

« Nous sommes
des fragments de
matiére stellaire qui
La preuve qu’il existe de grands nuages de matière
entre les étoiles fut apportée dans la première
moitié du xxe siècle. Edward Barnard vit son mérite
reconnu pour sa photographie de nébuleuses obs-
cures – des nuages opaques de gaz et de poussières
se sont refroidis par qui ne sont visibles que lorsqu’ils se détachent
accident, fragments

»
sur un fond plus brillant –, mais l’astronome alle-
d’une étoile qui a mand Johannes Hartmann fut le premier à prouver
mal tourné. l’existence de nuages de gaz froids et invisibles en
identifiant les faibles empreintes de leurs raies d’ab-
Arthur Eddington sorption laissées sur les spectres d’étoiles à l’arrière-
plan (voir page 60).

Depuis les années 1970, la plupart des astrophysiciens se sont ralliés à un modèle
à trois phases du MIS, les différentes phases se distinguant par leur température
et leur densité. La phase froide consiste en nuages relativement denses d’atomes
d’hydrogène neutre, à une température de quelques dizaines de degrés au-dessus
du zéro absolu. La phase chaude contient de l’hydrogène neutre et ionisé bien
plus chaud, à des températures de milliers de degrés. Quant à la phase très
chaude, elle comprend de l’hydrogène ionisé très dispersé et des éléments plus
lourds avec des températures d’un million de degrés ou plus.

Dans le modèle d’évolution cyclique dit de la « fontaine galactique », le maté-


riau du milieu interstellaire se trouve dans la phase froide et dense avant qu’une
influence externe (peut-être une rencontre avec une étoile errante, ou le pas-
sage d’un bras galactique induit par une onde de densité, ou enfin le p ­ assage
d’une onde de choc induite par une supernova voisine) ne l’incite à s’affaisser
Nucléosynthèse et évolution cosmique 171

sous sa propre gravité,


Étoiles Supernovæ
déclenchant un pro- de type II Trous
à neutrons noirs
cessus de formation stel-
laire (voir chapitre 21).
Une fois que les pre-
mières étoiles émergent Étoiles
massives
du milieu, leur rayonne- Vents
ment chauffe et ionise le stellaires
gaz environnant, créant
Gaz
une brillante nébuleuse à Étoiles de Nuages Gaz Gaz
très
faible masse moléculaires chauds ionisés
formation stellaire. Alors chauds
que les plus massives
des étoiles nouvellement
formées entament les Étoiles Nébuleuses
ultimes phases de leur intermédiaires planétaires
Supernovæ
évolution, de forts vents de type I
stellaires et des ondes de Naines
blanches
choc de supernova créent
d’énormes bulles dans le
milieu interstellaire, avec de la matière tellement chauffée qu’elle s’échappe Ce schéma
totalement du disque galactique pour former la composante du halo galactique montre les
éléments clés
connue sous le nom de « couronne gazeuse ». Au cours des millions d’années de « l’écologie
qui suivent, ce milieu interstellaire très chaud se refroidit progressivement et galactique qui voit la
»

retombe vers le disque, l’enrichissant d’autres éléments lourds. matière


s’élaborer
dans les étoiles
Ce n’est qu’une idée générale du processus à l’œuvre dans une galaxie donnée, et retourner
mais comme les mêmes événements se répètent à travers tout le cosmos, ils vers le milieu
l’enrichiront peu à peu de quantités croissantes d’éléments plus lourds. Il interstellaire.

semble toutefois peu probable que les étoiles manquent de carburant dans
un futur proche : le gaz dans le milieu interstellaire de notre galaxie actuelle
est encore composé en masse de 70 % d’hydrogène et de 28 % d’hélium, avec
seulement 1,5 % d’éléments plus lourds, malgré plus de 13 milliards d’années
de nucléosynthèse stellaire.

L’idée clé
Notre Univers est une usine
où se fabriquent des éléments
172 50 clés pour comprendre l’Univers

43 É toiles-monstre
et galaxies
primordiales
Les premiers objets de l’Univers ne sont pas encore à la portée des télescopes,
même les plus perfectionnés. Néanmoins, la plupart des astronomes
estiment que des indices indiquent l’existence d’une génération initiale
d’étoiles-monstre à courte durée de vie dont les fins violentes ont créé les
conditions pour former de futures galaxies.

Une des questions cruciales en cosmologie est de savoir si la structure à grande


échelle de l’Univers s’est formée « du bas vers le haut » ou « du haut vers le
bas ». En d’autres termes, des petits objets se sont-ils d’abord formés plus ou
moins uniformément avant de se regrouper sous l’effet de la gravité pour créer
de plus grandes structures, ou des disparités initiales de la répartition à grande
échelle de la matière introduites tout de suite après le Big Bang (voir page 167),
ont-elles régi la façon dont la matière s’est rassemblée ?

De haut en bas ou de bas en haut ? Les données actuelles laissent


penser qu’un panachage des deux processus est à l’œuvre. Les différences de la
répartition à grande échelle de la matière sont responsables de l’agencement
général des superamas de galaxies en gigantesques filaments autour d’immenses
espaces vides apparemment dépourvus de matière. En parallèle, les structures à
plus petites échelles, des galaxies jusqu’aux amas de galaxies, sont rassemblées
par le pouvoir de la gravité.

Se pose alors la question de savoir à partir de quelles premières structures de plus


petite taille les galaxies ont-t‑elles germé ? La présence de trous noirs supermas-
sifs au cœur de la plupart des galaxies et la prédominance de quasars brillants
dans l’Univers primordial suggèrent un enchaînement ­d’événements durant

chronologie
1974 1978 2002
Cameron et Truran Rees propose que des étoiles Bromm, Coppi et Larson montrent
proposent l’existence de Population III aient produit comment les premières étoiles
d’une population stellaire des objets compacts massifs du pouvaient s’affranchir des limites
distincte, la Population III. halo, une solution possible au admises aujourd’hui en matière
problème de la masse cachée. de masse stellaire.
Étoiles-monstre et galaxies primordiales 173

lequel des trous noirs géants


ont d’abord attiré de la matière,
s’en sont gorgés pour former des Le problème
quasars, et ont déclenché à des
distances plus sûres des vagues de la réionisation
de formation stellaire dans la
matière qu’ils avaient accrétée Les rayonnements intenses des étoiles de
autour d’eux. Mais d’où venaient Population III offrent une solution potentielle
ces trous noirs en premier lieu ? à l’un des plus grands mystères de l’Univers à
grande échelle : celui dit de la réionisation.
Les astrophysiciens ont examiné Autrement dit, le problème que posent les vastes
un tel scénario depuis les années nuages d’hydrogène trouvés dans l’espace
1970, principalement à l’aide intergalactique, faits d’atomes chargés électri-
de modèles numériques, pour quement, ou ionisés, donc dépouillés de leurs
montrer comment la matière électrons. Pourtant, à en croire la théorie du Big
avait pu s’effondrer et se ras- Bang, la matière issue de cet événement devait
sembler sous l’effet de la gravité. se trouver sous forme d’atomes non chargés
Alors que certains soutinrent électriquement – la dernière phase du Big Bang
que des trous noirs supermassifs est en effet celle dite de la « recombinaison »
pouvaient simplement se former des noyaux atomiques avec des électrons (voir
à la suite de l’effondrement de page 165). Il semble donc que certains processus
nuages de gaz dans l’Univers aient réionisé le milieu intergalactique avant la
primordial, d’autres suggérèrent formation des premières galaxies ; le rayonne-
qu’ils étaient plus susceptibles ment ultraviolet à haute-énergie des monstres
de s’être formés à partir de la stellaires primordiaux est considéré comme l’ac-
coalescence de plus petits trous teur le plus probable d’une telle réionisation.
noirs laissés par la toute pre-
mière génération d’étoiles.

Population III Comparer des étoiles d’âges différents de divers sites de


notre galaxie avec celles de tout l’Univers met en évidence le fait que la proportion
d’éléments plus lourds, que les astronomes appellent « métaux », a augmenté
au sein de la matière première de la formation stellaire au cours des milliards
d’années de l’histoire cosmique. Dès 1944, Walter Baade fit la différence entre
étoiles de Population I, jeunes et riches en métaux, et celles de Population II,
plus anciennes et pauvres en métaux, mais ce ne fut qu’en 1970 qu’Alastair
Cameron et James Truran envisagèrent la possibilité d’une population stellaire
distincte, celle des étoiles de Population III faites entièrement d’éléments légers
issus du Big Bang. Le cas des étoiles de Population III devint plus pressant dans

2003 2005
Alexander Heger et Le télescope spatial Spitzer
collaborateurs modélisent détecte une lueur infrarouge
les processus qui mettent fin supposée provenir d’étoiles
à la vie des étoiles les plus de Population III.
massives.
174 50 clés pour comprendre l’Univers

les années 1990, après que les astronomes constatèrent que même les quasars les
plus anciens et les plus distants, ainsi que les galaxies primordiales, étaient déjà

«
enrichis d’éléments lourds synthétisés par quelque source antérieure.

À cette époque, des cosmologistes commencèrent à


Ces étoiles étudier l’évolution de l’Univers primordial à l’aide
formèrent les de modèles numériques. En partant de données sur
premiers éléménts les irrégularités du rayonnement micro-onde de
lourds qui nous ont

»
fond cosmologique (voir page 178), ils recréèrent
finalement permis le comportement de la matière lumineuse et celui
de la matière noire (voir page 182). Ils découvrirent
d’être ici. ainsi que de petites « protogalaxies » ont commencé
David Sobral à entrer en coalescence au cours des 200 millions
d’années suivant le Big Bang. Chacune contenant
jusqu’à un million de masses solaires de gaz apte à former des étoiles dans une
région d’une taille de quelques dizaines d’années-lumière, ces protogalaxies
constitueraient des sites de choix pour former des étoiles de Population III.

Modéliser les étoiles-monstre Pendant ce temps, d’autres astro­


physiciens modélisaient les propriétés des étoiles elles-mêmes. Ils s’aperçurent
rapidement que le gaz au sein des protogalaxies étant beaucoup plus chaud et
se mouvant bien plus rapidement que le milieu interstellaire actuel, il fallait une
gravité plus forte pour qu’il se condense en étoiles. En d’autres termes, les masses
des plus petits germes stellaires seraient des dizaines, voire des centaines de fois
plus élévées que celles des protoétoiles de l’Univers actuel. Dans des conditions
normales, ce serait un présage de catastrophe et de désintégration, car le centre
du nuage en train de s’écrouler, échauffé par l’effondrement, devrait déverser
tellement de rayonnement que les régions extérieures seraient balayées. Mais en
2002, les chercheurs montrèrent que les circonstances singulières de l’Univers
primordial, où matière normale et matière noire coexistaient encore sans éléments
lourds, pourraient permettre de surmonter ce problème, rendant possible la
formation d’étoiles avec des masses de plusieurs centaines de masses solaires.

Une fois formées, ces étoiles-monstre seraient étonnamment stables et équili-


brées. Dans un premier temps, leur manque d’éléments lourds limiterait leur
processus de fusion nucléaire au simple cycle proton-proton (voir page 74),
réduisant ainsi la quantité de rayonnement qu’elles produiraient et les empê-
chant d’exploser. Malgré tout, les conditions régnant dans le noyau signifiaient
que ces étoiles consommeraient leurs réserves centrales d’hydrogène en quelques
millions d’années et commenceraient à synthétiser des éléments de plus en plus
lourds de la même manière que les géantes rouges et les supergéantes actuelles.
Au bout du compte cependant, ces réserves étant épuisées, les étoiles finiraient
en supernovæ spectaculaires, beaucoup plus puissantes que celles que nous
Étoiles-monstre et galaxies primordiales 175

La mort des étoiles-monstre


Les astrophysiciens estiment que la fin solaires proches de la fin de leur vie, ce méca-
de l’évolution des étoiles-monstre de nisme se déroule à un rythme excessivement
Population III est un type singulier de super- accéléré. L’absorption de l’énergie crée une
nova, connu sous le nom d’hypernova à rapide chute de pression dans le noyau stel-
photodésintégration. Le mécanisme de pho- laire, produisant un trou noir qui engloutit
todésintégration, qui se déroule jusqu’à un l’étoile de l’intérieur. Une fraction du maté-
certain point dans les noyaux de toutes les riau stellaire, enrichi des éléments lourds
étoiles susceptibles d’évoluer jusqu’au stade créés pendant la durée de vie de l’étoile,
de supernova, implique la fragmentation peut s’échapper de ses pôles sous la forme
de noyaux atomiques interagissant avec de deux jets éjectés à des vitesses proches de
des rayons gamma de haute énergie. En celle de la lumière, mais la plus grande partie
général, ce mécanisme absorbe de l’énergie de l’étoile est capturée par le trou noir ; il
et contribue un peu au processus global serait ainsi possible de créer rapidement des
de nucléosynthèse dans les supernovæ, trous noirs dont la masse équivaudrait à des
mais pour les étoiles de plus de 250 masses centaines de masses solaires.

c­ onnaissons aujourd’hui (voir encadré ci-dessus). Ces dernières disperseraient


alors leurs éléments lourds dans l’espace environnant, enrichissant le milieu
interstellaire des galaxies toujours plus vastes en train de fusionner autour d’elles.

Il convient de noter que la masse de ces premières étoiles est encore un sujet
de débat. Certains éléments de preuve suggèrent que leurs masses ne seraient
pas très différentes de celles des étoiles les plus massives de l’Univers actuel. La
preuve définitive pourra probablement être fournie par le télescope spatial James
Webb de la NASA, qui espère capturer pour la toute première fois la lumière de
ces étoiles de Population III à la suite de son lancement, autour de 2018.

L’idée clé
Les premières protogalaxies
étaient peuplées
d’étoiles-monstre
176 50 clés pour comprendre l’Univers

44 L es confins
de l’Univers
La lumière a beau être la chose la plus rapide qui soit, sa vitesse reste malgré
tout finie. Cela signifie qu’en regardant loin dans l’immensité de l’espace,
nous remontons le temps. Et parce que l’Univers a une histoire finie, la
vitesse limitée de la lumière crée également une frontière cosmique au-delà
de laquelle notre regard ne pourra jamais porter.
Le fait que la lumière se propage dans l’espace à environ 300 000 kilomètres
par seconde a été établi aux xviiie et xixe siècles. Les résultats d’une panoplie
d’expériences ingénieuses furent appuyés d’un point de vue théorique par les
travaux du physicien écossais James Maxwell, qui montra dans une publica-
tion historique datée de 1864 que la lumière est une onde électromagnétique,
c’est-à-dire une combinaison de perturbations électriques et magnétiques qui
se propagent à travers l’espace à une vitesse fixe.

La vitesse limitée de la lumière transforme notre Univers en une sorte de


machine cosmique à remonter le temps, dans la mesure où la lumière des objets
éloignés met un certain temps à nous rejoindre. La première tentative plausible
pour mesurer la vitesse de la lumière, que mena en 1676 l’astronome danois
Ole Rømer à l’observatoire de Paris, se fondait sur cette idée même. En étudiant
Io, l’un des satellites galiléens de Jupiter (voir page 8), il nota que les éclipses
de cette lune par sa planète parente ne se produisaient pas aux minutages pré-
dits et attribua ces écarts aux variations du temps que prend la lumière pour
rejoindre la Terre en raison des variations de distance entre la Terre et Jupiter.

Dans la plupart des situations, les astronomes prirent simplement cet effet, connu
sous le nom de remontée dans le temps, pour acquis, mais sur des distances très
importantes, il a des effets secondaires utiles. Lorsque nous examinons des objets
situés à des milliards d’années-lumière dans l’espace, nous les voyons aussi des
milliards d’années en arrière dans l’histoire. Regardons suffisamment loin, et la
lumière des galaxies que nous percevrons dans nos télescopes sera encore dans

chronologie
1864 1948 1964
Maxwell établit que Alpher et Herman prédisent Penzias et Wilson détectent
la vitesse de la lumière que les confins de l’Univers des signaux radio du
est fixe dans le vide. observable devraient émettre rayonnement micro-onde
un faible rayonnement. de fond cosmologique.
Les confins de l’Univers 177

son long voyage vers la Terre à


un point bien plus ancien de
son évolution. Cela explique L’Univers
pourquoi les galaxies actives vio-
lentes comme les quasars (voir observable
page 153) tendent à être si loin
dans l’espace : elles représentent La limite ultime de nos observations de l’Univers
une phase d’évolution galac- est déterminée par la distance que la lumière a
tique bien plus antérieure dans pu parcourir pendant le laps de temps, estimé
laquelle les trous noirs supermas- à 13,8 milliards d’années, nous séparant du
sifs se nourrissaient de manière Big Bang (voir page 164). Cette limite, où le
bien plus vorace qu’ils ne le font CMBR est né, est considérée comme se trouvant
aujourd’hui dans des galaxies aux confins de l’Univers « observable ». On pour-
évoluées assez tranquilles. rait certes supposer qu’elle se situe à 13,8 milliards
d’années-lumière dans toutes les directions. La réa-
Sonder le passé Depuis lité est toutefois bien plus complexe. L’expansion
les années 1990, les astronomes de l’espace, au sein duquel un rayonnement s’est
utilisent les capacités uniques propagé, a non seulement étiré et décalé vers le
du télescope spatial Hubble rouge ses longueurs d’onde, mais a aussi accru la
(HST) pour tirer parti de cet distance entre sa source et l’observateur. Ainsi,
effet de remontée dans le alors qu’un faisceau de lumière s’est peut-être pro-
temps en constituant une pagé pendant 13,8 milliards d’années, l’expansion
série de « champs profonds de cosmique fait que l’éloignement de sa source est
Hubble », à savoir des zones maintenant bien supérieur à 13,8 milliards d’an-
données de la voûte céleste, nées-lumière. Les estimations les plus récentes
vides en apparence, que le suggèrent que, par hypothèse, nous verrions
télescope scrute fixement la lumière d’objets désormais situés à quelque
des heures durant et dont il 46,5 milliards d’années-lumière, distance qui serait
collecte les lumières les plus alors la vraie limite de l’Univers observable.
ténues. Diverses régions du ciel
furent étudiées de cette façon,
et partout le même scénario se
reproduit : chaque champ est parsemé d’innombrables galaxies, et ce jusqu’à
la limite de visibilité. Les galaxies elliptiques n’apparaissent qu’au premier plan
de ces images, tandis que des spirales en cours de formation se manifestent aux
niveaux intermédiaires. Les galaxies les plus éloignées sont en grande majorité
irrégulières, illuminées de violents épisodes de formation stellaire.
En fin de compte, les galaxies les plus éloignées endurent un décalage vers le
rouge si considérable qu’elles rayonnent surtout dans l’infrarouge. Le HST met

1992 2005 2009


Le satellite COBE mesure les John Richard Gott III et Lancement de la sonde spatiale
irrégularités du rayonnement collaborateurs estiment que le européenne Planck, destinée à
micro-onde de fond cosmologique, rayon de l’Univers observable cartographier le rayonnement micro-
les premières signatures est d’environ 46,5 milliards onde de fond cosmologique avec
de structure dans l’Univers. d’années-lumière. un luxe de détails sans précédent.
178 50 clés pour comprendre l’Univers

« J’ai observé
des étoiles dont on
peut prouver que la
en œuvre des instruments opérant dans le proche
infrarouge qui lui permettent de suivre les galaxies
un peu au-delà du domaine de la lumière visible,
mais pas très loin du côté des grandes longueurs
lumière a mis plus d’onde. Il y a encore des galaxies d’un si faible éclat
de deux millions qu’elles n’apparaissent même pas sur les poses les

»
plus longues des champs profonds de Hubble. Les
d’années à atteindre objets les plus distants dont les astronomes ont
la Terre. réussi à obtenir l’image sont de rares galaxies dont
William Herschel le rayonnement (infrarouge pour l’essentiel) est
amplifié par un mécanisme dit de lentille gravita-
tionnelle (voir page 190). Pour détecter les objets très distants, les astronomes
profitent aussi de très brèves bouffées de rayons gamma d’une incroyable puis-
sance, atteignant de temps en temps la Terre en provenance d’une quelconque
partie du ciel, et qui sont le signe d’événements cataclysmiques survenant dans
des galaxies si lointaines qu’elles seraient autrement impossibles à repérer avec
les moyens d’observation actuels (voir pages 123 et 131).
Le télescope spatial James Webb de la NASA, le successeur infrarouge du téles-
cope spatial Hubble, devrait pouvoir capturer l’image de beaucoup de ces
galaxies archaïques et autres objets de l’Univers primordial (voir page 175),
mais pour l’instant, les confins de l’Univers disparaissent dans l’obscurité à
13 milliards d’années-lumière de nous, soit un intervalle de temps frustrant
de quelques centaines de millions d’années après le Big Bang lui-même. Par
chance, ce n’est pas encore la fin de l’histoire.

Signaux des confins En 1964, les radioastronomes Arno Penzias et


Robert Wilson, travaillant aux laboratoires téléphoniques Bell dans le New
Jersey sur une nouvelle antenne radio très sensible, se rendirent compte
que leur appareil était aux prises avec un bruit radio, faible mais persistant,
de nature inconnue. Après avoir enquêté sur toutes les sources possibles de
contamination (y compris la possibilité de parasites radioélectriques dus aux
déjections de pigeons nichant dans l’antenne), ils conclurent que le bruit
émanait d’un authentique signal. De plus, ce dernier provenait de tout le ciel
et son profil spectral correspondait à celui d’un corps noir (voir page 58) porté
à une température d’environ 4 kelvins (4 °C au-dessus du zéro absolu). Cette
découverte correspondait presque parfaitement à une prédiction de Ralph
Alpher et Robert Herman qui, dès 1948, avancèrent que le « Big Bang », présenté
par la théorie éponyme comme étant à l’origine de l’Univers, avait laissé filtrer
une lumière rémanente rayonnée dès que la boule de feu opaque de l’Univers
nouveau-né était devenue transparente (voir page 165). Ce rayonnement
baignant tout l’Univers, après des milliards d’années d’expansion cosmique
étirant ses longueurs d’onde et les décalant vers le rouge, se retrouve dans la
bande des micro-ondes, où les astronomes le détectent aujourd’hui comme
Les confins de l’Univers 179

Carte détaillée
du CMBR dressée
avec les données
recueillies par
la sonde spatiale
WMAP (Wilkinson
Microwave
Anisotropy Probe,
sonde Wilkinson
des anisotropies
micro-ondes) de
la NASA au cours
de neuf années
d’observation.
Les parties plus
claires dénotent
les régions d’une
température
plus élevée que
la température
moyenne du CMBR
de 2,73 K, tandis
le fameux rayonnement micro-onde de fond cosmologique (ou CMBR, de que les zones plus
sombres sont
l’anglais Cosmic Microwave Background Radiation). légèrement plus
froides.
Dans les années qui suivirent la découverte initiale du CMBR, les astronomes
améliorèrent leurs observations et constatèrent que ce rayonnement correspon-
dait à celui d’un corps noir porté à une température uniforme de 2,73 kelvins
(soit 2,73 °C au-dessus du zéro absolu, ou – 270,4 °C). Cependant, l’uniformité
apparente du rayonnement devint un problème en soi, car elle ne cadrait pas
avec les propriétés de l’Univers telles que nous les connaissons aujourd’hui (voir
page 165). En 1992, le satellite COBE (Cosmic Background Explorer, explorateur
du fond cosmique) a finalement résolu ce problème en découvrant de petites
variations (une partie sur 100 000 environ) de la température du CMBR. Ce sont
les germes des structures à grande échelle repérées dans le cosmos actuel. Depuis
lors, notamment avec la mission Planck qui s’est achevée en 2013, le CMBR a
été mesuré avec une précision toujours plus importante, devenant un outil pri-
mordial dans la compréhension des conditions régnant juste après le Big Bang.

L’idée clé
Plus notre regard porte loin
dans l’espace, plus il porte
loin dans le passé
180 50 clés pour comprendre l’Univers

45 La matière noire
L’idée que plus de 80 % de la matière de l’Univers n’est pas seulement
sombre, mais qu’elle n’interagit pas avec la lumière, est l’un des aspects
les plus déroutants de la cosmologie moderne. Les preuves en faveur de
l’existence de la matière noire sont accablantes, mais sa nature véritable
demeure désespérément insaisissable.

En 1933, peu de temps après que les astronomes attestent la présence de galaxies
au-delà de la Voie lactée et commencent à admettre que les amas de galaxies
étaient des structures physiques (voir page 156), Fritz Zwicky fut le premier à
vouloir estimer d’une manière rigoureuse la masse des galaxies. Il essaya diverses
méthodes, dont la plus intrigante était inspirée de la thermodynamique, une
technique connue sous le nom de théorème du viriel, un moyen d’estimer la
masse des galaxies d’un amas en étudiant la dispersion de leurs vitesses. Lorsque
Zwicky appliqua cette méthode au célèbre amas de la Chevelure de Bérénice,
il constata que les galaxies de cet amas se comportaient comme si leurs masses
étaient 400 fois plus élevées que celles déduites de la quantité de lumière visible
qu’elles rayonnaient. Zwicky, citoyen suisse germanophone, attribua cette dif-
férence à une soi-disant dunkle Materie (matière noire).

L’idée de Zwicky n’était pas sans rappeler les découvertes de Jan Oort, qui
s’était employé à mesurer la rotation de la Voie lactée (voir page 137). Il avait
constaté que si la vitesse des objets en orbite autour du centre de notre galaxie
diminue avec la distance au centre (tout comme les planètes les plus éloignées
de notre Système solaire tournent plus lentement autour du Soleil), cette vitesse
ne diminue pas autant que prévu, pour peu que la distribution de la matière
dans la Voie lactée corresponde à celle de ses étoiles. Oort avait donc suggéré
qu’il y avait une grande quantité de matière invisible dans le halo de la Voie
lactée, au-delà de la structure visible en bras spiraux.

En dépit de ces premiers résultats, la question de la matière noire fut négligée


durant plusieurs décennies, au profit d’avancées dans d’autres domaines de l’astro-
nomie. Par ailleurs, la découverte d’énormes nuages de gaz interstellaires détectés
dans le domaine des ondes radio – dont beaucoup furent cartographiées par Oort

chronologie
1932 1933 1975
Oort présente les Zwicky utilise le théorème du viriel Rubin publie des preuves
problèmes liés à la rotation pour estimer la masse des galaxies en faveur de l’existence
des étoiles autour de de l’amas de la Chevelure de de la matière noire à partir
la Voie lactée, impliquant Bérénice et découvre de grandes d’une étude détaillée
une masse manquante. quantités de matière noire. de la rotation des galaxies.
La matière noire 181

l­ui-même – semblait bien répondre au problème. De


nombreux astronomes considéraient que les galaxies
devaient contenir bien plus de matière que celle
déduite au vu de la seule lumière visible. À partir des
« Dans une galaxie
spirale, le rapport
entre matière
années 1950, des télescopes transportés par des fusées noire et normale
et des satellites, qui allaient encore plus loin dans les est environ d’un
domaines invisibles du spectre, mirent en évidence
des quantités croissantes de matière non détectée
facteur dix. C’est
jusque-là, depuis les nuages de poussières observés sans doute une
entre les étoiles dans le domaine infrarouge jusqu’au bonne estimation
gaz chaud au sein des amas de galaxies découvert du rapport qui
dans la bande des rayons X (voir page 157). nous est propre
La redécouverte de la matière noire La
question de la matière noire resta donc négligée
jusqu’à ce que l’astrophysicienne Vera Rubin
publie, en 1975, les résultats de sa nouvelle étude
entre ignorance et
connaissance.
Vera Rubin
»
détaillée de la rotation des galaxies. Elle constata qu’une fois gaz et poussières
interstellaires pris en compte, les étoiles ne gravitaient toujours pas comme elles
auraient dû. Ses résultats étaient certes moins ébouriffants que ceux de Zwicky,
mais les galaxies semblaient se comporter comme si leurs masses étaient environ
six fois plus élevées que celle de la matière que l’on pouvait détecter en leur sein.
Comme on pouvait s’y attendre, les allégations de Rubin furent contestées, mais
son travail était méticuleux, et lorsqu’elles furent confirmées de manière indépen-
dante, en 1978, la plupart des astronomes s’attardèrent à comprendre si la matière
noire existait, ce qu’elle pourrait bien être et comment elle pourrait être étudiée.
La plupart des tentatives pour expliquer la matière noire se répartissent en deux caté-
gories : soit il s’agit de grandes quantités de matière ordinaire que nous ne pouvons
tout simplement pas détecter car elles ne rayonnent que très peu (une matière
noire dite baryonique), soit il s’agit de nouvelles formes exotiques de matière (une
matière noire non baryonique). Dans les années 1980, les chercheurs inventèrent
des acronymes accrocheurs pour les deux candidats les plus plausibles : MACHO
pour la matière noire baryonique, et WIMP pour la non-baryonique.
Les MACHOs (pour Massive Compact Halo Objects, objets compacts massifs du
halo) sont de petites accumulations denses de matière usuelle supposées graviter
dans les halos des galaxies. Cette définition pourrait inclure d’hypothétiques
planètes errantes, des trous noirs d’origine stellaire, des étoiles à neutrons inac-
tives et des naines blanches refroidies. La masse cumulée de tous ces objets, que

1998 2003
Des chercheurs japonais Richard Massey et collaborateurs tirent parti
confirment que les neutrinos du phénomène de lentille gravitationnelle pour
ont une masse et qu’ils mesurer la répartition de la matière noire dans
constituent donc une petite l’amas dit du Boulet.
fraction de la matière noire.
182 50 clés pour comprendre l’Univers

les anciens télescopes n’étaient pas en

Matière noire mesure de détecter, pourrait être suf-


fisamment élevée pour expliquer une

et Big Bang grande partie de la masse supposée


manquante. Dans les années 1990,
grâce aux progrès techniques des
Une autre source de données importante valide télescopes et à de nouveaux moyens
l’existence de la matière noire non baryonique : d’observation, les chercheurs effec-
la théorie du Big Bang elle-même. D’une part, tuèrent des relevés intensifs de la
le modèle de création des éléments, à savoir la région du halo de notre galaxie. Ils
nucléosynthèse du Big Bang, s’ajuste précisément parvinrent à détecter certains objets
aux proportions de matière baryonique observées errants, mais ils n’en conclurent pas
dans l’Univers primordial (ne laissant aucune place moins que les MACHOs n’existaient
aux MACHOs). D’autre part, un certain type de pas en assez grand nombre pour
WIMPs est nécessaire pour expliquer la forma- constituer une contribution substan-
tion de structure dans l’Univers lui-même. Les tielle à la matière noire.
variations à petite échelle du rayonnement micro-
onde de fond cosmologique (voir page 179) sug- La quête des WIMPs Les
gèrent en effet que des concentrations de matière MACHOs ne faisant pas l’affaire,
avaient déjà commencé à se former dans l’Univers astronomes et cosmologistes durent
très précoce, bien avant qu’il devienne transpa- se résigner à l’idée troublante de
rent. Or, les interactions avec la lumière auraient matière exotique – une forme de
alors créé une pression de radiation empêchant la matière fantomatique qui, d’une
matière baryonique de se rassembler avant l’étape manière ou d’une autre, coexiste avec
de découplage (voir page 165). Heureusement, la la matière baryonique quotidienne,
matière noire était déjà apte à construire l’ossature mais qui n’interagit que rarement
autour de laquelle les superamas de galaxies se avec elle. Cette matière serait faite
sont formés plus tard. de WIMPs (pour Weakly Interacting
Massive Particle, particules massives
interagissant faiblement), des
particules qui ne rayonnent pas de
lumière, ne peuvent pas l’absorber ni la diffuser, et qui peuvent passer directement
à travers des atomes de matière normale comme si ces derniers n’existaient pas. La
seule manière de les « voir » repose sur les effets de leur gravité sur d’autres objets.

Une première étape importante pour comprendre la nature des WIMPs consiste à
mesurer leur distribution par rapport à la matière normale : sont-elles « froides », se
rassemblant en étroite association avec des objets lumineux, sont-elles « chaudes »,
s’envolant au loin et ne maintenant plus que les liens les plus ténus avec l’Univers
visible ? Depuis les années 1990, les astrophysiciens ont développé une nouvelle
technique pour déceler la présence de matière noire et pour la cartographier par le
truchement du phénomène de lentille gravitationnelle, à savoir la manière dont
de grandes concentrations de matière, comme les amas de galaxies, courbent et
La matière noire 183

déforment les trajectoires des rayons


lumineux émis par des objets situés
à l’arrière-plan (une conséquence de La contribution
la relativité générale ; voir page 190).
Curieusement, Zwicky préconisa dès des neutrinos
1937 l’utilisation du phénomène de
lentille gravitationnelle pour estimer Les propriétés des hypothétiques WIMPs corres-
les masses des galaxies, soit plus de pondent très bien à celles des neutrinos, parti-
40 ans avant que soient conduites les cules que l’on croyait sans masse, émises lors de
premières tentatives. certaines réactions nucléaires et utilisées par les
astronomes pour sonder l’intérieur des étoiles,
En comparant les structures que ainsi que comme alerte précoce de supernovæ
trace le phénomène de lentille à leur début (voir page 122). Les neutrinos sont
gravitationnelle (dominé par la assez bien observés à l’aide de détecteurs installés
matière noire) et celle que dessine profondément sous Terre, s’appuyant sur de rares
la lumière provenant de la matière interactions entre neutrinos et matière baryonique
usuelle, les astronomes ont décou- pouvant produire un résultat détectable, comme
vert que les deux types de matière de légers flashs de lumière. En 1998, les scienti-
ont tendance à se distribuer de la fiques de Super-Kamiokande, l’observatoire à neu-
même manière, ce qui suggère que trinos japonais, mirent en œuvre cette technique
la matière noire froide est le type pour attester un phénomène appelé oscillation de
dominant. La matière noire chaude, neutrinos, dans lequel ces particules varient entre
qui comprend les neutrinos (la seule trois différentes « saveurs ». À en croire les physi-
forme de WIMP ayant été décou- ciens des particules, une telle oscillation ne peut
verte expérimentalement jusqu’à se produire que si les neutrinos portent effective-
présent ; voir encadré ci-contre), ne ment une petite masse, même si cette dernière est
constitue qu’une contribution relati- probablement inférieure à un milliardième de celle
vement mineure. Pourtant, en dépit d’un atome d’hydrogène.
de ces succès, le mystère entourant
la nature même de la matière noire
est tel qu’il est plus probable que la
lumière soit plutôt faite grâce aux recherches menées avec des accélérateurs
de particules, comme le LHC, que par le biais d’observations astronomiques.

L’idée clé
Quatre-vingts pour cent de
la matière de l’Univers est une
mystérieuse substance invisible
184 50 clés pour comprendre l’Univers

46 L’énergie sombre
La découverte du fait que l’expansion de l’Univers accélère plutôt qu’elle
ne ralentit, est l’une des avancées scientifiques les plus formidables de ces
dernières années. Les astronomes sont toujours dans l’incertitude quant
à la nature même de l’énergie sombre, mais les solutions possibles ont
d’énormes conséquences sur notre compréhension du cosmos.

Quand la NASA a mis en orbite le télescope spatial Hubble en avril 1990,


son objectif principal, ou « Projet Clé », était de déterminer la constante de
Hubble (le taux d’expansion cosmique) et, par conséquent, l’âge de l’Univers,
en étendant à des distances inégalées l’utilisation fiable des étoiles variables
de type céphéides comme chandelles standards (voir page 146). En définitive,
ce « Projet Clé » a fourni un âge largement accepté pour l’Univers d’environ
13,8 milliards d’années.

Des supernovæ pour la cosmologie Au milieu des années 1990,


dans le but de recouper les résultats de Hubble, deux équipes scientifiques
distinctes lancèrent une nouvelle technique de mesure des distances
intergalactiques en utilisant des supernovæ de type Ia comme « chandelles
standards ». Ces événements rares – survenant quand une naine blanche,
dans un système binaire serré, dépasse la limite de Chandrasekhar et explose
dans une déflagration thermonucléaire (voir page 130) – libèrent, en théorie,
toujours la même quantité d’énergie et doivent donc toujours afficher la
même luminosité maximale. Cette luminosité maximale de l’événement telle
que mesurée depuis la Terre fournit donc une estimation de la distance de la
supernova. La principale difficulté est que ces événements sont extrêmement
rares, mais les deux équipes ont mis en œuvre une technologie de recherche
automatisée afin de scruter une multitude de galaxies lointaines pour déceler
les signes annonciateurs d’un accroissement d’éclat avant son maximum.

Les deux équipes en lice, regroupant des spécialistes du monde entier, étaient
le Supernova Cosmology Project (projet de cosmologie avec des supernovæ), basé
en Californie, et la High-Z supernovæ search team (équipe de recherche de super-
novæ à grands décalages vers le rouge), basée en Australie. Les deux équipes

chronologie
1915 1929 1998
Einstein ajoute un terme ad hoc, la La découverte de Deux équipes scientifiques
« constante cosmologique », à ses l’expansion cosmique déclarent que l’expansion
équations de la relativité générale semble rendre cosmique s’accélère.
afin de maintenir l’Univers statique. inutile la constante
cosmologique.
L’énergie sombre 185

se proposaient de comparer leurs mesures indé-


pendantes des distances réelles des supernovæ
avec celles qu’impliquaient la loi de Hubble (voir
page 161). Au total, les équipes récoltèrent des don-
nées portant sur 42 supernovæ à grand décalage vers
le rouge situées à des distances de plusieurs milliards
d’années-lumière, mais également sur 18 autres dans
l’Univers proche. Leurs mesures s’étendant bien au-
delà de celles explorées dans le cadre du « Projet
clé » du télescope spatial Hubble, les scientifiques
des deux équipes comptaient bien fournir enfin les
preuves attestant que l’expansion cosmique avait
légèrement ralenti depuis le Big Bang. Dans ce cas,
la distance réelle des supernovæ les plus éloignées
serait inférieure à celle indiquée par leur décalage
vers le rouge ; elles apparaîtraient donc plus bril-
Image enregistrée par le télescope spatial
lantes que prévu. Hubble, en 1994, d’une supernova de type Ia
(en bas à gauche) dans la galaxie assez proche
NGC 4526. À une distance de 50 millions
Contre toute attente, leurs résultats prouvèrent le d’années-lumière de la Terre, la supernova était
contraire. L’éclat des supernovæ les plus distantes trop proche pour que l’énergie sombre affecte
semblait invariablement plus faible qu’attendu au l’estimation de sa distance par le truchement
de son décalage vers le rouge.
vu de leur décalage vers le rouge. Les chercheurs pas-

«
sèrent des mois à enquêter sur les causes possibles
de cette différence, avant de présenter en 1998 leurs
résultats à l’ensemble de la communauté scienti-
fique. La conclusion inéluctable était qu’une fois Les astronomes
tous les autres facteurs pris en compte, l’éclat des devraient être en
supernovæ distantes de type Ia est réellement plus mesure de poser des
faible que prévu, ce qui implique que l’expansion questions de fond

»
cosmique n’a pas ralenti au cours du temps, mais sans accélérateurs
s’est bel et bien accélérée. Ce résultat inattendu
a désormais été confirmé par plusieurs autres
[de particules].
méthodes, y compris à partir des mesures détail- Saul Perlmutter
lées du rayonnement micro-onde de fond cosmolo-
gique (CMBR) et des études de structure cosmique
à grande échelle. Le terme « énergie sombre » fut inventé en 1998, et, en 2011,
Saul Perlmutter, du Supernova Cosmology Project, partagea le prix Nobel de phy-
sique avec Brian Schmidt et Adam Riess, de la High-Z supernovæ search team.

1998 2011 2013


Michael Turner invente le Perlmutter, Schmidt et Riess Les données de la sonde
terme « énergie sombre » pour reçoivent le prix Nobel européenne Planck montrent que
qualifier l’entité responsable de physique. l’énergie sombre représente 68,3 %
de l’accélération de l’expansion de l’énergie dans l’Univers.
cosmique.
186 50 clés pour comprendre l’Univers

À la poursuite de l’énergie du vide


Si l’énergie sombre est de fait mieux expli- tout autour de nous en permanence, peut
quée par un champ d’énergie de type être prouvée et mesurée par un phénomène
« constante cosmologique », ce dernier peut étrange appelé l’effet Casimir. Cependant,
aider à résoudre un problème vieux d’un les valeurs mesurées de l’énergie du vide sont
siècle, connu sous le nom de catastrophe du au moins 10100 fois plus faibles que l’effet
vide. La théorie quantique (à savoir la phy- prédit (c’est-à-dire un 1 suivi de 100 zéros).
sique du monde subatomique, dans laquelle Il n’est donc guère étonnant que l’énergie du
ondes et particules sont interchangeables et vide ait été considérée comme la pire prédic-
où les certitudes familières sont remplacées tion théorique de l’histoire de la physique.
par des probabilités) prédit en effet que toute À première vue, cette énergie du vide res-
région de l’espace supposée vide contient semble beaucoup à la version « constante
néanmoins une « énergie du vide ». Cette cosmologique » de l’énergie sombre, et
dernière permet de faire émerger brièvement il serait surprenant de découvrir que les
des paires « virtuelles » particule-antiparticule. deux phénomènes sont indépendants. Mais
La vigueur de cette énergie peut être pré- si c’était le cas, alors l’énergie sombre ne
dite à partir des principes bien connus de la ferait qu’aggraver la situation : selon les meil-
physique quantique, et la présence de par- leures estimations, elle serait 10120 fois trop
ticules virtuelles, surgissant et disparaissant faible pour s’ajuster aux prédictions !

La nature de l’énergie sombre Alors, c’est quoi exactement,


l’énergie sombre ? Les interprétations les plus diverses ont été avancées, et
le seul point sur lequel chacun peut à peu près s’accorder est qu’il s’agit de
la composante majeure de l’Univers actuel en termes d’énergie. En 2013, les
mesures du CMBR par la sonde spatiale Planck de l’Agence spatiale européenne,
suggérèrent que l’énergie sombre représente 68,3 % de toute l’énergie contenue
dans le cosmos, alors que la contribution de la matière noire ne s’élève qu’à
26,8 %, et celle de la matière baryonique ordinaire est ramenée à 4,9 %. Entre-
temps, les recherches ininterrompues sur les supernovæ à grands décalages vers
le rouge ont quelque peu compliqué la situation en montrant que l’expansion
avait ralenti comme prévu dans les premiers temps de l’histoire cosmique, et
que la contribution de l’énergie sombre ne devenait prépondérante qu’au cours
des sept derniers milliards d’années, entraînant l’accélération de l’expansion.

À l’annonce de cette nouvelle découverte, de nombreux astrophysiciens se sou-


vinrent de la constante cosmologique d’Einstein. L’immense physicien avait
ajouté ce terme ad hoc aux équations de sa théorie générale de la relativité
afin d’empêcher l’Univers (alors réputé statique) de s’effondrer sur lui-même
L’énergie sombre 187
Matière
(voir page 161), mais il avait regretté de noire 26,8 %
l’avoir inclus quand l’expansion cos-
mique avait, plus tard, été confirmée.
Aujourd’hui, une version modifiée du
concept d’Einstein constitue l’une des
deux hypothèses plausibles pour rendre
compte de l’énergie sombre. Dans ce
modèle, la constante représente une
petite quantité d’énergie intrinsèque
à un volume d’espace donné. Comme
l’énergie est équivalente à la masse
d’après la célèbre équation E = mc2, cette Énergie sombre Matière dans Matière dans
constante exerce donc un effet gravita- 68,3 % les galaxies le milieu
visibles 0,5 % intergalactique 4,4 %
tionnel comme n’importe quelle masse,
même si, pour des raisons complexes, il
s’agit dans ce cas d’un effet répulsif. En dépit du fait que le contenu énergétique Graphique
de chaque kilomètre cube d’espace soit minuscule, les effets s’accumulent sur en secteurs
montrant la
de grandes distances. Ces effets augmentent aussi avec le temps au fur et à prédominance
mesure que s’étendent l’Univers et le volume d’espace qu’il renferme. de l’énergie
sombre dans
le contenu
Les principales interprétations alternatives de l’énergie sombre sont des théo- de l’Univers
ries dites de « quintessence », une entité dont la densité d’énergie n’est pas en masse-
énergie d’après
uniforme dans l’espace, mais plutôt dynamique, s’accumulant plus à certains les données
endroits qu’à d’autres, les amenant à se développer davantage. Diverses théories collectées en
2013 avec la
de ce genre ont été avancées, dont certaines abordent la quintessence comme sonde spatiale
une « cinquième force » de la nature, à côté de la gravité, de l’électromagné- Planck.
tisme et des deux forces à courte portée du noyau atomique.

Quelle que soit la vraie nature de l’énergie sombre, les scientifiques poursui-
vront l’étude de ses effets dans l’Univers actuel et dans son passé. Quant à ses
implications pour l’avenir, elles peuvent s’avérer considérables, et peut-être
condamner le cosmos à une fin longue et froide (voir page 200).

L’idée clé
L’expansion cosmique
accélère, mais nous ne savons
pas pourquoi
188 50 clés pour comprendre l’Univers

47 R
 elativité et ondes
gravitationnelles
Les théories jumelles de la relativité restreinte et générale d’Einstein ont
révolutionné la physique au début du xxe siècle. Elles fournissent aux
cosmologistes les bases pour saisir la nature de l’Univers et offrent aux
astronomes de nouveaux outils pour explorer les extrêmes du cosmos.

Albert Einstein, un universitaire raté, était employé au bureau suisse des bre-
vets, à Berne, quand il publia, en 1905, une série de quatre articles qui le pro-
pulsèrent vers la gloire scientifique. Deux d’entre eux concernaient le domaine
atomique et subatomique, mais les deux suivants examinaient le comporte-
ment d’objets en mouvement non accéléré à une vitesse proche de la celle de
la lumière – phénomène connu aujourd’hui sous le nom de relativité restreinte.
Einstein avait été conduit à explorer les extrêmes du mouvement par le biais
des problèmes de physique qui s’étaient manifestés au cours de la décennie
précédente – en particulier, des questions tenant à la vitesse de la lumière.

Le physicien écossais James Maxwell avait établi en 1865 que la lumière a une
vitesse constante dans le vide (noté c) d’environ 300 000 kilomètres par seconde.
Les physiciens supposaient à l’époque qu’il s’agissait d’une vitesse de propaga-
tion à travers un milieu omniprésent de transmission de la lumière qu’ils appe-
laient éther luminifère. Avec des techniques de mesure ultrasensible, il devait
être possible de mesurer la légère variation de la vitesse de la lumière provenant
de différentes directions en raison du déplacement de la Terre à travers l’éther.
En 1887, Albert Michelson et Edward Morley mirent donc au point une nouvelle
expérience, ingénieuse et très sensible, pour détecter cette légère différence. Leur
expérience ayant fait chou blanc, la physique entra en crise. Diverses théories
furent proposées pour expliquer ce résultat négatif, mais seul Einstein osa accepter
les faits tels qu’ils se présentaient et considérer la possibilité que l’éther n’existait
pas. Il se demanda plutôt ce qu’il en serait si la vitesse de la lumière était juste
une constante, quel que soit le mouvement relatif de la source et de l’observateur.

chronologie
1865 1887 1905 1907
Maxwell calcule la vitesse L’échec de Einstein publie sa Hermann Minkowski montre
fixe de la lumière et l’expérience de théorie de la relativité comment la relativité
d’autres rayonnements Michelson-Morley restreinte, incluant restreinte peut être traitée
électromagnétiques dans provoque une crise l’équivalence de la comme un effet géométrique
le vide. de la physique. masse et de l’énergie. dans un espace-temps
à quatre dimensions.
Relativité et ondes gravitationnelles 189

Relativité restreinte L’article d’Einstein sur


la relativité restreinte réinvente en fait les lois simples
de la mécanique en se basant sur deux axiomes : la
«
de l’absolu
débouche sur
La quête

»
constance de la vitesse de la lumière et le « principe
de relativité » (c’est-à-dire que les lois de la physique le monde à quatre
devraient toujours apparaître comme étant les dimensions.
mêmes pour des observateurs dans des systèmes
de référence – des référentiels – différents mais Arthur Eddington
équivalents). Mettant de côté les cas d’accélération,
Einstein ne considéra que le cas « restreint » des référentiels inertiels (c’est-à-dire
non accélérés). Dans la plupart des situations courantes, il montra que les lois
de la physique sont les mêmes que celles décrites par Isaac Newton à la fin du
xviie siècle. Mais deux observateurs dans des référentiels en mouvement relatif
à des vitesses proches de celle de la lumière commenceraient à interpréter les
événements de manière radicalement différente. Ces effets dits « relativistes »
comprennent la contraction des longueurs dans la direction du mouvement et le
ralentissement (la dilatation) du temps. Dans son deuxième article sur la relativité,
Einstein montra que des objets qui se déplacent à des vitesses relativistes (vitesses
proches de celle de la lumière) voient également leur masse augmenter, et prouva
ainsi l’équivalence entre masse et énergie, obtenant la fameuse équation E = mc2.
Dans tous les cas, les distorsions n’apparaissent qu’à un observateur extérieur au
référentiel. Pour tout individu qui s’y trouve, tout semble normal.

La relativité restreinte est importante pour les astronomes, car elle implique qu’il
n’y a pas de référentiel fixe à partir duquel l’Univers doit être mesuré – aucune
place qui soit vraiment stationnaire, aucun site où le temps s’écoule à une vitesse
absolue. Des expériences terrestres ont mis en évidence les effets que prédit la
relativité restreinte, mais cette dernière s’est également avérée utile pour expliquer
une variété de phénomènes astronomiques, allant du comportement des jets rela-
tivistes (ceux émis par les pôles des étoiles à neutrons comme ceux suscités par
l’accrétion sur des objets compacts) jusqu’à l’origine de la matière dans le Big Bang.

De la resteinte à la générale En 1915, Einstein publia une théorie


plus générale, incorporant des situations dans lesquelles l’accélération était
impliquée. L’avancée majeure se fit en 1907, quand Einstein se rendit compte
que, dans la mesure où la gravité entraîne une accélération, un individu dans une
situation d’accélération constante devrait observer exactement les mêmes lois de
la physique qu’un autre dans un champ de gravitation, debout à la surface d’une
planète. L’implication d’un tel état de fait est importante pour l’astronomie : tout
comme un observateur à bord d’un vaisseau spatial accélérant rapidement voit

1915 1919 2016


Einstein publie sa théorie de la Eddington démontre l’effet Les scientifiques de LIGO confirment
relativité générale, montrant de lentille gravitationnelle l’existence des ondes gravitationnelles,
comment la masse déforme découlant de la relativité la dernière prédiction non encore
l’espace-temps. générale. prouvée de la relativité générale.
190 50 clés pour comprendre l’Univers

Lentilles gravitationnelles
Le phénomène de lentille gravitationnelle se pro- lentille gravitationnelle – en particulier dans
duit lorsque les rayons lumineux d’objets distants la direction d’amas denses de galaxies, où la
voient leurs trajectoires déviées par des distorsions lumière provenant d’objets en arrière-plan
de l’espace-temps induites par la présence d’un apparaît sur les images de la voûte céleste
objet très massif en avant-plan. Pour un astre comme des motifs en forme d’arc. Le phéno-
comme le Soleil, l’effet est à peine perceptible (l’ex- mène de lentille gravitationnelle est donc un
pédition organisée par Eddington pour observer outil puissant pour cartographier la répartition
une éclipse a permis de mesurer des déviations de des masses au sein des amas de galaxies afin
la position apparente de certaines étoiles de moins d’en savoir plus sur la présence de matière
d’un dixième de degré), mais dans le cas de plus noire, mais il peut également avoir une applica-
grandes concentrations de matière, les résultats tion plus directe. À l’instar de l’objectif en verre
peuvent être beaucoup plus spectaculaires. Le pre- d’une lunette astronomique, une lentille gravi-
mier aperçu de ce phénomène de lentille gravita- tationnelle peut intensifier la lumière d’objets
tionnelle, identifié en 1979, est le soi-disant quasar très éloignés, permettant ainsi à des galaxies
jumeau, un quasar lointain dont la lumière, déviée extrêmement ténues de voir leur éclat franchir
par une galaxie interposée en avant-plan, atteint la limite de visibilité de puissants télescopes.
la Terre en donnant l’impression de parvenir de C’est ainsi que les astronomes ont détecté la
deux directions distinctes. galaxie la plus lointaine jamais découverte,
Les astronomes ont identifié depuis bien située à une distance d’environ 13,2 milliards
d’autres manifestations du phénomène de d’années-lumière.

dans son habitacle le chemin suivi par un faisceau de lumière s’infléchir vers le bas, il en
va de même pour un observateur au sein d’un champ gravitationnel fort. C’est la base du
phénomène spectaculaire dit de lentille gravitationnelle (voir l’encadré ci-dessus).

Après 1905, l’année charnière de sa carrière, Einstein travailla des années sur les impli-
cations de ses découvertes, fortement influencé par les idées de son ancien professeur
Hermann Minkowski sur la relativité restreinte. Ce dernier avait étudié les distorsions
relativistes dans le cadre des règles de la géométrie, traitant les trois dimensions de l’espace
et celle du temps comme une variété d’espace-temps, une structure unifiée dans laquelle
chaque dimension peut être échangée contre les autres. Einstein conçut alors la gravité
comme une distorsion de l’espace-temps et développa les équations pour la décrire.

En 1915, l’année pendant laquelle Einstein présenta la théorie de la relativité générale, il


publia un article qui appliquait sa nouvelle théorie pour résoudre un problème vieux de
plus de 60 ans au sujet de l’orbite de la planète Mercure, resté sans réponse dans le cadre de
la physique classique. Dans le même papier, Einstein proposait de tester la ­déviation d’un
rayon lumineux dans le champ de gravitation d’un astre massif comme le Soleil. Ce travail,
Relativité et ondes gravitationnelles 191

ayant été publié en allemand au Image formée


Galaxie
milieu de la Première Guerre mon- par le processus
distante
de lentille
diale, passa largement inaperçu gravitationnelle Image
pour la plupart des astronomes. Il formée
par
fallut attendre 1919 pour qu’Arthur Masse le
Eddington produise une démons- sur la ligne processus
de visée de lentille
tration spectaculaire de la nouvelle gravitationnelle
théorie en mesurant un effet de ce
type sur les étoiles proches du Soleil
lors d’une éclipse solaire.

Ondes gravitationelles Au
xxe siècle, la relativité restreinte et Observateur
sur Terre
la relativité générale se révélèrent
correctes à tous points de vue, mais
jusque très récemment, une prédiction clé de la théorie restait sans preuve Pour aborder la
expérimentale. Les ondes gravitationnelles sont des ondulations infimes de relativité générale,
on peut imaginer
l’espace-temps se manifestant par des modifications minuscules (de la taille l’espace-temps
d’un atome) des dimensions de l’espace. Elles sont produites par des masses comme une feuille
de caoutchouc
non symétriques en rotation rapide (comme des trous noirs ou des étoiles à distordue par des
neutrons en systèmes binaires se précipitant l’un vers l’autre sur des trajectoires objets massifs. De
telles distorsions
en spirale ; voir page 131). affectent non
seulement les
En février 2016, des scientifiques américains annoncèrent enfin la détection orbites d’autres
d’ondulations de l’espace-temps induites par une paire de trous noirs entrant objets, mais elles
dévient aussi les
en coalescence. L’observation décisive avait été menée le 14 septembre 2015 trajectoires des
au LIGO (Laser Interferometer Gravitational-Wave Observatory, ou observatoire rayons lumineux,
donnant lieu
d’ondes gravitationnelles par interférométrie laser), installé sur deux sites aux au phénomène
États-Unis, l’un dans l’état de Washington, l’autre en Louisiane. Cette décou- connu sous le
nom de lentille
verte confirme non seulement la théorie d’Einstein (et atteste sans le moindre gravitationnelle.
doute l’existence des trous noirs), mais elle marque également les grands
débuts d’une nouvelle forme d’astronomie. Les ondes gravitationnelles étant
créées par de la masse plutôt que par de la matière lumineuse, les futurs obser-
vatoires d’ondes gravitationnelles devraient être en mesure d’étudier la matière
noire, voire de scruter l’Univers au-delà des limites de l’ère du découplage (voir
page 165) afin d’étudier les conditions physiques jusqu’au Big Bang lui-même.

L’idée clé
L’espace et le temps
sont entrelacés
192 50 clés pour comprendre l’Univers

48 L a vie
dans l’Univers
La recherche de la vie et de l’intelligence extraterrestre est l’un des
domaines les plus difficiles de l’astronomie moderne, mais c’est l’un des plus
stimulants. Pourtant, même sans autres découvertes similaires, l’existence
de notre planète habitable soulève une question fascinante : pourquoi
l’Univers devrait-il être capable de porter la vie ?

Les dernières décennies ont vécu une véritable révolution dans les perspectives
de vie dans notre galaxie et dans l’Univers en général (voir chapitres 12 et 26).
Mais la plus grande question reste celle de l’intelligence : une preuve de vie
extraterrestre changerait certes pour toujours notre compréhension du cosmos,
mais un contact provenant d’une espèce extraterrestre, avec sa propre science,
sa technologie et sa philosophie, serait un événement bien plus considérable
et le point de départ de transformations incroyables.

La chasse au signal Divers projets visant à détecter des signes


de vie extraterrestre ont été mis en place depuis le début des années 1960.
Collectivement qualifiés de SETI (Search for ExtraTerrestrial Intelligence, ou
recherche d’une intelligence extraterrestre), ces programmes se concentrent
généralement sur un balayage du ciel dans le domaine des ondes radio, à la
recherche de signaux qui ne peuvent pas être expliqués par des phénomènes
naturels. Bien que cette démarche soit la meilleure dont nous disposons, elle
présente des inconvénients évidents : les signaux radio, comme toutes les ondes
électromagnétiques, partent dans toutes les directions et s’évanouissent donc
rapidement, à moins qu’ils n’aient été fortement collimatés en un faisceau
directionnel étroit, ce qui signifie que nous comptons essentiellement sur une
« civilisation communicante » envoyant délibérément un signal vers notre
petite région de l’espace. Cette situation n’est pas aussi improbable qu’il paraît,
car nous pourrions faire de même pour peu que des signes de vie aient été
détectés sur une exoplanète.

chronologie
1960 1961 1973
Frank Drake utilise le Drake élabore une équation Carter utilise ses principes
radiotélescope de Green Bank pour trouver le nombre anthropiques pour expliquer
pour la première recherche de civilisations dans notre pourquoi l’Univers fait bon
moderne du programme SETI. galaxie, contenant toutefois de accueil à la vie.
nombreux facteurs inconnus.
La vie dans l’Univers 193

Qui plus est, tous les extraterrestres susceptibles de Nombres


de 1 à 10
communiquer de cette manière devraient maintenir au format
leur antenne radio braquée dans notre direction pen- binaire
dant une longue période, car les chances que nous Numéros
atomiques
cherchions dans la bonne direction au bon moment, des
avec nos radiotélescopes accordés à la bonne fré- éléments
de l’ADN
quence, seraient minimes. Même si une telle coïnci-
dence heureuse se produisait, elle serait certainement Formules
chimiques
rejetée comme une occurrence fortuite isolée, à moins des
que le signal ne soit répété. Le signal candidat le plus composants
de l’ADN
prometteur à ce jour – le soi-disant signal « Wov ! »,
détecté par le scientifique du programme SETI Jerry
Ehman en août 1977 – fut d’ailleurs rejeté sur la Schéma de
base de ce critère car une telle bouffée d’ondes radio, la structure
de l’ADN
émanant peut-être du Sagittaire, n’a plus jamais été
détectée, en dépit de nombreuses recherches.

Compte tenu des problèmes que pose l’approche radio Contours


traditionnelle, certains astronomes SETI lancèrent des et taille
idées alternatives. Le programme SETI optique préco- simplifiés
de l’homme
nise la recherche de signaux dans le domaine visible,
Carte du
alors que les partisans d’un « SETI actif » ont déjà Système
envoyé des messages intentionnels dans l’espace, le solaire
plus célèbre étant celui expédié en 1974 par le radio- Image du
télescope géant d’Arecibo (voir figure ci-contre). télescope
d’Arecibo
Une autre approche prometteuse consiste à recher-
cher des « techno-signatures » plutôt que des messages
intentionnels. Il s’agit de marqueurs dans la lumière
Le message d’Arecibo (ci-dessus)
des étoiles et des planètes qui ne pourraient être dus était une bouffée de 1 679 chiffres
qu’aux activités d’une civilisation avancée. Au pre- binaires : le produit des nombres
mier abord, on dirait de la science-fiction, mais des premiers 23 et 73. Une fois disposé
sur une grille de 23 colonnes et
mégastructures telles que des villes à l’échelle d’une 73 lignes, le message forme un
planète, des déplacements d’étoiles à coup de « pro- pictogramme simplifié.
pulseurs de Shkadov » ainsi que des sphères de Dyson
(d’énormes coquilles construites autour d’une étoile pour recueillir son énergie)
sont autant de projets plausibles d’ingénierie produisant un signal distinctif.
Par ailleurs, une telle approche a déjà révélé le candidat du programme SETI le
plus excitant depuis des années (voir encadré page 194).

1974 1977 1986


Drake, Carl Sagan et d’autres Ehman détecte un signal radio Barrow et Tipler reformulent
collaborent pour envoyer le fort, non répétitif, provenant les principes anthropiques
message symbolique d’Arecibo apparemment de la direction faible et fort dans leur forme
vers un amas stellaire lointain. de Sagittaire. moderne.
194 50 clés pour comprendre l’Univers

Le mystère de l’étoile de Tabby


En septembre 2015, une équipe d’astro- ­ bservations de la ­mission Kepler, mais comme
o
nomes dirigée par Tabetha Boyajian de l’a souligné Jason Wright, chercheur de la
l’université Yale annonça la découverte de communauté SETI, les baisses d’éclat pour-
variations inexplicables de l’éclat d’une étoile raient aussi être dues à une sphère de Dyson
appelée KIC 8462852 (surnommée par la ou à toute autre mégastructure du même
suite l’étoile de Tabby). Se trouvant à environ type assemblée en orbite par une civilisation
1 480 années-lumière dans la constellation du avancée. Des balayages radio n’ont pas révélé
Cygne, l’étoile avait été découverte dans le de signaux inhabituels provenant du voisi-
cadre des recherches d’exoplanètes menées nage de l’étoile, mais le mystère s’est épaissi
par la mission Kepler (voir page 99), et ses au début de l’année 2016 lorsque l’astronome
baisses d’éclats intermittentes ne sont pas Bradley Schaefer constata, au vu des archives
explicables par des transits de planètes. Elles astronomiques, que l’éclat de KIC 8462852 a
semblent plutôt relever d’un essaim d’objets baissé de 20 % environ depuis 1890, ce qui
plus petits gravitant autour de l’étoile. Une exclut plus ou moins l’hypothèse cométaire.
explication naturelle plausible serait donc L’étoile de Tabby n’abrite sans doute pas une
qu’un grand nombre de corps cométaires mégastructure extraterrestre, mais il est certain
évoluant sur des trajectoires à grande ellip- qu’elle tient ses promesses d’« étoile la plus
ticité seraient passés devant l’étoile lors des mystérieuse de notre galaxie ».

Ajusté pour l’apparition la vie ? Alors que les astronomes du


programme SETI étaient occupés à rechercher les signes d’une intelligence
extraterrestre, certains cosmologistes étaient tout autant absorbés par la
question de savoir pourquoi une quelconque planète de l’Univers devrait porter
la vie – et de fait, pourquoi existe-t‑il des planètes, des étoiles ou des galaxies ?
Depuis les années 1950, au fur et à mesure que se développait la théorie du
Big Bang, il devint de plus en plus évident que de nombreux aspects de notre
Univers, de la structure à grande échelle des amas de galaxies et des superamas,
jusqu’au comportement chimique des éléments individuels, dépendent d’une
poignée de constantes physiques. Pour peu que l’une d’entre elles ait eu une
valeur un tant soit peu différente, l’Univers dans son ensemble serait très
différent – peut-être suffisamment pour empêcher le développement de la vie.
La théorie du Big Bang n’offrant aucun mécanisme spécifique pour contrôler
les valeurs de ces constantes, le fait qu’elles semblent être « bien ajustées » pour
l’apparition de la vie semble être une extraordinaire coïncidence.

En 1961, le physicien Robert Dicke fut le premier à invoquer une explication


possible de cet ajustement en constatant que nous ne pouvons exister qu’en
raison du fait que nous vivons à une étape spécifique de l’histoire cosmique qui
La vie dans l’Univers 195

convient à l’évolution de la vie. Nous ne devrions donc pas être surpris de vivre
au moment le plus accueillant. Un concept similaire était à la base du « principe
anthropique », proposé sous deux formes en 1973 par l’astrophysicien australien
Brandon Carter. Dans sa version faible, le principe anthropique de Carter affirme
uniquement que comme nous sommes ici, notre positionnement dans l’espace
et dans le temps doit être celui qui est approprié pour donner naissance à la vie.
La version forte fait état du même argument en ce qui concerne les valeurs des
constantes de la physique, soulignant que si elles étaient violemment différentes,

«
nous ne serions pas là pour les mesurer.

En 1986, les cosmologistes John Barrow et Frank Deux possibiltés


Tipler reconsidérèrent la question dans leur best- existent : soit nous
seller intitulé The Anthropic Cosmological Principle (Le sommes seuls dans
principe anthropique cosmologique). Ajoutant à la
confusion, ils firent valoir leurs propres définitions
l’univers, soit nous
ne le sommes pas.

»
des principes anthropiques faibles et forts, et ce sont
leurs versions, plutôt différentes de celles de Carter, Les deux sont tout
qui sont généralement utilisées de nos jours. La ver- aussi effrayantes.
sion faible de Barrow et Tipler recouvre pour l’essen-
tiel les variantes faibles et fortes de Carter, arguant Arthur C. Clarke
que tous les aspects physiques de l’Univers seront
naturellement adaptés à la vie simplement parce que nous sommes ici pour les
mesurer. Toutefois, leur version du principe fort va beaucoup plus loin, suggérant
que l’Univers recèle quelque chose qui lui donne l’obligation de produire la vie
– en d’autres termes, l’Univers est subtilement ajusté par une influence extérieure.
Les auteurs ont avancé trois possibilités : soit l’Univers a été délibérément conçu
pour donner naissance à la vie par une entité extérieure, soit la présence d’observa-
teurs est en quelque sorte nécessaire pour que l’Univers apparaisse (une approche
qui fait écho à certains aspects de la physique quantique), soit enfin, notre Univers
est l’un parmi beaucoup d’autres dans un plus vaste « ensemble », ce qui permet
d’explorer tous les paramètres possibles. Comme nous le verrons au chapitre 49,
cette troisième option n’est pas nécessairement aussi improbable qu’il y paraît.

L’idée clé
L’aptitude de l’Univers
à la vie soulève
d’embarrassantes questions
196 50 clés pour comprendre l’Univers

49 Le multivers
Notre Univers pourrait-il n’être qu’une petite partie d’un multivers beaucoup
plus vaste, voire infini ? Beaucoup de cosmologistes s’intéressent à cette
idée, mais quelles preuves peuvent être trouvées pour l’appuyer ? Et quelle
forme les parties invisibles du multivers pourraient-elles prendre ?

Le type de multivers le plus connu est aussi probablement le plus difficile à


envisager. Il s’agit de l’ensemble des univers infinis parallèles suggérés par la
« théorie des mondes multiples », une interprétation de la mécanique quan-
tique chère aux écrivains de science-fiction. Selon cette idée, mise en avant
pour la première fois par le physicien Hugh Everett en 1957, la solution à
l’incertitude propre au monde subatomique que régit la théorie quantique est
pour l’Univers de se dupliquer en permanence en répliques dans lesquelles
se déroule chacun des éventuels résultats de tous les événements possibles.
Heureusement, les deux types de multivers les plus souvent préconisés par les
cosmologistes sont un peu plus faciles à appréhender, bien que leurs implica-
tions soient à bien des égards tout aussi profondes.

Au-delà des limites L’objet le plus simple que nous pourrions


appeler multivers est celui dont nous avons la certitude qu’il existe : il
s’agit du prolongement de notre propre cosmos, bien au-delà de la limite de
46,5 milliards d’années-lumière de l’Univers observable que fixe la vitesse de
la lumière (voir page 177). L’existence d’un tel multivers est plus qu’évidente
lorsque l’on considère la situation d’un observateur hypothétique sur une
planète située aux limites de notre Univers observable. En regardant d’un
côté, il observe à travers le gouffre de l’espace en direction de la Terre, mais
en regardant de l’autre côté, il peut contempler des régions de l’espace-temps
interdites pour toujours à nos propres observations.

Sur la base du postulat que notre Univers visible est « homogène et isotrope »
à très grande échelle (en d’autres termes, qu’il a toujours la même apparence,
indépendamment de l’endroit où l’on se trouve et de la direction où l’on porte
le regard), il est raisonnable de conclure que ce multivers est pour l’essentiel
toujours la même chose ; mais quelle pourrait bien être sa taille ? La réponse à

chronologie
1957 1981 1983
Hugh Everett formule la Alan Guth suggère que Steinhardt soutient
théorie des mondes multiples, notre Univers n’est qu’une que l’inflation peut être
une interprétation de petite bulle inflationnaire un processus éternel.
la mécanique quantique. du Big Bang initial.
Le multivers 197

cette question dépend de la courbure


de l’espace-temps lui-même, déter-
minée par l’équilibre entre matière, Quatre saveurs
matière noire et énergie sombre dans
le cosmos (voir page 200). Si l’espace- de multivers ?
temps se recourbe vers l’intérieur
Le théoricien Max Tegmark, pionnier du multivers,
comme une sphère, le multivers est
définit quatre niveaux de multivers envisageables :
fermé et au plus 250 fois plus grand
1. L’espace-temps normal au-delà des limites de
que notre Univers visible. Si toute-
l’Univers observable.
fois l’espace-temps s’infléchit vers
2. Des univers avec des constantes physiques diffé-
l’extérieur, à l’instar d’une selle de
rentes, comme ceux créés par l’inflation éternelle.
cheval (comme l’indique la décou-
3. Des univers parallèles produits dans le cadre
verte de l’énergie sombre), le multi-
d’une interprétation de la mécanique quantique
vers est ouvert et d’une taille infinie.
connue sous le nom de théorie des mondes
Étrangement, le concept d’un univers
­multiples.
véritablement infini porte en lui les
4. L’ensemble ultime, structure purement mathé-
mêmes implications que la théorie
matique intégrant tous les multivers possibles.
des mondes multiples : chacun des
éventuels résultats de tous les événe-
ments possibles a lieu quelque part
dans un Univers « parallèle ».

Inflation éternelle Le second type de multivers qui fascine les


cosmologistes est encore plus bizarre, offrant la possibilité d’un univers
radicalement différent du nôtre. Il trouve ses racines dans la théorie de
l’inflation, élaborée par Alan Guth et d’autres au début des années 1980 comme
un moyen de gonfler démesurément une petite cellule du cosmos primordial
afin de créer un Univers comme celui que nous observons aujourd’hui (voir
page 166). Une question évidente à l’époque était de savoir ce qui avait mis fin
à l’inflation, mais en 1986, Andrei Linde, le collaborateur de Guth, souleva une
possibilité plus audacieuse : et si l’inflation n’avait jamais pris fin ?

Dans le modèle d’inflation éternel ou chaotique, de nouveaux « univers bulle »


sont continuellement créés par un processus de changement de phase, ana-
logue à la formation de bulles dans l’eau d’un soda. Dans la vie quotidienne,
nous connaissons les phases solides, liquides et gazeuses des matériaux usuels,
et nous sommes peut-être vaguement conscients que les transitions entre ces
phases absorbent ou libèrent de l’énergie. Mais en physique fondamentale,

1986 1995 2001


Andrei Linde propose un Edward Witten développe Steinhardt et Turok publient
modèle d’inflation chaotique la théorie des branes comme leur théorie de la cosmologie
qui produit un nombre infini une variation de la théorie des branaire du multivers.
d’univers-bulles. cordes.
198 50 clés pour comprendre l’Univers

Branes et dimensions supplémentaires


Au cours des dernières décennies, des tenta- À la fin des années 1990, les cosmologistes
tives pour trouver une théorie unificatrice de développèrent une théorie selon laquelle
la physique des particules donnèrent lieu à notre Univers pourrait être une région sem-
une autre forme possible de multivers, dans blable à une membrane de l’espace-temps,
le cadre du modèle de cosmologie branaire. dénommée « brane » (aphérèse de mem-
La théorie existante la plus plausible pour brane), séparée d’un multivers d’autres branes
unir les forces fondamentales de la nature similaires par de petites distances dans des
– une théorie complexe connue sous le nom dimensions invisibles de « l’hyperespace ». En
de M-théorie – nécessite que l’espace-temps 2001, Paul Steinhardt et Neil Turok utilisèrent
contienne sept dimensions d’espace supplé- les branes comme base d’un nouveau modèle
mentaires que nous ne sommes pas capables cyclique d’évolution cosmique, suggérant
de percevoir. Certaines d’entre elles seraient que les branes s’écartent lentement dans
« compactifiées », en s’enroulant sur elles- l’hyper­espace, ce qui se manifeste comme
mêmes à des échelles si petites qu’elles pas- une énergie sombre au sein de chaque brane.
seraient inaperçues dans notre Univers (de la Des collisions entre branes à des échelles de
même manière qu’une petite pelote de ficelle temps de l’ordre du milliard de milliards d’an-
a l’apparence d’un simple point si elle est nées déclenchent des événements de type Big
observée d’assez loin), mais qu’en serait-il si Crunch (voir page 201), suivies de nouveaux
ce n’était pas le cas pour l’une d’entre elles ? événements de type Big Bang.

beaucoup d’autres propriétés présentent des phases, allant des caractéristiques


des particules élémentaires jusqu’aux dimensions de l’espace-temps lui-même,
voire jusqu’à l’énergie du vide imprégnant le cosmos (voir page 186).

Les transitions entre ces phases libèrent beaucoup plus d’énergie que celles
entre les phases de la matière, et de nouvelles phases peuvent surgir spontané-
ment dans le vide de l’espace. Leur destin dépend alors de leur mélange précis
de propriétés – celles avec une énergie de vide négative s’effondrent rapidement
sur elles-mêmes, mais celles avec une énergie positive commencent à se déve-
lopper, créant potentiellement un univers bulle doté de ses propres propriétés
et lois physiques, voire de son propre mélange de dimensions. Dans de nom-
breux cas, l’énergie du vide pourrait y être beaucoup plus grande que celle de
notre propre Univers, stimulant peut-être un univers qui se développe de façon
exponentielle. En dehors de notre propre bulle, le reste du multivers serait tout
sauf homogène et isotrope.
Le multivers 199

Infinie variété Si ce modèle du multivers est correct, il résout beaucoup


de mystères de la cosmologie moderne. Par exemple, l’existence d’innombrables
phases avec des propriétés radicalement différentes rendrait moins improbable
l’aspect si bien ajusté de notre propre Univers et la faible valeur de son énergie
du vide (voir pages 194 et 186). La question de savoir ce qui s’est passé « avant »,
le Big Bang et la manière dont il a été déclenché, deviendraient finalement
pertinentes, mais réciproquement, notre image acceptée de longue date d’un
Univers vieux de 13,8 milliards d’années devrait être abandonnée, il ne s’agirait
en effet que de l’âge de notre propre bulle dans un processus éternel.

Pour le moment, cependant, cette théorie extraor-


dinaire n’est toujours pas prouvée. Certains pour-
raient se demander s’il sera un jour possible de
confirmer l’existence de tels univers aussi variés
« Dans l’espace
infini, même les
événements les plus
au-delà du nôtre, mais un avantage de l’inflation
improbables doivent

»
éternelle est qu’elle fait des prédictions vérifiables.
En théorie en effet, les bulles devraient de temps en se dérouler quelque
temps se heurter l’une contre l’autre, leurs parois part.
extérieures se fracassant à grande vitesse. Il en résul-
terait pour notre Univers divers effets qui impri- Max Tegmark
meraient des motifs distinctifs sur le rayonnement
micro-onde de fond cosmologique. Même si de tels motifs n’ont pas encore été
détectés, ils seraient à l’extrême limite des techniques d’observation actuelles,
de sorte que le cas de ce type de multivers manque cruellement de preuve.

L’idée clé
Notre Univers n’est
peut-être qu’un
parmi beaucoup d’autres
dans un cosmos infini
200 50 clés pour comprendre l’Univers

50 L e destin
de l’Univers
Quel est le sort ultime de notre Univers ? Depuis la naissance de la cosmologie
moderne, les astronomes ont tenté d’établir une distinction entre plusieurs
alternatives, mais la découverte récente de l’énergie sombre a introduit un
nouveau facteur important, condamnant clairement le cosmos à une mort
longue et froide.

L’idée que l’Univers pourrait un jour prendre fin était aussi étrangère aux
astronomes du début du xxe siècle que celle qu’il avait un début. Jusqu’alors,
le cosmos avait généralement été considéré comme éternel et, dans un loin-
tain passé, avoir été à peu près le même qu’aujourd’hui. La première personne
à considérer sérieusement une autre option fut Alexander Friedmann, qui,
en 1924, s’appuya sur son idée antérieure d’un espace-temps en expansion
(voir page 161) pour réfléchir sur la manière dont l’Univers pourrait évoluer.
Friedmann soutint que l’Univers devait être en expansion pour surmonter l’in-
fluence gravitationnelle de la matière. Combien de temps cette expansion se
poursuivrait dépendait d’un facteur crucial, le paramètre de densité (désigné
par la lettre grecque oméga, Ω) – la distribution moyenne de masse et d’énergie
par rapport à une certaine densité critique.

Si le paramètre de densité Ω vaut exactement 1 (c’est-à-dire si la densité


moyenne de l’Univers est égale à la densité critique), la gravité sera suffisante
pour ralentir l’expansion cosmique, mais jamais pour l’arrêter complétement.
Si Ω est inférieur à 1, l’expansion continuera à jamais, alors que s’il est supé-
rieur à 1, elle ralentira et finira par s’inverser, l’Univers entier se repliant sur
lui-même. Friedmann décrivit respectivement ces trois scénarios comme plat,
ouvert ou fermé.

À la suite du travail de Friedmann, et après que Hubble eut confirmé en 1929


la réalité de l’expansion cosmique, Einstein, Lemaître et d’autres envisagèrent

chronologie
1924 1934 1969 1977
Friedmann étudie Tolman montre qu’un Rees examine Islam étudie le
une possible univers oscillant les conditions dans un sort à long terme
expansion de enfreint les lois de univers fermé à l’approche de la matière dans
l’espace-temps. la thermodynamique. du « Big Crunch ». un univers ouvert.
Le destin de l’Univers 201

la possibilité d’un Univers cyclique ou oscillant


qui s’étendrait et se contracterait périodiquement,
passant aux deux extrémités du cycle par un état
chaud et dense (un Big Bang suivit d’un Big Crunch,
de
Les lois
la
«
nature sont
construites de telle
ou Grand Effondrement). Un Univers cyclique sorte que l’Univers

»
semblait en effet plus éternel que l’instant décisif soit aussi intéressant
de création inséparable d’un modèle d’expansion
simple, mais Richard Tolman démontra en 1934
que possible.
qu’aucun univers oscillant ne pouvait se poursuivre Freeman Dyson
à jamais sans violer les lois de la thermodynamique.
Puisqu’il fallait toujours un commencement formel, les promoteurs se conten-
tèrent d’échanger un instant de création plus récent avec un plus éloigné.

Grand effondrement ou mort thermique ? Après cet essor


initial, l’intérêt pour l’évolution future de l’Univers stagna jusqu’au milieu des
années 1960, quand la théorie du Big Bang fut attestée de manière concluante
par la découverte du rayonnement micro-onde de fond cosmologique. En 1969,
Martin Rees réexamina le sujet en passant en revue les conditions dans la phase
de contraction d’un Univers fermé. Il constata que dans cette phase, l’Univers
devait aussi se réchauffer, au point d’atteindre tôt ou tard des températures qui
feraient que les étoiles elles-même s’évaporeraient, avant que tout soit détruit
dans une singularité, voire recyclé dans un Univers oscillant.

Par ailleurs, en 1977, le cosmologiste bangladais Jamal Nazrul Islam étudia en


premier ce qui pourrait survenir dans un Univers ouvert. Il prédit que sur des
milliards de milliards d’années, voire plus, la plus grande partie de la matière des
galaxies finirait en fin de compte par s’effondrer en trous noirs dont les masses
s’amenuiseraient peu à peu par rayonnement de Hawking (voir page 135). En
outre, à des échelles de temps encore plus longues, un bon nombre des parti-
cules subatomiques de matière ordinaire seraient exposées aux désintégrations
radioactives. Une autre manière d’appréhender ce scénario passe par les lois de
la thermodynamique, comme William Thomson (Lord Kelvin), l’avait fait dans
les années 1850. En effet, l’énergie et l’information se propagent de plus en plus
jusqu’à ce que l’Univers soit effectivement uniforme, une condition connue
sous le nom de mort thermique. Freeman Dyson traita tous ces concepts plus
en détail dans son fameux article de 1979 intitulé Time Without End (Le temps
sans fin), dans lequel il exposa un scénario généralement connu sous le nom
de Big Chill (Grand Gel).

1998 2001 2002


Des cosmologistes découvrent Steinhardt et Turok relancent l’idée Linde soutient que l’effet
une énergie sombre qui influence d’un univers cyclique dans le cadre de l’énergie sombre pourrait
l’expansion cosmique, suggérant que de leur modèle de cosmologie s’inverser dans le futur.
l’Univers doit être ouvert et sans fin. branaire.
202 50 clés pour comprendre l’Univers

Faire la distinction entre les

Le Big Slurp ? deux scénarios d’un Univers


ouvert ou fermé devint dans les
années 1980 une préoccupation
Depuis les années 1970, les physiciens des par- majeure pour les cosmologistes,
ticules ont mis le doigt sur une fin possible de rendue d’autant plus difficile
l’Univers que les cosmologistes avaient tendance par la nécessité de mesurer avec
à ignorer dans leurs discussions. Il s’agit de la précision la contribution de la
possibilité que l’actuel vide de l’espace ne soit matière noire. La plupart des
pas aussi stable qu’il semble l’être, mais soit estimations suggérèrent que
plutôt dans un état « métastable », donc exposé l’Univers frôlait la densité cri-
à un éventuel changement spectaculaire à un tique, ce qui poussa les spécia-
moment donné. Pour un système physique, listes à redoubler d’efforts.
un état métastable est celui qui semble avoir
un minimum d’énergie potentielle, qui restera Toutefois, la découverte en 1998
stable dans la plupart des situations, mais qui de l’énergie sombre changea
peut s’effondrer brusquement si la possibilité de tout. Le fait que l’accélération
tomber dans un état d’énergie encore plus bas cosmique s’accroisse réellement
est introduite. À l’échelle cosmique, un tel événe- semblait exclure tout scénario
ment pourrait se produire dans le cas de l’appari- basé sur un espace-temps fermé
tion spontanée d’une petite bulle dans un état de ou plat. L’éventualité d’un Big
vide véritable sous l’effet de phénomènes quan- Chill paraissait donc s’imposer,
tiques (du même ordre que ceux qui font appa- mais une option plus préoccu-
raître des particules virtuelles ; voir page 186). La pante s’invita alors. L’énergie
bulle se développant à la vitesse de la lumière, sombre n’était pas encore assez
désintégrerait toute matière sur son passage en bien comprise pour savoir
relâchant les liens des forces fondamentales – un comment elle se comporterait
cataclysme surnommé Big Slurp (Grand « Slurp », dans le futur, mais une pos-
onomatopée évoquant un bruit de succion). Bien sibilité (surnommée énergie
qu’un tel événement ne puisse pas survenir avant fantôme par Robert Caldwell
des dizaines de milliards d’années, des calculs en 2003) est que la vigueur de
basés sur des données telles que la masse du l’énergie sombre continuera à
boson de Higgs, récemment découvert, accrédi- augmenter de façon exponen-
teraient de plus en plus l’idée que notre Univers tielle, se manifestant à la longue
est en effet dans un fragile état métastable. jusqu’aux petites échelles avec
une force suffisante pour mettre
toute matière en pièces dans un
Big Rip (Grand Déchirement).
Andrei Linde suggéra en 2002 que l’énergie sombre pourrait bien inverser les
effets qu’elle suscite dans l’Univers en précipitant ce dernier vers un Big Crunch.
La confirmation du fait que l’énergie sombre semble avoir modifié son compor-
tement au fil du temps (voir page 186) ne fait qu’ajouter au doute entourant les
prédictions de son comportement futur.
Le destin de l’Univers 203

L’expansion accélère
DISTANCE MOYENNE ENTRE LES GALAXIES en raison de l’énergie sombre
Les éventuels destins de l’Univers
furent traditionnellement évalués en L’expansion
fonction du paramètre de densité Ω, reste constante
mais la découverte de l’énergie L’expansion ralentit un
=0
sombre semble devoir l’emporter <1 peu mais continue pour
sur les autres possibilités. toujours
=1 L’expansion ralentit
et va bientôt s’arrêter
Présent

>1

L’expansion s’inverse
sous l’effet de la gravité

TEMPS

Pas tout à fait la fin ? Si l’idée d’un crépuscule cosmique long et


froid ou d’un déchirement dramatique de toute matière ne réchauffe pas le
cœur, alors les idées concernant le multivers (voir page 197) font naître un
peu d’espoir pour un futur lointain. D’après le modèle de l’inflation éternelle,
de nouveaux univers fleurissent sans cesse, et l’un d’eux peut même surgir
à l’intérieur de notre propre région de l’espace-temps avant que s’établisse
une longue obscurité. Alternativement, le modèle d’Univers cyclique de Paul
Steinhardt et Neil Turok peut fournir une autre manière de régénérer l’Univers,
même si elle survient longtemps après que tout ce qui est intéressant dans le
nôtre se soit dissipé.

L’idée clé
Comment l’Univers
finira-t‑il – d’ailleurs,
finira-t‑il un jour ?
204 Glossaire

Glossaire
Amas globulaire de doughnut) de de supernova. De Galaxie active
Agglomérat sphérique planétoïdes faits de nombreuses étoiles à Galaxie dont les régions
et dense d’étoiles glaces situé juste au-delà neutrons se comportent centrales rayonnent
anciennes à grande de l’orbite de Neptune. au début comme des de grandes quantités
durée de vie, gravitant pulsars. d’énergie.
autour d’une galaxie. Chandelle standard
Tout objet céleste dont Étoile binaire Géante rouge
Amas ouvert on connaît l’éclat absolu, Paire d’étoiles en orbite Étoile passant par une
Vaste groupe d’étoiles ce qui permet d’estimer l’une autour de l’autre. phase de son évolution
jeunes et brillantes nées sa distance à partir de durant laquelle sa
récemment d’une même la mesure de son éclat Étoile de Wolf-Rayet luminosité s’accroît
nébuleuse à formation apparent. Étoile de très grande considérablement, ce qui
stellaire. masse, développant des entraîne l’expansion de
Comète vents stellaires si violents ses couches externes et
Année-lumière Agrégat de roche et que ses couches externes le refroidissement de sa
Distance parcourue en de glace provenant sont soufflées. surface.
un an par la lumière (ou des confins du
Étoile variable Jets relativistes
d’autres rayonnements Système solaire.
Étoile dont l’éclat varie, Faisceaux de particules
électromagnétiques),
Espace-temps soit à la suite d’une accélérées à des vitesses
équivalant à environ
« Variété » géométrique interaction avec une proches de celle de la
9 461 milliards de
à quatre dimensions autre étoile, soit en lumière, éjectés auprès
kilomètres.
dans lequel les raison des spécificités de d’objets célestes comme
Astéroïde trois dimensions l’étoile elle-même. des trous noirs.
L’un des innombrables d’espace sont imbriquées
Ligne de gel
objets célestes rocheux du avec la dimension du Fusion nucléaire
Point de tout système
Système solaire interne. temps, donnant lieu Union sous haute
planétaire où le
aux effets des relativités température et haute
rayonnement de l’étoile
Atmosphère restreinte et générale. pression de noyaux
centrale est assez faible
Enveloppe de gaz atomiques légers pour
pour que la glace d’eau
confinée par gravité Étoile en constituer de plus
et d’autres composés
autour d’une planète Énorme boule de massifs en relâchant
chimiques volatils
ou d’une étoile. gaz dont le cœur est de grandes quantités
subsistent à l’état solide.
suffisamment chaud d’énergie. La fusion est
Binaire à éclipse et dense pour que s’y le processus grâce auquel Naine blanche
Système binaire dont amorcent des réactions les étoiles brillent. Cœur se refroidissant
les étoiles passent de fusion nucléaire lentement et subsistant
régulièrement l’une grâce auxquelles l’étoile Galaxie
après la mort d’une
devant l’autre, brille. Assemblage autonome
étoile d’une masse
produisant une baisse d’étoiles, de gaz et
inférieure à huit fois
globale d’éclat. Étoile à neutrons d’autres composants
celle du Soleil.
Cœur effondré d’une dont la taille se mesure
Ceinture de Kuiper étoile très massive que en milliers d’années- Naine brune
Anneau (en forme produit une explosion lumière. Étoile « avortée » d’une
Glossaire 205

masse insuffisante de sa compagne Rayonnement Supernova


pour que la fusion de et causant de rares électromagnétique Explosion cataclysmique
l’hydrogène s’amorce explosions. Type d’énergie qui marque la fin d’une
dans son cœur. fait de l’union étoile.
Nuage d’Oort d’ondes électriques
Naine rouge Ensemble de noyaux et magnétiques se Sursaut
Étoile bien moins massive cométaires enveloppant propageant dans le vide Énorme relâchement
que le Soleil – petite, le Système solaire, à la vitesse de la lumière. de particules à haute
d’un faible éclat, avec d’une taille de près énergie à la surface
une basse température de de deux années-lumière. Séquence principale d’une étoile provoqué
surface. Terme utilisé pour par un court-circuit
Planète désigner la longue phase dans son champ
Nébuleuse Corps sphérique de l’évolution stellaire magnétique.
Nuage de gaz et de gravitant autour durant laquelle l’étoile
poussières flottant dans d’une étoile, d’une est assez stable et brille Transit
l’espace. Les nébuleuses masse et d’une gravité en raison de la fusion de Passage d’un corps
sont le milieu où suffisante pour purger l’hydrogène en hélium. céleste devant la face
naissent les étoiles et son voisinage orbital d’un autre.
dans lequel elles se d’autres corps célestes, Spectroscopie
répandent à la fin de à l’exception de ses Étude de la distribution Trou noir
leur vie. propres lunes. des couleurs de la supermassif
lumière que rayonnent Trou noir d’une masse
Nébuleuse planétaire Planète naine les étoiles et autres objets égale à celle de millions
Nuage de gaz en Objet planétaire célestes, fournissant des d’étoiles, supposé
expansion formé à la d’une masse insuffisante informations sur leur se trouver au centre
fin de l’évolution d’une pour être qualifiée composition chimique, de nombreuses
étoile géante rouge de planète. leur taille et leurs galaxies.
par l’expulsion de ses déplacements à travers
couches externes. Pulsar l’espace. Unité astronomique
Étoile à neutrons Unité de longueur
Nova en rotation rapide dotée Supergéante équivalente à la distance
Système binaire dont d’un champ magnétique Étoile massive moyenne entre la Terre
une composante est intense qui canalise extrêmement lumineuse et le Soleil, soit environ
une naine blanche son rayonnement dont la masse vaut de 10 150 millions
soutirant la matière en deux étroits faisceaux. à 70 fois celle du Soleil. de kilomètres.
206 Index

Index
51 Pegasi b 96-97, 100 Charon 42-43 Éris 40-41 spirale 138, 141, 144, 149-
chauffage par effet de marée 36- éruption solaire 53, 55, 90 150, 152, 156, 181
A 37, 39, 48, 104 étoile(s) spirale barrée 137, 139, 144-
Abell, George 111, 157-158 Chklovski, Iossif 77, 109-111, à neutron 121-122, 124-128, 145, 147
accélérateur de particules 165- 128, 131 130-131, 133, 189, 191, Galilée 8-9, 11-12, 52, 136
166, 183, 185 classes de luminosité 116, 119 204-205 Gamow, George 73-74, 77, 79,
accrétion classification MK 116, 119 à quarks 127 108-109, 164-165, 168-169
de cailloux 16-17, 19, 33-34 collisions de galaxies 148-149, Ae/Be de Herbig 86 Ganymède 36-38
par collision 17 154, 157 binaire 54, 56, 77, 92-95, géante
AGN 155 comète 13, 15, 44-47, 80, 102, 113, 204 de gaz 32-35, 91, 100-101
Alcor 92 204 de Barnard 88, 96 de glaces 21-22, 32-35
Alpher, Ralph 164-165, 168-169, constante de Tabby 194 rouge 66, 76-77, 79, 82, 108-
176, 178 cosmologique 161, 184, 186 de Wolf-Rayet 116-117, 111, 118, 128, 139, 168,
amas de Hubble 161-162, 184 123, 204 174, 204-205
de galaxies 135, 145, 151, Copernic, Nicolas 4-5, 8, 12, 161 du pistolet 142 géocroiseur 45
156-158, 172, 180-182, cosmologie branaire 197-198, 201 -monstre 123, 172, 174-175 globule de Bok 84-86
190, 194 courant d’étoiles de la Grande multiples 92-93, 124 grand bombardement tardif 20-22
globulaire 81-82, 89, 115, 137, Ourse 83 naine 7, 66, 82, 88, 91, 109, Guth, Alan 165-167, 196-197
141, 149, 157, 204 cryovolcanisme 39 142
stellaire 57, 67, 80-85, 91, cycle(s) pulsante 112, 115 H
116, 137, 142, 149, 193 CNO 73, 75, 77, 141, 168 sombre 132 Halley, Edmond 13, 44, 46, 52
archées 48-50 de Milanković 30 variable 54, 66, 84, 86, 92, Hartmann, Johannes 168, 170
Aristarque 14 de vie des étoiles 76 94, 112-115, 146, 160, 162, Hawking, Stephen 134
article B2FH 119, 121-122, 169 proton-proton 73-74, 77-78, 184, 204 héliosismologie 69, 71
astéroïde 12-13, 16-17, 22-23, 40- 87, 89-90, 141, 168, 174 eucaryote 50 héliosphère 15
41, 44-47, 131, 141, 143, 204 solaire 53-55 Europe 36-39, 49-50 Helmholtz, Hermann von 72
Cygnus A 152-153 évolution des galaxies 146, 148- Herman, Robert 164, 176, 178
B
Cygnus X-1 133, 135 149, 152, 156, 158 Herschel, John 59
Baade, Walter 120-121, 125-126, exoplanète 20, 54, 96-107, Herschel, William 5, 12-13, 32, 53,
129, 141, 145, 148, 152-153, D 192, 194 56, 80-82, 92-94, 124, 136, 178
158, 173 Darwin, George 25 expansion de l’Univers 154, 160, Hertzsprung, Ejnar 65-66, 76-77,
Barnard, Edward 81, 96, 170 delta Scuti 115 163-165, 184 81-82, 89, 108, 146
Bell, Jocelyn 125-127 destin de l’Univers 160, 200, 203 extrémophile 48-50, 106 Holmberg, Erik 148-149, 151
Bessel, Friedrich 56, 58-59, 124 diagramme de Hertzsprung- horizon des événements 133-134
Bételgeuse 60, 62, 108 Russell 64, 66, 68, 76, 87, 111 F Hoyle, Fred 109-110, 117-119,
Bethe, Hans 73-75, 78, 168-169 Dicke, Robert 194 Fleming, Williamina 63-65 121-122, 164-165, 168
Big Bang 5, 141, 162, 164-169, Dioné 39 formation Hubble, Edwin 5, 7, 144-148,
172-174, 177-179, 182, 185, 189, Doppler, Christian 60, 62 du Système solaire 16, 18, 156, 160-162, 164, 200
191, 194, 196, 198-199, 201 Draper (catalogue) 61, 63-64 24, 44 Huggins, William 8, 61-62, 80-81
Big Crunch 198, 200-202 durée de vie des étoiles 77 planétaire 19-20, 22, 33-34, hypernova 123, 175
Big Slurp 202 36, 44, 101-102 hypothèse de la nébuleuse 16-17
binaire E stellaire 81, 83-85, 120, 138-
à contact 93, 95, 128-129 E = mc2 73, 121, 165, 187, 189 139, 142, 144-146, 148-150, I
à éclipse 54, 94-95, 112-113, eau sur Mars 28-29 154, 171, 173, 177, 204 impact géant 24-25, 27
128, 204 Eddington, Arthur 68-70, 73-74, Friedmann, Alexander 160-161, inflation 165, 167, 196-197,
à rayons X 128, 131, 135 76-78, 108, 113-114, 116-117, 164, 200 199, 203
extrême 128, 131 132, 164, 170, 189-191 fusion de l’hélium 79, 109, 118 Io 36-37, 176
Bohr, Niels 61 effet IRAS 84-85
Bunsen, Robert 60-61, 63 de marée 17, 36-37, 39, 48, G
101, 104, 154 galaxie J
C de parallaxe 6, 58, 96 active 134, 140, 152-155, Jansky, Karl 140-141
Callisto 36-38 Doppler 60, 62, 94-95, 153, 177, 204 Jupiter 4, 6, 8, 12-13, 21-23, 32-
Canope 57 160, 162 de Seyfert 152-155 34, 36-38, 40, 44-45, 90-91, 96,
Carter, Brandon 192, 195 Zeeman 54 des Antennes 149 98, 100-101, 118, 176
ceinture de Kuiper 13-14, 16, 18, Einstein, Albert 68, 73, 121, 132, elliptique 139, 141, 147, 150- Jupiter chaud 100-102
21, 23, 40-42, 44-45, 47, 204 160-161, 164-165, 184, 186- 151, 154, 157-158, 177
Centaurus A 154 191, 200 elliptique géante 157-158 K
céphéide 7, 112-115, 117, 146, Encelade 37-39, 49-51 irrégulière 144, 146-147, 149 Kant, Emmanuel 16-17, 47, 136
160, 162-163, 184 énergie lenticulaire 144-147 kappa-mécanisme 114-115
Cérès 12-14, 40-45 du vide 186, 198-199 naine sphéroïdale 144, 147, Kapteyn, Jacobus 136-137
champ magnétique 15, 32, 38, sombre 184-187, 197-198, 150 Kelvin, William Thomson (Lord)
53-55, 86, 90, 114, 126-127, 205 201-203 primordiale 172, 174 72, 201
Index 207
Kepler, Johannes 4-5, 8, 52 multivers 7, 196-199, 203 Q de type Ia 7, 121, 123, 129-
Kirchhoff, Gustav 57-58, 60-61 quasar 133, 140, 152-155, 172- 130, 184-185
Kuiper Belt Object (KBO) 14-15 N de type II 121, 123, 171
174, 177, 190
Kuiper, Gerard 47, 128 naine quintessence 187 super-Terre 100, 102-103
blanche 66, 79, 88-89, 109, Système solaire 12-15
L 111, 124-126, 128-130, 171, R externe 13, 15, 21, 25, 32-33,
Laniakea 157-159 181, 184, 204-205 R Coronæ Borealis 114 36-37, 39, 41, 43, 45, 48, 106
Laplace, Pierre-Simon de 16 brune 88-91, 101, 204 radioastronomie 127, 153 interne 13, 15, 21-23, 45, 47,
Le Verrier, Urbain 13, 32 rouge 54, 87-91, 96, 205 radiogalaxie 154-155 106, 204
Leavitt, Henrietta 113, 146 naissance des étoiles 84 raies de Fraunhofer 60-61
Lemaître, Georges 160-162, 164- rayonnement T
Nebula 80-81, 144
165, 200 nébuleuse du Crabe 120-121 de Hawking 135, 201 T Aurigæ 128-129
lentille gravitationnelle 178, 181- Neptune 6, 13-14, 20-23, 25, 32- électromagnétique 9, 11, 188, T Tauri 84-87, 114
183, 189-191 204-205 taches solaires 8, 52-55
36, 39, 41-42, 44-45, 47, 102,
limite de Chandrasekhar 122, micro-onde de fond télescope spatial Hubble 9-10,
143, 204
125-126, 130, 184 cosmologique (CMBR) 162, 14, 37, 40, 42-43, 45, 47, 85,
Neptunes chauds 102 111, 147, 149, 151, 161, 163,
Linde, Andrei 167, 197, 201-202 164-166, 174, 176-177, 179,
neutrinos 75, 122, 181, 183 177-178, 184-185
loi 182, 185-186, 199, 201
de Bode 45 New General Catalogue (NGC) 81 Théia 26-27
Newton, Isaac 8-9, 11-13, 60, 95, réaction triple-alpha 109, 118,
de Hubble 7, 154, 161, 185 168, 170 théorie des mondes multiples
Lowell, Percival 14, 48 133, 189 196-197
notre place dans l’Univers 4, 6-7 Rees, Martin 134, 140, 172,
lune(s) Titan 9, 36, 38-39
nouveau-nés stellaires 86 200-201
joviennes 36-37 Toomre, Alar et Jüri 149-151
nova naine 129-130 réionisation 173
-océan 36, 39, 104 trou noir 123-128, 131-135,
nuage d’Oort 15-16, 44, 47, 205 relation masse-luminosité 76
lunettes et télescopes 8-9, 24, 140-143, 152-155, 157, 171-
nucléosynthèse 166-169, 171, relativité
36, 56, 80, 93, 120 173, 175, 177, 181, 191, 201,
175, 182 générale 68, 132, 160, 164,
Lynden-Bell, Donald 133-134, 204-205
183-184, 189-191, 204
140, 153, 155 type de galaxies 144, 154-156, 158
O restreinte 188-191, 204
M onde RR Lyræ 115, 162 U
MACHO 181-182 de densité 138, 145, 170 Rubin, Vera 180-181 unité astronomique (UA) 12-13,
magnétars 126 gravitationnelle 131, 133, 154, Russell, Henry 65-66, 76, 108 15, 21, 34, 40, 93, 106, 205
Mars 4, 6, 12-14, 17, 19, 21- 188-189, 191 univers bulle 197-198
S
23, 26-31, 40, 44-45, 48-51, Oort, Jan 47, 137, 180 Univers observable 166, 176-177,
Safronov, Viktor 17-19 196-197
59, 106 Öpik, Ernst 45-46, 69-70, 76, 78- Sagan, Carl 5, 105, 131, 193 Uranus 6, 13, 20-23, 32-36,
Mars Global Surveyor (MGS) 79, 108-109
29-30 Sagittarius A 141-142 44-45, 53
Oppenheimer, Robert 125, 127, 133 Sagittarius A* 140-143
matière noire 147, 150, 156, 167, origine de la Lune 24 Sandage, Allan 152-153, 161-163 V
174, 180-183, 186, 190-191,
197, 202 P Saturne 6, 9, 12-13, 20-23, 32- variables
Maury, Antonia 64-65, 93-94 Pacini, Franco 126-127 34, 36, 38 cataclysmiques 128-130
Maxwell, James 176, 188 Schiaparelli, Giovanni 28, 44, lumineuses bleues 117
panspermie 50
Mercure 6, 12, 14, 100, 103, 47-48 Vénus 6, 8, 12, 19, 48, 106
Payne, Cecilia 68, 70, 73
106, 190 Secchi, Angelo 61-63 vestige stellaire 124, 126, 128-
Pickering, Edward 63-65, 93- 129, 131, 135, 143
message d’Arecibo 193 SETI 107, 192-194
95, 113 vie
Messier 77 152 Shapley, Harlow 113, 137, 140,
piliers de la création 85 extraterrestre 48-49, 101,
Messier 87 157 144, 147, 161, 164
planète 105, 192
météorite 46, 49-51, 72, 123 Sirius 4, 56-57, 60, 62, 88, 124
chthonienne 102 Soleil 12-15, 52-55 sur Mars 28, 31, 48, 51
méthode de carbone 101, 103
de la vitesse radiale 98-100 source d’énergie des étoiles 72- vitesse de la lumière 62, 132-133,
de fer 103 73, 76-77 176, 188-189, 196, 202, 205
du transit 97-100 naine 12, 14, 21, 40-42, 205
migration planétaire 20, 34, 101 spectroscopie 8, 36, 58, 60, 68, Voie lactée 5-7, 56, 89, 92, 96,
planétésimaux 18-19, 21-22, 34 71, 205 99, 113, 120, 135-146, 149,
milieu interstellaire 15, 169-171,
Pluton 13-15, 19, 39-43, 45, 47 structure des étoiles 68-69, 73, 152, 156-157, 160-161, 168, 180
174-175
Pogson, Norman 56-57 76, 79
Minkowski, Hermann 188, 190 W
Population I 141, 144, 162, 173 Struve, Otto 97, 101
Minkowski, Rudolph 120-121, W Virginis 114
152-153 Population II 115, 140-142, 144- superamas
145, 162, 173 Waterston, John 72
Mira 112, 115 de galaxies 165, 172, 182 Weizsäcker, Carl Friedrich von
mission Kepler 97-99, 101, 194 Population III 172-175 stellaire 149
principe 73-74
Mizar/Mizar A 92-95 supergéante 66, 76, 114, 116-119, WIMP 181-183
modèle anthropique 195 123-124, 168, 174, 205 Wov ! 193
de fusion 74 d’exclusion de Pauli 125 bleue 116-117, 135
de Nice 20-22 processus-r 119, 122-123 jaune 59, 117 Z
géocentrique 5-6 processus-s 119 rouge 116-117 zone
héliocentrique 5, 8 Proxima du Centaure 88, 90 supernova 83, 85, 97, 107, Goldilocks 104
mort thermique 201 Ptolémée 4-6, 80 118-126, 128-129, 141, 145, habitable 104-107
mouvement rétrograde 6 pulsar 96-97, 125, 127, 131, 149-150, 153, 169-171, 174-175, Zwicky, Fritz 120-121, 125-126,
M-théorie 198 204-205 183-186, 204-205 129, 156-158, 180-181, 183
Remerciements
Merci à Paul Crowther, Matthew Kleban, Hal Levison, Giuliana de Toma
et aux nombreux chercheurs qui ont aimablement pris le temps de m’informer des domaines
les plus excitants de l’astronomie moderne apparus au cours de ces derniers mois.
Ce livre n’aurait pas été possible sans l’assistance de Tim Brown et de Dan Green
– merci à tous les deux pour leurs efforts surhumains !
Et par-dessus tout, merci à Katja pour son soutien infaillible.

Crédits iconographiques : p. 26 – Robin Canup, Southwest Research Institute ;


p. 31 – NASA/JPL/Malin Space Science Systems ; p. 42 – NASA, ESA, H. Weaver (JHU/APL), A. Stern
(SwRI), and the HST Pluto Companion Search Team ; p. 51 – NASA ; p. 82 – ESO ;
p. 91 – ESO/I. Crossfield ; p. 138 – User : Ddbenbenn via Wikimedia ; p. 159 – 2dF Galaxy Redshift
Survey Team ; p. 185 – NASA/ESA, The Hubble Key Project Team and the High-Z Supernova Search Team ;
p. 193 – Pengo via Wikimedia.

Toutes les autres illustrations ont été réalisées par Tim Brown.

L’édition originale de cet ouvrage a été publiée en 2016 au Royaume-Uni par Quercus Publishing
Plc sous le titre 50 ideas you really need to know Astronomy.

© Quercus 2016

Originally entitled 50 ideas you really need to know Astronomy.


First published in 2016 in the UK by Quercus Publishing Plc.

© Dunod, pour la traduction française, 2018


11 rue Paul Bert, 92240 Malakoff
www.dunod.com
ISBN 978‑2-10‑077754‑9

Vous aimerez peut-être aussi