Vous êtes sur la page 1sur 88

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro 7
Revue d’information scientifique

Quand l’Univers...
Solstice d’été 2009

...fait boum !
ÉLÉMENTAÍRE
De l’infiniment petit à l’infiniment grand

Pour ce septième numéro, nous quittons cette bonne crets, et il continue à fournir des informations précieuses
vieille planète Terre pour nous embarquer dans un voyage sur la structure de l’Univers primordial. Ainsi, la mission
à travers l’espace et le temps. En effet, Élémentaire se pen- Planck, lancée le 14 mai 2009 et décrite dans « Expérience
che aujourd’hui sur... notre Univers tout entier, son histoi- », va s’intéresser à des aspects encore méconnus du rayon-
re et ses grandes caractéristiques. C’est l’objet d’une vaste nement fossile qu’elle captera grâce à des appareils d’une
discipline, appelée cosmologie, qui est parvenue au cours grande sensibilité, les bolomètres, que nous décrivons dans
des dernières années – et ce n’est pas un petit succès – à « Détection ». On pourra ainsi tracer des cartes du ciel très
élaborer une vision cohérente de ces sujets, vision que précises décrivant les caractéristiques de ce rayonnement.
vous allez découvrir au fil de ces pages, en commençant Pour tirer de ces cartes des informations supplémentaires
par notre « Apéritif » ! concernant les caractéristiques de l’Univers primordial, il
Ainsi que nous vous le rappelons dans « Histoire », cette faut le plus souvent passer par des méthodes inspirées de
volonté d’expliquer le cosmos, l’ordre céleste qui nous la transformation de Fourier, un outil mathématique pré-
entoure, est profondément enracinée dans la nature hu- senté dans « Analyse ». À l’heure où la mission Planck
maine. Mais ce n’est qu’avec l’avènement d’une astrono- vient d’être envoyée dans l’espace, nous avons demandé
mie de précision et de la théorie de la relativité générale à Jean-Loup Puget, l’un des chefs d’orchestre de ce projet,
que la cosmologie moderne prend son envol au début du de nous parler dans l’ « Interview » de ce travail de longue
vingtième siècle. Elle a ensuite bénéficié des avancées de haleine, rassemblant des communautés très différentes de
la physique des constituants élémentaires de la matière physiciens et d’ingénieurs.
pour donner naissance à son propre modèle standard, que
nous décrivons dans « Théorie ». Tout commence il y a Nous aborderons aussi d’autres aspects de la cosmologie
environ 14 milliards d’années, avec le « Big Bang », une au fil de ce numéro. « Icpackoi » reviendra sur l’actualité
période où l’Univers très dense et très chaud connaît une de deux autres satellites d’observation, Fermi et Pamela,
expansion rapide. À mesure qu’il se refroidit et se dilue, tandis que « Centre » évoquera les différents sites où l’on
les premiers noyaux se forment , puis les premiers atomes, cherche actuellement à détecter des signaux d’un type
et enfin des nuages de gaz qui seront les berceaux des nouveau : les ondes gravitationnelles. Enfin, vous retrouve-
premières étoiles, galaxies, amas de galaxies.. pour fina- rez les deux rubriques récurrentes d’Élémentaire : « LHC »
lement aboutir à l’Univers que nous connaissons. Mais si vous parlera du démarrage mouvementé de la machine en
ce modèle décrit de façon satisfaisante les observations septembre 2008, tandis qu’ « Énergie nucléaire » évoquera
accumulées au fil des décennies, il possède aussi sa part le projet ITER dont l’objectif, à terme, est la production
d’ombre. En particulier sa composition énergétique com- d’énergie par fusion thermonucléaire.
prendrait environ 23% d’une matière sombre, assez mys-
térieuse et 72% d’une déroutante « énergie noire », que Du haut de ce numéro, 14 milliards d’années nous con-
nous examinons en détail dans la « Question Qui Tue ». templent ! De quoi vous laisser le temps de savourer votre
Fort heureusement, pour nous aider dans cette quête lecture, d’ici à la parution de notre prochain (et dernier)
de notre passé lointain, il existe un témoin privilégié de numéro. Il sera à nouveau consacré à la physique des par-
l’Univers primordial. En effet, nous sommes en mesure de ticules, et plus particulièrement, aux phénomènes (atten-
détecter un rayonnement fossile, remontant à 380 000 ans dus, espérés, supposés...) au-delà de notre vision actuelle
après le Big Bang. Si ce dernier (ou CMB) a été observé de la physique des particules. D’ici là, bonne lecture !
dans les années 1960, comme nous vous le rappelons
dans « Découverte », il est loin d’avoir livré tous ses se-

Revue d’information paraissant deux fois par an, publiée par : Élémentaire, LAL, Bât. 200, BP 34, 91898 Orsay Cedex
Tél. : 01 64 46 85 22 - Fax : 01 69 07 15 26. Directeur de la publication : Sébastien Descotes-Genon
Rédaction : N. Arnaud, M.-A. Bizouard, S. Descotes-Genon, L. Iconomidou-Fayard, H. Kérec, G. Le Meur, P. Roudeau, J.-A. Scarpaci, M.-
H. Schune, J. Serreau, A. Stocchi.
Illustrations graphiques : S. Castelli, B. Mazoyer, J. Serreau. Maquette : H. Kérec.
Ont participé à ce numéro : J.-L. Bobin, S. Digel (SLAC).
Remerciements : S. Plaszczynski, F. Cavalier (LAL) et nos nombreux relecteurs.`
Site internet : C. Bourge, N. Lhermitte-Guillemet, http://elementaire.web.lal.in2p3.fr/
Prix de l’abonnement : 3 euros pour le numéro 8 (par site internet ou par courrier)
Imprimeur : Imprimerie Louis Jean - 05300 Gap . Numéro ISSN : 1774-4563
Apéritif p. 4
L’archéologie cosmique :
reconstruire l’histoire de
ÉLÉMENTAÍRE
De l’infiniment petit à l’infiniment grand

notre univers Accélérateurs p. 47


Un sujet très sérieux :
les accélérateurs co(s)miques
Histoire p. 9
Petite histoire de la cosmologie
Découvertes
Le rayonnement fossile
p. 53

Interview p. 14
Jean-Loup Puget
Théorie p. 59
Le modèle cosmologique standard

Centre de
recherche p. 19 La question qui tue p. 77
Observatoires d’ondes gravita- Combien pèse le vide ?
tionnelles

Expérience p. 29 Énergie nucléaire p. 81


La mission Planck
ITER : vers une future source
d’énergie ?

Détection p. 34
Bolomètres
Le LHC p. 67
Démarrage du LHC : le 10 septem-
bre 2008

Retombées p. 37 ICPACKOI p. 71
Le GPS GLAST : une nouvelle « star »
dans le ciel
PAMELA : alerte aux positrons !

Analyse p. 42 Abonnement : faites votre demande d’abonnement sur le


serveur : http://elementaire.web.lal.in2p3.fr/ ou à l’adresse : Groupe
Transformée de Fourier et Élémentaire LAL, Bât 200, BP 34, 91898 Orsay cedex. Numéro 8 (port
applications au CMB inclus) : 3 euros, chèque libellé à l’ordre de «AGENT COMPTABLE
SECONDAIRE DU CNRS». Pour les administrations les bons de
commande sont bienvenus.
Contact : elementaire@lal.in2p3.fr
Apéritif
L’archéologie cosmique : reconstruire
Le modèle standard de la cosmologie
La cosmologie est la science qui étudie l’Univers dans son ensemble.
Tels des archéologues cosmiques, les cosmologues tentent de retracer
son histoire à partir de ce qu’ils peuvent en observer aujourd’hui. Si l’être
humain s’est toujours interrogé sur l’origine et l’histoire de l’Univers, l’ère de
la cosmologie moderne, c’est-à-dire de la cosmologie quantitative, basée
sur des observations et des mesures précises, a commencé seulement au
cours du siècle dernier, dans les Années Folles.
À grande échelle
En astronomie, il existe plusieurs unités pour exprimer les Deux évènements marquent son avènement. En 1929, Edwin
distances des objets observés, qui sont adaptées à l’ordre Hubble et Milton Humason découvrent la loi de l’expansion
de grandeur de cette distance. Par exemple, pour les universelle : toutes les galaxies s’éloignent de nous avec une
planètes du système solaire, on emploie comme unité le vitesse proportionnelle à leur distance. Le principe cosmologique,
km. Ainsi Pluton, l’ex-planète la plus éloignée du Soleil est socle de la cosmologie moderne hérité des astronomes du passé
à 9,5 milliards de kilomètres (km). Pour une étoile de notre
comme Giordano Bruno ou Galilée, suppose que notre position
Galaxie, on utilise plutôt l’année-lumière qui est la distance
dans l’Univers n’a rien de particulier : nous sommes situés, non
que parcourt la lumière dans le vide pendant un an, soit 9 460
milliards de km. Le diamètre de notre Galaxie est d’environ pas au centre de l’Univers, mais plutôt en un point comme
100 000 années-lumière. Au-delà des échelles galactiques, n’importe quel autre. On doit donc en conclure que les galaxies
il est d’usage d’employer une autre unité : le parsec, qui est s’éloignent, non pas de « nous », mais les unes des autres,
la distance à laquelle on observe la distance Terre-Soleil remettant en question l’idée séculaire d’un Univers statique.
sous un angle d’une seconde d’arc, c’est-à-dire 3,26 années-
lumière. Ainsi le Groupe Local, qui forme un ensemble de 30 Quelques années auparavant, au début des années 1920, certains
galaxies les plus proches de nous, a un diamètre de 3 millions théoriciens, comme Georges Lemaître ou Alexander Friedmann,
de parsec. Au-delà de la centaine de millions de parsec, on
avaient, eux aussi, fait une découverte importante. À partir de la
parle de distance à grande échelle ou d’échelle cosmologique.
toute nouvelle théorie de la relativité générale d’Albert Einstein,
Il s’agit donc de distances largement supérieures à celles
entre galaxies. On est capable d’observer des objets à de ils avaient déduit des lois régissant la dynamique de l’Univers
telles distances cosmologiques. Par exemple la galaxie la plus dans son ensemble et montré que les solutions génériques des
éloignée jamais observée est à environ 4 milliards de parsecs équations correspondaient, non pas à un Univers statique, mais
de nous. à un Univers en expansion ! Cette vision, corroborée par la
1 année-lumière = 9460 milliards de km. théorie et l’observation, marque la naissance de la cosmologie
1 parsec = 3,26 années-lumière = 30 800 milliards de km. moderne.

Ex-planète La progression des observations cosmologiques, permettant des


Selon la dernière définition de l’Union Astronomique
mesures de plus en plus précises concernant l’Univers à grande
Internationale (août 2006), une planète est un corps céleste
qui est en orbite autour du Soleil, qui possède une masse
échelle, et le développement conjoint des idées théoriques
suffisante pour que sa gravité l’emporte sur les forces de ont donné lieu à une description cohérente de l’histoire de
cohésion de corps solide pour lui donner une forme presque notre Univers remontant de nos jours jusqu’à environ 13,7
sphérique, et qui a éliminé tout corps se déplaçant sur une milliards d’années dans le passé : c’est le « modèle standard »
orbite proche. Cette définition implique que le système de la cosmologie. Celui-ci inclut le modèle connu sous le nom
solaire possède actuellement huit planètes : Mercure, Vénus, de « Big Bang », mais aussi une phase d’expansion accélérée
la Terre, Mars, Jupiter, Saturne, Uranus et Neptune. durant les tous premiers instants de l’Univers, appelée « inflation
Cette nouvelle définition a nécessité dix jours de discussion cosmique ». Il repose sur le principe cosmologique ainsi que
entre 400 scientifiques de l’UAI. En effet, certains
sur certaines hypothèses de base comme, par exemple, celle
rechignaient à faire perdre à Pluton son statut de planète.
En lot de consolation, l’UAI a créé une nouvelle classe
d’homogénéité et d’isotropie à grande échelle. Les propriétés
d’objets, les planètes naines, trop petites pour avoir « fait globales de l’Univers sont caractérisées par un certain nombre
le ménage » sur leur orbite. Les premiers membres de ce de paramètres, comme son contenu énergétique, la quantité
club sont l’ancienne planète Pluton et les anciens astéroïdes relative de matière et d’antimatière, l’époque de formation des
Cérès et Éris.
page 4

ÉLÉMENTAÍRE
l’histoire de notre univers
13,7 milliards d’années
premières étoiles, etc. Au total 21 paramètres indépendants permettent Ce chiffre, souvent appelé, par abus de
de rendre compte de l’Univers observé à ce jour dans le cadre du modèle langage, « âge de l’Univers » est en fait le
standard de la cosmologie (voir « Théorie »). temps jusqu’auquel les mesures et la théorie
permettent de remonter. Il correspond à une
époque où l’Univers était si dense que les lois
La Terre est ronde... mais l’Univers est plat ! de la physique que nous avons découvertes
au cours de notre histoire ne constituent plus
Une caractéristique importante de l’Univers est son contenu énergétique, une description cohérente. En particulier si
on remonte plus avant le temps, on se heurte
qui détermine son évolution. De façon remarquable, il est possible de
à la « barrière de Planck », échelle d’énergie
déterminer la densité d’énergie totale de l’Univers sans pour autant avoir au-delà de laquelle les effets gravitationnels
une compréhension précise du détail de son contenu. On utilise pour cela et quantiques devraient être d’importance
un aspect fondamental de la théorie de la relativité générale : la présence comparable et où une théorie quantique de
d’énergie déforme l’espace-temps. C’est cette déformation, appelée la gravitation, encore manquante, devient
« courbure », qui est responsable de la force de gravitation dont nous nécessaire.
observons les effets dans l’Univers tout entier.

La quantité totale d’énergie par unité de volume de l’Univers est directement


reliée à la courbure de l’espace, c’est-à-dire la partie spatiale de l’espace-
temps. Selon que cette dernière est positive, négative ou nulle, on parle
d’un univers « fermé », « ouvert », ou « plat ». Pour faire une analogie
entre notre espace tridimensionnel et des objets bidimensionnels, ces trois
cas correspondraient respectivement à un ballon, une chips, ou une table
qui se dilate avec le temps du fait de l’expansion. Si les deux premières
situations sont les plus génériques, le cas d’un univers plat correspond à
une valeur particulière de la densité d’énergie, appelée « densité critique »
et donnée par la formule :
ρc = 3H2c2/8πG ~ 9 x 10 -10 J/m3,
© Hubble

où H est la constante de Hubble, c la vitesse de la lumière dans le vide et


G la constante de Newton. Elle équivaut à la densité énergétique d’un gaz
d’hydrogène contenant environ 6 atomes par m3.

Pendant longtemps, il fut difficile de déterminer expérimentalement à quel


cas correspond notre univers, étant donné qu’il est nécessaire d’observer
des objets extrêmement lointains pour mettre en évidence une courbure
(comme il est difficile pour une fourmi à la surface de la Terre de se rendre
compte qu’elle est ronde). Un des résultats majeurs des satellites COBE Pluton et ses trois satellites connus :
dans les années 1990, et WMAP 10 ans plus tard, qui mesurèrent avec Charon, Nix et Hydra, vus par le téléscope
précision le rayonnement fossile, mis en évidence en 1965 par Penzias spatial Hubble.
et Wilson (voir « Découverte »), fut de déterminer que l’Univers est
Homogénéité et isotropie
(spatialement) plat à grande échelle, et donc que la densité totale d’énergie
L’hypothèse d’un Univers parfaitement
est égale à la densité critique au pour cent près. homogène, sans grumeaux, tel une
sauce béchamel réussie n’est sûrement
Si l’espace est plat, qu’en est-il de l’espace-temps ? Sa courbure est reflétée pas vraie aux échelles galactiques ou
par le taux d’expansion. Pour mesurer ce dernier, la bonne vieille méthode intergalactiques (les galaxies jouant
de Hubble et Humason reste encore la meilleure : on mesure la distance le rôle de grumeaux), mais s’avère
et la vitesse d’éloignement d’objets aussi lointains (c’est-à-dire anciens) relativement bonne aux très grandes
que possible et on en déduit le taux d’expansion. Facile à dire, pas si échelles (cosmologiques). Il en va de
facile à faire, notamment à cause du fait que les mesures de distances sont même pour l’hypothèse d’isotropie qui
stipule qu’il n’existe a priori aucune
difficiles pour des objets lointains. On utilise pour cela des « chandelles
direction privilégiée dans l’Univers... à
standard », objets astrophysiques dont on connaît la luminosité intrinsèque. grande échelle.
page 5

ÉLÉMENTAÍRE
L’archéologie cosmique : reconstruire
Rayonnement fossile En comparant avec la luminosité mesurée, on en déduit la distance.
Notre univers est empli d’un rayonnement
Diverses campagnes d’observations d’un grand nombre de supernova de
électromagnétique vestige de l’époque de
la formation des premiers atomes. Il s’agit type Ia proches et lointaines, comme le Supernova Cosmology Project
d’un rayonnement thermique à 2,7 K. et le High z Supernova Search ont permis de mesurer le taux d’expansion
de l’Univers ainsi que sa variation, c’est-à-dire le taux d’accélération (ou
de décélération) de l’expansion, avec un résultat inattendu : l’expansion
COBE et WMAP de l’Univers s’accélère ! Ce résultat, confirmé depuis par les mesures de
Ces deux expériences ont mesuré les WMAP, est surprenant. En effet, une des conséquences génériques des
anisotropies du rayonnement fossile de
équations de la relativité générale est que l’expansion devrait ralentir car
photons (ou CMB de son acronyme anglais
pour «cosmic microwave background») freinée par la gravitation, du fait de sa nature attractive. Tout se passe donc
datant de l’époque où l’Univers avait comme si la gravité devenait répulsive à grande échelle...
environ 380 000 ans (voir « Découverte »).
La cartographie de l’énergie du
rayonnement montre des régions plus ou Où l’on s’aperçoit... que l’on ne voit pas
moins « chaudes ». La relation entre la
taille réelle (supposée connue) d’une région grand-chose
chaude/froide et celle observée sur le ciel
dépend directement de la courbure spatiale Grâce aux observations, nous connaissons une grande partie des objets
de l’Univers. C’est ainsi que WMAP a qui peuplent l’Univers : planètes, étoiles, galaxies, amas de galaxies,
montré en 2006 que l’Univers est plat, et nébuleuses (gaz et poussière interstellaire), supernovæ (explosions d’étoiles
donc que sa densité énergétique est égale en fin de vie), rayonnement fossile, trous noirs, étoiles à neutrons, rayons
à la densité critique avec une précision de
cosmiques, sursauts gammas, quasars (noyaux actifs de galaxie)... Tous
l’ordre de 1%.
ces phénomènes ont été vus principalement par des télescopes optiques
(longueur d’onde visible ou dans l’infrarouge) terrestres ou spatiaux, ou
par des antennes (fréquences radio). Parmi les télescopes modernes qui
ont apporté beaucoup de nouvelles connaissances ces dernières années,
on peut citer le satellite Hubble, le plus grand radio-télescope du monde,
Arecibo, situé à Porto Rico, les satellites permettant des observations dans
la gamme des rayons gamma ou X (comme le Compton Gamma-Ray
Observatory et le Chandra X-ray Observatory), ou encore le Very Large
Telescope dans le désert d’Atacama au Chili.
© VLT

Le Very Large Telescope au Chili.


Supernova de type Ia
Les supernovæ sont de gigantesques explosions d’étoiles en fin de vie lors desquelles
les éléments chimiques qu’elles ont synthétisés sont violemment expulsés dans
l’espace intersidéral. On les classe en différentes catégories selon le contenu chimique
de la matière expulsée. Par exemple, on parle de supernova de type I si de l’hydrogène
est présent, et de type II dans le cas contraire. En l’occurrence, les types Ia recèlent
du silicium. Contrairement à toutes les autres, où l’explosion est due à l’effondrement
gravitationnel du cœur de l’étoile, les supernovæ de type Ia résultent de l’explosion
thermonucléaire d’étoiles appelées naines blanches, suite à l’accrétion de matière
arrachée à une étoile voisine, voire à une collision avec celle-ci. Lorsque la quantité de
matière accrétée dépasse une valeur critique, appelée masse de Chandrasekhar (1,38
fois la masse solaire), l’étoile explose. La luminosité émise dépend essentiellement
© VLT

de la masse et est donc sensiblement la même pour toutes les supernovæ de type
Ia, indépendamment du mécanisme d’accrétion à l’origine de l’explosion. Cette
Une image (dans la gamme des rayons particularité remarquable fait de ces supernovæ des étalons lumineux qui permettent
X) des restes de la supernova de Tycho une mesure fiable de distance à partir de leur luminosité apparente sur Terre (qui
Brahé, qui explosa en 1572 dans la diminue comme le carré de la distance) : on parle de «chandelles standard ».
constellation de Cassiopée. Il s’agit
d’une supernova de type Ia.
page 6

ÉLÉMENTAÍRE
l’histoire de notre univers
Le Supernova Cosmology Project et le High z Supernova Search
Ce sont deux projets composés d’équipes internationales qui ont utilisé
pendant quelques années les mesures de supernova de type Ia faites par
plusieurs télescopes situés dans les grands observatoires (Chili, Hawaï,
Australie...) de par le monde. Les physiciens travaillant sur ces projets ont
d’abord montré que les supernovæ de type Ia ont la particularité d’avoir
toutes la même luminosité intrinsèque (flux de photons émis). Mesurer
leur luminosité apparente permet alors d’en déduire leur distance.
Ils ont par ailleurs mesuré le redshift des supernovæ. Le redshift, ou
« décalage vers le rouge » dû à l’effet Doppler (voir « Théorie »), permet
de déterminer la vitesse d’éloignement de la supernova. En comparant
la distance et le redshift, ils ont mis en évidence que les supernovæ les
plus distantes sont 20% plus lointaines que ce qu’elles devraient être si
l’expansion de l’Univers était celle attendue pour un Univers empli de
matière « ordinaire » soumise à une gravité « habituelle ».

Luminosité apparente de supernovæ de type


Mais quand on fait les comptes, on s’aperçoit que la quantité de matière Ia en fonction de leur redshift (décalage
« visible » représente à peine 5 % du contenu énergétique total de l’Univers. spectral). La partie en rose et bleu en bas
Où est le reste ? Depuis les années 1930, on subodore l’existence d’une est un zoom de la partie correspondante
forme de matière massive mais invisible dont on ne détecte que les effets en haut. La luminosité apparente des
gravitationnels. Cette « matière noire » permet d’expliquer un phénomène supernovæ à grand décalage spectral est
étrange : les galaxies périphériques, au sein d’amas, tournent plus vite inférieure (et sa magnitude, supérieure)
à ce qui est attendu dans le cadre d’un
qu’attendu si on suppose que la masse de l’amas est reflétée par sa seule
modèle d’Univers en expansion constante
luminosité. Il semble donc qu’une partie importante de la masse des amas ou décélérée.
de galaxies ne soit pas visible ! Les données les plus récentes concernant
les amas de galaxies ont permis de montrer que cette matière invisible
contribue pour environ 23 % de la densité d’énergie de l’Univers. Mais la
nature de la matière noire reste un mystère. Elle pourrait être composée de
nouvelles particules prédites par certaines extensions du Modèle Standard
de la physique des particules (voir Élémentaire N°6). Si ces particules ne
sont pas trop lourdes, elles pourraient être observées au LHC, où elles
Trou noir
seront activement recherchées.
Un trou noir est un objet massif dont le
champ gravitationnel est si intense qu’il
Environ 5 % de matière visible, 23 % de matière noire... il manque encore empêche toute forme de matière ou de
quelque chose pour arriver à la densité critique ! Où ? Quoi ? Qui ? Eh rayonnement de s’en échapper. De tels
bien il s’agit de l’énergie responsable de l’accélération de l’expansion de objets sont prédits par la relativité générale
l’Univers, détectée récemment par l’observation des supernovæ lointaines et n’émettent pas directement de lumière.
et du rayonnement fossile. De quoi s’agit-il ? Nul ne le sait à l’heure actuelle. On peut néanmoins, observer leur présence
C’est là une des grandes énigmes scientifiques de ce siècle ! Se pourrait-il par leur effet sur des objets avoisinants. Par
exemple, dans certains cas, la matière qui
que les lois de la relativité générale ne soient pas valables à grande distance ?
est happée par un trou noir est fortement
Ou bien existe-t-il une ou des formes de matière ou d’énergie encore
accélérée avant d’être engloutie, ce qui
inconnues dont les effets gravitationnels donneraient lieu au phénomène engendre une émission importante de rayons
observé ? À ce stade de l’enquête, les physiciens ne négligent aucune piste. X. Ou encore, l’observation des trajectoires
Faute de mieux, nous avons donné un nom à notre ignorance : on l’appelle d’étoiles qui passent à proximité du centre
« l’énergie noire ». Tout ce que l’on sait avec certitude à l’heure actuelle est galactique indique qu’il existe, au centre de
qu’elle constitue environ 72 % du budget énergétique de l’Univers. notre galaxie, un trou noir super massif, de
quelques millions de masses solaires.
En résumé, plus de 95% de notre Univers est constitué de matière ou
d’énergie dont on ne connaît pas vraiment l’origine ... excitant non ?
page 7

ÉLÉMENTAÍRE
L’archéologie cosmique
Carte d’identité de l’Univers
Âge connu : 13,7 milliards d’années.

Évolution : après avoir subi une longue phase d’expansion ralentie, l’Univers
est aujourd’hui en expansion accélérée.
© NASA

Taille : l’Univers est a priori infini. On peut néanmoins définir la taille de


la partie « visible », c’est-à-dire à ce qui est à l’intérieur de notre horizon.
Supernova SN 1994D – en bas à gauche – Celle-ci dépend du contenu en matière et énergie de l’Univers. La distance
dans le disque externe de la galaxie spirale de notre horizon est estimée à environ 50 milliards d’années-lumière.
NGC 4526. On observe que l’intensité
lumineuse émise lors de l’explosion de
cette seule étoile est comparable à celle Contenu : Tout ce qui a de l’énergie contribue à la gravitation. On peut
de la galaxie entière, qui en contient des classer les différents types de matière qui peuplent notre Univers par leur
milliards. comportement gravitationnel global :
• le « rayonnement » : composé de particules sans masse ou presque (photons,
Horizon neutrinos), ce type de matière donne lieu à une gravité attractive (souvenez-
C’est la distance maximale des objets qu’il
vous, c’est l’énergie, et non la masse, qui est source de gravitation) et donc
est possible d’observer dans l’Univers à
un temps donné. Oublions l’expansion de tend à décélérer l’expansion. Si cette forme de matière a dominé l’expansion
l’Univers pour un moment et supposons pendant environ les premières 380 000 années de l’histoire de l’Univers, son
que son histoire commence à un temps t=0. influence gravitationnelle est aujourd’hui complètement négligeable.
À cause de la vitesse limite de propagation • la « matière » : composée d’objets (particules ou autres) massifs, elle donne
de tout signal physique (vitesse de la aussi lieu à une décélération de l’expansion, moindre cependant que celle
lumière dans le vide), les seules régions de due au rayonnement dans l’Univers primordial. On en distingue deux types :
l’Univers accessibles à l’observation après, la matière ordinaire, composée des particules connues (baryons, etc.) et la
disons, une année sont situées au plus à matière noire, de nature inconnue à l’heure actuelle.
une année-lumière de nous : c’est notre
• l’énergie noire : de nature inconnue, elle donne lieu à une gravité répulsive
horizon. Sa taille est proportionnelle au
temps écoulé depuis l’instant initial avec un et domine actuellement l’expansion de l’Univers.
facteur de proportionalité égal à la vitesse
de la lumière dans le vide. Pour un univers Objets les plus éloignés observables : quasars (objets très lumineux qui
en expansion, la relation entre la taille de semblent être des noyaux actifs de galaxies). Le quasar connu le plus éloigné
l’horizon et le temps écoulé est modifiée du est à 13 milliards d’années-lumière.
fait de la dilatation de l’espace. Dans notre
univers, la distance à l’horizon est environ
trois fois plus grande que ce qu’elle eût été
en l’absence d’expansion, soit environ 50
milliards d’années lumière.

Composition de la densité d’énergie


de l’Univers actuel (déterminée
par WMAP) : 4,6 % de matière
baryonique (il s’agit de la matière
visible : étoiles, galaxies, nuages de
gaz et de poussières etc.) ; 23 % de
matière noire et 72 % d’énergie noire.
Bien que dominante dans les premiers
instants de l’Univers, la part du
rayonnement (photons et neutrinos)
est aujourd’hui négligeable.
page 8

ÉLÉMENTAÍRE
Histoire
Petite histoire de la cosmologie
Depuis ses premiers instants l’humanité s’est intéressée à la place de
l’homme et de son environnement dans l’Univers. D’abord à propos de
son lieu de vie proche : jusqu’où les paysages s’étendent ils ? Jusqu’où
un voyageur peut-il aller ? S’il y a une limite, l’explorateur téméraire qui
s’aventurera au-delà risque-t-il de tomber et si oui, où va-t-il atterrir ?
Les astronomes du monde antique suggèrent, dès le VIe siècle avant notre
ère, que la Terre est ronde en remarquant que l’étoile Canopus dans la
constellation de la Carène est observable depuis Alexandrie mais pas

DR
depuis Athènes. Une Terre plate comme une crêpe est alors exclue. Sa
forme sphérique est corroborée plus tard par Aristote au IVe siècle avant Après Sirius, Canopus est une des étoiles les plus
notre ère sur l’argument de l’ombre ronde que la Terre fait sur la Lune brillantes du ciel nocturne. Elle est de couleur
lors des éclipses de cette dernière. Le diamètre de la Terre est ensuite presque blanche et elle fait partie de la constellation
de Carina. Le télescope spatial Hipparcos a pu
évalué par Eratosthène. Malgré ces démonstrations, l’image d’une Terre
évaluer sa distance à 310 années-lumière.
en forme de disque plat persiste pendant plusieurs siècles : au XVe siècle,
lors des longues années pendant lesquelles Christophe Colomb a cherché
des mécènes pour financer le voyage qui lui permettrait de rejoindre les
Indes en naviguant vers l’ouest, il a dû combattre des récalcitrants encore
adeptes d’une Terre plate et finie, dont il serait impossible de faire le
tour.
Inclinaison de l’écliptique : comme toutes les planètes de notre système
solaire, la Terre tourne autour du soleil suivant une orbite dont le plan
est appelé écliptique. L’axe de la Terre passant par ses deux pôles n’est pas
perpendiculaire à ce plan mais fait un angle appelé « obliquité » ou inclinaison
de l’écliptique. C’est cette inclinaison qui est responsable de l’existence des
saisons dans toutes les régions tempérées du globe.

Ératosthène naît en 276 avant notre ère à Cyrène (aujourd’hui Shahat en Lybie). Philosophe
aux nombreux talents, ses travaux concernent de multiples domaines. Il étudie l’histoire,
l’astronomie, les mathématiques et la géographie dont on lui attribue la paternité du nom.
Ératosthène est le premier à mesurer le diamètre de la Terre en la supposant sphérique.
En comparant les différences d’ombre à Assouan et à Alexandrie le jour du solstice d’été, il
remarque une différence : tandis qu’à Assouan à midi pile, le soleil semblait être à la verticale
au dessus d’un puits, dans lequel il n’y avait aucune ombre, au même moment, l’obélisque de
la ville d’Alexandrie portait encore une ombre sur le sol. Par des calculs de trigonométrie,
Ératosthène démontre que cette ombre s’expliquerait par des rayons solaires faisant un angle
de 7,2 degrés avec l’obélisque. Deux solutions lui apparaissent alors possibles : soit la Terre
est plate et le Soleil suffisamment proche de sorte que ses rayons soient encore divergents
dans notre environnement proche. Soit, le Soleil est très éloigné et ses rayons nous arrivent
parallèles mais alors dans ce cas, la Terre doit être courbée. Bien évidemment convaincu
du talent des architectes d’Alexandrie, il négligea la possibilité que l’obélisque soit planté de
travers. Afin d’évaluer la circonférence correspondante à cette courbure il mesure la distance
entre Assouan et Alexandrie en comptant le temps qu’un chameau met pour la parcourir
(ou alors serait-ce un dromadaire ?). Connaissant cette distance (787,5km) et l’angle de 7,2
degrés, il conclut que la Terre fait environ 40000 km de circonférence (la valeur exacte étant
40075 km à l’équateur!). Résultat remarquable lorsqu’on imagine les incertitudes possibles de
ces mesures. Décidément, la chance était avec lui.
Ératosthène est aussi un astronome passionné et doué. Il établit un catalogue d’environ 680
étoiles et il est le premier à démontrer l’inclinaison du plan de l’écliptique de la Terre et à
mesurer sa valeur qui est actuellement de 23,51 degrés. Il s’intéresse aussi à la chronologie
et tente par exemple de déterminer les dates des principaux événements historiques depuis
© B. Mazoyer

la chute de la ville de Troie. En 240 avant notre ère, Ptolémée III pharaon d’Egypte nomme
Ératosthène directeur de la Bibliothèque d’Alexandrie et lui confie le poste de précepteur de
son fils. Il meurt à Alexandrie en l’an 195 avant notre ère.
page 9

ÉLÉMENTAÍRE
Claudius Ptolemaeus (90-168) – connu
sous le nom de Ptolémée - est un astronome Quant à la position de la Terre dans le ciel, nul
mathématicien et géographe grec qui vécut doute chez nos ancêtres de l’Antiquité : elle occupe
en Egypte au second siècle de notre ère.
le centre de l’Univers et les étoiles tournent autour,
En plus de ses recherches en géographie,
il rédige son œuvre majeure, l’Almageste, puisqu’on les voit défiler au long des saisons.
document qui récapitule toutes les Cette affirmation s’accorde parfaitement avec une
connaissances en astronomie de l’Antiquité, place privilégiée pour l’Homme : dans nombre de
rassemblées à travers les mondes babylonien croyances, l’Univers est le royaume de l’Homme
et grec sur plus de huit siècles. C’est dans créé par un Être Supérieur pour le loger. L’Homme
ce même livre que Ptolémée propose un se trouve, par sa création, placé tout naturellement
système solaire géocentrique, avec la Terre au centre de ce décor. Cette vision géocentrique
immobile au centre de l’Univers. Ce modèle du système solaire décrite par Ptolémée au second
a prévalu dans le monde occidental et arabe
DR

siècle resta valable jusqu’au Moyen-Âge.


pendant les quatorze siècles suivants.

Pendant très longtemps, l’astronomie consiste en la mesure de la position


des étoiles dans le ciel, utile à l’organisation de la vie : les calendriers,
la date de certaines fêtes religieuses mobiles (Pâques), l’orientation des
lieux de culte (la Mecque, les églises), les saisons, la mesure précise
du temps etc, nécessitaient une bonne connaissance du ciel nocturne
et de ses variations au cours de l’année. Progressivement, à la fin du
Moyen-Âge, l’intérêt renaissant pour les travaux scientifiques grecs et
arabes incite les Européens à étudier la mécanique céleste pour tenter de
mieux expliquer les observations astronomiques. Depuis l’Antiquité de
nombreux ajouts sont venus compliquer la parfaite beauté du scénario
des orbites circulaires des planètes autour de la Terre. En dépit de ces
efforts, au fil des siècles, le système Ptolémaïque ne correspondait plus
aux observations astronomiques.
DR

Ainsi, en 1543 le Polonais Nicolas Copernic introduit le système


L’ensemble des planètes du système solaire héliocentrique pour expliquer le mouvement observé des planètes. Dans
dans le modèle géocentrique proposé par ce modèle, le Soleil est fixe au centre de l’Univers qu’il éclaire, et toutes
Ptolémée. L’orbite du soleil est placée entre
les étoiles tournent autour. Galilée soutient à son tour cette théorie.
celles de Vénus et de Mars.
Nicolas Copernic (1472-1543) est né à Torun en Pologne. Après des études d’art à
l’Académie de Cracovie il est nommé chanoine de Frombork, ville au nord de la Pologne.
Il part ensuite en Italie pour y étudier le droit canonique et la médecine à l’Université
de Bologne. C’est là qu’il suit les cours de Domenico Novara, qui est le premier à mettre
en cause le système géocentrique de Ptolémée. C’est probablement ce qui déclenche ses
réflexions sur le mouvement des planètes. Il observe que la voûte céleste revient au même
endroit au bout de 24 heures, ce qui le conduit à proposer que la Terre tourne autour
d’elle-même. Il avance aussi que la Terre tourne autour du Soleil sur une orbite dont le
tour complet nécessite une année. Même s’il met le Soleil au centre du système, ce qui
contredisait le système de Ptolémée, il préserve l’idée de ce dernier concernant des sphères
sur lesquelles tournent les planètes.
Copernic n’a pas publié son modèle afin d’éviter les poursuites de l’inquisition. Dans son
héritage il demande la publication d’un livre décrivant ses idées juste après sa mort. Il
va jusqu’à dédicacer une version latine de son œuvre destinée au Pape Paul III en lui
DR

réclamant la liberté d’expression.


Système héliocentrique de Copernic. L’influence de la pensée de Copernic a marqué un changement d’époque. Les érudits se
Les planètes connues tournent autour sont sentis débarrassés du poids des idées reçues de tradition religieuse. Son modèle devint
du Soleil. connu et fit beaucoup d’adeptes. Parmi ces derniers, Galilée, qui sera jugé par l’Inquisition
pour avoir défendu le système héliocentrique. Après des années de jugement Galilée finira
par abjurer, en prononçant à la fin de son procès la fameuse phrase un peu apocryphe
« pourtant elle (ndlr la Terre) tourne ».
page 10

ÉLÉMENTAÍRE
Petite histoire de la cosmologie
Avec sa lunette, il découvre en 1609 les lunes de Jupiter qui l’incitent
à penser qu’il peut exister de nombreux systèmes de planètes ou de
soleils accompagnés de satellites qui tournent autour. Il parle alors de
la possibilité de l’existence d’une pluralité de mondes habités, exprimée
pour la première fois quelques années plus tôt par Giordano Bruno.
Durant la même période, Johannes Kepler utilise les observations précises
de Tycho Brahé pour rédiger des lois qui formalisent mathématiquement

DR
le mouvement des astres. L’idée de la trajectoire circulaire parfaite se Cathédrale de Fronbork, située au bord de
trouve mise de côté : les planètes suivent des trajectoires elliptiques. Mais la mer Baltique où Copernic était nommé
l’héliocentrisme trouve un adversaire farouche en l’Église catholique qui chanoine. Sa tombe y a été identifiée en
met cette théorie à l’index comme remettant en cause la place privilégiée 2008, grâce à des comparaisons de l’ADN des
de l’homme dans l’Univers, dogme central de la Création. ossements avec 2 cheveux retrouvés dans son
livre Calendarium Romanum Magnum.

Johannes Kepler (1571-1630) est un scientifique allemand


célèbre pour avoir établi les trois lois qui régissent le
mouvement des étoiles autour du soleil. En étudiant à
l’Université évangélique de Tübingen, il a connaissance du
système héliocentrique prôné par Nicolas Copernic, opposé
à celui de Ptolémée qui place la Terre au centre de l’Univers.
Convaincu, il essaie d’abord de mettre sur pied un modèle à
mi-chemin entre physique et géométrie, qui tient compte du
nombre des planètes, de leur distance au soleil et de leur vitesse.
Dans son livre Mysterium Cosmographicum, il développe une
théorie suivant laquelle les orbites des six planètes connues à Schéma de la trajectoire
l’époque sont placées dans les cinq polyèdres réguliers. Les elliptique d’une planète avec le
DR

planètes se meuvent sur des trajectoires imbriquées entre les Soleil en un de ses foyers. Ce
deux polyèdres autour du soleil. dessin n’est pas à l’échelle car le
Ce livre a fait connaître Kepler aux autres astronomes contemporains, en particulier à foyer de l’ellipse est en pratique
Tycho Brahé qui travaillait à l’époque à Prague. En 1600, Kepler est en danger à cause de très proche du centre. Pour la
ses convictions religieuses et coperniciennes, et il se réfugie à Prague, invité par Tycho. Terre, le foyer ne s’en écarte
Celui-ci lui demande de calculer la trajectoire de Mars pour laquelle il avait observé un que de moins de 2% du rayon
comportement anormal. C’est là que Kepler utilise toutes les données observationnelles de orbital.
Brahé et va au-delà de son contrat en découvrant, en 1609, ses deux premières lois régissant
le mouvement des planètes. Sa troisième loi sera annoncée plus tard en 1618, dans un livre
intitulé « L’harmonie des mondes », tentant de réconcilier les observations astronomiques
et les lois mathématiques. Les trois lois sont :
1) les planètes décrivent des trajectoires elliptiques dont le Soleil est l’un des foyers. L’ère
des trajectoires circulaires est alors finie.
2) elles balayent des aires égales pendant des durées de temps égales.
3) le carré de la période de révolution T d’une planète est proportionnel au cube du demi
grand axe de sa trajectoire elliptique.
Ce sont ces trois lois qui ont inspiré Newton pour étudier la force que le Soleil exerce sur les
planètes et pour proposer sa loi sur la gravitation.
Kepler a par ailleurs produit d’important travaux sur l’optique, les miroirs et le
fonctionnement de l’œil humain. D’autre part, il publie une étude sur l’explosion d’une La seconde loi de Kepler
supernova en 1604. En géométrie, il énonce une conjecture concernant l’empilement implique qu’une planète se
optimal des sphères, dont la démonstration faite par l’américain Thomas Hales en 2003 mouvant sur cette trajectoire
n’est pas encore acceptée par tous les experts. Vivant en des temps fortement troublés, balaie les trois aires bleues, de
il consacre six années de sa vie à défendre sa mère accusée de sorcellerie et réussit à même surface, pendant des
l’innocenter. temps égaux.
page 11

ÉLÉMENTAÍRE
Petite histoire de la cosmologie
Les aberrations des étoiles
Par ce mot on caractérise le déplacement
Au XVIIe siècle Newton identifie la force de gravité comme étant à l’origine
apparent d’une étoile sur la sphère
céleste vue par un observateur sur Terre.
du mouvement des astres et donne une première preuve mathématique de
Au XVIIIe siècle, les astronomes ne la position centrale du soleil. Les aberrations des étoiles mesurées au XVIIIe,
comprennent pas le mouvement elliptique démontreront définitivement que c’est la Terre qui tourne autour de son
similaire pour des groupes d’étoiles étoile.
proches dans le ciel pour l’observateur. En Avec le raffinement des techniques d’observations astronomiques et la mesure
1727, le britannique James Bradley trouve des distances d’étoiles lointaines, c’est à partir du XVIIIe siècle que le système
la solution de ce comportement curieux. solaire apparaît comme un bout infime d’une galaxie — la Voie Lactée —
Il explique le phénomène comme étant qui pourrait contenir des millions de systèmes semblables. L’héliocentrisme
dû au mouvement de la Terre - et donc de
tombe alors définitivement dans les oubliettes. On commence à réfléchir
l’observateur- autour du Soleil.
Pour mesurer la direction d’une
aux mécanismes qui pouvaient avoir donné naissance à toute la richesse
étoile il faut déterminer le passage des de l’Univers. La cosmologie tend à devenir purement scientifique, en se
rayons lumineux en deux points d’un détachant progressivement des influences des cosmogonies religieuses et en
instrument d’optique. Or la lumière met cherchant des explications rigoureuses, plutôt mathématiques et physiques
un certain temps pour passer d’un point que métaphysiques.
à l’autre pendant lequel le second point La période la plus fertile pour la cosmologie commence avec le vingtième
s’est déplacé à cause du mouvement de siècle où la relativité générale d’Einstein sonne le début d’une ère nouvelle. Ce
l’observateur. L’étoile est alors observée sont les étapes les plus déterminantes de cette période que nous allons relater
selon une direction apparente qui diffère
dans les rubriques de ce numéro.
de la direction réelle par un angle d ’ordre
v/c où v et c sont les vitesses respectives
de l’observateur et de la lumière.
Pour le mouvement annuel de la Terre
sur son orbite, v est de l’ordre de 30 km/ Giordano Bruno (1548-1600) est un philosophe et théologien
s ce qui donne une variation angulaire italien.
de 20,5’’ d’arc. Cette valeur dépend des Il entre dans les ordres dominicains au couvent de San
directions respectives de l’étoile et du Domenico Maggiore à Naples, où il est très remarqué parce
mouvement de l’observateur. Si elles sont qu’il mène une vie en parfait accord avec ses convictions
alignées, il n’y a pas de décalage. humanistes. Après une thèse sur la pensée de Thomas
d’Aquin, il penche fortement pour la métaphysique et
s’éloigne des usages ecclésiastiques : il enlève les images
saintes de sa cellule et il réfute le dogme de la Trinité ce qui lui
vaut rapidement les foudres des dominicains. Il abandonne
les ordres et il étudie le droit, le latin et la philosophie. Il fuit
l’Italie et il vit en France, en Angleterre puis à Genève où
il intègre la communauté luthérienne. Partout où il passe il
impressionne par son esprit brillant tout en se faisant rejeter
par les églises officielles : en 1588, il est excommunié par
Statue de Giordano l’Église luthérienne.
Bruno sur la place Il rentre alors en Italie et il s’intéresse aux idées de Copernic. Il
Campo dei Fiori à démontre la place centrale du Soleil autour duquel les planètes
Rome, lieu de son se meuvent. Il soutient l’existence de myriades de systèmes
supplice. semblables au nôtre, tournant autour des étoiles qui brillent
dans le ciel, et habités par des êtres de Dieu. Il s’intéresse à
d’autres sujets, comme la mnémotechnique, la magie et la métempsychose. Ces activités,
considérées comme blasphématoires, lui valent d’être dénoncé et livré à l’inquisition
en 1592. Il est alors transféré à Rome dans les prisons du Vatican. Son procès durera
8 années au long desquelles il est tenté de se rétracter à plusieurs reprises, sans jamais
finalement renoncer à ses convictions. Il est finalement condamné et il sera brûlé vif le
17 février 1600 sur le bûcher installé à la place Campo dei Fiori à Rome.
page 12

ÉLÉMENTAÍRE
Petite histoire de la cosmologie
Selon les époques et les lieux, dans la plupart des croyances à travers les siècles, l’Univers et
l’Homme sont créés par l’action d’êtres, d’animaux ou d’esprits. Quelques exemples : les Titans
(chez les Grecs), des hommes-animaux (en Egypte), des plantes sacrées (pour les mythologies
nordique et philippine), le rêve (chez les aborigènes d’Australie) et Dieu, Yahvé ou Allah dans les
religions monothéistes. Dans de nombreux récits, on retrouve les mêmes étapes : le Monde naît
à partir du néant, il est suivi de l’apparition du temps, de la lumière de l’espace et de la matière.
La Terre est créée avec le feu, l’eau, et l’air pour remplacer le chaos primordial. La vie apparaît et
l’Homme vient à la fin, comme œuvre ultime de la création. Suivant l’endroit et la culture, cette
cosmogonie (en grec la naissance du monde) peut être précédée de luttes fratricides entre les
êtres primordiaux. Il arrive aussi que le sort de l’Univers soit cyclique, lié à l’état d’éveil d’un être
sacré : l’hindouisme raconte que, lorsque Brahma s’éveille, le monde se forme pour se détruire
quand il se rendort, ce qui, heureusement, n’arrive pas très souvent !
Souvent, des événements cataclysmiques viennent interrompre la vie sur Terre qui ne reprend que
grâce à quelques survivants, comme dans la mythologie gréco-romaine et l’Ancien Testament.
Les mythologies maya et aztèque reprennent cette idée : leurs dieux détruisent régulièrement le
monde et recommencent la création à partir de zéro.

Selon le chapitre de la Genèse dans la Bible, le monde aurait été créé en 6 jours par la volonté

© VLT
d’un être divin unique. Ce Dieu, en malaxant de la terre glaise et en lui insufflant la vie a donné
naissance à Adam, le premier homme, l’être le plus parfait de toute la Création. La Genèse décrit L’arbre cosmique nommé Yggdrasil,
alors la descendance d’Adam et de sa femme Ève, jusqu’à l’époque du règne du roi Salomon. assurant l’existence des mondes selon la
Toutes les générations y sont citées. Ainsi, pour les Juifs croyants, nous sommes actuellement en mythologie scandinave.
l’an 5769 de la Création.
Les monothéistes ont préservé la notion de création pendant plusieurs siècles et l’ont défendue
souvent avec acharnement. Au cours des dernières décennies, l’argumentation et les preuves
scientifiques du modèle cosmologique standard ont été acceptées par de nombreux croyants qui
voient dans l’idée du Big Bang le doigt d’un Être Suprême. Quelques courants extrêmes comme les
« créationnistes » ou –plus récemment – les partisans du « dessein intelligent » persévèrent dans
les croyances d’un Univers mû par une force divine et refusent l’évolution des espèces vivantes.

Uluru (connu aussi sous le nom d’Ayer’s


rock) est une formation en grès au centre de
l’Australie et constitue un des lieux de culte
importants des aborigènes. Le monolithe À gauche : le symbole bien connu de Yin et
est aujourd’hui classé au Patrimoine Yang, représente les deux forces sous forme
Mondial de l’Unesco. de vagues. À droite : symbole de l’empire
DR

du Milieu. Le carré représente la Terre que


la Chine -l’épée- traverse en son milieu.
Les aborigènes d’Australie croyaient à un monde créé par des êtres surnaturels (le Serpent Arc-
en-Ciel ou des hommes éclairs) ayant vécu lors du « Temps du rêve » (appelé « tjukurpa »).
Suivant cette croyance, le passé et le présent s’entremêlent dans des lieux particuliers, tels le
monolithe Uluru au centre de l’Australie, lieu sacré né du jeu de deux enfants mythiques. La
cosmogonie australienne croit en la prédominance de la pensée qui a généré tout ce qui se
trouve sur Terre, formant un tout et ne pouvant pas être séparé ou distribué. C’est la raison pour
laquelle les aborigènes refusent le concept de propriété sur les terres et sur les animaux.

Dans la cosmogonie chinoise, l’univers est contrôlé par deux forces qui ont suivi le souffle
initial, le Yin et le Yang. L’importance relative de ces forces antagonistes varie avec le temps.
Le Yin et le Yang sont souvent représentés comme la dualité de toute chose. On attribue au Yin
des caractéristiques féminines tandis que le Yang constitue plutôt le côté masculin de la réalité.
Suivant les croyances chinoises le Ciel était associé à un cercle et la Terre est carrée. La Chine se
trouve alors au centre de ce carré, d’où l’appellation d’empire du Milieu.
page 13

ÉLÉMENTAÍRE
Interview
Jean-Loup Puget
Qu’est-ce qui vous a amené à faire de la recherche ?
Je venais d’un lycée technique et après le baccalauréat, j’avais l’objectif
de rejoindre une école d’ingénieur. En discutant autour de moi, j’ai
commencé à avoir une petite idée du monde de la recherche, et je me suis
dit que finalement, ça me plairait assez d’en faire... Après les concours,
j’avais le choix entre l’École des Mines et l’École Normale Supérieure de
Cachan. C’est à ce moment que j’ai eu envie de faire de la recherche !
© Élémentaire

À l’ENS Cachan, il a fallu se décider entre maths et physique... et j’ai


opté pour la physique (j’étais plus physicien que matheux !), avec
Jean-Loup Puget, né en 1947, est un ancien
l’objectif de faire de la physique théorique. Je me suis toujours intéressé
élève de l’École normale supérieure de
Cachan (1966-1970). Après un DEA de
à l’astrophysique, à titre personnel. Le déclic pour m’orienter vers la
physique théorique en 1969, il fait une cosmologie a eu lieu en 1969, pendant que je suivais le DEA de physique
thèse de doctorat sous la direction d’Evry théorique à Paris. J’ai assisté à un séminaire donné par Roland Omnès au
Schatzman, en réalisant des travaux à Laboratoire de l’Accélérateur Linéaire à Orsay sur un modèle d’univers à
l’Université de Maryland et au Goddard symétrie matière-antimatière. Je me suis dit : ça, c’est vraiment un truc
Space Flight Center de la NASA. Il est sur lequel j’aurais envie de travailler.
chercheur au CNRS depuis 1973. Il a été
directeur adjoint (1990-1997), puis directeur J’ai ensuite pu faire un stage à Meudon proposé par Roland Omnès et
de l’Institut d’astrophysique spatiale (IAS)
Evry Schatzmann sur le même thème : il s’agissait d’étudier la vitesse
à Orsay (1998-2005). Il a reçu plusieurs prix
et distinctions dont la médaille d’argent du
d’annihilation de particules à la surface séparant une zone de matière
CNRS en 1988 et le prix Jean-Ricard de la et une zone d’antimatière, et j’ai obtenu une solution assez jolie du
Société française de physique en 1989. Il est problème. Schatzmann m’a alors proposé de poursuivre par une thèse
membre de l’Académie des Sciences depuis sur le même thème, et j’ai continué à travailler avec Omnès... tant que
2002. ce modèle a pu tenir la route. C’est comme cela que je suis passé de la
Jean-Loup Puget a travaillé sur l’origine physique théorique à la cosmologie. Pour tout le monde, c’est un peu
du rayonnement gamma galactique et pareil : on se retrouve orienté vers un sujet sans vraiment savoir où on
extragalactique, la structure du milieu met les pieds au début...
interstellaire et la formation des étoiles, et
la cosmologie. Il a soutenu le développement
en France de l’astronomie spatiale, en Pour vous qu’est ce qu’une particule ?
particulier pour l’étude de la formation
des étoiles et de la physique du milieu Est-ce que j’ai une réponse là-dessus ? Pour moi une particule, a priori,
interstellaire. Il a ainsi collaboré à plusieurs c’est une petite partie de matière... J’ai tendance intuitivement à ne pas
grands projets d’astronomie spatiale penser aux particules qui transportent les forces. On peut se poser la
européens, en particulier l’Infrared Space question : jusqu’où sont-elles élémentaires ? On sait bien que cette notion
Observatory (ISO) et le satellite Planck.
a beaucoup reculé au fil du temps.
La chose qui me frappe en regardant
Modèle d’univers à symétrie matière-antimatière la physique théorique de loin, en
Lors du Big-Bang, on pense que l’énergie disponible a été convertie en paires formées
tant qu’expérimentateur, c’est la
d’une particule et de son antiparticule associée (par exemple un électron et un
positron). La partie observable de notre univers est constituée quasi uniquement de
contradiction entre la vision de
matière. On peut se demander ce qui est arrivé à l’antimatière issue du Big Bang. À particules ponctuelles transportant
une époque, il avait été envisagé que l’Univers se fût organisé en régions contenant trois forces fondamentales, et la
pour les unes de la matière et pour les autres de l’antimatière, séparées par des zones relativité générale qui décrit la gravité
quasiment vides. Mais ces modèles prédisaient quand même de rares annihilations à de façon complètement différente. Il
la frontière entre zones de matière et d’antimatière, qui n’ont pas été observées... ce qui faut résoudre ce problème-là qui est
a conduit à les abandonner. À l’heure actuelle, on pense que divers mécanismes ont la limite de la description actuelle en
concouru à privilégier la matière vis-à-vis de l’antimatière, de sorte que cette dernière termes de particules.
a quasiment disparu.
page 14

ÉLÉMENTAÍRE
Jean-Loup Puget
Comment avez-vous abordé la cosmologie ? Éléments chimiques
Lors du Big Bang, les conditions intenses
En DEA, je suis tombé par hasard sur un polycopié sur le Big Bang, de densité et de température ont permis
l’histoire thermique de l’Univers, la nucléosynthèse... J’ai été en de produire certains éléments chimiques
particulier frappé par le fait que des prédictions théoriques ont été faites légers, en particulier le deutérium, l’hélium
dans ce domaine très longtemps à l’avance, sur la base d’arguments et le lithium. Il s’agit de la nucléosynthèse
théoriques solides, mais qui allaient bien au-delà de ce qu’on avait primordiale. Les proportions de ces
observé à l’époque. Et jusqu’à maintenant, on a pu vérifier beaucoup de éléments ont ensuite été modifiées par les
générations d’étoiles qui se sont succédé au
ces prédictions avec une grande précision. C’est en particulier le cas du
cours de l’histoire de l’Univers, et qui ont
rayonnement fossile (voir « Découverte ») : certains éléments chimiques utilisé certains de ces éléments légers pour
n’ont pas pu être produits dans les étoiles. Cela doit venir d’une époque en produire des plus lourds. Toutefois,
où l’Univers était suffisamment dense et chaud pour produire ces on peut observer des objets très anciens
éléments. Si une telle époque a existé, un témoignage doit rester sous la (comme les quasars) ou des objets où ces
forme d’un rayonnement fossile avec des caractéristiques bien précises : phénomènes n’ont guère eu lieu (comme
un spectre de type « corps noir », une isotropie presque parfaite, de les galaxies naines) pour déterminer la
légères anisotropies présentant des corrélations particulières. C’est une proportion des éléments légers juste après
série que je trouve très impressionnante. Pour que tout cela marche, il la nucléosynthèse primordiale.
faut faire des hypothèses assez fortes... et, justement, les expériences
ont progressivement confirmé toutes ces hypothèses, avec les ballons-
sondes, puis WMAP.
Inflation
Il s’agit d’une période d’expansion
Je trouve que c’est une caractéristique extrêmement frappante, dans extrêmement rapide (quasi- exponentielle)
la cosmologie physique que l’on pratique depuis ces trente dernières qui se serait produite au tout début de
années. Avec Planck, je sens que je travaille exactement dans cette lignée, l’histoire connue de l’Univers. Elle permet
pour confirmer les modèles proposés, en particulier l’inflation. On a pour d’expliquer certaines caractéristiques de
l’instant d’excellentes raisons théoriques pour proposer l’inflation, mais notre Univers actuel (voir « Théorie »).
on n’a pas encore trouvé de preuve irréfutable... J’aime travailler sur ce
type de sujets où on doit débroussailler un terrain mal connu et faire les
premières mesures. J’y trouve mieux ma place que sur des aspects plus
théoriques pour lesquels je n’ai pas une approche assez « formelle » !

Quelle est l’expérience qui vous a le plus marqué ?

En fait, il y en a deux. Ma thèse m’a conduit à m’intéresser aux mesures


du rayonnement gamma effectuées par un satellite, SAS2. J’ai écrit des
articles pour interpréter les résultats de ce satellite. En particulier, en
étudiant l’interaction entre des sources gamma et la matière interstellaire,
on s’est aperçu qu’il y avait en fait beaucoup plus de matière interstellaire
que ce que d’autres types d’observations suggéraient. On a aussi pu
associer certaines sources gamma situées dans le plan de la Galaxie avec
des observations faites dans l’infrarouge. Ce fut le point de départ pour
© NASA

proposer une expérience embarquée sur un ballon au CNES pour étudier


l’émission infrarouge dans la Voie Lactée. Cette proposition était très
Le satellite SAS2 (Small Astrono-
controversée mais le ballon est quand même parti... pour effectivement
my Satellite) était un satellite de la
observer le rayonnement infrarouge attendu ! Cette expérience a NASA consacré à l’astronomie dans
permis de confirmer cette chaîne de raisonnement, de l’idée théorique le domaine gamma au dessus de 35
jusqu’au résultat expérimental. On a une intuition au départ et grâce MeV. Lancé en 1972, il fonctionna
à une « manip », on observe exactement ce qui est attendu, c’est un peu moins d’un an, et établit la
philosophiquement important ! première carte détaillée du ciel pour
page 15

le rayonnement gamma.

ÉLÉMENTAÍRE
Jean-Loup Puget
Le télescope ISO m’a également marqué. On devait atteindre une certaine
sensibilité pour observer des galaxies qui émettent majoritairement dans
l’infrarouge et déterminer leur nombre en fonction de leur distance. Les
prédictions qu’on faisait sur la sensibilité du satellite étaient souvent basées
sur des estimations où des incertitudes peuvent facilement multiplier ou
diviser le résultat par 10... Et là, on a obtenu précisément la sensibilité
prévue. Cela aussi m’a frappé et m’a convaincu qu’en travaillant bien, on
pouvait fabriquer des expériences avec les spécifications désirées.

Sur quoi travaillez vous actuellement ?

Planck ! Il y a deux aspects différents de mon travail sur Planck. D’une


part, le management - ce sont près de 400 personnes qui travaillent sur
ce projet. D’autre part, le côté scientifique. Nous avons terminé les tests
cet été en Belgique, avec une mise en situation réelle du satellite : tous
les éléments de Planck ont été rassemblés et testés. En particulier, nous
© ESA

avons pu vérifier la chaîne cryogénique qui va refroidir les instruments


pour atteindre la précision voulue sur les observations. C’est une chaîne
ISO complexe, avec plusieurs systèmes de refroidissement pour baisser
Le télescope spatial ISO (Infrared Space progressivement la température. et qui doit fonctionner en apesanteur !
Observatory) fut lancé par l’Agence Spatiale Ces tests ont duré deux mois et demi, en particulier parce qu’il faut 40
Européenne en 1995. Il effectua durant jours pour atteindre la température de fonctionnement de 100 millikelvins.
ses 28 mois d’activités des observations On a retrouvé les sensibilités prévues.
astronomiques dans les domaines de
l’infrarouge, entre 2 et 200 μm de longueur
d’onde. Il s’intéressa en particulier aux
Nous avons eu de la chance, car tout à la fin du test, nous avons pu
galaxies infrarouges éloignées et aux nuages détecter une fragilité de la chaîne cryogénique, avec une fuite de l’hélium
moléculaires interstellaires. Il fournit utilisé pour le refroidissement. De la chance, parce que cette fuite se
notamment des images de la formation serait certainement produite durant le vol du satellite, si nous ne l’avions
d’étoiles auparavant cachées par des nuages pas réparée. Il s’agissait d’un régulateur de pression défectueux, pour
de poussière. lequel nous avons pu finalement trouver un remplaçant. Normalement,
le temps d’attente est de huit mois, mais nous avons pu en récupérer deux
auprès d’un programme de l’ESA (l’agence spatiale européenne) qui avait
en stock quatre régulateurs de rechange pour son satellite.

Maintenant, ces tests sont finis, et nous travaillons surtout sur le traitement
des données – nous avons lancé une grosse simulation qui représente un
an de données, pour tester la qualité de notre analyse des observations
de Planck. [ndlr : cette interview a été réalisée avant le lancement du
satellite Planck.]

Quel va être, selon vous, l’avenir de votre discipline ?


© ESA

Le projet Planck a été conçu pour mesurer les anisotropies de température


du rayonnement fossile. Il constituera probablement l’expérience ultime
Planck se dirigeant vers le second point sur cette question, tout comme le satellite COBE a effectué les mesures
Lagrange du système Soleil-Terre, ou ultimes sur le spectre de corps noir de ce rayonnement, parce qu’il existe
point L2, où il se mettra en orbite et des incertitudes systématiques qu’on ne sait pas contourner et qui limitent
commencera à faire des mesures du
la précision des mesures. Mais il reste un champ ouvert pour lequel Planck
rayonnement fossile.
n’est pas l’expérience ultime : l’étude de la polarisation du rayonnement
page 16

ÉLÉMENTAÍRE
Jean-Loup Puget
Lentille gravitationnelle
fossile, qui permet de contraindre les paramètres des modèles théoriques Selon la théorie de la relativité géné-
[ndlr : voir « Expérience »]. On parle déjà d’expériences postérieures à rale, un rayon lumineux qui passe
à proximité d’un objet très massif,
Planck sur ce sujet, en Europe et aux États-Unis, mais on attend d’avoir
comme une galaxie, voit sa trajectoire
plus d’informations de Planck même avant de lancer ces projets. déviée. Cet effet peut provoquer des
mirages gravitationnels : l’image que
Plus généralement, en cosmologie, le plus urgent, ce sont les expériences nous voyons d’un source lumineuse
qui « regardent » la nature de l’énergie noire, en étudiant la distribution lointaine est déformée voire dupliquée
des galaxies. Cette énergie noire produit une accélération de l’expansion par la présence d’un objet massif entre
de l’Univers qui affecte la distribution des galaxies. On étudie cette elle et nous. Ce phénomène permet de
distribution avec les observations des explosions de supernova et surtout repérer des objets massifs, même peu
avec les effets de lentilles gravitationnelles. Actuellement, il y a un débat lumineux.
sur le partage des tâches entre les mesures au sol et l’observation spatiale
pour ces expériences.

Que va t-on apprendre au LHC ?

De mon point de vue (cosmologique !), les signes d’une physique au-delà
du Modèle Standard en physique des particules, une voie vers l’unification
avec la gravité. Je pense également à la supersymétrie, car elle fournirait
un candidat pour la matière noire. Quant à trouver le boson de Higgs, ce
n’est pas la question la plus importante de mon point de vue, même si
c’est évidemment un problème central de la physique des particules.

Votre rêve de physicien ? Sur cette image du télescope spatial


Hubble, dans la constellation du Petit
Je n’aurais pas répondu de la même façon à cette question il y a quelques Lion, on distingue cinq points lumineux,
années ! J’aimerais avoir une théorie avec aussi peu de paramètres qui sont en fait cinq images d’un seul et
libres que possible. Quelque part, on aimerait que la théorie fixe tous même quasar très lointain. Ce mirage est
ses paramètres « d’elle-même ». Quand on regarde la cosmologie ou dû à la présence d’un amas de galaxies
très massif entre nous et le quasar qui est
la physique des particules, on n’a pas vraiment l’impression que les
à ... 2,5 milliards d’années-lumière.
choses vont dans cette direction ! J’ai un peu de mal à me situer dans
les dernières idées venant de la théorie des cordes, où au contraire, on a
un très grand choix dans les paramètres envisageables. Je ne sais pas très
bien quoi faire de cela... et si cela cadre bien avec ma vision des objectifs
Un quasar (pour «quasi-stellar radio sour-
de la physique. ce») correspond à une galaxie éloignée dont
le noyau actif émet des rayonnements élec-
Avez-vous des regrets dans votre carrière ? tromagnétiques très intenses (lumière visi-
ble, ondes radio). Ils ont été observés à partir
Non, pas vraiment. Je regrette seulement de ne pas arriver à comprendre le de la fin des années 1950 comme des sources
détail des articles théoriques, en particulier certains de leurs arguments ! puissantes et ponctuelles, semblables à des
étoiles. À l’heure actuelle, on connaît plus de
Mais je n’ai pas de regrets en ce qui concerne les expériences. Il y a bien
200 000 quasars. On pense qu’un quasar est
une expérience que nous avions proposée avant Planck, en collaboration la région qui entoure un trou noir supermas-
avec des Russes. Nous avions collaboré longuement pour proposer un sif situé au centre d’une galaxie. L’émission
projet qui avait été accepté et financé et finalement, j’ai estimé que ce intense du quasar provient du gaz inters-
n’était pas « la » manip que je souhaitais faire sur le sujet, et j’ai donc tellaire attiré par le trou noir et qui forme
abandonné le projet. Ce n’est pas très facile comme décision. On n’est un disque d’accrétion, fortement échauffé,
jamais absolument sur de soi. Mais avec le recul, c’était la bonne décision autour de cet objet. Les processus complexes
à prendre, même si c’était frustrant sur le moment. associés donnent lieu à l’émission de jets de
matière perpendiculairement au plan du dis-
que d’accrétion.
page 17

ÉLÉMENTAÍRE
Jean-Loup Puget
Qu’aimeriez-vous dire aux jeunes ?

Je regrette que le système scolaire français utilise les disciplines


scientifiques comme un moyen de sélection d’une manière qui induit un
rejet des sciences chez certains jeunes : ils suivent des filières scientifiques
alors même qu’ils ont pris les sciences en grippe ! Il y a un problème de
perception de la science chez les jeunes, et nous nous devons de faire
quelque chose. La science, ça peut être très amusant, il y a plus de surprise
et d’inattendu dans la science « réelle » que dans la science-fiction !
J’aimerais aussi leur dire : « même si vous n’êtes pas scientifique, vous
avez besoin de regarder les choses avec un point de vue scientifique ».
Les sciences ne sont pas juste un moyen de sélection !
© M Nomis

Quant aux jeunes scientifiques, j’aimerais qu’ils abolissent cette hiérarchie


implicite, et injustifiée, entre théorie et expérience. Lorsque les jeunes
sortent d’un master et vont faire une thèse, on les pousse à travailler sur
l’interprétation des résultats plus que sur la préparation des expériences.
La tendance naturelle est d’aller vers les résultats mais il faut que les
jeunes chercheurs aient conscience qu’ils ne vont pas rester dans une
case, qu’elle soit théorique ou expérimentale !

Quelle est la question que vous aimeriez que l’on vous


pose ?

Ce serait « Comment lutter contre le cloisonnement entre la physique des


particules, la cosmologie, et d’autres disciplines ? » Ce n’est pas facile. Je
pense qu’on y arrivera en formant des jeunes et en créant des structures
qui permettront à ces communautés de dialoguer, d’échanger les points
de vue. C’est pourquoi j’ai participé à la création du groupement d’intérêt
scientifique « Physique des Deux Infinis ». Il finance des projets communs
Le logo du groupement d’intérêt dans ces domaines, tout en remédiant à certaines lourdeurs, certaines
scientifique « Physique des Deux insuffisances du système de recherche actuel. Il aide à préparer les projets
Infinis ». en amont, à exploiter les données en aval. Avec le recul de plusieurs
années, cela a vraiment aidé à faire circuler les gens et les sujets. Et
j’essaierai de continuer à faire progresser cette idée !
page 18

ÉLÉMENTAÍRE
Centre de recherche
Observatoires d’ondes gravitationnelles
L’espace-temps est un des concepts
La théorie de la Relativité Générale, publiée par Einstein en 1915, stipule majeurs introduits par la théorie de la
que les masses courbent l’espace, ce qui modifie les trajectoires des corps Relativité Restreinte, publiée en 1905 par
passant à proximité. Un objet (par exemple une étoile) en mouvement Albert Einstein. Ces travaux montrent que
le temps n’est pas absolu et que, tout comme
accéléré (c’est-à-dire non rectiligne uniforme) provoque des variations
les trois coordonnées d’espace, il dépend du
de cette courbure qui se propagent à la vitesse de la lumière comme des référentiel choisi, c’est-à-dire du « point de
vagues à la surface de l’eau : ce sont les ondes gravitationnelles. Lors vue » utilisé pour observer un phénomène.
du passage de telles vibrations, l’espace-temps se déforme : distances et Pour passer d’un référentiel à un autre, il
durées se contractent puis se dilatent – ces oscillations se poursuivent tant faut procéder à un changement de variables
que la perturbation est présente qui mélange coordonnées spatiales et
temporelle. L’espace et le temps forment
Si n’importe quelle masse accélérée génère des ondes gravitationnelles, donc un tout, judicieusement appelé...
celles-ci sont extrêmement ténues. Seuls des objets très massifs et de l’espace-temps !
grande compacité peuvent produire un signal potentiellement détectable
avec les technologies actuelles. Aucune source d’origine terrestre

DR
n’entrant dans cette catégorie, les scientifiques n’ont d’autre choix que
« d’écouter » le cosmos à la recherche de ce rayonnement qui, bien que
prédit il y a plus de quatre-vingt dix ans maintenant, échappe toujours aux
observations directes. Notons cependant qu’avec la découverte en 1974
du premier pulsar binaire et son suivi depuis lors, les physiciens possèdent
une preuve indirecte de l’existence des ondes gravitationnelles.

La recherche des ondes gravitationnelles a démarré il y a près d’un demi- Albert Einstein (1879-1955)
siècle. Elle a pris un tournant important dans les années 1990-2000 avec Karl Schwarzschild (1873-1916)
la construction de plusieurs observatoires dédiés, aux États-Unis (LIGO),
en Europe (Virgo et GEO) et au Japon (TAMA). Ces centres abritent des
détecteurs de grande taille – de l’ordre du kilomètre – que nous allons Comment devient-on un trou noir ? Il suffit
de concentrer sa masse dans un « petit »
décrire en détail dans la suite de cet article. Leur développement, parfois
volume. L’objet ainsi obtenu a alors une
ralenti par la complexité et la nouveauté de leur appareillage, est continu. forte compacité. La Relativité Générale
Ils apparaissent donc aujourd’hui comme les meilleurs candidats pour quantifie cette idée en introduisant un
relever le défi de la découverte des ondes gravitationnelles à l’échelle de rayon limite, le rayon de Schwarzschild
quelques années. RS, dimension en-dessous de laquelle une
masse M s’effondre en trou noir, un objet
duquel rien ne peut s’échapper, pas même
Objet Densité ρ Rayon de Compacité un photon, pourtant de masse nulle :
(kg/m3) Schwarzschild RS C = RS/R RS = 2GM / c2,
Proton 5 × 1017 2 × 10-54 m 10-39 où G est la constance de Newton et c la vi-
tesse de la lumière dans le vide. Le facteur
Terre 5 × 1013 9 mm 10-10 numérique 2G / c2 ~ 10-27 m/kg. Le rayon
limite RS est donc (très) petit même pour
Soleil 103 3 km 10-6 un corps aussi massif qu’une planète ou
Étoile à neutrons 1018 4 km ≈ 0,4 qu’une étoile. Le rapport C = RS / R (R étant
la dimension caractéristique du corps),
Trou noir super- 1 (soit mille 3 milliards de 1 compris entre 0 et 1, fournit une mesure
massif au centre fois moins que kilomètres de compacité. La valeur maximale C = 1
de M87 (galaxie l’eau !) correspond au cas d’un trou noir. Pour dif-
d’Andromède) férents objets on peut comparer la compa-
cité et la densité ρ (c’est-à-dire le rapport
entre masse et volume). Intuitivement,
« compact » et « dense » ont l’air d’être des
notions voisines, voire synonymes. En fait
ce n’est pas le cas : on peut être compact
sans être dense (un trou noir galactique) et
page 19

réciproquement (un proton).

ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
L’existence des ondes gravitationnelles a été établie expérimentalement à la fin des années 1970 grâce à la découverte du premier pulsar dans
un système binaire par Joseph Taylor et son étudiant Russel Hulse – tous deux lauréats du Prix Nobel en 1993.
Un pulsar est une étoile à neutrons en rotation ultra-rapide sur elle-même (plusieurs tours par seconde) et entourée d’un fort champ
magnétique. La plupart de ces pulsars sont les restes d’explosions d’étoiles massives en fin de vie (supernova). Ils émettent un rayonnement
électromagnétique détecté sur Terre sous la forme d’une pulsation extrêmement courte mais répétitive – d’où leur nom. Le premier pulsar a
été découvert en 1967 par Antony Hewish et son étudiante Jocelyn Bell-Burner à l’aide d’un radiotélescope basé à Cambridge.
Le pulsar PSR 1913+16 découvert en 1974 par Hulse et Taylor a une période moyenne de 59 ms. Moyenne, car celle-ci peut augmenter ou
diminuer de 80 μs sur une journée, une propriété remarquable puisque les plus grandes variations observées jusqu’alors sont de seulement
10 μs sur ... une année. Quelques mois de prise de données montrent que cette variation est due au mouvement du pulsar autour d’un
« compagnon » (une autre étoile à neutrons dans ce cas précis). La vitesse orbitale du système double est de 495 km/s, (soit environ 0,002 fois
la vitesse de la lumière : sa dynamique est affectée par des corrections relativistes) pour une période d’environ 8 heures.
Cette découverte apparaît immédiatement, aux yeux de nombreux spécialistes comme un objet unique pour mettre à l’épreuve la Relativité
Générale. En effet, celle-ci prédit qu’un tel système binaire d’astres compacts doit émettre des ondes gravitationnelles et perdre de l’énergie.
Du fait de leur attraction gravitationnelle, les étoiles se rapprochent très progressivement dans un mouvement en spirale, jusqu’à atteindre une
distance critique en dessous de laquelle elles se précipiteront l’une vers l’autre. Dans le cas de PSR 1913+16, tous les paramètres du mouvement
ont été mesurés de manière extrêmement précise grâce au suivi continu du rayonnement du pulsar depuis plus de 30 ans. En prenant en
compte tous les effets relativistes, la mesure de la variation de la période orbitale du système due à l’émission d’ondes gravitationnelles est en
accord avec la prédiction théorique avec une incertitude de moins de deux pour mille.
Depuis cette découverte, une dizaine d’autres pulsars binaires ont été découverts et quatre sont utilisés pour tester la Relativité Générale,
avec succès jusqu’à présent.

Observer sur Terre des ondes gravita-


tionnelles venant du cosmos
Il existe de nombreuses sources potentielles d’ondes gravitationnelles.
Beaucoup sont transitoires : conséquences d’événements astrophysiques
violents, elles ne sont détectables que pendant une courte durée.
Au contraire, d’autres sont associées à une émission périodique – par
exemple une étoile à neutrons asymétrique en rotation ultrarapide. Les
ondes gravitationnelles ainsi produites se caractérisent par leur amplitude
et leur fréquence, lesquelles peuvent évoluer au cours du temps. Toute
tentative réaliste pour mettre en évidence ces signaux doit s’adapter à
ces contraintes en conjuguant sensibilité et couverture d’une zone
intéressante du spectre des ondes gravitationnelles
Évolution du décalage temporel du périastre
Dans les années 1960, Joseph Weber propose et construit un premier
du système binaire PSR1913+16 mesuré par
Joël Weisberg et Joseph Taylor sur plus de
type de détecteur : une barre en aluminium dont la vibration présente
trente ans. Le périastre est le moment où un phénomène de résonance pour peu que le cylindre métallique soit
les deux astres sont les plus proches l’un de excité à la bonne fréquence. Hors de cet intervalle très étroit (quelques
l’autre. Si la période orbitale du système dizaines de Hz au plus), la barre de Weber est « aveugle ». Comme
diminue, cette configuration se produit elle est aussi limitée en taille et que l’interprétation de ses résultats est
un peu plus tôt à chaque révolution. Les difficile – plusieurs « fausses découvertes » émaillent l’histoire de cette
points noirs représentent l’accumulation de technologie – des alternatives ont très vite été étudiées. Parmi les pistes
la différence (exprimée en secondes) entre explorées, la plus prometteuse s’est révélée être l’interférométrie laser
temps observé et temps attendu si la période
qui permet de construire de grands détecteurs sensibles sur une bande
orbitale ne changeait pas. La prédiction
théorique liée à l’émission d’ondes
de fréquence de plusieurs kHz. Cette idée, mentionnée pour la première
gravitationnelles est indiquée par la ligne fois par les physiciens soviétiques Michail Gerstenstein and V.I. Pustovoit
continue : l’accord est très bon. en 1963, est reprise indépendamment en 1972 par un chercheur du MIT,
page 20

ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
Rainer Weiss. Celui-ci démontre la faisabilité d’un tel Événements astrophysiques violents
instrument dans un article ; la même année, Robert Une « bonne » source d’ondes gravitationnelles est un astre massif et compact
Forward construit le premier prototype. qui relâche beaucoup d’énergie d’un coup – seule une faible fraction est
convertie en ondes gravitationnelles. Une telle émission peut se produire
Au cours des décennies suivantes plusieurs pays lors de certains phénomènes astrophysiques violents.
se lancent dans la construction d’interféromètres ● La coalescence de deux astres compacts (rencontre de deux étoiles à
kilométriques pour détecter les ondes neutrons et/ou trous noirs) ; c’est par exemple ainsi que finira le pulsar
binaire PSR 1913+16 dans 300 millions d’années ! Actuellement séparés
gravitationnelles : l’Allemagne, l’Australie, les États-
de plusieurs millions de km, les deux étoiles compagnons se rapprochent
Unis, la France, l’Italie, le Japon et le Royaume-Uni. d’environ 1 cm par jour.
Ces détecteurs sont constitués d’une part de miroirs ● Une supernova de type II : l’explosion d’une étoile massive dont le
de quelques dizaines de kilogrammes que l’on isole cœur s’effondre sur lui-même une fois son carburant nucléaire épuisé.
au maximum de toute source de vibrations et d’autre Malheureusement, le signal produit est si faible que seule une supernova
part d’un faisceau laser ultra-stable qui parcourt les située dans notre Galaxie pourrait être détectée ; comme le taux de ces
deux bras de l’interféromètre avant d’interférer et événements est d’environ un tous les trente ans, il convient de se montrer
de produire le signal finalement observé. Leurs sites patient.
sont choisis en raison de leur étendue, des bonnes ● Des trous noirs ou des étoiles à neutrons créés depuis peu et qui, comme
des enfants un peu turbulents, « s’agitent dans tous les sens » en émettant des
propriétés sismiques du sol et de leur éloignement
ondes gravitationnelles. En se désexcitant ils retournent en fait à l’équilibre.
de toute activité humaine (afin de réduire les bruits ● Par ailleurs, il semble de plus en plus probable aux yeux des astrophysiciens
anthropiques), mais concilier tous ces éléments n’est que les sources de Gamma Ray Bursts (GRB) ou « sursauts gamma » (voir
pas toujours facile. « ICPACKOI » sur le satellite Fermi-GLAST) émettent aussi des ondes
gravitationnelles ; ces sources seraient des supernovæ pour les GRB longs et
la coalescence d’étoiles à neutrons ou de trous noirs pour les GRB courts.

Au passage d’une onde gravitationnelle d’amplitude h une longueur L varie


d’une quantité ΔL liée à ces deux grandeurs par la relation : h ≈ ΔL / L
Un détecteur est d’autant plus sensible qu’il peut mesurer des variations de
distance petites par rapport à sa taille : pour progresser on doit donc soit
améliorer sa sensibilité (c’est-à-dire détecter des changements plus ténus),
soit augmenter sa taille. Les ondes gravitationnelles sont si faibles que le défi
relevé par les détecteurs géants dont nous parlons dans la suite consiste à
© Uni. Maryland

mesurer l’équivalent de la distance Terre-Soleil (150 millions de km) à un


atome près (taille 10-10 m) !
Une onde gravitationnelle étant une sorte de vibration de l’espace-temps,
sa fréquence est un paramètre important. Prenons d’abord un détecteur
Joseph Weber et son premier détecteur en 1965 à l’Université basé sur un phénomène de résonance : seule une excitation à sa fréquence
du Maryland aux États-Unis. caractéristique, dite fréquence de résonance, est amplifiée suffisamment
pour être détectable. Si la vibration change – même très légèrement – le
Barre résonante de Weber signal s’annule presque complètement. Une connaissance suffisante des
La barre métallique absorbe une toute petite fraction de sources potentielles d’ondes gravitationnelles, et en particulier de la gamme
l’énergie de l’onde gravitationnelle, qui est transformée de fréquences produites, est donc nécessaire pour mettre au point un tel
en une oscillation mécanique ensuite amplifiée et instrument. On peut également concevoir des détecteurs « large-bande »
convertie en impulsions électriques. La faiblesse des ondes sensibles sur un intervalle conséquent en fréquence – plusieurs kHz.
gravitationnelles impose de réduire les sources de bruit Leur bruit de mesure (la composante aléatoire toujours présente dans les
parasites (vibrations, électronique, etc.) pour espérer détecter données qui est susceptible de masquer un vrai signal si celui-ci est trop
un signal d’amplitude réaliste. La dernière génération de ces faible) peut se voir comme la superposition de « bruits fondamentaux » :
détecteurs, mise en service au début des années 2000, utilise des composantes oscillant chacune à une fréquence particulière – voir
en particulier des barres cryogéniques fonctionnant à une « Analyse ». La réponse de tels instruments n’est en général pas uniforme :
température d’une fraction de degré Kelvin. De manière un bruit particulier affecte tout ou partie du spectre ; de même, une
générale, une barre de Weber n’est performante que dans amélioration de l’appareillage n’a en général d’effet que dans une bande de
une bande de fréquence d’au maximum 100 Hz autour de la fréquence donnée.
résonance, située vers 1 kHz.
page 21

ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
Les expériences LIGO, à Hanford (état de
Washington ; photo de gauche) et Livingston
(Louisiane ; photo de droite). Ces photos
aériennees montrent les bâtiments centraux
des interféromètres qui contiennent la source
laser, la plupart des miroirs et le système de
détection du signal. On voit également l’un
des deux bras en entier (4 km de long) ainsi
que le début du second, partant à angle

© LIGO
droit.

Aux États-Unis, le projet LIGO regroupe trois détecteurs géants dans deux
sites séparés de quelques 6000 kilomètres. Le premier, situé à Hanford dans
© LIGO

l’état de Washington est constitué de deux interféromètres qui partagent


la même enceinte à vide : l’un a des bras de 4 kilomètres, tandis que
l’autre a des bras de 2 kilomètres seulement. Ainsi, si l’un des instruments
est en maintenance de longue durée (comme c’est actuellement le cas)
l’autre peut continuer à prendre des données. De plus, une détection
en coïncidence par les deux interféromètres aiderait à démontrer qu’une
vraie onde gravitationnelle a été observée – à condition bien évidemment
d’être capable d’éliminer les bruits corrélés, par exemple les vibrations
du sol. Le troisième détecteur est à Livingston dans l’État de Louisiane.
Le projet franco-italien Virgo est lui, situé dans la plaine de l’Arno, à 15
km de Pise.

Il existe d’autres détecteurs d’ondes gravitationnelles. Celui construit par


le Japon dans la banlieue de Tokyo s’appelle TAMA. Avec des bras de 300
© Virgo

mètres il possède une sensibilité limitée comparée à celle de LIGO ou


de Virgo, mais il permet de tester certaines idées utiles pour de nouvelles
Site du détecteur Virgo situé près de Pise générations d’expériences. Enfin, l’Allemagne et le Royaume Uni se sont
en Italie. Ici, les bras ne font « que » 3 associés à partir de 1995 pour construire près de Hanovre l’interféromètre
km de long ; les édifices que l’on voit le
GEO dont les bras feront 600 mètres. De part sa taille réduite et sa
long des tubes clairs sont situés à 1,5 km
du bâtiment central. configuration optique particulière il s’agit plus d’un détecteur prototype
utile pour tester de futures technologies que d’un observatoire susceptible
de faire une découverte.

Tout ce que vous avez toujours voulu


savoir sur un interféromètre
À la base, un détecteur comme Virgo ou LIGO est un interféromètre
de Michelson. De nombreuses améliorations sont apportées à ce
Exemple ci-dessus de deux ondes (en principe pour rendre l’instrument plus sensible au passage d’une onde
bas) donnant une onde amplifiée en gravitationnelle. Certaines visent à réduire le bruit de mesure tandis que
© B. Mazoyer

haut. À droite, exemple de deux ondes


d’autres « dopent » ses performances.
dites en opposition de phase et donnant
un signal plat.
Tout d’abord, les miroirs sont isolés des vibrations du sol qui les font
se déplacer de manière aléatoire. Pour y parvenir, on les suspend à des
atténuateurs sismiques par deux fils métalliques. Ces systèmes permettent
de s’affranchir du bruit sismique pour des fréquences supérieures à
page 22

ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
Schéma d’un interféromètre de
Michelson avec miroirs suspendus – un
« Virgo » ou un « LIGO » simplifié en
quelque sorte.

© Élémentaire
quelques dizaines de hertz. En
Interféromètre de Michelson
dessous de ce seuil, ces oscillations Un interféromètre de Michelson est un appareil composé de deux « bras » avec :
ne sont plus réduites et Virgo ● une source lumineuse, par exemple un laser ;
comme LIGO deviennent aveugles : ● un miroir particulier, la lame séparatrice qui, comme son nom l’indique, sépare le faisceau
les deux détecteurs sont de fait lumineux en deux parties d’intensités égales, émises à 90° l’une de l’autre et envoyées dans les
totalement insensibles à un signal « bras » de l’interféromètre ;
gravitationnel de basse fréquence. ● deux miroirs d’extrémité en bout de bras sur lesquels les ondes lumineuses se réfléchissent
Un autre bruit important, dominant et repartent en sens inverse ;
pour des fréquences intermédiaires, ● et enfin un dispositif de mesure composé de photodiodes, utilisées pour recueillir le signal
en sortie, issu de l’interférence des deux faisceaux qui ont circulé dans les deux bras du
est le bruit thermique des miroirs
détecteur avant de se recombiner sur la lame séparatrice.
et des fils de suspension. Dû au Comme des vagues à la surface de l’eau, des ondes lumineuses qui se rencontrent dans
mouvement brownien des atomes qui une zone de l’espace se mélangent ; le résultat est soit amplifié, soit atténué, selon que
les composent, il peut être limité par leurs amplitudes s’ajoutent ou s’opposent. Dans un interféromètre, toute différence dans le
un choix adéquat de matériaux et en parcours des deux ondes (longueurs des bras, caractéristiques des miroirs, etc.) se traduit par
diminuant au maximum la friction au une modification de la figure d’interférence en sortie du détecteur. Son étude – un exemple
niveau des points d’accroche. Au-delà d’une science plus vaste appelée interférométrie et très utilisée en astronomie – fournit des
de quelques centaines de hertz, LIGO informations sur le phénomène étudié par l’intermédiaire du détecteur. Inventé à la fin du
et Virgo sont limités par le « bruit de XIXe siècle pour démontrer que la vitesse de la lumière ne varie ni dans le temps ni selon la
direction d’observation, l’interféromètre de Michelson sert aujourd’hui à étudier les défauts
comptage » : le nombre de photons
de la surface d’un miroir ou... à chercher les ondes gravitationnelles !
collectés sur les photo-détecteurs

Atténuateur sismique de Virgo : le « superatténuateur »


Mesurant plusieurs mètres de haut, il est constitué d’une structure métallique
qui oscille à basse fréquence sous l’effet des vibrations du sol et à laquelle sont
attachés cinq filtres mécaniques successifs. Le miroir et son système de contrôle
constituent eux-mêmes un filtre. Chaque étage atténue la transmission du bruit
sismique venant de plus haut : pour des fréquences supérieures à quatre Hz, le
mouvement résiduel du miroir (accroché tout en bas de la suspension) n’est plus
dominé par les vibrations du sol, et ce même si des routes fréquentées passent
non loin des bâtiments qui abritent les miroirs.
Si le laser et les techniques de contrôle de Virgo et LIGO sont assez semblables,
les deux expériences se différencient par le système d’atténuation sismique des
miroirs. Pour LIGO le « mur » sismique s’étend jusqu’à 40 Hz environ. Ainsi,
Virgo est potentiellement plus sensible aux ondes gravitationnelles émises par
des pulsars dont les fréquences théoriques varient entre quelques Hz et quelques
dizaines de Hz.
© Virgo
DR

page 23

ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
« Que faire le jour où nous serons en présence d’un signal potentiel d’onde gravitationnelle ? »
Ce problème est d’autant plus aigu que les interféromètres sont en limite de sensibilité et que les détections, au-moins au début, seront rares.
Il faut donc éviter deux écueils : annoncer une découverte pour la démentir ensuite ; rejeter un vrai signal.
Attribuer à une onde gravitationnelle une vibration enregistrée dans un instrument isolé sera très difficile, et certainement sujet à controverse.
Par contre, un signal observé en coïncidence dans au moins deux détecteurs paraîtra beaucoup plus réaliste. Si les interféromètres sont éloignés
géographiquement, les bruits qui les affectent sont indépendants alors que les signaux induits par une onde gravitationnelle sont corrélés.
L’étape suivante consiste à analyser de manière cohérente les informations provenant d’un réseau d’interféromètres. Si on connaît la direction
de la source, on peut prédire l’évolution (en temps et en amplitude) du signal dans chaque détecteur et combiner leurs données de manière
optimale pour faire ressortir l’onde gravitationnelle du bruit. On a alors un « super-interféromètre » bien plus performant que les instruments
pris individuellement. Le prix à payer se voit au niveau de la complexité de l’analyse et de la puissance de calcul nécessaire : comme la source
est a priori inconnue, il faut chercher en parallèle dans toutes les directions du ciel.
Ce problème disparaît dans le cas où l’origine du signal est identifiée par d’autres détecteurs, par exemple des télescopes captant le rayonnement
électromagnétique (optique, rayons gamma, etc.) ou des neutrinos (émis en nombre par une supernova). Virgo et LIGO appartiennent donc
à des réseaux internationaux regroupant des instruments variés et qui émettent une alerte dès qu’ils détectent un phénomène susceptible
d’intéresser les autres membres.

Contrôle
Le fonctionnement d’un interféromètre fluctue selon une loi de probabilité de Poisson décrivant des évènements
est complexe : pour avoir la sensibilité rares (voir Élémentaire N°3), ce qui gêne l’interprétation des signaux
adéquate, il faut que le détecteur soit enregistrés.
contrôlé de manière continue. Même si
les déplacements résiduels des miroirs
suspendus sont faibles (leur amplitude
Parlons un instant du laser – aussi stable que possible – qui fournit
est bien inférieure au millimètre), ils sont une puissance d’une dizaine de watts, émise dans l’infrarouge. Le
suffisants pour rendre le détecteur aveugle calcul montre qu’un interféromètre est d’autant plus sensible que la
et inutile. Il importe donc de synchroniser puissance lumineuse stockée est élevée. C’est pourquoi Virgo et LIGO
leurs mouvements pour que les distances utilisent des configurations optiques plus complexes que le « Michelson
les séparant restent constantes – avec une simple » présenté précédemment. Au prix d’un contrôle plus délicat,
précision meilleure que le nanomètre. Si leurs performances sont équivalentes à celles d’un appareil dont la
contrôler deux suspensions est relativement source lumineuse serait cinquante fois plus puissante et les bras (déjà
simple, les choses se compliquent quand il
kilométriques) trente fois plus longs. Cette dernière propriété – essentielle
faut prendre en compte le couplage entre
les quatre cavités formées par les six miroirs
puisque la sensibilité du détecteur dépend du changement relatif de
principaux d’un détecteur comme Virgo ou longueur – est obtenue grâce à des miroirs supplémentaires qui allongent
LIGO. le parcours des faisceaux lumineux.
Ces instruments sont donc contrôlés en
permanence par un système automatisé Les miroirs sont des composants essentiels des détecteurs. Fabriqués en
qui mesure de nombreux paramètres toutes silice, ils sont les plus lourds possible afin de réduire le bruit thermique,
les 100 μs, s’assure qu’ils ont les valeurs inversement proportionnel à la racine carrée de leur masse. Ils font trente
attendues et, dans le cas contraire, déclenche centimètres de diamètre environ et sont ultra-propres pour limiter les effets
les actions de correction appropriées. Parfois
thermiques dus à l’absorption lumineuse – d’autant plus importants que la
une intervention humaine est nécessaire ;
elle est coordonnée et assurée par les équipes
puissance stockée est élevée. Un traitement de surface leur est également
d’opérateurs, d’ingénieurs et de physiciens appliqué pour qu’ils aient les bonnes propriétés de transparence ou de
qui se relaient sans interruption en salle de réflexion : leurs pertes se limitent à quelques millionièmes de l’intensité
contrôle. des faisceaux. Un laboratoire spécial situé à Lyon (le Laboratoire des
Il n’est pas rare que la synchronisation des Matériaux Avancés, LMA) a été financé par Virgo pour lui fournir les
miroirs soit perdue au bout de quelques meilleurs miroirs possibles. Si les substrats sont achetés à des industriels,
heures (ou de quelques jours) à cause d’un leur conditionnement est effectué au LMA, seul capable de réaliser ce
tremblement de terre... en Chine ou en processus avec la précision souhaitée sur un diamètre aussi grand.
Amérique du Sud, ou encore d’un orage
violent. La procédure pour rétablir la
situation est maintenant quasi-automatique
page 24

dans la plupart des observatoires.


ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
Courbe de sensibilité théorique d’un détecteur interférométrique
d’ondes gravitationnelles (les échelles des deux axes sont
logarithmiques). En chaque point du spectre, la valeur de la courbe
(exprimée en unité arbitraire) est reliée à l’amplitude qu’une onde
vibrant à cette fréquence devrait avoir pour être détectée : plus
elle est basse, plus l’appareil est performant car le bruit est faible.
Cette manière de décrire un signal en termes de fréquence plutôt
que par ses variations temporelles est courante en physique – voir
« Analyse ».
Les trois principales contributions au bruit de mesure sont indiquées
sur la figure : bruit sismique en dessous de quelques Hz, bruit
thermique jusqu’à quelques centaines de Hz et bruit de comptage
des photons au-delà. Dans une gamme de fréquence donnée un
bruit domine en général tous les autres – bien qu’ils soient présents
ces derniers n’ont aucune influence mesurable sur la sensibilité de
l’instrument dans cette zone.

Les bruits dont nous venons de parler sont « fondamentaux » : liés à


la construction de l’interféromètre, on doit s’en accommoder même
si une bonne conception permet de les réduire. Ils sont regroupés
sous cette dénomination commune pour mieux les opposer aux bruits
« d’environnement » qui, eux, polluent les mesures sans avoir été invités
à y participer ! Ces derniers sont donc traqués inlassablement, le but étant
de les ramener sous le niveau des bruits fondamentaux.

L’ensemble du détecteur est ainsi placé dans une enceinte à vide (en

© Virgo
bobines
fait un ultra-vide de 10-9 millibar, soit un millionième de millionième
d’atmosphère) afin de réduire l’interaction entre le faisceau laser et
les molécules de gaz résiduelles. La sensibilité serait réduite en cas de « Miroir, mon beau miroir »... La lame
diffusion tandis que le passage de grosses particules à travers le faisceau séparatrice de Virgo... sépare ( !) le laser en
pourrait imiter une onde gravitationnelle. Les tubes dans lesquels circulent deux faisceaux qui parcourent ensuite les
les faisceaux font environ un mètre de diamètre : LIGO et Virgo utilisent bras de 3 km. Elle est entourée d’une masse
les plus grandes enceintes à ultra-vide jamais construites ! en aluminium à laquelle sont attachées des
bobines qui servent à contrôler le miroir
sur lequel sont collés des aimants. Selon le
Le bruit acoustique fait vibrer les éléments optiques de l’interféromètre. courant parcourant les bobines, les forces
Il faut en particulier les isoler au maximum du système de climatisation, entre ces dernières et les aimants varient,
ce qui n’est pas toujours évident car il faut également assurer une bonne ce qui se traduit par un mouvement de la
circulation de l’air dans les pièces qui contiennent le laser ou les tables monture métallique, et donc du miroir.
optiques – la température doit y être constante. À Virgo, ce bruit provient Avec de bons yeux, on peut distinguer les
également d’avions militaires qui survolent parfois l’interféromètre à deux fils de 100 micromètres (le diamètre
basse altitude, déplaçant de grands volumes d’air sur leur passage. Cette d’un cheveu !) qui entourent le miroir.
contribution est heureusement assez facilement identifiée grâce à des
microphones placés dans tous les bâtiments : les données prises pendant
ces périodes sont ignorées car dominées par le bruit. Toujours à Virgo, des
ventilateurs (et plus précisément les faibles champs magnétiques produits
par leur fonctionnement) ont été identifiés comme une source de bruit,
insolite mais bien réelle. Ils ont été remplacés par d’autres modèles, plus
« discrets ».
page 25

ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
Zoom sur les collaborations LIGO
et Virgo
À l’instar des projets de physique des hautes énergies, LIGO et
Virgo rassemblent de vastes communautés scientifiques qui ont
connu une histoire longue et mouvementée. Le projet LIGO
est approuvé et financé par la National Science Foundation
© LIGO

américaine (NSF) en 1990. En 1992 les deux sites de Livingston


et Hanford sont choisis et un accord entre la NSF et Caltech
La partie centrale de l’interféromètre LIGO (Californie) est signé. C’est ce laboratoire qui va gérer LIGO
à Livingston avec les tours qui contiennent avec l’aide d’un autre gros centre de recherche américain, le MIT
le système d’atténuation sismique des (Massachusetts). En 1999, le projet est officiellement inauguré ; même si
miroirs d’entrée des cavités Fabry-Pérot des tous les éléments ne sont pas encore installés sur les deux sites, la mise
deux bras. en route des détecteurs a déjà commencé. L’expérience acquise sur des
prototypes de taille réduite permet à LIGO de progresser rapidement et, en
2002, la première prise de données scientifiques a lieu pendant trois jours.
Plusieurs campagnes de mesure se succèdent ensuite. En 2005, les trois
interféromètres LIGO atteignent leurs performances nominales et
LIGO fait sa cinquième prise de données scientifiques de novembre
2005 à octobre 2007 ce qui lui permet d’accumuler l’équivalent
d’un an de données avec trois détecteurs en coïncidence.

En parallèle à la construction des observatoires LIGO et à leur


mise en service, une collaboration internationale s’est créée : la
LIGO Science Collaboration (LSC). Elle a pour principales activités
l’analyse des données de LIGO et la coordination des efforts
de recherche-développement pour améliorer la sensibilité des
détecteurs. La LSC comprend en particulier tous les laboratoires de
la collaboration anglo-allemande GEO. Actuellement, plus de cinq
cents personnes contribuent à la LSC et signent ses publications.
© Virgo

Virgo a démarré à peu près au même moment que LIGO. Ce projet


a été proposé et construit par une dizaine de laboratoires français
(CNRS) et italiens (INFN). À cause des difficultés pour l’achat des
Une vue de la partie centrale du détecteur
terrains, le génie-civil a pris quelques années de retard. Dès 2001
Virgo. On distingue les enceintes à vide
d’une dizaine de mètres de hauteur qui
des tests ont été menés sur la partie centrale du détecteur, un interféromètre
contiennent les systèmes d’atténuation de quelques mètres de long (Virgo sans ses bras kilométriques) pendant
sismique auxquels sont suspendus les que l’installation des autres éléments se poursuivait. Depuis 2002 le
miroirs. La « tour » au centre de la site (Cascina, près de Pise) est géré par EGO, un consortium de droit
photographie contient le miroir qui sépare privé financé par le CNRS et l’INFN, chargé du fonctionnement de
la lumière laser en deux faisceaux qui l’interféromètre au quotidien. La première prise de données de Virgo
circulent dans les bras de l’interféromètre (cinq mois en coïncidence avec LIGO) a eu lieu en 2007 bien que la
(partant vers la droite et le fond de la sensibilité nominale du détecteur n’ait pas encore été atteinte – c’est
photo). Le faisceau laser vient de la tour la
aujourd’hui presque le cas. En parallèle, la collaboration s’est agrandie
plus à gauche.
en accueillant de nouvelles équipes basées en Europe. Dix-huit groupes
de cinq pays différents participent désormais à Virgo et cent cinquante
personnes environ signent ses publications.
page 26

ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
Présent et futur de la recherche directe
des ondes gravitationnelles
En 2006, un accord de collaboration entre la
LSC et Virgo a été signé ; il prévoit l’échange des
données prises par les deux expériences en vue
d’une exploitation scientifique commune. En
effet, seule une coïncidence associant plusieurs
interféromètres et éventuellement d’autres
types de télescopes (optique, à neutrinos,
etc.) sera jugée suffisamment probante par la
communauté scientifique pour officialiser la
découverte des ondes gravitationnelles.

Depuis octobre 2007, la prise de données Virgo-


LIGO est officiellement arrêtée, même si GEO
et le détecteur de 2 km de LIGO continuent
de fonctionner – au cas où ... Cette période
de maintenance a été décidé de manière
conjointe par souci d’efficacité : comme nous
l’avons vu, les interféromètres ont intérêt à
fonctionner de manière simultanée pour mettre
toutes les chances de leur côté. Chacune des
collaborations profite de ce répit pour améliorer les performances des
instruments, installer de nouveaux systèmes de contrôle ou encore réduire
une source de bruit identifiée au préalable. Le but est de gagner un facteur
deux en moyenne sur les sensibilités nominales. Une fois ce programme
réalisé, un nouveau cycle de prise de données en coïncidence débutera :
pendant au moins six mois il s’agira de maintenir en permanence les
instruments à leur meilleure sensibilité.

À l’échelle de cinq ans environ l’arrivée de détecteurs de nouvelle


génération (« Advanced » Virgo et LIGO) ayant des sensibilités dix
fois plus importantes devrait apporter un vrai plus. En effet, un
tel gain signifie que le volume de l’espace auquel les détecteurs
seront sensibles augmente d’un facteur 103. Cette « vision élargie »
se traduit par un meilleur accès à la principale source potentielle
d’ondes gravitationnelles, les coalescences de systèmes binaires
(étoiles à neutrons ou trous noirs). Les détecteurs actuels permettent
de couvrir des distances de l’ordre de 15 Mpc. Compte tenu de la
distribution des galaxies dans un tel volume et du nombre d’objets
compacts par galaxie, ceci correspond à quelques coalescences
© LIGO

d’étoiles à neutrons par siècle ! Une fréquence comparable est


espérée pour des trous noirs, bien que le nombre de ces objets par Vue de la salle de contrôle de LIGO (site de
galaxie soit moins bien connu que pour les étoiles à neutrons. En passant Hanford) en 2005.
à 150 Mpc, le nombre d’événements détectables grimperait à quelques
dizaines par an.
page 27

ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
Mais l’avenir de la recherche des ondes gravitationnelles passe aussi par
l’espace. Les agences spatiales américaine (NASA) et européenne (l’ESA)
ont un projet commun « d’interféromètre » géant à l’horizon 2018 : LISA,
pour Laser Interferometer Space Antenna. Ses trois satellites formeraient
deux « bras » éloignés de cinq millions de km et s’échangent des
impulsions laser précisément synchronisées – à de telles échelles, il est
impossible d’utiliser des réflexions sur des miroirs. LISA vise une bande de
fréquence différente (entre 0,1 mHz et 0,1 Hz) de celle des observatoires
au sol – lesquels ne peuvent descendre en dessous de quelques Hz à
© LIGO Laboratory

cause du bruit sismique. Les sources d’ondes gravitationnelles auxquelles


un tel détecteur serait sensible sont de nature un peu différente de celles
cherchées par les observatoires terrestres : il peut s’agir de la coalescence
de trous noirs supermassifs de plusieurs millions de masse solaire (dont
l’existence est très probable et le signal gravitationnel prédit avec précision)
Vue d’artiste montrant l’intérêt
d’améliorer la sensibilité d’un détecteur
ou de signaux périodiques émis par des systèmes d’étoiles doubles dans
d’ondes gravitationnelles par un facteur notre galaxie.
10. Le volume d’Univers observable passe
de la petite sphère rouge (en bas à gauche)
à la sphère bleue, ce qui permet de gagner
toutes les sources indiquées (de manière
fictive et selon une répartition uniforme)
par des points jaunes.
© LISA

Une vue d’artiste du projet LISA (Laser


Interferometer Space Antenna) constitué de
3 satellites communiquant à l’aide de lasers
de haute intensité.
page 28

ÉLÉMENTAÍRE
Expérience
La mission PLANCK
Corps noir
Planck est une mission de l’Agence spatiale européenne (ESA). Elle tire Un « corps noir » est un corps idéal
son nom du physicien allemand Max Planck, qui formula en 1900 l’équa- qui absorbe tous les rayonnements
tion du spectre du corps noir, première pierre de la construction de la (toutes les fréquences) qu’il reçoit et
mécanique quantique. Le début de la conception du projet date de 1993. les réémet de manière aléatoire, dans
Sa mise en œuvre est assurée par 13 laboratoires européens (dont 5 en un équilibre qui ne dépend que de
France) et nord-américains ainsi que par Thales Alenia Space (maître la température. Planck a déterminé
d’œuvre du satellite et responsable de l’intégration des instruments et des la forme mathématique du spectre
tests) et Air Liquide (pour le refroidissement à 0,1K). de ce rayonnement dans les années
1900. La densité de photons du
corps noir dépend uniquement de sa
Observer les empreintes des premiers température. Pour le CMB à 2,7K, on
a 411 photons par cm3.
pas de l’Univers
L’expérience Planck vise à obtenir des informations avec une précision
inégalée sur les premiers instants de l’Univers, en mesurant les photons
du rayonnement fossile (CMB, voir « Théorie »). Le spectre de ce rayon-
nement est, à un très bon degré d’approximation, celui d’un corps noir,
caractéristique de son origine thermique, à une température d’environ
2,7K ce qui correspond à des longueurs d’onde de l’ordre du millimètre,
c’est-à-dire des fréquences entre un et quelques centaines de GHz.

Vue schématique du satellite.


page 29

ÉLÉMENTAÍRE
La mission PLANCK
Si le spectre du CMB a été (et reste) un sujet d’étude
important, ce sont surtout les anisotropies de tem-
pérature qui sont maintenant sur le devant de la
scène, car elles fournissent des informations plus
détaillées sur l’état de l’Univers au moment de
l’émission de ces photons (voir « Analyse »). Planck
est ainsi capable de détecter des changements de
température qui sont de l’ordre du millionième de
la température du CMB et ce malgré la présence
à proximité (relative) d’éléments chauds comme la
Terre, la Lune et le Soleil. Pour exemple, si Planck
restait sur Terre, il serait en mesure de détecter le
rayonnement thermique d’un lièvre sur la Lune !

La température n’est pas la seule source de ren-


© ESA

Derniers préparatifs pour Planck : le seignements : comme tout rayonnement électro-


satellite a été nettoyé avec un aspirateur magnétique, le CMB peut être polarisé par diffusion (dite « diffusion
extrêmement puissant puis toute la
Thompson ») des photons sur la matière. Cette polarisation apporte des
surface est inspectée sous éclairage UV
car les poussières résiduelles sont alors
informations supplémentaires sur notre Univers. En particulier, certaines
fluorescentes. de ces caractéristiques nous apportent des informations concernant les
ondes gravitationnelles générées durant la phase d’inflation cosmique,
une période d’expansion rapide dans les premiers instants de l’Univers
(voir «Théorie»). Mais c’est une information très difficile à détecter car
excessivement ténue (10 à 1 000 fois plus faible que le signal principal).

Les instruments de Planck


L’instrument, d’un poids de 2 tonnes (au lancement), et de 4,2 mètres de
hauteur sur 4,2 mètres de diamètre est composé de trois éléments :
• un télescope de 1,5 m de diamètre, avec une
configuration dite «hors d’axe» : ses miroirs
sont décalés l’un par rapport à l’autre. Ceci évi-
te des phénomènes de diffraction, gênants aux
longueurs d’onde où on veut détecter le CMB.
Deux instruments, couvrant des gammes com-
plémentaires de longueurs d’onde, cohabitent
au foyer du télescope et sont refroidis par un
système cryogénique complexe.
• les fréquences comprises entre 20 et 100 GHz
sont analysées par l’instrument basse fréquence
(LFI). Il est composé de 56 récepteurs de type
radio, répartis dans 4 bandes de fréquences.
Étant refroidi à « seulement » 20 K, il entoure
l’instrument haute fréquence et partage le pre-
mier étage du refroidissement de ce dernier.
page 30

ÉLÉMENTAÍRE
La mission PLANCK
• l’instrument haute fréquence (HFI), enfin, comporte 52 canaux
répartis dans 6 bandes entre 100 et 900 GHz environ. Ses détec-
teurs sont des bolomètres (voir « Détection ») qui convertissent

© PLANCK
la radiation sub-millimétrique incidente en chaleur. Certains sont
spécialement conçus pour mesurer la polarisation. Pour leur assu-
rer une sensibilité optimale, ils seront refroidis à 100 mK par un
cryostat utilisant un mélange d’hélium 3 et d’hélium 4 suite à un Le plan focal de l’instrument Planck-
programme de recherche financé par le CNES. Il s’agit de l’objet le plus HFI en configuration d’étalonnage à
froid jamais lancé dans l’espace ! l’Institut d’Astrophysique Spatiale à
Orsay. On voit les cornets qui guident les
ondes jusqu’aux bolomètres de Planck-
Planck n’est pas la première mission spatiale à étudier le fond cosmolo- HFI. Refroidis à 0,1 K et illuminés
gique. Son ancêtre, COBE, en 1992, avait une résolution de 7° sur le ciel à travers une optique spécialement
(une pleine lune correspond à 0,5°). En 2001, WMAP descendait à 15 conçue pour fonctionner à très basse
minutes d’arc, soit une résolution 28 fois meilleure. Moins d’une décen- température et sélectionner une gamme
nie plus tard, Planck multiplie encore par 3 cette performance, avec une de longueurs d’onde bien définie dans un
résolution de 5 minutes d’arc. Quant à la mesure des variations de tem- cône étroit (de 10 minutes d’arc environ
pérature, la précision de Planck devrait être environ 10 fois supérieure à d’ouverture).
celle de WMAP.

Par ailleurs, grâce à ses nombreux canaux le satellite Planck


va observer le ciel dans 9 fréquences. Les cartes du ciel con-
tiennent la somme des signaux venant du rayonnement fossile,
du système solaire, des galaxies lointaines et de notre Galaxie.
Schématiquement, certaines fréquences mesureront principale-
ment des bruits de fond (rayonnement de la Galaxie, sources lu-
mineuses localisées) tandis que d’autres contiendront la somme
de certains bruits de fond et du signal recherché. Cette techni-
que de mesure directe des bruits de fond afin de les soustraire
est nécessaire afin de diminuer les incertitudes systématiques.

Vue schématique de la construction des


cartes du ciel. Le ciel est cartographié
pour 9 valeurs différentes de longueur
d’onde. Ces 9 cartes sont ensuite traitées
par informatique afin d’être capable de
dessiner les cartes d’émission de photons
dues à différents processus physiques (6
pour le schéma ci-contre).
page 31

ÉLÉMENTAÍRE
La mission PLANCK
Les satellites Herschel (en haut) et
Planck (en bas) dans la coiffe de
la fusée Ariane-5.

La précision et la résolution angulaire des données


de Planck devraient permettre de mesurer la plupart
des paramètres cosmologiques avec des incertitudes
meilleures que le pour cent.

10... 9... 8... 7... 6... 5... 4...


3... 2...
Le satellite a quitté le centre spatial de Liège où les
derniers tests ont été effectués le 17 février 2009. Il a
été transporté à bord d’un avion cargo Antonov jus-
qu’en Guyane où il est arrivé le mercredi 18 au soir
après une escale de ravitaillement au Cap Vert. Mais
ce n’était que le début du grand voyage de Planck
qui a été lancé le 14 mai 2009, en compagnie du
satellite Herschel, par une fusée Ariane 5.

Il faut deux mois de croisière pour aller jusqu’au se-


cond point de Lagrange du système Terre-Soleil (situé à 1,5 millions de ki-
© Herschel

lomètres de nous). À cet endroit, Planck aura en permanence la Terre et la


Lune dans le même hémisphère que le Soleil. Ces trois astres sont en effet
les principales sources de rayonnements parasites. L’arrière de la sonde
La mission HERSCHEL étudie la
formation et l’évolution des galaxies est ainsi un bouclier, tapissé de panneaux solaires assurant l’alimentation
spirales, l’observation spectroscopique de en énergie des instruments. De l’autre côté, le télescope pointe vers le
comètes, l’atmosphère des planètes et de ciel dans une direction située à 5 degrés du plan du bouclier. Du fait de sa
leurs satellites. Elle va aussi s’intéresser à rotation autour de son axe et de son mouvement autour du soleil, tout le
la physico-chimie du milieu interstellaire ciel sera couvert en revenant plusieurs fois au même endroit. Cette répé-
pour comprendre la naissance des étoiles tition des mesures assure que l’on contrôlera certains effets systématiques
et à l’astrochimie du gaz et de la poussière comme les dérives lentes de la réponse ou du niveau des bruits de fond
pour comprendre le cycle de la matière des détecteurs. Compte tenu de la position du second point de Lagrange,
stellaire et interstellaire.
le débit des échanges entre la Terre et la sonde sera limité à 6 heures par
jour. Pendant cette période il faudra non seulement collecter les données
esc ée
e
op

compressées mais également recevoir les signaux donnant l’état des ap-
tél vis
du e de

pareils et être prêt à envoyer d’éventuelles commandes de correction.


ax

Un des volets importants de l’activité de préparation de Planck concerne


l’analyse des données. Celui-ci a été réalisé en parallèle avec la construc-
85°
soleil
axe de rotation tion des détecteurs pour déterminer les besoins en calcul et construire
des algorithmes performants et adaptés : vérification de la qualité des
signaux, calibration de la réponse des instruments, étude et soustraction
© B. Mazoyer

des bruits de fond, pour arriver à l’évaluation de la corrélation du signal


du CMB pour toutes les paires de points de mesure dans le ciel et à l’ana-
lyse proprement dite. Il est prévu que les travaux de la mise en forme des
données nécessiteront une année de travail. Il ne restera plus aux colla-
Principe de l’observation du ciel par borateurs de Planck que douze mois supplémentaires pour extraire tous
le satellite Planck. La sonde observe le les résultats possibles et exploiter complètement les données. En effet,
ciel en tournant sur elle-même, dos au
comme toute expérience spatiale, Planck a vocation à mettre l’ensemble
soleil.
de ses données à la disposition de la communauté scientifique mondiale
page 32

ÉLÉMENTAÍRE
La mission PLANCK
au bout d’un certain temps. Cette limite d’exploitation « privée » étant
prévue courant 2012, les physiciens de Planck auront donc comme
motivation supplémentaire le désir d’extraire la quintessence des don-
nées enregistrées avant de les rendre publiques.

La température des instruments du satellite (soit 0,1K) devrait être at-


teinte 50 jours après le lancement. La durée de vie du satellite est
liée directement à la quantité de He3/He4 consommée avec une valeur
minimale estimée à 21 mois. Pendant cette période plusieurs relevés
complets du ciel devraient être faits (au minimum 4 ou 5). L’aventure

© ESA
est lancée, les données ne vont pas tarder à affluer...

Aéroport de Liège : le container


transportant Planck est placé à l’intérieur
de l’avion cargo Antonov.

Point de Lagrange
La loi de la gravitation, énoncée par Newton dans la seconde moitié du
XVIIe siècle, permet de décrire le mouvement relatif de corps massifs.
Un siècle plus tard, Joseph-Louis Lagrange s’intéresse au problème du
© ESA

mouvement de trois corps en supposant que l’un d’eux est bien moins
massif que les deux autres : c’est par exemple le cas d’un système satellite-
Terre-Soleil. Son formalisme lui permet de découvrir l’existence de cinq Décollage d’Ariane-5, lanceur des satel-
positions d’équilibre, les points de Lagrange, où les forces gravitationnelles lites, à Kourou le 14 mai 2009 à 15h 12.
se compensent. Dans la pratique, ces positions d’équilibre ne sont pas
stables mais on peut trouver des orbites proches qui le sont presque : une
consommation limitée de carburant permet de s’y maintenir. Un satellite
placé sur l’une de ces trajectoires suit les deux autres corps dans leurs
mouvements et conserve la même position relative par rapport à eux.
Ainsi, les signaux qu’il reçoit varient peu et sont toujours en provenance
des mêmes directions, ce qui rend ces emplacements très intéressants pour
des mesures de précision comme celles de WMAP. Le second point de
Lagrange (L2) est situé sur l’axe Soleil-Terre, au-delà de notre planète et
ainsi dans l’ombre de la Terre.
page 33

ÉLÉMENTAÍRE
Détection
Bolomètres
Comme leur nom l’indique, les bolomètres sont sensibles à l’énergie
Bolomètres
déposée par un rayonnement. Inventés pour l’observation du Soleil à la
Bolomètre vient du Grec « bolē » signifiant « jet »
fin du XIXe siècle, ils restent les plus performants dans le domaine allant
d’où son emploi pour désigner des rayons lumineux,
et non verre de cidre comme on pourrait l’imaginer. de l’infrarouge aux ondes millimétriques, bien que de nombreux autres
On retrouve ce terme, par exemple, dans le mot appareils, basés sur des technologies différentes, aient été développés. D’où
discobole. l’utilisation des bolomètres sur le satellite Planck (voir « Expérience »). Ils
sont aussi employés dans un tout autre champ de recherches que nous
Samuel Pierpont Langley évoquerons également à cause de ses liens avec la cosmologie : celui de
(1834-1906), est un astro- la « matière noire ».
physicien américain qui a
effectué des travaux pionniers
dans la mesure de la constante Principe de fonctionnement d’un bolomètre
solaire et dans l’étude de la
partie infrarouge du spectre Les bolomètres ont été inventés vers la fin des années 1800 par Samuel
DR

solaire (1894). Pour ces Pierpont Langley qui est un des pionniers du passage de l’astronomie
mesures, il invente et développe le bolomètre. Dans
à l’astrophysique : il a cherché à appliquer les lois de la physique pour
les années 1880 il participe aux débuts de l’aviation,
étudiant en soufflerie les différents paramètres
expliquer le rayonnement stellaire ainsi que l’influence du rayonnement
conditionnant le vol d’un plus lourd que l’air. Il solaire sur la Terre. À l’époque, on s’intéresse à la constante solaire et à
fait voler plusieurs prototypes sans pilote, dès 1896, l’énergie émise par le Soleil en fonction de la longueur d’onde. Pour ces
mais échoue par deux fois dans ses tentatives de vol mesures, Langley développe, à partir d’une idée non concrétisée d’Adolf
piloté. En octobre et décembre 1903, son prototype Ferdinand Svanberg (1806-1857), un nouveau type d’appareil utilisant la
« Aerodrome A » ne survit pas au lancement par une variation de la résistance des métaux avec la température : le bolomètre.
catapulte bâtie sur la rivière Potomac en Virginie
(rassurez-vous le pilote n’a pas péri). Quelques jours Les rayons du Soleil sont focalisés sur une feuille de platine très mince
plus tard les frères Wright effectuent leur premier vol
(de l’ordre du micron) ce qui induit une variation de la température du
dans l’état voisin de Caroline du Nord.
métal ainsi que de sa résistance électrique. Ce changement est mesuré, à
l’époque, en utilisant un pont de Wheatstone dont les autres résistances
sont maintenues à température constante par contact avec un bain thermique.
L’instrument est sensible à des variations infimes de température (soit, disait-on
à l’époque, « à la présence d’une vache paissant à 500 mètres de l’appareil »).
Pour ne pas être perturbé par les ruminants ni par les nombreuses usines
sidérurgiques de Pittsburgh (ville située à proximité de l’observatoire où il
effectuait ses recherches), Langley fait des mesures au sommet du mont Whitney
situé dans les Montagnes Rocheuses au Sud Est de la Californie. Opérer en
DR

Prototype d’ « Aerodrome » installé sur la ca- altitude a aussi l’avantage de diminuer les effets parasites de l’atmosphère.
tapulte fatale. Son expédition est relatée dans le New York Times en juillet 1881 avec une
typo malencontreuse qui parle de « balometer » (que l’on pourrait traduire par
Constante solaire «détecteur de ballot») alors qu’en pratique pour mettre en œuvre cet instrument
C’est l’énergie solaire arrivant perpendicu- extrêmement sensible, il faut dépenser des trésors d’ingéniosité pour être sûr
lairement sur une surface de 1m2 placée que les variations observées sont bien le résultat du phénomène étudié.
au niveau de l’orbite terrestre. Elle vaut
1367 W/m2. L’énergie reçue au niveau du
sol est inférieure car elle est atténuée par Le principe du bolomètre consiste donc à
l’atmosphère et dépend de la direction du transformer en chaleur l’énergie transportée
Soleil. par un rayonnement et à mesurer l’élévation
de température correspondante via un circuit
Pont de Wheatstone
On dit qu’il est à l’équilibre lorsque aucun électrique. De nos jours, il comporte un absorbeur
courant ne passe dans l’ampèremètre (A). et un thermomètre, dont le rôle est joué par une
Dans ce cas les valeurs des résistances thermistance, qui est en contact avec un bain
satisfont l’égalité : R1 x R4 = R2 x R3 thermique ou source froide. Un courant, dit de
Si une des résistances change, on peut relier polarisation, traverse en permanence la résistance
sa variation au courant circulant entre les dont on mesure la tension aux bornes. Sans apport
page 34

deux bras.
ÉLÉMENTAÍRE
Principe du fonctionnement d’un bolomètre.

extérieur, le système fonctionne à température constante et est à l’équilibre,


����������
c’est-à-dire que la puissance produite dans la résistance par effet Joule est ����������� ������������
évacuée en permanence vers la source froide. Si l’absorbeur reçoit l’énergie
véhiculée par un photon, celle-ci provoque une élévation de température
qui induit une variation de la résistance (appelée thermistance à cause ����������� �����������
de cette propriété) ce qui modifie la tension mesurée. C’est ce signal qui
est enregistré après avoir été amplifié. Sa durée dépend de la capacité
thermique de l’absorbeur et de la vitesse d’évacuation de la chaleur. Les �������������
���������
bolomètres sont refroidis à très basse température afin de diminuer la valeur
��������������
de la capacité thermique ce qui permet d’augmenter leur sensibilité à des
dépôts d’énergie de plus en plus faibles. Opérer à basse température est aussi Bain thermique
un moyen de diminuer l’importance des différentes sources de bruit. Réservoir de matière ayant une grande
inertie thermique, dont la température reste
constante et qui sert à évacuer la chaleur
Les photons du Big Bang capturés par la déposée dans le bolomètre.

toile d’araignée de Planck


Capacité thermique
Les bolomètres installés sur le satellite Planck ont été fabriqués par le Jet C’est le rapport entre l’énergie déposée dans
Propulsion Laboratory (Pasadena, États-Unis). L’absorbeur est une structure un corps et la variation de température
correspondante. À très basse température
mince en nitrure de silicium recouverte d’une couche d’or, d’épaisseur
la capacité thermique peut devenir
voisine du micron. Elle est dite en toile d’araignée car elle comporte de extrêmement faible. On obtient ainsi des
nombreux vides. L’absorbeur sélectionne ainsi les longueurs d’onde dont la variations de température mesurables pour
valeur est supérieure à la taille de ces structures. Les photons dont la longueur d’infimes dépôts d’énergie.
d’onde est plus courte traversent l’absorbeur pratiquement sans interagir. Cet
absorbeur est relié au bain thermique, maintenu à 0,1 K, par une dizaine de
bras et en son centre est placée une thermistance en germanium de 100 x Plomb archéologique : pour obtenir du plomb
100 x 25 μm3. peu radioactif on doit éliminer les noyaux
instables qu’il contient. Si ces noyaux ne sont pas
En plus de sélectionner un domaine de longueurs d’onde, la structure adoptée du plomb, des méthodes chimiques de séparation
pour ces bolomètres a d’autres avantages. Sa faible masse fait qu’elle est peuvent être utilisées. La radioactivité résiduelle
provient alors d’isotopes instables du plomb et
peu sensible à la présence de rayons cosmiques, qui vont pour la plupart
notamment du 210Pb qui a une période de 22 ans.
la traverser sans y interagir. Pour la même raison, elle est peu sensible aux Cet isotope est issu de la désintégration du radon,
vibrations issues de l’environnement et notamment lors du lancement du un gaz émis en permanence depuis le sol par la
satellite. Enfin, sa faible capacité thermique entraîne une réponse rapide à désintégration de l’238U présent dans la croûte
un dépôt de chaleur. terrestre. On fabrique les lingots en réduisant
de l’oxyde de plomb avec du charbon issu de
Au signal recherché – les photons du CMB (voir « Découverte ») dont les végétaux contenant du 210Pb. Ces noyaux vont se
fréquences étudiées par Planck varient entre 100 et 860 GHz – s’ajoutent répartir dans tout le volume du métal et vont donc
de nombreux bruits de fond dont l’importance est diminuée par le concourir à la radioactivité des lingots. Le plomb
dit archéologique a l’avantage de ne plus contenir
fonctionnement à basse température des bolomètres et par l’utilisation d’une
pratiquement de cet élément : extrait des mines
modulation temporelle (connue) des signaux recherchés. Cette dernière et coulé en lingots au cours de l’Antiquité, il a
propriété vient du mouvement de Planck, qui effectue une rotation autour séjourné par exemple sous terre ou dans la mer. Le
de son axe toutes les minutes. Compte tenu de l’extrême sensibilité des 210
Pb contenu dans les lingots s’est désintégré au
bolomètres, leur conception et leur installation ont nécessité d’étudier et de bout de quelques siècles tandis que les nouveaux
maîtriser ces différentes sources de bruit. Des mesures au sol sur le satellite dépôts de cet isotope, qui ont lieu en permanence,
complet ont permis de s’assurer que le système atteindra une sensibilité 10 n’ont affecté que la surface des lingots. Le plomb
fois supérieure à celle de la mission précédente (WMAP). utilisé dans Edelweiss est issu de la cargaison de
Certains des bolomètres équipant le satellite Planck permettent de mesurer 22 tonnes d’un bateau celte qui a fait naufrage
vers l’an 400 sur le site des Sept Îles.
la polarisation des photons incidents. De conception similaire à ceux décrits
page 35

ÉLÉMENTAÍRE
Bolomètres s
précédemment, ils sont équipés de grilles qui absorbent seulement les
photons dont le champ électrique est parallèle aux fils. Une seconde
grille, dont les fils sont perpendiculaires à ceux de la précédente, absorbe
l’autre composante de la polarisation. Chaque grille est reliée à une
thermistance.

De l’arachnéen au massif : Edelweiss


© Edelweiss

L’expérience Edelweiss (Expérience pour DEtecter Les Wimps En Site


Souterrain) se propose de détecter la présence de matière noire dans notre
Vue partielle de l’expérience Edelweiss environnement. Les particules recherchées sont neutres, relativement
montrant certains des écrans de protection lourdes et animées d’un mouvement tel qu’elles restent piégées dans
(blindage en plomb), et le cryostat, qui sert la Galaxie. Elles ont une faible probabilité d’interagir avec la matière
à maintenir à 20 mK la température des ordinaire. En fonction de différents modèles, on s’attend à une interaction
détecteurs placés à l’intérieur du gros capot par kilogramme - voire par tonne - et par an. Si une de ces particules entre
en cuivre.
en collision avec un noyau atomique, ce dernier se déplace sous l’effet
L’énergie cinétique de recul du choc et on mesure l’énergie cinétique de recul qui doit être comprise
Lorsqu’une particule de matière noire entre entre quelques keV et quelques dizaines de keV. Cette valeur dépend de
en collision avec un noyau ce dernier va se la masse des particules et de leur vitesse. Contrairement au cas de Planck,
déplacer. L’énergie cinétique qu’il acquiert on utilise l’absorbeur le plus massif possible de manière à augmenter la
dépend de celle de la particule incidente (E) chance que des particules de matière noire y interagissent. On a choisi
et de l’angle suivant lequel elle est diffusée. pour cela des cristaux de germanium de 320 g chacun. La première
Cette énergie varie entre zéro et une valeur
phase de l’expérience, maintenant terminée, comportait 3 cristaux ;
maximale qui est déterminée par les masses
(m et M) du projectile et de la cible. Elle est 120 devraient équiper au final la seconde. Si la présence de matière est
égale à : nécessaire pour la détection de la matière noire, elle rend également
4 m ME/(m + M)2. l’appareil sensible à de nombreux bruits de fond. Pour se protéger des
Pour des particules de matière noire ayant rayons cosmiques l’expérience fonctionne dans le tunnel du Fréjus. On
des masses (m) comprises entre 10 et 1000 a également construit le détecteur, et le blindage qui l’entoure, avec des
GeV/c2 l’énergie de recul maximale varie matériaux faiblement radioactifs ; ainsi du plomb archéologique est utilisé
entre 1 et 100 keV. La limite de détection dans le blindage. L’interaction de photons dans les cristaux reste malgré
pour Edelweiss est aux environs de 20 keV. tout 100 000 fois plus probable que les signaux recherchés. Ces photons
proviennent principalement de désintégrations de substances radioactives
contenues dans le blindage de cuivre le plus externe. Afin de réduire cette
pollution on mesure non seulement l’énergie déposée dans les bolomètres
mais aussi l’ionisation générée dans les cristaux. Cette dernière est, pour
un même dépôt d’énergie, 3 à 4 fois plus faible quand elle est produite par
un noyau de recul que par un électron (éjecté d’un atome par un photon
ayant interagi).
L’expérience Edelweiss espère observer prochainement un signal car
elle est maintenant sensible à une gamme de masses et de probabilités
© Edelweiss

d’interaction compatibles avec certains modèles de matière noire.

Un des cristaux en germanium : son diamètre


est de 70 mm et son épaisseur de 20 mm. Leur vitesse : la vitesse des particules de matière noire par rapport à la Terre résulte de la
composition de plusieurs mouvements. Tout d’abord ces particules se déplacent au sein du
Germanium : plusieurs matériaux sont halo entourant la Galaxie selon un mouvement supposé isotrope avec des vitesses distribuées
utilisés pour détecter la matière noire. Le suivant une loi de Maxwell dont la valeur moyenne est estimée à 270 km/s. On doit y ajouter
germanium en fait partie car il permet de le mouvement de rotation galactique (~ 230 km/s), de celui du soleil par rapport aux étoiles
mesurer à la fois l’énergie de la collision et voisines (~10 km/s) et enfin de la rotation de la Terre autour du Soleil (~30 km/s) et on néglige
l’ionisation créée par le noyau de recul. Il le mouvement propre de la rotation terrestre.
page 36

peut être d’autre part utilisé sous forme de


cristaux très purs et de masse élevée. ÉLÉMENTAÍRE
Retombées
Le GPS
Premier septembre 1983 : en provenance de New York via Anchorage
(Alaska) et à destination de Séoul, le vol 007 de la Korean Airlines s’écarte
de sa trajectoire. Le réglage incorrect du pilote automatique échappe à
la vigilance de l’équipage et le Boeing 747 pénètre dans l’espace aérien
soviétique. Repéré par les radars et pris en chasse par des appareils
militaires il est, selon la version la plus vraisemblable, confondu avec
un avion espion américain qui vole dans la même zone, de grande
importance stratégique. L’appareil est abattu et ses 269 occupants trouvent Écusson du système GPS.
la mort au large de l’île de Sakhaline. Suite à cette tragédie qui marque un
renforcement très net de la guerre froide, le président américain Ronald
Reagan annonce que le « GPS », alors encore en développement, sera
accessible aux civils (et donc aux avions de ligne) une fois opérationnel.
Effet Doppler
Ironie de l’Histoire, c’est donc une page sombre du XXe siècle qui est à Les ondes (sonores ou électromagnétiques)
l’origine du transfert vers le grand public de cette technologie militaire. émises par une source en déplacement
voient leur longueur d’onde (et donc leur
La mise au point du GPS est l’aboutissement de plusieurs décennies de fréquence) modifiée quand elles sont
recherche. En effet, les premiers systèmes de guidage des avions par ondes captées par un récepteur immobile. Ainsi
radio depuis le sol apparaissent lors de la seconde guerre mondiale. le bruit d’un moteur nous paraît plus aigu/
En 1957, des scientifiques américains sont chargés de surveiller les grave quand la voiture vient vers nous/se
transmissions radio de Spoutnik, le premier satellite artificiel lancé par fait plus distante. De même, la lumière en
provenance d’une galaxie qui s’éloigne de
l’URSS le 4 octobre de cette même année. Ils découvrent alors que les
la Voie Lactée est « décalée vers le rouge ».
variations du signal émis par l’engin spatial (et plus particulièrement la Plus généralement, la différence entre la
modification de la fréquence du signal qu’il émet par effet Doppler) longueur d’onde du signal reçu et celle qu’il
donnent accès à sa position le long de son orbite à condition de connaître aurait si sa source était immobile permet de
avec précision les coordonnées de l’endroit d’où ils effectuent leurs déterminer la vitesse relative de l’émetteur
observations. Dès 1960 – les premiers vols habités n’auront lieu que par rapport au récepteur.
l’année suivante –, une constellation de cinq satellites permet à la marine
américaine de connaître la position de ses bâtiments une fois par heure.
En 1968, le système de navigation Omega, associant sept pays dont les
Etats-Unis et la France, utilise les informations de huit stations au sol
pour localiser avions et navires, avec pour objectif de couvrir l’ensemble
des océans du globe. La précision limitée des mesures, entre cinq et dix
kilomètres en moyenne, ne permet que le guidage en haute mer. D’abord
réservé aux militaires, Omega s’ouvre peu à peu aux civils ; le système R
est finalement abandonné en 1997, victime du succès de la technologie D
GPS. S

Le GPS (« Global Positioning System » en français « Géo-Positionnement par


Satellite » pour conserver l’acronyme) est un système permettant d’établir
précisément la position d’un récepteur (R), a priori situé n’importe où sur
la Terre. Pour cela, ce dernier reçoit à intervalles réguliers des signaux
DR

provenant de satellites (S) dont les positions sont connues en temps réel
Reconstruction de la position du récepteur
et les traite grâce à son calculateur intégré. Les ondes électromagnétiques à partir des mesures des satellites GPS.
(lumière, radio, etc.) se déplaçant à la vitesse de la lumière, le temps
mis par un signal pour aller d’un satellite au récepteur donne la distance
(D) séparant les deux objets. Le récepteur se situe donc quelque part sur
une sphère de centre S et de rayon D. En combinant les informations de
plusieurs satellites, on obtient autant de sphères dont l’intersection fournit
finalement la position précise de R. La même mesure effectuée à des instants
page 37

ÉLÉMENTAÍRE
Le GPS
successifs permet ainsi de suivre les déplacements du récepteur (vitesse et
direction), qu’il soit sur le bateau d’un navigateur solitaire doublant le Cap
Horn ou dans votre voiture.
Les premiers satellites GPS sont lancés en 1978. Les mises sur orbite se
succèdent ensuite, afin d’augmenter la taille de la flotte et de remplacer les
anciens instruments par de nouveaux, plus performants. Le système devient
opérationnel sur l’ensemble du globe en 1995 ; enfin, le 1er mai 2000, le
président américain Bill Clinton annonce la fin du système de brouillage des
signaux destinés aux civils : la précision des mesures s’améliore d’un facteur
dix, ce qui ouvre la voie à la diffusion du GPS – rien qu’en France 2,5 millions
de récepteurs ont été vendus en 2007.

Les 31 satellites GPS actuellement en orbite Le GPS comment ça marche ?


se répartissent sur six orbites inclinées de
55 degrés par rapport à l’équateur et d’al- Pour connaître les trois grandeurs (latitude, longitude et altitude) définissant
titude moyenne 20 200 km. Chacun de ces la position d’un objet sur Terre il faut au minimum trois informations et donc,
plans contient au minimum quatre satellites dans le cas du GPS, trois satellites. En fait, cette configuration minimale n’est
répartis de manière équidistante et on passe pas satisfaisante, à la fois pour une raison fondamentale sur laquelle nous
d’une orbite à ses voisines par une rotation
reviendrons dans la suite, mais aussi parce que la précision des mesures
de ±60 degrés autour de l’axe Sud-Nord.
Dans cette configuration, quatre (six) sa-
dépend de la position des satellites, laquelle varie en permanence. De plus,
tellites sont visibles de n’importe quel point des problèmes temporaires sur l’un ou l’autre des émetteurs ne doivent pas
du globe (presque) en permanence. À hau- interrompre la circulation de l’information GPS. Il y a donc au minimum 24
tes latitudes les satellites sont plus bas sur satellites GPS en orbite, disposés de manière à ce que quatre d’entre-eux au
l’horizon sans que cela n’affecte de manière minimum (et bien plus la plupart du temps) soient visibles quelle que soit la
significative la précision de la mesure GPS. position du récepteur sur Terre. Ils font un tour de la Terre en 11 heures 58
Le système est également robuste vis-à-vis minutes et reviennent donc régulièrement à la même position dans le ciel, ce
de pannes multiples. qui simplifie leur suivi depuis le sol. Leur guidage est assuré par l’armée de
l’air américaine depuis ses bases enterrées dans les Montagnes Rocheuses au
Colorado et par un réseau de stations de télémétrie réparties sur l’ensemble
du globe.
En plus des données à usage purement militaire, chaque satellite GPS émet
deux types de signaux « en clair », à destination des civils. Leur fréquence,
de l’ordre du gigahertz, est un compromis entre spécifications techniques et
lois physiques gouvernant la propagation des ondes électromagnétiques dans
l’atmosphère.
• Une suite de 1023 bits répétée toutes les millisecondes est utilisée pour
déterminer la distance émetteur-récepteur.
• Le signal de navigation est émis avec un débit de 50 bits/s et chaque
message dure typiquement 30 secondes. Durant les six premières, le satellite
envoie des informations sur son état – un engin dont l’orbite est instable, par
exemple parce qu’elle est en train
Bits d’être modifiée depuis le sol, ne
Le bit est le bloc d’information élémentaire : doit pas être utilisé pour déterminer
il ne peut prendre que deux valeurs, 0 ou une position GPS – ainsi que des
1. Tout chiffre, et plus généralement tout paramètres de correction pour les
© ASSDM

caractère, peut être codé par une succession horloges atomiques embarquées.
de bits et la transmission d’information Ensuite, l’éphéméride, c’est-à-
par le biais de cet alphabet, est à la base de dire tout ce qu’il faut savoir sur
Un satellite GPS, exposé au musée de
l’électronique et de toutes ses applications.
l’Air et de l’Espace à San Diego (Cali- l’orbite particulière du satellite, est
page 38

fornie).
ÉLÉMENTAÍRE
Déterminer la distance émetteur-récepteur
Chaque satellite émet une suite de 1023 bits

Le GPS
qui lui est propre. Les séries utilisées sont aussi
différentes que possible de manière à assurer
une identification sans erreur des émetteurs
visibles. Le récepteur les connaît toutes et les
génère en boucle. Il estime ainsi la distance le
transmis pendant douze secondes. Bien que ces données soient valables séparant de chacun des satellites en comparant
quatre heures, elles sont normalement mises à jour toutes les deux heures. les séquences produites avec les signaux
reçus.
Enfin vient l’almanach, un ensemble d’informations sur la constellation dans
Le principe est simple : chaque série de bits
son ensemble (orbite, statut technique, code numérique d’identification, etc. peut être vue comme une bande de tissu
pour chaque satellite) ainsi que des données environnementales nécessaires bicolore (par exemple blanc pour « 0 » et noir
pour corriger la mesure. L’almanach représentant un volume de données pour « 1 »). Posant les bandes « émetteur »
conséquent, chaque message met à jour 4% de son contenu. et « récepteur » l’une sous l’autre, le décalage
entre les deux motifs permet de remonter à
la distance séparant les deux instruments. En
Précisions, corrections et erreurs : pratique, l’opération est plus complexe : la bande
de tissu livrée par le satellite arrive « froissée »
applications et limites du GPS (à cause de l’effet Doppler dû au mouvement
relatif entre émetteur et récepteur) et « salie »
(du bruit parasite s’est ajouté au signal sur
son parcours) ; il faut donc la « repasser » et
la « nettoyer » pour assurer le succès de la
comparaison. La précision du résultat est très
bonne : de l’ordre du centième de l’intervalle
de temps séparant deux bits consécutifs, soit
trois mètres environ une fois convertie en
distance – la vitesse de propagation des ondes
électromagnétiques vaut 300 000 km/s.

11 satellites GPS (en jaune) visibles par un récepteur situé à Rome


le 28 juillet 2008 à 17h20. © N. Arnault

À la base du GPS se trouvent donc des mesures de temps


dont la précision doit être d’autant plus grande que le Une difficulté supplémentaire provient du
facteur de conversion temps → distance – la vitesse de propagation des fait que la séquence est courte : elle revient
ondes électromagnétiques – est gigantesque : une erreur d’un millionième toutes les millisecondes soit tous les 300 km à
de seconde conduit à une position fausse de trois cent mètres ! Non la vitesse de la lumière ! La mesure n’est donc
seulement vous n’êtes pas dans l’allée du garage de beau-papa mais en pas absolue puisqu’elle correspond à plusieurs
plus vous avez probablement roulé sur les rosiers très rares de belle-maman distances, une seule étant correcte. La position
avant d’atterrir avec votre voiture dans le ruisseau en contrebas... Pour du récepteur est déterminée par itérations
éviter ce scénario catastrophe, les inventeurs du GPS ont pensé à tout : la successives en comparant les données
issues de plusieurs satellites et en utilisant
redondance des mesures (quatre au minimum pour déterminer seulement
sa dernière position connue. Ceci explique
trois coordonnées ; un récepteur standard est aujourd’hui capable de lire pourquoi la phase d’initialisation d’un boîtier
douze, voire vingt canaux en parallèle) permet de calculer et de corriger le GPS longtemps éteint peut être assez longue,
décalage du récepteur par rapport aux émetteurs, synchronisés entre eux surtout s’il a été transporté sur une grande
grâce aux informations contenues dans les messages de navigation. distance : en plus de prendre contact avec
les satellites maintenant visibles, il lui faut
page 39

comprendre où il se trouve !

ÉLÉMENTAÍRE
Retombées
Le GPS
Horloges atomiques
Mesurer un temps revient toujours à compter le nombre de fois où un phénomène répétitif ou défini par convention (oscillation d’un balancier,
seconde, etc.) se produit pendant la « durée » d’observation. Une horloge est donc un métronome dont la précision dépend de la stabilité de la
mesure qu’elle bat. Celles qui sont actuellement – et de très loin – les meilleures sont basées sur une conséquence de la mécanique quantique :
l’énergie d’un atome est quantifiée, c’est-à-dire qu’elle ne peut prendre que des valeurs bien précises. L’état fondamental correspond à l’énergie
la plus basse tandis que les autres niveaux décrivent des états dits « ex-cités ». Les
détecteur seules transitions permises correspondent à l’absorption (l’émission) d’un photon
B
cavité B apportant (emportant) exactement la différence d’énergie entre les états final et
B A+B initial. Or l’énergie d’un photon est directement proportionnelle à la fréquence de
A+ A l’onde électromagnétique associée.
four A Il « suffit » ainsi d’utiliser une transition atomique particulière d’un état « A » à
un état « B » pour obtenir un étalon de fréquence parfaitement stable. Une horloge
atomique contient un oscillateur mécanique (par exemple un morceau de quartz
comme dans les montres-bracelets) dont le battement est accéléré jusqu’à avoir une
f = 9 192 631 770 Hz fréquence aussi proche que possible de celle de la transition atomique utilisée.
© B. Mazoyer

L’oscillation ainsi générée est convertie en signal électrique puis envoyée dans une
asservissement cavité spécialement conçue pour entretenir une onde électromagnétique de même
fréquence et dans laquelle des atomes dans l’état A sont injectés. Les passages A →
Principe de fonctionnement d’une horloge atomique B sont d’autant plus probables que la fréquence est proche de celle de la transition
atomique – phénomène dit de résonance. La comparaison du débit d’atomes dans
l’état A/B à l’entrée/sortie de la cavité est finalement utilisée comme « signal d’erreur » et sert à ajuster l’oscillation mécanique.
Une fois le système stabilisé (dans la réalité, les opérations décomposées ci-dessus s’enchaînent et se répètent continuellement), on dispose d’un
métronome ultra-précis sur des durées très longues : en février 2008, des scientifiques de l’université de Boulder ont annoncé avoir mis au point
une horloge dont l’erreur est inférieure à une seconde chaque 200 millions d’années. Une telle montre mise en route lors de la formation de la
Terre serait décalée de moins de trente secondes aujourd’hui !

La précision du GPS vient également de la rigueur et de la qualité des lois


physiques sur lesquelles il est basé. En particulier, deux effets relativistes
dégraderaient considérablement les performances du système s’ils étaient
ignorés. La Relativité Restreinte nous apprend que les horloges des
satellites – en mouvement à grande vitesse (environ 10 600 km/h) autour
de la Terre – battent plus lentement que celles restées immobiles au sol.
La différence n’est pas négligeable, 7,2 microsecondes (µs) par jour ou
2200 mètres d’erreur environ pour un signal voyageant à la vitesse de la
lumière. Quant à la Relativité Générale, elle prédit un effet opposé et plus
conséquent (45,9 µs/jour) dû au fait que le champ gravitationnel est plus
Horloge atomique à « fontaine de césium »
faible en orbite. Le décalage cumulé est donc d’environ 39 µs/jour. Pour
utilisée comme référence aux États-Unis
depuis l’an 2000. Une horloge similaire est le compenser, la fréquence des horloges embarquées est légèrement plus
employée comme étalon en France. En effet, faible que celles des stations au sol : 10,22999999543 MHz au lieu de
la définition officielle de la seconde (et par 10,23 MHz.
ricochet celle du mètre puisque la vitesse de
la lumière dans le vide est fixée à 299 792 De plus, les conditions atmosphériques influent sur la propagation des
458 m/s) est actuellement basée sur une impulsions GPS – la vitesse de la lumière n’est constante que dans le vide
transition particulière de l’atome de césium absolu ; ailleurs elle est plus faible et varie en fonction du milieu traversé.
137 dont la fréquence vaut très précisément
Ces effets, inconnus a priori puisqu’ils dépendent de la densité de l’air,
9 192 631 770 Hz. Les atomes de césium,
jouent d’autant plus que l’émetteur est bas sur l’horizon et le récepteur
refroidis et donc ralentis autant que
possible, sont injectés de bas en haut dans la à faible altitude. Les variations d’humidité et de pression dans les basses
cavité contenant l’onde électromagnétique couches de l’atmosphère sont locales et évoluent rapidement ce qui rend
de très haute fréquence : comme ils finissent leur prise en compte difficile. Par contre, leur effet dépend de la fréquence
par retomber sous l’effet de leur poids, le de l’onde électromagnétique. Or, un satellite GPS émet plusieurs signaux
temps qu’ils passent dans celle-ci est donc à des fréquences bien distinctes. En comparant leurs distorsions, on peut
doublé ce qui améliore la précision de la estimer la correction à apporter à la mesure sans même avoir besoin de
mesure. Dans les satellites GPS, les horloges décoder les signaux supplémentaires utilisés comme référence.
page 40

atomiques embarquées sont évidemment


beaucoup moins encombrantes. ÉLÉMENTAÍRE
Le GPS
Précision du GPS
Un récepteur du commerce a une précision d’environ
5 mètres. Cette valeur remarquable suffit à expliquer
le succès de cet outil auprès du grand public et vaut
la peine qu’on s’y arrête un instant. Que signifie-t-elle
en pratique ? On peut représenter la distribution de
0.4

l’erreur d’une position GPS donnée, par exemple celle de la Tour Eiffel à Paris, par une
0.3

fonction gaussienne, de moyenne μ et d’écart-type σ. μ vaut évidemment 0 (faute de quoi le


0.2

34.1% 34.1%
relevé GPS serait décalé d’une quantité fixe ce qui n’aurait pas beaucoup d’intérêt) tandis que
σ correspond à la précision : σ = 5 mètres
0.1

2.1% 2.1%
0.1% 13.6% 13.6% 0.1%
Comme le montre la figure ci-dessus, 68,2% des mesures donnent effectivement un résultat
0.0

−3σ −2σ −1σ µ 1σ 2σ 3σ meilleur que « 1σ », soit 5 mètres. Par contre, dans environ un tiers des cas, l’erreur est plus
grande. Par exemple la probabilité qu’elle dépasse 10 mètres (« 2σ ») n’est pas négligeable :
4,4%. Heureusement, la fonction gaussienne décroit assez rapidement à mesure que l’écart par rapport à sa moyenne (là-aussi exprimé en
« unité de σ ») augmente et seules 2 mesures sur 1000 environ sont fausses de plus de 15 mètres (« 3σ »).
Au final, une précision de 5 mètres signifie que le GPS donne « souvent » un résultat meilleur et qu’il ne se trompe « presque jamais » de plus de
15 mètres. Dans certains cas (relevés topographiques, séismologie ou volcanologie, transport, etc.) ces performances se révèlent insuffisantes
et des systèmes plus complexes doivent être mis en place pour les améliorer. Le GPS différentiel utilise une station de référence proche dont la
vraie position est connue avec précision. La comparaison entre cette valeur et la mesure donne l’ordre de grandeur de l’erreur GPS à un instant
donné et cette information permet de corriger le relevé du point étudié. Dans le domaine du transport aérien les systèmes WAAS (États-Unis)
et EGNOS (Europe, encore en développement) servent au guidage de précision des avions dans les phases d’atterrissage et de décollage : leur
précision est de l’ordre du mètre, simultanément dans les trois dimensions d’espace.

Les réflexions multiples (sur un immeuble, dans une vallée encaissée, etc.)
sont une autre source potentielle d’erreur de mesure car elles allongent
le parcours des ondes. On peut s’en affranchir quand le récepteur est en
mouvement car les signaux réfléchis donnent des positionnements aberrants
et donc facilement détectables. Parmi les autres limitations du système, on
peut citer la faiblesse du signal reçu sur Terre et la facilité avec laquelle il
peut être perturbé, au moins localement, par d’autres émetteurs utilisant le
spectre électromagnétique.

© Élémentaire
Un dernier atout du GPS, et pas le moindre, est qu’il est entièrement basé
sur une technologie passive : comme son nom l’indique, le récepteur ne
fait que ... recevoir et ne renvoie aucune information, ce qui rend illimité
le nombre potentiel d’utilisateurs. Vue d’Europe, le seul point critiquable Un des premiers récepteurs GPS grand
de ce système de navigation est le fait qu’il est propriété des États-Unis et public, exposé au Musée de la Science
que ses satellites sont contrôlés par l’armée américaine. Cette dépendance et de l’Industrie de Chicago.
stratégique n’étant pas souhaitable sur le long terme, l’Union Européenne
s’est lancée dans la mise au point de son propre système de positionnement
par satellite, Galileo. Cette initiative, très mal vue au départ Outre-
Atlantique, a finalement été acceptée et un accord a été trouvé pour que
les utilisateurs puissent passer d’un type de signal à l’autre dans le cas où
celui qu’ils utiliseraient aurait une défaillance.
Après de nombreux retards dus en grande partie à la nécessité d’adapter
les demandes de participation des États aux réalités industrielles et à la
recherche d’un équilibre entre secteurs public et privé, le projet semble
enfin être sur les bons rails. La phase de démonstration des technologies,
marquée par le lancement de deux satellites est en voie d’achèvement ; Logo du futur système européen de posi-
elle sera suivie par l’envoi de quatre satellites de validation – en 2010 tionnement global par satellite Galileo.
au plus tôt – avant un déploiement de la constellation (une trentaine de
satellites au total) vers 2013-2015.
page 41

ÉLÉMENTAÍRE
Analyse
Transformée de Fourier et...
Joseph Fourier (1768-1830), effectue des « Et ignem regunt numeri » [Le feu aussi est régi par les
études si brillantes à l’École royale militaire nombres]
d’Auxerre, ville dont il est originaire, qu’il y Devise utilisée par Fourier en épigraphe de ses principales
devient professeur avant d’avoir dix-sept ans. publications.
Ses origines modestes (fils de tailleur, orphelin à
neuf ans) l’empêchent d’entrer dans l’artillerie
– d’après Arago, le ministre de la Guerre de
l’époque aurait déclaré « Fourier n’étant pas
noble, ne pourrait entrer dans l’artillerie,
Un préfet mathématicien
quand il serait un second Newton ». Un
DR

temps tenté par le séminaire, la Révolution


Notre histoire commence en Isère dans les années 1804-
française le fait changer de trajectoire. Il 1807. Joseph Fourier est préfet de ce département,
est élève à l’École Normale Supérieure tout unité administrative créée par l’Assemblée Constituante
juste créée, puis professeur à l’École Polytechnique (1794) après avoir été en 1789. À première vue, rien ne le distingue de ses
repéré par Monge. Ce dernier l’emmène en Égypte avec Bonaparte en 1798 collègues qui gèrent la France pour Napoléon sous
pour une expédition aux objectifs à la fois militaires et scientifiques. Si les le Consulat comme sous l’Empire. Pourtant, il a une
Anglais remportent finalement la victoire sur le terrain, les savants présents qualité particulière qui le fera passer à la postérité. Cela
sur place accumulent une quantité impressionnante d’informations dans aurait pu être sa popularité qui rendrait jaloux beaucoup
de nombreux domaines. Fourier coordonne la publication du rapport de
de personnalités publiques actuelles – on raconte que
l’expédition « Description de l’Égypte » : dix volumes de planches gravées,
neuf de texte et un atlas. Ses qualités d’organisateur et de négociateur qui
les Grenoblois s’arrêtaient pour le saluer lorsqu’ils
se sont révélées à cette période conduisent le Premier Consul à le nommer le croisaient dans la rue – ou encore son « Mémoire
préfet de l’Isère, poste que Fourier n’accepte qu’à contrecœur car il est sur les températures du globe terrestre et des espaces
d’un naturel extrêmement frileux – la petite histoire, très certainement planétaires » (1824) dans lequel il présente les bases
apocryphe, veut d’ailleurs expliquer par cette particularité physique la du mécanisme connu aujourd’hui sous le nom d’effet
persévérance qu’il a montrée dans l’étude de l’équation de la chaleur. de serre. Mais si Fourier est encore aujourd’hui célèbre
Destitué par Louis XVIII après l’abdication de Napoléon, il retrouve son et célébré dans le milieu scientifique, c’est en premier
poste lors des Cent Jours mais le perd tout aussi vite car il s’oppose à la lieu parce qu’il était également mathématicien et qu’il
politique répressive qu’on lui demande d’appliquer. Malgré cela il est
a cherché à résoudre l’équation de la chaleur dans un
ostracisé lors de la Restauration et traverse une période difficile – tout
comme la communauté scientifique, divisée entre partisans de l’Empire
cadre général.
et royalistes. Finalement ses compétences scientifiques sont reconnues
et il accède à la reconnaissance qu’il mérite. Laissons le mot de la fin à Deux observations le mettent sur la bonne voie. Il
Auguste Comte lui rendant hommage après sa mort : « (...) je ne crains pas remarque d’une part que la solution est calculable
de prononcer, comme si j’étais à dix siècles d’aujourd’hui que, depuis la lorsque la température au bord du solide étudié (on parle
théorie de la gravitation, aucune création mathématique n’a eu plus de de condition aux limites) est donnée par une sinusoïde
valeur que celle-ci [l’œuvre de Fourier], quant aux progrès généraux de la en temps. C’est par exemple le cas du sol que le Soleil
philosophie naturelle (...) ». chauffe le jour et qui se refroidit la nuit. D’autre part,
les expériences qu’il mène dans son appartement de
fonction le convainquent que la solution de l’équation
Fourier et l’effet de serre de la chaleur devient rapidement proche d’une fonction trigonométrique
« C’est ainsi que la température est augmentée classique (cosinus ou sinus) pour peu que la condition aux limites soit
par l’interposition de l’atmosphère, parce périodique (par exemple le solide est chauffé pendant une minute puis refroidi
que la chaleur trouve moins d’obstacle pour la minute suivante et les mêmes actions se répètent de manière cyclique). Il
pénétrer l’air, étant à l’état de lumière, qu’elle suppose alors que toute fonction périodique peut s’écrire comme une somme
n’en trouve pour repasser dans l’air lorsqu’elle de cosinus et de sinus dont les fréquences sont des multiples de la fréquence
est convertie en chaleur obscure. »
originale de la fonction. Il définit également les règles permettant de calculer
L’atmosphère est essentiellement trans-
parente pour le rayonnement solaire les coefficients de pondération de ces différents termes. Comme l’équation
visible. Celui-ci arrive sur le sol, qui de la chaleur est linéaire, il suffit de la résoudre dans les cas où la condition
l’absorbe puis le réémet sous forme de aux limites est l’une des sinusoïdes utilisées pour décomposer la fonction
rayonnement infrarouge (« chaleur périodique : la solution générale cherchée est alors la somme pondérée des
obscure ». L’atmosphère est plus opaque solutions particulières.
à ce rayonnement et l’absorbe, ce qui
page 42

contribue à augmenter sa température.

ÉLÉMENTAÍRE
...application au CMB
Équation de la chaleur et conditions aux limites
L’étude de la chaleur et de l’évolution de la température d’un objet en fonction du temps est bien antérieure à Fourier : Newton, puis un
siècle plus tard Laplace et Lavoisier, s’y intéressent mais ils butent sur la définition de la chaleur et sur le processus physique qui la fait se
propager dans un solide. L’approche choisie par Fourier est plus pragmatique et lui permet d’obtenir l’équation qui gouverne le phénomène
sans s’attarder sur sa nature précise. Elle est basée sur deux principes : la chaleur se déplace de la région chaude vers la région froide d’un
objet perpendiculairement aux isothermes et le flux de ce « courant » à un instant donné est d’autant plus important que la température varie
rapidement sur son parcours ; de plus, la quantité de chaleur d’un volume donné est proportionnelle à sa température, laquelle varie donc
dans le temps en fonction des apports et des prélèvements externes. La juxtaposition de ces deux énoncés se traduit mathématiquement par
une équation aux dérivées partielles. Mais cela ne suffit pas pour résoudre un problème donné : il faut également connaître une ou plusieurs
conditions aux limites qui vont obliger la solution de l’équation à avoir un comportement prédéfini dans certaines zones du milieu (par
exemple au bord) ce qui la contraint de manière unique. Ainsi, pour étudier précisément l’évolution de la température d’un volume d’eau
mis à bouillir sur une plaque électrique il faut tenir compte du fait que le fond de la casserole est maintenu à la température (connue) de
la plaque, se demander si le couvercle est ou non posé sur le récipient pour limiter les pertes de chaleur dans l’atmosphère ou encore avoir
mesuré la conductivité thermique des parois. Une propriété importante de l’équation de la chaleur est qu’elle est linéaire : la somme de
deux solutions en est également une solution.

Fort des succès qu’il obtient avec cette approche, Fourier va même plus
loin : il étend sa décomposition au cas des fonctions non-périodiques – Approximation d'une fonction créneau
qui peuvent, d’une certaine manière, être vues comme des fonctions dont
la période est infinie. Sans en avoir vraiment conscience, il est en train de
faire avancer les mathématiques d’un pas de géant. D’abord, il jette les
bases d’une nouvelle discipline – appelée maintenant analyse de Fourier
en son honneur – et qui s’est révélée extrêmement féconde. Ainsi, les
méthodes numériques de traitement d’un signal (comme une émission de
radio) ou d’une image sont en grande partie basées sur la correspondance 1 Coefficient 2 Coefficients

entre leurs variations, temporelle ou spatiale, et leurs décompositions Amplitude des


j coefficients
comme somme de fréquences élémentaires. C’est par exemple le cas du
format de compression JPEG très utilisé actuellement en informatique.
De plus, sa méthode (réexpression d’un objet mathématique compliqué
k
comme somme d’objets plus simples et plus faciles à manipuler ; utilisation l
m
de cette nouvelle formulation pour résoudre des problèmes difficiles ; n o

application de la transformation inverse une fois que la décomposition 6 Coefficients Fréquence des coefficients
n’est plus utile) s’est avérée très générale et s’applique dans de nombreux
domaines scientifiques, au premier rang desquels l’astronomie et
l’astrophysique. Les fréquences et leur étude jouent également un rôle Approximation d’une fonction créneau
primordial en musique. par sa série de Fourier. Plus le nombre
de coefficients augmente (1, 2 puis 6 de
Sinusoïdes La figure du haut montre gauche à droite et de haut en bas), plus
l’évolution temporelle de cette dernière se rapproche du modèle.
Période
j différentes sinusoides dont la Les petites oscillations visibles sur les
fréquence augmente : 1, 2, 3 et 5 portions « horizontales » des courbes
k
Hz en allant du haut vers le bas. rouges sont appelées « phénomène de
l En dessous, les mêmes sinusoïdes Gibbs » et apparaissent chaque fois qu’une
sont représentées dans l’espace de fonction discontinue (ici le créneau passe
n
Fourier qui décrit leur contenu brutalement de ± π/4 à son opposé chaque
Temps en fréquence. Ces courbes sont demi-période) est approchée par sa série de
Coefficients de Fourier des composants de base de la Fourier. Le graphique en bas à droite montre
décomposition en série de Fourier, comment l’amplitude des coefficients (axe
Amplitude

j k l n ce qui explique que tous leurs vertical) décroit en fonction de la fréquence


coefficients soient nuls à l’exception des sinusoïdes associées (axe horizontal).
d’un seul – celui correspondant Ces figures illustrent parfaitement le
© N. Arnaud

précisément à leur fréquence. On résultat mathématique, aussi beau que


peut voir sur la figure que leurs peu intuitif, selon lequel une combinaison
amplitudes sont égales. précise de sinusoïdes peut donner n’importe
page 43

Fréquence quelle forme.


ÉLÉMENTAÍRE
Transformée de Fourier et...
Fréquences & musique
Un son est produit par les vibrations d’un objet (par exemple une corde de
guitare) qui se propagent dans l’air avant d’être détectées par notre oreille. Il Toute médaille a son revers : la pensée de Fourier
se caractérise par sa fréquence, ou hauteur en musique : le « la » du diapason est tellement novatrice que les mathématiques
correspond ainsi à une vibration à 440 Hz. En fait, un son n’est jamais simple : en ne sont pas assez développées à son époque
plus du mode principal (le « fondamental »), il comporte d’autre composantes, pour ordonner et formaliser tous les concepts
appelées harmoniques, et dont la fréquence est le produit de celle du fondamental qu’il introduit et utilise, sans toujours les
par un quotient de nombres entiers (3/2, 5/3, etc.). Les poids relatifs du démontrer ni justifier leur emploi. Un exemple :
fondamental et des harmoniques dans un son définissent son timbre, différent les sommes de sinusoïdes élémentaires qu’il
par exemple pour un violon ou une flûte jouant la même note. Remarquons que
manipule sont le plus souvent infinies et leur
l’oreille humaine procède naturellement à une décomposition de Fourier des
sons : nous caractérisons les sons par leur fréquence (plus aigu, plus grave) et convergence (c’est-à-dire leur existence en
leur intensité ; spontanément, nous percevons la superposition de plusieurs mathématiques) ne va pas de soi. Ce manque
ondes sonores comme l’accord de plusieurs notes de fréquences distinctes. On de rigueur et ses démonstrations pas toujours
peut aussi analyser les différentes harmoniques produites par un instrument convaincantes – deux éléments essentiels
à l’aide des méthodes développées par Fourier pour résoudre l’équation de la en mathématiques – lui sont reprochés par
chaleur. ses contemporains et Fourier doit lutter de
longues années pour voir son travail reconnu.
Il remporte finalement un concours de l’Académie des Sciences en 1812
(sur le thème « La Propagation de la Chaleur ») avant d’en devenir membre
cinq ans plus tard. En 1822 enfin il publie son ouvrage de référence, « La
Théorie analytique de la chaleur ».

Dans les décennies suivantes, d’autres mathématiciens – en particulier


l’école allemande, dont les figures marquantes sont Dirichlet, Riemann
©Benoît Mosser/Observatoire de Paris

et Cantor – font avancer la théorie des fonctions en général et l’analyse


de Fourier en particulier. Ils démontrent rigoureusement la plupart des
points sur lesquels Fourier s’est appuyé et mettent de l’ordre là où c’est
nécessaire. Fourier avait ainsi été trop optimiste en supposant que toute
fonction périodique pouvait se décomposer en somme de sinus et de
cosinus. En effet, on peut trouver des contre-exemples « exotiques » qui ne
satisfont pas à cette loi, heureusement vérifiée par une très large gamme
Représentation de la partie réelle des de fonctions qui inclut celles que l’on rencontre dans les problèmes
premiers harmoniques sphériques sur la concrets, par exemple en biologie ou en physique.
sphère : l croit à chaque ligne et m varie de
0 à l. La valeur de la fonction est d’autant
plus élevée que la couleur utilisée pour la Et les anisotropies de température du
représenter est chaude : rouge ⇔ valeur
positive ; bleu ⇔ valeur négative ; blanc CMB dans tout ça ?
⇔ valeur nulle.
À la lecture de ce numéro d’Élémentaire il ne vous a sans doute pas échappé
CMB et séparation angulaire
En raison de l’expansion de l’Univers, un que la carte du « ciel CMB » montrant les fluctuations de température de
degré sur la carte du CMB correspond à ce rayonnement en fonction de la direction d’observation est un élément
une distance d’environ 200 mégaparsec essentiel de la cosmologie actuelle. Cette image peut être vue comme une
(Mpc) aujourd’hui. C’est la taille des fonction périodique de deux angles (une « latitude » et une « longitude »),
superamas de galaxies, les structures exactement comme un planisphère terrestre. Qui dit périodicité dit
les plus larges connues à ce jour. Par analyse de Fourier : des développements mathématiques aussi rigoureux
comparaison, un amas de galaxies et une que techniques (et sur lesquels nous jetons un voile pudique dans cet
galaxie ont des tailles caractéristiques de article) nous apprennent qu’une telle carte peut être décomposée comme
10-20 Mpc et 1 Mpc respectivement. Quant
somme de fonctions « simples », appelées poétiquement harmoniques
à la résolution spatiale du satellite Planck,
elle sera de 5 minutes d’arc environ (soit 4 sphériques et qui généralisent à deux dimensions les cosinus et les sinus
fois mieux que WMAP et 50 fois mieux que qui nous sont plus familiers.
page 44

COBE).
ÉLÉMENTAÍRE
..application au CMB
Ces harmoniques sphériques sont par convention numérotées avec deux
nombres entiers : ℓ qui est positif ou nul et m qui varie entre – ℓ et +ℓ.
Comme dans le cas de Fourier et de son équation de la chaleur, un calcul
donne les poids de ces fonctions dans la carte des anisotropies du CMB.
L’indice ℓ joue un rôle prépondérant. Tout d’abord on peut le relier à un
angle (noté θ) par la relation approchée ℓ ~ (100 degrés) / θ. À ℓ fixé,
les poids associés, notés Cℓ, quantifient l’intensité des fluctuations de
température moyennes entre des points séparés angulairement de θ sur
le ciel : plus ℓ est grand, plus on s’intéresse à des angles petits. Le spectre
du CMB n’est autre que la variation des poids Cℓ en fonction de l’indice

© WMAP
ℓ. Il décrit la présence (ou l’absence) de structures dans le CMB selon
l’échelle considérée.
La décomposition du CMB (en haut à
Comme l’existence et la taille de structures dans le CMB peut être gauche) sur les premières harmoniques
prédite au niveau théorique par différents modèles cosmologiques, la sphériques : les modes sont identifiés
comparaison entre les données expérimentales et les courbes attendues par leur indice ℓ. L’ensemble du ciel est
permet de départager ces modèles. représenté sur ces cartes ; par convention,
leur centre correspond au centre de la
Voie Lactée et le plan galactique est
Le spectre du CMB horizontal.

La connaissance expérimentale du spectre du CMB est résumée dans


la figure ci-après ; les coefficients Cl sont mesurés soit par des satellites
comme WMAP, soit par des expériences terrestres, au sol ou en ballon. Horizon
Plusieurs zones sont visibles sur ce graphique. À bas ℓ (et donc grand En astronomie, l’horizon correspond
angle), le spectre est presque plat : les distances correspondantes sont plus à la distance maximale que l’on peut
grandes que l’horizon au moment de la recombinaison (voir « Théorie ») observer depuis la Terre à un moment
et les anisotropies n’ont pas eu le temps d’évoluer : elles restent à un donné. Cette grandeur dépend de la
vitesse de la lumière et de l’expansion de
niveau « moyen ».
l’Univers qui étire les distances.
Pour des ℓ compris entre 100 et 1000, les angles correspondent à des
Recombinaison
distances inférieures à l’horizon et les inhomogénéités ont pu évoluer La recombinaison correspond au
de manière significative : des « pics acoustiques » sont visibles. Ils sont moment (environ 300 000 ans après
le reflet de deux processus concurrents qui se produisent dans le plasma le Big Bang) où la température de
d’électrons et de protons au moment de la recombinaison. La gravitation l’Univers a suffisamment baissé pour
a tendance à attirer encore plus de matière là où elle est déjà en excès que les électrons se combinent avec des
tandis que les photons exercent une pression de rayonnement qui tend au noyaux légers pour former les premiers
contraire à repousser la matière et à diluer les anisotropies. L’importance atomes stables. À partir de ce moment,
de ces effets n’est pas la même selon l’échelle considérée : tantôt la gravité les photons, qui jusque là interagissaient
sans cesse avec les particules chargées
l’emporte et parvient à former des anisotropies (c’est un pic), tantôt la
présentes en abondance dans l’Univers,
pression des photons aplanit une grande partie des variations (c’est un peuvent se propager librement : le CMB
creux). est justement formé de ces photons
et constitue une « photographie »
Enfin, à très grand ℓ (c’est-à-dire à très petite échelle angulaire), le spectre de l’Univers au moment de la
présente des oscillations qui s’atténuent progressivement. La recom- recombinaison.
binaison n’a pas été instantanée : lors de ce processus, des photons ont
pu être diffusés de zones chaudes vers des zones froides à proximité, ce
page 45

ÉLÉMENTAÍRE
Transformée de Fourier et...
Pression de rayonnement qui a eu pour effet d’atténuer les anisotropies aux petites échelles.
La pression de rayonnement traduit la Ainsi, les liens du CMB avec la présence (ou l’absence) de structures dans
force exercée sur une surface exposée à l’Univers à différentes échelles expliquent son rôle clé dans la validation
un rayonnement électromagnétique. Par de modèles cosmologiques. La composition exacte de matière dans
exemple, la pression de rayonnement l’Univers primordial (baryons, neutrinos, matière noire), les paramètres
exercée par les rayons du Soleil sur
cosmologiques comme la géométrie de l’Univers, la constante de Hubble
la Terre est de l’ordre de quelques
micro pascal (μPa) – à comparer avec ou l’énergie noire ainsi que la répartition des anisotropies initiales
la pression atmosphérique qui est de contrôlent les positions et les amplitudes des pics du spectre ainsi que
l’ordre de 100 000 Pa. des « vallées » qui les séparent. La mesure précise du spectre du CMB
est donc essentielle pour faire progresser les modèles cosmologiques et
améliorer la connaissance de leurs paramètres... une analyse impossible
à mener à bien sans les travaux de Joseph Fourier, si controversés à son
époque !

Spectre du CMB obtenu en combinant les


mesures du satellite WMAP intégrées sur Quelques formules pour les passionnés d’équations
cinq ans (points gris) avec les données enre-
gistrées par d’autres expériences terrestres
(Acbar et CBI) ou en ballon (Boomerang).
Les barres verticales donnent les erreurs
associées à chaque point expérimental. La
courbe rose correspond à la prédiction du
meilleur modèle cosmologique ajusté sur les
données de WMAP. On peut remarquer que
les expériences terrestres et satellitaires sont
complémentaires car elles sont sensibles à
différentes régions du spectre du CMB.
page 46

ÉLÉMENTAÍRE
Accélérateur
Les accélérateurs co(s)miques
La Terre est bombardée en permanence par une multitude de particules
venues de l’espace. Les plus familières sont certainement les photons
émis dans le domaine du visible par le Soleil ou les autres étoiles et qui
font partie de notre environnement. Mais ce sont loin d’être les seules :
les progrès de la science dans la seconde moitié du XIXe siècle puis
tout au long du XXe ont permis d’en découvrir beaucoup d’autres (voir
Élémentaire N°3). Ainsi, le spectre électromagnétique ne se limite pas
à la lumière visible ; des photons sont émis dans une très large gamme
d’énergie qui va des ondes radio aux rayons X et γ en passant par les micro-
ondes, l’infrarouge, toutes les nuances de l’arc-en-ciel et l’ultraviolet. Ils
sont parfois associés à des phénomènes violents, courants à l’échelle de
l’Univers mais au sujet desquels les scientifiques ont encore beaucoup à
apprendre : noyaux actifs de galaxie (AGNs), sursauts gamma...

À ce flux de particules neutres s’ajoutent des corpuscules chargés (pour


99% des noyaux atomiques, essentiellement de l’hydrogène et, en
proportion moindre, de l’hélium ; 1% d’électrons), appelés « rayons

© Simon Swordy
cosmiques » de manière générique. On croyait initialement que ces
particules étaient des sortes de photons, d’où l’emploi (erroné mais
entré dans l’usage) du mot « rayon ». Leur étude, entamée avant la mise
au point des premiers accélérateurs, se poursuit aujourd’hui avec un
intérêt soutenu. Les champs magnétiques terrestre et solaire ainsi que Spectre du rayonnement cosmique. Ce
l’atmosphère nous protègent des effets nocifs de ces rayonnements en graphique montre le nombre de particules
déviant, éliminant ou atténuant les particules les plus énergétiques, chargées d’énergie donnée arrivant sur Terre
potentiellement dangereuses. par seconde, par m2 et provenant d’une
direction donnée. Les deux échelles (énergie
sur l’axe horizontal, flux de particules en
Le spectre des rayons cosmiques vertical) sont logarithmiques, ce qui veut dire
que chaque (grande) graduation correspond
à une variation d’un facteur 10. Entre le haut
Intéressons-nous plus particulièrement aux rayons cosmiques qui arrivent
et le bas de la courbe, l’énergie des particules
sur Terre de manière individuelle et incohérente, en provenance de est multipliée par près de mille milliards
sources multiples ; leur spectre est riche d’enseignements. tandis que leur nombre est divisé par dix
mille milliards de milliards de milliards
Tout d’abord ces particules couvrent une gamme d’énergie considérable : (ouf !) environ. Si réaliser un tel spectre
plus de treize ordres de grandeur (un facteur dix mille milliards !) entre les est un vrai défi sur le plan expérimental,
deux extrémités du spectre. Les rayons cosmiques les moins énergétiques interpréter le résultat obtenu se révèle tout
subissent l’influence du champ magnétique et du vent solaire tandis aussi complexe. Au premier abord la courbe
paraît très régulière : elle suit assez bien la
que les plus puissants créent des gerbes géantes de particules lors de
forme d’une loi de puissance, représentée
leur interaction avec l’atmosphère. Les difficultés d’estimer précisément
sur la figure par les pointillés noirs. En
l’énergie de tels événements et leur rareté suscitent de nombreuses fait, elle comporte plusieurs structures qui
discussions – voire des controverses – au sein de la communauté des reflètent la diversité des sources de rayons
physiciens. cosmiques ainsi que celle des mécanismes
assurant leur accélération bien au-delà de
Ensuite, la variation du flux de rayons cosmiques en fonction de l’énergie ce que les accélérateurs « terrestres » les
est, en première approximation, simple ; chaque fois que l’énergie est plus performants peuvent produire. Ainsi
multipliée par 10, le nombre de particules incidentes est divisé par un quelques particules produisant une énergie
au moins égale à celle des collisions protons-
facteur compris entre 500 et 1000. Cette loi est qualitativement conforme
protons dans le LHC (14 TeV) arrivent
à l’intuition : plus un rayon cosmique est énergétique, plus il doit être
chaque heure sur une surface d’un kilomètre
rare. De manière plus quantitative, on passe de plusieurs centaines de carré.
particules par mètre carré et par seconde à moins d’une par kilomètre
page 47

ÉLÉMENTAÍRE
Les accélérateurs co(s)miques
carré et par an quand l’énergie s’approche de sa valeur maximale. Le
spectre contient également quelques structures, détaillées plus avant dans
l’article.

Enfin, les rayons cosmiques les plus énergétiques sont du genre « costauds ».
Le match Technologie / Nature Leur énergie peut atteindre celle emmagasinée par une balle de tennis de
Sur le plan de l’énergie absolue, la Nature 57 g lancée à 85 km/h soit 32 Joules, ou 1020 eV. Les meilleurs accélérateurs
gagne sans contestation possible : le plus de particules, pourtant à la pointe de l’innovation technologique, font pâle
puissant des accélérateurs, le LHC, atteindra figure par rapport à ces records « 100% naturels ».
« seulement » des énergies de 1,4×1013 eV lors Comprendre les mécanismes à l’origine de telles accélérations, trouver
des collisions proton-proton et de 2,8×1012 eV les sources d’énergie sans lesquelles ces phénomènes ne pourraient se
par nucléon lorsque les noyaux d’hydrogène produire, ou découvrir de nouvelles particules dont la désintégration serait
seront remplacés par des ions plomb quelques
à l’origine de certains rayons cosmiques, sont trois des questions que se
semaines par an. L’énergie d’un rayon cosmique,
elle, peut dépasser 1019 eV ! Par contre, la
posent actuellement les physiciens spécialistes des « astroparticules »,
technologie reprend l’avantage au niveau du c’est-à-dire des particules élémentaires en provenance de l’espace.
nombre de particules accélérées (trois cent mille Contrairement aux photons, certains rayons cosmiques ont une charge
milliards de protons circuleront simultanément non nulle ce qui les rend sensibles aux champs électriques et magnétiques
dans le LHC), de la fréquence de répétition présents dans le cosmos. Cette caractéristique importante est à l’origine de
des événements (40 millions de collisions par mécanismes d’accélération spécifiques
seconde, toujours au LHC) et surtout grâce à .
sa capacité à générer les collisions là où elles À basse énergie (jusqu’à 1010 eV environ), le flux de rayons cosmiques
doivent se produire pour être observables dans
est sensible au vent solaire, un plasma chargé (protons, électrons, noyaux
leurs moindres détails, c’est-à-dire au centre
des détecteurs ! La technologie est également
d’hélium, etc.) émis par notre étoile à une vitesse d’environ 400 km/s.
plus « économique » que la Nature : grâce aux Celui-ci crée un puissant champ magnétique dont l’effet se fait sentir dans
collisionneurs (voir Élémentaire N°6) l’énergie tout le système solaire et qui dévie une grande partie des particules chargées
des particules circulant dans le LHC est bien incidentes. Au-delà, le flux en fonction de l’énergie E varie en « loi de
inférieure à celle que doit avoir un rayon puissance », c’est-à-dire qu’il est proportionnel à E-γ. Expérimentalement,
cosmique pour que sa collision avec un proton γ = 2,7 jusqu’à 1015 eV environ avant de passer brusquement à 3,1 – le
terrestre (au repos) produise autant d’énergie. flux chute. Cette transition est appelée poétiquement le « genou » par
- Pour obtenir une énergie de collision les physiciens, jamais en mal d’inspiration pour donner des noms à leurs
Ecollision = 14 TeV, l’énergie des protons du
observations ! Le taux décroît donc plus fortement sur plus de trois ordres
LHC doit valoir E = 7 TeV (les énergies des
deux particules impliquées dans le choc
de grandeur avant de « ralentir » vers 1019 eV. Sans surprise, cette seconde
s’ajoutent). - Dans le cas d’une collision rayon structure se nomme la « cheville ».
cosmique – proton « terrestre » au repos
(d’énergie équivalente Mc2 ≈ 1 GeV), il faut Des particules d’énergies aussi diverses sont nécessairement créées par
E ≈ (Ecollision)2/(2Mc2) ≈ 105 TeV, soit quatorze- des processus très différents. Jusque vers 1018 eV, elles sont issues de notre
mille fois plus ! galaxie. Au-delà, elles viennent probablement de régions de l’Univers plus
lointaines car le champ magnétique galactique ne parvient pas à maintenir
de tels projectiles suffisamment longtemps dans la Voie Lactée pour qu’ils
aient une chance de croiser la Terre sur leur chemin. En fait, la plupart des
rayons cosmiques subissent l’influence de nombreux champs magnétiques
sur leur parcours ; ceux-ci dévient leur trajectoire, rendant très difficile,
voire impossible, l’identification des sources. Expérimentalement, leur
distribution sur le ciel apparaît isotrope avec une précision de un pour
mille. Pour les particules les plus énergétiques, la situation est différente :
un article récent de l’expérience AUGER semble montrer un lien entre
rayons cosmiques et noyaux actifs de galaxies.

Au-delà de ces énergies, le faible nombre de rayons cosmiques et les


possibles biais dans la mesure de l’énergie compliquent l’interprétation
page 48

ÉLÉMENTAÍRE
Les accélérateurs co(s)miques
Un article récent de l’expérience
AUGER
des résultats expérimentaux. Une contrainte forte est apportée par des
calculs théoriques qui prédisent une énergie limite – appelée « coupure AUGER (voir Élémentaire N°3) a
récemment publié une étude des
GZK » en l’honneur des trois physiciens Kenneth Greisen, Georgi
premiers rayons cosmiques de très
Zatsepin et Vadem Kuzmin qui déterminèrent sa valeur en 1966. En effet, haute énergie enregistrés dans ses
les rayons cosmiques les plus énergétiques interagissent avec les photons détecteurs. Sa conclusion, basée sur
du CMB ce qui limite leur énergie pour peu qu’ils aient parcouru une une trentaine d’événements d’énergie
distance suffisante. D’autre part, on ne connaît aucune source qui soit supérieure à 57 × 1018 eV environ,
assez puissante pour produire de telles particules et suffisamment proche est que ces particules ont tendance à
pour que la coupure GZK ne s’applique pas. La conjonction de ces deux provenir de sources « peu éloignées »
éléments fait qu’on ne devrait observer aucun rayon cosmique d’énergie (moins de 75 Mpc, soit en-dessous de
supérieure au seuil GZK. la « coupure GZK » dont nous parlons
dans un encadré voisin) et que leurs
Or une expérience basée au Japon (AGASA) et qui a pris des données
directions (observables car ces rayons
de 1990 à l’an 2000 a annoncé avoir détecté une douzaine de rayons cosmiques sont peu déviés par les
cosmiques qui, d’après l’argument précédent, ne devraient pas exister ! champs magnétiques du cosmos) sont
La question de savoir si ces événements sont réels ou si leur énergie proches de celles de noyaux actifs de
a été surestimée par les mesures a agité pendant plusieurs années la galaxie (AGNs) déjà connus. Bien que
communauté des physiciens, dans l’attente des résultats de l’expérience ce résultat ne soit encore basé que sur
Auger. Finalement publiées mi-2008, ces mesures donnent raison à une une tendance statistique – si les sources
expérience antérieure, HiRes, et montrent que la coupure GZK est bien sont isotropes, les observations d’Auger
présente : le taux de particules décroît très fortement au niveau du seuil sont peu probables mais pas impossibles
– il est intéressant car les AGNs sont
en énergie.
considérés par ailleurs comme de
bons candidats pour produire de tels
Mais qu’est-ce qui fait courir les rayons rayons cosmiques. Cette hypothèse
sera confirmée ou invalidée lorsque
cosmiques ? plus de données seront analysées dans
les prochaines années, réduisant ainsi
les incertitudes statistiques sur ces
Les rayons cosmiques étant chargés, ils interagissent avec les champs mesures.
électromagnétiques qu’ils rencontrent sur leur parcours. Les zones
où ces champs sont présents sont de taille astronomique (étoiles,
nébuleuses, trous noirs etc.) ; il est donc logique que des particules
microscopiques puissent parfois acquérir une énergie colossale en les
traversant. Dès la fin des années 1940, Enrico Fermi s’intéresse aux © The Auger collaboration

mécanismes d’accélération des rayons cosmiques. En 1948 il propose

Coupure GZK
À partir d’une énergie très élevée (de l’ordre de 6×1019 eV pour
des protons), un rayon cosmique interagit avec les photons du Projection de la sphère céleste; les cercles noirs de rayon 3,1 degrés montrent
rayonnement fossile. À chaque collision, des particules (les les directions d’arrivée des 27 rayons cosmiques les plus énergétiques
pions) sont produites et emportent une partie de l’énergie (énergie supérieure à 57 × 1018 eV) détectés par la collaboration Auger.
disponible – 15% environ. Lentement (une interaction tous L’expérience est sensible à la partie du ciel en bleu : la Terre masque les
les quinze millions d’années en moyenne) mais sûrement autres directions. Les points rouges montrent les 472 (!) AGNs connus
(une telle particule peut voyager des centaines de millions situés à moins de 75 millions de parsec (Mpc, 1 parsec = 3,6 années-
d’années) le processus se poursuit jusqu’à ce que l’énergie du lumière). La comparaison précise de ces cartes indique une corrélation
rayon cosmique passe en dessous du seuil d’interaction. En entre elles (à confirmer avec plus de données) ; en particulier, rayons
conséquence, pour chaque type de rayon cosmique, il existe cosmiques et noyaux actifs de galaxie semblent se concentrer autour du
une distance de propagation critique (plusieurs centaines de plan matérialisé par la ligne pointillée et qui contient un grand nombre
millions d’années-lumière pour un proton) au-delà de laquelle de galaxies proches de la nôtre.
l’énergie de la particule est forcément inférieure au seuil GZK,
et ce quelle qu’ait pu être son énergie initiale.
page 49

ÉLÉMENTAÍRE
Les accélérateurs co(s)miques
une théorie basée sur des chocs avec des nuages de gaz se comportant
comme des miroirs magnétiques, phénomène également à l’origine des
ceintures de Van Allen qui entourent la Terre. Lorsque miroir et particule
vont l’un vers l’autre (se suivent), la particule accélère (ralentit) après
le choc. Comme le premier type de collisions est plus probable que le
second (il est plus « facile » de croiser des objets qui viennent en sens
inverse que de rattraper ceux qui se déplacent dans la même direction),
les rayons cosmiques gagnent de l’énergie en moyenne.
La variation relative de l’énergie est alors proportionnelle au carré de la
vitesse des nuages – on parle d’accélération de Fermi du second ordre.
Si ce phénomène donne bien un spectre d’énergie en loi de puissance,
il a également plusieurs problèmes qui le rendent irréaliste. Tout d’abord
DR

il est trop lent : les rayons cosmiques devraient être au moins dix fois
Effet du mécanisme GZK sur des protons plus vieux que ce qui est effectivement observé. Ensuite, il demande
cosmiques d’énergies supérieures à 1020 eV. une énergie initiale importante (sans laquelle le mécanisme s’inverse et
Leur énergie décroît en fonction de la distance ralentit la particule). Enfin, il faut effectuer un ajustement fin (et donc
parcourue – comptée en Mpc – à cause des peu naturel) des paramètres du modèle pour s’approcher du spectre en
interactions avec les photons du CMB et la énergie observé.
variation est d’autant plus rapide que l’énergie Malgré ces défauts, la théorie de Fermi est passée à la postérité car elle
est élevée. Au-delà d’une certaine distance de
contient la bonne idée : le gain d’énergie s’obtient par réflexions multiples.
propagation, quelques centaines de Mpc dans
le cas du proton, les particules ont des énergies
À la fin des années 1970, plusieurs équipes de chercheurs ont proposé,
très voisines bien qu’elles aient été initialement de manière indépendante, un nouveau mécanisme d’accélération. Une
très différentes. Cela signifie que l’énergie d’un particule traversant une onde de choc voit son énergie augmenter d’un
proton qui a parcouru un trajet aussi long ne peut terme proportionnel à la différence entre les vitesses de propagation du
excéder une valeur limite, de l’ordre de 6×1019 eV milieu interstellaire avant et après le choc. Si des miroirs magnétiques
et appelée « coupure GZK ». sont situés de part et d’autre de cette frontière, le rayon cosmique se
trajectoire en spirale
de la particule chargée Ceintures de Van Allen Un miroir magnétique est une configuration particulière d’un
champ magnétique dont l’effet est de ralentir, puis de réfléchir les particules chargées
incidentes – dont les énergies peuvent parfois augmenter par ce mécanisme. Ce phénomène
peut se produire lorsque l’intensité du champ magnétique varie le long des lignes de champ,
points miroir ce qui est par exemple le cas pour le champ magnétique terrestre, plus fort au niveau des
pôles. Les ceintures de Van Allen, du nom du scientifique américain qui a interprété les
Terre
données des premiers satellites qui les ont traversées, sont ainsi une conséquence directe
© B. Mazoyer

de cet effet. Il s’agit de zones en forme d’anneau regroupant des particules chargées qui font
sans cesse l’aller-retour entre les deux pôles de notre planète où elles sont immanquablement
ligne de champ magnétique
réfléchies par ces « miroirs ». Chaque traversée dure de l’ordre d’une seconde mais une
particule donnée peut rester prisonnière de ces régions pendant plusieurs années.
Page d’un carnet
de notes d’Enrico Ni les hommes ni les circuits électroniques ne résisteraient à un séjour prolongé dans les
Fermi datée du ceintures de Van Allen dont la présence doit donc être prise en compte avec soin lors de
4 décembre 1948 la préparation de missions spatiales. Comme les pôles géographiques et magnétiques ne
Bibliothèque de l’Université de Chicago.

et contenant son sont pas alignés (l’écart est d’environ 11 degrés) et que les deux axes associés (rotation et
modèle d’accé- magnétique) sont décalés d’environ 450 km, les ceintures de Van Allen ne sont pas à la
lération des même altitude partout sur la Terre. Ainsi, l’endroit où ce flot de particules est le plus proche
rayons cosmiques du sol est localisé à la verticale du Brésil. Cette « anomalie magnétique de l’Atlantique Sud »
par des nuages a nécessité la pose d’un blindage supplémentaire sur la station spatiale internationale dont
de gaz agissant l’orbite passe parfois au travers de cette région. De même, le télescope spatial Hubble et le
comme miroirs satellite GLAST-Fermi éteignent leurs instruments lorsqu’ils traversent cette zone. Dans tous
magnétiques. les cas, il s’agit de se protéger des dommages que pourraient causer cette densité inhabituelle
Moins de quatre de particules chargées. Pas d’inquiétude au niveau du sol : les ceintures de Van Allen ne
semaines plus tard Fermi enverra un article s’approchent pas à moins d’une centaine de km d’altitude. Il n’est donc pas nécessaire de
au journal scientifique « Physical Review » mettre un heaume de chevalier pour visiter Copacabana !
page 50

qui le publiera en avril 1949.


ÉLÉMENTAÍRE
les accélérateurs co(s)miques
Dix fois plus vieux
retrouve au milieu d’une partie de flipper géante et accélère chaque fois L’âge des rayons cosmiques est estimé
qu’il la traverse. Les calculs montrent que cette accélération de Fermi en regardant l’abondance relative
du premier ordre (proportionnelle à la vitesse du choc et non pas à son de noyaux radioactifs. Ceux-ci se
carré) « colle » mieux à la réalité même si elle est loin d’expliquer tous les désintègrent au cours du temps selon un
phénomènes observés. Ce domaine d’étude, au confluent de nombreuses rythme qui leur est propre ; comparer
leurs abondances relatives permet de
disciplines, est actuellement en plein développement. Il progresse grâce à
situer le moment où ils ont été créés.
des avancées théoriques (mises au point de modèles complexes et prenant
en compte toujours plus de phénomènes) et numériques : une fois les V
équations écrites, il faut encore les résoudre de manière approchée avec v

des ordinateurs gourmands en temps de calcul. Le but est de modéliser


de manière précise les ondes de choc et, par voie de conséquence, les v + 2V
événements qui les produisent dans l’Univers.
Pour les rayons cosmiques d’origine galactique, les ondes de choc
générées par des supernovæ sont de bons « candidat-accélérateurs ».
En comparant le taux de ces phénomènes (quelques-unes par siècle) à la

© B. Mazoyer
densité de particules mesurée (de l’ordre de 1 eV/cm3), on montre qu’une
dizaine de pourcents de l’énergie émise par ces explosions d’étoiles
suffisent pour alimenter la production de ces particules. Le gain d’énergie Analogie entre le mécanisme
peut atteindre 1000 eV/s pendant plusieurs centaines d’années d’affilée, d’accélération de Fermi et le
ce qui est beaucoup mais insuffisant pour rendre compte de l’ensemble du tennis.
spectre des rayons cosmiques. D’autres mécanismes doivent y contribuer
mais les observations ne permettent pas actuellement de trancher entre les
candidats potentiels. Le diagramme de Hillas est une manière commode
de caractériser les différentes sources possibles au moyen de leur champ
magnétique B et de leur taille L. En effet, l’énergie apportée à un rayon
cosmique de charge q est forcément inférieure au produit qBcL, l’énergie
maximale, où c est la vitesse de la lumière dans le vide. En faisant des
hypothèses sur le rendement du processus, on obtient les relations que
doivent satisfaire B et L pour fournir des énergies données – des droites
en échelle doublement logarithmique. En plus des noyaux actifs de
galaxie déjà mentionnés plus haut dans l’article, les sursauts gamma (voir
« ICPACKOI »), voire les étoiles à neutrons, pourraient accélérer une
partie des rayons cosmiques de (très) haute énergie.

Énergie maximale : une particule de charge q et d’énergie E, plongée dans un


champ magnétique B, décrit un cercle dans le plan perpendiculaire à l’axe de ce
© B. Mazoyer

champ. Le rayon R de cette trajectoire est donné par R=E/qBc. Ce mouvement se


fait sans gain d’énergie. Le champ B, présent dans la zone d’accélération sans en être
responsable, limite l’énergie acquise par la particule à cause de la relation écrite ci-
dessus. Pour que l’accélération ait lieu, il faut que le rayon R de la trajectoire reste
plus petit que la taille caractéristique L de la zone où ce processus a lieu. On obtient
alors directement la valeur maximale Emax de l’énergie : R ≤ L => E ≤ Emax= qBcL. Diagramme de Hillas montrant la relation
entre champ magnétique et taille pour
différentes sources potentielles de rayons
cosmiques de haute énergie (les deux échelles
sont logarithmiques). Les droites rouges
illustrent l’exemple de protons d’énergie
1020 eV (trait plein) ou 1021 eV (pointillés) ; la
page 51

droite verte montre le cas d’ions Fer d’énergie


1021 eV.
ÉLÉMENTAÍRE
Les accélérateurs co(s)miques
Ce photomontage présente d’une part (à
gauche) une image de la nébuleuse du
Crabe dans la constellation du Taureau et
d’autre part (à droite) des photographies
(ordonnées par colonne) illustrant le cycle
d’émission du pulsar central, une étoile
à neutrons créé par l’explosion d’une
supernova en 1054. Selon l’instant de la
prise de vue, le pulsar (au-dessous et à
droite de l’étoile fixe) est « allumé » ou

© MPIfR / A. Jessner
« éteint ». Tous ces clichés ont été pris
avec le télescope Mayall de 4 mètres de
Une onde de choc est une perturbation
l’observatoire du Kitt Peak (Arizona).
qui se propage dans un milieu. Les deux
régions séparées par cette zone (en amont
et en aval du choc) ont des propriétés très
différentes. Ainsi lors d’une explosion, Et les particules neutres ?
une bulle de gaz à très haute pression
se forme tandis que l’air extérieur reste Au contraire des particules chargées, sans cesse soumises à l’action de
à la pression atmosphérique. D’autres champs électriques et magnétiques, les particules neutres se propagent
exemples d’ondes de choc sont le « bang » en ligne droite sans réellement subir l’influence du milieu interstellaire.
supersonique émis par un avion lorsqu’il Elles apportent donc des témoignages plus fidèles sur leurs sources et les
passe le mur du son ou la lumière Cerenkov mécanismes d’accélération associés. Les photons (rayons X ou gamma)
(Élémentaire N°4) qui apparaît lorsqu’une et les neutrinos sont des produits secondaires d’interaction entre protons
particule chargée traverse un milieu à
tandis que les électrons peuvent également rayonner des photons par
une vitesse supérieure à celle qu’aurait la
lumière dans ce matériau. effet synchrotron lorsque leurs trajectoires sont courbées par des champs
Puisque nous parlons beaucoup de champs magnétiques.
magnétiques dans l’article, on peut De nombreuses expériences, déjà opérationnelles ou encore en
également mentionner la zone où le vent préparation, sont dédiées à la détection des particules neutres de
solaire rencontre le champ magnétique haute énergie. Pour les photons, il faut soit aller dans l’espace (satellite
terrestre. Cette onde de choc a été GLAST-Fermi, voir «ICPACKOI») soit utiliser un réseau d’antennes au sol
observée pour la première fois le 7 octobre (télescope HESS en Namibie). Pour les neutrinos, toujours aussi discrets,
1962 à 15h46 temps universel par Mariner il faut de grands volumes d’eau (projet ANTARES au large de Toulon, voir
2, alors en route pour Vénus. Comme le
Élémentaire N°5) ou de glace (expériences Amanda puis IceCube, voir
montre le graphique ci-dessous, le champ
magnétique mesuré par la sonde spatiale Élémentaire N°3). Observées de tous côtés, les particules énergétiques
augmente brutalement lorsque celle-ci qui nous arrivent en provenance de l’espace finiront bien par dévoiler
quitte le bouclier magnétique terrestre leurs secrets.
pour se retrouver avec le vent solaire
turbulent de face.
© The HESS Collaboration

Étoile à neutrons Comme son nom


l’indique, il s’agit d’un astre composé
presque exclusivement de neutrons. Une
étoile à neutrons a un rayon d’une dizaine
de kilomètres et « pèse » environ 1,4 masse
solaire : sa densité (de l’ordre du milliard HESS « High Energy Stereoscopic System » (HESS) est un réseau
de tonnes/cm3) est donc phénoménale. Elle de télescopes situés en Namibie et qui utilise la lumière Cerenkov
résulte de l’effondrement gravitationnel produite par les gerbes de particules chargées qui apparaissent
d’une étoile en fin de vie qui a fini de lorsqu’un photon très énergétique interagit dans l’atmosphère.
brûler tout son combustible nucléaire : HESS étudie ainsi en détail les sources connues de rayons gamma
une supernova. (comme le pulsar du Crabe) et permet également d’en découvrir de
nouvelles grâce à son excellente sensibilité.
page 52

ÉLÉMENTAÍRE
Découvertes
Le rayonnement fossile
Y’a de la friture sur la ligne ...
Printemps 1965 : Arno Penzias et Robert Wilson sont perplexes. Voilà
bientôt un an que l’instrument qu’ils utilisent pour des observations de
radioastronomie enregistre un signal d’origine inconnue. L’antenne de

© Bell Laboratories
Crawford Hill (New Jersey, États-Unis) a été construite en 1960 pour
recevoir les données des premiers satellites de télécommunication
américains « Echo » (de simples ballons métalliques réfléchissant des
ondes radio envoyées depuis le sol). Sa forme de cornet lui permet de se
focaliser sur une petite région du ciel et de minimiser les signaux parasites Robert Wilson (à gauche) et Arno Penzias (à droite)
reçus des autres directions. Les ondes radio venues de l’espace étant très posant en 1975 devant l’antenne de Crawford Hill,
faibles, elles sont amplifiées dans des circuits électriques refroidis à instrument de leur découverte.
quelques degrés au-dessus du zéro absolu grâce à de l’hélium liquide
afin de limiter leur bruit. Penzias et Wilson ajoutent aux instruments La famille d’Arno Penzias fuit Munich peu de temps après
déjà existants un système leur permettant de tester séparément les sa naissance en 1933 et s’installe à New York. Devenu
performances de l’antenne et de l’électronique. citoyen américain en 1946, Penzias étudie à l’Université
de Columbia où il soutient son doctorat en 1962. Il rejoint
ensuite les Laboratoires Bell (où ont été inventé entre autres
Le bruit inattendu observé par Penzias et Wilson dégrade les le transistor électronique, le système d’exploitation Unix dont
performances de leur détecteur et l’empêche d’atteindre la Linux dérive, ou encore les langages de programmation C et
sensibilité espérée. Cette perturbation se traduit par une élévation C++) et commence à travailler sur des récepteurs micro-ondes
de la « température » mesurée. L’un des avantages de cette cryogéniques avec Robert Woodrow Wilson. Ce dernier,
description concise est que la température mesurée dans le cas où de trois ans son cadet, a fait ses études au « California
deux contributions sont simultanément détectées (par exemple une Institute of Technology » à Pasadena (Californie). Tous
émission radio en provenance de l’espace et un signal parasite dû à deux reçoivent en 1978 le prix Nobel de physique pour leur
une imperfection de l’instrument) est simplement la somme des deux mise en évidence expérimentale du rayonnement fossile.
températures individuelles.
Température : si leur antenne mesure une énergie E, il
Bruit : tout circuit électronique ajoute une contribution parasite aux est commode de parler de sa température équivalente T,
signaux physiques qu’il reçoit et transforme. Le bruit thermique, dû exprimée en Kelvin. Les deux quantités sont reliées par la
au mouvement aléatoire des électrons dans les conducteurs peut être relation E = k × T où k= 8,62×10−5 eV K−1 est la constante
réduit en abaissant la température de l’ensemble. D’autres bruits, de Boltzmann. Une température de 3 K correspond donc
également réductibles, dépendent de la qualité de fabrication du à une énergie de 0,00026 eV.
circuit et de sa mise au point.
Radioastronomie
Il s’agit d’une branche de l’astronomie dédiée à l’étude des
émissions radio des corps célestes. Bien que très récente (la première
observation d’un signal radio en provenance du centre galactique
date de 1933), elle a permis de nombreuses découvertes : le CMB
bien sûr mais également les pulsars en 1967. En effet, la gamme
de fréquence d’un signal électromagnétique dépend du processus
physique à l’origine de l’émission. Et donc chaque nouveau mode
d’observation du ciel (optique, radio, infrarouge, rayons X, etc...)
© COBE

améliore notre connaissance de l’Univers. Comparées à celles


de la lumière visible, les longueurs d’onde radio sont grandes :
de 400 à 700 nanomètres dans le premier cas, du millimètre au
mètre dans l’autre. Or la résolution d’un télescope (c’est-à-dire la
taille angulaire minimale de la région du ciel associée à un signal
donné) varie comme le rapport entre le diamètre de l’instrument
et la longueur d’onde observée. Une antenne radio doit donc
L’altitude de demi-absorption est celle à laquelle le rayonnement arrivant
être très étendue pour être performante : ainsi, le radiotélescope
sur Terre est diminué par deux. On voit que le rayonnement ultraviolet est
d’Arecibo situé sur l’île de Porto Rico a un diamètre de 305 mètres.
absorbé à haute altitude alors que l’atmosphère est quasi transparente au
Heureusement, l’atmosphère est transparente pour les ondes radio
visible et aux micro-ondes.
page 53

– comme le montre la figure ci-contre – ce qui permet d’installer de


tels détecteurs sur la Terre plutôt qu’en orbite.
ÉLÉMENTAÍRE
Le rayonnement fossile
La calibration utilisant un cylindre métallique « étalon » également refroidi
à l’hélium liquide (et dont le bruit thermique est connu avec précision)
donne des résultats satisfaisants : la température détectée (autour de 4K)
correspond à la valeur attendue, ce qui démontre la qualité des systèmes
de lecture et de refroidissement. En effet, un défaut au niveau de l’un ou
l’autre de ces éléments se serait forcément traduit par une mesure plus
élevée. Les deux chercheurs s’attendent donc à trouver une température
de 3,3 K au niveau de l’antenne, dominée par les radiations venant
de l’atmosphère (2,3 K) et de l’antenne ou du sol (1 K). À leur grande
surprise, la valeur mesurée est bien supérieure : 7,5 K ! Si la différence
n’est pas énorme en absolu, Penzias et Wilson ont acquis au fil des mois
une compréhension très détaillée de leur détecteur qui ne laisse pas
place au doute : l’excès de température est réel et donc, quelque chose,
quelque part, le produit.
© R. Wilson

D’accord, mais quoi et où ? Une après l’autre les explications « logiques »


sont réfutées. Le bruit mystérieux ne dépend pas du pointage de l’antenne
Sensibilité de l’antenne de Crawford Hill ni de l’heure de la mesure, ni même des saisons. Il n’est donc pas
en fonction de l’angle du signal incident d’origine humaine et, en particulier, il ne vient pas de la ville de New
– indiqué en degrés sur les quatre côtés de York toute proche. De plus, le mouvement de la Terre autour du Soleil
la figure, le 0° correspondant à la direction induirait forcément une modulation du signal si la source était dans le
vers laquelle pointe le cornet (voir schéma système solaire. Enfin, cette dernière n’est pas non plus dans la Voie
ci-dessous). Chaque cercle concentrique Lactée : les variations de bruit observées en direction du plan galactique
indique une réduction d’un facteur dix de sont compatibles avec l’excès de signal attendu en provenance de ces
la sensibilité. Celle-ci est donc maximale
régions, denses et donc riches en émetteurs potentiels d’onde radio.
dans l’axe du cornet et décroît très vite
lorsqu’on s’en éloigne : à ± 10° elle n’est plus
qu’1/100 000ème de l’optimum. L’antenne D’autres hypothèses sont alors envisagées. La plus fameuse implique un
est donc très directionnelle, contrairement malheureux couple de pigeons qui ont niché dans un recoin abrité de
à une antenne isotrope dont le diagramme l’antenne. Découverts lors d’une inspection de la structure, ils sont chassés
idéal (sensibilité identique dans toutes les et le guano – « un matériau diélectrique blanc » d’après Penzias – qu’ils
directions) est matérialisé par le cercle en avaient déposé est nettoyé avec soin. Sans succès : aucune différence
gras au niveau 40. significative n’est observée entre avant et après la phase de ramonage ...
La possibilité que le bruit soit la conséquence d’une explosion nucléaire à
cornet évasé
haute altitude datant de 1962 est également envisagée : cet essai nucléaire
a produit un grand nombre d’ions dans les couches les plus élevées de
© B. Mazoyer

guide d'ondes signal


l’atmosphère dont la contribution au signal de l’antenne aurait pu ne pas
avoir été bien prise en compte. Là encore, l’absence de variation de la
mesure sur une longue durée (alors que cet excès d’ions diminue avec le
temps) rend l’hypothèse caduque.

« Les gars, on s’est fait griller ! »


Vient alors le petit coup de pouce du destin qui va mener nos deux
MIT et Princeton chercheurs au prix Nobel de physique 1978 : leur signal parasite est en
Le « Massachusetts Institute of Technology » fait une avancée scientifique majeure qui n’attend que son interprétation.
(MIT) et l’Université de Princeton (New Au détour d’une conversation, Arno Penzias mentionne à Bernard Burke,
Jersey) sont deux des établissements
professeur au MIT, l’existence de ce bruit inexpliqué. Ce dernier lui
d’enseignement supérieur les plus
prestigieux de la côte Est des États-Unis avec explique alors que des travaux théoriques récents, menés à l’université
Harvard. Ils ont été fondés en 1861 et 1764 de Princeton autour de Robert Dicke et Jim Peebles, prédisent l’existence
respectivement. d’une radiation résiduelle à une température d’environ 10K qui emplirait
page 54

ÉLÉMENTAÍRE
Le rayonnement fossile
tout l’espace et serait un témoignage des premiers instants de l’Univers.
Penzias et Wilson se font envoyer l’article en question et commencent Rayonnement fossile micro-ondes
à réaliser la portée de leur découverte. Ils invitent alors les chercheurs (CMB)
de Princeton à leur rendre visite et les convainquent sans peine de la Après le Big Bang, l’Univers est resté
qualité de leurs mesures. Décision est alors prise de publier deux articles opaque 380 000 ans environ : avant
dans le même numéro de la revue « Astrophysical Journal », soumis cette date, sa température est telle que
respectivement les 7 et 13 mai 1965 : les photons qu’il contient interagissent
continuellement avec la matière ionisée ce
• un article théorique signé par le groupe de Princeton, présentant le
qui les empêche de voyager sur de grandes
rayonnement fossile micro-ondes (CMB pour «cosmic microwave distances et donc de nous apporter leur
background») et expliquant son origine ; « lumière ». À mesure que l’Univers se
• un article expérimental, écrit par Penzias et Wilson, « Mesure d’un excès dilate, sa température diminue. Lorsque
de température d’antenne à 4080 MHz », décrivant l’excès de température les photons n’ont plus assez d’énergie pour
enregistré dans l’antenne du New Jersey (3,5 ± 1,1 K, isotrope au niveau ioniser l’atome le plus simple, l’hydrogène,
de 10%) sans mentionner ses implications possibles en cosmologie. ils se découplent de la matière et l’Univers
devient transparent (voir « Théorie »).
La petite histoire veut que Dicke, apprenant la découverte de Penzias et C’est l’empreinte de cet événement que
Penzias et Wilson ont découvert dans leur
Wilson, ait dit à ses collaborateurs : « les gars, on s’est fait griller ». Si sa
antenne. L’expansion de l’Univers s’étant
remarque s’adresse dans son esprit uniquement à son équipe – laquelle poursuivie pendant plus de treize milliards
construit une antenne précisément pour détecter ce rayonnement, ce d’années, ces photons ont « refroidi »
qu’elle parvient d’ailleurs à faire au mois de décembre de la même jusqu’à 2,7 K.
année – elle a une portée plus large. L’excès de température était en fait L’émission du CMB correspond donc
déjà présent (mais presque invisible) dans des données enregistrées à à un instant bien précis de l’histoire
Crawford Hill lors des expériences de communication avec les satellites de l’Univers. Si nous l’observons en
Echo : au lieu d’une valeur attendue de 18,9 ± 3,0 K pour la température permanence aujourd’hui, c’est parce qu’il
de l’antenne, les mesures avaient donné 22,2 ± 2,2 K. Comme l’excès s’est produit au même moment en chaque
point de l’espace. Comme l’Univers est
était dans la fourchette d’erreur attendue, il ne fut pas jugé significatif. De
très étendu, il y a toujours une partie de
toute manière le dispositif expérimental ne permettait pas de séparer les la « surface de dernière diffusion » située à
bruits de l’antenne de ceux de l’électronique, ce qui rendait impossible une distance telle que les photons émis de
l’identification de sa source. Cet épisode montre bien le mérite de Penzias cet endroit nous parviennent maintenant.
et Wilson : par leur compréhension de l’instrument et la précision de leurs Le même genre de phénomène serait
mesures, ils ont préparé le terrain pour leur découverte... fortuite ! observé par une personne placée au
milieu d’une foule immense dont tous
Des recherches dans des publications plus anciennes montrent alors les membres hurleraient le même mot au
que la première indication, non pas du CMB mais d’un excès d’énergie même moment. Bien que le cri ne dure
qu’un instant, la personne entendrait un
à une température voisine de 3 K, est en fait cachée dans des spectres
cri continu qui proviendrait sans cesse
d’émission du milieu interstellaire ! Ces observations vieilles de près de d’un endroit plus éloigné.
trente ans montrent en effet la présence d’une raie de cyanure dans le
milieu interstellaire (une molécule formée d’un atome de carbone et d’un
atome d’azote, produite comme plus de cent autres par des réactions
chimiques dans l’Univers). Les atomes absorbent l’énergie de photons
du CMB dont l’énergie correspond précisément à la différence entre le
fondamental et le premier niveau excité du cyanure. Puis ils reviennent au
repos en ré-émettant un photon de même énergie. Les photons forment la
raie du spectre d’émission détectée sur Terre, lequel porte donc la marque
du CMB.

Les fondements théoriques du CMB sont également assez anciens. Les


pionniers dans ce domaine sont Gamov, Alpher et Herman qui « inventent »
le CMB entre 1948 et 1950 et estiment sa température : 50, ensuite 5 puis
28K. Par contre, il n’est pas encore clair pour eux que ce rayonnement
page 55

ÉLÉMENTAÍRE
Le rayonnement fossile
doit être isotrope et présent partout dans l’Univers. Leurs travaux sont
Corps noir redécouverts indépendamment par Zel’dovich et Dicke au début des
C’est un objet physique idéal qui absorbe la totalité
années 1960. En 1964, Dorochkevitch et Novikov déterminent les
du rayonnement qu’il reçoit sans rien réfléchir ni
transmettre – d’où son qualificatif : « noir ». Un principales propriétés du CMB et soulignent le potentiel de ... l’antenne
corps noir émet un rayonnement caractéristique, Bell de Crawford Hill pour sa recherche ! L’observation de Penzias et
entièrement déterminé par un paramètre unique, Wilson l’année suivante retient donc immédiatement l’attention de la
appelé température. Le CMB est, à l’heure actuelle, le communauté des chercheurs et leurs mesures sont immédiatement
phénomène qui se rapproche le plus d’un corps noir interprétées et comparées aux prédictions alors disponibles.
parfait car l’Univers était à l’équilibre thermique
au moment où ce rayonnement a été émis. Plus
prosaïquement, un four maintenu à température
constante est un bon exemple de « quasi-corps noir ».
Les brillants résultats de COBE
Les étoiles peuvent également être décrites comme des L’une des prédictions fondamentales de la théorie du CMB est que son
corps noirs, ce qui permet de déterminer avec une assez
spectre, c’est-à-dire son intensité en fonction de la longueur d’onde
bonne précision leur température de surface. Pour la
petite histoire, les nombreux travaux théoriques menés (ou de la fréquence), est celle d’un corps noir, caractérisé uniquement
dans le dernier quart du XIXe siècle pour expliquer la par sa température TCMB. La grande majorité des mesures effectuées
forme du spectre du corps noir ont ouvert la voie vers durant les vingt années qui suivent la découverte du CMB confortent
« l’invention » du photon et la mécanique quantique. cette hypothèse et donnent TCMB ≈ 2,7K. La confirmation vient en 1990
lorsque les mesures de l’instrument FIRAS embarqué sur le satellite
COBE sont publiées : TCMB = 2,725 ± 0,002K et le spectre est en parfait
accord avec celui d’un corps noir. Si elles existent, les déviations relatives
par rapport à cette courbe sont inférieures à 50 millionièmes, ce qui fait
du CMB le meilleur corps noir connu aujourd’hui.
Deux ans plus tard, les scientifiques en charge de l’analyse des données de
DMR, un autre détecteur emporté par COBE, rendent publique la première
carte des asymétries du CMB, c’est-à-dire des différences de température
du rayonnement en fonction de la direction d’observation. Les premières
mesures de Penzias et Wilson montraient un rayonnement isotrope, aux
erreurs de mesure près. Et de fait, les anisotropies sont minuscules : au
niveau du millième de pourcent, une fois soustraites les contributions
Doppler liées au mouvement de la Terre autour du Soleil et de celui-ci
par rapport au CMB, qui
sont de l’ordre du dixième
de pourcent. Comprendre
l’origine de ces variations de
température et expliquer leur
© COBE

amplitude est une question


très importante pour la
Cosmologie. En particulier, il
Comparaison des spectres de corps noir
est intéressant de comparer
aux températures de 5777 K (Soleil),
les températures dans deux
300 K et 2,73 K (CMB) en fonction de la
longueur d’onde, exprimée en microns. directions données en fonction
Les deux échelles sont logarithmiques ce de l’angle qui les sépare et de
© COBE

qui signifie que chaque variation d’une moyenner ces informations


unité correspond à un changement d’un sur tout le ciel. On obtient
facteur dix. L’émission du CMB est donc alors le spectre angulaire des Intensité du CMB en fonction de la longueur
très faible. fluctuations de température d’onde, mesurée par le satellite COBE. C’est
du CMB qui est, lui aussi, à l’heure actuelle le spectre expérimental se
riche d’enseignements. rapprochant le plus de celui d’un corps noir
théorique.
page 56

ÉLÉMENTAÍRE
Le rayonnement fossile
Avec la mesure du spectre de corps noir du CMB et la mise en évidence
des anisotropies de température, COBE apparaît vraiment comme une
expérience fondatrice. Le jury du prix Nobel de physique 2006 a d’ailleurs
récompensé George Smoot et John Mather (responsables respectivement
des instruments DMR et FIRAS) en justifiant ainsi son choix : « le projet
COBE a marqué l’entrée de la cosmologie parmi les sciences de précision ».
Par contre, ce sont ses successeurs qui ont mené à bien la détermination
précise du spectre angulaire du CMB et son interprétation cosmologique :
tout d’abord des expériences au sol ou en ballon (comme BOOMERANG

© COBE
ou ARCHEOPS), puis le satellite WMAP, dont la précision et la variété des

© COBE
mesures ont surpassé tous les résultats obtenus jusqu’alors.

Les mesures de précision de WMAP COBE


Le satellite COBE (« Cosmic Background
Explorer ») est lancé par la NASA en
La NASA lance en 2001 le satellite WMAP. L’expérience a publié en novembre 1989, près de quinze ans après
février 2003 ses premiers résultats basés sur les données accumulées la les premières études de prospective d’un
première année. En 2006 et 2008, ils ont été mis à jour en utilisant trois, tel engin. Il emporte deux instruments
puis cinq années d’observation. Toujours en fonctionnement, WMAP consacrés à l’étude du CMB.
devrait continuer à cartographier le CMB jusqu’à l’automne 2009. ■ FIRAS (« Far-InfraRed Absolute Spec-
tro-photometer ») ; il a mesuré le spectre
Contrairement à COBE, WMAP n’est pas en orbite autour de la Terre : il d’émission du CMB et vérifié qu’il
s’agissait bien de celui d’un corps noir.
est positionné au second point de Lagrange (L2) du système Terre-Soleil
■ DMR (« Differential Microwave Radio-
(voir « Expérience ») qu’il a rejoint après un voyage de trois mois. Cet
meter ») ; il a cartographié les anisotropies
emplacement a été choisi pour minimiser les émissions parasites du du CMB dans le ciel en fonction de la
système solaire et pour lui assurer une excellente stabilité thermique. direction de visée.
Afin d’avoir accès à l’ensemble du ciel sans jamais regarder en direction
du Soleil, WMAP décrit une orbite complexe dans la zone de ce point
de Lagrange. De plus, il fait un tour sur lui-même toutes les deux
minutes et neuf secondes tandis que son axe de rotation précesse à
une vitesse d’un tour par heure ! Toutes ces caractéristiques permettent
au satellite de couvrir l’ensemble du ciel en six mois. Sa calibration
repose d’une part sur la mesure de l’anisotropie de température due
au mouvement propre du Soleil et d’autre part sur les signaux produits
par les passages de Jupiter dans la visée des détecteurs.
Dix paires de télescopes observent en permanence le ciel dans
vingt directions, deux à deux opposées ; ce sont les différences de
température qui sont mesurées. Cinq bandes de fréquence allant
© COBE

Anisotropies du CMB (écart par rapport


de 23 à 94 GHz servent aux observations, ce qui permet de quantifier
à la température moyenne) mesurées par
et de soustraire les bruits de fond de notre galaxie et des sources l’instrument DMR du satellite COBE (les
extragalactiques qui contaminent le CMB. En effet, le signal et les bruits zones en rouge sont plus chaudes que les
de fond ont des caractéristiques différentes selon la fréquence et ces zones en bleu, la différence étant de quelques
variations sont utilisées pour séparer le bon grain de l’ivraie. Plusieurs dizaines de millionièmes de degrés). Cette
méthodes permettent d’optimiser cette phase de soustraction de bruit, carte est une sorte de « photo » de l’Univers
cruciale pour obtenir la carte des anisotropies ainsi que leur spectre prise alors qu’il n’avait que 380 000 ans
angulaire. L’instrument est maintenu à une température constante tandis environ.
que la puissance nécessaire aux instruments (419 Watts) est fournie par
des panneaux situés sur le « bouclier solaire » de cinq mètres de diamètre
qui isole également les télescopes du Soleil.
page 57

ÉLÉMENTAÍRE
Le rayonnement fossile
Les paramètres mesurés par WMAP sont présentés dans l’article
« Théorie ». Ici, on peut simplement dire qu’ils concernent son âge, son
évolution (de la phase d’inflation initiale à l’expansion actuelle) ou encore
sa composition. À mesure que la quantité de données analysée augmente
et que son traitement s’améliore, les mesures se font plus précises et plus
complètes : la moisson de WMAP n’est pas encore terminée !

Le futur : Planck et la mesure de la


© WMAP

polarisation du CMB
Le satellite WMAP, « Wilkinson Micro-
Après le succès des expériences COBE et WMAP, que nous reste-t-il
wave Anisotropy Probe », en français
« observatoire Wilkinson de l’anisotropie à apprendre du CMB ? Beaucoup de choses en fait : des scientifiques
du rayonnement micro-ondes », baptisé américains et européens ont mis la dernière main à l’expérience de la
en l’honneur de David Wilkinson, un prochaine génération : Planck, du nom du physicien allemand Max Planck
membre de la collaboration MAP décédé en dont les travaux sur la compréhension du spectre du corps noir ouvrirent,
septembre 2002 et qui travaillait déjà sur le à la toute fin du XIXe siècle, la voie vers la mécanique quantique.
CMB dans le groupe de Dicke à Princeton
près de quarante ans auparavant. Vous en saurez plus en lisant l’article de ce numéro
consacré à ce satellite, qui a été lancé le 14 mai 2009.
Le satellite Planck améliorera les résultats de WMAP à
toutes les échelles angulaires. Il réalisera également les
premières mesures détaillées de la polarisation du CMB
(fluctuations au niveau du microkelvin), fondamentales
pour comprendre encore mieux les premiers instants de
l’Univers : c’est la nouvelle frontière du rayonnement
fossile !

Comparaison des mesures de Penzias et


Wilson (en haut), COBE (au milieu) et
© WMAP

WMAP (en bas) respectivement. WMAP


est quarante-cinq fois plus sensible que
COBE et a une résolution angulaire
trente-trois fois meilleure. Ses cartes
du ciel comptent un peu plus de trois
millions de pixels. Cette définition, qui
pourrait faire sourire étant données les
performances actuelles des appareils photo
numériques, est en fait remarquable vue Carte des anisotropies du CMB obtenue par WMAP après
la complexité des processus mis en œuvre analyse de cinq ans de données. Tous les bruits de fond
(voir « Expérience »). La bande horizontale sont ici soustraits pour ne conserver que les anisotropies du
« rouge » correspond au rayonnement de la CMB.
page 58

galaxie et a été soustraite dans l’image ci-


contre.
ÉLÉMENTAÍRE
Théorie
Le modèle cosmologique standard
Principe d’équivalence
Une galaxie qui s’enfuit dans la nuit Le principe d’équivalence, postulé par
Einstein, stipule que tout champ de
gravité est localement indiscernable d’une
En 1916, Albert Einstein élabore sa théorie de la relativité générale, accélération. Ainsi, quand vous prenez un
proposant une nouvelle vision de la gravité, basée sur le principe ascenseur pour monter quelques étages,
d’équivalence. Un objet déforme l’espace-temps à sa proximité, et ce vous ressentez au départ une accélération
d’autant plus qu’il est massif. Un corps qui passe à sa proximité ressent qui vous donne l’impression de peser
cette déformation et voit sa trajectoire modifiée, exactement comme s’il plus lourd. Imaginons maintenant une
était attiré par sa gravité... Si la théorie d’Einstein permet de retrouver la tour très haute où circule un ascenseur
en accélération constante. D’après le
formulation de Newton dans la plupart des cas (en particulier la mécanique
principe d’équivalence, il est impossible
céleste, qui décrit le mouvement des planètes autour du Soleil), elle prédit à un physicien réalisant des expériences
certains écarts notables, en particulier pour des objets très massifs, ou se dans cet ascenseur de déterminer s’il est
déplaçant à des vitesses proches de celle de la lumière. en accélération constante ou bien s’il est
au repos dans un champ de pesanteur :
Tandis que les astronomes cherchent à vérifier ou infirmer sa théorie, en dans les deux cas, la pomme qu’il jette
particulier en étudiant des clichés d’éclipses du Soleil, Einstein met déjà en en l’air lui retombe sur la tête suivant
pratique ses toutes nouvelles équations en les appliquant à l’Univers dans la même trajectoire ! À l’inverse, le
son ensemble, ce qui requiert une description relativiste de la gravitation. principe d’équivalence implique qu’on
peut annuler un champ de pesanteur en
Il ouvre ainsi un nouveau domaine, la cosmologie relativiste, qui est le
appliquant au système qui le subit une
cadre de toutes les théories cosmologiques actuelles. accélération égale et opposée. Ainsi,
Mais si Einstein a bel et bien montré ce que la théorie de la relativité quand l’ascenseur décélère à la fin de son
générale pouvait apporter à la cosmologie, son modèle d’un univers ascension pour s’arrêter à l’étage de votre
statique, où rien ne bouge, va s’avérer complètement erroné. Il faudra choix, vous avez l’impression de moins
attendre les années 20 pour que deux physiciens, le soviétique Alexander peser.
Friedmann et le belge Georges Lemaître, proposent indépendamment une Pour un champ de gravité non uniforme,
solution alternative, le premier en 1922, le second en 1927. Comment s’y qui dépend de l’endroit où l’on se trouve,
prennent-ils ? Ils ajoutent à l’idée d’un Univers homogène et isotrope comme le champ de gravité terrestre,
les choses sont plus complexes, mais
sur les grandes échelles (voir « Apéritif ») un ingrédient supplémentaire :
aussi plus intéressantes quant à leurs
il peut se contracter ou s’étendre au fil du temps. Prenez un ballon sur conséquences : le champ de pesanteur
lequel vous avez dessiné des points, puis gonflez-le : les points s’écartent est alors équivalent à une accélération
progressivement les uns des autres, non pas du fait de leur mouvement différente en chaque point de l’espace. Or
propre, mais simplement parce que la surface du ballon – l’espace – s’étire. toute accélération est mathématiquement
Friedmann et Lemaître imaginent équivalente à un changement de
que l’Univers s’étire d’une manière coordonnées d’espace et de temps de sorte
similaire, et écrivent des équations qu’un champ gravitationnel est équivalent
dérivées de la relativité générale à une déformation de l’espace-temps : on
retrouve ainsi les idées de la relativité
pour montrer comment le contenu en
générale.
matière de cet univers « simplifié »
affecte son expansion ou sa Photographie en négatif d’une éclipse de Soleil
contraction. prise par l’astronome anglais Arthur Eddington
en 1919 sur l’île de Principe, dans le golfe de
Einstein n’apprécie guère les idées de Guinée. La position des étoiles apparaissant
Friedmann et de Lemaître – il affirme à proximité du Soleil est indiquée par une
même à ce dernier : « Vos calculs paire de fins traits horizontaux (combien en
sont corrects, mais votre physique voyez-vous sur cette photo ?). Cette position est
est abominable ». En effet, le modèle légèrement décalée par rapport à la position
réelle des étoiles : la présence (massive !) du
de Lemaître est celui d’un univers
Soleil courbe la trajectoire des rayons issus des
en expansion, né d’une « graine » étoiles, en accord qualitatif et quantitatif avec
initiale (que Lemaître appelle « atome
DR

la théorie de la relativité générale.


primitif ») – une vision en opposition
page 59

ÉLÉMENTAÍRE
Le modèle
Georges Lemaître
avec le modèle statique préféré alors par Einstein. Lemaître tire de son
Georges Lemaître est
né à Charleroi le 17 modèle une conséquence simple et pourtant remarquable. Remplacez les
juillet 1894. Après avoir points de notre ballon par des galaxies. Lorsqu’on gonfle le ballon, ces
étudié les humanités galaxies s’éloignent les unes des autres, et ce d’autant plus vite qu’elles
chez les Jésuites, il sont éloignées.
entre à dix-sept ans à
l’école d’ingénieurs de Depuis les années 1917-18, on soupçonne une telle fuite des galaxies.
l’Université catholique En effet, plusieurs astronomes analysent la lumière provenant de galaxies
de Louvain. En 1914, il lointaines. Sur son parcours, celle-ci traverse des nuages de gaz qui
interrompt ses études
DR

absorbent certaines fréquences bien précises (lesquelles dépendent de


et s’engage comme
volontaire dans l’armée la composition du gaz). En décomposant le spectre de la lumière reçue,
belge (ce qui lui vaudra la Croix de guerre). on observe donc des raies noires dites raies d’absorption. Mais les raies
Après la guerre, il étudie la physique et les observées par nos astronomes ne se trouvent pas là où elles devraient être,
mathématiques, tout en se dirigeant vers une elles sont systématiquement à des fréquences plus basses que prévues,
carrière sacerdotale. En 1920, il passe un doctorat on dit qu’elles sont « décalées vers le rouge ». Parmi les nombreuses
sur « L’approximation des fonctions de plusieurs explications proposées, l’une des plus naturelles consiste à penser que
variables réelles », et s’intéresse à la théorie de la ces galaxies s’éloignent de nous, ce qui engendre le décalage observé
relativité. En 1923, Lemaître est ordonné prêtre, – aussi appelé « redshift » – par effet Doppler. En 1929, l’astronome
et il obtient plusieurs bourses pour se rendre à
américain Edwin Hubble va plus loin. En observant certaines étoiles, les
Cambridge (Royaume-Uni) et... à Cambridge
(USA) pour étudier l’astronomie. De retour en Céphéides, il détermine la distance de 46 galaxies
Belgique, il devient chargé de cours à l’Université dont le décalage vers le rouge est connu. Avec Milton
catholique de Louvain en 1925. Deux ans plus Humason, il conclut alors à une proportionnalité
tard, il présente un mémoire intitulé « Un entre la distance des galaxies et leur vitesse – une
Univers homogène de masse constante et de rayon relation appelée loi de Hubble, en accord avec la
croissant rendant compte de la vitesse radiale des solution de Friedmann-Lemaître.
nébuleuses extragalactiques », où il expose sa
théorie sur l’expansion de l’Univers. En 1931, il
présente son idée d’un « Atome primitif », peu
appréciée par la communauté scientifique de
l’époque, qui la juge trop proche de certains
concepts religieux – la vocation de son instigateur DR
Alexander
n’est certainement pas étrangère à ce rejet. En
Alexandrovich
1936, il est élu membre de l’Académie Pontificale
Friedman (1888-1925)
des Sciences, et en 1960 il est nommé prélat. À
© NASA/ESA

la fin de sa vie, Lemaître se consacre de plus en


plus au calcul numérique, en s’intéressant aux
calculateurs les plus avancés de l’époque. Il
meurt à Louvain le 20 juin 1966.
Céphéides
Les Céphéides sont des étoiles de luminosité
Effet Doppler variable, dont le nom vient de l’une de leur
La sirène d’une ambulance semble représentantes, Delta de la constellation de
plus aiguë lorsqu’elle roule dans votre Une Céphéide dans la galaxie M100, Céphée. Ces étoiles géantes connaissent une
direction, et plus grave quand elle représentée sur la photographie alternance de contractions et d’expansions.
s’éloigne de vous. Ce phénomène se du bas. Les trois clichés en haut de La période de ce cycle est reliée de façon
rencontre plus généralement quand l’image correspondent à la même étroite à la luminosité de l’étoile, ce qui fait
une source émet des ondes tout en se région de M100 à trois moments des Céphéides des étalons de luminosité (des
déplaçant par rapport à un observateur différents : au centre de chaque cliché « chandelles standard »). En comparant la
– y compris quand il s’agit d’ondes se trouve la même Céphéide, dont la luminosité d’une Céphéide, déterminée par
lumineuses. L’effet Doppler permet de luminosité varie au cours du temps. cette relation, avec la luminosité mesurée sur
déterminer la vitesse de déplacement de Terre, il est possible d’estimer la distance de
la source par rapport à l’observateur. l’étoile, et donc de la galaxie qui la contient.
page 60

ÉLÉMENTAÍRE
Le modèle cosmologique standard

Magnitude effective

© (c) Supernova Cosmology Project


DR

Décalage vers le rouge


La figure extraite de l’article original de Hubble (1929). Les points
Une version moderne du diagramme de Hubble, tracée
noirs et la ligne continue correspondent aux données dans le cas
à l’aide de relevés de supernovæ en 1998. Les courbes
où les différentes nébuleuses étaient considérées individuellement.
correspondent à différents modèles d’expansion de
Les cercles et la ligne discontinue correspondent à un regroupement
l’Univers.
des nébuleuses, pour limiter les effets du mouvement propre
des nébuleuses les unes par rapport aux autres. Les deux lignes
correspondent à des valeurs de H nettement plus élevées que la
valeur actuellement mesurée. Proportionnalité
La tâche que Hubble et Humason avaient
à accomplir pour énoncer leur loi n’était
pas simple. Les mesures de distances par
Boum, quand l’Univers fait boum Hubble étaient entachées d’incertitudes.
De plus l’astronome ne prenait pas en
compte le fait que certaines galaxies
L’idée de base de Friedmann et Lemaître est par la suite reprise par Howard ont un mouvement propre causé par
Robertson et Arthur Walker, puis développée et raffinée dans les années 50 l’attraction des galaxies et des amas de
par un étudiant de Friedmann, le physicien George Gamow. L’hypothèse galaxies situés à proximité. Cet effet
d’un Univers en expansion a de nombreuses conséquences qui ne tarderont modifie le décalage vers le rouge généré
pas à trouver une vérification expérimentale. par l’expansion générale de l’Univers. Il
n’est donc pas étonnant que le graphique
En effet, si l’Univers est en expansion, il a dû être plus dense dans le passé. original de Hubble, représentant le
Et si cette expansion dure depuis les premiers instants, comme suggéré par décalage vers le rouge des galaxies en
fonction de leur distance, ne montre pas
la théorie de Friedmann et Lemaître, on peut rembobiner le film en partant
une belle droite, mais plutôt un essaim
de l’Univers que nous connaissons, où la matière qui l’emplit est concentrée de points plus ou moins alignés.. ce qui
dans et autour des galaxies, séparées par d’immenses régions vides... amène néanmoins Hubble et Humason
En remontant dans le temps, les galaxies se rapprochent et se mélangent, à postuler que vitesse d’éloignement
l’Univers primordial est une « soupe » chaude et dense de matière atomique et distance sont approximativement
plus ou moins uniforme. En remontant encore plus loin dans le temps, on proportionnelles, selon un rapport H
peut même imaginer des densités et des températures telles que les atomes aujourd’hui appelé constante de Hubble.
eux-mêmes se dissocient en un plasma de particules chargées, noyaux Ils obtiennent la valeur approximative de
atomiques et électrons. Plus tôt encore, l’Univers doit être empli d’une soupe 150 km/s par million d’années-lumière.
À l’heure actuelle, on a mesuré le
de constituants encore plus fondamentaux. Nos connaissances actuelles ne
décalage vers le rouge d’un grand nombre
nous permettent pas, par principe, de remonter indéfiniment l’histoire de de galaxies et on sait corriger les effets
l’Univers, jusqu’à son éventuel commencement, nommé « Big Bang ». En des mouvements propres des galaxies
effet, on se heurte inévitablement à la« barrière de Planck », temps auquel pour obtenir une valeur plus précise de
l’Univers est si dense que les effets de gravité quantique ne peuvent plus la constante de Hubble, reliant distance
– comme c’est le cas aux échelles accessibles dans nos accélérateurs – être et vitesse des galaxies : H = 75 km/s
négligés. par million d’années-lumière, ce qui
signifie qu’une galaxie située à un million
d’années-lumière de la Terre s’en éloigne
page 61

à la vitesse de 75 km/s.
ÉLÉMENTAÍRE
Le modèle cosmologique standard
Notre histoire commence donc il y a 13,7 milliards d’années, après que
l’Univers s’est suffisamment dilué pour qu’on puisse négliger ces effets inconnus
Asymétrie particule/antiparticule et séparer la gravitation « classique » des autres interactions fondamentales, qui
Le physicien soviétique Andreï Sakharov requièrent une description quantique aux échelles d’énergie considérées. En
a formulé en 1967 les trois conditions imaginant qu’il existe un « début » de l’Univers, cela correspondrait à environ
nécessaires pour créer une asymétrie entre 10-43 seconde après cet instant initial. L’Univers est alors rempli de manière
matière et antimatière dans l’Univers, homogène d’une soupe de particules extrêmement dense et chaude : sans
alors que le Big Bang est a priori une cesse, certaines se désintègrent tandis que d’autres sont créées sous forme de
situation symétrique : paires particule-antiparticule. L’Univers est en expansion rapide, ce qui diminue
• asymétrie des interactions de la
la densité des particules, tout comme la température. Au fur et à mesure, il
matière et de l’antimatière : il faut que les
symétries C (conjugaison de charge) et CP devient donc de plus en plus difficile de créer des particules massives, qui se
(conjugaison de charge et renversement désintègrent et disparaissent au détriment de particules plus légères.
par parité) ne soient pas respectées par
certaines interactions. Tandis que l’Univers s’étend progressivement tout en se refroidissant, différents
• création de baryons (contenant trois phénomènes se produisent. Vers 10-36 seconde, la force forte et la force
quarks, comme le proton et le neutron) : électrofaible se différencient. Puis vers 10-12 seconde, la force électrofaible se
il faut qu’il existe des processus ne scinde en forces électromagnétique et faible, et toutes les particules acquièrent
conservant pas le nombre baryonique, une masse du fait de la brisure de la symétrie électrofaible, liée aux propriétés
c’est-à-dire que le nombre de baryons et
du boson de Higgs (voir Élémentaire N°6). À cette époque, les particules et les
le nombre d’antibaryons créés au cours de
certains processus soient différents. forces en présence sont tout à fait équivalentes à celles connues actuellement et
• rupture de l’équilibre thermique : s’il étudiées dans les accélérateurs de particules, mais la température et la densité
y avait équilibre thermique, les taux des sont bien supérieures à tout ce que nous connaissons. Une légère asymétrie
réactions produisant un excès de baryons entre particules et antiparticules serait apparue de sorte qu’une petite quantité
seraient égaux à ceux des réactions de matière ait survécu, alors que (presque) toute l’antimatière a disparu.Il faut
produisant un excès d’antibaryons, attendre 10-6 seconde après le Big Bang pour que la situation soit assez calme et
de sorte qu’aucune asymétrie ne se que les quarks puissent s’associer pour former des hadrons, comme les protons
produirait. et les neutrons – auparavant, l’agitation environnante aurait rapidement éjecté
Le Modèle Standard de la physique des
un des quarks hors de notre pauvre hadron, réduit en miettes !
particules contient bien des processus
satisfaisant ces critères, mais ils sont trop
faibles pour expliquer l’asymétrie entre À partir de trois minutes, l’Univers est donc essentiellement empli de photons,
matière et antimatière dans l’Univers. d’électrons, de protons et de neutrons. Ces derniers ne vivent pas vieux quand
Parmi les pistes alternatives, on évoque, ils sont tous seuls, hors des noyaux atomiques : au bout de seulement quinze
entre autres, diverses extensions du minutes, ils se désintègrent en protons. Ne peuvent survivre que les neutrons
Modèle Standard, ou encore la création qui s’associent avec des protons pour former les premiers noyaux stables, en
d’une asymétrie initiale entre leptons particulier ceux d’hélium. Les réactions de fusion nucléaire permettant cette
et antileptons convertie par la suite en nucléosynthèse primordiale ne sont possibles que pendant une petite vingtaine
asymétrie entre baryons et antibaryons...
de minutes : l’expansion de l’Univers a ensuite trop dilué les noyaux pour
autoriser ces réactions.

L’Univers continue à se refroidir, tout comme les photons qu’il contient. Environ
Photons 380 000 ans après le Big Bang, ces derniers sont si peu énergétiques qu’ils ne
Au fur et à mesure de l’expansion
peuvent plus empêcher les électrons et les noyaux de s’associer pour former des
de l’Univers, la distance s’accroît
progressivement entre deux points qui
atomes neutres électriquement. À la fin de ce processus de « recombinaison »,
n’ont pas de mouvement relatif propre. les photons ne rencontrent plus de particules chargées, mais des atomes neutres
De la même manière, les photons voient qu’ils ne peuvent plus ioniser. Ils peuvent donc parcourir de longues distances
leur longueur d’onde augmenter, ce sans interagir avec la matière. L’Univers devient donc transparent, empli
qui correspond à une diminution de la principalement d’hydrogène, d’hélium, de lithium et de photons.
température associée. Ces nuages de gaz sont très homogènes, mais il existe quand même des zones
page 62

ÉLÉMENTAÍRE
Le modèle cosmologique standard
légèrement plus denses ou moins denses. Les zones plus
denses tendent, par gravité, à attirer encore un peu plus la
matière environnante et vident les zones moins denses. Il
faut attendre au moins 150 millions d’années après le Big
Bang pour voir apparaître les premiers objets lumineux (les
quasars) et les premières étoiles ! Leur lumière ionise les
nuages d’hydrogène interstellaire, tandis qu’en leur cœur, les
noyaux légers fusionnent pour constituer des éléments plus
lourds. Plusieurs générations d’étoiles se succèdent et, autour
de l’une d’entre elles, au bout de neuf milliards d’années, se
forme notre système solaire. Enfin, onze milliards d’années
après le Big Bang, la vie apparaît sur Terre.

Les conséquences les plus marquantes de l’expansion de


l’Univers sont l’existence d’un rayonnement fossile emplis-
sant le cosmos et les abondances relatives de certains noyaux
légers, comme le deutérium et l’hélium-4. La découverte de
ce qui est aujourd’hui appelé le rayonnement fossile (CMB,
voir « Découverte ») et la mesure des abondances relatives
des noyaux légers assoient définitivement cette théorie d’un
Univers en expansion, qui sera progressivement enrichie des
connaissances croissantes en astronomie, en astrophysique
et en physique des particules.

De façon ironique, c’est un adversaire acharné de Gamow,


l’astronome Fred Hoyle, qui baptise « Big Bang » cette Une représentation schématique de
théorie au cours d’une émission de vulgarisation de la BBC. Elle constitue l’évolution de l’Univers, depuis l’inflation
en quelque sorte le modèle standard cosmologique. Tout comme dans jusqu’à nos jours.
le cas du modèle standard de la physique des particules, les physiciens
cherchent à le mettre en défaut afin de l’améliorer. Il constitue la meilleure
description de nos connaissances sur l’évolution de l’Univers, mais cela ne Le deutérium et l’hélium-4
veut pas dire qu’il soit parfait ! Ces éléments sont de bons indicateurs
des processus liés à la nucléosynthèse
primoridale. Les étoiles produisent
Des problèmes à l’horizon l’hélium-4 lors de réactions thermo-
nucléaires, mais en quantité nettement
insuffisante pour expliquer l’abondance
Le CMB est donc constitué des photons issus de l’Univers primordial qui actuelle de cet élément (25% en masse de
portent la marque de la dernière interaction qu’ils ont connue, environ la matière ordinaire de l’Univers) – c’est
380 000 ans après le Big Bang. Les différentes observations provenant de donc à la nucléosynthèse primordiale
satellites et de ballons atmophériques (voir « Découverte »), ont fourni d’expliquer cette proportion. A
une carte précise de ce rayonnement fossile : si celui-ci est extrêmement contrario, lors de la nucléosynthèse
homogène sur tout le ciel, de température moyenne 2,7K, on a pu mettre primoridale, le deutérium fraîchement
en évidence d’infimes fluctuations de température - de l’ordre de 1 pour créé se combine très facilement pour
100 000 - d’une direction du ciel à l’autre ! De telles anisotropies reflètent donner de l’hélium- 4, mais l’expansion
de l’Univers empêche ce processus de
les légères différences de densité de la matière au moment de l’émission
faire complètement disparaître tout le
de ces photons. Ces hétérogénéités primordiales seront le germe des deutérium. Ainsi, les processus de nucléo-
nuages qui donneront naissance aux étoiles, aux galaxies, puis aux amas synthèse primordiale et l’expansion de
de galaxies etc. l’Univers sont fortement contraints par
les mesures de l’abondance de ces deux
page 63

éléments légers dans l’Univers.


ÉLÉMENTAÍRE
Mais dès les années 70, les observations des radioastronomes imposent
des contraintes très strictes sur ces hétérogénéités : le CMB semble
extrêmement homogène. Une victoire pour le modèle de Friedmann
et Lemaître, basée sur l’idée même d’isotropie et d’homogénéité ?
Plutôt un problème supplémentaire à résoudre. Pour le comprendre, il
faut passer par la notion d’horizon. Tout comme dans la vie courante,
l’horizon d’un observateur délimite la zone à l’intérieur de laquelle se
trouvent les objets dont il peut percevoir la présence. En cosmologie,
l’horizon est essentiellement défini par la question : une lumière
émise de tel point a-t-elle eu le temps de parcourir l’espace jusqu’à
moi depuis le début de l’Univers (Big Bang) ? Si c’est le cas, ce point
est à l’intérieur de mon horizon.

Au fil de l’expansion de l’Univers, l’horizon d’un observateur s’étend :


de plus en plus de points entrent dans notre champ de vision et le CMB
© S. Descotes-Genon

que nous percevons provient de régions de plus en plus éloignées de


nous. Prenons deux photons du CMB qui arrivent sur la Terre de deux
directions opposées : ils proviennent de deux régions de l’espace qui
viennent d’entrer dans notre horizon. Cependant, on peut montrer
qu’à l’époque où ces photons ont été émis, ces deux régions n’avaient
Les régions de l’espace ayant pu être en pas encore eu le temps de communiquer entre elles. Autrement dit, elles
contact causal et pouvant donc présenter ne sont pas dans l’horizon l’une de l’autre : elles n’ont donc aucune
un aspect homogène, représentées ici raison d’avoir des caractéristiques physiques similaires. Comment se
par des cercles contenant des symboles fait-il qu’elles aient un CMB avec des températures aussi proches ? On
semblables, sont de taille limitée du fait
s’attendrait à observer des fluctuations beaucoup plus importantes.
de la vitesse finie de propagation de tout
signal – ou interaction – physique. Dans
un scénario de type Big Bang sans inflation,
la taille de telles régions au moment de L’inflation cosmique : soufflez dans le
l’émission du CMB est très inférieure à
celle de l’horizon (Univers observable), ballon !
lequel devrait donc présenter un haut
degré d’inhomogénéité, en contradiction Pour résoudre ce problème, confirmé par les observations, les
flagrante avec l’observation. Au contraire, théoriciens ont proposé une solution assez originale : l’inflation. Elle n’a
dans un scénario d’inflation, la taille des (heureusement) pas grand-chose à voir avec celle des économistes, et
régions causalement connectées est dilatée part d’une idée simple : si les interactions physiques ne peuvent pas se
exponentiellement avant l’émission du propager plus vite que la lumière, rien ne contraint la vitesse d’expansion
CMB et devient nettement supérieure à de l’Univers lui-même, c’est-à-dire la rapidité avec laquelle le ballon se
celle de notre horizon.
gonfle.

Ainsi, les théoriciens ont imaginé que l’Univers ait subi une phase
d’expansion accélérée extrêmement rapide (exponentielle). On la situe
généralement entre 10-36 et 10-32 seconde après le Big Bang, alors que
les interactions fondamentales commencent à acquérir leur individualité.
Ainsi, les théoriciens pensent souvent que ce phénomène d’inflation est
lié à cette différenciation progressive des forces fondamentales. Dans la
phase d’inflation, un tout petit domaine de l’Univers enfle démesurément
pour atteindre des dimensions gigantesques, qui dépassent, à l’époque,
la taille de la région qui deviendra notre horizon actuel. Le problème
de l’horizon est résolu : toute la partie visible de l’Univers, que nous
observons à travers le CMB, provient de ce domaine initial.
page 64

ÉLÉMENTAÍRE
Le modèle cosmologique standard
Répartition des superamas de
galaxies dans un rayon de 100
millions d’années lumière autour
de la Voie Lactée. En particulier,
notre galaxie appartient au
superamas de la Vierge.
© 2dF Galaxy Redshift Survey

La répartition de la matière dans


l’Univers proche effectuée par
le 2dF Galaxy Redshift Survey.
Chaque point bleu correspond à
une galaxie. La distance au centre
du diagramme correspond à la

© Richard Powell
distance mesurée et donc à l’ancienneté de la galaxie. On voit que dans le passé (grandes
distances) l’Univers était relativement homogène Au cours du temps de nombreux
superamas et zones de vide apparaissent.

Mais ce n’est pas tout ! En prime, l’inflation résoud un autre problème de


la théorie du Big Bang. En effet, dans un univers en expansion décélérée,
tel que celui de Friedman et Lemaître, la courbure spatiale augmente avec
le temps. Il est donc difficile de comprendre le fait que notre Univers
soit spatialement plat à une très bonne approximation (voir « Apéritif »).
Au contraire, un univers en expansion accélérée devient de plus en
plus plat : l’inflation fournit une explication naturelle au problème de la
« platitude ».

Et ce n’est pas fini ! Durant l’inflation, d’éventuelles inhomogénéités


initiales sont diluées exponentiellement, donnant lieu à un univers
extrêmement homogène, reflété par le haut degré d’isotropie du CMB.
Mais alors, comment comprendre la présence de légères anisotropies
dans ce même CMB ? Si, par essence, l’inflation donne lieu à un univers
parfaitement homogène, il ne faut tout de même pas en oublier les principes
fondamentaux de la mécanique quantique. Ceux-ci nous disent, d’après
le principe d’incertitude d’Heisenberg, que l’Univers ne peut pas être
exactement homogène : il existe toujours des fluctuations - quantiques -
irréductibles aux échelles microscopiques. Celles-ci seront dilatées
exponentiellement par l’inflation pour donner lieu à des fluctuations sur des © NASA

échelles macroscopiques, lesquelles laissent leur empreinte dans le CMB.


Le contenu énergétique de l’Univers à
À ce jour, les prédictions génériques des modèles d’inflation concernant l’heure actuelle, et au moment où le CMB
les anisotropies de température du CMB sont confirmées avec succès par est apparu. La part relative des différents
les observations. Les plus grandes structures observées à l’heure actuelle constituants a varié au cours du temps,
seraient donc d’origine microscopique... quantique : l’inflation est un en particulier en ce qui concerne l’énergie
formidable pont entre l’infiniment petit et l’infiniment grand. noire, responsable de l’accélération récente
de l’expansion de l’Univers.

Le modèle cosmologique standard Organisation des structures de grande


échelle
À l’heure actuelle, nous disposons d’un modèle, nommé poétiquement Les galaxies, amas et superamas de
ΛCDM (pour Lambda Cold Dark Matter), qui vise à expliquer simultanément galaxies ne s’organisent pas au hasard
des observations très différentes - les propriétés du CMB, l’organisation dans l’espace. En fait, ils adoptent souvent
des structures à grande échelle (amas et superamas de galaxies), les des structures de filaments et de plans,
observations des supernovæ suggérant une accélération de plus en comme s’ils étaient à l’interface de grandes
plus rapide de l’Univers. Ces différents phénomènes sont liés à divers bulles de vide. En relevant les positions
constituants du modèle standard de la cosmologie, qui contribuent au bilan relatives des galaxies, on peut caractériser
page 65

ces surfaces et ainsi proposer des modèles


ÉLÉMENTAÍRE décrivant la formation de ces structures.
Le modèle cosmologique standard
Observation de supernovæ énergétique de l’Univers. Ce modèle repose sur les équations de la relativité
Certaines étoiles en fin de vie, les
générale, les hypothèses de Friedmann et Lemaître (isotropie et homogénéité)
supernovæ de type IA, explosent en
produisant une grande quantité de lumière
et sur l’hypothèse d’une période d’inflation.
pendant une durée limitée, avant de perdre Il suppose que les différents constituants de l’Univers se comportent comme
progressivement en luminosité. L’étude divers fluides. Le contenu du modèle est le suivant :
de cette évolution permet de déterminer • le rayonnement, c’est-à-dire les photons, ayant une contribution
leur éclat initial, et donc leur distance. En négligeable,
1998, le Supernova Cosmology Project a • la matière effectivement observée par les télescopes (galaxies, étoiles,
mesuré des supernovæ à de très grandes planètes, gaz interstellaires), qui constitue 4% de l’énergie de l’Univers,
distances de la Terre – en étudiant leur • une matière massive, non-relativiste, invisible aux télescopes et uniquement
décalage vers le rouge, il est apparu
détectée par ses effets gravitationnels (la « matière noire froide »), qui constitue
que l’expansion de l’Univers s’accélère
progressivement, en contradiction avec
environ 23% de l’énergie de l’Univers,
les modèles de l’époque. En effet, dans un • une composante au comportement mal compris, appelée faute de mieux
Univers ne contenant que de la matière et « énergie noire », et qui constitue... 72% de l’énergie de l’Univers !
du rayonnement, l’expansion de l’Univers
devrait être progressivement ralentie. Le De façon tout à fait remarquable, notre ignorance sur la nature exacte de l’énergie
concept d’énergie noire a été proposé pour noire n’empêche pas d’obtenir des contraintes intéressantes sur les différents
expliquer cette accélération de l’expansion paramètres du modèle. En particulier, la structure détaillée des anisotropies
de l’Univers. du CMB est assez sensible à de nombreux paramètres de ce modèle... Mais ce
n’est évidemment pas la fin de l’histoire : de nombreuses questions restent sans
réponse, en particulier sur les premiers instants du Big Bang
et la nature précise des différents constituants du ΛCDM. De
quoi alimenter notre rubrique « La question qui tue » !

Structure détaillée des anisotropies du CMB


L’analyse des
anisotropies du
CMB peut être
faite par le biais
d’harmoniques
sphériques (voir
« Analyse ») –
un peu comme
l’extraction des
© NASA

fréquences qui
composent un
signal sonore.
La figure résul-
tante peut être interprétée comme la mesure des corrélations existant
entre les températures de deux régions de l’espace éloignées d’une
certain angle : plus le « moment du multipôle » ℓ est grand, plus l’angle
est petit. On voit apparaître des oscillations, qu’on peut expliquer par la
compétition entre deux processus antagonistes : la gravitation, qui tend
à accroître les hétérogénéités de matière, et la pression de radiation, qui
cherche au contraire à diluer ces hétérogénéités. À grand ℓ, on s’attend
Comment le spectre du CMB varie quand à une décroissance des hétérogénéités, du fait d’interactions physiques
on modifie certains paramètres du modèle entre des zones séparées par de faibles distances.
standard cosmologique, à savoir la courbure Le caractère oscillatoire de ce spectre est un reflet de la phase d’inflation
de l’Univers, la densité d’énergie noire, celle de l’Univers primordial. La hauteur et la position des pics dépendent
de matière baryonique (« ordinaire ») et de façon importante des valeurs de certains paramètres du modèle
celle de matière (y compris la matière noire). ΛCDM, par exemple la densité de matière, mais pas de tous (elle n’est
On voit que la hauteur et la position des pics par exemple guère affectée par la densité d’énergie noire).
sont sensibles à certains de ces paramètres.
page 66

ÉLÉMENTAÍRE
Le LHC
Démarrage du LHC le 10 septembre 2008
Ce jour était impatiemment attendu par la communauté mondiale des phy-
siciens des hautes énergies. La première injection d’un faisceau de protons
dans le LHC allait être tentée. Tous ceux qui depuis des années – souvent
depuis plus de 20 ans - ont travaillé à la construction de l’accélérateur, la
réalisation des détecteurs, la préparation des infrastructures et des analy-
ses, sentaient enfin approcher la période excitante de la prise de données
et la fièvre des premiers résultats.
Les experts de l’accélérateur avaient préparé soigneusement cet événe-
ment depuis des semaines : des essais de transfert de protons entre le SPS
et l’anneau du LHC avaient déjà été réalisés avec succès quelques semai-
nes auparavant.
Par ailleurs, le CERN et ses pays membres avaient lancé une couverture
médiatique sans précédent pour informer les citoyens des tenants et des

© CERN
aboutissants de ce démarrage. Les articles dans les journaux et les repor-
tages à la télévision se succédaient, présentant les enjeux de la mise en
fonctionnement du plus grand accélérateur au monde. La procédure d’in- Le complexe accélérateur du CERN.
jection allait être suivie en particulier par des équipes de la BBC et retrans- Avant d’arriver dans le LHC, les protons
mise en direct dans le monde entier. sont progressivement accélérés par un
accélérateur linéaire et plusieurs anneaux
Le 10 septembre 2008, c’était donc la foule des grands jours dans le centre (en particulier le PS et le SPS). Dans le SPS,
ils atteignent 450 GeV et sont par la suite
de contrôle du LHC. Ingénieurs, journalistes et physiciens allaient et ve-
injectés dans le LHC.
naient dans cette salle comble, tandis que le personnel du CERN suivait la
retransmission sur des écrans placés dans plusieurs bâtiments du site. Tous
les anciens directeurs du CERN étaient présents pour assister à ce grand
moment auquel ils avaient contribué, chacun à sa façon, au cours de leurs
mandats respectifs.
La procédure de démarrage du LHC était établie depuis longtemps :
d’abord, un seul paquet de protons injecté depuis le SPS devait parcourir
les 27 kilomètres de l’anneau à son énergie initiale de 450 GeV. Une fois
ce parcours réalisé, on allait tenter d’augmenter l’énergie en mettant en
marche les cavités accélératrices et en réglant les aimants supraconduc-
teurs. Puis, deux faisceaux sont injectés dans des sens opposés dans le
LHC. Enfin, le nombre de paquets circulant est augmenté de façon à obte-
© CERN

nir plus de collisions. Ce calendrier prévoyait un à deux mois de réglages


avant d’obtenir des collisions à l’énergie nominale de 14 TeV.
Centre de contrôle du LHC le 10
La réalisation du premier tour de protons dans le LHC s’est faite par étapes. septembre 2008 : quelques secondes avant
Les paramètres de l’accélérateur n’étant pas, a priori, parfaitement ajus- le premier tour de protons, les yeux rivés
sur les écrans .
tés, l’unique paquet de protons ne peut parcourir que quelques kilomètres
avant de s’écraser sur l’un des collimateurs (des blocs de matériau dense
permettant d’arrêter les faisceaux quand cela est nécessaire). Les capteurs
disposés tout au long de la chambre à vide dans laquelle circule le faisceau
suivent en détail ce trajet et leurs informations permettent aux ingénieurs
de modifier les champs magnétiques pour que l’orbite des protons puisse Par injection on désigne le transfert des
rester circulaire plus longtemps à l’avenir. Après chaque perte du paquet particules d’un accélérateur à un autre,
de protons, un nouveau paquet est injecté et réussit à aller plus loin que par exemple du SPS au LHC. À l’aide
le précédent. Quatre essais ont été ainsi nécessaires pour accomplir un d’aimants puissants, les particules sont
tour complet du LHC (soit 27 km). À ce moment, le responsable en chef déviées de leur trajectoire, extraites de
du projet LHC, Lyn Evans, a expliqué devant les micros que la réussite du la première machine et dirigées vers la
prochain essai allait se traduire sur les écrans de contrôle par l’apparition seconde.
page 67

ÉLÉMENTAÍRE
Démarrage du LHC le 10 septembre 2008
Les directeurs du CERN du plus récent
(en exercice jusqu’au mois de janvier
2009) au plus ancien, réunis dans la salle
de contrôle du LHC pour assister à son
démarrage (de gauche à droite) : Robert
Aymar, Luciano Maiani, Chris Llewellyn-
© R.Bailey CERN

Smith, Carlo Rubbia et Erwin Schopper.

© CERN
Tous ont contribué durant leurs mandats
respectifs à la réalisation de ce projet de
longue haleine.
Instantané des paquets de protons
de deux taches lumineuses décalées : la première correspondra au pa-
dans le plan perpendiculaire à l’axe
des faisceaux. Les deux taches du
quet entrant dans le LHC et la seconde, au même paquet ayant accompli
paquet de protons correspondent à un tour complet. Tous les yeux se tournèrent vers les écrans alors que Lyn
des mesures de courant effectuées Evans égrenait « 5,4,3,2,1,0 ».. et les applaudissements fusèrent de par-
localement à un des multiples tout au moment de l’apparition simultanée des deux fameuses taches.
points de contrôle installés le long
du LHC. Si elles ont déclenché des Par la suite, les spécialistes de la machine ont réussi avec la même facilité
applaudissements enthousiastes, elles apparente l’injection du faisceau dans le sens opposé. Puis, les efforts se
signifient aussi que la trajectoire suivie sont concentrés sur l’augmentation du temps de vie du paquet.
par ce paquet n’est pas parfaitement
Les protons perdent de l’énergie par rayonnement en tournant dans l’an-
fermée puisqu’au bout d’un tour,
celui-ci ne revient pas exactement
neau avec des conséquences qui s’enchaînent: la dispersion en énergie
sur sa position initiale. En effet, en du paquet augmente, ses dimensions aussi. En effet, le champ magnéti-
absence de réglages supplémentaires, que dipolaire courbe différemment les protons suivant leur énergie et au
ce paquet continuera de dévier et fil des passages, la taille des paquets augmente et les protons sont perdus
sera perdu lors des tours suivants. par collision avec des obstacles. Pour palier ces pertes, on surveille les
On peut lire sur les axes de ce paramètres du paquet de protons (étendue latérale, dispersion en éner-
cliché les dimensions du paquet de gie des protons) en plusieurs points de sa trajectoire et on corrige des
protons : environ 10 mm (et 5 mm) déviations éventuelles en agissant d’une part sur les aimants de façon à
de diamètre horizontal (vertical).
ce que les particules passent exactement par le même point tour après
L’apparition des deux taches est
quasi simultanée puisque les protons
tour et d’autre part sur la radiofréquence pour les accélérer à leur énergie
mettent un dixième de milliseconde nominale.
pour effectuer un tour dans le LHC.

Temps de vie du paquet


On mesure le signal du faisceau tous les
10 tours du LHC (le temps s’écoule de bas
en haut). Chaque ligne représente le signal
électrique mesuré par un compteur placé
sur la circonférence du LHC. La petite bos-
se correspond au courant électrique vu par
le compteur lorsque le paquet des protons
après 250 tours
passe devant. À gauche, aucune correction
© R.Ciapala CERN

de radiofréquence (RF) n’est appliquée pour


préserver l’énergie de tous les protons et la après 10 tours
cohésion du paquet. La forme du faisceau
s’élargit et le paquet est perdu après envi-
ron 250 tours. Au milieu, une correction
RF est appliquée, la forme du paquet reste Dans les salles de contrôle des expériences Alice, Atlas, CMS et LHCb
bonne mais sa position oscille. La figure de la fièvre montait. On a vite enregistré les premières traces créées par le
droite montre la stabilité de la forme du passage du paquet, en particulier certains muons qui accompagnaient
paquet avec des corrections adéquates. Elle le faisceau. Les événements les plus spectaculaires étaient les splashs,
a été obtenue quelques heures après la pre- observés lorsque le faisceau heurtait les collimateurs placés à 150m en
mière injection. amont des expériences. Dans ce cas, les protons sont rapidement stop-
page 68

ÉLÉMENTAÍRE
Démarrage du LHC le 10 septembre 2008
pés, absorbés par la matière, et créent des gerbes de particules.
Parmi celles-ci seules parviennent à émerger hors des collimateurs
celles qui interagissent le plus faiblement, en particulier les nom-
breux muons apparus lors du choc des protons. Compte tenu du
grand nombre de protons ayant heurté les collimateurs et de muons
créés par chacune des collisions, une pluie de particules a inondé
l’ensemble des détecteurs. En ajoutant les énergies de tous les dé-
pôts dans les calorimètres, on a mesuré des centaines de TeV pour
de tels événements !
Ce grand nombre de particules est très utile pour certains types
d’études, en particulier pour la synchronisation de tous les canaux

© CERN
d’électronique. Sachant que toutes les particules contenues dans un
événement sont produites au même instant, elles doivent aussi être
mesurées simultanément. Si tous les canaux des détecteurs ne don-
nent pas une réponse simultanée, c’est alors que certains retards
internes (câbles de longueur différentes, temps de traitement, etc),
spécifiques à chaque canal, n’ont pas été compensés.
Visualisation d’un événement « splash » dans ATLAS.
L’image comprend une coupe du détecteur suivant l’axe du
Le 19 septembre : un croche-pied faisceau (en bas) et une coupe perpendiculaire (en haut).
Depuis le point d’interaction (au centre des deux coupes)
en plein élan on rencontre les différentes parties de sous-détecteurs, de
reconstruction des traces chargées, suivis des calorimètres
électromagnétique et hadronique et finalement du
Après la première injection, le rodage de la machine a continué spectromètre pour les muons (voir la description d’ATLAS
en mode simple, c’est-à-dire en faisant circuler un seul paquet de dans Élémentaire N°2). Sur les deux coupes on voit un
protons en provenance du SPS sans accélération supplémentaire grand nombre de signaux enregistrés dans le détecteur,
dans le LHC. Les experts de l’accélérateur profitent des moments représentés en vert et rouge.
sans faisceau pour préparer les dipôles en y injectant le courant
nécessaire à la prochaine montée en énergie de 450 GeV à 5 TeV.
Le 19 septembre, lors d’essais d’alimentation des dipôles du secteur 3- 4,
une défaillance dans une connexion électrique s’est produite en une ré-
gion située entre un dipôle et un quadripôle. Les analyses effectuées ul-
térieurement ont montré que lorsqu’on a augmenté le courant pour un
fonctionnement à une énergie de 5.5 TeV, une résistance électrique est
apparue, ce qui a fait disjoncter le système d’alimentation. Ceci a déclen-
ché la procédure de sécurité prévue dans ce cas, à savoir la vidange du
courant déjà stocké dans les aimants. Une série de transitions résistives
(appelées aussi quench, présentées dans la rubrique LHC, N°6) a eu lieu
© CERN

dans une multitude d’éléments supraconducteurs. Un arc électrique s’est


développé au niveau de la connexion défectueuse et a perforé l’enceinte
contenant l’hélium. Celui-ci s’est alors déversé dans l’enceinte d’isolation Ci-dessus, on montre l’endroit où l’incident
du cryostat et s’est brutalement réchauffé. La pression est montée à cet initial a eu lieu sur la connexion électrique
endroit, exerçant des forces importantes sur les barrières entre les sous- entre un dipôle et un quadripôle.
secteurs. Les soupapes de sécurité ont fonctionné en relâchant l’hélium Cette connexion est en fait conçue comme
dans le tunnel. Mais leur réaction un sandwich contenant les deux câbles
n’a été pas suffisamment rapide supraconducteurs (en photo à gauche)
pour évacuer à temps toute la soudés par un alliage d’argent et de cuivre.
L’incident du secteur 3-4 a provoqué la
pression due à la détente de l’hé-
rupture de cette connexion et l’apparition
lium sans provoquer de dégâts d’un arc électrique qui a déclenché le
mécaniques. réchauffement.
page 69

ÉLÉMENTAÍRE
Démarrage du LHC le 10 septembre 2008

Ainsi, les équipes envoyées sur place pour l’inspec-


tion de la situation ont trouvé une cinquantaine d’élé-
ments (dipôles et quadripôles) endommagés à diffé-
rents degrés, sur une longueur de 300 m. Au point le
plus « chaud », les contraintes mécaniques ont provo-
qué le déplacement d’un aimant de 40 centimètres !
Lors des examens qui ont suivi on a contrôlé tous les
points d’interconnexion le long de l’accélérateur, ce
qui a mis en évidence des faiblesses similaires sur
d’autres aimants.
Suite à cet incident malheureux, on a évidemment in-
terrompu le rodage du LHC. Une cinquantaine d’élé-
© CERN

ments ont été réchauffés, démontés et remontés en


surface avant Noël. Depuis avril 2009 les éléments
réparés ou ceux de remplacement sont de nouveau en place. Par ailleurs,
des systèmes de détection plus sensibles ont été ajoutés aux fameux
points d’interconnexion et des soupapes additionnelles ont été percées
sur les aimants pour éviter que cet incident ne se reproduise.

Et maintenant ?
© CERN

Les physiciens des quatre expériences sont évidemment affectés par ce


retard tout autant que les personnels travaillant sur l’accélérateur. Toute-
fois, les chercheurs « profitent » de ce temps supplémentaire sans faisceau
Sur cette photo, la région d’interconnexion
pour parfaire leurs détecteurs et affiner la préparation de différentes analy-
entre deux aimants endommagés est
montrée avant (en haut, à droite) et après ses. L’incident a obligé la communauté à revoir certains de ses plans. Lors
(en haut à gauche) avoir retiré le soufflet d’une réunion qui a eu lieu à Chamonix en février 2009, les ingénieurs du
de protection. La différence de niveau LHC et des physiciens représentant les quatre expériences ont défini une
entre les deux parties provient du fort nouvelle feuille de route, combinant au mieux une reprise progressive et
déplacement de l’aimant qui s’est décroché sans risque de l’accélérateur, avec l’accumulation suffisante de données
de son support (en bas) sous la force de la intéressantes. Ainsi, l’énergie par faisceau ne dépassera pas les 5 TeV la
détente de l’hélium. première année de prises de données. L’accélérateur, qui devra démarrer
durant l’automne 2009, ne s’arrêtera pas avant d’avoir fourni une lumino-
sité intégrée de 200 pb-1 (vers l’été ou l’automne 2010). En tenant compte
de ces conditions, les physiciens ont ré-évalué les prévisions des signaux
La luminosité permet de calculer le attendus dans les expériences, puisque le scénario précédent prévoyait
nombre d’événements produits par se- un fonctionnement à 14 TeV. Cette énergie sera atteinte après 2010.
conde pour un processus donné dont
on connaît la section efficace. La lumi- Une chose est sûre, malgré leur déception les ingénieurs et les physiciens
nosité intégrée correspond au nombre n’ont pas chômé depuis l’arrêt provisoire du LHC !
d’événements produits sur une période
de temps donnée. Sa valeur tient compte
des arrêts de fonctionnement de la ma-
chine et des variations de sa luminosité
instantanée.
page 70

ÉLÉMENTAÍRE
ICPACKOI ?
[isepasekwa] ?
GLAST : une nouvelle « star » dans le ciel
Mercredi 11 juin 2008, 8h 30 du matin en Californie. L’un des grands
amphithéâtres du Stanford Linear Accelerator Center est noir de monde :
l’auditoire a les yeux rivés sur un mur d’écrans installé sur l’estrade. Sur le
plus grand d’entre eux on peut voir une fusée sur le point d’être lancée par
la NASA au Kennedy Space Center (Floride). Les autres écrans montrent
plusieurs groupes de personnes regardant les mêmes images depuis leurs
laboratoires respectifs : les équipes de la collaboration GLAST (« Gamma
ray Large Area Space Telescope ») attendent le départ du satellite sur le-
quel elles ont travaillé pendant de nombreuses années.
Soudain, les visages se font plus tendus : le compte à rebours vient de
s’arrêter à H – 5 minutes. Une station radar située sur l’île d’Antigua (dans
les Antilles) et chargée de suivre la fusée après le lancement n’est plus
opérationnelle tandis qu’un voyant d’alarme au niveau du pas de tir vient
de s’allumer. Suit presque immédiatement une intervention de la station
météo de Cape Canaveral indiquant que la fenêtre de lancement pour la
journée se refermera dans une vingtaine de minutes à cause des nuages

© NASA
qui s’amoncellent au-dessus de Cocoa Beach. Pour l’assistance c’est la
douche froide : le départ de GLAST va-t-il être retardé ?
Lancement du satellite d’observation
Heureusement les deux problèmes se révèlent bénins. Le décompte repart
gamma GLAST, le 11 juin 2008 par une
et, à 9h05, la fusée Delta-II décolle. Le lancement est un succès complet : fusée Delta-II, à Cape Canaveral. Le
à 10h20 GLAST est placé sur orbite basse à 550 km d’altitude. En 12 mi- panache au second plan est causé par la
nutes ses panneaux solaires se déploient et apportent l’énergie nécessaire vaporisation d’un grand volume d’eau
pour alimenter les ordinateurs de bord et les instruments scientifiques. stocké sous le pas de tir et qui sert à évacuer
Une fois cette phase critique terminée, les tests des systèmes embarqués la chaleur produite lors du décollage ainsi
peuvent commencer : il s’agit de s’assurer de leur bon fonctionnement et qu’à diminuer le volume sonore généré.
de calibrer les différents détecteurs. Ces vérifications doivent prendre de En fond on peut voir l’Océan Atlantique.
un à deux mois, ce qui est finalement peu par rapport à la durée de vie Les pas de tirs d’où ont été lancés tous les
vols spatiaux américains (vers la Lune,
du satellite : cinq ans d’après le cahier des charges tandis que les équipes
les navettes, etc.) sont situés à quelques
de chercheurs espèrent au moins le double. kilomètres sur la même île.
GLAST, dont le coût total est environ deux cent millions de dollars, est
une mission de la NASA conçue en collaboration avec des laboratoires
Calibrer
L’étalonnage d’un instrument scientifique est un préalable obligatoire à toute expérience : on utilise une référence pour laquelle on connaît
à l’avance le résultat de la mesure afin de faire la correspondance entre le signal enregistré par le détecteur et l’unité dans laquelle on veut
le convertir. En pratique on effectue plusieurs mesures avec différentes références afin d’obtenir la description la plus complète possible de
l’instrument. GLAST n’échappe pas à la règle et son bon fonctionnement requiert de nombreux étalonnages :
- performances (niveau de bruit et d’amplification) des circuits électroniques ;
- alignement des différents détecteurs les uns par rapport aux autres et orientation absolue du satellite dans l’espace ;
- correspondance entre signaux enregistrés et énergies des rayons gamma détectés ;
- synchronisation temporelle de tous les composants, etc.
Selon leur stabilité (estimée par des tests au sol avant le lancement ou des simulations informatiques), ces étalonnages sont mis à jour plus
ou moins rapidement. Pour les plus sensibles, des nouvelles données sont enregistrées plusieurs fois par seconde ; dans tous les cas, des
systèmes complexes de surveillance suivent leur évolution et interviennent lorsqu’une dérive est observée sur les signaux de contrôle. Ces
étalonnages sont en général basés sur des phénomènes physiques offerts par la Nature, par exemple des étoiles fixes pour l’orientation ou
les rayons cosmiques (qui viennent frapper GLAST en permanence) pour l’énergie. Des protons (le bruit de fond dominant) servent aux
étalonnages absolus en énergie tandis que les signatures caractéristiques des ions lourds (carbone, azote, oxygène, fer, etc.) sont utilisées
pour suivre leurs dérives.
page 71

ÉLÉMENTAÍRE
[isepasekwa] ?
américains, européens (Allemagne, France, Italie et Suède) et japonais.
Ce satellite embarque deux instruments spécialisés dans l’observation
des rayons gamma : des photons, similaires à ceux qui constituent la
lumière visible, mais bien plus énergétiques. Ces particules, émises par
des objets extérieurs au système solaire, ne peuvent pas pénétrer l’atmos-
phère à moins d’avoir une énergie considérable. Ainsi, les phénomènes
détectables sur Terre sont limités en nombre et les signaux reçus sont de
faible intensité. Or les rayons gamma sont des « messagers cosmiques »
très intéressants : neutres et sans masse, ils apportent des informations
sur la nature de leur source ; de plus, leur énergie est essentiellement
préservée sur leur parcours, ce qui permet d’obtenir des renseignements
sur les phénomènes qui leur ont donné naissance : explosions d’étoiles,
© NASA

annihilation de particules encore inconnues, etc. Les satellites d’obser-


vation gamma comme GLAST sont donc des éléments essentiels pour ce
Installation en juin 2008 du satellite GLAST domaine d’étude.
dans la coiffe de son lanceur Delta-II.
Le premier télescope, le LAT (« Large Area Telescope ») est en quelque
sorte un détecteur « classique » de physique des particules lancé dans
l’espace. Son grand champ de vue, sa sensibilité (c’est-à-dire sa capacité
à détecter un signal faible) et son excellente résolution angulaire, assurant
la localisation précise des sources de photons, lui permettront de réali-
ser une cartographie du « ciel gamma » sans équivalent à ce jour entre
Grand champ de vue 20 MeV et 300 GeV. Seuls des événements très violents à l’échelle de
Le LAT observe en permanence 20% de la
l’Univers (explosions d’étoiles, pulsars, trous noirs etc) sont susceptibles
voûte céleste et couvre l’ensemble du ciel
d’émettre des photons de plusieurs centaines de GeV.
en deux orbites, soit toutes les 192 minutes.
Cette rapidité de balayage est nécessaire car
les signaux émis peuvent être très faibles : L’autre instrument embarqué, le GBM (« Gamma Burst Monitor »), vise à
il faut alors observer de nombreuses fois la détecter et à étudier les sursauts gamma, dans une large plage d’énergie
même zone pour accumuler suffisamment (10 keV – 30 MeV) et avec un champ de vue maximal. Les observations
de photons. De plus, il est ainsi possible ont lieu simultanément dans toutes les directions, le Soleil et son voisi-
de suivre des sources « transitoires », dont nage immédiat étant occultés pour éviter que les détecteurs ne soient
l’intensité du rayonnement varie avec le éblouis par son rayonnement. Environ 215 détections sont attendues cha-
temps. À chaque cycle, une direction don-
que année, dont 70 seront également visibles par le LAT qui pourra alors
née du ciel est observée pendant 30 minu-
aider à la localisation de la source et suivre son évolution.
tes en moyenne.

LAT
Le LAT utilise une technologie qui le rend très similaire aux détecteurs de physique des particules. Il est composé de seize tours identiques, or-
données en quatre lignes et quatre colonnes. La partie supérieure est un détecteur de traces, un assemblage de couches de silicium séparées par
de minces feuilles de tungstène. Lorsqu’un photon traverse l’une de ces dernières, il a une probabilité non nulle (et croissante avec son énergie)
de se convertir en une paire électron-positron. Au contraire des photons les particules chargées laissent des traces dans le silicium ce qui permet
de reconstruire leurs trajectoires, quasi-rectilignes et dans le prolongement du rayon gamma – en fait leur direction est modifiée de manière
aléatoire à chaque interaction avec le silicium mais la déviation est d’autant plus faible qu’elles sont énergétiques.
Le bas des tours contient un calorimètre qui mesure l’énergie des particules. Les informations combinées des deux détecteurs sont utilisées pour
sélectionner les événements intéressants. De plus, le LAT est entouré d’un « détecteur d’anti-coïncidences » à scintillations (l’ACD) sensible
aux particules chargées (des rayons cosmiques qui interagissent avec le détecteur de traces et le calorimètre) mais pas aux photons. Lorsque
l’ACD détecte une de ces particules les données du LAT sont ignorées puisqu’elles ont vraisemblablement été produites par ce signal parasite.
Les algorithmes de décision au niveau du satellite permettent ainsi d’éliminer 75% du bruit de fond ce qui améliore le potentiel de détection du
télescope tout en limitant le flot de données transmises vers le sol. 99% du bruit de fond restant est rejeté lors de la phase d’analyse au sol, effec-
tuée par 600 ordinateurs basés à SLAC. L’ensemble de la chaîne de traitement, du satellite GLAST aux stations de travail des physiciens, prend à
peine quelques heures. Au final le taux de gamma « célestes » enregistré est de l’ordre d’une particule par seconde, soit tout de même plusieurs
dizaines de millions de photons par an !
page 72

ÉLÉMENTAÍRE
[isepasekwa] ?
Sursauts gamma
Les sursauts gamma sont des émissions violentes de photons énergétiques qui durent de quelques
secondes à quelques dizaines de minutes, apparaissent de manière aléatoire dans le ciel (à une
fréquence de l’ordre d’un événement par jour) et dont les sources sont très éloignées de la Terre.
Ce sont les phénomènes les plus puissants jamais observés : l’énergie dégagée par chaque sursaut
gamma correspond au rayonnement émis par un millier d’étoiles comme le Soleil pendant toute
leur vie. C’est également l’ordre de grandeur de l’énergie qu’on obtiendrait si la totalité de la
masse du Soleil était convertie en énergie par la formule d’Einstein E = Mc2.
Ces phénomènes furent détectés pour la première fois en 1969 par des satellites espions américains

© LAT collaboration SLAC


chargés de vérifier que tous les pays se conformaient au traité international d’interdiction des
essais nucléaires atmosphériques. Ces observations étaient si mystérieuses que l’information ne
fut pas rendue publique avant 1973. Il fallut ensuite attendre une quinzaine d’années pour que
les expériences PHEBUS (France) et BATSE (États-Unis) montrent que les sursauts se divisent
en deux catégories.
- Les courts : quelques secondes au plus ; ils sont sans doute dus à une collision cataclysmique
entre deux astres compacts très massifs (étoiles à neutrons ou trous noirs), orbitant l’un autour
de l’autre dans un mouvement de spirale de plus en plus rapide et rapproché à mesure que le Simulation du passage d’un photon dans
système perd de l’énergie. une des seize tours du LAT. Le gamma se
- Les longs : jusqu’à vingt minutes ; on sait aujourd’hui qu’ils sont provoqués par la mort d’étoiles convertit dans une feuille de tungstène en
massives, l’association sursauts gamma – supernovæ de type I ayant été démontrée en 2003. deux particules chargées (en bleu) dont les
En février 1997 le satellite BeppoSAX fut le premier à observer une émission résiduelle dans traces sont ensuite détectées par plusieurs
d’autres longueurs d’onde à la suite d’un sursaut gamma. Le satellite SWIFT a maintenant pris couches de silicium (croix vertes).
sa suite.

GLAST participe ainsi à un réseau global de surveillance de ces phé-


nomènes qui comprend plusieurs autres observatoires dont le satellite
SWIFT (lancé en 2004). Ce dernier étudie les émissions électromagnéti-
ques moins énergétiques prolongeant le sursaut gamma dans les domai-
nes des rayons X et du visible, améliorant ainsi notre connaissance de ces
phénomènes.

Le 26 août 2008, une conférence de presse a présenté la première carte


du ciel gamma de GLAST, obtenue en analysant 95 heures de données
prises en juin lors de la phase de mise au point du satellite. Celui-ci fonc-
tionnant parfaitement, il a été rebaptisé, comme le veut la tradition de la Sursaut gamma observé le 23 janvier 1999
NASA : GLAST est maintenant le « Fermi Gamma-ray Space Telescope » par le télescope spatial Hubble.
(FGST), du nom du physicien italo-américain Enrico Fermi qui fut, entre
autres, le premier à proposer un mécanisme expliquant comment des
Première carte du ciel gamma de
particules chargées pouvaient être autant accélérées lors de leur traversée
GLAST, rendue publique le 26 août 2008
et utilisant 95 heures de données prises en
juin. Plus la couleur d’une zone est chaude
et plus le nombre de photons gamma reçus
de cette direction est élevé. On distingue
parfaitement le plan galactique ainsi
que quatre sources très brillantes déjà
bien connues, dont le pulsar du crabe
(à l’extrême droite de l’image), vestige
d’une supernova ayant explosé en 1054 et
observée par les astronomes de l’époque,
© NASA DOE

en particulier chinois.
Ni l’étalonnage en énergie, ni l’alignement
ne sont parfaits mais l’important est, par
cette première analyse, de montrer que le
satellite est opérationnel.
page 73

ÉLÉMENTAÍRE
[isepasekwa] ?
© EGRET NASA

À gauche : carte du ciel dans le domaine des rayons gamma (énergie supérieure à 100 MeV)
obtenue en accumulant toutes les données enregistrées par le prédécesseur de GLAST,
l’observatoire EGRET (« Energetic Gamma Ray Experiment Telescope ») en service de 1991
à 2000. À droite : une simulation de la carte équivalente que devrait obtenir GLAST après
seulement un an de prise de données. La comparaison est éloquente : on dirait deux clichés du
© GLAST

même paysage, l’un flou et l’autre correctement mis au point !


Sur ces cartes, plus le nombre de rayons gamma venant d’une direction donnée est grand,
Vue d’artiste montrant le satellite GLAST plus la zone correspondante est brillante. La bande horizontale claire correspond au plan
en orbite autour de la Terre avec, en arrière- galactique où des rayons gamma sont produits par interaction de rayons cosmiques avec le
plan, quelques exemples de corps célestes milieu interstellaire, plus dense dans ces régions.
(fortement grossis et artificiellement
regroupés) qui seront observés par ses du milieu interstellaire – les rayons cosmiques contiennent des particules
instruments. bien plus énergétiques que celles produites par les plus puissants des
accélérateurs terrestres – (voir « Accélérateurs »). Pour la petite histoire,
le délai entre la prise des données (juin) et leur présen-
tation (fin août) est principalement dû à la difficulté de
contacter le ... petit-fils de Fermi pour obtenir son ac-
cord à propos du nouveau nom du satellite – tradition-
nellement annoncé en même temps que les premiers
résultats scientifiques.
© LAT collaboration SLAC

L’objectif principal de la première année de prise de


données du LAT est la mise en place d’un catalogue de
sources : sur les 271 émissions détectées à ce jour, l’ob-
jet céleste à l’origine des rayons gamma n’a pas encore
été déterminé dans deux tiers des cas, en particulier à
cause du manque de résolution angulaire des satellites
Évolution de la sensibilité de GLAST après de la génération précédente. De plus, la sensibilité de
100 secondes (en haut à gauche), 1 orbite GLAST devrait lui permettre de trouver plusieurs milliers de nouvelles
(en bas à gauche), 1 jour (en haut à droite) sources par an. Ensuite, la surveillance systématique du ciel se poursui-
et 1 an (en bas à droite) de prise de données. vra, en parallèle avec des campagnes d’observation spécifiques, ouvertes
Le code de couleur donne l’intensité que à des chercheurs extérieurs à la collaboration GLAST. Les données seront
doit avoir une source pour être détectable :
rendues publiques très rapidement – quelques mois au plus après leur en-
plus la couleur est chaude, plus l’émission
doit être intense.
registrement – afin que l’ensemble de la communauté scientifique puisse
en bénéficier. L’autre appareil embarqué, le GBM, n’est pas en reste :
fin août, plus d’une trentaine de sursauts gamma
avaient été repérés.
© NASA/Sonoma State University/

Logo du satellite FGST. Le « F » initial de


Fermi est représenté (de manière artistique)
Aurore Simonnet

par un « noyau actif de galaxie », une source


de rayons gamma que les scientifiques
espèrent bien étudier avec les données de
GLAST – pardon, de FGST !
page 74

ÉLÉMENTAÍRE
[isepasekwa] ?
Ballons-sondes
Pamela : Alerte aux positrons Pamela a été conçu par la collaboration
italienne WiZard, qui a mené de nom-
Non, non, Élémentaire n’a pas décidé de breuses campagnes de mesures sur ballons-
vous envoyer une carte postale de Malibu, sondes entre 1989 et 1998. Ces ballons
qui, comme MASS89, MASS91, TS93,
mais plutôt de vous faire part d’une nou-
CAPRICE94 et CAPRICE98, portaient
velle surprenante concernant les rayons des détecteurs très proches de ceux utilisés
cosmiques. Notre Pamela n’est autre... en physique des particules ont mesuré
qu’un détecteur installé sur un satellite, le rapport particule/antiparticule et le

© WiZard collaboration
dont le nom est l’acronyme de Payload spectre en énergie pour les antiprotons
for Antimatter Exploration and Light-nu- et les positrons contenus dans les rayons
clei Astrophysics. cosmiques. Les résultats accumulés, et
complétés par d’autres mesures en ballons-
Lancé le 15 juin 2006 par une fusée russe Le lancement de la sonde sondes, ont débouché sur une collaboration
CAPRICE 94 avec le ballon en russo-italienne, avec des expériences
Soyouz, comme nous l’annoncions dans
l’air et la sonde au sol. embarquées sur la station spatiale russe
le numéro 3 d’Élémentaire (rubrique « Cen- MIR à partir de 1995. Des détecteurs à base
tre »), Pamela a été placé sur le satellite russe Resurs-DK1 qui évolue en- de silicium y étaient utilisés pour étudier
tre 350 et 610 kilomètres d’altitude sur une orbite elliptique autour de la les rayonnements solaires et cosmiques
Terre. Prenant la suite de travaux menés à l’aide de ballons-sondes, cette de basse énergie. Pamela constitue l’étape
collaboration entre l’Italie, la Russie, l’Allemagne et la Suède a décidé suivante de cette collaboration.
d’étudier la composition des rayons cosmiques (constitués d’électrons,
positrons, protons, antiprotons, noyaux légers) pour des énergies allant
de 50 MeV à quelques centaines de GeV.

Un peu comme GLAST (voir article pré- Vent solaire


cédent), Pamela contient plusieurs dé- Le vent solaire est un flux de particules
tecteurs permettant de séparer les diffé- chargées issues des couches supérieures
rents types de particules contenues dans du Soleil. Il est principalement constitué
d’électrons et de protons qui échappent à
les rayons cosmiques et de mesurer leur
l’attraction gravitationnelle du Soleil en
énergie. On y trouve entre autres un raison de la température élevée régnant à
spectromètre magnétique qui identifie sa surface. Ces particules sont entre autres
les caractéristiques des particules char- responsables des aurores polaires quand
gées, un calorimètre capable de distin- elles pénètrent l’atmosphère terrestre
© NASA-ESA

guer les électrons (positrons) des anti- (voir Élémentaire N°3).


protons (protons) et des noyaux légers, L’intensité du vent solaire dépend
un système de mesure du temps de vol de l’activité du Soleil lui-même, qui
pour déterminer la masse des particu- Une éruption solaire vue par le satellite varie selon un cycle régulier de 11 ans
Soho. (correspondant à un retournement
les, et un détecteur de neutrons.
complet du champ magnétique solaire).
En octobre dernier, Pamela a surpris les physiciens et enfiévré bien des Ainsi, suivant les années, les mesures de
esprits. En effet, la collaboration a rendu public des résultats sur la pro- positrons et d’électrons dans les rayons
portion d’électrons et de positrons dans les rayons cosmiques entre 1 cosmiques de basse énergie sont modulées
et 100 GeV. En-dessous de 10 GeV, les résultats sont compatibles avec plus ou moins intensément par le vent
les données prises antérieurement par des ballons-sondes, à condition solaire. Il faut donc prendre en compte les
de prendre en compte les effets du vent solaire. Mais au-dessus de 10 variations du cycle solaire pour comparer
GeV, la fraction de positrons présents dans les rayons cosmiques aug- les résultats des expériences en ballons
mente avec l’énergie. Si les électrons sont très communs dans l’Univers, menées de 1994 à 2001 avec ceux de
Pamela, accumulés ces deux dernières
les positrons nécessitent des circonstances un peu plus originales pour
années.
être produits. En effet, on s’attend à ce que des paires électrons-positrons
soient créées lorsque des protons, ou des noyaux légers, accélérés se
propagent dans la Galaxie et interagissent avec les protons des nuages de
page 75

ÉLÉMENTAÍRE
[isepasekwa] ?
gaz interstellaires (les mêmes processus peuvent avoir lieu avec des noyaux
légers). Ce phénomène s’ajoute aux nombreux autres processus astrophy-
siques (supernovæ, pulsars, noyaux actifs de galaxies...) qui produisent en
proportion variable des électrons, des positrons, et les autres constituants
des rayons cosmiques.

Au final, donc, rien d’étonnant à ce que Pamela observe des positrons. Mais
selon les modèles astrophysiques en vigueur, leur proportion devrait dimi-
nuer avec l’énergie, alors que Pamela observe au contraire une augmen-
tation ! Au même moment, des ballons-sondes des collaborations ATIC et
PPB-BETS, qui ne sont pas sensibles à la charge des particules, mais seu-
lement à leur énergie, ont également observé un excès du nombre total de
positrons et d’électrons dans les rayons cosmiques autour de 700 GeV.
Rapidement, plusieurs explications ont été avancées... Certains physiciens
© Pamela

suggèrent que le modèle décrivant la production de positrons souffre de


grandes incertitudes (énergie des protons initiaux, interaction avec le gaz
Pamela dans toute sa splendeur : 470 interstellaire, propagation des rayons cosmiques dans la galaxie). D’autres
kilogrammes de haute technologie dans un évoquent la création de paires électrons-positrons par des pulsars (voir «
volume de 130 × 70 × 70 cm3.
Centre ») situés à proximité de la Galaxie. Mais si les résultats de Pamela
entretiennent tant la fébrilité de certains chercheurs, c’est parce qu’un excès
Halo galactique de positrons de haute énergie est aussi attendu dans de nombreux modèles
Le halo galactique désigne une région de matière noire. En effet si cette fameuse matière noire était constituée de
approximativement sphérique qui entoure particules exotiques très massives situées dans le halo galactique, elles se
chaque galaxie et qui englobe tous les rencontreraient de temps à autre et s’annihileraient en une paire électron-
objets liés gravitationnellement à cette positron très énergétique. Ce mécanisme pourrait donc en principe expli-
dernière. Dans le cas de notre Galaxie,
quer l’anomalie vue par Pamela.
la matière noire se situerait dans un halo
dont le rayon serait de l’ordre de plusieurs Mais avant de crier victoire, il faut encore fournir un modèle cohérent de
centaines de milliers d’années-lumière – à matière noire qui explique quantitativement les résultats de Pamela tout en
titre de comparaison, la partie visible de restant en accord avec les autres observations cosmologiques et les contrain-
notre Galaxie est un disque dont le rayon tes de physique des particules. D’une part, le nombre d’antiprotons observés
est de cent mille années-lumière, avec une dans les rayonnements cosmiques à ces énergies (quelques centaines de
épaisseur de mille années-lumière. GeV) est en bon accord avec les modèles astrophysiques actuels. D’autre
part, les caractéristiques de la matière noire ont un impact sur l’évolution de
l’Univers depuis le Big Bang jusqu’à nos jours. Il faut aussi tenir compte
des contraintes fournies par la physique des particules sur la masse et les
interactions des constituants potentiels de la matière noire. Si des modè-
les de physique nouvelle excitent l’imagination de nombreux théoriciens,
d’autres étudient l’éventualité que les modèles actuels décrivant le fond as-
trophysique soient à revoir (par exemple en raison de supernovæ dans no-
tre environnement proche capables de libérer les positrons observés). Un
sacré casse-tête sur lequel planchent actuellement les théoriciens, pendant
que Pamela, mais aussi d’autres expériences comme Fermi, continuent à
accumuler des données pour mieux comprendre la composition du rayon-
nement cosmique !

Évolution de la fraction de positrons dans les rayons cosmiques en fonction de l’énergie. La


mesure de Pamela apparaît en rouge avec d’autres, effectuées par des ballons-sondes (MASS,
© M. Cirelli

CAPRICE, HEAT). Un modèle décrivant la production de positrons par la propagation de


rayons cosmiques dans la Galaxie prédit la courbe grisée en aplat. On n’a pas représenté ici
les incertitudes théoriques du modèle, liées aux différentes hypothèses en jeu.
page 76

ÉLÉMENTAÍRE
La question qui tue !
Combien pèse le vide ?
L’obscure clarté qui tombe des étoiles
L’étude du passé lointain de l’Univers durant le demi-siècle dernier
s’est avérée très fructueuse. Non seulement les physiciens ont compris
de nombreux aspects de son histoire, mais ils ont aussi trouvé dans la
cosmologie primordiale – l’étude de son passé lointain – une fenêtre
unique pour l’étude de la physique des très hautes énergies (et donc
des très petites distances) au-delà du Modèle Standard des interactions
élémentaires. Pour autant, les observations détaillées de l’Univers récent
ne sont pas dénuées d’intérêt et ont, en fait, mis à jour des phénomènes
inattendus.

Par exemple, un « petit » détail : à force de scruter l’Univers, les


physiciens ont découvert que seul 5% du contenu énergétique actuel
de l’Univers observable – sa masse – est de nature connue ! Mais alors
comment peuvent-ils affirmer avoir une bonne compréhension, non
seulement qualitative, mais quantitative, de l’histoire de l’Univers ? En
Deux représentations graphiques
fait la proportion de « physique connue » a varié au cours du temps
du contenu en énergie de
et était plus importante, et même dominante, dans l’Univers primordial. l’Univers, avec sa part directement
Bien, mais nous avons tout de même un problème sur les bras pour observée... et le reste !
« expliquer » l’Univers actuel, un problème grave... et nous pesons nos
mots !

Regardons les choses de plus près : toute masse, et plus généralement,


d’après la théorie de la relativité générale, toute forme d’énergie, est
source de gravitation, autrement dit... pèse. Mais tout ne gravite pas
de la même façon. Une partie des 95% inconnus gravite comme la
matière ordinaire, c’est-à-dire qu’elle donne lieu à une force de gravité
attractive, subit l’effondrement gravitationnel – ce qui pour la matière
ordinaire, donne lieu à la formation d’étoiles ou de galaxies, etc... On
parle de « matière noire », qui constitue environ 23% de la masse de
l’Univers. Il pourrait s’agir de particules nouvelles, prévues par certaines
extensions théoriques du Modèle Standard des interactions élémentaires,
suffisamment massives pour n’avoir encore jamais été observées dans
les expériences étudiant les collisions effectuées par des accélérateurs
de particules. Les 72% restant sont nettement plus mystérieux, donnant
lieu, en particulier, à une force de gravité répulsive à grande distance,
responsable de l’accélération de l’expansion de l’Univers observée
récemment. Nous traversons actuellement une nouvelle phase d’inflation
(voir « Théorie ») ! Mais une expansion quand même nettement plus lente
que l’inflation des premiers âges de l’Univers. Pour désigner ces 72%
mystérieux, on parle « d’énergie noire ».

Les tentatives d’explication théorique de ce phénomène suivent


essentiellement deux pistes : la première consiste à supposer que les lois
de la gravitation décrites par la relativité générale d’Einstein ne sont plus
valables à très grande distance et doivent être modifiées ; la seconde
postule l’existence d’une nouvelle forme de « matière », génériquement
appelée « quintessence », dont l’influence gravitationnelle est telle qu’elle
donne lieu au phénomène observé. Les données observationnelles
page 77

ÉLÉMENTAÍRE
Combien pèse le vide ?
Particules nouvelles
La plupart des extensions du Modèle
Standard des particules et interactions
élémentaires (voir Élémentaire N°6), qui
visent à unifier les interactions connues, ou
à fournir des explications à des faits qui sont
de simples hypothèses du Modèle Standard,
prévoit l’existence de nouvelles particules
et/ou interactions, activement recherchées Dans les théories supersymétriques, chaque particule connue est associée à un partenaire, une
par les physiciens. Certaines sont stables, particule de nature différente. Ces particules seraient très massives, de sorte qu’elles n’ont pas
d’autres interagissent très peu avec la encore été observées dans les accélérateurs de particules. La particule supersymétrique la plus
matière ordinaire ou ont des temps de vie légère est un bon candidat pour la matière noire de l’Univers.
extrêmement longs, de l’ordre de l’âge de
l’Univers et pourraient donc être présentes actuelles, si elles ne permettent pas de trancher, semblent légèrement
en quantité non négligeable aujourd’hui. favoriser la première hypothèse et, en particulier, la modification la plus
En général, ces particules n’interagissent simple possible de la théorie d’Einstein, modification introduite... par
que très peu avec la matière ordinaire. Einstein lui-même en 1917.
Toutes, cependant, se comportent, d’un
point de vue gravitationnel, comme cette
dernière. Celles qui satisfont à ces critères
sont autant de candidates possibles pour
Une (grande) constante...
expliquer la matière noire. Parmi les
En effet, Einstein, appliquant sa toute nouvelle théorie de la relativité
nommées, nous trouvons les neutralinos,
générale à l’Univers dans son ensemble, introduit un terme dans ses
particules neutres et stables, prévues par
les théories supersymétriques; ou encore équations, baptisé « constante cosmologique », dont le rôle est de
le (ou les) neutrino(s) supermassif(s) permettre l’existence de solutions statiques (sans expansion), qui lui
prévu(s) par les extensions du Modèle semblent les seules satisfaisantes. Plus tard, il mentionnera cet épisode
Standard cherchant à expliquer la masse comme sa plus grande erreur. Toujours est-il qu’un tel terme est permis
des neutrinos connus. Mais il y en a bien par les postulats de base de la relativité générale et n’a, a priori, aucune
d’autres. raison d’être nul. Selon son signe, il peut soit ralentir l’expansion (et même
l’annuler, comme le souhaitait Einstein initialement), soit l’accélérer !
À lui seul, ce terme permet de rendre compte de l’accélération
récente de l’Univers de manière très économique sans recourir à
de nouveaux principes ou inventer de nouvelles formes exotiques
de matière. Problème résolu ? Ce serait compter sans les principes
de base de la mécanique quantique qui, s’ils ne permettent pas
d’exclure cette solution, la rendent très insatisfaisante. Voyons cela
de plus près.

... plus une (grande) constante...


La mécanique quantique implique l’existence d’une constante
cosmologique. En effet, un système quantique ne peut jamais être
véritablement « au repos » au sens classique du terme, c’est-à-dire
avec une position donnée et une vitesse nulle. En vertu du principe
de Heisenberg, position et vitesse ne peuvent avoir simultanément
des valeurs parfaitement déterminées. Elles ont, au contraire, des valeurs
Une simulation numérique de la
répartition de matière noire dans un cube qui fluctuent « inévitablement » : on parle de fluctuations quantiques.
d’un milliard d’années-lumière de côté. Il s’ensuit que tout système quantique, même dans son état de plus
Le trajet de rayons lumineux émis par des basse énergie, l’état « fondamental », a une énergie non nulle et, par
galaxies lointaines est représenté en jaune : conséquent, pèse ! C’est le cas, en particulier, de l’état fondamental
selon la relativité générale, la présence de d’un système de particules quantiques. On l’appelle aussi « vide » car il
page 78

matière (noire) dévie ces rayons !


ÉLÉMENTAÍRE
Combien pèse le vide ?
correspond à l’état vide de particules – ici les quantités
Fluctuations quantiques
qui fluctuent ne sont pas les positions et les vitesses (il
En mécanique classique, l’état d’une particule ponctuelle est, à tout
n’y a aucune particule dans ce vide...), mais les champs instant, complètement déterminé par la donnée de sa position et de sa
associés aux différents types de particules connues, tels vitesse : connaissant les valeurs de ces dernières à un moment donné,
les champs électrique et magnétique associés au photon les lois de la mécanique classique permettent de prédire l’état de la
(voir Élémentaire N°6). Donc, le vide pèse et, tenez vous particule (position et vitesse) à tout instant ultérieur (ou antérieur),
bien : l’effet gravitationnel des fluctuations quantiques c’est-à-dire la trajectoire de la particule. En particulier, on obtiendra
du vide est strictement identique à celui d’une constante invariablement le même résultat si on répète un grand nombre de fois
cosmologique ! Il semblerait que le problème de l’énergie la même expérience, en préparant notre particule invariablement et
noire soit en passe d’être résolu, avec la seule physique strictement dans le même état de départ, et en mesurant sa position et sa
vitesse à un instant ultérieur (si on omet les incertitudes expérimentales
connue. Eh bien non !
dans la préparation et la mesure).
Les choses sont bien différentes en mécanique quantique. En général, on
... égal une (petite) constante ? ne peut pas prédire avec une assurance parfaite le résultat de la mesure
d’une quantité (observable). On peut seulement prédire la probabilité
que la mesure d’une observable aboutisse à telle ou telle valeur. En
En effet, les estimations théoriques montrent que, dans le d’autres termes, si on répète un grand nombre de fois une même mesure,
cadre du Modèle Standard, la contribution des fluctuations on n’obtient en général pas le même résultat : on dit que l’observable
quantiques du vide à la constante cosmologique (le « en question « fluctue ». Si ces fluctuations quantiques sont petites (en
poids du vide ») est beaucoup trop importante par rapport particulier devant les inévitables incertitudes expérimentales relatives
à la valeur mesurée, et ce de plusieurs dizaines d’ordres à la préparation de l’expérience et à la mesure), la mécanique classique
de grandeur (un ordre de grandeur correspondant à un fournit une description approximativement correcte.
facteur 10) ! Mais non contente d’être incompatible avec
la valeur mesurée, cette contribution qui, rappelons-le,
provient de la seule « physique connue », est incompatible avec
notre existence, avec l’existence même de notre Univers. En effet,
une telle valeur de la constante cosmologique aurait donné lieu à Champs
une expansion exponentielle de l’univers dans ses tous premiers Dans le cadre de la théorie quantique des champs, qui
instants, ne permettent pas la formation des premiers noyaux, combine relativité restreinte et mécanique quantique, les
particules ne sont plus l’objet central de la description
atomes, l’allumage des premières étoiles etc... Courrons-nous à la
mathématique. Elles sont les excitations élémentaires
catastrophe !? Pas complètement.
d’un objet plus fondamental : le champ. Ce dernier est
une fonction prenant des valeurs différentes en différents
La constante introduite par Einstein qui, comme nous l’avons dit points de l’espace-temps. En guise d’illustration, on peut
plus haut, est a priori non nulle, fournit une autre contribution, imaginer un « champ » qui mesure la hauteur de l’eau sur
classique celle-là, à la constante cosmologique. La valeur mesurée l’océan par rapport à un certain niveau de référence. Ce
est donc une valeur effective, somme des contributions classique champ prend des valeurs différentes à différents endroits.
et quantique. Il suffit d’ajuster la contribution classique pour que Les excitations élémentaires de ce champ sont des vagues
la somme des deux soit compatible avec la valeur observée. Nous qui se propagent sur l’océan. En mécanique quantique,
la hauteur des vagues ne peut prendre que certaines
voilà sauvés ?
valeurs précises (on dit qu’elles sont « quantifiées ») et ces
« vagues élémentaires » ne sont autres que les particules.
L’insoutenable légèreté du vide Il existe un type de champ pour chaque type de
particule. Une conséquence remarquable de la théorie
des champs est qu’elle permet d’expliquer pourquoi
Cette solution, tout à fait cohérente, est pourtant loin d’être toutes les particules d’un même type (par exemple, tous
satisfaisante pour les (esprits retords des) physiciens. En effet, il les électrons de l’Univers) ont exactement les mêmes
faut viser juste ! La constante classique d’Einstein doit être ajustée caractéristiques (masse, charge, etc.) : elles sont les
avec une précision extrême, sur plusieurs dizaines de décimales. excitations d’un seul et même champ (tout comme une
Ceci signifie que pour une raison obscure, notre Univers, loin vague sur l’Océan Indien n’est pas intrinsèquement
de correspondre à une solution générique des équations de la différente d’une vague sur la Méditerranée).
Physique, en est, au contraire, une solution très particulière, très
page 79

ÉLÉMENTAÍRE
Combien pèse le vide ?
peu naturelle. On parle d’un problème d’ajustement fin ou de « fine
tuning » en anglais. Une erreur minime dans cet ajustement donne lieu
à des conséquences désastreuses quant à l’évolution de l’univers qui en
résulte (absence de formation de galaxies etc).

On peut adopter deux attitudes face à une telle situation. La première


est de penser qu’il s’agit d’une coïncidence, d’un hasard. Après tout,
contrairement aux autres domaines de la physique, nous n’avons qu’un
seul Univers sous la main, c’est-à-dire qu’une seule solution des équations.
Il n’y a pas de raison de s’attendre à ce qu’il corresponde à une solution
générique. Il y a d’autres exemples de telles situations en physique. Le
rayon de l’orbite sur laquelle s’est formée la Terre doit être très finement
ajusté pour permettre l’apparition de la vie telle que nous la connaissons.
Notre planète n’est donc pas un cas générique. Pour les planètes, on peut
le vérifier car on connaît de nombreux autres cas où la vie ne
s’est pas développée. On parle de principe « anthropique » : les
paramètres décrivant notre Univers doivent être compatibles
avec l’apparition de l’espèce humaine (laquelle peut être prise
comme un fait expérimental)... et peu importe si ce choix nous
semble peu naturel !

À l’inverse, on peut penser que le problème d’ajustement


fin de la constante cosmologique signale que quelque chose
de plus profond nous échappe. L’ajustement fin ne serait pas
un hasard, mais la conséquence d’une nouvelle loi de la
physique encore à découvrir. Ou encore, il se peut que notre
compréhension limitée des effets de gravité quantique soit à
l’origine du problème.
Un exemple d’ajustement fin lié au principe
anthropique : pour voir apparaître la vie sur Ce problème, soulevé par l’observation de l’Univers récent, est une des
Terre, basée sur la présence d’eau liquide
grandes questions de la cosmologie actuelle. Sa résolution ouvrira peut-
et de molécules carbonées, il faut que
notre planète ne soit ni trop chaude ni trop
être les portes de mondes inconnus dans le domaine de la physique des très
froide. Des situations différentes en ce qui hautes énergies, jusqu’ici chasse gardée de la cosmologie primordiale.
concerne la position de la Terre et la masse
du Soleil n’auraient pas permis à l’être
humain d’apparaître... et de s’interroger sur
les problèmes d’ajustement fin dans notre
Univers.
page 80

ÉLÉMENTAÍRE
Énergie nucléaire
ITER vers une future source d’énergie?
Fission-Fusion
Les décisions sont arrêtées. Le chantier est lancé. Le réacteur thermonucléaire La fission d’un gros noyau en deux
ITER (International Thermonuclear Experimental Reactor), implanté à noyaux plus petits produit de l’énergie.
Cadarache, entrera en service en 2015-2016, même si certains physiciens C’est la différence de masse des différents
ont contesté l’opportunité de cette entreprise. constituants qui permet de dégager
environ 200 MeV dans la réaction de
ITER (en latin la voie) est une étape sur le chemin de l’autre source d’énergie
fission de l’235U.
nucléaire : des réactions de fusion de noyaux légers qui comme les réactions 235
U → 139Te + 94Zr + 2 neutrons + 197 MeV
de fission, fragmentation de noyaux lourds, sont exothermiques. Mais alors
que la fission, maîtrisée dans des réacteurs depuis 1942, est passée au stade Dans le cas de noyaux légers, il faut au
industriel vers 1970, la fusion en est encore au stade expérimental. Ce long contraire fournir de l’énergie pour
délai est dû à des causes spécifiques : masse de nouvelles connaissances pouvoir les scinder. À l’inverse, en
qu’il fallait acquérir, nombreuses techniques d’avant garde à développer, réalisant la fusion de ces noyaux, on peut
nécessité d’expérimenter sur des installations de grande taille, extrêmement produire de l’énergie. La somme des
coûteuses. masses de petits noyaux est plus grande
que la masse du noyau issu de leur fusion.
C’est ce processus qui est à la base de la
Fusion thermonucléaire production d’énergie des étoiles.

Par application de la formule E = mc2, la fusion de 4


noyaux d’hydrogène pour former un noyau d’hélium, plus
léger que la somme de 4 protons, est depuis 1919 (Jean
-Baptiste Perrin) reconnue comme la source d’énergie du
Soleil et des autres étoiles. La réaction proton-proton est
une interaction faible dont la probabilité, excessivement
petite, garantit la longue vie du Soleil en même temps
qu’elle exclut toute mise en œuvre sur la Terre.
En revanche, les réactions du deutérium, découvertes
en 1934 par Rutherford et ses collaborateurs, ont des
probabilités (sections efficaces) qui les rendent compatibles
avec une source d’énergie terrestre à la condition d’être
produites en régime thermonucléaire : au sein d’un gaz
chaud complètement ionisé (plasma), projectiles et cibles Régime thermonucléaire : Taux de
ont une distribution en énergie dont une seule tranche, vraiment active, réaction de divers processus de fusion
correspond au maximum de probabilité de la réaction. Située à une énergie en fonction de la température.
très supérieure à la moyenne (température du plasma), elle est constamment
renouvelée. Les étoiles et toutes les machines à fusion construite à ce jour
fonctionnent sous ce régime. Les températures sont nécessairement élevées :
au moins 107 K ou en unités d’énergie 1 keV.

Né à Lille, le 30 septembre 1870, Jean-Baptiste Perrin fit ses études à l’École Normale Supérieure
en 1891 où il resta attaché comme agrégé préparateur.
Chargé de créer l’enseignement de la Chimie-Physique à la Sorbonne, Jean Perrin y professa
jusqu’en 1940. Il chercha à étayer par des preuves expérimentales certaines l’hypothèse atomique,
encore très contestée à l’époque. Il fit, en 1908, la première détermination incontestable du
nombre d’Avogadro qui fixe les grandeurs moléculaires.
Ses expériences mémorables, et notamment la vérification de la théorie d’Einstein sur le
mouvement brownien, pour lequel lui fut décerné, en 1926, le prix Nobel de Physique, furent
exposées en 1913 dans un livre : « Les Atomes ». Jean Perrin s’est beaucoup investi dans la
vulgarisation de la science avec, entre autres, la fondation du Palais de la Découverte.
L’astronomie passionnait Jean Perrin qui fut le premier à trouver l’origine du flux d’énergie
DR

rayonnée par le soleil en montrant dès 1920 que seule la fusion d’hydrogène en hélium peut en
rendre compte.
page 81

ÉLÉMENTAÍRE
ITER vers une future source d’énergie?
Un demi-siècle de confinement magnétique
Les recherches sur la fusion contrôlée ont vraiment commencé dans les
années 50. Elles visaient à provoquer la réaction de fusion la plus favorable,
celle entre le deutérium et le tritium (DT), dans un plasma ténu, chaud
et isolé de toute paroi par un champ magnétique de confinement. La
température d’allumage, telle que le chauffage par les produits de réaction
chargés compense les pertes inévitables de chaleur par rayonnement, est de
4,5 107 K. Une température de fonctionnement raisonnable est 108 K. Un
DR

bilan d’énergie positif est alors obtenu si le plasma est suffisamment dense
Andreï Sakharov et stable. On utilise le produit de la densité du plasma par le temps pendant
Né à Moscou le 21 mai 1921, il effectue des lequel on a pu l’obtenir pour décrire le fonctionnement du réacteur.
recherches sur les armes thermonucléaires et Les premières années furent de grande créativité : on essaya nombre de
entre à l’Académie des sciences d’URSS en configurations, mais les succès furent modestes. L’horizon s’éclaircit en
1953. Il participe à la mise au point de la 1968. Une machine imaginée par Andreï Sakharov et depuis longtemps
bombe à hydrogène soviétique mais s’oppose à l’étude à l’Institut Kourchatov de Moscou sous la direction de Lev
quelques années plus tard à la poursuite Artsimovitch, le TOKAMAK (pour TOroidalnaia KAmera i MAgnetnaia
des expériences nucléaires. En 1966, il rallie
Katouchka, soit chambre torique et bobine magnétique), avait fourni des
l’intelligentsia dissidente au régime soviétique
en place et crée en 1970 le Comité pour la valeurs apparemment reproductibles de la température électronique (c’est-
défense des droits de l’homme, ce qui lui vaut à-dire celle du plasma) et du temps de confinement (la « durée de vie » du
le prix Nobel de la paix en 1975. Déchu de plasma) : 10 millions de Kelvins et 20 millisecondes, respectivement (soit un
ses titres et de ses fonctions, il est assigné à ordre de grandeur à peine des 108 K nécessaires). Confirmés par une équipe
résidence à Gorki et surveillé par le KGB de britannique dépêchée sur place, ces résultats étaient bien meilleurs que tous
1980 à 1986. Une fois réhabilité, il est élu en ceux qui avaient été obtenus par ailleurs
1988 au présidium de l’Académie des sciences Ce fut le point de départ du développement d’une véritable filière. À partir
et en 1989 au Congrès des députés du peuple. de 1970, des installations de plus en plus grosses et performantes ont été
Il meurt le 14 décembre 1989 à Moscou... un
construites et exploitées de par le monde. L’un des buts de ces expériences
peu plus d’un mois après la chute du mur de
Berlin.
Réactions de l’hydrogène et du deutérium

La réaction proton-proton (qui a lieu au cœur du Soleil et des autres étoiles) :


H + H → D + e + + νe
produit un noyau de deutérium (D = 1 proton + 1 neutron). Celui-ci est une curiosité
naturelle : stable mais peu lié, il entre dans des processus dont les sections efficaces sont les
plus grandes des réactions de fusion. Le deutérium agit d’abord sur lui-même selon deux
voies également probables :
D + D → T (1,0 MeV) + H (3,0 MeV)
D + D → 3He (0,8 MeV) + n (2,5 MeV)
© ITER organization

produisant soit un tritium (T), hydrogène superlourd (un proton et deux neutrons), soit
un hélium 3 (3He, deux protons et un neutron). Ces noyaux peuvent à leur tour réagir avec
le deutérium pour fournir de l’hélium 4 et une grande quantité d’énergie :
D + T → 4He (3,5 MeV) + n (14,1 MeV)
D + 3He → 4He (3,7 MeV) + H (14,7 MeV)
Le premier Tokamak soviétique. La réaction DT est la plus intéressante. Elle est la seule envisagée dans les projets actuels.
Le deutérium existe en abondance dans les océans : un verre d’eau lourde (molécule de
D2O contrairement à l’eau normale composée de la molécule de H2O) par m3 d’eau de mer.
Le tritium, radioactif, doit être produit en bombardant du lithium avec des neutrons. C’est
pour cela que la couverture d’un réacteur thermonucléaire doit incorporer du lithium afin
de régénérer le tritium, combustible de la réaction.
page 82

ÉLÉMENTAÍRE
ITER vers une future source d’énergie?
était de trouver les quantités qui régissent le temps de confinement de
l’énergie et leurs dépendances. Tous les résultats montrent un effet simple 1973-75 Élaboration du projet
de taille : la machine est d’autant plus performante qu’elle est plus grosse. 1975-77 Discussions pour le choix du site
1983 Premier plasma
En trente ans, trois générations de tokamaks de taille croissante se sont
1991 Première expérience DT
succédées. En raison du prix de construction et du coût d’exploitation,
1997 Pfusion : 16 MW (DT), Énergie : 13 MJ.
la troisième génération n’a donné lieu qu’à trois machines : en Europe le 2000 Rétrocession à la Grande Bretagne
JET (Joint European Tokamak), aux États-Unis TFTR (Tokamak Fusion Test
Reactor, stoppé en 1997 une fois ses objectifs atteints) et enfin JT-60 au Les grandes dates de la vie du JET, toujours
Japon. en service en 2008. Construire puis exploiter
L’introduction du tritium dans le plasma s’accompagne de contraintes liées à un grand Tokamak est une entreprise
la radioactivité propre de cet isotope du noyau d’hydrogène et à l’activation extrêmement lourde sur tous les plans :
scientifique, technique, administratif et bien
de certains matériaux devenant radioactifs après l’absorption des neutrons de
entendu financier.
14 MeV produits lors des réactions de fusion. C’est pourquoi cette opération
est toujours envisagée avec circonspection et n’a été planifiée que vers la fin
des programmes expérimentaux de TFTR et de JET. TFTR a fourni 10 MW de
fusion DT en 1993. Cette performance fut dépassée en 1997 par le JET avec
un résultat de 16 MW de fusion DT pour 25 MW de chauffage auxiliaire,
c’est-à-dire dépensés pour faire fonctionner la machine.
Quel chemin parcouru depuis les débuts ! Deux ordres de grandeur gagnés
sur le produit densité-temps et deux autres sur la température. Cependant,
les tokamaks construits jusqu’à aujourd’hui consomment toujours plus
d’énergie qu’ils n’en produisent.

Schéma de principe d’un tokamak :


a) le transformateur et sa cage ;
© ITER

b) surfaces magnétiques

Tokamak
La mise en œuvre du Tokamak commence par la réalisation d’un vide extrêmement poussé dans la chambre torique qui contiendra le plasma.
Puis on emplit la chambre du gaz désiré pour l’expérience (hydrogène, deutérium ou hélium) à la pression requise (quelques millitorrs, millièmes
de la pression atmosphérique). Les bobinages créant un champ magnétique de confinement et le champ de compensation sont alimentés en
courant quasi continu. On connecte alors le primaire du transformateur à un générateur d’impulsions. Le champ d’induction est suffisant pour
mettre en mouvement les quelques électrons libres toujours présents, les accélérer, puis par un processus d’avalanche provoquer l’ionisation du
gaz qui devient ainsi conducteur d’électricité, en obtenant une densité électronique de 1019 à 1020 m-3.
Pendant la montée du courant, le plasma s’échauffe progressivement par effet Joule. Il devient de plus en plus conducteur au point que dans
toutes les machines exploitées à ce jour, lorsque la température électronique atteint environ 2 107 K, la résistivité du plasma, excessivement faible,
se compare à celle des supraconducteurs. L’effet Joule est alors inopérant. Pour atteindre des températures plus élevées, il convient d’injecter de
l’énergie dans le plasma. Le tokamak est ainsi accompagné de systèmes de chauffage auxiliaires par arrosage avec des ondes électromagnétiques
de haute fréquence ou par injection de particules neutres que nous allons à présent expliquer.
Il a été relativement aisé de développer des générateurs de puissance adaptés aux fréquences en jeu. Il faut en effet que le plasma absorbe plusieurs
mégawatts de radiofréquences pour obtenir l’élévation de température désirée. Des antennes alimentées par des circuits haute fréquence ou des
guides d’ondes sont disposées à l’intérieur de l’enceinte à vide de façon à irradier le plasma selon les directions les plus favorables au chauffage. Un
autre usage des ondes est la génération non inductive de courant permettant de prendre le relais de l’impulsion envoyée dans le transformateur
et d’amorcer un régime quasi continu.
Autre procédé de chauffage du plasma : l’injection de particules neutres d’une énergie largement supérieure à l’énergie thermique du milieu dans
lequel elles pénètrent (en pratique 100 keV à 1 MeV) peut servir en plus à compenser les pertes de particules. Une bouteille magnétique étant
étanche dans les deux sens, il est nécessaire de rendre les ions électriquement neutres pour qu’ils puissent aller jusqu’au cœur du plasma, or on
ne sait accélérer que des objets chargés. Un dispositif de formation de faisceaux de particules neutres comporte donc successivement une source
d’ions dont le diamètre peut atteindre 1 m, un étage accélérateur, un étage de neutralisation et un dispositif pour l’élimination des ions résiduels.
En entrant dans le plasma, les neutres sont d’abord ionisés. Les ions ainsi formés vont céder leur énergie par collisions successives.
page 83

ÉLÉMENTAÍRE
ITER vers une future source d’énergie?
Vers ITER
Mis en service dans les années 80, les Tokamaks de troisième génération ont
donné leur pleine mesure dans les années 90. Les résultats obtenus ont été
utilisés pour préparer l’étape suivante : ITER.
À de rares exceptions près, les recherches sur la fusion ont été menées par
de grands organismes nationaux ou au sein de la structure européenne
Rapport Q
Euratom. L’augmentation de taille des machines entraînant celle de leur
La performance d’un tokamak
fonctionnant avec le mélange deutérium-
coût, le niveau de décision s’est élevé à proportion. Aux U.S.A. les décisions
tritium est donnée par le rapport Q de sur le choix de TFTR, sa construction puis sa fermeture ont été prises par le
la puissance de fusion à la puissance gouvernement fédéral tandis que la communauté européenne prenait à son
de chauffage fournie de l’extérieur. Ce compte le projet JET.
rapport s’est rapproché de l’unité dans Plus spectaculaire encore de ce point de vue fut le lancement du projet
le JET et devrait atteindre 10 dans ITER après la rencontre au sommet, tenue en Islande en 1986, entre Ronald
ITER pendant un temps court de 400 Reagan et Mikhaïl Gorbatchev. Comment mieux marquer le début d’une
secondes. ère nouvelle des relations entre l’Est et l’Ouest sinon par une entreprise
commune de longue haleine sur un objectif ambitieux – sans être vital à
court terme – et impliquant une réelle et permanente coopération ? La fusion
magnétique offrait une opportunité idéale.
Mais lorsqu’en 1998, le devis lui a été présenté en même temps que les
plans de la machine, le Comité Directeur du projet ITER a reculé devant
l’ampleur de la dépense : environ 7 milliards de dollars de l’époque,
sans garantie de non-dépassement, pour un allumage incertain. Peut-être
l’aurait-il approuvé si la prise de conscience par l’opinion de la menace
du changement climatique avait été au niveau actuel. D’un autre coté il ne
pouvait être question d’abandonner la filière Tokamak. C’eût été un énorme
et immérité constat d’échec, condamnant pour des décennies la voie du
confinement magnétique. Les progrès accomplis en 30 ans n’avaient mis
© JET

à jour aucune raison sérieuse d’agir ainsi. En particulier rien n’était venu
Intérieur du JET. contredire le bien fondé des lois d’échelle. Alors, les responsables se sont
ralliés à une demi-mesure. Les dimensions d’ITER ont été réduites par rapport
au projet initial de sorte que le volume du plasma n’est plus que 800 m3 au
lieu de 2 000. De même, la puissance de fusion attendue est abaissée à 500
MW contre 1-500 prévus
initialement. L’allumage,
Paramètres Tore Supra JET ITER DEMO qui permet l’auto-entretien
de la réaction sans recours
Grand rayon du plasma (m) 2.25 3 6.21 6.5 < R < 8.5 à des chauffages auxiliaires,
Petit rayon du plasma (m) 0.7 1.25 2.0 2<à<3 est reporté à des temps
Volume du plasma (m3) 25 155 837 > 1 000
meilleurs.
Courant plasma (MA) 1.7 5-7 15 > 20
Champ magnétique (T) 4.5 3.4 5.3 >5
On peut s’interroger sur
Durée du plasma 180 s 10 s > 300 s 1h la pertinence d’une telle
Type de Plasma D-D D-D / D-T D-T D-T démarche. Repartir pour un
Puissance thermonucléaire (Pth) ~ kW 50kW/ 16MW 500 MW > 2 GW tour dans ces conditions est-
Q = Pth / puissance de chauffage ~0 ~1 10 > 30 il de bonne politique ? Mais
Puissance neutronique au bord 20 W/m2 60 kW/m2 0.6 MW/m2 > 5 MW/m2 selon Paul-Henri Rebut,
directeur du JET et ancien
Tokamakologie comparée : les principaux chef de projet d’ITER, les
page 84

paramètres de Tore Supra, JET, ITER.

ÉLÉMENTAÍRE
ITER vers une future source d’énergie?
méthodes de travail et l’articulation des équipes étaient
mal adaptées à un projet aussi ambitieux. La machine
aux objectifs limités, aujourd’hui en construction, est
sans doute ce que l’on pouvait concevoir et réaliser
de mieux à l’époque.

ITER
La décision de construire ITER a été prise en 2003. © ITER
Le site, choisi en 2005 après une recherche menée
au niveau mondial, est situé en France en lisière
du Centre CEA de Cadarache (dans la vallée de la Vue éclatée d’ITER avec, en bleu, la
Durance) où est implanté depuis les années 1980 le tokamak Tore-Supra. Le silhouette d’une personne donnant une
premier plasma est prévu vers 2016. Puis une dizaine d’années s’écoulera idée de l’énorme taille de l’ensemble.
avant d’atteindre le fonctionnement à plein régime sous tritium.
Le projet vise un rapport Q (qui mesure le rendement de la machine) de
l’ordre de 10 pour une puissance de fusion DT de 500 MW pendant 400
secondes. Ce sera donc un banc d’essai à objectifs multiples avant l’étape
décisive de la production d’électricité.
Le dessin d’ITER (voir ci-contre) adopte une section méridienne en forme
de D (comme le JET) et intègre trois éléments majeurs : un solénoïde
supraconducteur, un divertor destiné à éliminer les produits de réaction
ainsi que les impuretés du plasma et enfin un dispositif de récupération
de l’énergie de fusion, la couverture. Les deux premiers éléments ont déjà
été expérimentés. Les supraconducteurs ont fait leurs preuves sur le Tore-
Supra, les divertors sur le JET et JT-60, après des premiers essais sur de
petits tokamaks. La couverture sera mise en œuvre pour la première fois.
Modulaire, ses éléments sont traversés par un fluide de refroidissement
dont la température ne dépassera pas 100 à 150°C en service normal ce
qui est insuffisant pour faire tourner une turbine couplée à un générateur
© ITER

Disposition de la couverture et du
divertor dans ITER. Les ions indésirables
sont guidés jusqu’à des absorbeurs par les
lignes de champs des surfaces magnétiques
ouvertes.
© ITER

Le site d’ITER à Cadarache avec les projets


des bâtiments de ITER dessinés
page 85

ÉLÉMENTAÍRE
ITER vers une future source d’énergie?
Du simple fait qu’il met en œuvre des
électrique. Certains de ces modules comporteront du lithium en vue de la
réactions nucléaires, ITER est source de régénération du tritium par réaction des neutrons sur les parois.
craintes. Au moindre incident, le plasma Réactualisée, la note à payer par l’ensemble des nations partenaires s’élève
très ténu se refroidit immédiatement et la à cinq milliards d’euros d’investissements jusqu’à la mise en service. Cinq
réaction est bloquée net. La crainte d’une autres milliards seront nécessaires pour 15 à 20 ans d’exploitation à partir de
explosion est donc totalement infondée. 2016, suivis du démantèlement de l’installation.
Quant au problème de la radioactivité, il
est sans commune mesure avec celui des
réacteurs à fission. Le tritium est bien
radioactif, mais les quantités manipulées
Après ITER ?
(avec des précautions renforcées par toute
Dans ses ambitions premières, ITER visait, à échéance 2010-2020, la
l’expérience acquise au JET) se comptent
en grammes. Par contre les neutrons de 14
démonstration de l’allumage de la réaction thermonucléaire confinée. Cela
MeV activent les matériaux de structure aurait constitué l’équivalent de ce que fut pour la fission la divergence de la
et cette radioactivité résiduelle perdure réaction en chaîne obtenue le 2 décembre 1942 à Chicago par Enrico Fermi.
après l’arrêt définitif de l’installation qui Dans le calendrier actuel, ce pas ne sera franchi qu’après 2030 avec un
ne sera donc démantelée qu’au bout de réacteur de démonstration, DEMO, destiné à produire de l’électricité. Tous
quelques décennies. Le site reviendra les aspects scientifiques et techniques de la filière tokamak auront été mis
alors à son état d’avant le chantier. à l’épreuve sur ITER, sauf un : la tenue des matériaux (notamment ceux de
la première paroi) au flux de neutrons de 14 MeV émis par le plasma en
réaction. Dans ITER, celui-ci est comparable à celui
rencontré dans un réacteur à fission à haut flux. Il
sera 10 fois plus important dans DEMO. Pour cette
raison, une installation spécifique, IFMIF (pour
International Fusion Material Irradiation Facility),
doit être construite au Japon pour un coût de l’ordre
de 15% des investissements du programme ITER.
Le flux de neutrons y sera créé par l’impact de
deutérons accélérés jusqu’à une énergie de 40 MeV
sur des cibles de lithium ou de béryllium.
DEMO, contemporain des réacteurs à fission de
quatrième génération, devrait donc apporter la
preuve expérimentale qui manque toujours : allumer
de façon contrôlée les réactions thermonucléaires.
Le construire et le faire fonctionner prendra du
temps, en plus du délai nécessaire à la prise de
© ITER

décision. Après seulement, il deviendra possible


d’envisager le passage au stade industriel, processus
Des tokamaks actuels (Tore Supra et JET) à qui, on le sait d’expérience, ne dure jamais moins d’une vingtaine d’années.
DEMO, ou comment se dessine l’avenir de la
Encore faudra-t-il que loin dans la seconde moitié du XXIe siècle, le réacteur
filière. Les encadrés recensent les principaux
objectifs de recherche relatifs à chaque étape.
à fusion soit compétitif par rapport aux autres sources d’énergie alimentant le
La mise en service de DEMO pourrait être réseau électrique.
contemporaine de la quatrième génération Sera-ce toujours un tokamak ? Peut-être. Mais si les efforts de recherche sur
des réacteurs à fission. la fusion ont été concentrés sur cette configuration, c’est parce qu’à la fin des
années 1960, elle était supérieure à toutes les autres. Rien ne dit qu’un siècle
plus tard il en sera toujours ainsi. D’autres configurations magnétiques, mais
aussi la voie inertielle (qui consiste à comprimer et à chauffer une très petite
masse de DT jusqu’à 10 000 fois la densité du liquide et à quelques keV de
température afin qu’elle explose) ou encore des réacteurs hybrides utilisant
la fusion et la fission pourraient représenter l’avenir de cette forme d’énergie
nucléaire.
page 86

ÉLÉMENTAÍRE
Échelle des distances
10-1 m = 0,1 m

Les puissances de dix


101m = 10 mètres

102 m = 100 m
© CERN

Dans le numéro 1 vous 103 m = 1000 m


avez «vu» une mouche de
© CERN

1 à 10-15 mètre, regardons


aujourd’hui dans l’autre
© CERN

sens.
104 m = 10 000 m

Quelques bâtiments
du CERN.
105 m = 100 000 m
© CERN

Une vue du CERN


106 m = 1000 000 m à l’altitude d’un
oiseau avec au

© CERN
centre le bâtiment du
Microcosm. Cette image recouvre
approximativement
© CERN

107 m = 10 000 000 m la même surface que le


plus grand accélérateur
de particules du CERN,
© CERN

le LHC, le grand
collisionneur de hadrons.
Le lac de Genève étale 108m = 1 00 000 000 m
clairement ses 1000
km2.
© CERN

1015 m = 1000 000


000 000 000 m 109 m = 1 000 000 000 m

1020 m = 100 000 000


© CERN

000 000 000 000 m

1022 m = 100 00 000


© CERN

© CERN

000 000 000 000 1026 m = 100 000


000 m 000 000 000 000 000
Notre système solaire 000 000 m La Lune en orbite
apparaît faiblement sur autour de la Terre.
© CERN

fond d’étoiles. Jamais un humain n’a


De 1014 m à 1019 m peu de voyagé plus loin.
changements.
C’est l’échelle de la plus grande
photo jamais prise, Chacun
© CERN

des 9325 points est une galaxie


semblable à la nôtre. Elles se
© CERN

Notre galaxie apparaît


rassemblent en paquets appelés
toute petite. Les Nuages
«superclusters» autour d’im-
de Magellan sont les
menses espaces vides pouvant
deux galaxies voisines à
page 87

atteindre une taille de 150


gauche de l’image.
ÉLÉMENTAÍRE millions d’années lumière.