Académique Documents
Professionnel Documents
Culture Documents
Numéro 7
Revue d’information scientifique
Quand l’Univers...
Solstice d’été 2009
...fait boum !
ÉLÉMENTAÍRE
De l’infiniment petit à l’infiniment grand
Pour ce septième numéro, nous quittons cette bonne crets, et il continue à fournir des informations précieuses
vieille planète Terre pour nous embarquer dans un voyage sur la structure de l’Univers primordial. Ainsi, la mission
à travers l’espace et le temps. En effet, Élémentaire se pen- Planck, lancée le 14 mai 2009 et décrite dans « Expérience
che aujourd’hui sur... notre Univers tout entier, son histoi- », va s’intéresser à des aspects encore méconnus du rayon-
re et ses grandes caractéristiques. C’est l’objet d’une vaste nement fossile qu’elle captera grâce à des appareils d’une
discipline, appelée cosmologie, qui est parvenue au cours grande sensibilité, les bolomètres, que nous décrivons dans
des dernières années – et ce n’est pas un petit succès – à « Détection ». On pourra ainsi tracer des cartes du ciel très
élaborer une vision cohérente de ces sujets, vision que précises décrivant les caractéristiques de ce rayonnement.
vous allez découvrir au fil de ces pages, en commençant Pour tirer de ces cartes des informations supplémentaires
par notre « Apéritif » ! concernant les caractéristiques de l’Univers primordial, il
Ainsi que nous vous le rappelons dans « Histoire », cette faut le plus souvent passer par des méthodes inspirées de
volonté d’expliquer le cosmos, l’ordre céleste qui nous la transformation de Fourier, un outil mathématique pré-
entoure, est profondément enracinée dans la nature hu- senté dans « Analyse ». À l’heure où la mission Planck
maine. Mais ce n’est qu’avec l’avènement d’une astrono- vient d’être envoyée dans l’espace, nous avons demandé
mie de précision et de la théorie de la relativité générale à Jean-Loup Puget, l’un des chefs d’orchestre de ce projet,
que la cosmologie moderne prend son envol au début du de nous parler dans l’ « Interview » de ce travail de longue
vingtième siècle. Elle a ensuite bénéficié des avancées de haleine, rassemblant des communautés très différentes de
la physique des constituants élémentaires de la matière physiciens et d’ingénieurs.
pour donner naissance à son propre modèle standard, que
nous décrivons dans « Théorie ». Tout commence il y a Nous aborderons aussi d’autres aspects de la cosmologie
environ 14 milliards d’années, avec le « Big Bang », une au fil de ce numéro. « Icpackoi » reviendra sur l’actualité
période où l’Univers très dense et très chaud connaît une de deux autres satellites d’observation, Fermi et Pamela,
expansion rapide. À mesure qu’il se refroidit et se dilue, tandis que « Centre » évoquera les différents sites où l’on
les premiers noyaux se forment , puis les premiers atomes, cherche actuellement à détecter des signaux d’un type
et enfin des nuages de gaz qui seront les berceaux des nouveau : les ondes gravitationnelles. Enfin, vous retrouve-
premières étoiles, galaxies, amas de galaxies.. pour fina- rez les deux rubriques récurrentes d’Élémentaire : « LHC »
lement aboutir à l’Univers que nous connaissons. Mais si vous parlera du démarrage mouvementé de la machine en
ce modèle décrit de façon satisfaisante les observations septembre 2008, tandis qu’ « Énergie nucléaire » évoquera
accumulées au fil des décennies, il possède aussi sa part le projet ITER dont l’objectif, à terme, est la production
d’ombre. En particulier sa composition énergétique com- d’énergie par fusion thermonucléaire.
prendrait environ 23% d’une matière sombre, assez mys-
térieuse et 72% d’une déroutante « énergie noire », que Du haut de ce numéro, 14 milliards d’années nous con-
nous examinons en détail dans la « Question Qui Tue ». templent ! De quoi vous laisser le temps de savourer votre
Fort heureusement, pour nous aider dans cette quête lecture, d’ici à la parution de notre prochain (et dernier)
de notre passé lointain, il existe un témoin privilégié de numéro. Il sera à nouveau consacré à la physique des par-
l’Univers primordial. En effet, nous sommes en mesure de ticules, et plus particulièrement, aux phénomènes (atten-
détecter un rayonnement fossile, remontant à 380 000 ans dus, espérés, supposés...) au-delà de notre vision actuelle
après le Big Bang. Si ce dernier (ou CMB) a été observé de la physique des particules. D’ici là, bonne lecture !
dans les années 1960, comme nous vous le rappelons
dans « Découverte », il est loin d’avoir livré tous ses se-
Revue d’information paraissant deux fois par an, publiée par : Élémentaire, LAL, Bât. 200, BP 34, 91898 Orsay Cedex
Tél. : 01 64 46 85 22 - Fax : 01 69 07 15 26. Directeur de la publication : Sébastien Descotes-Genon
Rédaction : N. Arnaud, M.-A. Bizouard, S. Descotes-Genon, L. Iconomidou-Fayard, H. Kérec, G. Le Meur, P. Roudeau, J.-A. Scarpaci, M.-
H. Schune, J. Serreau, A. Stocchi.
Illustrations graphiques : S. Castelli, B. Mazoyer, J. Serreau. Maquette : H. Kérec.
Ont participé à ce numéro : J.-L. Bobin, S. Digel (SLAC).
Remerciements : S. Plaszczynski, F. Cavalier (LAL) et nos nombreux relecteurs.`
Site internet : C. Bourge, N. Lhermitte-Guillemet, http://elementaire.web.lal.in2p3.fr/
Prix de l’abonnement : 3 euros pour le numéro 8 (par site internet ou par courrier)
Imprimeur : Imprimerie Louis Jean - 05300 Gap . Numéro ISSN : 1774-4563
Apéritif p. 4
L’archéologie cosmique :
reconstruire l’histoire de
ÉLÉMENTAÍRE
De l’infiniment petit à l’infiniment grand
Interview p. 14
Jean-Loup Puget
Théorie p. 59
Le modèle cosmologique standard
Centre de
recherche p. 19 La question qui tue p. 77
Observatoires d’ondes gravita- Combien pèse le vide ?
tionnelles
Détection p. 34
Bolomètres
Le LHC p. 67
Démarrage du LHC : le 10 septem-
bre 2008
Retombées p. 37 ICPACKOI p. 71
Le GPS GLAST : une nouvelle « star »
dans le ciel
PAMELA : alerte aux positrons !
ÉLÉMENTAÍRE
l’histoire de notre univers
13,7 milliards d’années
premières étoiles, etc. Au total 21 paramètres indépendants permettent Ce chiffre, souvent appelé, par abus de
de rendre compte de l’Univers observé à ce jour dans le cadre du modèle langage, « âge de l’Univers » est en fait le
standard de la cosmologie (voir « Théorie »). temps jusqu’auquel les mesures et la théorie
permettent de remonter. Il correspond à une
époque où l’Univers était si dense que les lois
La Terre est ronde... mais l’Univers est plat ! de la physique que nous avons découvertes
au cours de notre histoire ne constituent plus
Une caractéristique importante de l’Univers est son contenu énergétique, une description cohérente. En particulier si
on remonte plus avant le temps, on se heurte
qui détermine son évolution. De façon remarquable, il est possible de
à la « barrière de Planck », échelle d’énergie
déterminer la densité d’énergie totale de l’Univers sans pour autant avoir au-delà de laquelle les effets gravitationnels
une compréhension précise du détail de son contenu. On utilise pour cela et quantiques devraient être d’importance
un aspect fondamental de la théorie de la relativité générale : la présence comparable et où une théorie quantique de
d’énergie déforme l’espace-temps. C’est cette déformation, appelée la gravitation, encore manquante, devient
« courbure », qui est responsable de la force de gravitation dont nous nécessaire.
observons les effets dans l’Univers tout entier.
ÉLÉMENTAÍRE
L’archéologie cosmique : reconstruire
Rayonnement fossile En comparant avec la luminosité mesurée, on en déduit la distance.
Notre univers est empli d’un rayonnement
Diverses campagnes d’observations d’un grand nombre de supernova de
électromagnétique vestige de l’époque de
la formation des premiers atomes. Il s’agit type Ia proches et lointaines, comme le Supernova Cosmology Project
d’un rayonnement thermique à 2,7 K. et le High z Supernova Search ont permis de mesurer le taux d’expansion
de l’Univers ainsi que sa variation, c’est-à-dire le taux d’accélération (ou
de décélération) de l’expansion, avec un résultat inattendu : l’expansion
COBE et WMAP de l’Univers s’accélère ! Ce résultat, confirmé depuis par les mesures de
Ces deux expériences ont mesuré les WMAP, est surprenant. En effet, une des conséquences génériques des
anisotropies du rayonnement fossile de
équations de la relativité générale est que l’expansion devrait ralentir car
photons (ou CMB de son acronyme anglais
pour «cosmic microwave background») freinée par la gravitation, du fait de sa nature attractive. Tout se passe donc
datant de l’époque où l’Univers avait comme si la gravité devenait répulsive à grande échelle...
environ 380 000 ans (voir « Découverte »).
La cartographie de l’énergie du
rayonnement montre des régions plus ou Où l’on s’aperçoit... que l’on ne voit pas
moins « chaudes ». La relation entre la
taille réelle (supposée connue) d’une région grand-chose
chaude/froide et celle observée sur le ciel
dépend directement de la courbure spatiale Grâce aux observations, nous connaissons une grande partie des objets
de l’Univers. C’est ainsi que WMAP a qui peuplent l’Univers : planètes, étoiles, galaxies, amas de galaxies,
montré en 2006 que l’Univers est plat, et nébuleuses (gaz et poussière interstellaire), supernovæ (explosions d’étoiles
donc que sa densité énergétique est égale en fin de vie), rayonnement fossile, trous noirs, étoiles à neutrons, rayons
à la densité critique avec une précision de
cosmiques, sursauts gammas, quasars (noyaux actifs de galaxie)... Tous
l’ordre de 1%.
ces phénomènes ont été vus principalement par des télescopes optiques
(longueur d’onde visible ou dans l’infrarouge) terrestres ou spatiaux, ou
par des antennes (fréquences radio). Parmi les télescopes modernes qui
ont apporté beaucoup de nouvelles connaissances ces dernières années,
on peut citer le satellite Hubble, le plus grand radio-télescope du monde,
Arecibo, situé à Porto Rico, les satellites permettant des observations dans
la gamme des rayons gamma ou X (comme le Compton Gamma-Ray
Observatory et le Chandra X-ray Observatory), ou encore le Very Large
Telescope dans le désert d’Atacama au Chili.
© VLT
de la masse et est donc sensiblement la même pour toutes les supernovæ de type
Ia, indépendamment du mécanisme d’accrétion à l’origine de l’explosion. Cette
Une image (dans la gamme des rayons particularité remarquable fait de ces supernovæ des étalons lumineux qui permettent
X) des restes de la supernova de Tycho une mesure fiable de distance à partir de leur luminosité apparente sur Terre (qui
Brahé, qui explosa en 1572 dans la diminue comme le carré de la distance) : on parle de «chandelles standard ».
constellation de Cassiopée. Il s’agit
d’une supernova de type Ia.
page 6
ÉLÉMENTAÍRE
l’histoire de notre univers
Le Supernova Cosmology Project et le High z Supernova Search
Ce sont deux projets composés d’équipes internationales qui ont utilisé
pendant quelques années les mesures de supernova de type Ia faites par
plusieurs télescopes situés dans les grands observatoires (Chili, Hawaï,
Australie...) de par le monde. Les physiciens travaillant sur ces projets ont
d’abord montré que les supernovæ de type Ia ont la particularité d’avoir
toutes la même luminosité intrinsèque (flux de photons émis). Mesurer
leur luminosité apparente permet alors d’en déduire leur distance.
Ils ont par ailleurs mesuré le redshift des supernovæ. Le redshift, ou
« décalage vers le rouge » dû à l’effet Doppler (voir « Théorie »), permet
de déterminer la vitesse d’éloignement de la supernova. En comparant
la distance et le redshift, ils ont mis en évidence que les supernovæ les
plus distantes sont 20% plus lointaines que ce qu’elles devraient être si
l’expansion de l’Univers était celle attendue pour un Univers empli de
matière « ordinaire » soumise à une gravité « habituelle ».
ÉLÉMENTAÍRE
L’archéologie cosmique
Carte d’identité de l’Univers
Âge connu : 13,7 milliards d’années.
Évolution : après avoir subi une longue phase d’expansion ralentie, l’Univers
est aujourd’hui en expansion accélérée.
© NASA
ÉLÉMENTAÍRE
Histoire
Petite histoire de la cosmologie
Depuis ses premiers instants l’humanité s’est intéressée à la place de
l’homme et de son environnement dans l’Univers. D’abord à propos de
son lieu de vie proche : jusqu’où les paysages s’étendent ils ? Jusqu’où
un voyageur peut-il aller ? S’il y a une limite, l’explorateur téméraire qui
s’aventurera au-delà risque-t-il de tomber et si oui, où va-t-il atterrir ?
Les astronomes du monde antique suggèrent, dès le VIe siècle avant notre
ère, que la Terre est ronde en remarquant que l’étoile Canopus dans la
constellation de la Carène est observable depuis Alexandrie mais pas
DR
depuis Athènes. Une Terre plate comme une crêpe est alors exclue. Sa
forme sphérique est corroborée plus tard par Aristote au IVe siècle avant Après Sirius, Canopus est une des étoiles les plus
notre ère sur l’argument de l’ombre ronde que la Terre fait sur la Lune brillantes du ciel nocturne. Elle est de couleur
lors des éclipses de cette dernière. Le diamètre de la Terre est ensuite presque blanche et elle fait partie de la constellation
de Carina. Le télescope spatial Hipparcos a pu
évalué par Eratosthène. Malgré ces démonstrations, l’image d’une Terre
évaluer sa distance à 310 années-lumière.
en forme de disque plat persiste pendant plusieurs siècles : au XVe siècle,
lors des longues années pendant lesquelles Christophe Colomb a cherché
des mécènes pour financer le voyage qui lui permettrait de rejoindre les
Indes en naviguant vers l’ouest, il a dû combattre des récalcitrants encore
adeptes d’une Terre plate et finie, dont il serait impossible de faire le
tour.
Inclinaison de l’écliptique : comme toutes les planètes de notre système
solaire, la Terre tourne autour du soleil suivant une orbite dont le plan
est appelé écliptique. L’axe de la Terre passant par ses deux pôles n’est pas
perpendiculaire à ce plan mais fait un angle appelé « obliquité » ou inclinaison
de l’écliptique. C’est cette inclinaison qui est responsable de l’existence des
saisons dans toutes les régions tempérées du globe.
Ératosthène naît en 276 avant notre ère à Cyrène (aujourd’hui Shahat en Lybie). Philosophe
aux nombreux talents, ses travaux concernent de multiples domaines. Il étudie l’histoire,
l’astronomie, les mathématiques et la géographie dont on lui attribue la paternité du nom.
Ératosthène est le premier à mesurer le diamètre de la Terre en la supposant sphérique.
En comparant les différences d’ombre à Assouan et à Alexandrie le jour du solstice d’été, il
remarque une différence : tandis qu’à Assouan à midi pile, le soleil semblait être à la verticale
au dessus d’un puits, dans lequel il n’y avait aucune ombre, au même moment, l’obélisque de
la ville d’Alexandrie portait encore une ombre sur le sol. Par des calculs de trigonométrie,
Ératosthène démontre que cette ombre s’expliquerait par des rayons solaires faisant un angle
de 7,2 degrés avec l’obélisque. Deux solutions lui apparaissent alors possibles : soit la Terre
est plate et le Soleil suffisamment proche de sorte que ses rayons soient encore divergents
dans notre environnement proche. Soit, le Soleil est très éloigné et ses rayons nous arrivent
parallèles mais alors dans ce cas, la Terre doit être courbée. Bien évidemment convaincu
du talent des architectes d’Alexandrie, il négligea la possibilité que l’obélisque soit planté de
travers. Afin d’évaluer la circonférence correspondante à cette courbure il mesure la distance
entre Assouan et Alexandrie en comptant le temps qu’un chameau met pour la parcourir
(ou alors serait-ce un dromadaire ?). Connaissant cette distance (787,5km) et l’angle de 7,2
degrés, il conclut que la Terre fait environ 40000 km de circonférence (la valeur exacte étant
40075 km à l’équateur!). Résultat remarquable lorsqu’on imagine les incertitudes possibles de
ces mesures. Décidément, la chance était avec lui.
Ératosthène est aussi un astronome passionné et doué. Il établit un catalogue d’environ 680
étoiles et il est le premier à démontrer l’inclinaison du plan de l’écliptique de la Terre et à
mesurer sa valeur qui est actuellement de 23,51 degrés. Il s’intéresse aussi à la chronologie
et tente par exemple de déterminer les dates des principaux événements historiques depuis
© B. Mazoyer
la chute de la ville de Troie. En 240 avant notre ère, Ptolémée III pharaon d’Egypte nomme
Ératosthène directeur de la Bibliothèque d’Alexandrie et lui confie le poste de précepteur de
son fils. Il meurt à Alexandrie en l’an 195 avant notre ère.
page 9
ÉLÉMENTAÍRE
Claudius Ptolemaeus (90-168) – connu
sous le nom de Ptolémée - est un astronome Quant à la position de la Terre dans le ciel, nul
mathématicien et géographe grec qui vécut doute chez nos ancêtres de l’Antiquité : elle occupe
en Egypte au second siècle de notre ère.
le centre de l’Univers et les étoiles tournent autour,
En plus de ses recherches en géographie,
il rédige son œuvre majeure, l’Almageste, puisqu’on les voit défiler au long des saisons.
document qui récapitule toutes les Cette affirmation s’accorde parfaitement avec une
connaissances en astronomie de l’Antiquité, place privilégiée pour l’Homme : dans nombre de
rassemblées à travers les mondes babylonien croyances, l’Univers est le royaume de l’Homme
et grec sur plus de huit siècles. C’est dans créé par un Être Supérieur pour le loger. L’Homme
ce même livre que Ptolémée propose un se trouve, par sa création, placé tout naturellement
système solaire géocentrique, avec la Terre au centre de ce décor. Cette vision géocentrique
immobile au centre de l’Univers. Ce modèle du système solaire décrite par Ptolémée au second
a prévalu dans le monde occidental et arabe
DR
ÉLÉMENTAÍRE
Petite histoire de la cosmologie
Avec sa lunette, il découvre en 1609 les lunes de Jupiter qui l’incitent
à penser qu’il peut exister de nombreux systèmes de planètes ou de
soleils accompagnés de satellites qui tournent autour. Il parle alors de
la possibilité de l’existence d’une pluralité de mondes habités, exprimée
pour la première fois quelques années plus tôt par Giordano Bruno.
Durant la même période, Johannes Kepler utilise les observations précises
de Tycho Brahé pour rédiger des lois qui formalisent mathématiquement
DR
le mouvement des astres. L’idée de la trajectoire circulaire parfaite se Cathédrale de Fronbork, située au bord de
trouve mise de côté : les planètes suivent des trajectoires elliptiques. Mais la mer Baltique où Copernic était nommé
l’héliocentrisme trouve un adversaire farouche en l’Église catholique qui chanoine. Sa tombe y a été identifiée en
met cette théorie à l’index comme remettant en cause la place privilégiée 2008, grâce à des comparaisons de l’ADN des
de l’homme dans l’Univers, dogme central de la Création. ossements avec 2 cheveux retrouvés dans son
livre Calendarium Romanum Magnum.
planètes se meuvent sur des trajectoires imbriquées entre les Soleil en un de ses foyers. Ce
deux polyèdres autour du soleil. dessin n’est pas à l’échelle car le
Ce livre a fait connaître Kepler aux autres astronomes contemporains, en particulier à foyer de l’ellipse est en pratique
Tycho Brahé qui travaillait à l’époque à Prague. En 1600, Kepler est en danger à cause de très proche du centre. Pour la
ses convictions religieuses et coperniciennes, et il se réfugie à Prague, invité par Tycho. Terre, le foyer ne s’en écarte
Celui-ci lui demande de calculer la trajectoire de Mars pour laquelle il avait observé un que de moins de 2% du rayon
comportement anormal. C’est là que Kepler utilise toutes les données observationnelles de orbital.
Brahé et va au-delà de son contrat en découvrant, en 1609, ses deux premières lois régissant
le mouvement des planètes. Sa troisième loi sera annoncée plus tard en 1618, dans un livre
intitulé « L’harmonie des mondes », tentant de réconcilier les observations astronomiques
et les lois mathématiques. Les trois lois sont :
1) les planètes décrivent des trajectoires elliptiques dont le Soleil est l’un des foyers. L’ère
des trajectoires circulaires est alors finie.
2) elles balayent des aires égales pendant des durées de temps égales.
3) le carré de la période de révolution T d’une planète est proportionnel au cube du demi
grand axe de sa trajectoire elliptique.
Ce sont ces trois lois qui ont inspiré Newton pour étudier la force que le Soleil exerce sur les
planètes et pour proposer sa loi sur la gravitation.
Kepler a par ailleurs produit d’important travaux sur l’optique, les miroirs et le
fonctionnement de l’œil humain. D’autre part, il publie une étude sur l’explosion d’une La seconde loi de Kepler
supernova en 1604. En géométrie, il énonce une conjecture concernant l’empilement implique qu’une planète se
optimal des sphères, dont la démonstration faite par l’américain Thomas Hales en 2003 mouvant sur cette trajectoire
n’est pas encore acceptée par tous les experts. Vivant en des temps fortement troublés, balaie les trois aires bleues, de
il consacre six années de sa vie à défendre sa mère accusée de sorcellerie et réussit à même surface, pendant des
l’innocenter. temps égaux.
page 11
ÉLÉMENTAÍRE
Petite histoire de la cosmologie
Les aberrations des étoiles
Par ce mot on caractérise le déplacement
Au XVIIe siècle Newton identifie la force de gravité comme étant à l’origine
apparent d’une étoile sur la sphère
céleste vue par un observateur sur Terre.
du mouvement des astres et donne une première preuve mathématique de
Au XVIIIe siècle, les astronomes ne la position centrale du soleil. Les aberrations des étoiles mesurées au XVIIIe,
comprennent pas le mouvement elliptique démontreront définitivement que c’est la Terre qui tourne autour de son
similaire pour des groupes d’étoiles étoile.
proches dans le ciel pour l’observateur. En Avec le raffinement des techniques d’observations astronomiques et la mesure
1727, le britannique James Bradley trouve des distances d’étoiles lointaines, c’est à partir du XVIIIe siècle que le système
la solution de ce comportement curieux. solaire apparaît comme un bout infime d’une galaxie — la Voie Lactée —
Il explique le phénomène comme étant qui pourrait contenir des millions de systèmes semblables. L’héliocentrisme
dû au mouvement de la Terre - et donc de
tombe alors définitivement dans les oubliettes. On commence à réfléchir
l’observateur- autour du Soleil.
Pour mesurer la direction d’une
aux mécanismes qui pouvaient avoir donné naissance à toute la richesse
étoile il faut déterminer le passage des de l’Univers. La cosmologie tend à devenir purement scientifique, en se
rayons lumineux en deux points d’un détachant progressivement des influences des cosmogonies religieuses et en
instrument d’optique. Or la lumière met cherchant des explications rigoureuses, plutôt mathématiques et physiques
un certain temps pour passer d’un point que métaphysiques.
à l’autre pendant lequel le second point La période la plus fertile pour la cosmologie commence avec le vingtième
s’est déplacé à cause du mouvement de siècle où la relativité générale d’Einstein sonne le début d’une ère nouvelle. Ce
l’observateur. L’étoile est alors observée sont les étapes les plus déterminantes de cette période que nous allons relater
selon une direction apparente qui diffère
dans les rubriques de ce numéro.
de la direction réelle par un angle d ’ordre
v/c où v et c sont les vitesses respectives
de l’observateur et de la lumière.
Pour le mouvement annuel de la Terre
sur son orbite, v est de l’ordre de 30 km/ Giordano Bruno (1548-1600) est un philosophe et théologien
s ce qui donne une variation angulaire italien.
de 20,5’’ d’arc. Cette valeur dépend des Il entre dans les ordres dominicains au couvent de San
directions respectives de l’étoile et du Domenico Maggiore à Naples, où il est très remarqué parce
mouvement de l’observateur. Si elles sont qu’il mène une vie en parfait accord avec ses convictions
alignées, il n’y a pas de décalage. humanistes. Après une thèse sur la pensée de Thomas
d’Aquin, il penche fortement pour la métaphysique et
s’éloigne des usages ecclésiastiques : il enlève les images
saintes de sa cellule et il réfute le dogme de la Trinité ce qui lui
vaut rapidement les foudres des dominicains. Il abandonne
les ordres et il étudie le droit, le latin et la philosophie. Il fuit
l’Italie et il vit en France, en Angleterre puis à Genève où
il intègre la communauté luthérienne. Partout où il passe il
impressionne par son esprit brillant tout en se faisant rejeter
par les églises officielles : en 1588, il est excommunié par
Statue de Giordano l’Église luthérienne.
Bruno sur la place Il rentre alors en Italie et il s’intéresse aux idées de Copernic. Il
Campo dei Fiori à démontre la place centrale du Soleil autour duquel les planètes
Rome, lieu de son se meuvent. Il soutient l’existence de myriades de systèmes
supplice. semblables au nôtre, tournant autour des étoiles qui brillent
dans le ciel, et habités par des êtres de Dieu. Il s’intéresse à
d’autres sujets, comme la mnémotechnique, la magie et la métempsychose. Ces activités,
considérées comme blasphématoires, lui valent d’être dénoncé et livré à l’inquisition
en 1592. Il est alors transféré à Rome dans les prisons du Vatican. Son procès durera
8 années au long desquelles il est tenté de se rétracter à plusieurs reprises, sans jamais
finalement renoncer à ses convictions. Il est finalement condamné et il sera brûlé vif le
17 février 1600 sur le bûcher installé à la place Campo dei Fiori à Rome.
page 12
ÉLÉMENTAÍRE
Petite histoire de la cosmologie
Selon les époques et les lieux, dans la plupart des croyances à travers les siècles, l’Univers et
l’Homme sont créés par l’action d’êtres, d’animaux ou d’esprits. Quelques exemples : les Titans
(chez les Grecs), des hommes-animaux (en Egypte), des plantes sacrées (pour les mythologies
nordique et philippine), le rêve (chez les aborigènes d’Australie) et Dieu, Yahvé ou Allah dans les
religions monothéistes. Dans de nombreux récits, on retrouve les mêmes étapes : le Monde naît
à partir du néant, il est suivi de l’apparition du temps, de la lumière de l’espace et de la matière.
La Terre est créée avec le feu, l’eau, et l’air pour remplacer le chaos primordial. La vie apparaît et
l’Homme vient à la fin, comme œuvre ultime de la création. Suivant l’endroit et la culture, cette
cosmogonie (en grec la naissance du monde) peut être précédée de luttes fratricides entre les
êtres primordiaux. Il arrive aussi que le sort de l’Univers soit cyclique, lié à l’état d’éveil d’un être
sacré : l’hindouisme raconte que, lorsque Brahma s’éveille, le monde se forme pour se détruire
quand il se rendort, ce qui, heureusement, n’arrive pas très souvent !
Souvent, des événements cataclysmiques viennent interrompre la vie sur Terre qui ne reprend que
grâce à quelques survivants, comme dans la mythologie gréco-romaine et l’Ancien Testament.
Les mythologies maya et aztèque reprennent cette idée : leurs dieux détruisent régulièrement le
monde et recommencent la création à partir de zéro.
Selon le chapitre de la Genèse dans la Bible, le monde aurait été créé en 6 jours par la volonté
© VLT
d’un être divin unique. Ce Dieu, en malaxant de la terre glaise et en lui insufflant la vie a donné
naissance à Adam, le premier homme, l’être le plus parfait de toute la Création. La Genèse décrit L’arbre cosmique nommé Yggdrasil,
alors la descendance d’Adam et de sa femme Ève, jusqu’à l’époque du règne du roi Salomon. assurant l’existence des mondes selon la
Toutes les générations y sont citées. Ainsi, pour les Juifs croyants, nous sommes actuellement en mythologie scandinave.
l’an 5769 de la Création.
Les monothéistes ont préservé la notion de création pendant plusieurs siècles et l’ont défendue
souvent avec acharnement. Au cours des dernières décennies, l’argumentation et les preuves
scientifiques du modèle cosmologique standard ont été acceptées par de nombreux croyants qui
voient dans l’idée du Big Bang le doigt d’un Être Suprême. Quelques courants extrêmes comme les
« créationnistes » ou –plus récemment – les partisans du « dessein intelligent » persévèrent dans
les croyances d’un Univers mû par une force divine et refusent l’évolution des espèces vivantes.
Dans la cosmogonie chinoise, l’univers est contrôlé par deux forces qui ont suivi le souffle
initial, le Yin et le Yang. L’importance relative de ces forces antagonistes varie avec le temps.
Le Yin et le Yang sont souvent représentés comme la dualité de toute chose. On attribue au Yin
des caractéristiques féminines tandis que le Yang constitue plutôt le côté masculin de la réalité.
Suivant les croyances chinoises le Ciel était associé à un cercle et la Terre est carrée. La Chine se
trouve alors au centre de ce carré, d’où l’appellation d’empire du Milieu.
page 13
ÉLÉMENTAÍRE
Interview
Jean-Loup Puget
Qu’est-ce qui vous a amené à faire de la recherche ?
Je venais d’un lycée technique et après le baccalauréat, j’avais l’objectif
de rejoindre une école d’ingénieur. En discutant autour de moi, j’ai
commencé à avoir une petite idée du monde de la recherche, et je me suis
dit que finalement, ça me plairait assez d’en faire... Après les concours,
j’avais le choix entre l’École des Mines et l’École Normale Supérieure de
Cachan. C’est à ce moment que j’ai eu envie de faire de la recherche !
© Élémentaire
ÉLÉMENTAÍRE
Jean-Loup Puget
Comment avez-vous abordé la cosmologie ? Éléments chimiques
Lors du Big Bang, les conditions intenses
En DEA, je suis tombé par hasard sur un polycopié sur le Big Bang, de densité et de température ont permis
l’histoire thermique de l’Univers, la nucléosynthèse... J’ai été en de produire certains éléments chimiques
particulier frappé par le fait que des prédictions théoriques ont été faites légers, en particulier le deutérium, l’hélium
dans ce domaine très longtemps à l’avance, sur la base d’arguments et le lithium. Il s’agit de la nucléosynthèse
théoriques solides, mais qui allaient bien au-delà de ce qu’on avait primordiale. Les proportions de ces
observé à l’époque. Et jusqu’à maintenant, on a pu vérifier beaucoup de éléments ont ensuite été modifiées par les
générations d’étoiles qui se sont succédé au
ces prédictions avec une grande précision. C’est en particulier le cas du
cours de l’histoire de l’Univers, et qui ont
rayonnement fossile (voir « Découverte ») : certains éléments chimiques utilisé certains de ces éléments légers pour
n’ont pas pu être produits dans les étoiles. Cela doit venir d’une époque en produire des plus lourds. Toutefois,
où l’Univers était suffisamment dense et chaud pour produire ces on peut observer des objets très anciens
éléments. Si une telle époque a existé, un témoignage doit rester sous la (comme les quasars) ou des objets où ces
forme d’un rayonnement fossile avec des caractéristiques bien précises : phénomènes n’ont guère eu lieu (comme
un spectre de type « corps noir », une isotropie presque parfaite, de les galaxies naines) pour déterminer la
légères anisotropies présentant des corrélations particulières. C’est une proportion des éléments légers juste après
série que je trouve très impressionnante. Pour que tout cela marche, il la nucléosynthèse primordiale.
faut faire des hypothèses assez fortes... et, justement, les expériences
ont progressivement confirmé toutes ces hypothèses, avec les ballons-
sondes, puis WMAP.
Inflation
Il s’agit d’une période d’expansion
Je trouve que c’est une caractéristique extrêmement frappante, dans extrêmement rapide (quasi- exponentielle)
la cosmologie physique que l’on pratique depuis ces trente dernières qui se serait produite au tout début de
années. Avec Planck, je sens que je travaille exactement dans cette lignée, l’histoire connue de l’Univers. Elle permet
pour confirmer les modèles proposés, en particulier l’inflation. On a pour d’expliquer certaines caractéristiques de
l’instant d’excellentes raisons théoriques pour proposer l’inflation, mais notre Univers actuel (voir « Théorie »).
on n’a pas encore trouvé de preuve irréfutable... J’aime travailler sur ce
type de sujets où on doit débroussailler un terrain mal connu et faire les
premières mesures. J’y trouve mieux ma place que sur des aspects plus
théoriques pour lesquels je n’ai pas une approche assez « formelle » !
le rayonnement gamma.
ÉLÉMENTAÍRE
Jean-Loup Puget
Le télescope ISO m’a également marqué. On devait atteindre une certaine
sensibilité pour observer des galaxies qui émettent majoritairement dans
l’infrarouge et déterminer leur nombre en fonction de leur distance. Les
prédictions qu’on faisait sur la sensibilité du satellite étaient souvent basées
sur des estimations où des incertitudes peuvent facilement multiplier ou
diviser le résultat par 10... Et là, on a obtenu précisément la sensibilité
prévue. Cela aussi m’a frappé et m’a convaincu qu’en travaillant bien, on
pouvait fabriquer des expériences avec les spécifications désirées.
Maintenant, ces tests sont finis, et nous travaillons surtout sur le traitement
des données – nous avons lancé une grosse simulation qui représente un
an de données, pour tester la qualité de notre analyse des observations
de Planck. [ndlr : cette interview a été réalisée avant le lancement du
satellite Planck.]
ÉLÉMENTAÍRE
Jean-Loup Puget
Lentille gravitationnelle
fossile, qui permet de contraindre les paramètres des modèles théoriques Selon la théorie de la relativité géné-
[ndlr : voir « Expérience »]. On parle déjà d’expériences postérieures à rale, un rayon lumineux qui passe
à proximité d’un objet très massif,
Planck sur ce sujet, en Europe et aux États-Unis, mais on attend d’avoir
comme une galaxie, voit sa trajectoire
plus d’informations de Planck même avant de lancer ces projets. déviée. Cet effet peut provoquer des
mirages gravitationnels : l’image que
Plus généralement, en cosmologie, le plus urgent, ce sont les expériences nous voyons d’un source lumineuse
qui « regardent » la nature de l’énergie noire, en étudiant la distribution lointaine est déformée voire dupliquée
des galaxies. Cette énergie noire produit une accélération de l’expansion par la présence d’un objet massif entre
de l’Univers qui affecte la distribution des galaxies. On étudie cette elle et nous. Ce phénomène permet de
distribution avec les observations des explosions de supernova et surtout repérer des objets massifs, même peu
avec les effets de lentilles gravitationnelles. Actuellement, il y a un débat lumineux.
sur le partage des tâches entre les mesures au sol et l’observation spatiale
pour ces expériences.
De mon point de vue (cosmologique !), les signes d’une physique au-delà
du Modèle Standard en physique des particules, une voie vers l’unification
avec la gravité. Je pense également à la supersymétrie, car elle fournirait
un candidat pour la matière noire. Quant à trouver le boson de Higgs, ce
n’est pas la question la plus importante de mon point de vue, même si
c’est évidemment un problème central de la physique des particules.
ÉLÉMENTAÍRE
Jean-Loup Puget
Qu’aimeriez-vous dire aux jeunes ?
ÉLÉMENTAÍRE
Centre de recherche
Observatoires d’ondes gravitationnelles
L’espace-temps est un des concepts
La théorie de la Relativité Générale, publiée par Einstein en 1915, stipule majeurs introduits par la théorie de la
que les masses courbent l’espace, ce qui modifie les trajectoires des corps Relativité Restreinte, publiée en 1905 par
passant à proximité. Un objet (par exemple une étoile) en mouvement Albert Einstein. Ces travaux montrent que
le temps n’est pas absolu et que, tout comme
accéléré (c’est-à-dire non rectiligne uniforme) provoque des variations
les trois coordonnées d’espace, il dépend du
de cette courbure qui se propagent à la vitesse de la lumière comme des référentiel choisi, c’est-à-dire du « point de
vagues à la surface de l’eau : ce sont les ondes gravitationnelles. Lors vue » utilisé pour observer un phénomène.
du passage de telles vibrations, l’espace-temps se déforme : distances et Pour passer d’un référentiel à un autre, il
durées se contractent puis se dilatent – ces oscillations se poursuivent tant faut procéder à un changement de variables
que la perturbation est présente qui mélange coordonnées spatiales et
temporelle. L’espace et le temps forment
Si n’importe quelle masse accélérée génère des ondes gravitationnelles, donc un tout, judicieusement appelé...
celles-ci sont extrêmement ténues. Seuls des objets très massifs et de l’espace-temps !
grande compacité peuvent produire un signal potentiellement détectable
avec les technologies actuelles. Aucune source d’origine terrestre
DR
n’entrant dans cette catégorie, les scientifiques n’ont d’autre choix que
« d’écouter » le cosmos à la recherche de ce rayonnement qui, bien que
prédit il y a plus de quatre-vingt dix ans maintenant, échappe toujours aux
observations directes. Notons cependant qu’avec la découverte en 1974
du premier pulsar binaire et son suivi depuis lors, les physiciens possèdent
une preuve indirecte de l’existence des ondes gravitationnelles.
La recherche des ondes gravitationnelles a démarré il y a près d’un demi- Albert Einstein (1879-1955)
siècle. Elle a pris un tournant important dans les années 1990-2000 avec Karl Schwarzschild (1873-1916)
la construction de plusieurs observatoires dédiés, aux États-Unis (LIGO),
en Europe (Virgo et GEO) et au Japon (TAMA). Ces centres abritent des
détecteurs de grande taille – de l’ordre du kilomètre – que nous allons Comment devient-on un trou noir ? Il suffit
de concentrer sa masse dans un « petit »
décrire en détail dans la suite de cet article. Leur développement, parfois
volume. L’objet ainsi obtenu a alors une
ralenti par la complexité et la nouveauté de leur appareillage, est continu. forte compacité. La Relativité Générale
Ils apparaissent donc aujourd’hui comme les meilleurs candidats pour quantifie cette idée en introduisant un
relever le défi de la découverte des ondes gravitationnelles à l’échelle de rayon limite, le rayon de Schwarzschild
quelques années. RS, dimension en-dessous de laquelle une
masse M s’effondre en trou noir, un objet
duquel rien ne peut s’échapper, pas même
Objet Densité ρ Rayon de Compacité un photon, pourtant de masse nulle :
(kg/m3) Schwarzschild RS C = RS/R RS = 2GM / c2,
Proton 5 × 1017 2 × 10-54 m 10-39 où G est la constance de Newton et c la vi-
tesse de la lumière dans le vide. Le facteur
Terre 5 × 1013 9 mm 10-10 numérique 2G / c2 ~ 10-27 m/kg. Le rayon
limite RS est donc (très) petit même pour
Soleil 103 3 km 10-6 un corps aussi massif qu’une planète ou
Étoile à neutrons 1018 4 km ≈ 0,4 qu’une étoile. Le rapport C = RS / R (R étant
la dimension caractéristique du corps),
Trou noir super- 1 (soit mille 3 milliards de 1 compris entre 0 et 1, fournit une mesure
massif au centre fois moins que kilomètres de compacité. La valeur maximale C = 1
de M87 (galaxie l’eau !) correspond au cas d’un trou noir. Pour dif-
d’Andromède) férents objets on peut comparer la compa-
cité et la densité ρ (c’est-à-dire le rapport
entre masse et volume). Intuitivement,
« compact » et « dense » ont l’air d’être des
notions voisines, voire synonymes. En fait
ce n’est pas le cas : on peut être compact
sans être dense (un trou noir galactique) et
page 19
ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
L’existence des ondes gravitationnelles a été établie expérimentalement à la fin des années 1970 grâce à la découverte du premier pulsar dans
un système binaire par Joseph Taylor et son étudiant Russel Hulse – tous deux lauréats du Prix Nobel en 1993.
Un pulsar est une étoile à neutrons en rotation ultra-rapide sur elle-même (plusieurs tours par seconde) et entourée d’un fort champ
magnétique. La plupart de ces pulsars sont les restes d’explosions d’étoiles massives en fin de vie (supernova). Ils émettent un rayonnement
électromagnétique détecté sur Terre sous la forme d’une pulsation extrêmement courte mais répétitive – d’où leur nom. Le premier pulsar a
été découvert en 1967 par Antony Hewish et son étudiante Jocelyn Bell-Burner à l’aide d’un radiotélescope basé à Cambridge.
Le pulsar PSR 1913+16 découvert en 1974 par Hulse et Taylor a une période moyenne de 59 ms. Moyenne, car celle-ci peut augmenter ou
diminuer de 80 μs sur une journée, une propriété remarquable puisque les plus grandes variations observées jusqu’alors sont de seulement
10 μs sur ... une année. Quelques mois de prise de données montrent que cette variation est due au mouvement du pulsar autour d’un
« compagnon » (une autre étoile à neutrons dans ce cas précis). La vitesse orbitale du système double est de 495 km/s, (soit environ 0,002 fois
la vitesse de la lumière : sa dynamique est affectée par des corrections relativistes) pour une période d’environ 8 heures.
Cette découverte apparaît immédiatement, aux yeux de nombreux spécialistes comme un objet unique pour mettre à l’épreuve la Relativité
Générale. En effet, celle-ci prédit qu’un tel système binaire d’astres compacts doit émettre des ondes gravitationnelles et perdre de l’énergie.
Du fait de leur attraction gravitationnelle, les étoiles se rapprochent très progressivement dans un mouvement en spirale, jusqu’à atteindre une
distance critique en dessous de laquelle elles se précipiteront l’une vers l’autre. Dans le cas de PSR 1913+16, tous les paramètres du mouvement
ont été mesurés de manière extrêmement précise grâce au suivi continu du rayonnement du pulsar depuis plus de 30 ans. En prenant en
compte tous les effets relativistes, la mesure de la variation de la période orbitale du système due à l’émission d’ondes gravitationnelles est en
accord avec la prédiction théorique avec une incertitude de moins de deux pour mille.
Depuis cette découverte, une dizaine d’autres pulsars binaires ont été découverts et quatre sont utilisés pour tester la Relativité Générale,
avec succès jusqu’à présent.
ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
Rainer Weiss. Celui-ci démontre la faisabilité d’un tel Événements astrophysiques violents
instrument dans un article ; la même année, Robert Une « bonne » source d’ondes gravitationnelles est un astre massif et compact
Forward construit le premier prototype. qui relâche beaucoup d’énergie d’un coup – seule une faible fraction est
convertie en ondes gravitationnelles. Une telle émission peut se produire
Au cours des décennies suivantes plusieurs pays lors de certains phénomènes astrophysiques violents.
se lancent dans la construction d’interféromètres ● La coalescence de deux astres compacts (rencontre de deux étoiles à
kilométriques pour détecter les ondes neutrons et/ou trous noirs) ; c’est par exemple ainsi que finira le pulsar
binaire PSR 1913+16 dans 300 millions d’années ! Actuellement séparés
gravitationnelles : l’Allemagne, l’Australie, les États-
de plusieurs millions de km, les deux étoiles compagnons se rapprochent
Unis, la France, l’Italie, le Japon et le Royaume-Uni. d’environ 1 cm par jour.
Ces détecteurs sont constitués d’une part de miroirs ● Une supernova de type II : l’explosion d’une étoile massive dont le
de quelques dizaines de kilogrammes que l’on isole cœur s’effondre sur lui-même une fois son carburant nucléaire épuisé.
au maximum de toute source de vibrations et d’autre Malheureusement, le signal produit est si faible que seule une supernova
part d’un faisceau laser ultra-stable qui parcourt les située dans notre Galaxie pourrait être détectée ; comme le taux de ces
deux bras de l’interféromètre avant d’interférer et événements est d’environ un tous les trente ans, il convient de se montrer
de produire le signal finalement observé. Leurs sites patient.
sont choisis en raison de leur étendue, des bonnes ● Des trous noirs ou des étoiles à neutrons créés depuis peu et qui, comme
des enfants un peu turbulents, « s’agitent dans tous les sens » en émettant des
propriétés sismiques du sol et de leur éloignement
ondes gravitationnelles. En se désexcitant ils retournent en fait à l’équilibre.
de toute activité humaine (afin de réduire les bruits ● Par ailleurs, il semble de plus en plus probable aux yeux des astrophysiciens
anthropiques), mais concilier tous ces éléments n’est que les sources de Gamma Ray Bursts (GRB) ou « sursauts gamma » (voir
pas toujours facile. « ICPACKOI » sur le satellite Fermi-GLAST) émettent aussi des ondes
gravitationnelles ; ces sources seraient des supernovæ pour les GRB longs et
la coalescence d’étoiles à neutrons ou de trous noirs pour les GRB courts.
ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
Les expériences LIGO, à Hanford (état de
Washington ; photo de gauche) et Livingston
(Louisiane ; photo de droite). Ces photos
aériennees montrent les bâtiments centraux
des interféromètres qui contiennent la source
laser, la plupart des miroirs et le système de
détection du signal. On voit également l’un
des deux bras en entier (4 km de long) ainsi
que le début du second, partant à angle
© LIGO
droit.
Aux États-Unis, le projet LIGO regroupe trois détecteurs géants dans deux
sites séparés de quelques 6000 kilomètres. Le premier, situé à Hanford dans
© LIGO
ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
Schéma d’un interféromètre de
Michelson avec miroirs suspendus – un
« Virgo » ou un « LIGO » simplifié en
quelque sorte.
© Élémentaire
quelques dizaines de hertz. En
Interféromètre de Michelson
dessous de ce seuil, ces oscillations Un interféromètre de Michelson est un appareil composé de deux « bras » avec :
ne sont plus réduites et Virgo ● une source lumineuse, par exemple un laser ;
comme LIGO deviennent aveugles : ● un miroir particulier, la lame séparatrice qui, comme son nom l’indique, sépare le faisceau
les deux détecteurs sont de fait lumineux en deux parties d’intensités égales, émises à 90° l’une de l’autre et envoyées dans les
totalement insensibles à un signal « bras » de l’interféromètre ;
gravitationnel de basse fréquence. ● deux miroirs d’extrémité en bout de bras sur lesquels les ondes lumineuses se réfléchissent
Un autre bruit important, dominant et repartent en sens inverse ;
pour des fréquences intermédiaires, ● et enfin un dispositif de mesure composé de photodiodes, utilisées pour recueillir le signal
en sortie, issu de l’interférence des deux faisceaux qui ont circulé dans les deux bras du
est le bruit thermique des miroirs
détecteur avant de se recombiner sur la lame séparatrice.
et des fils de suspension. Dû au Comme des vagues à la surface de l’eau, des ondes lumineuses qui se rencontrent dans
mouvement brownien des atomes qui une zone de l’espace se mélangent ; le résultat est soit amplifié, soit atténué, selon que
les composent, il peut être limité par leurs amplitudes s’ajoutent ou s’opposent. Dans un interféromètre, toute différence dans le
un choix adéquat de matériaux et en parcours des deux ondes (longueurs des bras, caractéristiques des miroirs, etc.) se traduit par
diminuant au maximum la friction au une modification de la figure d’interférence en sortie du détecteur. Son étude – un exemple
niveau des points d’accroche. Au-delà d’une science plus vaste appelée interférométrie et très utilisée en astronomie – fournit des
de quelques centaines de hertz, LIGO informations sur le phénomène étudié par l’intermédiaire du détecteur. Inventé à la fin du
et Virgo sont limités par le « bruit de XIXe siècle pour démontrer que la vitesse de la lumière ne varie ni dans le temps ni selon la
direction d’observation, l’interféromètre de Michelson sert aujourd’hui à étudier les défauts
comptage » : le nombre de photons
de la surface d’un miroir ou... à chercher les ondes gravitationnelles !
collectés sur les photo-détecteurs
page 23
ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
« Que faire le jour où nous serons en présence d’un signal potentiel d’onde gravitationnelle ? »
Ce problème est d’autant plus aigu que les interféromètres sont en limite de sensibilité et que les détections, au-moins au début, seront rares.
Il faut donc éviter deux écueils : annoncer une découverte pour la démentir ensuite ; rejeter un vrai signal.
Attribuer à une onde gravitationnelle une vibration enregistrée dans un instrument isolé sera très difficile, et certainement sujet à controverse.
Par contre, un signal observé en coïncidence dans au moins deux détecteurs paraîtra beaucoup plus réaliste. Si les interféromètres sont éloignés
géographiquement, les bruits qui les affectent sont indépendants alors que les signaux induits par une onde gravitationnelle sont corrélés.
L’étape suivante consiste à analyser de manière cohérente les informations provenant d’un réseau d’interféromètres. Si on connaît la direction
de la source, on peut prédire l’évolution (en temps et en amplitude) du signal dans chaque détecteur et combiner leurs données de manière
optimale pour faire ressortir l’onde gravitationnelle du bruit. On a alors un « super-interféromètre » bien plus performant que les instruments
pris individuellement. Le prix à payer se voit au niveau de la complexité de l’analyse et de la puissance de calcul nécessaire : comme la source
est a priori inconnue, il faut chercher en parallèle dans toutes les directions du ciel.
Ce problème disparaît dans le cas où l’origine du signal est identifiée par d’autres détecteurs, par exemple des télescopes captant le rayonnement
électromagnétique (optique, rayons gamma, etc.) ou des neutrinos (émis en nombre par une supernova). Virgo et LIGO appartiennent donc
à des réseaux internationaux regroupant des instruments variés et qui émettent une alerte dès qu’ils détectent un phénomène susceptible
d’intéresser les autres membres.
Contrôle
Le fonctionnement d’un interféromètre fluctue selon une loi de probabilité de Poisson décrivant des évènements
est complexe : pour avoir la sensibilité rares (voir Élémentaire N°3), ce qui gêne l’interprétation des signaux
adéquate, il faut que le détecteur soit enregistrés.
contrôlé de manière continue. Même si
les déplacements résiduels des miroirs
suspendus sont faibles (leur amplitude
Parlons un instant du laser – aussi stable que possible – qui fournit
est bien inférieure au millimètre), ils sont une puissance d’une dizaine de watts, émise dans l’infrarouge. Le
suffisants pour rendre le détecteur aveugle calcul montre qu’un interféromètre est d’autant plus sensible que la
et inutile. Il importe donc de synchroniser puissance lumineuse stockée est élevée. C’est pourquoi Virgo et LIGO
leurs mouvements pour que les distances utilisent des configurations optiques plus complexes que le « Michelson
les séparant restent constantes – avec une simple » présenté précédemment. Au prix d’un contrôle plus délicat,
précision meilleure que le nanomètre. Si leurs performances sont équivalentes à celles d’un appareil dont la
contrôler deux suspensions est relativement source lumineuse serait cinquante fois plus puissante et les bras (déjà
simple, les choses se compliquent quand il
kilométriques) trente fois plus longs. Cette dernière propriété – essentielle
faut prendre en compte le couplage entre
les quatre cavités formées par les six miroirs
puisque la sensibilité du détecteur dépend du changement relatif de
principaux d’un détecteur comme Virgo ou longueur – est obtenue grâce à des miroirs supplémentaires qui allongent
LIGO. le parcours des faisceaux lumineux.
Ces instruments sont donc contrôlés en
permanence par un système automatisé Les miroirs sont des composants essentiels des détecteurs. Fabriqués en
qui mesure de nombreux paramètres toutes silice, ils sont les plus lourds possible afin de réduire le bruit thermique,
les 100 μs, s’assure qu’ils ont les valeurs inversement proportionnel à la racine carrée de leur masse. Ils font trente
attendues et, dans le cas contraire, déclenche centimètres de diamètre environ et sont ultra-propres pour limiter les effets
les actions de correction appropriées. Parfois
thermiques dus à l’absorption lumineuse – d’autant plus importants que la
une intervention humaine est nécessaire ;
elle est coordonnée et assurée par les équipes
puissance stockée est élevée. Un traitement de surface leur est également
d’opérateurs, d’ingénieurs et de physiciens appliqué pour qu’ils aient les bonnes propriétés de transparence ou de
qui se relaient sans interruption en salle de réflexion : leurs pertes se limitent à quelques millionièmes de l’intensité
contrôle. des faisceaux. Un laboratoire spécial situé à Lyon (le Laboratoire des
Il n’est pas rare que la synchronisation des Matériaux Avancés, LMA) a été financé par Virgo pour lui fournir les
miroirs soit perdue au bout de quelques meilleurs miroirs possibles. Si les substrats sont achetés à des industriels,
heures (ou de quelques jours) à cause d’un leur conditionnement est effectué au LMA, seul capable de réaliser ce
tremblement de terre... en Chine ou en processus avec la précision souhaitée sur un diamètre aussi grand.
Amérique du Sud, ou encore d’un orage
violent. La procédure pour rétablir la
situation est maintenant quasi-automatique
page 24
L’ensemble du détecteur est ainsi placé dans une enceinte à vide (en
© Virgo
bobines
fait un ultra-vide de 10-9 millibar, soit un millionième de millionième
d’atmosphère) afin de réduire l’interaction entre le faisceau laser et
les molécules de gaz résiduelles. La sensibilité serait réduite en cas de « Miroir, mon beau miroir »... La lame
diffusion tandis que le passage de grosses particules à travers le faisceau séparatrice de Virgo... sépare ( !) le laser en
pourrait imiter une onde gravitationnelle. Les tubes dans lesquels circulent deux faisceaux qui parcourent ensuite les
les faisceaux font environ un mètre de diamètre : LIGO et Virgo utilisent bras de 3 km. Elle est entourée d’une masse
les plus grandes enceintes à ultra-vide jamais construites ! en aluminium à laquelle sont attachées des
bobines qui servent à contrôler le miroir
sur lequel sont collés des aimants. Selon le
Le bruit acoustique fait vibrer les éléments optiques de l’interféromètre. courant parcourant les bobines, les forces
Il faut en particulier les isoler au maximum du système de climatisation, entre ces dernières et les aimants varient,
ce qui n’est pas toujours évident car il faut également assurer une bonne ce qui se traduit par un mouvement de la
circulation de l’air dans les pièces qui contiennent le laser ou les tables monture métallique, et donc du miroir.
optiques – la température doit y être constante. À Virgo, ce bruit provient Avec de bons yeux, on peut distinguer les
également d’avions militaires qui survolent parfois l’interféromètre à deux fils de 100 micromètres (le diamètre
basse altitude, déplaçant de grands volumes d’air sur leur passage. Cette d’un cheveu !) qui entourent le miroir.
contribution est heureusement assez facilement identifiée grâce à des
microphones placés dans tous les bâtiments : les données prises pendant
ces périodes sont ignorées car dominées par le bruit. Toujours à Virgo, des
ventilateurs (et plus précisément les faibles champs magnétiques produits
par leur fonctionnement) ont été identifiés comme une source de bruit,
insolite mais bien réelle. Ils ont été remplacés par d’autres modèles, plus
« discrets ».
page 25
ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
Zoom sur les collaborations LIGO
et Virgo
À l’instar des projets de physique des hautes énergies, LIGO et
Virgo rassemblent de vastes communautés scientifiques qui ont
connu une histoire longue et mouvementée. Le projet LIGO
est approuvé et financé par la National Science Foundation
© LIGO
ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
Présent et futur de la recherche directe
des ondes gravitationnelles
En 2006, un accord de collaboration entre la
LSC et Virgo a été signé ; il prévoit l’échange des
données prises par les deux expériences en vue
d’une exploitation scientifique commune. En
effet, seule une coïncidence associant plusieurs
interféromètres et éventuellement d’autres
types de télescopes (optique, à neutrinos,
etc.) sera jugée suffisamment probante par la
communauté scientifique pour officialiser la
découverte des ondes gravitationnelles.
ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
Mais l’avenir de la recherche des ondes gravitationnelles passe aussi par
l’espace. Les agences spatiales américaine (NASA) et européenne (l’ESA)
ont un projet commun « d’interféromètre » géant à l’horizon 2018 : LISA,
pour Laser Interferometer Space Antenna. Ses trois satellites formeraient
deux « bras » éloignés de cinq millions de km et s’échangent des
impulsions laser précisément synchronisées – à de telles échelles, il est
impossible d’utiliser des réflexions sur des miroirs. LISA vise une bande de
fréquence différente (entre 0,1 mHz et 0,1 Hz) de celle des observatoires
au sol – lesquels ne peuvent descendre en dessous de quelques Hz à
© LIGO Laboratory
ÉLÉMENTAÍRE
Expérience
La mission PLANCK
Corps noir
Planck est une mission de l’Agence spatiale européenne (ESA). Elle tire Un « corps noir » est un corps idéal
son nom du physicien allemand Max Planck, qui formula en 1900 l’équa- qui absorbe tous les rayonnements
tion du spectre du corps noir, première pierre de la construction de la (toutes les fréquences) qu’il reçoit et
mécanique quantique. Le début de la conception du projet date de 1993. les réémet de manière aléatoire, dans
Sa mise en œuvre est assurée par 13 laboratoires européens (dont 5 en un équilibre qui ne dépend que de
France) et nord-américains ainsi que par Thales Alenia Space (maître la température. Planck a déterminé
d’œuvre du satellite et responsable de l’intégration des instruments et des la forme mathématique du spectre
tests) et Air Liquide (pour le refroidissement à 0,1K). de ce rayonnement dans les années
1900. La densité de photons du
corps noir dépend uniquement de sa
Observer les empreintes des premiers température. Pour le CMB à 2,7K, on
a 411 photons par cm3.
pas de l’Univers
L’expérience Planck vise à obtenir des informations avec une précision
inégalée sur les premiers instants de l’Univers, en mesurant les photons
du rayonnement fossile (CMB, voir « Théorie »). Le spectre de ce rayon-
nement est, à un très bon degré d’approximation, celui d’un corps noir,
caractéristique de son origine thermique, à une température d’environ
2,7K ce qui correspond à des longueurs d’onde de l’ordre du millimètre,
c’est-à-dire des fréquences entre un et quelques centaines de GHz.
ÉLÉMENTAÍRE
La mission PLANCK
Si le spectre du CMB a été (et reste) un sujet d’étude
important, ce sont surtout les anisotropies de tem-
pérature qui sont maintenant sur le devant de la
scène, car elles fournissent des informations plus
détaillées sur l’état de l’Univers au moment de
l’émission de ces photons (voir « Analyse »). Planck
est ainsi capable de détecter des changements de
température qui sont de l’ordre du millionième de
la température du CMB et ce malgré la présence
à proximité (relative) d’éléments chauds comme la
Terre, la Lune et le Soleil. Pour exemple, si Planck
restait sur Terre, il serait en mesure de détecter le
rayonnement thermique d’un lièvre sur la Lune !
ÉLÉMENTAÍRE
La mission PLANCK
• l’instrument haute fréquence (HFI), enfin, comporte 52 canaux
répartis dans 6 bandes entre 100 et 900 GHz environ. Ses détec-
teurs sont des bolomètres (voir « Détection ») qui convertissent
© PLANCK
la radiation sub-millimétrique incidente en chaleur. Certains sont
spécialement conçus pour mesurer la polarisation. Pour leur assu-
rer une sensibilité optimale, ils seront refroidis à 100 mK par un
cryostat utilisant un mélange d’hélium 3 et d’hélium 4 suite à un Le plan focal de l’instrument Planck-
programme de recherche financé par le CNES. Il s’agit de l’objet le plus HFI en configuration d’étalonnage à
froid jamais lancé dans l’espace ! l’Institut d’Astrophysique Spatiale à
Orsay. On voit les cornets qui guident les
ondes jusqu’aux bolomètres de Planck-
Planck n’est pas la première mission spatiale à étudier le fond cosmolo- HFI. Refroidis à 0,1 K et illuminés
gique. Son ancêtre, COBE, en 1992, avait une résolution de 7° sur le ciel à travers une optique spécialement
(une pleine lune correspond à 0,5°). En 2001, WMAP descendait à 15 conçue pour fonctionner à très basse
minutes d’arc, soit une résolution 28 fois meilleure. Moins d’une décen- température et sélectionner une gamme
nie plus tard, Planck multiplie encore par 3 cette performance, avec une de longueurs d’onde bien définie dans un
résolution de 5 minutes d’arc. Quant à la mesure des variations de tem- cône étroit (de 10 minutes d’arc environ
pérature, la précision de Planck devrait être environ 10 fois supérieure à d’ouverture).
celle de WMAP.
ÉLÉMENTAÍRE
La mission PLANCK
Les satellites Herschel (en haut) et
Planck (en bas) dans la coiffe de
la fusée Ariane-5.
compressées mais également recevoir les signaux donnant l’état des ap-
tél vis
du e de
ÉLÉMENTAÍRE
La mission PLANCK
au bout d’un certain temps. Cette limite d’exploitation « privée » étant
prévue courant 2012, les physiciens de Planck auront donc comme
motivation supplémentaire le désir d’extraire la quintessence des don-
nées enregistrées avant de les rendre publiques.
© ESA
est lancée, les données ne vont pas tarder à affluer...
Point de Lagrange
La loi de la gravitation, énoncée par Newton dans la seconde moitié du
XVIIe siècle, permet de décrire le mouvement relatif de corps massifs.
Un siècle plus tard, Joseph-Louis Lagrange s’intéresse au problème du
© ESA
mouvement de trois corps en supposant que l’un d’eux est bien moins
massif que les deux autres : c’est par exemple le cas d’un système satellite-
Terre-Soleil. Son formalisme lui permet de découvrir l’existence de cinq Décollage d’Ariane-5, lanceur des satel-
positions d’équilibre, les points de Lagrange, où les forces gravitationnelles lites, à Kourou le 14 mai 2009 à 15h 12.
se compensent. Dans la pratique, ces positions d’équilibre ne sont pas
stables mais on peut trouver des orbites proches qui le sont presque : une
consommation limitée de carburant permet de s’y maintenir. Un satellite
placé sur l’une de ces trajectoires suit les deux autres corps dans leurs
mouvements et conserve la même position relative par rapport à eux.
Ainsi, les signaux qu’il reçoit varient peu et sont toujours en provenance
des mêmes directions, ce qui rend ces emplacements très intéressants pour
des mesures de précision comme celles de WMAP. Le second point de
Lagrange (L2) est situé sur l’axe Soleil-Terre, au-delà de notre planète et
ainsi dans l’ombre de la Terre.
page 33
ÉLÉMENTAÍRE
Détection
Bolomètres
Comme leur nom l’indique, les bolomètres sont sensibles à l’énergie
Bolomètres
déposée par un rayonnement. Inventés pour l’observation du Soleil à la
Bolomètre vient du Grec « bolē » signifiant « jet »
fin du XIXe siècle, ils restent les plus performants dans le domaine allant
d’où son emploi pour désigner des rayons lumineux,
et non verre de cidre comme on pourrait l’imaginer. de l’infrarouge aux ondes millimétriques, bien que de nombreux autres
On retrouve ce terme, par exemple, dans le mot appareils, basés sur des technologies différentes, aient été développés. D’où
discobole. l’utilisation des bolomètres sur le satellite Planck (voir « Expérience »). Ils
sont aussi employés dans un tout autre champ de recherches que nous
Samuel Pierpont Langley évoquerons également à cause de ses liens avec la cosmologie : celui de
(1834-1906), est un astro- la « matière noire ».
physicien américain qui a
effectué des travaux pionniers
dans la mesure de la constante Principe de fonctionnement d’un bolomètre
solaire et dans l’étude de la
partie infrarouge du spectre Les bolomètres ont été inventés vers la fin des années 1800 par Samuel
DR
solaire (1894). Pour ces Pierpont Langley qui est un des pionniers du passage de l’astronomie
mesures, il invente et développe le bolomètre. Dans
à l’astrophysique : il a cherché à appliquer les lois de la physique pour
les années 1880 il participe aux débuts de l’aviation,
étudiant en soufflerie les différents paramètres
expliquer le rayonnement stellaire ainsi que l’influence du rayonnement
conditionnant le vol d’un plus lourd que l’air. Il solaire sur la Terre. À l’époque, on s’intéresse à la constante solaire et à
fait voler plusieurs prototypes sans pilote, dès 1896, l’énergie émise par le Soleil en fonction de la longueur d’onde. Pour ces
mais échoue par deux fois dans ses tentatives de vol mesures, Langley développe, à partir d’une idée non concrétisée d’Adolf
piloté. En octobre et décembre 1903, son prototype Ferdinand Svanberg (1806-1857), un nouveau type d’appareil utilisant la
« Aerodrome A » ne survit pas au lancement par une variation de la résistance des métaux avec la température : le bolomètre.
catapulte bâtie sur la rivière Potomac en Virginie
(rassurez-vous le pilote n’a pas péri). Quelques jours Les rayons du Soleil sont focalisés sur une feuille de platine très mince
plus tard les frères Wright effectuent leur premier vol
(de l’ordre du micron) ce qui induit une variation de la température du
dans l’état voisin de Caroline du Nord.
métal ainsi que de sa résistance électrique. Ce changement est mesuré, à
l’époque, en utilisant un pont de Wheatstone dont les autres résistances
sont maintenues à température constante par contact avec un bain thermique.
L’instrument est sensible à des variations infimes de température (soit, disait-on
à l’époque, « à la présence d’une vache paissant à 500 mètres de l’appareil »).
Pour ne pas être perturbé par les ruminants ni par les nombreuses usines
sidérurgiques de Pittsburgh (ville située à proximité de l’observatoire où il
effectuait ses recherches), Langley fait des mesures au sommet du mont Whitney
situé dans les Montagnes Rocheuses au Sud Est de la Californie. Opérer en
DR
Prototype d’ « Aerodrome » installé sur la ca- altitude a aussi l’avantage de diminuer les effets parasites de l’atmosphère.
tapulte fatale. Son expédition est relatée dans le New York Times en juillet 1881 avec une
typo malencontreuse qui parle de « balometer » (que l’on pourrait traduire par
Constante solaire «détecteur de ballot») alors qu’en pratique pour mettre en œuvre cet instrument
C’est l’énergie solaire arrivant perpendicu- extrêmement sensible, il faut dépenser des trésors d’ingéniosité pour être sûr
lairement sur une surface de 1m2 placée que les variations observées sont bien le résultat du phénomène étudié.
au niveau de l’orbite terrestre. Elle vaut
1367 W/m2. L’énergie reçue au niveau du
sol est inférieure car elle est atténuée par Le principe du bolomètre consiste donc à
l’atmosphère et dépend de la direction du transformer en chaleur l’énergie transportée
Soleil. par un rayonnement et à mesurer l’élévation
de température correspondante via un circuit
Pont de Wheatstone
On dit qu’il est à l’équilibre lorsque aucun électrique. De nos jours, il comporte un absorbeur
courant ne passe dans l’ampèremètre (A). et un thermomètre, dont le rôle est joué par une
Dans ce cas les valeurs des résistances thermistance, qui est en contact avec un bain
satisfont l’égalité : R1 x R4 = R2 x R3 thermique ou source froide. Un courant, dit de
Si une des résistances change, on peut relier polarisation, traverse en permanence la résistance
sa variation au courant circulant entre les dont on mesure la tension aux bornes. Sans apport
page 34
deux bras.
ÉLÉMENTAÍRE
Principe du fonctionnement d’un bolomètre.
ÉLÉMENTAÍRE
Bolomètres s
précédemment, ils sont équipés de grilles qui absorbent seulement les
photons dont le champ électrique est parallèle aux fils. Une seconde
grille, dont les fils sont perpendiculaires à ceux de la précédente, absorbe
l’autre composante de la polarisation. Chaque grille est reliée à une
thermistance.
provenant de satellites (S) dont les positions sont connues en temps réel
Reconstruction de la position du récepteur
et les traite grâce à son calculateur intégré. Les ondes électromagnétiques à partir des mesures des satellites GPS.
(lumière, radio, etc.) se déplaçant à la vitesse de la lumière, le temps
mis par un signal pour aller d’un satellite au récepteur donne la distance
(D) séparant les deux objets. Le récepteur se situe donc quelque part sur
une sphère de centre S et de rayon D. En combinant les informations de
plusieurs satellites, on obtient autant de sphères dont l’intersection fournit
finalement la position précise de R. La même mesure effectuée à des instants
page 37
ÉLÉMENTAÍRE
Le GPS
successifs permet ainsi de suivre les déplacements du récepteur (vitesse et
direction), qu’il soit sur le bateau d’un navigateur solitaire doublant le Cap
Horn ou dans votre voiture.
Les premiers satellites GPS sont lancés en 1978. Les mises sur orbite se
succèdent ensuite, afin d’augmenter la taille de la flotte et de remplacer les
anciens instruments par de nouveaux, plus performants. Le système devient
opérationnel sur l’ensemble du globe en 1995 ; enfin, le 1er mai 2000, le
président américain Bill Clinton annonce la fin du système de brouillage des
signaux destinés aux civils : la précision des mesures s’améliore d’un facteur
dix, ce qui ouvre la voie à la diffusion du GPS – rien qu’en France 2,5 millions
de récepteurs ont été vendus en 2007.
caractère, peut être codé par une succession horloges atomiques embarquées.
de bits et la transmission d’information Ensuite, l’éphéméride, c’est-à-
par le biais de cet alphabet, est à la base de dire tout ce qu’il faut savoir sur
Un satellite GPS, exposé au musée de
l’électronique et de toutes ses applications.
l’Air et de l’Espace à San Diego (Cali- l’orbite particulière du satellite, est
page 38
fornie).
ÉLÉMENTAÍRE
Déterminer la distance émetteur-récepteur
Chaque satellite émet une suite de 1023 bits
Le GPS
qui lui est propre. Les séries utilisées sont aussi
différentes que possible de manière à assurer
une identification sans erreur des émetteurs
visibles. Le récepteur les connaît toutes et les
génère en boucle. Il estime ainsi la distance le
transmis pendant douze secondes. Bien que ces données soient valables séparant de chacun des satellites en comparant
quatre heures, elles sont normalement mises à jour toutes les deux heures. les séquences produites avec les signaux
reçus.
Enfin vient l’almanach, un ensemble d’informations sur la constellation dans
Le principe est simple : chaque série de bits
son ensemble (orbite, statut technique, code numérique d’identification, etc. peut être vue comme une bande de tissu
pour chaque satellite) ainsi que des données environnementales nécessaires bicolore (par exemple blanc pour « 0 » et noir
pour corriger la mesure. L’almanach représentant un volume de données pour « 1 »). Posant les bandes « émetteur »
conséquent, chaque message met à jour 4% de son contenu. et « récepteur » l’une sous l’autre, le décalage
entre les deux motifs permet de remonter à
la distance séparant les deux instruments. En
Précisions, corrections et erreurs : pratique, l’opération est plus complexe : la bande
de tissu livrée par le satellite arrive « froissée »
applications et limites du GPS (à cause de l’effet Doppler dû au mouvement
relatif entre émetteur et récepteur) et « salie »
(du bruit parasite s’est ajouté au signal sur
son parcours) ; il faut donc la « repasser » et
la « nettoyer » pour assurer le succès de la
comparaison. La précision du résultat est très
bonne : de l’ordre du centième de l’intervalle
de temps séparant deux bits consécutifs, soit
trois mètres environ une fois convertie en
distance – la vitesse de propagation des ondes
électromagnétiques vaut 300 000 km/s.
comprendre où il se trouve !
ÉLÉMENTAÍRE
Retombées
Le GPS
Horloges atomiques
Mesurer un temps revient toujours à compter le nombre de fois où un phénomène répétitif ou défini par convention (oscillation d’un balancier,
seconde, etc.) se produit pendant la « durée » d’observation. Une horloge est donc un métronome dont la précision dépend de la stabilité de la
mesure qu’elle bat. Celles qui sont actuellement – et de très loin – les meilleures sont basées sur une conséquence de la mécanique quantique :
l’énergie d’un atome est quantifiée, c’est-à-dire qu’elle ne peut prendre que des valeurs bien précises. L’état fondamental correspond à l’énergie
la plus basse tandis que les autres niveaux décrivent des états dits « ex-cités ». Les
détecteur seules transitions permises correspondent à l’absorption (l’émission) d’un photon
B
cavité B apportant (emportant) exactement la différence d’énergie entre les états final et
B A+B initial. Or l’énergie d’un photon est directement proportionnelle à la fréquence de
A+ A l’onde électromagnétique associée.
four A Il « suffit » ainsi d’utiliser une transition atomique particulière d’un état « A » à
un état « B » pour obtenir un étalon de fréquence parfaitement stable. Une horloge
atomique contient un oscillateur mécanique (par exemple un morceau de quartz
comme dans les montres-bracelets) dont le battement est accéléré jusqu’à avoir une
f = 9 192 631 770 Hz fréquence aussi proche que possible de celle de la transition atomique utilisée.
© B. Mazoyer
L’oscillation ainsi générée est convertie en signal électrique puis envoyée dans une
asservissement cavité spécialement conçue pour entretenir une onde électromagnétique de même
fréquence et dans laquelle des atomes dans l’état A sont injectés. Les passages A →
Principe de fonctionnement d’une horloge atomique B sont d’autant plus probables que la fréquence est proche de celle de la transition
atomique – phénomène dit de résonance. La comparaison du débit d’atomes dans
l’état A/B à l’entrée/sortie de la cavité est finalement utilisée comme « signal d’erreur » et sert à ajuster l’oscillation mécanique.
Une fois le système stabilisé (dans la réalité, les opérations décomposées ci-dessus s’enchaînent et se répètent continuellement), on dispose d’un
métronome ultra-précis sur des durées très longues : en février 2008, des scientifiques de l’université de Boulder ont annoncé avoir mis au point
une horloge dont l’erreur est inférieure à une seconde chaque 200 millions d’années. Une telle montre mise en route lors de la formation de la
Terre serait décalée de moins de trente secondes aujourd’hui !
l’erreur d’une position GPS donnée, par exemple celle de la Tour Eiffel à Paris, par une
0.3
34.1% 34.1%
relevé GPS serait décalé d’une quantité fixe ce qui n’aurait pas beaucoup d’intérêt) tandis que
σ correspond à la précision : σ = 5 mètres
0.1
2.1% 2.1%
0.1% 13.6% 13.6% 0.1%
Comme le montre la figure ci-dessus, 68,2% des mesures donnent effectivement un résultat
0.0
−3σ −2σ −1σ µ 1σ 2σ 3σ meilleur que « 1σ », soit 5 mètres. Par contre, dans environ un tiers des cas, l’erreur est plus
grande. Par exemple la probabilité qu’elle dépasse 10 mètres (« 2σ ») n’est pas négligeable :
4,4%. Heureusement, la fonction gaussienne décroit assez rapidement à mesure que l’écart par rapport à sa moyenne (là-aussi exprimé en
« unité de σ ») augmente et seules 2 mesures sur 1000 environ sont fausses de plus de 15 mètres (« 3σ »).
Au final, une précision de 5 mètres signifie que le GPS donne « souvent » un résultat meilleur et qu’il ne se trompe « presque jamais » de plus de
15 mètres. Dans certains cas (relevés topographiques, séismologie ou volcanologie, transport, etc.) ces performances se révèlent insuffisantes
et des systèmes plus complexes doivent être mis en place pour les améliorer. Le GPS différentiel utilise une station de référence proche dont la
vraie position est connue avec précision. La comparaison entre cette valeur et la mesure donne l’ordre de grandeur de l’erreur GPS à un instant
donné et cette information permet de corriger le relevé du point étudié. Dans le domaine du transport aérien les systèmes WAAS (États-Unis)
et EGNOS (Europe, encore en développement) servent au guidage de précision des avions dans les phases d’atterrissage et de décollage : leur
précision est de l’ordre du mètre, simultanément dans les trois dimensions d’espace.
Les réflexions multiples (sur un immeuble, dans une vallée encaissée, etc.)
sont une autre source potentielle d’erreur de mesure car elles allongent
le parcours des ondes. On peut s’en affranchir quand le récepteur est en
mouvement car les signaux réfléchis donnent des positionnements aberrants
et donc facilement détectables. Parmi les autres limitations du système, on
peut citer la faiblesse du signal reçu sur Terre et la facilité avec laquelle il
peut être perturbé, au moins localement, par d’autres émetteurs utilisant le
spectre électromagnétique.
© Élémentaire
Un dernier atout du GPS, et pas le moindre, est qu’il est entièrement basé
sur une technologie passive : comme son nom l’indique, le récepteur ne
fait que ... recevoir et ne renvoie aucune information, ce qui rend illimité
le nombre potentiel d’utilisateurs. Vue d’Europe, le seul point critiquable Un des premiers récepteurs GPS grand
de ce système de navigation est le fait qu’il est propriété des États-Unis et public, exposé au Musée de la Science
que ses satellites sont contrôlés par l’armée américaine. Cette dépendance et de l’Industrie de Chicago.
stratégique n’étant pas souhaitable sur le long terme, l’Union Européenne
s’est lancée dans la mise au point de son propre système de positionnement
par satellite, Galileo. Cette initiative, très mal vue au départ Outre-
Atlantique, a finalement été acceptée et un accord a été trouvé pour que
les utilisateurs puissent passer d’un type de signal à l’autre dans le cas où
celui qu’ils utiliseraient aurait une défaillance.
Après de nombreux retards dus en grande partie à la nécessité d’adapter
les demandes de participation des États aux réalités industrielles et à la
recherche d’un équilibre entre secteurs public et privé, le projet semble
enfin être sur les bons rails. La phase de démonstration des technologies,
marquée par le lancement de deux satellites est en voie d’achèvement ; Logo du futur système européen de posi-
elle sera suivie par l’envoi de quatre satellites de validation – en 2010 tionnement global par satellite Galileo.
au plus tôt – avant un déploiement de la constellation (une trentaine de
satellites au total) vers 2013-2015.
page 41
ÉLÉMENTAÍRE
Analyse
Transformée de Fourier et...
Joseph Fourier (1768-1830), effectue des « Et ignem regunt numeri » [Le feu aussi est régi par les
études si brillantes à l’École royale militaire nombres]
d’Auxerre, ville dont il est originaire, qu’il y Devise utilisée par Fourier en épigraphe de ses principales
devient professeur avant d’avoir dix-sept ans. publications.
Ses origines modestes (fils de tailleur, orphelin à
neuf ans) l’empêchent d’entrer dans l’artillerie
– d’après Arago, le ministre de la Guerre de
l’époque aurait déclaré « Fourier n’étant pas
noble, ne pourrait entrer dans l’artillerie,
Un préfet mathématicien
quand il serait un second Newton ». Un
DR
ÉLÉMENTAÍRE
...application au CMB
Équation de la chaleur et conditions aux limites
L’étude de la chaleur et de l’évolution de la température d’un objet en fonction du temps est bien antérieure à Fourier : Newton, puis un
siècle plus tard Laplace et Lavoisier, s’y intéressent mais ils butent sur la définition de la chaleur et sur le processus physique qui la fait se
propager dans un solide. L’approche choisie par Fourier est plus pragmatique et lui permet d’obtenir l’équation qui gouverne le phénomène
sans s’attarder sur sa nature précise. Elle est basée sur deux principes : la chaleur se déplace de la région chaude vers la région froide d’un
objet perpendiculairement aux isothermes et le flux de ce « courant » à un instant donné est d’autant plus important que la température varie
rapidement sur son parcours ; de plus, la quantité de chaleur d’un volume donné est proportionnelle à sa température, laquelle varie donc
dans le temps en fonction des apports et des prélèvements externes. La juxtaposition de ces deux énoncés se traduit mathématiquement par
une équation aux dérivées partielles. Mais cela ne suffit pas pour résoudre un problème donné : il faut également connaître une ou plusieurs
conditions aux limites qui vont obliger la solution de l’équation à avoir un comportement prédéfini dans certaines zones du milieu (par
exemple au bord) ce qui la contraint de manière unique. Ainsi, pour étudier précisément l’évolution de la température d’un volume d’eau
mis à bouillir sur une plaque électrique il faut tenir compte du fait que le fond de la casserole est maintenu à la température (connue) de
la plaque, se demander si le couvercle est ou non posé sur le récipient pour limiter les pertes de chaleur dans l’atmosphère ou encore avoir
mesuré la conductivité thermique des parois. Une propriété importante de l’équation de la chaleur est qu’elle est linéaire : la somme de
deux solutions en est également une solution.
Fort des succès qu’il obtient avec cette approche, Fourier va même plus
loin : il étend sa décomposition au cas des fonctions non-périodiques – Approximation d'une fonction créneau
qui peuvent, d’une certaine manière, être vues comme des fonctions dont
la période est infinie. Sans en avoir vraiment conscience, il est en train de
faire avancer les mathématiques d’un pas de géant. D’abord, il jette les
bases d’une nouvelle discipline – appelée maintenant analyse de Fourier
en son honneur – et qui s’est révélée extrêmement féconde. Ainsi, les
méthodes numériques de traitement d’un signal (comme une émission de
radio) ou d’une image sont en grande partie basées sur la correspondance 1 Coefficient 2 Coefficients
application de la transformation inverse une fois que la décomposition 6 Coefficients Fréquence des coefficients
n’est plus utile) s’est avérée très générale et s’applique dans de nombreux
domaines scientifiques, au premier rang desquels l’astronomie et
l’astrophysique. Les fréquences et leur étude jouent également un rôle Approximation d’une fonction créneau
primordial en musique. par sa série de Fourier. Plus le nombre
de coefficients augmente (1, 2 puis 6 de
Sinusoïdes La figure du haut montre gauche à droite et de haut en bas), plus
l’évolution temporelle de cette dernière se rapproche du modèle.
Période
j différentes sinusoides dont la Les petites oscillations visibles sur les
fréquence augmente : 1, 2, 3 et 5 portions « horizontales » des courbes
k
Hz en allant du haut vers le bas. rouges sont appelées « phénomène de
l En dessous, les mêmes sinusoïdes Gibbs » et apparaissent chaque fois qu’une
sont représentées dans l’espace de fonction discontinue (ici le créneau passe
n
Fourier qui décrit leur contenu brutalement de ± π/4 à son opposé chaque
Temps en fréquence. Ces courbes sont demi-période) est approchée par sa série de
Coefficients de Fourier des composants de base de la Fourier. Le graphique en bas à droite montre
décomposition en série de Fourier, comment l’amplitude des coefficients (axe
Amplitude
COBE).
ÉLÉMENTAÍRE
..application au CMB
Ces harmoniques sphériques sont par convention numérotées avec deux
nombres entiers : ℓ qui est positif ou nul et m qui varie entre – ℓ et +ℓ.
Comme dans le cas de Fourier et de son équation de la chaleur, un calcul
donne les poids de ces fonctions dans la carte des anisotropies du CMB.
L’indice ℓ joue un rôle prépondérant. Tout d’abord on peut le relier à un
angle (noté θ) par la relation approchée ℓ ~ (100 degrés) / θ. À ℓ fixé,
les poids associés, notés Cℓ, quantifient l’intensité des fluctuations de
température moyennes entre des points séparés angulairement de θ sur
le ciel : plus ℓ est grand, plus on s’intéresse à des angles petits. Le spectre
du CMB n’est autre que la variation des poids Cℓ en fonction de l’indice
© WMAP
ℓ. Il décrit la présence (ou l’absence) de structures dans le CMB selon
l’échelle considérée.
La décomposition du CMB (en haut à
Comme l’existence et la taille de structures dans le CMB peut être gauche) sur les premières harmoniques
prédite au niveau théorique par différents modèles cosmologiques, la sphériques : les modes sont identifiés
comparaison entre les données expérimentales et les courbes attendues par leur indice ℓ. L’ensemble du ciel est
permet de départager ces modèles. représenté sur ces cartes ; par convention,
leur centre correspond au centre de la
Voie Lactée et le plan galactique est
Le spectre du CMB horizontal.
ÉLÉMENTAÍRE
Transformée de Fourier et...
Pression de rayonnement qui a eu pour effet d’atténuer les anisotropies aux petites échelles.
La pression de rayonnement traduit la Ainsi, les liens du CMB avec la présence (ou l’absence) de structures dans
force exercée sur une surface exposée à l’Univers à différentes échelles expliquent son rôle clé dans la validation
un rayonnement électromagnétique. Par de modèles cosmologiques. La composition exacte de matière dans
exemple, la pression de rayonnement l’Univers primordial (baryons, neutrinos, matière noire), les paramètres
exercée par les rayons du Soleil sur
cosmologiques comme la géométrie de l’Univers, la constante de Hubble
la Terre est de l’ordre de quelques
micro pascal (μPa) – à comparer avec ou l’énergie noire ainsi que la répartition des anisotropies initiales
la pression atmosphérique qui est de contrôlent les positions et les amplitudes des pics du spectre ainsi que
l’ordre de 100 000 Pa. des « vallées » qui les séparent. La mesure précise du spectre du CMB
est donc essentielle pour faire progresser les modèles cosmologiques et
améliorer la connaissance de leurs paramètres... une analyse impossible
à mener à bien sans les travaux de Joseph Fourier, si controversés à son
époque !
ÉLÉMENTAÍRE
Accélérateur
Les accélérateurs co(s)miques
La Terre est bombardée en permanence par une multitude de particules
venues de l’espace. Les plus familières sont certainement les photons
émis dans le domaine du visible par le Soleil ou les autres étoiles et qui
font partie de notre environnement. Mais ce sont loin d’être les seules :
les progrès de la science dans la seconde moitié du XIXe siècle puis
tout au long du XXe ont permis d’en découvrir beaucoup d’autres (voir
Élémentaire N°3). Ainsi, le spectre électromagnétique ne se limite pas
à la lumière visible ; des photons sont émis dans une très large gamme
d’énergie qui va des ondes radio aux rayons X et γ en passant par les micro-
ondes, l’infrarouge, toutes les nuances de l’arc-en-ciel et l’ultraviolet. Ils
sont parfois associés à des phénomènes violents, courants à l’échelle de
l’Univers mais au sujet desquels les scientifiques ont encore beaucoup à
apprendre : noyaux actifs de galaxie (AGNs), sursauts gamma...
© Simon Swordy
cosmiques » de manière générique. On croyait initialement que ces
particules étaient des sortes de photons, d’où l’emploi (erroné mais
entré dans l’usage) du mot « rayon ». Leur étude, entamée avant la mise
au point des premiers accélérateurs, se poursuit aujourd’hui avec un
intérêt soutenu. Les champs magnétiques terrestre et solaire ainsi que Spectre du rayonnement cosmique. Ce
l’atmosphère nous protègent des effets nocifs de ces rayonnements en graphique montre le nombre de particules
déviant, éliminant ou atténuant les particules les plus énergétiques, chargées d’énergie donnée arrivant sur Terre
potentiellement dangereuses. par seconde, par m2 et provenant d’une
direction donnée. Les deux échelles (énergie
sur l’axe horizontal, flux de particules en
Le spectre des rayons cosmiques vertical) sont logarithmiques, ce qui veut dire
que chaque (grande) graduation correspond
à une variation d’un facteur 10. Entre le haut
Intéressons-nous plus particulièrement aux rayons cosmiques qui arrivent
et le bas de la courbe, l’énergie des particules
sur Terre de manière individuelle et incohérente, en provenance de est multipliée par près de mille milliards
sources multiples ; leur spectre est riche d’enseignements. tandis que leur nombre est divisé par dix
mille milliards de milliards de milliards
Tout d’abord ces particules couvrent une gamme d’énergie considérable : (ouf !) environ. Si réaliser un tel spectre
plus de treize ordres de grandeur (un facteur dix mille milliards !) entre les est un vrai défi sur le plan expérimental,
deux extrémités du spectre. Les rayons cosmiques les moins énergétiques interpréter le résultat obtenu se révèle tout
subissent l’influence du champ magnétique et du vent solaire tandis aussi complexe. Au premier abord la courbe
paraît très régulière : elle suit assez bien la
que les plus puissants créent des gerbes géantes de particules lors de
forme d’une loi de puissance, représentée
leur interaction avec l’atmosphère. Les difficultés d’estimer précisément
sur la figure par les pointillés noirs. En
l’énergie de tels événements et leur rareté suscitent de nombreuses fait, elle comporte plusieurs structures qui
discussions – voire des controverses – au sein de la communauté des reflètent la diversité des sources de rayons
physiciens. cosmiques ainsi que celle des mécanismes
assurant leur accélération bien au-delà de
Ensuite, la variation du flux de rayons cosmiques en fonction de l’énergie ce que les accélérateurs « terrestres » les
est, en première approximation, simple ; chaque fois que l’énergie est plus performants peuvent produire. Ainsi
multipliée par 10, le nombre de particules incidentes est divisé par un quelques particules produisant une énergie
au moins égale à celle des collisions protons-
facteur compris entre 500 et 1000. Cette loi est qualitativement conforme
protons dans le LHC (14 TeV) arrivent
à l’intuition : plus un rayon cosmique est énergétique, plus il doit être
chaque heure sur une surface d’un kilomètre
rare. De manière plus quantitative, on passe de plusieurs centaines de carré.
particules par mètre carré et par seconde à moins d’une par kilomètre
page 47
ÉLÉMENTAÍRE
Les accélérateurs co(s)miques
carré et par an quand l’énergie s’approche de sa valeur maximale. Le
spectre contient également quelques structures, détaillées plus avant dans
l’article.
Enfin, les rayons cosmiques les plus énergétiques sont du genre « costauds ».
Le match Technologie / Nature Leur énergie peut atteindre celle emmagasinée par une balle de tennis de
Sur le plan de l’énergie absolue, la Nature 57 g lancée à 85 km/h soit 32 Joules, ou 1020 eV. Les meilleurs accélérateurs
gagne sans contestation possible : le plus de particules, pourtant à la pointe de l’innovation technologique, font pâle
puissant des accélérateurs, le LHC, atteindra figure par rapport à ces records « 100% naturels ».
« seulement » des énergies de 1,4×1013 eV lors Comprendre les mécanismes à l’origine de telles accélérations, trouver
des collisions proton-proton et de 2,8×1012 eV les sources d’énergie sans lesquelles ces phénomènes ne pourraient se
par nucléon lorsque les noyaux d’hydrogène produire, ou découvrir de nouvelles particules dont la désintégration serait
seront remplacés par des ions plomb quelques
à l’origine de certains rayons cosmiques, sont trois des questions que se
semaines par an. L’énergie d’un rayon cosmique,
elle, peut dépasser 1019 eV ! Par contre, la
posent actuellement les physiciens spécialistes des « astroparticules »,
technologie reprend l’avantage au niveau du c’est-à-dire des particules élémentaires en provenance de l’espace.
nombre de particules accélérées (trois cent mille Contrairement aux photons, certains rayons cosmiques ont une charge
milliards de protons circuleront simultanément non nulle ce qui les rend sensibles aux champs électriques et magnétiques
dans le LHC), de la fréquence de répétition présents dans le cosmos. Cette caractéristique importante est à l’origine de
des événements (40 millions de collisions par mécanismes d’accélération spécifiques
seconde, toujours au LHC) et surtout grâce à .
sa capacité à générer les collisions là où elles À basse énergie (jusqu’à 1010 eV environ), le flux de rayons cosmiques
doivent se produire pour être observables dans
est sensible au vent solaire, un plasma chargé (protons, électrons, noyaux
leurs moindres détails, c’est-à-dire au centre
des détecteurs ! La technologie est également
d’hélium, etc.) émis par notre étoile à une vitesse d’environ 400 km/s.
plus « économique » que la Nature : grâce aux Celui-ci crée un puissant champ magnétique dont l’effet se fait sentir dans
collisionneurs (voir Élémentaire N°6) l’énergie tout le système solaire et qui dévie une grande partie des particules chargées
des particules circulant dans le LHC est bien incidentes. Au-delà, le flux en fonction de l’énergie E varie en « loi de
inférieure à celle que doit avoir un rayon puissance », c’est-à-dire qu’il est proportionnel à E-γ. Expérimentalement,
cosmique pour que sa collision avec un proton γ = 2,7 jusqu’à 1015 eV environ avant de passer brusquement à 3,1 – le
terrestre (au repos) produise autant d’énergie. flux chute. Cette transition est appelée poétiquement le « genou » par
- Pour obtenir une énergie de collision les physiciens, jamais en mal d’inspiration pour donner des noms à leurs
Ecollision = 14 TeV, l’énergie des protons du
observations ! Le taux décroît donc plus fortement sur plus de trois ordres
LHC doit valoir E = 7 TeV (les énergies des
deux particules impliquées dans le choc
de grandeur avant de « ralentir » vers 1019 eV. Sans surprise, cette seconde
s’ajoutent). - Dans le cas d’une collision rayon structure se nomme la « cheville ».
cosmique – proton « terrestre » au repos
(d’énergie équivalente Mc2 ≈ 1 GeV), il faut Des particules d’énergies aussi diverses sont nécessairement créées par
E ≈ (Ecollision)2/(2Mc2) ≈ 105 TeV, soit quatorze- des processus très différents. Jusque vers 1018 eV, elles sont issues de notre
mille fois plus ! galaxie. Au-delà, elles viennent probablement de régions de l’Univers plus
lointaines car le champ magnétique galactique ne parvient pas à maintenir
de tels projectiles suffisamment longtemps dans la Voie Lactée pour qu’ils
aient une chance de croiser la Terre sur leur chemin. En fait, la plupart des
rayons cosmiques subissent l’influence de nombreux champs magnétiques
sur leur parcours ; ceux-ci dévient leur trajectoire, rendant très difficile,
voire impossible, l’identification des sources. Expérimentalement, leur
distribution sur le ciel apparaît isotrope avec une précision de un pour
mille. Pour les particules les plus énergétiques, la situation est différente :
un article récent de l’expérience AUGER semble montrer un lien entre
rayons cosmiques et noyaux actifs de galaxies.
ÉLÉMENTAÍRE
Les accélérateurs co(s)miques
Un article récent de l’expérience
AUGER
des résultats expérimentaux. Une contrainte forte est apportée par des
calculs théoriques qui prédisent une énergie limite – appelée « coupure AUGER (voir Élémentaire N°3) a
récemment publié une étude des
GZK » en l’honneur des trois physiciens Kenneth Greisen, Georgi
premiers rayons cosmiques de très
Zatsepin et Vadem Kuzmin qui déterminèrent sa valeur en 1966. En effet, haute énergie enregistrés dans ses
les rayons cosmiques les plus énergétiques interagissent avec les photons détecteurs. Sa conclusion, basée sur
du CMB ce qui limite leur énergie pour peu qu’ils aient parcouru une une trentaine d’événements d’énergie
distance suffisante. D’autre part, on ne connaît aucune source qui soit supérieure à 57 × 1018 eV environ,
assez puissante pour produire de telles particules et suffisamment proche est que ces particules ont tendance à
pour que la coupure GZK ne s’applique pas. La conjonction de ces deux provenir de sources « peu éloignées »
éléments fait qu’on ne devrait observer aucun rayon cosmique d’énergie (moins de 75 Mpc, soit en-dessous de
supérieure au seuil GZK. la « coupure GZK » dont nous parlons
dans un encadré voisin) et que leurs
Or une expérience basée au Japon (AGASA) et qui a pris des données
directions (observables car ces rayons
de 1990 à l’an 2000 a annoncé avoir détecté une douzaine de rayons cosmiques sont peu déviés par les
cosmiques qui, d’après l’argument précédent, ne devraient pas exister ! champs magnétiques du cosmos) sont
La question de savoir si ces événements sont réels ou si leur énergie proches de celles de noyaux actifs de
a été surestimée par les mesures a agité pendant plusieurs années la galaxie (AGNs) déjà connus. Bien que
communauté des physiciens, dans l’attente des résultats de l’expérience ce résultat ne soit encore basé que sur
Auger. Finalement publiées mi-2008, ces mesures donnent raison à une une tendance statistique – si les sources
expérience antérieure, HiRes, et montrent que la coupure GZK est bien sont isotropes, les observations d’Auger
présente : le taux de particules décroît très fortement au niveau du seuil sont peu probables mais pas impossibles
– il est intéressant car les AGNs sont
en énergie.
considérés par ailleurs comme de
bons candidats pour produire de tels
Mais qu’est-ce qui fait courir les rayons rayons cosmiques. Cette hypothèse
sera confirmée ou invalidée lorsque
cosmiques ? plus de données seront analysées dans
les prochaines années, réduisant ainsi
les incertitudes statistiques sur ces
Les rayons cosmiques étant chargés, ils interagissent avec les champs mesures.
électromagnétiques qu’ils rencontrent sur leur parcours. Les zones
où ces champs sont présents sont de taille astronomique (étoiles,
nébuleuses, trous noirs etc.) ; il est donc logique que des particules
microscopiques puissent parfois acquérir une énergie colossale en les
traversant. Dès la fin des années 1940, Enrico Fermi s’intéresse aux © The Auger collaboration
Coupure GZK
À partir d’une énergie très élevée (de l’ordre de 6×1019 eV pour
des protons), un rayon cosmique interagit avec les photons du Projection de la sphère céleste; les cercles noirs de rayon 3,1 degrés montrent
rayonnement fossile. À chaque collision, des particules (les les directions d’arrivée des 27 rayons cosmiques les plus énergétiques
pions) sont produites et emportent une partie de l’énergie (énergie supérieure à 57 × 1018 eV) détectés par la collaboration Auger.
disponible – 15% environ. Lentement (une interaction tous L’expérience est sensible à la partie du ciel en bleu : la Terre masque les
les quinze millions d’années en moyenne) mais sûrement autres directions. Les points rouges montrent les 472 (!) AGNs connus
(une telle particule peut voyager des centaines de millions situés à moins de 75 millions de parsec (Mpc, 1 parsec = 3,6 années-
d’années) le processus se poursuit jusqu’à ce que l’énergie du lumière). La comparaison précise de ces cartes indique une corrélation
rayon cosmique passe en dessous du seuil d’interaction. En entre elles (à confirmer avec plus de données) ; en particulier, rayons
conséquence, pour chaque type de rayon cosmique, il existe cosmiques et noyaux actifs de galaxie semblent se concentrer autour du
une distance de propagation critique (plusieurs centaines de plan matérialisé par la ligne pointillée et qui contient un grand nombre
millions d’années-lumière pour un proton) au-delà de laquelle de galaxies proches de la nôtre.
l’énergie de la particule est forcément inférieure au seuil GZK,
et ce quelle qu’ait pu être son énergie initiale.
page 49
ÉLÉMENTAÍRE
Les accélérateurs co(s)miques
une théorie basée sur des chocs avec des nuages de gaz se comportant
comme des miroirs magnétiques, phénomène également à l’origine des
ceintures de Van Allen qui entourent la Terre. Lorsque miroir et particule
vont l’un vers l’autre (se suivent), la particule accélère (ralentit) après
le choc. Comme le premier type de collisions est plus probable que le
second (il est plus « facile » de croiser des objets qui viennent en sens
inverse que de rattraper ceux qui se déplacent dans la même direction),
les rayons cosmiques gagnent de l’énergie en moyenne.
La variation relative de l’énergie est alors proportionnelle au carré de la
vitesse des nuages – on parle d’accélération de Fermi du second ordre.
Si ce phénomène donne bien un spectre d’énergie en loi de puissance,
il a également plusieurs problèmes qui le rendent irréaliste. Tout d’abord
DR
il est trop lent : les rayons cosmiques devraient être au moins dix fois
Effet du mécanisme GZK sur des protons plus vieux que ce qui est effectivement observé. Ensuite, il demande
cosmiques d’énergies supérieures à 1020 eV. une énergie initiale importante (sans laquelle le mécanisme s’inverse et
Leur énergie décroît en fonction de la distance ralentit la particule). Enfin, il faut effectuer un ajustement fin (et donc
parcourue – comptée en Mpc – à cause des peu naturel) des paramètres du modèle pour s’approcher du spectre en
interactions avec les photons du CMB et la énergie observé.
variation est d’autant plus rapide que l’énergie Malgré ces défauts, la théorie de Fermi est passée à la postérité car elle
est élevée. Au-delà d’une certaine distance de
contient la bonne idée : le gain d’énergie s’obtient par réflexions multiples.
propagation, quelques centaines de Mpc dans
le cas du proton, les particules ont des énergies
À la fin des années 1970, plusieurs équipes de chercheurs ont proposé,
très voisines bien qu’elles aient été initialement de manière indépendante, un nouveau mécanisme d’accélération. Une
très différentes. Cela signifie que l’énergie d’un particule traversant une onde de choc voit son énergie augmenter d’un
proton qui a parcouru un trajet aussi long ne peut terme proportionnel à la différence entre les vitesses de propagation du
excéder une valeur limite, de l’ordre de 6×1019 eV milieu interstellaire avant et après le choc. Si des miroirs magnétiques
et appelée « coupure GZK ». sont situés de part et d’autre de cette frontière, le rayon cosmique se
trajectoire en spirale
de la particule chargée Ceintures de Van Allen Un miroir magnétique est une configuration particulière d’un
champ magnétique dont l’effet est de ralentir, puis de réfléchir les particules chargées
incidentes – dont les énergies peuvent parfois augmenter par ce mécanisme. Ce phénomène
peut se produire lorsque l’intensité du champ magnétique varie le long des lignes de champ,
points miroir ce qui est par exemple le cas pour le champ magnétique terrestre, plus fort au niveau des
pôles. Les ceintures de Van Allen, du nom du scientifique américain qui a interprété les
Terre
données des premiers satellites qui les ont traversées, sont ainsi une conséquence directe
© B. Mazoyer
de cet effet. Il s’agit de zones en forme d’anneau regroupant des particules chargées qui font
sans cesse l’aller-retour entre les deux pôles de notre planète où elles sont immanquablement
ligne de champ magnétique
réfléchies par ces « miroirs ». Chaque traversée dure de l’ordre d’une seconde mais une
particule donnée peut rester prisonnière de ces régions pendant plusieurs années.
Page d’un carnet
de notes d’Enrico Ni les hommes ni les circuits électroniques ne résisteraient à un séjour prolongé dans les
Fermi datée du ceintures de Van Allen dont la présence doit donc être prise en compte avec soin lors de
4 décembre 1948 la préparation de missions spatiales. Comme les pôles géographiques et magnétiques ne
Bibliothèque de l’Université de Chicago.
et contenant son sont pas alignés (l’écart est d’environ 11 degrés) et que les deux axes associés (rotation et
modèle d’accé- magnétique) sont décalés d’environ 450 km, les ceintures de Van Allen ne sont pas à la
lération des même altitude partout sur la Terre. Ainsi, l’endroit où ce flot de particules est le plus proche
rayons cosmiques du sol est localisé à la verticale du Brésil. Cette « anomalie magnétique de l’Atlantique Sud »
par des nuages a nécessité la pose d’un blindage supplémentaire sur la station spatiale internationale dont
de gaz agissant l’orbite passe parfois au travers de cette région. De même, le télescope spatial Hubble et le
comme miroirs satellite GLAST-Fermi éteignent leurs instruments lorsqu’ils traversent cette zone. Dans tous
magnétiques. les cas, il s’agit de se protéger des dommages que pourraient causer cette densité inhabituelle
Moins de quatre de particules chargées. Pas d’inquiétude au niveau du sol : les ceintures de Van Allen ne
semaines plus tard Fermi enverra un article s’approchent pas à moins d’une centaine de km d’altitude. Il n’est donc pas nécessaire de
au journal scientifique « Physical Review » mettre un heaume de chevalier pour visiter Copacabana !
page 50
© B. Mazoyer
densité de particules mesurée (de l’ordre de 1 eV/cm3), on montre qu’une
dizaine de pourcents de l’énergie émise par ces explosions d’étoiles
suffisent pour alimenter la production de ces particules. Le gain d’énergie Analogie entre le mécanisme
peut atteindre 1000 eV/s pendant plusieurs centaines d’années d’affilée, d’accélération de Fermi et le
ce qui est beaucoup mais insuffisant pour rendre compte de l’ensemble du tennis.
spectre des rayons cosmiques. D’autres mécanismes doivent y contribuer
mais les observations ne permettent pas actuellement de trancher entre les
candidats potentiels. Le diagramme de Hillas est une manière commode
de caractériser les différentes sources possibles au moyen de leur champ
magnétique B et de leur taille L. En effet, l’énergie apportée à un rayon
cosmique de charge q est forcément inférieure au produit qBcL, l’énergie
maximale, où c est la vitesse de la lumière dans le vide. En faisant des
hypothèses sur le rendement du processus, on obtient les relations que
doivent satisfaire B et L pour fournir des énergies données – des droites
en échelle doublement logarithmique. En plus des noyaux actifs de
galaxie déjà mentionnés plus haut dans l’article, les sursauts gamma (voir
« ICPACKOI »), voire les étoiles à neutrons, pourraient accélérer une
partie des rayons cosmiques de (très) haute énergie.
© MPIfR / A. Jessner
« éteint ». Tous ces clichés ont été pris
avec le télescope Mayall de 4 mètres de
Une onde de choc est une perturbation
l’observatoire du Kitt Peak (Arizona).
qui se propage dans un milieu. Les deux
régions séparées par cette zone (en amont
et en aval du choc) ont des propriétés très
différentes. Ainsi lors d’une explosion, Et les particules neutres ?
une bulle de gaz à très haute pression
se forme tandis que l’air extérieur reste Au contraire des particules chargées, sans cesse soumises à l’action de
à la pression atmosphérique. D’autres champs électriques et magnétiques, les particules neutres se propagent
exemples d’ondes de choc sont le « bang » en ligne droite sans réellement subir l’influence du milieu interstellaire.
supersonique émis par un avion lorsqu’il Elles apportent donc des témoignages plus fidèles sur leurs sources et les
passe le mur du son ou la lumière Cerenkov mécanismes d’accélération associés. Les photons (rayons X ou gamma)
(Élémentaire N°4) qui apparaît lorsqu’une et les neutrinos sont des produits secondaires d’interaction entre protons
particule chargée traverse un milieu à
tandis que les électrons peuvent également rayonner des photons par
une vitesse supérieure à celle qu’aurait la
lumière dans ce matériau. effet synchrotron lorsque leurs trajectoires sont courbées par des champs
Puisque nous parlons beaucoup de champs magnétiques.
magnétiques dans l’article, on peut De nombreuses expériences, déjà opérationnelles ou encore en
également mentionner la zone où le vent préparation, sont dédiées à la détection des particules neutres de
solaire rencontre le champ magnétique haute énergie. Pour les photons, il faut soit aller dans l’espace (satellite
terrestre. Cette onde de choc a été GLAST-Fermi, voir «ICPACKOI») soit utiliser un réseau d’antennes au sol
observée pour la première fois le 7 octobre (télescope HESS en Namibie). Pour les neutrinos, toujours aussi discrets,
1962 à 15h46 temps universel par Mariner il faut de grands volumes d’eau (projet ANTARES au large de Toulon, voir
2, alors en route pour Vénus. Comme le
Élémentaire N°5) ou de glace (expériences Amanda puis IceCube, voir
montre le graphique ci-dessous, le champ
magnétique mesuré par la sonde spatiale Élémentaire N°3). Observées de tous côtés, les particules énergétiques
augmente brutalement lorsque celle-ci qui nous arrivent en provenance de l’espace finiront bien par dévoiler
quitte le bouclier magnétique terrestre leurs secrets.
pour se retrouver avec le vent solaire
turbulent de face.
© The HESS Collaboration
ÉLÉMENTAÍRE
Découvertes
Le rayonnement fossile
Y’a de la friture sur la ligne ...
Printemps 1965 : Arno Penzias et Robert Wilson sont perplexes. Voilà
bientôt un an que l’instrument qu’ils utilisent pour des observations de
radioastronomie enregistre un signal d’origine inconnue. L’antenne de
© Bell Laboratories
Crawford Hill (New Jersey, États-Unis) a été construite en 1960 pour
recevoir les données des premiers satellites de télécommunication
américains « Echo » (de simples ballons métalliques réfléchissant des
ondes radio envoyées depuis le sol). Sa forme de cornet lui permet de se
focaliser sur une petite région du ciel et de minimiser les signaux parasites Robert Wilson (à gauche) et Arno Penzias (à droite)
reçus des autres directions. Les ondes radio venues de l’espace étant très posant en 1975 devant l’antenne de Crawford Hill,
faibles, elles sont amplifiées dans des circuits électriques refroidis à instrument de leur découverte.
quelques degrés au-dessus du zéro absolu grâce à de l’hélium liquide
afin de limiter leur bruit. Penzias et Wilson ajoutent aux instruments La famille d’Arno Penzias fuit Munich peu de temps après
déjà existants un système leur permettant de tester séparément les sa naissance en 1933 et s’installe à New York. Devenu
performances de l’antenne et de l’électronique. citoyen américain en 1946, Penzias étudie à l’Université
de Columbia où il soutient son doctorat en 1962. Il rejoint
ensuite les Laboratoires Bell (où ont été inventé entre autres
Le bruit inattendu observé par Penzias et Wilson dégrade les le transistor électronique, le système d’exploitation Unix dont
performances de leur détecteur et l’empêche d’atteindre la Linux dérive, ou encore les langages de programmation C et
sensibilité espérée. Cette perturbation se traduit par une élévation C++) et commence à travailler sur des récepteurs micro-ondes
de la « température » mesurée. L’un des avantages de cette cryogéniques avec Robert Woodrow Wilson. Ce dernier,
description concise est que la température mesurée dans le cas où de trois ans son cadet, a fait ses études au « California
deux contributions sont simultanément détectées (par exemple une Institute of Technology » à Pasadena (Californie). Tous
émission radio en provenance de l’espace et un signal parasite dû à deux reçoivent en 1978 le prix Nobel de physique pour leur
une imperfection de l’instrument) est simplement la somme des deux mise en évidence expérimentale du rayonnement fossile.
températures individuelles.
Température : si leur antenne mesure une énergie E, il
Bruit : tout circuit électronique ajoute une contribution parasite aux est commode de parler de sa température équivalente T,
signaux physiques qu’il reçoit et transforme. Le bruit thermique, dû exprimée en Kelvin. Les deux quantités sont reliées par la
au mouvement aléatoire des électrons dans les conducteurs peut être relation E = k × T où k= 8,62×10−5 eV K−1 est la constante
réduit en abaissant la température de l’ensemble. D’autres bruits, de Boltzmann. Une température de 3 K correspond donc
également réductibles, dépendent de la qualité de fabrication du à une énergie de 0,00026 eV.
circuit et de sa mise au point.
Radioastronomie
Il s’agit d’une branche de l’astronomie dédiée à l’étude des
émissions radio des corps célestes. Bien que très récente (la première
observation d’un signal radio en provenance du centre galactique
date de 1933), elle a permis de nombreuses découvertes : le CMB
bien sûr mais également les pulsars en 1967. En effet, la gamme
de fréquence d’un signal électromagnétique dépend du processus
physique à l’origine de l’émission. Et donc chaque nouveau mode
d’observation du ciel (optique, radio, infrarouge, rayons X, etc...)
© COBE
ÉLÉMENTAÍRE
Le rayonnement fossile
tout l’espace et serait un témoignage des premiers instants de l’Univers.
Penzias et Wilson se font envoyer l’article en question et commencent Rayonnement fossile micro-ondes
à réaliser la portée de leur découverte. Ils invitent alors les chercheurs (CMB)
de Princeton à leur rendre visite et les convainquent sans peine de la Après le Big Bang, l’Univers est resté
qualité de leurs mesures. Décision est alors prise de publier deux articles opaque 380 000 ans environ : avant
dans le même numéro de la revue « Astrophysical Journal », soumis cette date, sa température est telle que
respectivement les 7 et 13 mai 1965 : les photons qu’il contient interagissent
continuellement avec la matière ionisée ce
• un article théorique signé par le groupe de Princeton, présentant le
qui les empêche de voyager sur de grandes
rayonnement fossile micro-ondes (CMB pour «cosmic microwave distances et donc de nous apporter leur
background») et expliquant son origine ; « lumière ». À mesure que l’Univers se
• un article expérimental, écrit par Penzias et Wilson, « Mesure d’un excès dilate, sa température diminue. Lorsque
de température d’antenne à 4080 MHz », décrivant l’excès de température les photons n’ont plus assez d’énergie pour
enregistré dans l’antenne du New Jersey (3,5 ± 1,1 K, isotrope au niveau ioniser l’atome le plus simple, l’hydrogène,
de 10%) sans mentionner ses implications possibles en cosmologie. ils se découplent de la matière et l’Univers
devient transparent (voir « Théorie »).
La petite histoire veut que Dicke, apprenant la découverte de Penzias et C’est l’empreinte de cet événement que
Penzias et Wilson ont découvert dans leur
Wilson, ait dit à ses collaborateurs : « les gars, on s’est fait griller ». Si sa
antenne. L’expansion de l’Univers s’étant
remarque s’adresse dans son esprit uniquement à son équipe – laquelle poursuivie pendant plus de treize milliards
construit une antenne précisément pour détecter ce rayonnement, ce d’années, ces photons ont « refroidi »
qu’elle parvient d’ailleurs à faire au mois de décembre de la même jusqu’à 2,7 K.
année – elle a une portée plus large. L’excès de température était en fait L’émission du CMB correspond donc
déjà présent (mais presque invisible) dans des données enregistrées à à un instant bien précis de l’histoire
Crawford Hill lors des expériences de communication avec les satellites de l’Univers. Si nous l’observons en
Echo : au lieu d’une valeur attendue de 18,9 ± 3,0 K pour la température permanence aujourd’hui, c’est parce qu’il
de l’antenne, les mesures avaient donné 22,2 ± 2,2 K. Comme l’excès s’est produit au même moment en chaque
point de l’espace. Comme l’Univers est
était dans la fourchette d’erreur attendue, il ne fut pas jugé significatif. De
très étendu, il y a toujours une partie de
toute manière le dispositif expérimental ne permettait pas de séparer les la « surface de dernière diffusion » située à
bruits de l’antenne de ceux de l’électronique, ce qui rendait impossible une distance telle que les photons émis de
l’identification de sa source. Cet épisode montre bien le mérite de Penzias cet endroit nous parviennent maintenant.
et Wilson : par leur compréhension de l’instrument et la précision de leurs Le même genre de phénomène serait
mesures, ils ont préparé le terrain pour leur découverte... fortuite ! observé par une personne placée au
milieu d’une foule immense dont tous
Des recherches dans des publications plus anciennes montrent alors les membres hurleraient le même mot au
que la première indication, non pas du CMB mais d’un excès d’énergie même moment. Bien que le cri ne dure
qu’un instant, la personne entendrait un
à une température voisine de 3 K, est en fait cachée dans des spectres
cri continu qui proviendrait sans cesse
d’émission du milieu interstellaire ! Ces observations vieilles de près de d’un endroit plus éloigné.
trente ans montrent en effet la présence d’une raie de cyanure dans le
milieu interstellaire (une molécule formée d’un atome de carbone et d’un
atome d’azote, produite comme plus de cent autres par des réactions
chimiques dans l’Univers). Les atomes absorbent l’énergie de photons
du CMB dont l’énergie correspond précisément à la différence entre le
fondamental et le premier niveau excité du cyanure. Puis ils reviennent au
repos en ré-émettant un photon de même énergie. Les photons forment la
raie du spectre d’émission détectée sur Terre, lequel porte donc la marque
du CMB.
ÉLÉMENTAÍRE
Le rayonnement fossile
doit être isotrope et présent partout dans l’Univers. Leurs travaux sont
Corps noir redécouverts indépendamment par Zel’dovich et Dicke au début des
C’est un objet physique idéal qui absorbe la totalité
années 1960. En 1964, Dorochkevitch et Novikov déterminent les
du rayonnement qu’il reçoit sans rien réfléchir ni
transmettre – d’où son qualificatif : « noir ». Un principales propriétés du CMB et soulignent le potentiel de ... l’antenne
corps noir émet un rayonnement caractéristique, Bell de Crawford Hill pour sa recherche ! L’observation de Penzias et
entièrement déterminé par un paramètre unique, Wilson l’année suivante retient donc immédiatement l’attention de la
appelé température. Le CMB est, à l’heure actuelle, le communauté des chercheurs et leurs mesures sont immédiatement
phénomène qui se rapproche le plus d’un corps noir interprétées et comparées aux prédictions alors disponibles.
parfait car l’Univers était à l’équilibre thermique
au moment où ce rayonnement a été émis. Plus
prosaïquement, un four maintenu à température
constante est un bon exemple de « quasi-corps noir ».
Les brillants résultats de COBE
Les étoiles peuvent également être décrites comme des L’une des prédictions fondamentales de la théorie du CMB est que son
corps noirs, ce qui permet de déterminer avec une assez
spectre, c’est-à-dire son intensité en fonction de la longueur d’onde
bonne précision leur température de surface. Pour la
petite histoire, les nombreux travaux théoriques menés (ou de la fréquence), est celle d’un corps noir, caractérisé uniquement
dans le dernier quart du XIXe siècle pour expliquer la par sa température TCMB. La grande majorité des mesures effectuées
forme du spectre du corps noir ont ouvert la voie vers durant les vingt années qui suivent la découverte du CMB confortent
« l’invention » du photon et la mécanique quantique. cette hypothèse et donnent TCMB ≈ 2,7K. La confirmation vient en 1990
lorsque les mesures de l’instrument FIRAS embarqué sur le satellite
COBE sont publiées : TCMB = 2,725 ± 0,002K et le spectre est en parfait
accord avec celui d’un corps noir. Si elles existent, les déviations relatives
par rapport à cette courbe sont inférieures à 50 millionièmes, ce qui fait
du CMB le meilleur corps noir connu aujourd’hui.
Deux ans plus tard, les scientifiques en charge de l’analyse des données de
DMR, un autre détecteur emporté par COBE, rendent publique la première
carte des asymétries du CMB, c’est-à-dire des différences de température
du rayonnement en fonction de la direction d’observation. Les premières
mesures de Penzias et Wilson montraient un rayonnement isotrope, aux
erreurs de mesure près. Et de fait, les anisotropies sont minuscules : au
niveau du millième de pourcent, une fois soustraites les contributions
Doppler liées au mouvement de la Terre autour du Soleil et de celui-ci
par rapport au CMB, qui
sont de l’ordre du dixième
de pourcent. Comprendre
l’origine de ces variations de
température et expliquer leur
© COBE
ÉLÉMENTAÍRE
Le rayonnement fossile
Avec la mesure du spectre de corps noir du CMB et la mise en évidence
des anisotropies de température, COBE apparaît vraiment comme une
expérience fondatrice. Le jury du prix Nobel de physique 2006 a d’ailleurs
récompensé George Smoot et John Mather (responsables respectivement
des instruments DMR et FIRAS) en justifiant ainsi son choix : « le projet
COBE a marqué l’entrée de la cosmologie parmi les sciences de précision ».
Par contre, ce sont ses successeurs qui ont mené à bien la détermination
précise du spectre angulaire du CMB et son interprétation cosmologique :
tout d’abord des expériences au sol ou en ballon (comme BOOMERANG
© COBE
ou ARCHEOPS), puis le satellite WMAP, dont la précision et la variété des
© COBE
mesures ont surpassé tous les résultats obtenus jusqu’alors.
ÉLÉMENTAÍRE
Le rayonnement fossile
Les paramètres mesurés par WMAP sont présentés dans l’article
« Théorie ». Ici, on peut simplement dire qu’ils concernent son âge, son
évolution (de la phase d’inflation initiale à l’expansion actuelle) ou encore
sa composition. À mesure que la quantité de données analysée augmente
et que son traitement s’améliore, les mesures se font plus précises et plus
complètes : la moisson de WMAP n’est pas encore terminée !
polarisation du CMB
Le satellite WMAP, « Wilkinson Micro-
Après le succès des expériences COBE et WMAP, que nous reste-t-il
wave Anisotropy Probe », en français
« observatoire Wilkinson de l’anisotropie à apprendre du CMB ? Beaucoup de choses en fait : des scientifiques
du rayonnement micro-ondes », baptisé américains et européens ont mis la dernière main à l’expérience de la
en l’honneur de David Wilkinson, un prochaine génération : Planck, du nom du physicien allemand Max Planck
membre de la collaboration MAP décédé en dont les travaux sur la compréhension du spectre du corps noir ouvrirent,
septembre 2002 et qui travaillait déjà sur le à la toute fin du XIXe siècle, la voie vers la mécanique quantique.
CMB dans le groupe de Dicke à Princeton
près de quarante ans auparavant. Vous en saurez plus en lisant l’article de ce numéro
consacré à ce satellite, qui a été lancé le 14 mai 2009.
Le satellite Planck améliorera les résultats de WMAP à
toutes les échelles angulaires. Il réalisera également les
premières mesures détaillées de la polarisation du CMB
(fluctuations au niveau du microkelvin), fondamentales
pour comprendre encore mieux les premiers instants de
l’Univers : c’est la nouvelle frontière du rayonnement
fossile !
ÉLÉMENTAÍRE
Le modèle
Georges Lemaître
avec le modèle statique préféré alors par Einstein. Lemaître tire de son
Georges Lemaître est
né à Charleroi le 17 modèle une conséquence simple et pourtant remarquable. Remplacez les
juillet 1894. Après avoir points de notre ballon par des galaxies. Lorsqu’on gonfle le ballon, ces
étudié les humanités galaxies s’éloignent les unes des autres, et ce d’autant plus vite qu’elles
chez les Jésuites, il sont éloignées.
entre à dix-sept ans à
l’école d’ingénieurs de Depuis les années 1917-18, on soupçonne une telle fuite des galaxies.
l’Université catholique En effet, plusieurs astronomes analysent la lumière provenant de galaxies
de Louvain. En 1914, il lointaines. Sur son parcours, celle-ci traverse des nuages de gaz qui
interrompt ses études
DR
ÉLÉMENTAÍRE
Le modèle cosmologique standard
Magnitude effective
à la vitesse de 75 km/s.
ÉLÉMENTAÍRE
Le modèle cosmologique standard
Notre histoire commence donc il y a 13,7 milliards d’années, après que
l’Univers s’est suffisamment dilué pour qu’on puisse négliger ces effets inconnus
Asymétrie particule/antiparticule et séparer la gravitation « classique » des autres interactions fondamentales, qui
Le physicien soviétique Andreï Sakharov requièrent une description quantique aux échelles d’énergie considérées. En
a formulé en 1967 les trois conditions imaginant qu’il existe un « début » de l’Univers, cela correspondrait à environ
nécessaires pour créer une asymétrie entre 10-43 seconde après cet instant initial. L’Univers est alors rempli de manière
matière et antimatière dans l’Univers, homogène d’une soupe de particules extrêmement dense et chaude : sans
alors que le Big Bang est a priori une cesse, certaines se désintègrent tandis que d’autres sont créées sous forme de
situation symétrique : paires particule-antiparticule. L’Univers est en expansion rapide, ce qui diminue
• asymétrie des interactions de la
la densité des particules, tout comme la température. Au fur et à mesure, il
matière et de l’antimatière : il faut que les
symétries C (conjugaison de charge) et CP devient donc de plus en plus difficile de créer des particules massives, qui se
(conjugaison de charge et renversement désintègrent et disparaissent au détriment de particules plus légères.
par parité) ne soient pas respectées par
certaines interactions. Tandis que l’Univers s’étend progressivement tout en se refroidissant, différents
• création de baryons (contenant trois phénomènes se produisent. Vers 10-36 seconde, la force forte et la force
quarks, comme le proton et le neutron) : électrofaible se différencient. Puis vers 10-12 seconde, la force électrofaible se
il faut qu’il existe des processus ne scinde en forces électromagnétique et faible, et toutes les particules acquièrent
conservant pas le nombre baryonique, une masse du fait de la brisure de la symétrie électrofaible, liée aux propriétés
c’est-à-dire que le nombre de baryons et
du boson de Higgs (voir Élémentaire N°6). À cette époque, les particules et les
le nombre d’antibaryons créés au cours de
certains processus soient différents. forces en présence sont tout à fait équivalentes à celles connues actuellement et
• rupture de l’équilibre thermique : s’il étudiées dans les accélérateurs de particules, mais la température et la densité
y avait équilibre thermique, les taux des sont bien supérieures à tout ce que nous connaissons. Une légère asymétrie
réactions produisant un excès de baryons entre particules et antiparticules serait apparue de sorte qu’une petite quantité
seraient égaux à ceux des réactions de matière ait survécu, alors que (presque) toute l’antimatière a disparu.Il faut
produisant un excès d’antibaryons, attendre 10-6 seconde après le Big Bang pour que la situation soit assez calme et
de sorte qu’aucune asymétrie ne se que les quarks puissent s’associer pour former des hadrons, comme les protons
produirait. et les neutrons – auparavant, l’agitation environnante aurait rapidement éjecté
Le Modèle Standard de la physique des
un des quarks hors de notre pauvre hadron, réduit en miettes !
particules contient bien des processus
satisfaisant ces critères, mais ils sont trop
faibles pour expliquer l’asymétrie entre À partir de trois minutes, l’Univers est donc essentiellement empli de photons,
matière et antimatière dans l’Univers. d’électrons, de protons et de neutrons. Ces derniers ne vivent pas vieux quand
Parmi les pistes alternatives, on évoque, ils sont tous seuls, hors des noyaux atomiques : au bout de seulement quinze
entre autres, diverses extensions du minutes, ils se désintègrent en protons. Ne peuvent survivre que les neutrons
Modèle Standard, ou encore la création qui s’associent avec des protons pour former les premiers noyaux stables, en
d’une asymétrie initiale entre leptons particulier ceux d’hélium. Les réactions de fusion nucléaire permettant cette
et antileptons convertie par la suite en nucléosynthèse primordiale ne sont possibles que pendant une petite vingtaine
asymétrie entre baryons et antibaryons...
de minutes : l’expansion de l’Univers a ensuite trop dilué les noyaux pour
autoriser ces réactions.
L’Univers continue à se refroidir, tout comme les photons qu’il contient. Environ
Photons 380 000 ans après le Big Bang, ces derniers sont si peu énergétiques qu’ils ne
Au fur et à mesure de l’expansion
peuvent plus empêcher les électrons et les noyaux de s’associer pour former des
de l’Univers, la distance s’accroît
progressivement entre deux points qui
atomes neutres électriquement. À la fin de ce processus de « recombinaison »,
n’ont pas de mouvement relatif propre. les photons ne rencontrent plus de particules chargées, mais des atomes neutres
De la même manière, les photons voient qu’ils ne peuvent plus ioniser. Ils peuvent donc parcourir de longues distances
leur longueur d’onde augmenter, ce sans interagir avec la matière. L’Univers devient donc transparent, empli
qui correspond à une diminution de la principalement d’hydrogène, d’hélium, de lithium et de photons.
température associée. Ces nuages de gaz sont très homogènes, mais il existe quand même des zones
page 62
ÉLÉMENTAÍRE
Le modèle cosmologique standard
légèrement plus denses ou moins denses. Les zones plus
denses tendent, par gravité, à attirer encore un peu plus la
matière environnante et vident les zones moins denses. Il
faut attendre au moins 150 millions d’années après le Big
Bang pour voir apparaître les premiers objets lumineux (les
quasars) et les premières étoiles ! Leur lumière ionise les
nuages d’hydrogène interstellaire, tandis qu’en leur cœur, les
noyaux légers fusionnent pour constituer des éléments plus
lourds. Plusieurs générations d’étoiles se succèdent et, autour
de l’une d’entre elles, au bout de neuf milliards d’années, se
forme notre système solaire. Enfin, onze milliards d’années
après le Big Bang, la vie apparaît sur Terre.
Ainsi, les théoriciens ont imaginé que l’Univers ait subi une phase
d’expansion accélérée extrêmement rapide (exponentielle). On la situe
généralement entre 10-36 et 10-32 seconde après le Big Bang, alors que
les interactions fondamentales commencent à acquérir leur individualité.
Ainsi, les théoriciens pensent souvent que ce phénomène d’inflation est
lié à cette différenciation progressive des forces fondamentales. Dans la
phase d’inflation, un tout petit domaine de l’Univers enfle démesurément
pour atteindre des dimensions gigantesques, qui dépassent, à l’époque,
la taille de la région qui deviendra notre horizon actuel. Le problème
de l’horizon est résolu : toute la partie visible de l’Univers, que nous
observons à travers le CMB, provient de ce domaine initial.
page 64
ÉLÉMENTAÍRE
Le modèle cosmologique standard
Répartition des superamas de
galaxies dans un rayon de 100
millions d’années lumière autour
de la Voie Lactée. En particulier,
notre galaxie appartient au
superamas de la Vierge.
© 2dF Galaxy Redshift Survey
© Richard Powell
distance mesurée et donc à l’ancienneté de la galaxie. On voit que dans le passé (grandes
distances) l’Univers était relativement homogène Au cours du temps de nombreux
superamas et zones de vide apparaissent.
fréquences qui
composent un
signal sonore.
La figure résul-
tante peut être interprétée comme la mesure des corrélations existant
entre les températures de deux régions de l’espace éloignées d’une
certain angle : plus le « moment du multipôle » ℓ est grand, plus l’angle
est petit. On voit apparaître des oscillations, qu’on peut expliquer par la
compétition entre deux processus antagonistes : la gravitation, qui tend
à accroître les hétérogénéités de matière, et la pression de radiation, qui
cherche au contraire à diluer ces hétérogénéités. À grand ℓ, on s’attend
Comment le spectre du CMB varie quand à une décroissance des hétérogénéités, du fait d’interactions physiques
on modifie certains paramètres du modèle entre des zones séparées par de faibles distances.
standard cosmologique, à savoir la courbure Le caractère oscillatoire de ce spectre est un reflet de la phase d’inflation
de l’Univers, la densité d’énergie noire, celle de l’Univers primordial. La hauteur et la position des pics dépendent
de matière baryonique (« ordinaire ») et de façon importante des valeurs de certains paramètres du modèle
celle de matière (y compris la matière noire). ΛCDM, par exemple la densité de matière, mais pas de tous (elle n’est
On voit que la hauteur et la position des pics par exemple guère affectée par la densité d’énergie noire).
sont sensibles à certains de ces paramètres.
page 66
ÉLÉMENTAÍRE
Le LHC
Démarrage du LHC le 10 septembre 2008
Ce jour était impatiemment attendu par la communauté mondiale des phy-
siciens des hautes énergies. La première injection d’un faisceau de protons
dans le LHC allait être tentée. Tous ceux qui depuis des années – souvent
depuis plus de 20 ans - ont travaillé à la construction de l’accélérateur, la
réalisation des détecteurs, la préparation des infrastructures et des analy-
ses, sentaient enfin approcher la période excitante de la prise de données
et la fièvre des premiers résultats.
Les experts de l’accélérateur avaient préparé soigneusement cet événe-
ment depuis des semaines : des essais de transfert de protons entre le SPS
et l’anneau du LHC avaient déjà été réalisés avec succès quelques semai-
nes auparavant.
Par ailleurs, le CERN et ses pays membres avaient lancé une couverture
médiatique sans précédent pour informer les citoyens des tenants et des
© CERN
aboutissants de ce démarrage. Les articles dans les journaux et les repor-
tages à la télévision se succédaient, présentant les enjeux de la mise en
fonctionnement du plus grand accélérateur au monde. La procédure d’in- Le complexe accélérateur du CERN.
jection allait être suivie en particulier par des équipes de la BBC et retrans- Avant d’arriver dans le LHC, les protons
mise en direct dans le monde entier. sont progressivement accélérés par un
accélérateur linéaire et plusieurs anneaux
Le 10 septembre 2008, c’était donc la foule des grands jours dans le centre (en particulier le PS et le SPS). Dans le SPS,
ils atteignent 450 GeV et sont par la suite
de contrôle du LHC. Ingénieurs, journalistes et physiciens allaient et ve-
injectés dans le LHC.
naient dans cette salle comble, tandis que le personnel du CERN suivait la
retransmission sur des écrans placés dans plusieurs bâtiments du site. Tous
les anciens directeurs du CERN étaient présents pour assister à ce grand
moment auquel ils avaient contribué, chacun à sa façon, au cours de leurs
mandats respectifs.
La procédure de démarrage du LHC était établie depuis longtemps :
d’abord, un seul paquet de protons injecté depuis le SPS devait parcourir
les 27 kilomètres de l’anneau à son énergie initiale de 450 GeV. Une fois
ce parcours réalisé, on allait tenter d’augmenter l’énergie en mettant en
marche les cavités accélératrices et en réglant les aimants supraconduc-
teurs. Puis, deux faisceaux sont injectés dans des sens opposés dans le
LHC. Enfin, le nombre de paquets circulant est augmenté de façon à obte-
© CERN
ÉLÉMENTAÍRE
Démarrage du LHC le 10 septembre 2008
Les directeurs du CERN du plus récent
(en exercice jusqu’au mois de janvier
2009) au plus ancien, réunis dans la salle
de contrôle du LHC pour assister à son
démarrage (de gauche à droite) : Robert
Aymar, Luciano Maiani, Chris Llewellyn-
© R.Bailey CERN
© CERN
Tous ont contribué durant leurs mandats
respectifs à la réalisation de ce projet de
longue haleine.
Instantané des paquets de protons
de deux taches lumineuses décalées : la première correspondra au pa-
dans le plan perpendiculaire à l’axe
des faisceaux. Les deux taches du
quet entrant dans le LHC et la seconde, au même paquet ayant accompli
paquet de protons correspondent à un tour complet. Tous les yeux se tournèrent vers les écrans alors que Lyn
des mesures de courant effectuées Evans égrenait « 5,4,3,2,1,0 ».. et les applaudissements fusèrent de par-
localement à un des multiples tout au moment de l’apparition simultanée des deux fameuses taches.
points de contrôle installés le long
du LHC. Si elles ont déclenché des Par la suite, les spécialistes de la machine ont réussi avec la même facilité
applaudissements enthousiastes, elles apparente l’injection du faisceau dans le sens opposé. Puis, les efforts se
signifient aussi que la trajectoire suivie sont concentrés sur l’augmentation du temps de vie du paquet.
par ce paquet n’est pas parfaitement
Les protons perdent de l’énergie par rayonnement en tournant dans l’an-
fermée puisqu’au bout d’un tour,
celui-ci ne revient pas exactement
neau avec des conséquences qui s’enchaînent: la dispersion en énergie
sur sa position initiale. En effet, en du paquet augmente, ses dimensions aussi. En effet, le champ magnéti-
absence de réglages supplémentaires, que dipolaire courbe différemment les protons suivant leur énergie et au
ce paquet continuera de dévier et fil des passages, la taille des paquets augmente et les protons sont perdus
sera perdu lors des tours suivants. par collision avec des obstacles. Pour palier ces pertes, on surveille les
On peut lire sur les axes de ce paramètres du paquet de protons (étendue latérale, dispersion en éner-
cliché les dimensions du paquet de gie des protons) en plusieurs points de sa trajectoire et on corrige des
protons : environ 10 mm (et 5 mm) déviations éventuelles en agissant d’une part sur les aimants de façon à
de diamètre horizontal (vertical).
ce que les particules passent exactement par le même point tour après
L’apparition des deux taches est
quasi simultanée puisque les protons
tour et d’autre part sur la radiofréquence pour les accélérer à leur énergie
mettent un dixième de milliseconde nominale.
pour effectuer un tour dans le LHC.
ÉLÉMENTAÍRE
Démarrage du LHC le 10 septembre 2008
pés, absorbés par la matière, et créent des gerbes de particules.
Parmi celles-ci seules parviennent à émerger hors des collimateurs
celles qui interagissent le plus faiblement, en particulier les nom-
breux muons apparus lors du choc des protons. Compte tenu du
grand nombre de protons ayant heurté les collimateurs et de muons
créés par chacune des collisions, une pluie de particules a inondé
l’ensemble des détecteurs. En ajoutant les énergies de tous les dé-
pôts dans les calorimètres, on a mesuré des centaines de TeV pour
de tels événements !
Ce grand nombre de particules est très utile pour certains types
d’études, en particulier pour la synchronisation de tous les canaux
© CERN
d’électronique. Sachant que toutes les particules contenues dans un
événement sont produites au même instant, elles doivent aussi être
mesurées simultanément. Si tous les canaux des détecteurs ne don-
nent pas une réponse simultanée, c’est alors que certains retards
internes (câbles de longueur différentes, temps de traitement, etc),
spécifiques à chaque canal, n’ont pas été compensés.
Visualisation d’un événement « splash » dans ATLAS.
L’image comprend une coupe du détecteur suivant l’axe du
Le 19 septembre : un croche-pied faisceau (en bas) et une coupe perpendiculaire (en haut).
Depuis le point d’interaction (au centre des deux coupes)
en plein élan on rencontre les différentes parties de sous-détecteurs, de
reconstruction des traces chargées, suivis des calorimètres
électromagnétique et hadronique et finalement du
Après la première injection, le rodage de la machine a continué spectromètre pour les muons (voir la description d’ATLAS
en mode simple, c’est-à-dire en faisant circuler un seul paquet de dans Élémentaire N°2). Sur les deux coupes on voit un
protons en provenance du SPS sans accélération supplémentaire grand nombre de signaux enregistrés dans le détecteur,
dans le LHC. Les experts de l’accélérateur profitent des moments représentés en vert et rouge.
sans faisceau pour préparer les dipôles en y injectant le courant
nécessaire à la prochaine montée en énergie de 450 GeV à 5 TeV.
Le 19 septembre, lors d’essais d’alimentation des dipôles du secteur 3- 4,
une défaillance dans une connexion électrique s’est produite en une ré-
gion située entre un dipôle et un quadripôle. Les analyses effectuées ul-
térieurement ont montré que lorsqu’on a augmenté le courant pour un
fonctionnement à une énergie de 5.5 TeV, une résistance électrique est
apparue, ce qui a fait disjoncter le système d’alimentation. Ceci a déclen-
ché la procédure de sécurité prévue dans ce cas, à savoir la vidange du
courant déjà stocké dans les aimants. Une série de transitions résistives
(appelées aussi quench, présentées dans la rubrique LHC, N°6) a eu lieu
© CERN
ÉLÉMENTAÍRE
Démarrage du LHC le 10 septembre 2008
Et maintenant ?
© CERN
ÉLÉMENTAÍRE
ICPACKOI ?
[isepasekwa] ?
GLAST : une nouvelle « star » dans le ciel
Mercredi 11 juin 2008, 8h 30 du matin en Californie. L’un des grands
amphithéâtres du Stanford Linear Accelerator Center est noir de monde :
l’auditoire a les yeux rivés sur un mur d’écrans installé sur l’estrade. Sur le
plus grand d’entre eux on peut voir une fusée sur le point d’être lancée par
la NASA au Kennedy Space Center (Floride). Les autres écrans montrent
plusieurs groupes de personnes regardant les mêmes images depuis leurs
laboratoires respectifs : les équipes de la collaboration GLAST (« Gamma
ray Large Area Space Telescope ») attendent le départ du satellite sur le-
quel elles ont travaillé pendant de nombreuses années.
Soudain, les visages se font plus tendus : le compte à rebours vient de
s’arrêter à H – 5 minutes. Une station radar située sur l’île d’Antigua (dans
les Antilles) et chargée de suivre la fusée après le lancement n’est plus
opérationnelle tandis qu’un voyant d’alarme au niveau du pas de tir vient
de s’allumer. Suit presque immédiatement une intervention de la station
météo de Cape Canaveral indiquant que la fenêtre de lancement pour la
journée se refermera dans une vingtaine de minutes à cause des nuages
© NASA
qui s’amoncellent au-dessus de Cocoa Beach. Pour l’assistance c’est la
douche froide : le départ de GLAST va-t-il être retardé ?
Lancement du satellite d’observation
Heureusement les deux problèmes se révèlent bénins. Le décompte repart
gamma GLAST, le 11 juin 2008 par une
et, à 9h05, la fusée Delta-II décolle. Le lancement est un succès complet : fusée Delta-II, à Cape Canaveral. Le
à 10h20 GLAST est placé sur orbite basse à 550 km d’altitude. En 12 mi- panache au second plan est causé par la
nutes ses panneaux solaires se déploient et apportent l’énergie nécessaire vaporisation d’un grand volume d’eau
pour alimenter les ordinateurs de bord et les instruments scientifiques. stocké sous le pas de tir et qui sert à évacuer
Une fois cette phase critique terminée, les tests des systèmes embarqués la chaleur produite lors du décollage ainsi
peuvent commencer : il s’agit de s’assurer de leur bon fonctionnement et qu’à diminuer le volume sonore généré.
de calibrer les différents détecteurs. Ces vérifications doivent prendre de En fond on peut voir l’Océan Atlantique.
un à deux mois, ce qui est finalement peu par rapport à la durée de vie Les pas de tirs d’où ont été lancés tous les
vols spatiaux américains (vers la Lune,
du satellite : cinq ans d’après le cahier des charges tandis que les équipes
les navettes, etc.) sont situés à quelques
de chercheurs espèrent au moins le double. kilomètres sur la même île.
GLAST, dont le coût total est environ deux cent millions de dollars, est
une mission de la NASA conçue en collaboration avec des laboratoires
Calibrer
L’étalonnage d’un instrument scientifique est un préalable obligatoire à toute expérience : on utilise une référence pour laquelle on connaît
à l’avance le résultat de la mesure afin de faire la correspondance entre le signal enregistré par le détecteur et l’unité dans laquelle on veut
le convertir. En pratique on effectue plusieurs mesures avec différentes références afin d’obtenir la description la plus complète possible de
l’instrument. GLAST n’échappe pas à la règle et son bon fonctionnement requiert de nombreux étalonnages :
- performances (niveau de bruit et d’amplification) des circuits électroniques ;
- alignement des différents détecteurs les uns par rapport aux autres et orientation absolue du satellite dans l’espace ;
- correspondance entre signaux enregistrés et énergies des rayons gamma détectés ;
- synchronisation temporelle de tous les composants, etc.
Selon leur stabilité (estimée par des tests au sol avant le lancement ou des simulations informatiques), ces étalonnages sont mis à jour plus
ou moins rapidement. Pour les plus sensibles, des nouvelles données sont enregistrées plusieurs fois par seconde ; dans tous les cas, des
systèmes complexes de surveillance suivent leur évolution et interviennent lorsqu’une dérive est observée sur les signaux de contrôle. Ces
étalonnages sont en général basés sur des phénomènes physiques offerts par la Nature, par exemple des étoiles fixes pour l’orientation ou
les rayons cosmiques (qui viennent frapper GLAST en permanence) pour l’énergie. Des protons (le bruit de fond dominant) servent aux
étalonnages absolus en énergie tandis que les signatures caractéristiques des ions lourds (carbone, azote, oxygène, fer, etc.) sont utilisées
pour suivre leurs dérives.
page 71
ÉLÉMENTAÍRE
[isepasekwa] ?
américains, européens (Allemagne, France, Italie et Suède) et japonais.
Ce satellite embarque deux instruments spécialisés dans l’observation
des rayons gamma : des photons, similaires à ceux qui constituent la
lumière visible, mais bien plus énergétiques. Ces particules, émises par
des objets extérieurs au système solaire, ne peuvent pas pénétrer l’atmos-
phère à moins d’avoir une énergie considérable. Ainsi, les phénomènes
détectables sur Terre sont limités en nombre et les signaux reçus sont de
faible intensité. Or les rayons gamma sont des « messagers cosmiques »
très intéressants : neutres et sans masse, ils apportent des informations
sur la nature de leur source ; de plus, leur énergie est essentiellement
préservée sur leur parcours, ce qui permet d’obtenir des renseignements
sur les phénomènes qui leur ont donné naissance : explosions d’étoiles,
© NASA
LAT
Le LAT utilise une technologie qui le rend très similaire aux détecteurs de physique des particules. Il est composé de seize tours identiques, or-
données en quatre lignes et quatre colonnes. La partie supérieure est un détecteur de traces, un assemblage de couches de silicium séparées par
de minces feuilles de tungstène. Lorsqu’un photon traverse l’une de ces dernières, il a une probabilité non nulle (et croissante avec son énergie)
de se convertir en une paire électron-positron. Au contraire des photons les particules chargées laissent des traces dans le silicium ce qui permet
de reconstruire leurs trajectoires, quasi-rectilignes et dans le prolongement du rayon gamma – en fait leur direction est modifiée de manière
aléatoire à chaque interaction avec le silicium mais la déviation est d’autant plus faible qu’elles sont énergétiques.
Le bas des tours contient un calorimètre qui mesure l’énergie des particules. Les informations combinées des deux détecteurs sont utilisées pour
sélectionner les événements intéressants. De plus, le LAT est entouré d’un « détecteur d’anti-coïncidences » à scintillations (l’ACD) sensible
aux particules chargées (des rayons cosmiques qui interagissent avec le détecteur de traces et le calorimètre) mais pas aux photons. Lorsque
l’ACD détecte une de ces particules les données du LAT sont ignorées puisqu’elles ont vraisemblablement été produites par ce signal parasite.
Les algorithmes de décision au niveau du satellite permettent ainsi d’éliminer 75% du bruit de fond ce qui améliore le potentiel de détection du
télescope tout en limitant le flot de données transmises vers le sol. 99% du bruit de fond restant est rejeté lors de la phase d’analyse au sol, effec-
tuée par 600 ordinateurs basés à SLAC. L’ensemble de la chaîne de traitement, du satellite GLAST aux stations de travail des physiciens, prend à
peine quelques heures. Au final le taux de gamma « célestes » enregistré est de l’ordre d’une particule par seconde, soit tout de même plusieurs
dizaines de millions de photons par an !
page 72
ÉLÉMENTAÍRE
[isepasekwa] ?
Sursauts gamma
Les sursauts gamma sont des émissions violentes de photons énergétiques qui durent de quelques
secondes à quelques dizaines de minutes, apparaissent de manière aléatoire dans le ciel (à une
fréquence de l’ordre d’un événement par jour) et dont les sources sont très éloignées de la Terre.
Ce sont les phénomènes les plus puissants jamais observés : l’énergie dégagée par chaque sursaut
gamma correspond au rayonnement émis par un millier d’étoiles comme le Soleil pendant toute
leur vie. C’est également l’ordre de grandeur de l’énergie qu’on obtiendrait si la totalité de la
masse du Soleil était convertie en énergie par la formule d’Einstein E = Mc2.
Ces phénomènes furent détectés pour la première fois en 1969 par des satellites espions américains
en particulier chinois.
Ni l’étalonnage en énergie, ni l’alignement
ne sont parfaits mais l’important est, par
cette première analyse, de montrer que le
satellite est opérationnel.
page 73
ÉLÉMENTAÍRE
[isepasekwa] ?
© EGRET NASA
À gauche : carte du ciel dans le domaine des rayons gamma (énergie supérieure à 100 MeV)
obtenue en accumulant toutes les données enregistrées par le prédécesseur de GLAST,
l’observatoire EGRET (« Energetic Gamma Ray Experiment Telescope ») en service de 1991
à 2000. À droite : une simulation de la carte équivalente que devrait obtenir GLAST après
seulement un an de prise de données. La comparaison est éloquente : on dirait deux clichés du
© GLAST
ÉLÉMENTAÍRE
[isepasekwa] ?
Ballons-sondes
Pamela : Alerte aux positrons Pamela a été conçu par la collaboration
italienne WiZard, qui a mené de nom-
Non, non, Élémentaire n’a pas décidé de breuses campagnes de mesures sur ballons-
vous envoyer une carte postale de Malibu, sondes entre 1989 et 1998. Ces ballons
qui, comme MASS89, MASS91, TS93,
mais plutôt de vous faire part d’une nou-
CAPRICE94 et CAPRICE98, portaient
velle surprenante concernant les rayons des détecteurs très proches de ceux utilisés
cosmiques. Notre Pamela n’est autre... en physique des particules ont mesuré
qu’un détecteur installé sur un satellite, le rapport particule/antiparticule et le
© WiZard collaboration
dont le nom est l’acronyme de Payload spectre en énergie pour les antiprotons
for Antimatter Exploration and Light-nu- et les positrons contenus dans les rayons
clei Astrophysics. cosmiques. Les résultats accumulés, et
complétés par d’autres mesures en ballons-
Lancé le 15 juin 2006 par une fusée russe Le lancement de la sonde sondes, ont débouché sur une collaboration
CAPRICE 94 avec le ballon en russo-italienne, avec des expériences
Soyouz, comme nous l’annoncions dans
l’air et la sonde au sol. embarquées sur la station spatiale russe
le numéro 3 d’Élémentaire (rubrique « Cen- MIR à partir de 1995. Des détecteurs à base
tre »), Pamela a été placé sur le satellite russe Resurs-DK1 qui évolue en- de silicium y étaient utilisés pour étudier
tre 350 et 610 kilomètres d’altitude sur une orbite elliptique autour de la les rayonnements solaires et cosmiques
Terre. Prenant la suite de travaux menés à l’aide de ballons-sondes, cette de basse énergie. Pamela constitue l’étape
collaboration entre l’Italie, la Russie, l’Allemagne et la Suède a décidé suivante de cette collaboration.
d’étudier la composition des rayons cosmiques (constitués d’électrons,
positrons, protons, antiprotons, noyaux légers) pour des énergies allant
de 50 MeV à quelques centaines de GeV.
ÉLÉMENTAÍRE
[isepasekwa] ?
gaz interstellaires (les mêmes processus peuvent avoir lieu avec des noyaux
légers). Ce phénomène s’ajoute aux nombreux autres processus astrophy-
siques (supernovæ, pulsars, noyaux actifs de galaxies...) qui produisent en
proportion variable des électrons, des positrons, et les autres constituants
des rayons cosmiques.
Au final, donc, rien d’étonnant à ce que Pamela observe des positrons. Mais
selon les modèles astrophysiques en vigueur, leur proportion devrait dimi-
nuer avec l’énergie, alors que Pamela observe au contraire une augmen-
tation ! Au même moment, des ballons-sondes des collaborations ATIC et
PPB-BETS, qui ne sont pas sensibles à la charge des particules, mais seu-
lement à leur énergie, ont également observé un excès du nombre total de
positrons et d’électrons dans les rayons cosmiques autour de 700 GeV.
Rapidement, plusieurs explications ont été avancées... Certains physiciens
© Pamela
ÉLÉMENTAÍRE
La question qui tue !
Combien pèse le vide ?
L’obscure clarté qui tombe des étoiles
L’étude du passé lointain de l’Univers durant le demi-siècle dernier
s’est avérée très fructueuse. Non seulement les physiciens ont compris
de nombreux aspects de son histoire, mais ils ont aussi trouvé dans la
cosmologie primordiale – l’étude de son passé lointain – une fenêtre
unique pour l’étude de la physique des très hautes énergies (et donc
des très petites distances) au-delà du Modèle Standard des interactions
élémentaires. Pour autant, les observations détaillées de l’Univers récent
ne sont pas dénuées d’intérêt et ont, en fait, mis à jour des phénomènes
inattendus.
ÉLÉMENTAÍRE
Combien pèse le vide ?
Particules nouvelles
La plupart des extensions du Modèle
Standard des particules et interactions
élémentaires (voir Élémentaire N°6), qui
visent à unifier les interactions connues, ou
à fournir des explications à des faits qui sont
de simples hypothèses du Modèle Standard,
prévoit l’existence de nouvelles particules
et/ou interactions, activement recherchées Dans les théories supersymétriques, chaque particule connue est associée à un partenaire, une
par les physiciens. Certaines sont stables, particule de nature différente. Ces particules seraient très massives, de sorte qu’elles n’ont pas
d’autres interagissent très peu avec la encore été observées dans les accélérateurs de particules. La particule supersymétrique la plus
matière ordinaire ou ont des temps de vie légère est un bon candidat pour la matière noire de l’Univers.
extrêmement longs, de l’ordre de l’âge de
l’Univers et pourraient donc être présentes actuelles, si elles ne permettent pas de trancher, semblent légèrement
en quantité non négligeable aujourd’hui. favoriser la première hypothèse et, en particulier, la modification la plus
En général, ces particules n’interagissent simple possible de la théorie d’Einstein, modification introduite... par
que très peu avec la matière ordinaire. Einstein lui-même en 1917.
Toutes, cependant, se comportent, d’un
point de vue gravitationnel, comme cette
dernière. Celles qui satisfont à ces critères
sont autant de candidates possibles pour
Une (grande) constante...
expliquer la matière noire. Parmi les
En effet, Einstein, appliquant sa toute nouvelle théorie de la relativité
nommées, nous trouvons les neutralinos,
générale à l’Univers dans son ensemble, introduit un terme dans ses
particules neutres et stables, prévues par
les théories supersymétriques; ou encore équations, baptisé « constante cosmologique », dont le rôle est de
le (ou les) neutrino(s) supermassif(s) permettre l’existence de solutions statiques (sans expansion), qui lui
prévu(s) par les extensions du Modèle semblent les seules satisfaisantes. Plus tard, il mentionnera cet épisode
Standard cherchant à expliquer la masse comme sa plus grande erreur. Toujours est-il qu’un tel terme est permis
des neutrinos connus. Mais il y en a bien par les postulats de base de la relativité générale et n’a, a priori, aucune
d’autres. raison d’être nul. Selon son signe, il peut soit ralentir l’expansion (et même
l’annuler, comme le souhaitait Einstein initialement), soit l’accélérer !
À lui seul, ce terme permet de rendre compte de l’accélération
récente de l’Univers de manière très économique sans recourir à
de nouveaux principes ou inventer de nouvelles formes exotiques
de matière. Problème résolu ? Ce serait compter sans les principes
de base de la mécanique quantique qui, s’ils ne permettent pas
d’exclure cette solution, la rendent très insatisfaisante. Voyons cela
de plus près.
ÉLÉMENTAÍRE
Combien pèse le vide ?
peu naturelle. On parle d’un problème d’ajustement fin ou de « fine
tuning » en anglais. Une erreur minime dans cet ajustement donne lieu
à des conséquences désastreuses quant à l’évolution de l’univers qui en
résulte (absence de formation de galaxies etc).
ÉLÉMENTAÍRE
Énergie nucléaire
ITER vers une future source d’énergie?
Fission-Fusion
Les décisions sont arrêtées. Le chantier est lancé. Le réacteur thermonucléaire La fission d’un gros noyau en deux
ITER (International Thermonuclear Experimental Reactor), implanté à noyaux plus petits produit de l’énergie.
Cadarache, entrera en service en 2015-2016, même si certains physiciens C’est la différence de masse des différents
ont contesté l’opportunité de cette entreprise. constituants qui permet de dégager
environ 200 MeV dans la réaction de
ITER (en latin la voie) est une étape sur le chemin de l’autre source d’énergie
fission de l’235U.
nucléaire : des réactions de fusion de noyaux légers qui comme les réactions 235
U → 139Te + 94Zr + 2 neutrons + 197 MeV
de fission, fragmentation de noyaux lourds, sont exothermiques. Mais alors
que la fission, maîtrisée dans des réacteurs depuis 1942, est passée au stade Dans le cas de noyaux légers, il faut au
industriel vers 1970, la fusion en est encore au stade expérimental. Ce long contraire fournir de l’énergie pour
délai est dû à des causes spécifiques : masse de nouvelles connaissances pouvoir les scinder. À l’inverse, en
qu’il fallait acquérir, nombreuses techniques d’avant garde à développer, réalisant la fusion de ces noyaux, on peut
nécessité d’expérimenter sur des installations de grande taille, extrêmement produire de l’énergie. La somme des
coûteuses. masses de petits noyaux est plus grande
que la masse du noyau issu de leur fusion.
C’est ce processus qui est à la base de la
Fusion thermonucléaire production d’énergie des étoiles.
Né à Lille, le 30 septembre 1870, Jean-Baptiste Perrin fit ses études à l’École Normale Supérieure
en 1891 où il resta attaché comme agrégé préparateur.
Chargé de créer l’enseignement de la Chimie-Physique à la Sorbonne, Jean Perrin y professa
jusqu’en 1940. Il chercha à étayer par des preuves expérimentales certaines l’hypothèse atomique,
encore très contestée à l’époque. Il fit, en 1908, la première détermination incontestable du
nombre d’Avogadro qui fixe les grandeurs moléculaires.
Ses expériences mémorables, et notamment la vérification de la théorie d’Einstein sur le
mouvement brownien, pour lequel lui fut décerné, en 1926, le prix Nobel de Physique, furent
exposées en 1913 dans un livre : « Les Atomes ». Jean Perrin s’est beaucoup investi dans la
vulgarisation de la science avec, entre autres, la fondation du Palais de la Découverte.
L’astronomie passionnait Jean Perrin qui fut le premier à trouver l’origine du flux d’énergie
DR
rayonnée par le soleil en montrant dès 1920 que seule la fusion d’hydrogène en hélium peut en
rendre compte.
page 81
ÉLÉMENTAÍRE
ITER vers une future source d’énergie?
Un demi-siècle de confinement magnétique
Les recherches sur la fusion contrôlée ont vraiment commencé dans les
années 50. Elles visaient à provoquer la réaction de fusion la plus favorable,
celle entre le deutérium et le tritium (DT), dans un plasma ténu, chaud
et isolé de toute paroi par un champ magnétique de confinement. La
température d’allumage, telle que le chauffage par les produits de réaction
chargés compense les pertes inévitables de chaleur par rayonnement, est de
4,5 107 K. Une température de fonctionnement raisonnable est 108 K. Un
DR
bilan d’énergie positif est alors obtenu si le plasma est suffisamment dense
Andreï Sakharov et stable. On utilise le produit de la densité du plasma par le temps pendant
Né à Moscou le 21 mai 1921, il effectue des lequel on a pu l’obtenir pour décrire le fonctionnement du réacteur.
recherches sur les armes thermonucléaires et Les premières années furent de grande créativité : on essaya nombre de
entre à l’Académie des sciences d’URSS en configurations, mais les succès furent modestes. L’horizon s’éclaircit en
1953. Il participe à la mise au point de la 1968. Une machine imaginée par Andreï Sakharov et depuis longtemps
bombe à hydrogène soviétique mais s’oppose à l’étude à l’Institut Kourchatov de Moscou sous la direction de Lev
quelques années plus tard à la poursuite Artsimovitch, le TOKAMAK (pour TOroidalnaia KAmera i MAgnetnaia
des expériences nucléaires. En 1966, il rallie
Katouchka, soit chambre torique et bobine magnétique), avait fourni des
l’intelligentsia dissidente au régime soviétique
en place et crée en 1970 le Comité pour la valeurs apparemment reproductibles de la température électronique (c’est-
défense des droits de l’homme, ce qui lui vaut à-dire celle du plasma) et du temps de confinement (la « durée de vie » du
le prix Nobel de la paix en 1975. Déchu de plasma) : 10 millions de Kelvins et 20 millisecondes, respectivement (soit un
ses titres et de ses fonctions, il est assigné à ordre de grandeur à peine des 108 K nécessaires). Confirmés par une équipe
résidence à Gorki et surveillé par le KGB de britannique dépêchée sur place, ces résultats étaient bien meilleurs que tous
1980 à 1986. Une fois réhabilité, il est élu en ceux qui avaient été obtenus par ailleurs
1988 au présidium de l’Académie des sciences Ce fut le point de départ du développement d’une véritable filière. À partir
et en 1989 au Congrès des députés du peuple. de 1970, des installations de plus en plus grosses et performantes ont été
Il meurt le 14 décembre 1989 à Moscou... un
construites et exploitées de par le monde. L’un des buts de ces expériences
peu plus d’un mois après la chute du mur de
Berlin.
Réactions de l’hydrogène et du deutérium
produisant soit un tritium (T), hydrogène superlourd (un proton et deux neutrons), soit
un hélium 3 (3He, deux protons et un neutron). Ces noyaux peuvent à leur tour réagir avec
le deutérium pour fournir de l’hélium 4 et une grande quantité d’énergie :
D + T → 4He (3,5 MeV) + n (14,1 MeV)
D + 3He → 4He (3,7 MeV) + H (14,7 MeV)
Le premier Tokamak soviétique. La réaction DT est la plus intéressante. Elle est la seule envisagée dans les projets actuels.
Le deutérium existe en abondance dans les océans : un verre d’eau lourde (molécule de
D2O contrairement à l’eau normale composée de la molécule de H2O) par m3 d’eau de mer.
Le tritium, radioactif, doit être produit en bombardant du lithium avec des neutrons. C’est
pour cela que la couverture d’un réacteur thermonucléaire doit incorporer du lithium afin
de régénérer le tritium, combustible de la réaction.
page 82
ÉLÉMENTAÍRE
ITER vers une future source d’énergie?
était de trouver les quantités qui régissent le temps de confinement de
l’énergie et leurs dépendances. Tous les résultats montrent un effet simple 1973-75 Élaboration du projet
de taille : la machine est d’autant plus performante qu’elle est plus grosse. 1975-77 Discussions pour le choix du site
1983 Premier plasma
En trente ans, trois générations de tokamaks de taille croissante se sont
1991 Première expérience DT
succédées. En raison du prix de construction et du coût d’exploitation,
1997 Pfusion : 16 MW (DT), Énergie : 13 MJ.
la troisième génération n’a donné lieu qu’à trois machines : en Europe le 2000 Rétrocession à la Grande Bretagne
JET (Joint European Tokamak), aux États-Unis TFTR (Tokamak Fusion Test
Reactor, stoppé en 1997 une fois ses objectifs atteints) et enfin JT-60 au Les grandes dates de la vie du JET, toujours
Japon. en service en 2008. Construire puis exploiter
L’introduction du tritium dans le plasma s’accompagne de contraintes liées à un grand Tokamak est une entreprise
la radioactivité propre de cet isotope du noyau d’hydrogène et à l’activation extrêmement lourde sur tous les plans :
scientifique, technique, administratif et bien
de certains matériaux devenant radioactifs après l’absorption des neutrons de
entendu financier.
14 MeV produits lors des réactions de fusion. C’est pourquoi cette opération
est toujours envisagée avec circonspection et n’a été planifiée que vers la fin
des programmes expérimentaux de TFTR et de JET. TFTR a fourni 10 MW de
fusion DT en 1993. Cette performance fut dépassée en 1997 par le JET avec
un résultat de 16 MW de fusion DT pour 25 MW de chauffage auxiliaire,
c’est-à-dire dépensés pour faire fonctionner la machine.
Quel chemin parcouru depuis les débuts ! Deux ordres de grandeur gagnés
sur le produit densité-temps et deux autres sur la température. Cependant,
les tokamaks construits jusqu’à aujourd’hui consomment toujours plus
d’énergie qu’ils n’en produisent.
b) surfaces magnétiques
Tokamak
La mise en œuvre du Tokamak commence par la réalisation d’un vide extrêmement poussé dans la chambre torique qui contiendra le plasma.
Puis on emplit la chambre du gaz désiré pour l’expérience (hydrogène, deutérium ou hélium) à la pression requise (quelques millitorrs, millièmes
de la pression atmosphérique). Les bobinages créant un champ magnétique de confinement et le champ de compensation sont alimentés en
courant quasi continu. On connecte alors le primaire du transformateur à un générateur d’impulsions. Le champ d’induction est suffisant pour
mettre en mouvement les quelques électrons libres toujours présents, les accélérer, puis par un processus d’avalanche provoquer l’ionisation du
gaz qui devient ainsi conducteur d’électricité, en obtenant une densité électronique de 1019 à 1020 m-3.
Pendant la montée du courant, le plasma s’échauffe progressivement par effet Joule. Il devient de plus en plus conducteur au point que dans
toutes les machines exploitées à ce jour, lorsque la température électronique atteint environ 2 107 K, la résistivité du plasma, excessivement faible,
se compare à celle des supraconducteurs. L’effet Joule est alors inopérant. Pour atteindre des températures plus élevées, il convient d’injecter de
l’énergie dans le plasma. Le tokamak est ainsi accompagné de systèmes de chauffage auxiliaires par arrosage avec des ondes électromagnétiques
de haute fréquence ou par injection de particules neutres que nous allons à présent expliquer.
Il a été relativement aisé de développer des générateurs de puissance adaptés aux fréquences en jeu. Il faut en effet que le plasma absorbe plusieurs
mégawatts de radiofréquences pour obtenir l’élévation de température désirée. Des antennes alimentées par des circuits haute fréquence ou des
guides d’ondes sont disposées à l’intérieur de l’enceinte à vide de façon à irradier le plasma selon les directions les plus favorables au chauffage. Un
autre usage des ondes est la génération non inductive de courant permettant de prendre le relais de l’impulsion envoyée dans le transformateur
et d’amorcer un régime quasi continu.
Autre procédé de chauffage du plasma : l’injection de particules neutres d’une énergie largement supérieure à l’énergie thermique du milieu dans
lequel elles pénètrent (en pratique 100 keV à 1 MeV) peut servir en plus à compenser les pertes de particules. Une bouteille magnétique étant
étanche dans les deux sens, il est nécessaire de rendre les ions électriquement neutres pour qu’ils puissent aller jusqu’au cœur du plasma, or on
ne sait accélérer que des objets chargés. Un dispositif de formation de faisceaux de particules neutres comporte donc successivement une source
d’ions dont le diamètre peut atteindre 1 m, un étage accélérateur, un étage de neutralisation et un dispositif pour l’élimination des ions résiduels.
En entrant dans le plasma, les neutres sont d’abord ionisés. Les ions ainsi formés vont céder leur énergie par collisions successives.
page 83
ÉLÉMENTAÍRE
ITER vers une future source d’énergie?
Vers ITER
Mis en service dans les années 80, les Tokamaks de troisième génération ont
donné leur pleine mesure dans les années 90. Les résultats obtenus ont été
utilisés pour préparer l’étape suivante : ITER.
À de rares exceptions près, les recherches sur la fusion ont été menées par
de grands organismes nationaux ou au sein de la structure européenne
Rapport Q
Euratom. L’augmentation de taille des machines entraînant celle de leur
La performance d’un tokamak
fonctionnant avec le mélange deutérium-
coût, le niveau de décision s’est élevé à proportion. Aux U.S.A. les décisions
tritium est donnée par le rapport Q de sur le choix de TFTR, sa construction puis sa fermeture ont été prises par le
la puissance de fusion à la puissance gouvernement fédéral tandis que la communauté européenne prenait à son
de chauffage fournie de l’extérieur. Ce compte le projet JET.
rapport s’est rapproché de l’unité dans Plus spectaculaire encore de ce point de vue fut le lancement du projet
le JET et devrait atteindre 10 dans ITER après la rencontre au sommet, tenue en Islande en 1986, entre Ronald
ITER pendant un temps court de 400 Reagan et Mikhaïl Gorbatchev. Comment mieux marquer le début d’une
secondes. ère nouvelle des relations entre l’Est et l’Ouest sinon par une entreprise
commune de longue haleine sur un objectif ambitieux – sans être vital à
court terme – et impliquant une réelle et permanente coopération ? La fusion
magnétique offrait une opportunité idéale.
Mais lorsqu’en 1998, le devis lui a été présenté en même temps que les
plans de la machine, le Comité Directeur du projet ITER a reculé devant
l’ampleur de la dépense : environ 7 milliards de dollars de l’époque,
sans garantie de non-dépassement, pour un allumage incertain. Peut-être
l’aurait-il approuvé si la prise de conscience par l’opinion de la menace
du changement climatique avait été au niveau actuel. D’un autre coté il ne
pouvait être question d’abandonner la filière Tokamak. C’eût été un énorme
et immérité constat d’échec, condamnant pour des décennies la voie du
confinement magnétique. Les progrès accomplis en 30 ans n’avaient mis
© JET
à jour aucune raison sérieuse d’agir ainsi. En particulier rien n’était venu
Intérieur du JET. contredire le bien fondé des lois d’échelle. Alors, les responsables se sont
ralliés à une demi-mesure. Les dimensions d’ITER ont été réduites par rapport
au projet initial de sorte que le volume du plasma n’est plus que 800 m3 au
lieu de 2 000. De même, la puissance de fusion attendue est abaissée à 500
MW contre 1-500 prévus
initialement. L’allumage,
Paramètres Tore Supra JET ITER DEMO qui permet l’auto-entretien
de la réaction sans recours
Grand rayon du plasma (m) 2.25 3 6.21 6.5 < R < 8.5 à des chauffages auxiliaires,
Petit rayon du plasma (m) 0.7 1.25 2.0 2<à<3 est reporté à des temps
Volume du plasma (m3) 25 155 837 > 1 000
meilleurs.
Courant plasma (MA) 1.7 5-7 15 > 20
Champ magnétique (T) 4.5 3.4 5.3 >5
On peut s’interroger sur
Durée du plasma 180 s 10 s > 300 s 1h la pertinence d’une telle
Type de Plasma D-D D-D / D-T D-T D-T démarche. Repartir pour un
Puissance thermonucléaire (Pth) ~ kW 50kW/ 16MW 500 MW > 2 GW tour dans ces conditions est-
Q = Pth / puissance de chauffage ~0 ~1 10 > 30 il de bonne politique ? Mais
Puissance neutronique au bord 20 W/m2 60 kW/m2 0.6 MW/m2 > 5 MW/m2 selon Paul-Henri Rebut,
directeur du JET et ancien
Tokamakologie comparée : les principaux chef de projet d’ITER, les
page 84
ÉLÉMENTAÍRE
ITER vers une future source d’énergie?
méthodes de travail et l’articulation des équipes étaient
mal adaptées à un projet aussi ambitieux. La machine
aux objectifs limités, aujourd’hui en construction, est
sans doute ce que l’on pouvait concevoir et réaliser
de mieux à l’époque.
ITER
La décision de construire ITER a été prise en 2003. © ITER
Le site, choisi en 2005 après une recherche menée
au niveau mondial, est situé en France en lisière
du Centre CEA de Cadarache (dans la vallée de la Vue éclatée d’ITER avec, en bleu, la
Durance) où est implanté depuis les années 1980 le tokamak Tore-Supra. Le silhouette d’une personne donnant une
premier plasma est prévu vers 2016. Puis une dizaine d’années s’écoulera idée de l’énorme taille de l’ensemble.
avant d’atteindre le fonctionnement à plein régime sous tritium.
Le projet vise un rapport Q (qui mesure le rendement de la machine) de
l’ordre de 10 pour une puissance de fusion DT de 500 MW pendant 400
secondes. Ce sera donc un banc d’essai à objectifs multiples avant l’étape
décisive de la production d’électricité.
Le dessin d’ITER (voir ci-contre) adopte une section méridienne en forme
de D (comme le JET) et intègre trois éléments majeurs : un solénoïde
supraconducteur, un divertor destiné à éliminer les produits de réaction
ainsi que les impuretés du plasma et enfin un dispositif de récupération
de l’énergie de fusion, la couverture. Les deux premiers éléments ont déjà
été expérimentés. Les supraconducteurs ont fait leurs preuves sur le Tore-
Supra, les divertors sur le JET et JT-60, après des premiers essais sur de
petits tokamaks. La couverture sera mise en œuvre pour la première fois.
Modulaire, ses éléments sont traversés par un fluide de refroidissement
dont la température ne dépassera pas 100 à 150°C en service normal ce
qui est insuffisant pour faire tourner une turbine couplée à un générateur
© ITER
Disposition de la couverture et du
divertor dans ITER. Les ions indésirables
sont guidés jusqu’à des absorbeurs par les
lignes de champs des surfaces magnétiques
ouvertes.
© ITER
ÉLÉMENTAÍRE
ITER vers une future source d’énergie?
Du simple fait qu’il met en œuvre des
électrique. Certains de ces modules comporteront du lithium en vue de la
réactions nucléaires, ITER est source de régénération du tritium par réaction des neutrons sur les parois.
craintes. Au moindre incident, le plasma Réactualisée, la note à payer par l’ensemble des nations partenaires s’élève
très ténu se refroidit immédiatement et la à cinq milliards d’euros d’investissements jusqu’à la mise en service. Cinq
réaction est bloquée net. La crainte d’une autres milliards seront nécessaires pour 15 à 20 ans d’exploitation à partir de
explosion est donc totalement infondée. 2016, suivis du démantèlement de l’installation.
Quant au problème de la radioactivité, il
est sans commune mesure avec celui des
réacteurs à fission. Le tritium est bien
radioactif, mais les quantités manipulées
Après ITER ?
(avec des précautions renforcées par toute
Dans ses ambitions premières, ITER visait, à échéance 2010-2020, la
l’expérience acquise au JET) se comptent
en grammes. Par contre les neutrons de 14
démonstration de l’allumage de la réaction thermonucléaire confinée. Cela
MeV activent les matériaux de structure aurait constitué l’équivalent de ce que fut pour la fission la divergence de la
et cette radioactivité résiduelle perdure réaction en chaîne obtenue le 2 décembre 1942 à Chicago par Enrico Fermi.
après l’arrêt définitif de l’installation qui Dans le calendrier actuel, ce pas ne sera franchi qu’après 2030 avec un
ne sera donc démantelée qu’au bout de réacteur de démonstration, DEMO, destiné à produire de l’électricité. Tous
quelques décennies. Le site reviendra les aspects scientifiques et techniques de la filière tokamak auront été mis
alors à son état d’avant le chantier. à l’épreuve sur ITER, sauf un : la tenue des matériaux (notamment ceux de
la première paroi) au flux de neutrons de 14 MeV émis par le plasma en
réaction. Dans ITER, celui-ci est comparable à celui
rencontré dans un réacteur à fission à haut flux. Il
sera 10 fois plus important dans DEMO. Pour cette
raison, une installation spécifique, IFMIF (pour
International Fusion Material Irradiation Facility),
doit être construite au Japon pour un coût de l’ordre
de 15% des investissements du programme ITER.
Le flux de neutrons y sera créé par l’impact de
deutérons accélérés jusqu’à une énergie de 40 MeV
sur des cibles de lithium ou de béryllium.
DEMO, contemporain des réacteurs à fission de
quatrième génération, devrait donc apporter la
preuve expérimentale qui manque toujours : allumer
de façon contrôlée les réactions thermonucléaires.
Le construire et le faire fonctionner prendra du
temps, en plus du délai nécessaire à la prise de
© ITER
ÉLÉMENTAÍRE
Échelle des distances
10-1 m = 0,1 m
102 m = 100 m
© CERN
sens.
104 m = 10 000 m
Quelques bâtiments
du CERN.
105 m = 100 000 m
© CERN
© CERN
centre le bâtiment du
Microcosm. Cette image recouvre
approximativement
© CERN
le LHC, le grand
collisionneur de hadrons.
Le lac de Genève étale 108m = 1 00 000 000 m
clairement ses 1000
km2.
© CERN
© CERN