Vous êtes sur la page 1sur 329

e

La physique du XX siecle
Du meme auteur

Etudes d'interactions de neutrinos... (CERN 65-12, Publications du CERN, Geneve, 1965).


L'etrange histoire des quanta, avec B. Hoffman, collection « Points-sciences » (Seuil, Paris, 1981);
nouvelle edition augmentee en 1992.
La matiere derobee. L'appropriation critique de I'objet de la physique contemporaine, Preface de L.
Geymonat (Ed. des Archives Contemporaines, Paris, 1988) [Trad, en portugais, Bresil].
L'analyse critique des sciences, ou le tetraedre epistemologique (sciences, philosophic, epistemologie,
histoire des sciences), collection « Conversciences » (L'Harmattan, Paris, 1990).
Einstein philosophe. La physique comme pratique philosophique, collection « Philosophic d'aujour-
d'hui » (Presses Universitaires de France, Paris, 1993).
Albert Einstein, ou la creation scientifique du monde, collection « Figures du savoir » (Belles Lettres,
Paris, 1997).
D'Alembert ou la raison physico-mathematique au siecle des Lumieres, collection « Figures du savoir »
(Belles Lettres, Paris, 1998).
Matiere et concepts. Rationalite et historicite des contenus conceptuels en physique, collection « Penser
avec les sciences » (EDP-Sciences, Les Ulis, a paraitre).

Edition d'ouvrages
Quantum mechanics, a half century later, avec J. Leite Lopes (Reidel, Dordrecht, 1977).
Les particules et I'Univers. La rencontre de la physique des particules, de I'astrophysique et de la
cosmologie, avec J. Audouze, P. Musset (Presses Universitaires de France, Paris, 1990).
A ciencia nas relaqoes Brasil-Franc,a (1850-1950), avec A.I. Hamburger, M.A. Dantes, P. Petitjean
(Colec.ao Seminaries, EDUSP, Sao Paulo, 1996).
Le droit a I'energie. Penser le XXF siecle, avec E. Malet (Editions Passages, Paris, 1996).
Aux frontieres de la science, avec E. Malet (Editions Passages, Paris, 1999).
Analyse et dynamique. Etudes sur I'ceuvre de d'Alembert, avec A. Michel (Presses de 1'Universite
Laval, Quebec, Paris, 2002).
Paul Langevin, son ceuvre et sa pensee. Science et engagement, avec B. Bensaude-Vincent,
M.-C. Bustamante, O. Freire, Epistemologiques 2(1-2), (2002), numero special.
Changes in interpretation and conceptual contents, avec C. Debru, Symposium at the XXIth
International Congress of History of Science, Mexico, 2003.
e
La physique du XX siecle
Michel Paty

Directeur de recherche au CNRS

17, avenue du Hoggar


Pare d'activites de Courtaboeuf, BP 112
91944 Les Ulis Cedex A, France
« Sciences & Histoires »
Collection dirigee par Benedicte Leclercq

La collection Sciences & Histoires s'adresse a un public curieux de sciences. Sous la forme
d'un recit ou d'une biographie, chaque volume propose un bilan des progres d'un champ scien-
tifique, durant une per/ode donnee. Les sciences sont mises en perspective, a travers I'histoire
des avancees theoriques et techniques et I'histoire des personnages qui en sont les initiateurs.

Deja paru:
Leon Foucault, par William Tobin, adaptation franchise de James Lequeux

A paraitre:
Le roman de la physique : de la baignoire a la pomme, par Cherif Zananiri

Conception de la couverture : Eric Sault


Illustration de couverture : Cygnus Loop. ©Jeff Hester (Arizona State University) and Nasa.
Portraits de la frise (de gauche a droite): Paul Langevin, Werner Heisenberg, Albert Einstein,
Jean Brossel, Claude Cohen-Tannoudji.

ISBN : 2-86883-518-X

Tous droits de traduction, d'adaptation et de reproduction par tous precedes, reserves pour tous pays. La
loi du 11 mars 1957 n'autorisant, aux termes des alineas 2 et 3 de 1'article 41, d'une part, que les « copies
ou reproductions strictement reservees a 1'usage prive du copiste et non destinees a une utilisation
collective », et d'autre part, que les analyses et les courtes citations dans un but d'exemple et d'illustration,
«toute representation integrate, ou partielle, faite sans le consentement de 1'auteur ou de ses ayants droit
ou ayants cause est illicite » (alinea ler de 1'article 40). Cette representation ou reproduction, par quelque
precede que ce soit, constituerait done une contrefacon sanctionnee par les articles 425 et suivants du
code penal.

©EDP Sciences 2003


Sommaire

Avant-propos vii

1 Renouveaux conceptuels et transformation des


sciences physiques 1

2 La theorie de la relativite 11

3 La physique quantique 25

4 L'interpretation des concepts quantiques 37

5 Atomes et etats de la matiere 55

6 Matiere subatomique
1. Dans le noyau de 1'atome 77

7 Matiere subatomique
2. Les champs fondamentaux et leurs sources 95

8 Systemes dynamiques et phenomenes critiques 125

9 Dynamique de la Terre 155

10 Les objets du cosmos :


planetes, etoiles, galaxies, radiations 169

11 La cosmologie contemporaine:
deploiement et transformations de I'Univers 203

12 Remarques sur les recherches des origines 225

13 Objets et methodes 257

14 Conclusion. Quelques lemons de la physique


du XXe siecle et un regard vers le XXP 269
vi La physique du XXe siecle

Bibliographic 277

Index des noms de personnes 301

Index des notions 309


Ce livre est dedie a la memoire de Andre
Lagarrigue, Paul Musset, Andre Roussel,
physiciens.

Avant-propos

En ce debut du XXP siecle, il est possible d'avoir un regard retrospectif sur les accomplis-
sements survenus dans nos connaissances au cours des cent dernieres annees. La physique,
en particulier, a connu au cours du XXe siecle des renouvellements considerables grace aux
revolutions relativiste et quantique et a 1'exploration de nouveaux domaines de la structure
de la matiere inimaginables au siecle precedent: physique atomique et constitution atomique
de la matiere condensee, chimie quantique, physique nucleaire et subnucleaire ou physique
des particules elementaires (reunies sous le chapitre de la « physique subatomique » avec
les theories recentes d'unification), astrophysique et cosmologie. D'autres descriptions ont ete
renouvelees, comme celle de la physique des objets courants et les phenomenes dynamiques
non-lineaires (dits « chaotiques »). La geophysique s'est developpee entre la geologic, la phy-
sique et la geographic physique, en ouvrant une nouvelle perspective sur 1'histoire de la Terre,
de 1'hypothese de la derive des continents a la tectonique des plaques. Cette histoire remar-
quable n'est qu'un exemple, parmi de nombreux autres, des interactions de la physique avec
les autres sciences. Elles vont parfois dormer naissance a de nouvelles disciplines a la jonction
des anciennes, plus traditionnelles mais qui ne cessent pas, pour autant, d'exister et de fournir
la base sur laquelle les nouvelles s'appuient.
Tous ces developpements sont decrits dans ce livre, sur onze chapitres, dans leurs traits
essentiels et en mettant en evidence les rapports interdisciplinaires qu'ils impliquent, leurs ra-
cines historiques, les nouveautes conceptuelles, ainsi que les interrogations que ces dernieres
suscitent du point de vue epistemologique. Bien entendu, il ne s'agira pas d'etre exhaustifs.
Nous voudrions surtout donner une idee de la dynamique de la connaissance qui a non
seulement apporte de nouvelles donnees et revele de nouveaux phenomenes, mais aussi puis-
samment contribue a renouveler sur bien des points notre conception de la nature, et nos
moyens d'approche de celle-ci.
Le theme du chapitre suivant (chapitre 12), inhabituel dans un livre sur la physique, se
tient a 1'interface de cette science et d'autres disciplines, comme prolongement dans une autre
direction d'un theme aborde au chapitre 11 avec la cosmologie : celui des origines de la vie, a
la frontiere de la physico-chimie et de la biologic. Quelques aspects de la question des origines
dans son ensemble sont abordes a ce propos. On s'attend a ce que cette question, naguere
suspecte a 1'esprit scientifique, se presente de maniere bien differente selon la nature de ce dont
on considere 1'origine, ou les origines. On peut d'ailleurs commencer avec 1'apparition de la
pensee, et notamment de la pensee reflexive qui est celle de la connaissance et se manifeste avec
1'homme (peut-on dire comment, et a quel moment ?): question qui n'est pas deplacee dans un
viii La physique du XXe siecle

ouvrage sur les sciences physiques, s'il nous importe de mesurer la place originaire de rhomme
dans la nature physique. La question des origines se pose de la maniere la plus concrete a partir
de 1'etablissement de revolution des formes, formes du vivant en biologic, formes des objets
cosmiques et de 1'Univers en cosmologie. Mais nous verrons que la question des origines de
la vie se pose, dans sa localisation spatio-temporelle, d'une maniere tres differente de celle de
1'Univers, en raison, en particulier, de 1'unicite et de la totalite de ce dernier (qui definit avec
lui-meme 1'espace et le temps).
Le chapitre 13 est consacre a quelques elements d'information et de reflexion sur certains
changements caracteristiques survenus dans les methodes de la physique. D'une part, les
methodes theoriques, caracterisees par une abstraction accrue dans le recours a des theories
mathematiques, semblent de plus en plus eloignees des notions communes et des intuitions
familieres. D'autre part, les methodes experimentales evoluent vers la realisation de grands ap-
pareillages complexes realises a 1'aide d'importants moyens financiers, materiels et humains.
Par ailleurs, 1'organisation des experiences s'effectue sur un mode qui se rapproche du mode
industriel avec ses strategies, ses specialisations, ses concurrences, ses justifications et ses rap-
ports au succes, lies a la capacite des predictions theoriques (ce qui constitue les caracteres de
la « big science »). Mais c'est aussi, et en partie par cela meme, la nature des sciences physiques
qui se voit questionnee d'une maniere plus forte en apparence que par le passe. Cette interro-
gation concerne tout d'abord leur objet, le statut de leur « formalisation » mathematique et du
rapport de celle-ci a ce qui peut etre dit « physique » (pense a travers les phenomenes donnes
dans 1'experience). Ces changements ont contribue a multiplier les applications de la physique
et de ses techniques a d'autres sciences (par exemple, les methodes de datation, 1'utilisation
des rayonnements tant en technologic qu'en medecine, 1'analyse de donnees par visualisation,
de la physique des particules elementaires a 1'astrophysique de 1'Univers lointain...).
Le quatorzieme et dernier chapitre reprend quelques legons du parcours effectue, et es-
quisse brievement quelques interrogations sur ce que seront peut-etre, ou non, les sciences
et la physique au XXIe siecle. Si certaines directions peuvent etre esquissees, la connaissance
scientifique, par definition, reserve les nouveautes de 1'inconnu. A la fin du XIXe siecle, a la
veille des revolutions relativiste et quantique qu'il etait loin d'imaginer, le physicien Lord
Rayleigh considerait que la physique etait une science presque achevee, qui comportait deux
ombres seulement : la non-detection du vent d'ether et le comportement du « rayonnement
noir ». Or, ces deux phenomenes, inexpliques par la physique classique d'alors, etaient gros
des deux revolutions (quantique et relativiste) qui ont ensuite bouleverse cette science. Mais,
en meme temps, ces deux revolutions ne surgirent pas de rien : les connaissances de 1'epoque
les portaient (au moins en partie), pour ainsi dire, dans leur sein. S'il est done presomp-
tueux de pretendre predire ce que sera la physique de demain, le regard sur celle du siecle
qui vient de se terminer nous permet de risquer quelques reflexions epistemologiques pour
mieux comprendre ce qui s'est reellement passe, en profondeur, dans les renouvellements de
nos connaissances, en tentant d'en saisir le mouvement dans 1'ordre des significations. Cette
perspective constitue, en fait, 1'axe du present ouvrage.
Le texte est parfois ponctue, lorsque la necessite s'en fait sentir, notamment pour des details
biographiques, de notes de bas de page. Chaque chapitre est accompagne d'encadres explicatifs
et d'illustrations. Une bibliographic de textes sources et de lectures complementaires, relative-
ment detaillee sans etre, bien entendu, exhaustive, est donnee en fin de volume, separement
pour chaque chapitre.
Avant-propos ix

En redigeant ce livre, je me suis efforce de le rendre lisible du plus grand nombre, sans jargon
specialise ni appareil mathematique, en developpant de la maniere la plus claire possible les
notions meme difficiles, dans I'intention d'en donner a comprendre les enjeux, du point de vue
de la nature telle que nous la concevons et de la connaissance, sans les brouiller par des images
faciles et trompeuses. Le lecteur pourra ainsi se donner une representation a son propre usage
de ce qu'est cette matiere dont il est fait et dont est constitue 1'Univers ou il se trouve plonge. Le
recit de ces connaissances et de leur etablissement est celui d'une aventure de 1'esprit, somme
toute assez extraordinaire, qui le concerne aujourd'hui tout autant que les heros qui en ont
tisse 1'histoire au long du siecle ecoule, a la suite de ceux qui les ont precedes. Puisse le lecteur
partager un peu de la passion intellectuelle qui les a menes. Communiquer cette passion, et
ses raisons, telle est la motivation qui me 1'a fait ecrire.
Cette page est laissée intentionnellement en blanc.
Chapitre 1

Renouveaux
conceptuels
et transformation
des sciences physiques
Sommes-nous aujourd'hui (au debut du XXP siecle) en mesure
de dire ce qui aura ete important et caracteristique de telle ou
telle science, d'une maniere generale et en particulier de la
physique, au long du XXe siecle ? Si tel est le cas, cela sup-
pose que notre regard actuel soit capable d'evaluer ce qui
est advenu dans cette discipline pendant le siecle qui vient de
s'ecouler, disons de 1900 a 2000. Cela suppose que nous soyons
en mesure de dresser le tableau bien compris des connais-
sances acquises, du moins d'en reconnaitre les grandes lignes
et les significations fondamentales. L'etablissement d'un tel
tableau demande, en particulier, de ne pas s'en tenir aux
seuls resultats, theoriques et experimentaux, et a leurs in-
cidences et applications pratiques, mais de les saisir dans
une certaine perspective intellectuelle. Celle-ci doit etablir le
rapport de ces resultats entre eux, dans chaque grand do-
maine ou discipline de cette science, mais egalement dans leur
ensemble, dans le champ disciplinaire denomme « la phy-
sique », en partie different de ce qu'il etait aux siecles prece-
dents, et aussi dans ses relations avec d'autres domaines de la
connaissance.
L'histoire des sciences et des idees n'est pas ici a une bien
meilleure enseigne que 1'histoire « tout court » (c'est-a-dire
1'histoire sociale, economique, politique), bien que 1'objet des
connaissances scientifiques tienne a priori moins a la contin-
gence des evenements purement historiques. En effet, 1'his-
toire des sciences n'est pas seulement celle des hommes (au
sens generique!) qui font la science, mais celle des idees,
« exactes » ou « objectives », de cette science, soit de la na-
ture, soit des formes mathematiques. D'une maniere generale,
2 La physique du XXe siecle

cette histoire nous enseigne que meme si Ton se croit capable


de faire un tel bilan, rien ne nous dit qu'il soit vraiment de-
finitif, car 1'avenir est ouvert : la connaissance actuelle se si-
tue entre son passe et son futur, et les connaissances passees
doivent, en regie quasi generate, faire 1'objet de reevaluations
dans le temps, et meme parfois a court terme. Le rythme de ces
reevaluations s'est accelere dans les derniers siecles avec les
mutations sociales et le progres des connaissances dans tous
les domaines.
Cependant, nos connaissances « bien acquises », acceptees
de maniere generale et enseignees, nous semblent souvent si
assurees qu'il nous est difficile d'imaginer que celles du fu-
tur, au moins du futur immediat, ne seraient pas directement
previsibles a partir d'elles. Les premiers auteurs de science-
fiction moderne (Jules Verne, Herbert-George Wells,...), meme
si nous admirons leurs anticipations imaginatives et inge-
nieuses, nous paraissent bien timides a cote de ce que nous
avons connu apres eux, et « la science depasse la fiction »
dans la mesure ou la nature depasse les representations que
nous nous en donnons a un stade donne, et nous oblige a les
modifier.
Nous pouvons penser decrire de maniere objective et
directe les connaissances acquises par la physique au cours
du XXe siecle et, a partir de la, prevoir quelles seront les
grandes lignes de celle du siecle qui s'ouvre devant nous. Mais
comment en etre surs ? Un petit apologue nous aidera a com-
prendre la difficulte, non seulement a anticiper nos connais-
sances futures mais a evaluer exactement les connaissances
que nous venons d'acquerir. Imaginons qu'au lieu d'avoir a
decrire 1'essentiel des connaissances en physique acquises au
XXe siecle, on nous demande d'etablir un bilan de celles du
siecle precedent, le XIXe. Nous aurions deux manieres pos-
sibles de repondre a une telle demande.
La premiere maniere serait d'essayer de jouer « le jeu du
contexte », en nous imaginant en historien scrupuleux de cette
periode quand celle-ci s'acheve, et en ne tenant pas compte,
par methode, des connaissances acquises posterieurement (au
XXe siecle). Nous essaierions done de nous situer a la fin de
1'epoque consideree, en 1899 ou 1900. Cependant, nous serait-
il possible de ne tenir absolument aucun compte de ce que
nous avons appris depuis, quant a la signification des connais-
sances que nous avions alors? Cela ne parait pas si facile
compte tenu des diversites d'appreciation de 1'importance au
cours du temps de tel ou tel resultat, sur lequel les connais-
sances nouvelles jettent une lumiere souvent tres differente,
Renouveaux conceptuels et transformation des sciences physiques 3

et compte tenu des reorganisations parfois radicales qu'elles


entrainent.
Nous pouvons du moins tenter 1'exercice en nous met-
tant dans la position de 1'historien qui se proposerait de saisir
1'epoque etudiee comme de 1'interieur. Dans la mesure du
possible, il mettrait entre parentheses ce qu'il a appris des pe-
riodes ulterieures, qui ne lui servirait, en verite, qu'a prendre
un certain recul par rapport a 1'objet de sa description, a se
situer par rapport a elle (et peut-etre a ajuster son objectivite
a son egard). II essaierait cependant de s'en tenir strictement
aux connaissances de 1'epoque et a la signification qui leur etait
attribute alors. II dresserait ainsi le tableau de ces savoirs ac-
quis, de leurs connexions entre eux, de leurs applications tech-
niques et de ce qu'ils representaient par rapport a la culture,
aux questions philosophiques, a la situation de 1'homme dans
le monde et dans 1'Univers... Un bon materiau de base lui se-
rait fourni par les bilans et les perspectives en physique, en
mathematiques, en chimie, en biologic, dans les sciences de la
Terre, en astronomic, qui ont ete prepares a 1'epoque par les
meilleurs esprits, les meilleurs specialistes de ces disciplines.
La seconde maniere de realiser une description de ce meme
passe serait de la faire tout simplement a partir d'aujourd'hui,
et de considerer les memes connaissances acquises au long
du XIXe siecle avec cette fois le recul d'un siecle en plus. Le
bilan que nous en ferions serait certainement tres different
du precedent. En effet, les developpements marquants dans
chaque science survenus au XXe siecle ont change les appre-
ciations que nous faisons aujourd'hui par rapport a celle que
les savants (ou le public) pouvaient en faire au XIXe siecle.
Souvent, ce qui nous semble important aujourd'hui leur etait
simplement inconnu ou leur paraissait de portee secondaire.
Dans la plupart des cas, on ne pouvait tout simplement pas
alors imaginer des elements fondamentaux des connaissances
futures qui devaient bouleverser les manieres de voir les plus
courantes.
Par exemple, considerons les proprietes du champ (elec-
trique ou magnetique), representees par des equations diffe-
rentielles partielles, desormais sans le support d'un ether ma-
teriel comme milieu continu : alors que ce dernier paraissait
necessaire pour penser ces champs avant la theorie de la rela-
tivite restreinte, nous nous en passons tres bien depuis. Ou
encore, prenons 1'age de la Terre (objet de speculations a
la fin du XIXe siecle) en fonction des connaissances de
1'epoque, notamment en thermodynamique : dans une pers-
pective de refroidissement, sans apport significant d'energie,
4 La physique du XXe siecle

Figure 1.1. Ages de la terre


proposes par differents
physiciens et geologues.

on envisageait 1'histoire de la Terre comme celle d'une suite de


contractions, et 1'age qui lui etait ainsi attribue la rajeunissait
considerablement par rapport aux quelques quatre milliards
d'annees environ que la science d'aujourd'hui lui octroie. La
physique apporta, dans les premieres annees du XXe siecle,
la connaissance de sources d'energie terrestre internes tres
grandes, avec la radioactivite naturelle, d'ou resultait la pos-
sibilite de transformations dynamiques. L'observation de la
complementarite des cotes de 1'Afrique occidentale et de
1'Amerique du Sud orientale (Bresil et Argentine), notee des
la fin du siecle precedent, jointe a la decouverte plus recente
de 1'expansion des fonds oceaniques, conduisit a une theo-
rie de la derive des continents fondee sur la tectonique des
plaques. Tres assuree aujourd'hui, elle serait apparue propre-
ment impossible il y a cent ans. De meme, les estimations sur
la duree de « vie » du Soleil (calculees par William Thomson,
Lord Kelvin), dans une perspective de combustion chimique,
etaient sans commune mesure avec celle que devait fournir la
connaissance de 1'energie degagee dans les reactions de fusion
nucleaire produites au sein de notre etoile.
On pourrait evoquer aussi bien d'autres sciences. Par
exemple, les statistiques genetiques faites sur des petits pois
par Gregor Mendel a la fin du XIXe siecle, qui interessaient peu
et pouvaient etre vues au mieux comme un passe-temps de
moine-jardinier: les lois de la genetique selon la biologic mole-
culaire developpee dans la seconde moitie du XXe siecle don-
naient la raison profonde de ce qui n'etait jusqu'alors apparu a
la plupart que comme une curiosite sans grande consequence.
Desormais les lois de Mendel, passees quasiment inapergues
au debut, sont considerees comme 1'une des acquisitions les
plus importantes de la biologie de la fin du XIXe siecle.
Renouveaux conceptuels et transformation des sciences physiques 5

Considerons encore la question des fondements logiques


des mathematiques, de Gottlob Frege et Bertrand Russell a
Kurt Godel, qui a connu un renversement fulgurant de pers-
pective : le celebre theoreme du a ce dernier exclut de pouvoir
fonder rationnellement les mathematiques (meme les plus
simples, comme I'arithmetique) sur la seule logique. Nous
pourrions aussi evoquer les developpements technologiques
qui ont suivi les avancees de la physique et qui ont modifie
notre environnement quotidien et nos conditions de vie (de
1'energie nucleaire aux rayons laser, a 1'electronique des ordi-
nateurs, a la chirurgie de haute precision, aux voyages dans
1'espace...).
Ces evocations suffisent a montrer combien les developpe-
ments les plus marquants qui ont surgi au XXe siecle etaient
assurement imprevisibles, meme s'ils n'etaient pas tous et to-
talement impensables a strictement parler. Ceux qui 1'etaient
se sont developpes a partir de germes deja presents dans les
connaissances acquises, mais selon des modalites qui n'etaient
elles-memes pas totalement previsibles: elles impliquaient ne-
cessairement d'autres developpements dont on pouvait dif-
ficilement se faire alors une idee precise. Les sciences sont
liees entre elles, et les transformations des connaissances et
des techniques se deploient en etroite correlation. Pour pou-
voir predire ce que les unes et les autres seront, il faudrait
dominer en meme temps la connaissance de tous ces fronts.
Toutefois cela resterait encore insuffisant, car 1'essence de 1'in-
connu c'est precisement de ne pas exister encore dans 1'espace
de la connaissance. Et 1'essence de la science c'est, pour ainsi
dire, d'elargir et de renouveler cet espace en faisant advenir le
« nouveau », qu'il f aut d'abord reconnaitre comme tel, puis qui
fait voir 1'ensemble des connaissances, anciennes et nouvelles,
sous un autre jour.
La comparaison des deux manieres de decrire les connais-
sances du passe, Timmediate sur le vifde 1'epoque et la plus
lointaine disposant du recul, nous montre la relativite des points
de vue, et comment notre appreciation des connaissances est
dependante de 1'histoire. Mais cette relativite des connais-
sances et de leur evaluation n'est pas « absolue », elle n'est
pas la seule chose que 1'on puisse en dire. Le caractere his-
torique de ces connaissances, qui tient a ce qu'elles sont pro-
duites par des etres humains, eux-memes inscrits dans une
existence sociale et historique, n'efface pas leurs contenus.
Pour mesurer la dependance temporelle de nos jugements sur
les connaissances, nous pourrions aussi reproduire notre exer-
cice de pensee en examinant les acquis du passe par sauts de
6 La physique du XXe siecle

siecle en siecle. Les travaux des historiens des sciences, comme


materiaux de base, s'ajouteraient a la comparaison des reeva-
luations posterieures successives. Ce serait sans doute une
excellente methode pour evaluer ce « progres des connais-
sances » dont on parle et pour comprendre ses caracteris-
tiques. Nous observerions, en particulier, des reorganisations
periodiques des savoirs eux-memes, et leur solidarite avec des
changements de perspectives plus generaux, d'ordre reflexif
(ou epistemologique), philosophique, culturel,...
Ce n'est pas mon propos d'effectuer ici de telles analyses.
Par 1'apologue des differents regards que Ton peut porter
sur une science du passe, je ne voulais que faire remarquer
comment, en matiere de connaissances, et particulierement de
connaissances scientifiques, non seulement le futur nous reste
imprevisible, mais le passe lui-meme ne nous est pas imme-
diatement transparent, meme a la lumiere des connaissances
ulterieures.
De meme, a propos des connaissances, nous avons vu se
poser des questions comme celles de la verite, de 1'objectivite,
de la nouveaute, de la signification, de I'universalite, du ca-
ractere provisoire et relatif, du progres. Ce sont des questions
fort generates, certes, qui debordent les connaissances scienti-
fiques, du moins en ce qui concerne leur description et leurs
contenus. Mais, sans de telles notions, qui servent pour ainsi
dire de referent aux contenus des connaissances, celles-ci ne si-
gnifieraient rien, nous ne saurions pas vraiment de quoi nous
parlons; en meme temps, notre apologue les met elles-memes
en question, les soumet a un doute generalise. Cependant, ce
doute est tempere par la conviction intime (plus ou moins
ferme car parfois contestee sur des points de detail) que les
connaissances d'aujourd'hui sont meilleures, plus riches et plus
fines que celles d'hier, en gardant d'ailleurs ce qui etait as-
sure : et si elles le transforment, c'est en 1'elargissant. Le savoir
(comme etat des connaissances) est cumulatif et se prete a
1'idee de progres : mais on ne saurait etendre sans autre exa-
men cette consideration aux autres dimensions de I'histoire
humaine.
Ainsi, la comprehension des raisons profondes des conte-
nus de nos connaissances nous vient, en definitive, a mesure
que celles-ci progressent, autrement dit : le sens advient au
passe du futur. La proposition parait hardie, et elle Test en
effet, mais elle ne fait que refleter 1'idee meme de progres
des connaissances. Car, a y bien reflechir, n'est-ce pas la seule
maniere de concevoir que la pensee humaine puisse s'appro-
prier le monde (la nature), en se nourrissant de ce qu'il est,
Renouveaux conceptuels et transformation des sciences physiques 7

transformant en connaissance rationnelle ce qui nous etait


inconnu et qui nous vient d'abord empiriquement, ensuite
progressivement assimile par 1'exercice de la raison ? Mais ce
mouvement en avant qui nous entraine, qui entraine la pen-
see et la rationalite elargie a de nouvelles perspectives, n'est
en meme temps possible que parce que ces connaissances,
a chaque etape, font sens et contiennent leur propre signifi-
cation. Nous en jugeons selon la raison, et notre recherche,
motivee par la conscience des limites de notre savoir, nous
porte a ce depassement de la raison par elle-meme, selon ses
propres exigences.
Ceci nous montre aussi que la reflexion sur les sciences
dans leur histoire rejoint les plus hautes questions de la phi-
losophic. Mais ce n'est pas sur celles-ci que portera la suite.
Nous nous en tiendrons modestement a 1'expose de resultats
de la physique, en ne les accompagnant de reflexions episte-
mologiques ou philosophiques que dans la mesure ou celles-ci
seront strictement necessaires... Libre ensuite au lecteur de les
prolonger a sa guise.
Notre apologue demontre combien, en tentant de dres-
ser un tableau des connaissances acquises en physique au
cours du siecle ecoule (desormais, le XXe siecle), nous avons
conscience de ses limites, le nez colle sur des donnees sans
doute trop recentes pour pouvoir etre encore pleinement eva-
luees. II est cependant utile de se proposer un tel regard en
arriere, juste apres cette etape franchie (le dernier siecle du
second millenaire). Certes, les siecles qui se succedent ne sont
separes les uns des autres que par la convention du calen-
drier : les periodes ne sont que les coordonnees de 1'histoire,
et toute autre division serait aussi legitime. Le choix d'un siecle
est celui que Ton fait habituellement, et c'est un fait culturel
dont il n'est pas denue de sens de tenir compte. Nous atta-
chons bien de 1'importance aux anniversaires : en voici un,
du moins, commun a beaucoup, sinon a tous, embarques que
nous sommes dans une histoire de plus en plus partagee (ou
subie).
Or, lorsque nous evoquons le XXe siecle, ce sont d'abord les
bouleversements de 1'histoire de la planete qui nous saisissent.
Les deux grands conflits mondiaux en ont marque la premiere
moitie. Le premier (la Grande Guerre de 1914-1918) a certaine-
ment constitue une rupture bien plus grande avec la periode
qui a precede que le tournant proprement du XIXe au XXe
siecle, a tel point que 1'historien britannique Eric Hobsbawn
fait commencer le XXe siecle en 1918, pour ce qui est des mou-
vements de 1'histoire. Bien que nous ne voulions pas traiter
8 La physique du XXe siecle

ici de 1'histoire (pas plus que des grandes conceptions philo-


sophiques), nous ne pouvons eviter d'en evoquer des aspects
dans cette introduction. Car c'est d'une maniere speciale que
1'histoire a marque le renouvellement des idees en physique
au debut du XXe siecle.
Au moment meme ou la Premiere Guerre mondiale faisait
rage, temoignant de la folie des peuples, de nouvelles connais-
sances scientifiques prenaient forme. Elles allaient boulever-
ser, plus que ce ne fut jamais le cas avec une telle rapidite
dans 1'histoire de 1'humanite, 1'image que 1'homme se faisait
du monde, ainsi que sa propre image et ses conceptions sur
la connaissance. Lorsque les fumees du grand affrontement
meurtrier se dissiperent, ce fut par bien des aspects un nou-
veau paysage qui s'offrit a la vue, sur un horizon immense-
ment elargi.
La modification la plus grandiose et la plus surprenante,
qui suscita des debats passionnes et la fascination de beau-
coup, concernait la vision du monde physique et de 1'Uni-
vers. L'expedition scientifique menee en mai 1919 en Guinee
et au Bresil, sous la direction de 1'astronome Arthur Eddington
(1882-1944) et commanditee par la Royal Society et la Royal
Astronomical Society de Londres, pour observer une eclipse
de Soleil a 1'equateur etait en elle-meme tout un symbole. Son
enjeu depassait de loin la seule connaissance astrophysique
de la couronne et des eruptions solaires, puisque son but prin-
cipal etait 1'observation d'une eventuelle courbure des rayons
lumineux provenant d'etoiles lorsqu'ils passent a proximite
du Soleil. Cette propriete signifiait que 1'espace est courbe par
les grandes masses de matiere qu'il contient et constituait 1'une
des principales consequences de la theorie de la relativite ge-
nerale, presentee par Albert Einstein (1879-1955) a 1'Academie
des sciences de Berlin des la fin de 1'annee 1915.
La theorie de la relativite d'Einstein modifiait en profon-
deur les concepts physiques d'espace et de temps et obligeait,
en meme temps, a rectifier la maniere dont les physiciens les
apprehendaient depuis plus de deux cents ans, selon une sorte
d'evidence intuitive. En meme temps, la cosmologie mettait
en quelque sorte 1'Univers tout entier a portee de la main des
savants, qui decouvraient son immensite et, peu apres, son
mouvement d'expansion. Les annees de la fin de la Grande
Guerre de 1914-1918 virent encore une phase decisive d'une
autre revolution. Celle-ci etait peut-etre plus radicale puis-
Figure 1.2. Schema de la qu'elle concernait la connaissance de la matiere « commune »
courbure des rayons lumineux dans sa structure intime, atomique d'abord, subatomique en-
provenant d'etoiles. suite (cette derniere surtout a partir de la fin de la Seconde
Renouveaux conceptuels et transformation des sciences physiques 9

Guerre mondiale): la physique quantique, dont la pleine puis-


sance s'etablit a partir des annees 1930. C'est aussi des cette
periode que quelques savants, s'appuyant sur des resultats
anterieurement obtenus par Henri Poincare (1854-1912), com-
mencerent a explorer les systemes dynamiques, d'abord d'un
point de vue mathematique, et plus tard egalement d'un point
de vue physique. Ces etudes allaient dormer lieu, a partir des
annees 1960, aux conceptions sur le « chaos deterministe ».
Tous les autres domaines de la science, et particuliere-
ment les autres sciences exactes ou de la Nature, connurent
a cette epoque-la des renouvellements considerables. Dans les
sciences dites formelles, comme les diverses branches des ma-
thematiques et la logique, les transformations affecterent jus-
qu'aux questions de leurs fondements memes, tandis que le
calcul operationnel et 1'informatique commenc.aient a prendre
leur essor, qui s'accomplirait apres la Seconde Guerre mon-
diale. Dans les sciences de la Nature, a cote de la physique, la
chimie subissait les contrecoups de la revolution quantique,
la biologic inventoriait les implications de la theorie darwi-
nienne de 1'evolution, developpait 1'immunologie et la gene-
tique et posait bientot les jalons de 1'approche biomoleculaire
qui triompherait dans les annees 1950, tandis que la neuro-
physiologie, beneficiant des techniques physico-chimiques les
plus recentes, connaissait a partir des annees 1980 un develop-
pement notable qui entraina 1'essor des sciences cognitives. En
geologic, la theorie de la derive des continents, confirmant les
vues pionnieres emises des 1912 par Alfred Wegener (1880-
1930) mais alors rejetees, allait s'averer cinquante ans apres
comme une autre revolution majeure de notre « image du
monde ». Ses lemons convergeaient avec celles d'autres disci-
plines qui parlaient d'evolution de 1'Univers, de « vie et mort»
des etoiles ou s'elaborent les elements chimiques, d'evolution
et de naissance de la vie, pour enseigner que la matiere cos-
mique, physique, chimique, biologique, est le siege de proces-
sus de geneses de formes et de modifications incessantes; et
pour demontrer que 1'etoffe dont sont constitues la matiere
(inanimee ou vivante) et I'Univers est une, et que tous ces
processus s'enchainent les uns aux autres.
A 1'instar de ces plaques continentales qui glissent et bas-
culent 1'une sous 1'autre, en faisant surgir, dans la longue pa-
tience de centaines de milliers et de millions d'annees, les
nouvelles configurations du globe sous nos pieds, les nou-
velles sciences frontieres apparaissaient des lors comme les
lieux ou se devoilent et se determinent de maniere fondamen-
tale les perspectives qui renouvellent nos connaissances.
Cette page est laissée intentionnellement en blanc.
Chapitre 2

La theorie
de la relativite
La theorie de la relativite, de veloppee au debut du siecle, com-
porte deux etapes. La premiere, la relativite restreinte, est nee
de la necessite de rendre compatibles entre elles deux sciences
bien etablies : la mecanique des corps materiels et la dyna-
mique des champs electromagnetiques. En exprimant 1'inva-
riance des lois physiques dans les mouvements rectilignes
uniformes - ou d'inertie -, cette theorie correspond a une mo-
dification des concepts d'espace et de temps par rapport a leur
definition admise depuis Newton : ils ne sont plus indepen-
dants et absolus mais seulement relatifs, tout comme la notion
de simultaneity, au referentiel de coordonnees spatiales et de
temps auquel on les rapporte. Leur relation etroite s'exprime
sous la forme d'un nouveau concept physico-mathematique,
Yespace-temps a quatre dimensions. La masse est une forme
d'energie, ce que traduit la formule E = me2, formule devenue
celebre par sa verification et son utilisation dans les reactions
nucleaires.
La deuxieme etape, la theorie de la relativite generale, a
resulte de deux considerations principales : le caractere ar-
bitraire de la restriction des invariances physiques aux seuls
mouvements d'inertie, qui suggerait leur extension possible
aux mouvements acceleres les plus generaux; et 1'egalite de
1'acceleration locale des corps dans un champ de gravitation -
loi de Galilee de la chute des corps -, erigee par Einstein en
principe d'equivalence entre un champ de gravitation et un mou-
vement accelere. La theorie, developpee sur ces bases a 1'aide
du formalisme mathematique de 1'espace-temps et du calcul
differentiel absolu - calcul tensoriel -, permit d'exprimer une
nouvelle theorie relativiste generalisee de la gravitation don-
nant la structure de 1'espace-temps, pour des espaces phy-
siques desormais non-euclidiens et des temps non-unif ormes :
la courbure de 1'espace est determinee par les masses qu'il
contient et par les champs de gravitation dont ces masses sont Figure 2.1. Albert Einstein
les sources. (1879-1955).
12 La physique du XXe siecle

Ces deux etapes de la theorie de la relativite sont dues en


premier lieu aux travaux d'Albert Einstein, dans la logique
d'un mouvement de pensee axe autour de 1'idee d'invariance
des lois physiques dans les transformations dues aux mou-
vements relatifs, et de la critique dans cette perspective des
theories physiques existantes et de leurs concepts. De cette
maniere, la theorie de la relativite restreinte est apparue -
apres coup - comme preparatoire a la theorie de la relati-
vite generate. L'originalite fonciere de la seconde, qui germa
dans le cerveau d'Einstein, confirma et radicalisa 1'idee forte
deja presente dans la premiere, a savoir la necessite de mo-
difier les concepts d'espace et de temps et de leur octroyer
un contenu physique dicte par les proprietes generates de la
matiere, telles qu'elles s'expriment par 1'enonce de principes
physiques propres a ces theories.

Relativite restreinte
Certains aspects de la relativite restreinte furent egalement
acquis par d'autres travaux qui preparerent ou accompag-
nerent les recherches d'Einstein, au premier rang desquels
ceux d'Hendryk A. Lorentz et d'Henri Poincare1. Ceux-ci
formulerent les proprietes d'une dynamique electromagnetique
dont les equations etaient semblables a celles d'Einstein,
mais pour des contenus conceptuels sensiblement differents.
Les formules de transformation des coordonnees d'espace
et du temps (denommees par Poincare « transformations de
Lorentz »), necessities selon eux par la dynamique electroma-
gnetique, pouvaient encore coexister avec la conception d'un
espace physique - Tether au repos - et d'un temps absolus
conformes a ceux de la mecanique classique newtonienne.
La theorie d'Einstein, publiee en 1905, concernait egale-
ment au depart « 1'electrodynamique des corps en mouve-
ment », theorie qu'elle se proposait de reformer pour la mettre
1
Hendryk Antoon Lorentz (1853-1928), physicien neerlandais, auteur de la
theorie des electrons fondee sur la theorie electromagnetique de Maxwell, qui
prevoyait, entre autres, la decomposition des raies spectrales dans un champ
magnetique (1'effet Zeeman), observee en 1896 par Peter Zeeman (physicien
neerlandais, 1865-1943), et prix Nobel de physique avec Lorentz en 1902;
Henri Poincare (1854-1912), mathematicien, physicien et philosophe, inven-
teur des fonctions automorphes, 1'un des fondateurs de la topologie, fit faire
des avancees decisives a la geometrie analytique, a I'etude des equations diffe-
rentielles et a la mecanique celeste: sa solution nouvelle du probleme des trois
corps lui valut le Grand Prix du Roi de Suede en Janvier 1889. II formula ega-
lement une theorie relativiste de 1'electrodynamique proche a certains egards
de la relativite restreinte d'Einstein.
La theorie de la relativite 13

en conformite avec le « principe de relativite », enonc,ant que


les lois des phenomenes physiques ne dependent pas du mou-
vement - rectiligne et uniforme, ou « d'inertie » - des corps
qui sont le siege de ces phenomenes. Pour y parvenir, Einstein
proceda en realite a une reforme plus vaste, depassant le projet
initial, parvenant a ce que 1'on appellerait la theorie de la relati-
vite (restreinte), qui exprime une condition d'invariance - plus
exactement de covariance2 - non rattachee a une dynamique
particuliere, mais obligeant toute dynamique.
La validite du principe de relativite, considere jusqu'alors
comme verifiee pour la mecanique, lui paraissait devoir etre
etendue a 1'optique et a I'electromagnetisme, pour des raisons
a la fois empiriques et theoriques. Les raisons « empiriques »
etaient, en fait, des generalisations de resultats d'experiences
portant sur des ensembles de phenomenes averes plutot que
sur des observations singulieres. Elles concernaient les phe-
nomenes optiques et plus generalement les phenomenes elec-
tromagnetiques. Les resultats d'observations astronomiques
en optique sur 1'absence d'« anisotropie terrestre » - impossi-
bilite de mettre en evidence le mouvement absolu de la Terre -
concordaient en faveur d'un tel principe.
La plus ancienne de ces observations astronomiques etait
l'« aberration des etoiles », qui remontait au XVIIF siecle :
1'astronome James Bradley3 avait observe dans le ciel que la
position des etoiles fixes vues de la Terre varie avec le mouve-
ment annuel de celle-ci autour du Soleil, et de la meme fac.on
pour toutes les etoiles. Bradley comprit que cet effet etait du a
la vitesse finie de la lumiere : la direction apparente de 1'etoile
fixee par la lunette est modifiee par 1'effet conjoint de la vitesse
de deplacement de la Terre et de celle de la lumiere. Au cours
d'une annee, la position de 1'etoile decrit une petite ellipse tres
proche d'un cercle de diametre angulaire a = v/c, a etant dit
« parametre d'aberration », ou simplement « aberration ».
Une autre observation astronomique, faite par Francois
Arago4 en 1810, avait etabli que Tangle de refraction de la
lumiere provenant d'etoiles et tombant sur un prisme n'est
pas modifie par le mouvement d'entrainement de la Terre.
Cette observation etait en contradiction avec 1'idee, admise
depuis Newton, que la lumiere etait faite de corpuscules: leurs

La covariance, pour une grandeur donnee, indique la forme de sa transfor-


mation par le changement de repere spatio-temporel.
3
James Bradley (1683-1762), astronome britannique.
4
Francois Arago (1786-1853), astronome et physicien franijais, fut egalement
un homme politique.
14 La physique du XXe siecle

vitesses, supposees differentes en fonction de leur processus


d'emission (par exemple, si Tetoile source est plus ou moins
massive), auraient du etre modifiees par le mouvement de la
Terre, et Tangle de refraction avec elle.
Dans la theorie ondulatoire de la lumiere, proposee par
Augustin Fresnel5, la lumiere etait composee d'oscillations
periodiques d'un milieu, I'ether, immobile dans 1'espace
absolu : ces oscillations se propageaient dans 1'espace vide a
la meme vitesse (la vitesse de la lumiere dans le vide, c). Cette
theorie rendait naturellement compte de 1'aberration, mais de-
mandait une hypothese supplementaire pour s'accorder avec
le resultat d'Arago. En effet, il fallait admettre qu'en traversant
des corps refringents (d'indice de refraction ri) entraines dans
un mouvement (de vitesse v), la lumiere subissait une petite
modification de sa vitesse en fonction de la vitesse d'entrai-
Figure 2.2. Hendryk Antoon nement. La modification se traduisait par un « coefficient de
Lorentz (1853-1928). Fresnel », propose par ce dernier en 1818, et explique par lui
comme resultant d'un « entrainement partiel de I'ether » par
les corps qui le traversaient6. Cette modification de la vitesse
de la lumiere dans les corps refringents en mouvement com-
pensait ainsi 1'effet suppose du mouvement sur la refraction,
laissant en definitive la loi de refraction inchangee.
La formule de Fresnel de l'« entrainement partiel de
I'ether » fut verifiee par la suite, avec une experience fon-
damentale faite par Hippolyte Fizeau7 en 1851 sur la vitesse
de la lumiere dans un milieu refringent entraine. Cette expe-
rience « materialisait » la formule de Fresnel par un rayon
lumineux, divise pour traverser un double tube a air et a cou-
rant d'eau (d'indice n, de vitesse v), puis se recombinant en
formant une figure d'interferences. L'inversion du sens du
courant d'eau produisait un deplacement des franges dont la
formule de Fresnel rendait bien compte. L'effet du mouve-
ment est « au premier ordre », c'est-a-dire proportionnel a la
quantite v/c (appelee egalement « aberration »). Par ailleurs,
cette experience eliminait completement 1'eventualite d'un
entrainement total de I'ether, qui avait fait 1'objet de theories

5
Augustin Fresnel (1788-1827), physicien frangais.
6
La vitesse de la lumiere dans un milieu refringent d'indice n au repos par
rapport a 1'ether est V = c/n. Lorsque le milieu refringent est en mouvement
avec la vitesse v, elle devient V = c/n av (avec a = 1 - 1/n2). a est le
« coefficient de Fresnel ».
7
Hippolyte Fizeau (1819-1896), physicien frangais.
La theorie de la relativite 15

alternatives a celles de Fresnel et de Maxwell-Lorentz (comme


celles de George G. Stokes et de Heinrich Hertz8).
D'autres experiences furent ensuite entreprises pour dece-
ler une variation des lois de 1'optique en fonction du mouve-
ment et mettre ainsi en evidence une difference de ces lois pour
le repos et pour le mouvement. Le mouvement etait celui de
la Terre dans sa course annuelle autour du Soleil; les sources
lumineuses utilisees etaient soit des sources terrestres, soit la
lumiere solaire reflechie par un miroir. Certaines experiences
etaient au « premier ordre » (comme celle de Fizeau) : par
exemple, celles effectuees par Eleuthere Mascart en 18749 sur
1'ensemble des phenomenes optiques entraines dans le mou-
vement de la Terre (diffraction, refraction, double refraction,
polarisation rotatoire). D'autres etaient au « second ordre »
et de tres haute precision, comme celle d'interferences op-
tiques de Michelson et Morley, realisee en 188610. Le resultat
net de toutes ces experiences etait 1'impossibilite de mettre
en evidence le mouvement d'ensemble d'un systeme optique
(source, reseau ou instrument optique, recepteur, observa-
teur) entraine dans le mouvement terrestre. Dans tous les cas,
une compensation avait lieu : elle s'expliquait par la prise en
compte de 1'effet Doppler-Fizeau sur la longueur d'onde11 et
par le coefficient de Fresnel pour la refraction.
A 1'epoque, les physiciens faisaient une distinction entre
les experiences au premier ordre (comme celles de Fizeau et
de Mascart) et celles au second ordre ou aux ordres supe-
rieurs (comme celle de Michelson et Morley12). Pour sa part,

George Gabriel Stokes (1819-1903), mathematicien et physicien britan-


nique. Heinrich Hertz (1857-1874), physicien allemand, decouvrit les ondes
electromagnetiques et montra, en 1888, qu'elles suivent les memes lois que la
lumiere. II fut egalement le premier a observer 1'effet photoelectrique.
9
Eleuthere Mascart (1837-1908)," physicien frangais, professeur au College
de France.
10
Albert Michelson (1852-1931), Edward Williams Morley (1838-1923), phy-
siciens americains. Michelson recut le prix Nobel de physique en 1907.
11
L'effet Doppler-Fizeau est la modification de la frequence apparente d'une
vibration pour un observateur (ou systeme de reference) en mouvement re-
la tif par rapport a la source. Constate en 1842 pour les vibrations sonores
par Christian Doppler (physicien autrichien, 1803-1853), il fut etendu aux
vibrations lumineuses par Fizeau.
12
La theorie des electrons de Lorentz (1895) obtenait le coefficient de Fresnel
par deduction et rendait done naturellement compte de 1'experience de
Fizeau. Toutefois les effets du second ordre restaient inexpliques, a moins
de postuler une contraction des longueurs dans la direction du mouve-
ment, comme 1'admirent Lorentz et Poincare. C'est sur cette hypothese que
Lorentz et Poincare fonderent leurs theories de 1'electrodynamique des corps
en mouvement, paralleles a celle d'Einstein. Us la generalisaient en posant les
16 La physique du XXe siecle

Einstein ne pretait pas une attention particuliere a cette diffe-


rence : le fait important lui paraissait etre la soumission des
phenomenes optiques a ce qu'il appela le « principe de rela-
tivite », c'est-a-dire qu'ils ne permettaient pas de juger si un
systeme physique est en repos ou en mouvement. La relativite
du mouvement etait constatee par ailleurs de maniere gene-
rale pour tous les phenomenes qui relevent de la mecanique.
En ce qui concerne les phenomenes optiques et electromagne-
tiques, rien n'indiquait a priori qu'il devait en aller de meme: il
semblait plutot que ce devait etre le contraire puisque le siege
de ces phenomenes etait suppose etre Tether en repos absolu.
En optique, il fallait cependant admettre que des com-
pensations aux effets de mouvement absolu soient telles que
Ton ne puisse constater que des mouvements relatifs. Pour
Einstein, cela ne paraissait pas tres raisonnable : selon lui, il
valait mieux considerer que 1'optique toute entiere obeissait
aussi au « principe de relativite », bien que la theorie presente
y fut contraire.
Quant aux autres phenomenes electromagnetiques,
Einstein remarquait qu'ils restaient eux aussi les memes lors-
que des mouvements relatifs etaient inverses, a 1'exemple de
1'induction electrique - ou un courant est engendre dans un
circuit ferme situe dans un champ magnetique, que ce soit le
circuit qui se meuve ou que ce soit 1'aimant, 1'autre restant
immobile. La theorie rendant compte de ces phenomenes -
la theorie du champ electromagnetique issue des travaux de
James Clerk Maxwell13 completee par la theorie des electrons
de Lorentz - ne respectait pas cette symetrie. Ainsi 1'appa-
rition d'un courant induit avait deux explications differentes
selon les cas et il fallait done modifier la theorie a cet egard14.
Si la theorie de Maxwell-Lorentz restait insatisfaisante, c'est
qu'elle gardait un systeme de reference privilegie - le systeme
en repos de Vether. II fallait formuler une « electrodynamique
des corps en mouvement» qui concilie le principe de relativite

« formulas de transformations de Lorentz ». Dans la theorie d'Einstein, au


contraire, les formules de transformations et leur consequence, la contraction
des longueurs, sont deduites a partir des principes adoptes d'emblee.
13
James Clerk Maxwell (1831-1879), physicien britannique.
14
Selon la theorie electromagnetique de Maxwell dans sa formulation pre-
relativiste, lorsqu'un circuit electrique ferme est en mouvement dans un
champ magnetique au repos, il se cree une force electromotrice qui engendre
un courant electrique. Lorsque c'est le champ magnetique qui est en mouve-
ment (avec 1'aimant), il apparait un courant induit dans le circuit electrique
au repos. Les effets etaient les memes, mais les raisons theoriques en etaient
differentes.
La theorie de la relativite 17

et la propriete la plus fondamentale de la theorie electroma-


gnetique de Maxwell : a savoir la Constance de la vitesse de
la lumiere - onde electromagnetique - independamment du
mouvement de sa source.
En raisonnant ainsi, Einstein posait le probleme theorique
en termes d'une reforme des deux theories en jeu 1'une par
1'autre : la mecanique - science du mouvement des corps -
et I'electromagnetisme, chacune representee par un principe
physique de validite universelle, a savoir le principe de relati-
vite pour la premiere et le principe de Constance de la vitesse de la
lumiere pour la seconde. Ces deux principes, etant universels,
devaient etre respectes par tous les phenomenes physiques.
Cette maniere originale d'enoncer le probleme de la reforme
theorique indiquait d'emblee sa difficulte fondamentale : ces
deux principes etaient incompatibles en apparence. En effet,
la vitesse de la lumiere etant constante dans un referentiel en
repos absolu (1'ether, son support suppose), elle devait etre
differente dans tout systeme en mouvement par rapport a ce
dernier, contrairement aux exigences du principe de relativite.
Toutefois, Einstein montra que ces deux principes etaient in-
compatibles seulement parce que Ton admettait implicitement
que les vitesses de deux mouvements (ici, celui de la lumiere
et celui du referentiel) se composent suivant la loi galileenne
d'addition selon les trois coordonnees (V = v + c, v etant la
vitesse du repere en mouvement).
II etait possible d'admettre les deux principes physiques choi-
sis comme fondamentaux a condition d'abandonner cette re-
lation de la mecanique classique. La vitesse etant toujours
definie comme le rapport de la distance parcourue au temps
mis pour la parcourir, il fallait done s'interroger sur la signi-
fication physique de 1'espace et du temps dans leur relation
mutuelle. Inspire par les reflexions anterieurement proposees
par Ernst Mach15 et par Poincare - notamment sur le caractere
subjectif de la simultaneite -, Einstein se mit en devoir d'exa-
miner les concepts d'espace et de temps en tant que grandeurs
physiques dans des relations de phenomenes. L'analyse de la
notion de simultaneite pour des evenements 1'amena a preci-
ser la signification physique des coordonnees d'espace - liees
a un referentiel congu sur le mode de regies rigides16 - et
du temps - lie a des indications d'horloges. Le passage d'un
point de 1'espace a un autre et d'un instant a un autre implique
la consideration de phenomenes physiques agissant entre ces
15
Ernst Mach (1838-1916), physicien et epistemologue autrichien.
16
Definies pour un espace euclidien.
18 La physique du XXe siecle

espaces et ces temps - par exemple, une transmission de signal


lumineux. Ces actions ont toujours lieu en un temps fini, et non
pas instantanement comme dans la mecanique newtonienne,
et ce que Ton appelle « simultaneite » est done toujours rela-
tive au referentiel considere. D'un autre cote, ces phenomenes
physiques doivent etre soumis aux deux principes de validite
universelle admis au depart.
Einstein deduisit directement de ces considerations les for-
mules de passage d'un systeme de coordonnees et de temps
a un autre en mouvement relatif - les transformations de
Lorentz -, faisant apparaitre une dependance mutuelle des
coordonnees d'espace et du temps. De ces formules resultait
une nouvelle loi - relativiste - de composition des vitesses, dif-
Figure 2.3. Paul Langevin ferente de 1'addition galileenne, qui assurait la Constance de la
(1872-1946). vitesse de la lumiere quand on la composait avec toute autre
vitesse, et en faisait desormais une limite absolue17. II en re-
sultait aussi la parfaite syrnetrie des mouvements relatifs et la
perte du privilege de Vether en repos en tant que referentiel. La
notion meme d'un ether, conc.u jusqu'alors comme une sorte
d'intermediaire entre la matiere et 1'espace, et qui semblait in-
dispensable comme support de la propagation de la lumiere et
des champs electriques et magnetiques, etait devenue inutile.
Les nouvelles proprietes cinematiques des distances dans
des referentiels en mouvement relatif (contraction dans le sens
du mouvement) et des durees (dilatation) expriment la rela-
tivite du temps et de 1'espace et assurent que ces deux gran-
deurs possedent une signification physique. En particulier, la
dilatation des durees correspond a des battements differents
d'horloges dans des systemes en mouvement relatif, comme
Einstein le specifia des son article de 1905. Paul Langevin18
en fit quelque temps plus tard 1'argument de son « experience
de pensee » de deux jumeaux qui se retrouvent avec des ages
differents au terme du voyage cosmique de 1'un d'eux (1'autre
etant reste sur Terre). Le voyageur a vieilli moins vite que son
frere reste au repos19.
De meme, des particules de courte duree de vie dans leur
systeme propre, produites dans I'atmosphere par interactions
17 u+v
Pour deux vitesses colineaires, w et v. leur composition
r est V = ,l+uv/c
. ,.
2 Si
Figure 2.4. Experience des deux 1'une d'elles est la vitesse de la lumiere, u - c, cela donne V = c.
jumeaux de Paul Langevin. Le 18
Paul Langevin (1872-1946), physicien franc.ais, professeur au College de
voyageur parti dans 1'espace a France.
vecu un temps dilate en 19
Le fait que le jumeau voyageur ait du changer de referentiel en entreprenant
comparaison de celui vecu par son voyage de retour (en inversant sa vitesse) introduit un repere absolu
son f rere jumeau reste sur Terre: qui rompt la symetrie des mouvement relatifs existant entre deux systemes
il a done vieilli moins vite. seulement (ici, il y en a trois).
La theorie de la relativite 19

de rayons cosmiques, peuvent parvenir sur Terre, parce que Figure 2.5. Congres Solvay de
leur temps de vie vu du laboratoire (terrestre) est augmente 1911. Au ler rang, de gauche a
(par rapport a leur temps de vie propre) en raison de la vi- droite, Nernst, Brillouin, Solvay,
tesse de leur mouvement. Ou encore, les particules de haute Lorentz, Warburg, Perrin, Wien,
energie produites dans des accelerateurs ont leur duree de vie Marie Curie, Poincare. Debout
de gauche a droite :
allongee dans le systeme au repos relatif dans lequel elles sont
Goldschmidt, Planck, Rubens,
detectees. De telles experiences ont ete realisees bien apres la Sommerfeld, Lindemann,
formulation de la theorie de la relativite restreinte, dont elles de Broglie, Knudsen,
sont 1'illustration directe : elles sont d'usage courant aujour- Hasenohrl, Hostelet, Herzen,
d'hui, ce qui a contribue a familiariser les physiciens avec ces Jeans, Rutherford, Kamerlingh
notions qui leur sont devenues desormais intuitives. Onnes, Einstein, Langevin.
Nous avons mentionne plus haut la relation entre la masse
et 1'energie : elle est une consequence de la nouvelle cinema-
tique et s'applique a tout element de matiere. Elle est plus sen-
sible lorsque les energies ou les echanges d'energie sont eleves,
comme dans les disintegrations radioactives ou les reactions
nucleaires, mais elle est generale. Ces dernieres annees, elle
a ete constatee dans certaines reactions chimiques pour des
elements situes dans les dernieres colonnes de la classification
periodique, ou les energies de liaison des couches atomiques
internes sont elevees.
L'essentiel de la theorie de la relativite restreinte d'Einstein
est contenu dans les proprietes que nous venons d'indiquer :
elles concernent une nouvelle « cinematique », c'est-a-dire une
nouvelle fac,on de concevoir et de formuler les proprietes gene-
rales du mouvement des corps dans 1'espace et dans le temps.
Ce mouvement a des effets de contrainte sur la forme de la
dynamique par 1'exigence de covariance, transcription mathe-
matique du principe de relativite sur la forme des grandeurs
de la theorie physique et de ses equations.
20 La physique du XXe siecle

Le mathematicien Hermann Minkowski20 exprima peu


apres la theorie mathematique de 1'espace-temps directement
appropriee a la relativite restreinte d'Einstein. II reprit pour
cela 1'idee, initialement proposee par Poincare, d'ecrire le
temps comme une quatrieme coordonnee d'espace, imagi-
naire (x^ = \ci, avec i = V-I)21- Aux coordonnees spatiales
et au temps se substituait done Vespace-temps, continuum a
quatre dimensions (trois pour 1'espace et une pour le temps)
liees entre elles par une constante de structure de 1'espace-
temps qui n'est autre que la vitesse de la lumiere, invariante
dans toutes les transformations. Dans cet univers quadri-
dimensionnel, les transformations de Lorentz correspondent
a des rotations des quatre coordonnees qui laissent inva-
riantes les « distances », lesquelles s'expriment comme un
theoreme de Pythagore pour les quatre dimensions. La me-
trique de cet hyper-espace - ou univers de Minkowski - est
done caracterisee par un element invariant de « distance »
ds2 = dx2 + dx2 + dx2 - c2dt2, et sa signature (+,+,+,-) est celle
Figure 2.6. Schema du cone d'un espace quasi eudidien.
de lumiere. Dans 1'espace-temps (qu'on peut visualiser simplement en
ne considerant qu'une coordonnee d'espace x et le temps t),
toute action propagee a la vitesse de la lumiere franchit une
distance spatiale x dans un intervalle de temps t tel que x2 =
c2t2, soit x = Cette equation definit le « cone de lumiere ».
La region d'espace-temps interne au cone de lumiere - dite
du « genre temps » - est celle des actions physiques entre
deux de ses points (x2 < C2t2), et la region externe - dite du
« genre espace » (x2 > c2t2) - est non physique car deux de
ses « quadri-points » ne peuvent etre lies par des relations
causales.

Relativite generale
Cette transformation de nos conceptions de 1'espace, du temps
et de la causalite physique allait etre radicalisee par la theo-
rie de la relativite generale d'Einstein. Toutefois, le point de
20
Hermann Minkowski (1864-1909), mathematicien allemand.
21
L'idee de considerer le temps comme une quatrieme coordonnee, pour rap-
procher la mecanique de la geometrie, avait ete avancee bien anterieurement
par d'Alembert et par Lagrange, mais le temps et 1'espace restaient inde-
pendants 1'un de 1'autre; Jean Le Rond d'Alembert (1717-1783), mathemati-
cien, physicien, philosophe et encyclopediste franc.ais; Joseph Louis Lagrange
(1736-1813), mathematicien et physicien frangais originaire de Turin, auteur
de la Mecanique analytique (1788).
La theorie de la relativite 21

depart de celle-ci ne se trouve pas dans la consideration im-


mediate de 1'espace-temps. Einstein formula les deux idees
physiques qui sont a la base de sa nouvelle theorie avant la for-
mulation de 1'espace-temps de Minkowski. II n'adopta celle-ci
que lorsqu'il entrevit la solution du probleme physique pose
en termes d'une nouvelle « geometric » spatio-temporelle. Si la
theorie de la relativite generale, dont la formulation complete
fut acquise a la fin de 1'annee 1915, est une suite a la theorie de
la relativite restreinte, c'est d'abord comme une reflexion cri-
tique sur les concepts et la formulation des theories physiques
en relation avec la relativite des mouvements, portee plus loin
que la precedents.
Einstein en posa les premisses des 1907, en s'interrogeant
sur la theorie de la gravitation par rapport a la relativite des
mouvements. La question etait double. D'une part, pourquoi
limiter I'invariance relativiste aux seuls mouvements d'iner-
tie - rectilignes et uniformes -, alors que ces derniers ne sont
caracterises ainsi que par notre propre position, qui est elle-
meme relative a d'autres mouvements plus generaux ? II serait
a priori plus objectif de considerer la relativite pour des mou-
vements quelconques - acceleres, courbes... D'autre part, le
fait fondamental de la gravitation, la loi de la chute des corps
de Galilee22, qui stipule 1'egalite d'acceleration pour tous les
corps a egale hauteur de chute, peut etre exprime sous la
forme d'un « principe d'equivalence » locale (en un point
donne d'espace-temps) entre un champ de gravitation homo-
gene et un mouvement uniformement accelere. A 1'interieur Figure 2.7. Une pierre tombe de
d'un ascenseur en chute libre, on ne se rend pas compte de la la tour. Un ascenseur tombe en
chute libre : tous les objets a
chute, annulee par 1'entrainement du mouvement accelere. Le
1'interieur gardent la meme
« principe d'equivalence » s'exprime en termes des deux coef- situation mutuelle. La loi de la
ficients (ou masses) des lois newtoniennes de la dynamique. chute des corps de Galilee peut
Le premier est la masse d'inertie m\, parametre de la « seconde etre connue comme
loi de Newton », F = m\y (ou F est la force qui s'exerce sur 1'equivalence d'un champ de
le corps, et y est 1'acceleration). Le second est le coefficient de gravitation homogene et d'un
gravitation me, qui apparait dans la loi dormant la force de mouvement uniformement
gravitation, FG = GmcMf/R2 (G etant la constante de gravi- accelere.
tation, R la distance entre les centres des corps en attraction,
le corps considere de masse gravitationnelle WG, et la Terre
de masse MT). Constatant 1'egalite des accelerations dans un
champ de pesanteur a hauteur donnee (formulee dans la loi
de Galilee de la chute des corps), Einstein posa 1'egalite des
masses inertielle et gravitationnelle (m\ - me)- Cette identi-
fication revenait a formuler une propriete fondamentale de
22
Galileo Galilei (1564-1642), physicien italien.
22 La physique du XXe siecle

tout champ de gravitation en un point donne : a savoir qu'il


pouvait etre rapporte a des mouvements acceleres et identifie
localement a un mouvement accelere.
Des lors, la connaissance du champ de gravitation en un
point devenait la connaissance des proprietes d'un mouve-
ment accelere en ce point. II apparut ainsi a Einstein que
la theorie - relativiste - du champ de gravitation pouvait
etre obtenue par la seule consideration de covariance gene-
rale : meme forme de la loi dans des transformations de co-
ordonnees pour des mouvements acceleres quelconques, ces
coordonnees ayant perdu toute signification physique directe
absolue (c'est-a-dire liee a des regies rigides pour un espace
euclidien).
La representation mathematique de 1'espace-temps per-
mettait cette formulation - Einstein s'en rendit compte vers
1912 -, a condition d'abandonner la forme a priori de la
metrique quasi euclidienne de la relativite restreinte (ds2 =
Ldx 2 ), en la remplac.ant par une metrique de forme plus
generale ds2 = £, g^vdx^dxv (x^ et xv sont des coordonnees
generalisees d'espace-temps, et les fonctions g^v representent
la metrique en chaque point)23. Cette metrique fait appel
a une courbure non euclidienne de 1'espace (geometric de
Riemann24). Des lors, la forme de 1'espace-temps (donnee par
la metrique) est determinee physiquement par les champs de
gravitation qui s'y trouvent, selon les equations d'Einstein25
reliant le tenseur metrique au tenseur d'energie-impulsion de
la matiere26.
Cette relation, qui constitue le cceur de la theorie de la re-
lativite generale, implique plusieurs consequences, et d'abord
une modification encore plus radicale de la pensee de 1'espace
et du temps. Ces derniers sont non seulement lies entre eux
mais aussi a la matiere ; 1'espace-temps ne constitue plus un
cadre exterieur aux phenomenes qui s'y deroulent, mais est
23
De telles grandeurs a plusieurs indices sont des tenseurs. La somme est
effectuee sur tous les indices ^ et v de 1 a 4.
24
Bernard Riemann (1826-1866), mathematicien allemand, auteur de contri-
butions fondamentales sur la theorie des fonctions a variables complexes,
createur de la topologie, introducteur de la notion de variete differentielle a
n dimensions comme extension de la notion d'espace, qui devait servir de
base a la geometric differentielle... Sa conception du rapport de 1'espace a la
physique devait offrir le cadre mathematique et conceptuel de la theorie de la
relativite generale.
25
Equations trouvees a la fin de 1'annee 1915.
26
RpV - \gvpR = ~xTVfi- RV^ et R sont respectivement le tenseur de Ricci et
la courbure scalaire, Tv^ le tenseur d'energie impulsion, x une constante liee
a la constante de gravitation.
La theorie de la relativite 23

physiquement affecte par ceux-ci; les relations des distances


et des durees en tout point sont soumises au champ de gravi-
tation en ce point.
Trois consequences physiques directes de la theorie etaient
indiquees dans le travail d'Einstein. La premiere concerne le
mouvement de la planete Mercure, la plus rapide du systeme
solaire : l'« avance seculaire » de son perihelie (43" par siecle)
observee par Urbain Le Verrier27 au milieu du XIXe siecle,
et inexpliquee par la theorie newtonienne de la gravitation,
Figure 2.8. Avance
etait exactement retrouvee par la theorie d'Einstein. La se-
de la perihelie de Mercure
conde est la deviation des rayons lumineux dans un champ
(prediction par la loi de
de gravitation, qui correspond a la courbure de 1'espace au Newton).
voisinage des grandes masses : elle fut constatee en 1919, lors
de 1'observation de 1'eclipse solaire en Guinee et au Bresil (ex-
pedition d'Eddington) determinant 1'acceptation progressive
de la theorie de la relativite generale. La troisieme est le depla-
cement de la longueur d'onde de la lumiere vers le rouge dans
un champ de gravitation : elle fut constatee quelque temps
plus tard. La dilatation du temps, a laquelle elle correspond,
fut egalement mise directement en evidence beaucoup plus
tard avec les mesures de precision d'horloges atomiques pla-
cees pres de masses montagneuses.
La theorie de la relativite generale a d'autres consequences
qui sont apparues progressivement par la suite. L'existence
d'ondes gravitationnelles, qui sont a la theorie relativiste de
la gravitation d'Einstein ce que les ondes electromagnetiques
sont a la theorie de Maxwell, fut proposee par Einstein des
1916 : ce sont des variations du champ de gravitation propa-
gees dans 1'espace, semblable a des rides de 1'espace-temps.
La verification directe de cette prediction, extremement diffi-
cile en raison de la faible valeur de la constante de gravitation
et des grandes masses de matiere necessaires, est encore un
projet. Mais c'est un projet proche cependant d'etre realise par
la construction d'antennes geantes pour detecter des ondes
de gravitation en provenance du cosmos28 : il serait ainsi pos-
sible de deceler les explosions de supernovee. Des preuves
indirectes de 1'existence de ces ondes ont ete obtenues par
1'observation des oscillations d'un pulsar binaire (le systeme
« 1916+17 ») par Robert A. Hulse et Joseph H. Taylor29.

27
Urbain Le Verrier (1811-1877), astronome franc,ais.
28
Projets « Virgo » en Europe et « Ligo » aux Etats-Unis, sur le principe
des experiences d'interference de grande precision comme celle de Michelson
pour 1'optique au XIXe siecle.
29
Ce qui leur valut le prix Nobel de physique en 1993 (voir chapitre 10).
24 La physique du XXe siecle

Une autre implication remarquable de la theorie de la rela-


tivite generale fut 1'ouverture de la cosmologie comme science,
par 1'application de la theorie a 1'Univers dans sa totalite, pro-
posee par Einstein des 1917, discutee par Wilhem de Sitter et
precisee par Alexander Friedmann30, qui formula la possibi-
lite d'un univers non statique. Mais ces conceptions et, d'une
maniere generale, la theorie d'Einstein, dont les applications
paraissaient alors limitees et qui n'interessaient qu'un petit
nombre de chercheurs (surtout des mathematiciens), ne quit-
terent leur aspect speculatif qu'avec les developpements de
1'astrophysique et de la cosmologie d'observation, a partir des
annees 1960. Nous y reviendrons plus loin (chapitres 10 et 11).

30
Willem de Sitter (1872-1934), astronome neerlandais; Alexander
Friedmann (1888-1925), astronome allemand.
Chapitre 3

La physique quantique

La physique quantique est un domaine considerablement


etendu, puisqu'elle concerne la structure profonde de la
matiere en general, des objets cosmiques aux corps de notre en-
vironnement et aux atomes dont nous sommes constitues. Elle
assure 1'unite de la matiere dans la diversite de ses formes d'or-
ganisation, des associations moleculaires d'atomes aux pro-
prietes des noyaux atomiques et des particules elementaires
que recelent effectivement ou « virtuellement » ces derniers.
L'outil de comprehension theorique de ce domaine de la phy-
sique est articule autour de la mecanique quantique, appliquee
a des modeles theoriques particuliers (atomiques, nucleaires),
et prolongee en theorie quantique des champs d'un point de vue
fondamental. Sous la forme de 1'electrodynamique quantique,
cette derniere permet de rendre compte avec une extreme pre-
cision des proprietes des atomes, determinees par le champ
d'interaction electromagnetique.
Nous verrons plus loin les extensions recentes de la theorie
quantique des champs aux autres interactions qui agissent au
niveau nucleaire sous la forme des « champs de jauge ». Ces
developpements se sont effectues dans le cadre conceptuel de
la mecanique quantique, confirmant ainsi sa puissance heu-
ristique. Ce cadre conceptuel rompt cependant avec plusieurs
caracteres attribues jusqu'alors a la representation des pheno-
menes physiques, suscitant des problemes d'interpretation,
tant physique que philosophique. De vifs debat sur ce sujet
entre les plus grands physiciens de 1'epoque contribuerent a
fonder cette theorie.

Quantification du rayonnement
et des atomes
L'introduction des quanta en physique remonte aux travaux
effectues en 1900 par Max Planck (1858-1947) sur le rayon-
nement du « corps noir » a 1'equilibre thermique - une ca- Figure 3.1. Max Planck
vite chauffee emettant un rayonnement electromagnetique (peinture de Maria Kokkinou).
26 La physique du XXe siecle

(de la lumiere) aussitot absorbe par les parois. Pour rendre


compte du spectre lumineux par le calcul theorique des
echanges d'energie d'emission et d'absorption (AE), Planck
dut faire 1'hypothese que ces echanges sont discontinus et pro-
portionnels aux frequences (v) du rayonnement lumineux :
AE = nhv, n etant un nombre entier. La grandeur indivi-
sible h, ou quantum d'action, de valeur numerique tres pe-
tite (h = 6,55 x 10~27 erg s), apparut bientot comme une
des constantes fondamentales de la nature (elle fut appelee
« constante de Planck » par Einstein).
En 1905, a la suite d'un raisonnement thermodynamique
dans lequel il donnait aux probabilites un sens physique
(celui de frequences d'etats pour un systeme), Einstein fut
amene a considerer que ce ne sont pas seulement les echanges
d'energie qui sont discontinus, mais 1'energie du rayonne-
ment lumineux elle-meme. II montra que cette energie est
proportionnelle a la frequence de 1'onde lumineuse : E = hv.
Cela donnait immediatement 1'explication de 1'effet photoelec-
trique (voir 1'encadre 3.1) observe deux decennies auparavant
par Heinrich Hertz (1857-1894). Einstein s'aperc.ut alors que
cette propriete du rayonnement etait en opposition de maniere
irreductible avec la theorie electromagnetique classique (celle
de Maxwell). Des 1906, il annonc.a que cette theorie devrait
etre modifiee dans le domaine atomique.
La maniere dont cette modification devrait etre obtenue
n'etait pas evidente puisque la physique theorique reposait
sur 1'utilisation d'equations differentielles, correspondant a
des grandeurs a variation continue. En raison de la puis-
sance de la theorie electromagnetique classique, peu de physi-
ciens etaient enclins a imaginer qu'elle pouvait etre invalidee.
Einstein fut d'abord seul a le penser, et s'efforc.a de mettre
en evidence d'autres aspects des phenomenes atomiques et
du rayonnement qui rompaient avec la description classique.
II etendit ainsi 1'hypothese du quantum d'action, par-dela les
proprietes du rayonnement, a 1'energie des atomes, par ses tra-
vaux (realises de 1907 a 1911) sur les chaleurs specifiques aux
basses temperatures. II retrouvait 1'annulation des chaleurs
specifiques des corps au zero absolu de temperature, phe-
nomene observe mais inexplicable par la theorie classique.
II mit par ailleurs indirectement en evidence, en 1909, une
structure duale du rayonnement qui semblait a la fois on-
dulatoire et corpusculaire, ce qu'il devait preciser par la suite.
D'autres physiciens comme Paul Ehrenfest (1880-1933), Walter
Nernst (1864-1941), Hendryk A. Lorentz, Henri Poincare, le re-
joignirent peu a peu pour conclure au caractere ineluctable
La physique quantique 27

de 1'hypothese quantique que Planck lui-meme hesitait a


admettre. Elle n'etait cependant encore acceptee generalement
que pour les echanges d'energie.
Ce sont ces derniers, d'ailleurs, qui etaient concernes par
la theorie des niveaux d'energie quantifies de 1'atome, pro-
posee en 1913 par Niels Bohr (1885-1962). Ernest Rutherford
(1871-1937) avait montre experimentalement, en 1911, par la
diffusion de particules a sur des atomes1, que les atomes
etaient constitues d'un noyau portant 1'essentiel de la masse
et charge d'electricite positive; ce noyau etait entoure d'elec-
trons en mouvement orbital, comme un systeme planetaire
dont la force d'attraction serait celle de 1'interaction electrique
entre le noyau et 1'electron (la charge positive du noyau etant
equilibree par la somme des charges negatives des electrons
planetaires).
Ce modele etait incompatible avec la stabilite de 1'atome
car, selon la theorie electromagnetique, les electrons devraient
rayonner continument dans leur mouvement circulaire et,
perdant leur energie, tomber sur le noyau central. Bohr fit
1'hypothese que les orbites suivies par les electrons corres-
pondent a des niveaux d'energie quantifies bien definis, et
que les electrons ne peuvent changer d'orbite que par sauts
discontinus d'un niveau d'energie Em a un autre En, selon la
relation \Em - En\ = hv, avec emission (si Em > En) ou ab-
sorption (si Em < £„) d'une radiation de frequence v. Arnold
Sommerfeld (1868-1951) raffina ensuite le modele en tenant
compte de corrections relativistes, les electrons etant animes
de grandes vitesses dans leurs mouvements orbitaux.
Cette theorie admettait la theorie electromagnetique clas-
sique en lui imposant la condition non classique de quantifi-
cation des orbites. Elle reussissait a rendre compte des raies
spectrales bien etablies de 1'atome d'hydrogene (donnees par
les « formules de Balmer »). Bohr etablit a ce propos son « prin-
cipe de correspondance » entre les proprietes non classiques
(discontinues) basees sur la quantification et les proprietes
des systemes macroscopiques (variables continues), retrou-
vees comme limite pour les grands nombres quantiques. En
particulier, ce principe permettait de calculer, outre les fre-
quences, 1'intensite des raies spectrales pour 1'atome d'hydro-
gene ; il echouait pour les atomes plus complexes2.
1
Ces particules, emises dans la radioactivite a, sont en fait des noyaux
d'helium.
2
Niels Bohr requt, pour ces travaux, le prix Nobel de physique de 1922.
Planck s'etait vu attribuer le prix de 1918 (qui ne hit decerne qu'en 1919, en
raison de la guerre).
28 La physique du XXe siecle

En 1916-1917, Einstein parvenait a une theorie quantique


« semi-classique » connue comme la « premiere theorie des
quanta »; elle constituait une premiere synthese pour repre-
senter 1'ensemble des caracteres alors connus des phenomenes
quantiques. Partant des niveaux discrets d'energie de 1'atome
de Bohr, il exprimait la probabilite de transition d'un etat
d'energie a un autre a 1'equilibre thermique entre les mole-
cules et le rayonnement, retrouvant ainsi la loi de Planck. Ce
faisant, il montrait que le rayonnement possede, outre une
energie granulaire, une quantite de mouvement (p), fonction
de la longueur d'onde (A) : p = h/A, ce qui en etablissait le
caractere pleinement corpusculaire. Parmi les amplitudes de
transition entre les niveaux, il obtenait un terme d'emission
stimulee qui est a 1'origine du pompage optique et des faisceaux
lasers. On notera que les probabilites, qui avaient fait leur en-
tree en physique comme un outil d'exploration avec les tra-
vaux de Planck et surtout ceux d'Einstein sur le rayonnement,
restaient au centre des calculs theoriques : Einstein remarqua
que la theorie predisait seulement la probabilite d'emission
du rayonnement dans une direction donnee. Elles n'en sor-
tiraient pas et deviendraient constitutives de la theorie phy-
sique3. Arthur Compton (1892-1962) confirma experimenta-
lement ce caractere en mettant en evidence la collision d'un
photon sur un electron atomique (« effet Compton »). II fut
montre peu apres que ces collisions ont lieu de maniere indi-
viduelle et non seulement statistique comme Bohr et d'autres
le proposaient : 1'electron et le photon sortant sont en effet
correles4.

Mecanique quantique
De nombreux travaux furent effectues des lors par un nombre
croissant de physiciens, experimentateurs et theoriciens, pour
explorer le nouveau domaine quantique. Us aboutirent a poser
les bases de ce qui allait etre la « mecanique quantique ». Celle-
ci fut etablie par deux approches differentes qui peuvent toutes

3
Einstein recut le prix Nobel de physique de 1921 pour ses recherches sur
les quanta (et non pour la theorie de la relativite), et nommement « pour son
explication de 1'effet photoelectrique », qui remontait a 1905...
4
Experiences de Bothe et Becker (1925). Arthur H. Compton obtint le prix
Nobel de physique de 1927, qu'il partagea avec Charles Wilson, inventeur de la
chambre a condensation de vapeur (« chambre de Wilson ») pour materialiser
les trajectoires de particules.
La physique quantique 29

deux etre considerees comme issues du travail synthetique


d'Einstein que nous venons de mentionner.
La premiere fut celle de la « mecanique ondulatoire » de-
veloppee par Erwin Schrodinger (1887-1961) inspire par une
idee de Louis de Broglie (1892-1987) et par un nouveau resultat
d'Einstein. Prenant acte de la dualite de proprietes, ondula-
toires et corpusculaires, de la lumiere, Louis de Broglie en
proposa 1'extension a la matiere en general: il associait, pour
toute particule, une frequence a son energie (E = hv) et une
longueur d'onde a son impulsion ou quantite de mouvement
(p h/A) selon les relations deja connues pour le rayonne-
ment. Cette hypothese fut verifiee quelque temps plus tard
par la mise en evidence d'une diffraction des electrons sem-
blable a celle de la lumiere5.
Developpant un resultat obtenu par le physicien indien
Satyendra N. Bose (1814-1974) sur la loi du rayonnement de
Planck sans utiliser I'electrodynamique classique, Einstein se
trouva en mesure d'etablir une relation formelle entre un
rayonnement et un gaz, qui supposait un traitement diffe-
rent de la mecanique statistique habituelle ou les particules,
meme identiques, sont discernables. II mit ainsi le doigt sur
une propriete specifiquement quantique, Yindiscernabilite des
particules identiques d'un gaz monoatomique, symetriques dans
leur echange mutuel, correspondant a la statistique dite « de
Bose-Einstein » pour ces particules (et le rayonnement), appe-
les par la suite « bosons ». Realises en 1924-1925, ces travaux
d'Einstein etaient riches de trois predictions de phenomenes
specifiquement quantiques qui ne furent mis en evidence ex-
perimentalement que bien plus tard : la « condensation de Bose-
Einstein » (premiere description d'une « transition de phase »),
la supraconductivite et la superfluidite.
Parallelement, une autre statistique fut developpee par
Enrico Fermi (1901-1954) et Paul Adrian M. Dirac (1902-1984)
pour une autre classe de particules indiscernables, antisyme-
triques dans leur echange mutuel. Cette statistique, dite « de
Fermi-Dirac », relative aux particules appelees « fermions »,
rendait compte d'une propriete generale : le « principe d'ex-
clusion », formule quelque temps auparavant par Wolfgang
Pauli (1900-1958) sur une base empirique.

5
L. de Broglie re^ut le prix Nobel de physique en 1929. La mise en evidence
de la diffraction des electrons valut le prix Nobel de physique de 1937 a Figure 3.2. Enrico Fermi
Clinton Joseph Davisson (1881-1958) et a George Paget Thomson (1892-1975). (1901-1954).
30

J 2
H He
3 5 6 7 8 9 10
Li "Be B C N 0 F Ne
12 13 15p 165 17 18
"Na Mg AI "Si CI Ar
19|< 20
Ca 21
Sc ^i 23V 24
Cr 25
Mn 26
Fe 27
Co 28
Ni 29
Cu
30
Zn 31
Ga 32
Ge 33
As 3
«Se 35
Br 36Kr

38 41 53 M
37
Rb Sr 39y
r Nb «2Mo <3Tc «Ru 45
Rh *Pd <7Ag <8Cd 49
In 50
Sn 51
Sb
52
Te I Xe
55 57 72 73 7 75 76 77jr 81T, 82 83
Cs ^Ba La Hf Ta <W Re 0s 78
Pt 79
Au eoHg Pb Bi '"Po 85
At ^Rn
87pr 104 105 106 107 108
""Ra ^Ac Unq Unp Unh Ns Hs 109
Mt

Ho 68Er
59pr 61 62 63 M 65 67 69 70 71
^Ce ^Nd Pm Sm Eu Gd Tb "Dy Tm Yb Lu

No io3Lr
91 92 93 95 97
^h Pa U Np *PU Am ^Cm Bk 98
Cf "Es Fm ioiMd
100 102

Figure 3.3. Classification periodique des elements. Les electrons atomiques sont repartis suivant des
couches orbitales caracterisees par des nombres quantiques (energie, moment angulaire, spin) qui
correspondent a un etat possible. Quand tous les etats d'une couche sont occupes, on passe a la couche
superieure avec 1'atome suivant, le numero atomique augmentant (Z = nombre d'electrons). Les
electrons de la couche externe non fermee determinent les proprietes electromagnetiques et chimiques
de 1'atome : il en resulte la « periodicite » de ces proprietes lorsque le numero atomique augmente.

Selon ce principe, deux particules identiques comme des


electrons ne peuvent se trouver dans un meme etat quantique
(par exemple, au sein d'un niveau atomique donne) : cette
regie rend compte de la composition des niveaux d'energie des
atomes, et done de la classification periodique des elements6.
Ces proprietes s'avererent fondamentales et furent inte-
grees par la suite dans le formalisme de la fonction d'onde ou
vecteur d'etat de la mecanique quantique (elles sont 1'un des
aspects du « principe de superposition »).
Adoptant 1'idee du caractere ondulatoire de la matiere et
I'mdiscernabilite des particules identiques telle qu'elle ressor-
tait des travaux d'Einstein, et a 1'aide du formalisme hamilto-
nien de la mecanique, Schrodinger etablit 1'equation d'onde
de 1'atome d'hydrogene. Elle manifestait la naissance de la

6
Les bosons sont des particules de « spin » entier et les fermions de spin
demi-entier (en unite de quantum d'action). Le spin est une sorte de moment
angulaire cinetique intrinseque, caracteristique des particules atomiques et
nucleaires. Les photons sont des bosons alors que les electrons sont des fer-
mions : leur spin 1/2 correspond a deux orientations possibles dans un champ
magnetique.
La physique quantique 31

mecanique ondulatoire dont elle etait 1'equation fondamen-


tale (non-relativiste).
La deuxieme voie fut celle de la « mecanique quantique » a
proprement parler. Elle fut preparee par une serie de travaux
sur les proprietes de la matiere et du rayonnement et de leur
interaction, bases sur le principe de correspondance de Bohr.
Elle aboutit a des contributions d'une importance conside-
rable, dues a Werner Heisenberg (1901-1976), Max Born (1882-
1970), Pascual Jordan (1902-1980), Paul Dirac, qui etablirent,
dans les annees 1925-1926, la « mecanique quantique ». Cette
theorie se presentait comme une theorie des transitions ato-
miques, et reussissait a rendre compte des niveaux d'energie
et des distributions spectrales des atomes les plus simples,
sans faire appel a une image classique (par exemple de tra-
jectoires d'electrons). Elle s'en tenait a la description par les
« grandeurs observables », a savoir les amplitudes de transi-
tions entre niveaux, representees par des tableaux de nombres
qui furent identifies a des matrices7.
Schrodinger etablit alors, en 1926,1'equivalence des deux
mecaniques, ondulatoire et quantique. La non-commutation
des operateurs representant les grandeurs observables (plus
generalement que les seules matrices) s'avera etre une ca-
racteristique centrale de la nouvelle theorie quantique. Elle
concerne aussi la mecanique ondulatoire de Schrodinger, ou
les grandeurs peuvent etre egalement representees par des
operateurs agissant sur la fonction d'onde : par exemple,
1'impulsion est un operateur differentiel par rapport aux
coordonnees8.
La signification d'un tel operateur (que nous designons
par A) pour la theorie physique est obtenue en 1'appliquant
sur la fonction representant 1'etat du systeme physique (ap-
pelee la fonction d'onde ou le vecteur d'etat), ce qui donne
l'« equation aux valeurs propres » de la grandeur A (appelee
d'une maniere generale « grandeur observable », ou simple-
ment « observable ») : A^f = aW, ou a est un nombre : appele

7
Entites mathematiques caracteristiques des systemes d'equations lineaires
(ce sont des operateurs lineaires qui, a la difference des nombres, ne commutent
pas quand on fait leur produit deux-a-deux). Deux nombres x et y, com-
mutent : xy - yx - 0. Deux matrices A et B, ne commutent pas : AB - BA 0.
Appliquees a la fonction d'etat W, une matrice (ou tout operateur lineaire
approprie) fournit une « equation aux valeurs propres » du type A^ = a*¥, A
etant 1'operateur (par exemple, 1'hamiltonien H qui represente 1'energie) et a
la valeur propre correspondant a 1'une des valeurs possibles (mesuree).
8
L'operateur impulsion p correspondant a la coordonnee de position x
s'ecrit :p = ih-j^. On remarque que x et p ne commutent pas : xp - px = iH + 0.
La physique du XXe siecle

valeur propre, il peut prendre plusieurs valeurs (le spectre des


valeurs propres) dont chacune correspond a un resultat pos-
sible de mesure par des appareils classiques de mesure pour
les grandeurs correspondantes.
Max Born proposa, la meme annee, Vinterpretation probabi-
liste de la fonction d'onde ou d'etat, representant le systeme
physique. Cette fonction ^, donnee par une equation cau-
sale (1'equation differentielle dite « aux valeurs propres », par
exemple, 1'equation de Schrodinger), fournit la probabilite du
systeme d'etre dans 1'etat caracterise par des grandeurs phy-
siques de valeurs donnees : le carre de la valeur absolue (ou
module) de la fonction d'etat (|^|2) donne la probabilite que
le systeme se trouve dans cet etat. La fonction M7 a done la
signification physique d'une « amplitude de probabilite ». De
telles amplitudes ont la propriete dite « de superposition » :
toute superposition lineaire de fonctions qui sont solutions de
1'equation du systeme physique est aussi une solution et peut
done representer le systeme. Cette propriete s'est averee etre
1'une des plus fondamentales de la mecanique quantique. Elle
rendait compte de ses caracteres les plus specifiques comme
la dualite onde-particule et la diffraction des particules quan-
tiques (electrons, neutrons, etc.), et d'autres caracteres, sur les-
quels nous reviendrons, telles que 1'indiscernabilite des par-
ticules identiques, la non-separabilite locale de systemes de
particules, les « oscillations » de divers ensembles de parti-
cules neutres (mesons X°, neutrinos...), etc.
Heisenberg demontra, en 1927, que les « grandeurs conju-
guees », correspondant a des operateurs ne commutant pas
(par exemple, la position x et 1'impulsion p) sont caracterisees
par des relations d'inegalites entre leurs largeurs spectrales,
du type AxAp > h, les inegalites de Heisenberg. Cela signifie
que de telles grandeurs, dites « incompatibles » ou « conju-
guees », ne peuvent etre 1'objet d'une determination conjointe
avec une precision absolue. Ces inegalites sont aussi connues
comme les relations « d'incertitude » ou « d'indetermination » :
cette terminologie ne laisse cependant pas assez voir qu'elles
sont « objectives », en ce sens qu'aucune determination plus
precise n'est possible des le principe.
La mecanique quantique fut alors exprimee dans un for-
malisme mathematique approprie, faisant appel a la theorie
mathematique des espaces lineaires de Hilbert, espaces abs-
traits dont les elements ou vecteurs sont des « fonctions de
Figure 3.4. Werner Heisenberg carre sommable ». La fonction d'etat representative d'un sys-
(1901-1976). teme physique (atome d'hydrogene, ensemble de particules
La physique quantique 33

ou atomes en interaction, etc.), solution de I'equation causale


du systeme, avec sa propriete (vectorielle) de superposition
lineaire et sa signification physique d'amplitude de probabi-
lite, est definie dans un espace de Hilbert. Les grandeurs phy-
siques ne sont plus decrites par des nombres ou des fonctions
numeriques, mais par des opemteurs mathematiques, lineaires,
agissant sur la fonction d'etat du systeme considere. Ces ope-
rateurs lineaires ont des proprietes analogues a celles des
matrices (equations lineaires « aux valeurs propres », « anti-
commutation », etc.). La determination complete de 1'etat d'un
systeme physique est obtenue a 1'aide d'un « ensemble com-
plets de grandeurs (observables) qui commutent ». Le meme
etat peut etre determine independamment a 1'aide d'un autre Figure 3.5. Congres Solvay de
ensemble de ce genre dont les grandeurs ne commutent pas 1927. Au ler rang : I. Langmuir,
avec les premieres (systemes incompatibles, ou complemen- M. Planck, M. Curie,
taires). On montra qu'il etait possible de construire ces ope- H.A. Lorentz, A. Einstein,
rateurs a partir de grandeurs numeriques classiques prises P. Langevin, C.E. Guye,
comme generateurs de transformations infinitesimales. C.T.R. Wilson, O.W. Richardson.
Au 2e rang : P. Debye,
La mecanique quantique ainsi constitute (le terme desi- M. Knudsen, W.L. Bragg,
gnant aussi bien la mecanique ondulatoire) se trouvait des H.A. Kramers, P.A.M. Dirac,
A.H. Compton, L. de Broglie,
lors en mesure de resoudre un certain nombre de problemes
M. Born, N. Bohr. Au 3e rang :
fondamentaux de la matiere et du rayonnement, et de leur A. Piccard, E. Henriot,
interaction. A partir de 1927 elle constitua un corps de doc- P. Ehrenfest, E. Herzen,
trine et fut presentee au monde des physiciens, lors du Conseil T. De Donder, E. Schrodinger,
de physique Solvay, comme une theorie physique consistant E. Verschaffelt, W. Pauli,
en un formalisme mathematique - plus abstrait que d'or- W. Heisenberg, R.H. Fowler,
dinaire - muni d'interpretations le rendant apte a decrire L. Brillouin.
34 La physique du XXe siecle

des systemes physiques9. Au-dela d'interpretations physiques


comme 1'interpretation probabiliste de la fonction d'etat, la
mecanique quantique fit appel a une « interpretation philo-
sophique » lors de sa constitution et encore longtemps apres.
Dans 1'esprit de ses promoteurs, cette interpretation etait des-
tinee a permettre son usage rationnel malgre le caractere in-
habituel de ses propositions principales qui derogeaient aux
conceptions jusque-la en vigueur en physique, telles que la
realite des systemes decrits independante de 1'action de 1'ob-
servateur et le determinisme des variables entrant dans la
description (nous en parlerons au chapitre suivant).

Theorie quantique des champs


La mecanique quantique se presentait des lors comme un
cadre conceptuel pour decrire les systemes physiques, leur
evolution et leurs interactions. Mais ces derniers deman-
daient 1'etablissement d'une dynamique qui en rende rai-
son : par exemple, qui permette de calculer les amplitudes
de transitions atomiques, au lieu de les inserer a partir des
donnees d'observation. L'une des directions privilegiees de
1'elaboration d'une dynamique des systemes quantiques fut
la theorie quantique des champs, dont les premieres ap-
proches furent proposees des la fin des annees 1920, par Dirac,
Oskar Klein (1894-1977), Jordan, Eugene Wigner (1902-1995) et
d'autres. Dirac avait formule, en 1927, 1'equation quantique
relativiste de 1'electron, qui predisait 1'existence d'antiparti-
cules associees aux particules connues (de charges opposees,
mais identiques a cela pres). Elle servit de base a 1'elaboration
de la theorie quantique du champ (il s'agissait alors du seul
champ electromagnetique). Celle-ci repose sur 1'idee d'une
« seconde quantification », selon laquelle la grandeur repre-
sentative de 1'etat d'un systeme physique, conc.ue jusqu'alors
comme une fonction dans le sens habituel, est elle-meme un
operateur agissant sur cet etat. II etait possible de representer
de cette maniere la creation ou la destruction de particules ou
d'antiparticules dans un systeme physique, et done en prin-
cipe de traiter directement les interactions entre les atomes,
les noyaux, les particules et les champs.
9
Pour leurs travaux sur les quanta ou sur la mecanique quantique (outre
ceux mentionnes plus haut, et ceux pour des contributions en physique dont il
sera question plus loin), le prix Nobel de physique fut attribue respectivement
a: Heisenberg en 1932; Dirac et Schrodinger en 1933; Pauli en 1945; Max Born
en 1954.
La physique quantique 35

Cette voie et d'autres furent explorees au long des decen-


nies qui suivirent, avec des succes varies. Ces tentatives ap-
partiennent a 1'histoire de la physique nucleaire et a celle des
particules elementaires qui s'ouvrit a partir de la premiere.
Elle se revela extremement fructueuse pour le champ d'inter-
action electromagnetique, avec 1'etablissement de 1'electro-
dynamique quantique vers 1947; il fallut attendre les annees
1960 et 1970 pour que cette perspective devienne egalement
celle des autres champs d'interaction decouverts entre-temps:
le champ fort de la liaison nucleaire et le champ faible de la dis-
integration fi des noyaux et des particules. A travers ces trans-
formations, le cadre conceptuel de la mecanique quantique
s'est maintenu, et les physiciens s'habituerent a travailler avec
cet outil de pensee reste indispensable pour 1'exploration des
phenomenes quantiques, du niveau de 1'atome a celui des
particules elementaires.
Cette page est laissée intentionnellement en blanc.
Chapitre 4

L'interpretation
des concepts
quantiques

Des son etablissement, la mecanique quantique a suscite des


problemes d'« interpretation » qui ont tres vite pris la forme
d'un debat philosophique sur la connaissance et sur la realite.
En meme temps qu'elle permettait de decrire et de predire
les phenomenes atomiques et du rayonnement, la mecanique
quantique paraissait montrer des limitations par rapport aux
canons de la connaissance physique anterieure : description
probabiliste (par l'« interpretation probabiliste » de la fonc-
tion d'onde, de Max Born), relations d'« indetermination »
(de Werner Heisenberg), complementarite des descriptions
duales en termes d'onde et de corpuscule et des grandeurs
conjuguees (affirmee par Niels Bohr) au lieu d'une description
unique, etc. S'agissait-il de limitations a proprement parler ?
A quoi fallait-il attribuer ces differences par rapport a la phy-
sique classique et a l'« ideal classique de la connaissance en
physique » (selon une expression de Bohr): a une insuffisance
de la theorie quantique (qu'il faudrait depasser ou comple-
ter), ou bien des concepts classiques utilises lors des observa-
tions ou mesures (mais par quoi les remplacer ? Et comment
concevoir d'autres concepts physiques ?) ? Fallait-il invoquer la
necessite d'une nouvelle conception de la connaissance, une
remise en cause de la notion de « realite physique » qui ferait
dependre celle-ci des conditions de 1'observation ?
Ces questions firent, durant de nombreuses decennies,
1'objet des debats sur 1'interpretation de la theorie quantique.
La situation etait curieuse, et pour le moins inedite : plus la
theorie se developpait en revelant les secrets de la constitution
de la matiere atomique et subatomique, et moins Ton pouvait,
semblait-il, se prononcer avec assurance sur la signification
de ses enonces et sur la nature des « objets » qu'elle decrivait.
38 La physique du XXe siecle

A moins que eette indecision ne fut qu'un effet de perspective


et que ce soit la theorie elle-meme qui nous ait, des le debut,
fourni les bons concepts, quand nous les cherchions ailleurs...

Formalisme mathematique
et interpretation physique
Figure 4.1. Schrodinger et son
chat (peinture de Maria
Kokkinou). Avec la mecanique quantique, la theorie physique avait acquis
une grande puissance de description et de prediction des phe-
nomenes dans le domaine atomique. Cependant, le nouveau
formalisme mathematique auquel elle devait cette fecondite
se presentait d'une maniere plus abstraite et eloignee d'un
« sens physique » directement « intuitif » que les theories
physiques anterieures (mecanique, electromagnetisme, relati-
vite, thermodynamique...). Les proprietes mathematiques des
grandeurs utilisees n'entretenaient qu'un lien apparemment
indirect avec les proprietes physiques pourtant si exactement
decrites ou predites. Par exemple, la f onction d'etat W, souvent
appelee fonction d'onde, ne represente pas une onde au sens
habituel se propageant dans 1'espace, puisqu'une particule,
representee par un paquet d'ondes, ne pourrait rester elle-
meme au cours de sa propagation en raison de 1'etalement de
chacune des ondes qui la constituent. Quelle est alors la nature
physique du systeme qu'elle decrit ? Le principe de superpo-
sition de la fonction d'etat ^ est une propriete mathematique
qui permet cependant de predire 1'existence de phenomenes
aussi pleinement physiques que le pompage optique, le rayon
laser, les interferences, etc.
L'utilisation du formalisme mathematique pour la resolu-
tion de problemes physiques demandait d'expliciter les regies
et les procedures d'application permettant d'aboutir a des
enonces sur des grandeurs physiques. La theorie quantique
semblait des lors inaugurer un nouveau type de theorie phy-
sique : elle consistait en un formalisme abstrait augmente
d'une interpretation physique de ses elements, alors que,
dans les theories physiques anterieures, la forme mathema-
tique des grandeurs etait directement appelee par la consti-
tution des relations theoriques qui donnaient le « contenu
physique ». En quelque sorte, 1'expression mathematique des
grandeurs et des relations entre elles (equations) etait direc-
tement liee a la signification physique de ces grandeurs (voir,
par exemple, en mecanique classique la position, representee
L'interpretation des concepts quantiques 39

par les coordonnees spatiales, ou 1'impulsion, comme produit


de la masse par la vitesse).
Cette perspective sur Interpretation physique de la meca-
nique quantique restait cependant tributaire des circonstances
intellectuelles, historiquement situees, de la constitution de la
theorie : la nouveaute de cette theorie paraissait alors etroite-
ment liee a cette caracterisation. II n'est pas sur qu'aujourd'hui
le probleme se pose encore dans ces termes et que la diffe-
rence de nature entre 1'abstraction des grandeurs quantiques
et de celles d'autres domaines de la physique apparaisse aussi
grande. En effet, la pratique de 1'outil theorique par les physi-
ciens les a desormais familiarises avec les concepts de la meca-
nique quantique et les grandeurs mathematiques qui les repre-
sentent. Le principe de superposition ou la non-commutation
des operateurs leur sont devenus « comme une seconde
nature » et forment desormais une part de leur « intuition
physique ». En fin de compte, on assigne aux systemes quan-
tiques des proprietes decrites par leurs grandeurs abstraites
d'une maniere aussi naturelle qu'on le fait pour la physique
classique avec les concepts d'energie ou de points (singuliers)
d'une trajectoire (continue). Pour ces derniers aussi, il fallut
la familiarisation avec des concepts construits, peu clairs au
debut et sous-tendus par le calcul differentiel et integral, outil
mathematique alors tout nouveau.
A cet egard, 1'exceptionnelle abstraction des grandeurs
physiques n'est une specificite de la mecanique quantique que
par un effet de perspective rapprochee. L'histoire de la phy-
sique nous rappelle que sa mathematisation a toujours opere
par 1'intervention de grandeurs abstraites qui paraissaient ini-
tialement etrangeres a la nature des phenomenes. Dans tous
les cas, la representation theorique de ces phenomenes est une
construction symbolique, faite par 1'esprit, et dont 1'aspect
« concret » ou « naturel » est rendu par sa capacite a rendre
compte des phenomenes reels et par la familiarite acquise avec
elle a travers la pratique.
Aujourd'hui, lorsque les physiciens parlent d'une « parti-
cule elementaire »(par exemple, un proton), ils sous-entendent
implicitement qu'elle est decrite par les « nombres quan-
tiques » qui sont « valeurs propres » des operateurs repre-
sentant les grandeurs adequates, et ils ont abandonne 1'image
classique d'un corpuscule directement visible. Les « quarks »
(dont nous reparlerons plus loin) sont des particules quan-
tiques entendues dans ce sens. On parle parfois de « quan-
tons » pour designer les entiles physiques conc,ues de maniere
40 La physique du XXe siecle

specifique a la physique quantique1. Ce terme designe bien le


fait que ces « particules » sont considerees comme des elements
objectifs du monde reel tout en respectant leur caracterisation
propre. Cependant cette assignation fait encore difficulte par
certains cotes, ce qui justifie la permanence d'un debat epis-
temologique sur les principes et les concepts de la theorie
quantique.
Ce debat a commence avec la mecanique quantique, des les
annees 1926-1927, quand il fallut s'interroger sur la nature de
1'onde donnee par 1'equation de Schrodinger (elle ne pouvait
etre identifiee a une onde au sens physique, mais seulement
a une « onde de probabilite », concept eminemment abstrait);
sur la nature de grandeurs representees par des operateurs et
non par des nombres; sur les relations de Heisenberg (dans
quel sens indiquaient-elles une limitation de la connaissance
que nous pouvons avoir des proprietes des systemes phy-
siques ?); sur les rapports entre la description quantique et la
description classique et, en particulier, sur 1'interaction entre
1'instrument de mesure et le systeme quantique etudie. A cet
egard, deux questions paraissaient dominer les problemes de
1'interpretation; elles se presentaient immediatement comme
etant de nature philosophique : la realite independante des sys-
temes materiels quantiques et le determinisme de la description.
La question du caractere abstrait propre aux concepts et
grandeurs quantiques, dont nous avons souligne 1'importance
en ce qui concerne 1'interpretation physique, s'est trouvee
subordonnee au point de vue philosophique de 1'interpreta-
tion (dont elle etait generalement consideree comme la conse-
quence ou la traduction), et fut ainsi mise au second plan.
On peut considerer que la nature du debat epistemolo-
gique sur la physique quantique s'est transformed depuis : ce
sont, en effet, les questions d'interpretation physique au sens
propre qui sont mises en avant, c'est-a-dire les questions du
rapport des grandeurs dans leur expression mathematique
aux proprietes physiques des phenomenes et des systemes
quantiques. Les aspects philosophiques de 1'interpretation
s'en trouvent, des lors, eclaires autrement. L'interpretation
physique est plus neutre de nos jours qu'autrefois, car on
n'eprouve plus le besoin « fondationnel » de 1'asseoir sur
une interpretation philosophique, comme aux premiers temps
de la mecanique quantique. Pour les physiciens d'aujour-
d'hui, parler de complementarite pour definir et decrire un

1
Ce terme a ete introduit par Mario Bunge, Philosophy of physics (Reidel,
1973); traduction frangaise, Philosophic de la physique (Paris, Seuil, 1975).
L'interpretation des concepts quantiques 41

systeme, cela signifie simplement considerer d'abord Vune des


grandeurs incompatibles ou complementaires de maniere
exclusive puis ensuite Vautre, pour une autre description
independante du systeme.

Philosophic de 1'observation
et complementarite
Pendant longtemps, parler de complementarite signifia jus-
tifier cette procedure par une philosophie de la connaissance
par I'observation, exprimee pour 1'essentiel, sous des variantes
diverses selon les auteurs, par la « philosophie de la comple-
mentarite » de Niels Bohr. Cette philosophie observationnaliste
fut elaboree au moment ou la mecanique quantique se consti-
tuait autour des « ecoles » de Copenhague et de Gottingen,
et elle se presenta pendant une ou deux generations comme
la philosophie de la mecanique quantique. Pour cette raison,
on la designe parfois comme l'« interpretation orthodoxe »
ou 1'interpretation « de Copenhague » de la mecanique quan-
tique.
Selon cette conception, les proprietes d'un systeme phy-
sique ne peuvent etre pensees independamment de ses condi-
tions d'observation : dans le domaine quantique, cet aspect
est crucial pour deux raisons. La premiere est que la represen-
tation theorique et, d'une maniere generale, les propositions
de la physique, doivent necessairement faire appel (en dernier
ressort) aux grandeurs de la physique classique, en raison du
caractere macroscopique des dispositifs d'observation et de
mesure. La seconde raison, correlative de la premiere, est que
le systeme quantique n'est connu par 1'observation qu'a tra-
vers son interaction avec l'instrument de mesure; cette inter-
action ne peut etre resorbee idealement, comme en physique
classique, a cause de 1'irreductibilite du quantum d'action (qui
est fini c'est-a-dire non nul) : 1'interaction de l'instrument et
du systeme etudie induit une perturbation de ce dernier qui
ne peut etre negligee (telle serait, selon Heisenberg, la signi- Figure 4.2. Heisenberg propose
un microscope a rayon gamma
fication des inegalites de ce dernier, dites pour cela relations
de haute resolution pour
d'incertitude ou d'indetermination). Dans le domaine quan- demontrer le principe
tique, ces inegalites expriment les conditions d'utilisation (et d'incertitude. II montre que la
les limites de validite) des grandeurs conjuguees de type clas- dispersion de la position de
sique : cette proposition, qui reste vraie dans tous les cas, 1'electron x et celle de sa
implique, selon la philosophie de la complementarite, une quantite de mouvement px
limitation de principe de toute connaissance puisque celle-ci obeissent a la relation
doit s'exprimer en termes de grandeurs classiques. &xAx > n.
42 La physique du XXe siecle

Cette philosophie de la connaissance, ayant sa reference


premiere dans 1'observation, deniait la notion de realite phy-
sique independante. Par exemple, Heisenberg declarait que
la physique ne concerne pas des « objets reels » mais le
« couple inseparable objet-sujet », et qu'elle ne concerne
pas la nature mais notre fac.on de la comprendre. Dans ces
conditions, la fonction d'etat W devait etre comprise non
pas comme representant le systeme physique proprement dit,
mais comme 1'ensemble, ou le « catalogue », des connaissances
acquises (par observation et mesure) sur ce systeme.

Realite d'un systeme physique individuel


Cette conception, bien que longtemps dominante parmi les
physiciens quantiques, n'etait pas acceptee par tous les fon-
dateurs de la theorie, notamment par Einstein. Schrodinger
n'en etait pas satisfait non plus, ni de Broglie qui accepta ce-
pendant de s'y conformer pendant une vingtaine d'annees.
La question de 1'interpretation de la mecanique quantique fut
1'objet de vifs debats mettant aux prises les « peres fondateurs »
de la nouvelle theorie, au premier rang desquels Einstein et
Bohr. Ce « debat du siecle » marqua surtout la periode des
annees 1930 aux annees 1950; il se poursuivit ensuite tout en
modifiant progressivement ses termes, a 1'occasion de nou-
veaux developpements physiques, suscites par certains argu-
ments du debat, mais aussi relatifs aux progres de la physique
(experimentale et theorique) dans les domaines atomique et
subatomique ouverts a 1'investigation.
Einstein, tout en admettant la validite des resultats fonda-
mentaux de la mecanique quantique (interpretation « statis-
tique » de la fonction d'etat, relations de Heisenberg, etc.), se
refusait a y voir une theorie « definitive et complete » comme
le voulaient Bohr, Heisenberg, Born et d'autres, et n'admettait
pas que la physique dut s'interdire le projet de decrire une
« realite physique » independante des actes d'observation. La
mecanique quantique etait, a ses yeux, une theorie provisoire
dont il contestait qu'elle put servir de point de depart pour une
theorie plus fondamentale, qu'il appelait de ses vceux et dont
il esperait qu'elle s'unifierait un jour avec la relativite gene-
rale. II s'efforc.a de montrer que la mecanique quantique etait
surtout empirique malgre son formalisme mathematique tres
elabore, qu'il voyait seulement plaque sur les donnees rela-
tives aux phenomenes. Selon lui, la fonction d'etat representait
^interpretation des concepts quantiques 43

incompletement le systeme physique puisqu'elle ne definissait


pas de maniere univoque le systeme individuel.
II elabora dans ce sens un argument reste celebre, connu
sous le sigle « EPR »2, auquel il revint des lors constamment et
qui constitue le point de depart de la mise en evidence d'une
propriete quantique qui etait alors restee inapergue : la « non-
separabilite locale ». En raison du principe de superposition, la
theorie quantique ne permet pas de decrire separement deux
systemes physiques (particules) qui ont ete unis anterieure-
ment dans un meme systeme, quelle que soit la distance dont
ils sont a present ecartes, et malgre 1'absence d'interaction
physique entre eux. Einstein en inferait que la fonction d'etat
de chacun de ces systemes ne peut pas representer « un sys-
teme reel individuel» mais seulement un ensemble statistique
de tels systemes. Dans ce sens, le caractere probabiliste serait
le signe (mais non la raison) de 1'incompletude de la theorie :
la description complete de la realite ne se satisfait pas d'une
representation seulement statistique (« Dieu ne joue pas aux
des », disait Einstein).
La physique quantique ambitionne de decrire des systemes
individuels et elle le fait de maniere probabiliste. Les deve-
loppements experimentaux survenus depuis ont atteste, par
1'etude de systemes quantiques individuels (un seul photon,
un seul atome, un electron, un neutron, etc.), que la fonction
d'etat est bien 1'amplitude de probabilite de 1'etat d'un tel
systeme individuel (en particulier, la propriete d'interference
concerne des systemes individuels : un photon, ou toute autre
particule quantique, n'interfere qu'avec lui-meme). D'autre
part, la non-separabilite locale (voir 1'encadre 4.1) de systemes
quantiques individuels a ete mise en evidence par la suite a la
faveur des travaux theoriques de John Stuart Bell (raisonnant
a partir des remarques d'Einstein) et d'experiences de preci-
sion sur les correlations a distance effectuees notamment par
Alain Aspect3.
Pour d'autres contestataires de 1'interpretation orthodoxe,
la mecanique quantique ignorait certaines variables fonda-
mentales (des « parametres caches ») dont la connaissance
permettrait de retablir un determinisme plus fin. La theorie
2
EPR designant les auteurs d'un article public en 1935 dans la Physical
Review, Einstein et ses collaborateurs Boris Podolski et Nathan Rosen.
3
Le theoreme de Bell sur la localite (1964) montre qu'il y a une incom-
patibilite entre la mecanique quantique et la separabilite locale de systemes
ayant ete en correlation; les experiences d'Aspect a Orsay (1981) mettent en
evidence les correlations fortes predites par la mecanique quantique centre
celles de la separabilite locale.
44 La physique du XXe siecle

Figure 4.3. Experience de correlation quantique a distance. Schema de 1'experience d'Alain Aspect
avec commutateurs optiques. I et I' sont des polariseurs places sur le parcours du premier photon (II et
II' sur le second). Les commutateurs Ci et Ca changent tres rapidement et aleatoirement le choix du
polariseur, c'est-a-dire celui de 1'orientation (qui passe de <?a ct' ou de b a b'), sans possibilite de
relation causale entre les photons au moment de leur detection. [PMi, PM^, PMi, PM2/, detecteurs;
l(a), r (af), H(&)/ n' \b'\ polariseurs; Q, Ca/ commutateurs; S, source atomique de photons.J
L'interpretation des concepts quantiques 45

de la « double solution » de Louis de Broglie - proposee des


1926, delaissee et reprise par 1'auteur dans les annees 50 - fut
une tentative dans ce sens : elle abandonnait le caractere li-
neaire de 1'equation d'etat en postulant qu'a chaque solution
admise dans 1'approximation de la mecanique quantique il en
etait associe une autre, decrivant une phase et guidant la pre-
miere. Toutefois, de nombreuses hypotheses arbitraires etaient
requises, ce qui diminuait d'autant 1'interet de la tentative.
La theorie de 1'onde pilote, initialement proposee par de
Broglie, retrouvee independamment et amelioree par David
Bohm (1917-1992) en 1952, retablissait le determinisme en ad-
mettant la propriete de non localite et en s'affranchissant du
probleme de la « reduction du paquet d'onde ». Cette theorie
n'avait pas de capacite predictive differente de la mecanique
quantique dont le maniement etait plus simple en definitive.

Mesure et reduction
Parmi les problemes d'interpretation de la mecanique quan-
tique, la question la plus preoccupante etait « le probleme de
la mesure » (ou « la reduction ») car il semblait rompre avec
la causalite, assuree par ailleurs par 1'equation d'etat qui gou-
verne 1'evolution du systeme quantique livre a lui-meme. Ce
probleme est aussi celui du rapport entre les systemes quan-
tiques et les systemes physiques macroscopiques et classiques,
et du transport d'information des premiers aux seconds. II
semblait que 1'observation du systeme reduisit instantane-
ment sa fonction d'etat a une seule de ses valeurs (parmi
la superposition des solutions possibles), celle correspondant
aux valeurs mesurees des grandeurs dynamiques avec la pro-
babilite correspondante. Cela ne faisait pas probleme pour
la conception observationaliste, pour laquelle il etait naturel
que chaque observation redefinisse 1'etat du systeme : c'etait,
precisement, une question de definition. Mais pour qui ne
s'en contentait pas et voulait que la description concernat le
systeme physique, cette projection subite sur 1'un des etats
possibles restait difficile a comprendre.
Une litterature immense a ete consacree a ce probleme,
et toutes sortes de solutions ont ete proposees : de la reduc-
tion effective due a 1'interaction du systeme quantique etudie
avec une partie microsystemique de 1'appareil de mesure, a
1'absence de toute reduction au sens physique comme dans
l'« interpretation de 1'etat relatif » d'Hugh Everett. Les deve-
loppements experimentaux recents sur la « decoherence » des
46 La physique du XXe siecle

etats quantiques (voir paragraphe suivant) semblent indiquer


que les systemes quantiques perdent leur coherence de phase
(due a la superposition lineaire) progressivement dans leur
contact avec les ensembles de systemes de 1'environnement.
C'est le cas, en particulier, si cet environnement est consti-
tue par 1'appareil de mesure. Le resultat final est conforme
a la description statistique habituelle (le grand nombre des
etats intriques effectifs fait que la mecanique statistique clas-
sique reprend ici ses droits). L'important, au point de vue de
la signification conceptuelle et theorique de la description des
systemes quantiques, reste finalement lafonction d'etat totale
du systeme considere, dans la forme de sa superposition, dont
la connaissance est donnee a partir de celle d'un ensemble
complet de grandeurs « compatibles ». La « reduction » a 1'une
des solutions possibles constatee lors d'une seule mesure ne
serait en definitive, comme certains 1'avaient deja soupc,onne,
qu'une regie pratique a repeter afin d'exprimer 1'ensemble des
operations necessaires pour parvenir au spectre des valeurs
propres et des fonctions propres correspondantes, dormant la
fonction d'etat de 1'ensemble comme superposition lineaire.
Si tel est le cas, une part importante du dispositif philo-
sophique ad hoc invente pour rationaliser la connaissance du
domaine quantique aura perdu sa raison d'etre. II suffit de
considerer que la fonction d'etat, toute abstraite et mathema-
tique soit-elle, represente au sens physique (et non pas seule-
ment comme un formalisme purement mathematique) le sys-
teme ; et que les « operateurs » qui determinent cette fonction
d'etat (par les equations « aux valeurs propres » de la theorie)
decrivent les proprietes physiques effectives (ou objectives) de
ces systemes. Ces proprietes se presentent sous une forme qui
echappe a 1'intuition courante mais qui est effective quand on
les etudie, aussi bien experimentalement que du point de vue
theorique. C'est, en fait, cette conception que les physiciens
manifestent dans la pratique (dans leur pensee physique mise
en ceuvre) meme s'ils ne la formulent pas explicitement ainsi.

La decoherence quantique
La decoherence quantique est un phenomene observe recem-
ment en laboratoire. Elle permet de mieux comprendre le rac-
cord entre les systemes physiques quantiques (qui sont le plus
souvent « microscopiques ») et les systemes physiques clas-
siques (qui sont en general « macroscopiques »). Pour bien
L'interpretation des concepts quantiques 47

comprendre de quoi il s'agit, il nous faut revenir un peu plus


en detail sur deux caracteres specifiques fondamentaux des
systemes quantiques et de leurs fonctions representatives que
sont la superposition et Vindication.

La superposition lineaire
des etats et des fonctions d'etat
Le « domaine quantique » se distingue du domaine de la
physique classique par des proprietes inexplicables par cette
derniere (comme la diffraction de particules ou des carac-
teristiques corpusculaires attachees a des ondes). La theo-
rie quantique rend compte de ces proprietes en adoptant un
genre de description tres different des theories de la physique
classique, pour traiter des systemes quantiques. Elle admet
comme concept de base celui de fonction d'etat (ou fonction
d'onde ou le mot onde n'a plus son sens habituel, classique)
caracterisee par des proprietes mathematiques particulieres
(ces fonctions sont des vecteurs d'un espace mathematique
abstrait, un « espace de Hilbert »). De telles fonctions sont
destinees a « representer » ou du moins a permettre de decrire
des systemes physiques se trouvant dans des etats donnes
(par exemple, un atome dans un de ses niveaux d'energie).
On appelle « etat propre » 1'etat qui correspond a 1'une ou
1'autre des differentes solutions de 1'equation d'etat fondamen-
tale (1'equation de Schrodinger de la mecanique quantique,
par exemple). Les etats propres (i) correspondent aux divers
resultats possibles d'une mesure du systeme (mesure realisee
a 1'aide d'appareils macroscopiques, classiques); le systeme
a ete « prepare » de fagon adequate pour cela et chaque etat
propre (represente par la fonction M 7 /) est obtenu avec une cer-
taine probabilite (donnee par le module au carre de la fonction
correspondante, P, = 1^1).
Le caractere le plus fondamental d'une telle representa-
tion est que toute combinaison (ou superposition) lineaire
(a coefficients complexes4) d'etats propres est aussi solution
de 1'equation d'etat. D'un point de vue mathematique, cela
revient a dire que tout vecteur de 1'espace de Hilbert consi-
dere est un etat possible; ou encore qu'on peut toujours obte-
nir un etat d'un systeme en composant lineairement plusieurs
etats, ce qui correspond a des transformations (par exemple,
4
« Complexes » signifiant tres precisement ici « nombres complexes », qui
s'ecrivent a + \b, ou a et b sont des nombres reels, et i est le nombre imaginaire
pur unite, i = V-T.
48 La physique du XXe siecle

des rotations) du vecteur d'etat considere dans son espace


de Hilbert : de telles transformations peuvent etre obtenues
moyennant des « preparations » adequates du systeme. Par
exemple, considerant deux etats purs d'un systeme (deux etats
d'energie, a et b d'un a tome, representes respectivementpar les
fonctions d'etat \a} et \b}), on peut soumettre ce systeme a une
interaction (par exemple, une impulsion electromagnetique
appliquee a 1'atome) qui melange ces etats en les transformant
en superpositions lineaires des deux: \a) devient ca\a) + Cb\b) et
\b) se transforme en ca\a) - c\,\b}. Pour un systeme ou sa fonc-
tion d'etat, le fait d'etre ou de pouvoir etre mis dans un etat
de superposition est ce qui permet de rendre compte de ses
proprietes specifiquement quantiques, comme 1'interference
de deux etats (de maniere analogue a la superposition lineaire
des amplitudes d'une onde, en optique classique : les am-
plitudes sont aussi des nombres complexes et possedent un
module et un argument).

L'intrication (ou enchevetrement)


ou la non-separabilite quantique
Si deux systemes quantiques sont mis une fois en interaction,
le systeme global qu'ils forment alors ne peut plus etre separe
de lui-meme en ses constituants initiaux : si toutefois on les
separe de force, cela revient a detruire la connexion entre leurs
etats anterieur et present, et done a modifier la definition de
leurs etats en redefinissant 1'etat initial. La non-separabilite de
tels systemes, qu'on appelle aussi«intrication » a des effets de
non-localite qui ont ete mis en evidence par des experiences
de correlation a distance (dont il a ete question plus haut avec
le theoreme de Bell et les experiences d'Aspect). Cette pro-
priete tient a la non-factorisation des fonctions d'etat de deux
systemes en interaction, qui resulte elle-meme de la superpo-
sition lineaire.
Soit, en effet, un premier systeme quantique A a deux
etats de base, a et b, et un second systeme B a deux etats
a et p. Supposons le premier dans 1'etat de superposition
WA - ca\a} + Cb\b) et le second dans 1'etat WB = ca\a) + Cp\p)5;
les deux systemes en interaction forment un tenseur WA <8> ^B
dans lequel les composantes des vecteurs sont melees. Des
lors la fonction d'onde de 1'ensemble n'est plus factorisable
suivant les fonctions initiales de chacun des systemes. Ceux-ci
sont « inseparables », « intriques », « enchevetres », solidaires,
5
On a toujours les conditions de normalisation c% + £ = 1 et cfv + c? = 1.
L'interpretation des concepts quantiques 49

dans toute leur evolution ulterieure. On ne peut mesurer 1'un


d'eux sans mesurer 1'autre en meme temps : telle est 1'es-
sence de l'« argument EPR » discute par Einstein et de la
non-separabilite locale quantique. Tel est aussi le principe sur
lequel sont basees les idees d'une « cryptographic quantique »,
une discipline actuellement en plein bouillonnement.

Le baril de poudre d'Einstein


et le chat de Schrodinger
Outre la non-separabilite inherente a la theorie quantique, qui
impliquait une non-localite des systemes quantiques, Einstein
et Schrodinger etaient preoccupes par la question du raccord
entre les deux representations, classique et quantique. Si Ton
pensait que le monde des objets elementaires est de nature
quantique et regi par la theorie quantique, il fallait admettre
que les objets macroscopiques sont constitutes de ces objets
et done que leur theorie, la physique classique resulte des
combinaisons de la premiere. Mais pourquoi dans ce cas,
les caracteristiques quantiques ne se manifestaient-elles pas
dans le monde macroscopique, ou les objets sont localises, ou
les corpuscules ne sont pas des ondes ni les ondes des cor-
puscules ? Qu'en etait-il, en particulier, du couplage d'objets
quantiques avec des objets classiques ?
Albert Einstein imagina (en 1935) une experience de pen-
see ou un baril de poudre (objet macroscopique) en etat
d'instabilite chimique, etait couple a un atome radioactif (sys-
teme quantique) de telle sorte que la disintegration de 1'atome
entrainait 1'explosion de la poudre. L'instant de la disintegra-
tion de 1'atome etait 1'objet d'une prediction seulement proba-
biliste, et 1'atome pouvait etre represente comme une superpo-
sition lineaire d'un etat desintegre et d'un etat non-desintegre.
Le baril de poudre couple a 1'atome devrait alors etre dans un
etat de superposition explose et non-explose: mais de tels etats
n'existent pas dans le monde macroscopique qui est celui des
barils de poudre.
Quant a Erwin Schrodinger, qui nourrissait peut-etre une
passion secrete pour les chats (ne fut-ce qu'a cause de 1'elasti-
cite ondulante de leur demarche...) et s'inquietait du sort que
leur reservait la toute-puissance de la physique quantique, il
imagina (en 1935 egalement) une experience (de pensee) ou un
chat serait enferme dans une caisse contenant une capsule de
cyanure munie d'un declencheur atomique, soumis aux lois
quantiques de probabilites. La desintegration de 1'atome libe-
rait le cyanure qui tuait le chat. Selon la mecanique quantique,
50 La physique du XXe siecle

Figure 4.4. Experience de


pensee du chat de Schrodinger.

1'etat couple de 1'atome au cyanure et au chat serait represente


par une superposition quantique qui aurait pour consequence
des interferences entre de tels etats: atome intact avec cyanure
confine-chat vivant + atome desintegre avec cyanure libere-
chat mort. Or une superposition ou une interference de chat
mort et de chat vivant ne s'observe jamais dans la nature, ou
les chats sont toujours soit vivants, soit morts. Si Ton admet la
validite de la mecanique quantique, cette theorie doit rendre
compte de la suppression d'etats de superposition pour des
systemes macroscopiques.
Mais, selon 1'interpretation orthodoxe de la mecanique
quantique, c'etaient la de faux problemes, puisque la theorie
quantique ne decrit pas directement des systemes considered
en eux-memes, et les fonctions d'etat ne representent pas phy-
siquement les systemes quantiques. La superposition lineaire
n'a de sens que d'un point de vue mathematique et non comme
description physique directe, la representation des systemes
quantiques etant necessairement referee aux appareils et aux
concepts classiques.

Le phenomene de decoherence
Les caracteres specifiques des systemes quantiques que nous
venons de rappeler, superposition et intrication, sont en ceuvre
dans le phenomene de decoherence dont la description theo-
rique a precede la mise en evidence experimentale. Nous ne
ferons ici que resumer le principe de cette theorie sans en-
trer dans les considerations et difficultes de detail. La theo-
rie de la decoherence, formulee par W.H. Zurek et d'autres
(voir la bibliographie) presuppose que la theorie quantique est
plus fondamentale que la theorie classique, qu'elle doit pou-
voir retrouver dans les conditions limites de cette derniere.
Elle presuppose implicitement que la fonction d'onde decrit
L'interpretation des concepts quantiques 51

physiquement le systeme quantique, et admet que tous les sys-


temes physiques de 1'environnement avec lesquels un systeme
quantique donne entre en interaction sont eux aussi de nature
quantique. Dans son principe, la theorie suit la sequence des
interactions entre le systeme quantique de depart dans son
etat de superposition et les systemes quantiques de 1'environ-
nement, chacun d'eux etant dans son etat de superposition.
A chaque interaction successive correspond un nouveau de-
gre d'« intrication » du premier systeme avec les suivants; la
chaine est irreversible, de telle sorte que 1'on ne peut revenir
au systeme isole de depart. Au bout d'un temps relativement
court, les intrications multiples finissent par diluer la superpo-
sition quantique du systeme initial qui, sans etre supprimee,
devient tres vite inappreciable. La multiplicity des etats in-
triques rend le caractere quantique negligeable, de telle sorte
que tout se passe comme si, au lieu du systeme quantique de
depart, Ton n'avait plus affaire qu'a un ensemble de systemes
dont la description releverait simplement de la mecanique
statistique. On comprend des lors que les systemes macrosco-
piques n'exhibent plus les caracteres quantiques sous-jacents,
et cela des que Ton considere un nombre relativement restreint
d'intrications; celles-ci font perdre au systeme sa coherence
quantique initiale, associee a la superposition.
Le phenomene de decoherence a ete produit et ob-
serve experimentalement en 1996, au laboratoire americain
NIST de Boulder (Colorado, USA) et en France au laboratoire
de physique de 1'Ecole normale superieure (ENS). Le principe
de base de ces experiences est de produire des etats intriques
dans une situation quantique limite ou les systemes conside-
res se situent dans le domaine « mesoscopique », intermediate
entre le microscopique et le macroscopique. (Plus exactement,
c'est la decoherence qui va determiner ou se situe la frontiere
entre les deux domaines ou regimes.) Dans 1'experience de
TENS, le role du chat est joue par un champ electrique a un
petit nombre de photons (produits par une source micro-onde)
enfermes dans une boite ou cavite. La cavite est constituee de
deux miroirs spheriques face-a-face, parfaitement reflechis-
sants, entre lesquels les photons se reflechissent librement.
Les miroirs sont faits de niobium supraconducteur porte a
une temperature extremement basse, a moins de un degre du
zero absolu, ce qui optimise la reflexion des miroirs et mini-
mise le couplage des photons a l'environnement. Le champ
cree par les photons oscille avec deux phases differentes a la
fois : il est dans un etat de superposition de ces deux etats de
base (notons-les + et -). Ces etats du champ sont eux-memes
52 La physique du XXe siecle

engendres par 1'interaction du champ avec un atome envoye


pour traverser la cavite. L'atome (de rubidium) utilise est dans
un etat d'« atome de Rydberg » ou 1'electron peripherique est
excite par laser sur une orbite de tres grand diametre, consti-
tuant une sorte d'antenne capable de dephaser le champ elec-
trique en traversant la cavite. II est en fait prepare (par une im-
pulsion micro-onde) comme une superposition de deux etats
de Rydberg, e et /, d'energies differentes6. Par son interaction
Figure 4.5. Dispositif utilise par avec le champ electrique pendant son passage dans la cavite,
J.M. Raimond et al. dans leur chaque etat de 1'atome de Rydberg induit une phase differente
article public dans : Phys. Rev. de ce champ, chacune correspondant a un etat du champ (+
Lett. 79,1964 (1997) avec la et - respectivement pour e et /). A la sortie des atomes de la
permission de 1'American boite, les etats du champ et de 1'atome sont done intriques : e
Physical Society. est couple avec +, et / avec —.
L'atome peut ensuite etre detecte apres son passage dans
la cavite, et son etat, e ou /, pourrait ainsi etre determine di-
rectement par la mesure : cependant, cela detruirait la super-
position quantique (par la reduction ou projection sur un seul
des etats) et done 1'interference des etats du champ couples a
ceux de 1'atome, que 1'on veut observer. Mais cette difficulte
peut etre dejouee en procedant a une autre operation : entre
la cavite et le detecteur une seconde impulsion micro-onde
est produite. Elle melange a nouveau les deux etats e et / de
1'atome sans toutefois changer les phases correspondantes du
champ, + et - (puisque le champ electrique place avant ne peut
pas etre affecte). La mesure finale de 1'atome que Ton effectue
alors ne peut done pas affecter 1'etat de phase du champ qui
reste une superposition : le resultat de la mesure donne e ou /
pour 1'atome, et ne fait rien connaitre sur 1'etat du champ. Pour
savoir quelque chose sur celui-ci, on utilise un second atome
identique au premier comme analyseur de 1'etat de superpo-
sition du champ : cet atome est envoye apres un intervalle de
temps t a travers la cavite et vers le detecteur. Si le champ est
encore dans un etat (coherent) de superposition, il se produira
un effet d'interference qui se marquera dans une correlation
des etats des paires d'atomes detectes. Ces dernieres peuvent
etre trouvees dans quatre configurations possibles : (e, e), (e,
f), (f, e) et (/, /). En repetant 1'experience un grand nombre
de fois, on obtient les distributions de chacune de ces confi-
gurations qui, combinees, fournissent un signal de correlation
ou d'interference (ou coherence) quantique.

6
Dans ces notations des etats, e figure pour excite, / pour fondamental: e
peut se transformer en / et inversement, ou 1'atome peut etre une superposi-
tion lineaire des deux etats.
L'interpretation des concepts quantiques 53

En refaisant 1'experience pour differents intervalles de


temps entre 1'envoi des deux atomes, on observe la varia-
tion temporelle de 1'interference : on constate que le signal de
coherence decroit avec le temps, ce qui revele la decoherence
de la superposition intriquee due aux interactions du champ
dans la cavite avec le milieu environnant (les miroirs ne sont
pas reflechissants de maniere parfaite et absolue, des pho-
tons finissent par s'echapper). On peut aussi varier le nombre
de photons et jouer sur les differences de phase des etats du
champ. (Dans 1'experience de TENS, avec un champ a trois
photons en moyenne, la decoherence intervient au bout d'une
quarantaine de microsecondes.) La decoherence est plus ra-
pide avec plus de photons, et avec une plus grande separation
des phases du champ.
Ces experiences ont pu montrer pourquoi, meme si les sys-
temes quantiques constituent le soubassement du monde ma-
teriel, les systemes classiques ne manifestent pas de proprie-
tes quantiques telles que la superposition et les interferences
d'etats. Elles ont aussi montre que superposition et interfe-
rences d'etats existent bel et bien physiquement dans la nature,
pendant des intervalles de temps finis et sur des distances
finies de propagation, puisqu'elles ont pu etre observees et
mesurees directement sur des systemes intriques adequate-
ment prepares. On peut dire aussi que ces experiences per-
mettent de delimiter la frontiere entre le domaine quantique
et le domaine classique.
Cette page est laissée intentionnellement en blanc.
Chapitre 5

Atomes et etats
de la matiere

La physique atomique concerne en premier lieu les proprietes


des atomes, au niveau microscopique de 1'atome individuel ou
d'agregats d'atomes en molecules, constituant ainsi le premier
niveau de la physique de l'« infiniment petit». Nee vers le de-
but du XXe siecle de 1'etude des proprietes moleculaires, de
la constitution electronique de la matiere et des phenomenes
de rayonnement (rayons X, radioactivite, quanta d'energie,
spectres atomiques), elle se developpa d'abord comme phy-
sique de 1'atome et de sa constitution interne. La physique
atomique concerne, d'autre part, les proprietes macroscopiques
de la matiere en tant que formee d'atomes, qui tiennent a cette
structure atomique et quantique sous-jacente, et qui consti-
tuent 1'objet de la physique des solides ou de la matiere conden-
see. Les proprietes des atomes et leurs possibilites de structura-
tion en molecules (voire en chaines complexes de molecules)
concernent aussi, de toute evidence, la chimie : nous avons
choisi de privilegier ici les developpements qui ont abouti a
la rattacher a la theorie quantique. Ainsi nous parlerons es-
sentiellement de la chimie physique tout en evoquant certains
aspects de la chimie organique et des poly meres.

La realite physique des atomes


Sous 1'influence des idees positivistes et des doctrines energe-
tiques, les physiciens ne s'etaient guere interesses, vers la fin
du XIXe siecle, a la structure atomique de la matiere qui avait
cependant fait son chemin a travers la chimie et la cristallogra-
phie. Les premiers pas de la physique atomique au XXe siecle
ont consiste en 1'etablissement de la realite physique des atomes.
Celle-ci fut etablie en les « comptant » et en determinant les
dimensions moleculaires et atomiques, ce qui fut possible a la
suite des developpements de la theorie cinetique des gaz et de
la mecanique statistique.
La physique du XXe siecle

Reprenant 1'hypothese cinetique1 de Daniel Bernoulli en


1'appliquant a la chaleur, Rudolf Clausius (1822-1888), James
Clerk Maxwell (1831-1879), Ludwig Boltzmann (1844-1906),
avaient pose, au XIXe siecle, les bases de la theorie cinetique
des gaz par leurs travaux en thermodynamique. Boltzmann
introduisit la probabilite d'une distribution de molecules, fon-
dant la mecanique statistique et etablissant la relation qui
donne 1'entropie S en fonction de la probabilite W pour une
configuration moleculaire : S = k Log W 2.
La theorie cinetique pouvait s'appliquer aussi bien aux li-
quides qu'aux gaz, comme 1'avait montre Johannes van der
Waals (1837-1923) dans les dernieres annees du XIXe siecle3.
Considerant la formule de Boltzmann en dormant a la proba-
bilite le sens physique d'une frequence d'etat, Einstein effec-
tua une analyse theorique des fluctuations autour des valeurs
Figure 5.1. Jean Perrin moyennes. Ses resultats fournissaient 1'explication du « mou-
(1870-1942). vement brownien » (mouvement aleatoire de petits grains en
suspension dans un liquide, connu depuis 1827) en termes de
1'agitation moleculaire sous-jacente communiquee aux grains
par des chocs. Pour une suspension colloidale dans un liquide,
il donnait la formule de la repartition des grains (pesants) sui-
vant la hauteur. Cette prediction, obtenue egalement de ma-
niere independante par Maryan Smoluchovski (1872-1917),
fut verifiee par Jean Perrin (1870-1942) au cours d'experiences
effectuees entre 1908 et 19134.
Ces calculs et ces experiences permirent la determination
du nombre d'Avogadro5 (nombre de molecules par molecule-
gramme de matiere) et celle des dimensions moleculaires, de
1'ordre de 10~8 cm. La convergence de ces valeurs avec de
nombreuses autres determinations independantes effectuees
pour des phenomenes varies (diffusion de la lumiere dans 1'at-
mosphere dormant la couleur bleue du ciel, etc.) assurerent
definitivement le caractere phvsique de 1'hypothese molecu-
laire et la realite des atomes6. A ces diverses preuves s'ajoute

1
Hypothese formulee au XVIII6 siecle par Daniel Bernouilli (1700-1782) qui
expliquait la pression d'un fluide par des mouvements des atomes.
2
k est la constante de Boltzmann, ainsi denommee par Max Planck, son
disciple, qui appliqua la theorie de Boltzmann pour les gaz moleculaires aux
resonateurs atomiques emettant et absorbant du rayonnement.
3
Van der Waals rec.ut le prix Nobel de physique de 1910.
4
Jean Perrin regut le prix Nobel de physique de 1926.
5
De Amedeo Avogadro (1776-1856), physicien italien.
6
La valeur precise admise aujourd'hui du nombre d'Avogadro est IV =
6,022 x 1023.
Atomes et etats de la matiere 57

la production de jets (ou faisceaux) atomiques moleculaires


obtenue en 1911 par Louis Dunoyer de Segonzac (1880-1963).

Rayonnement et structure atomique


La decouverte de 1'electron par 1'identification des rayons ca-
thodiques a des particules de charge electrique negative conte-
nues dans 1'atome d'hydrogene, et la determination du rap-
port de sa charge electrique a sa masse (e/m) faites en 1897 par
Joseph J. Thomson (1856-1940), tout en confortant la theorie
atomique de la matiere, montrait deja le caractere composite
de 1'atome en identifiant 1'un de ses constituants elementaires.
D'autres decouvertes importantes survenues a la fin du XIXe
siecle et au debut du XXe siecle furent autant d'indications per-
mettant de penetrer peu a peu sa structure : les rayons X par
Wilhelm Conrad Rontgen (1845-1923) en 1895, la decomposi-
tion des raies spectrales dans un champ magnetique ou « effet
Zeeman », anticipee par la theorie de 1'electron de Lorentz
de 1892-1895, et observee en 1896 par Pieter Zeeman (1865-
1943), la radioactivite en 1896 par Henri Becquerel (1852-1908)
pour 1'uranium, puis par Pierre Curie (1859-1906) et Marie
Sklodowska-Curie (1867-1934) qui decouvrirent et isolerent en
1898 de nouveaux elements (le polonium et le radium)7. Ernest
Rutherford (1871-1937) decouvrit et isola le radon, identifia les
rayonnements f$ (electrons rapides) et a (noyaux d'helium).
En collaboration avec Frederick Soddy (1877-1956), il comprit
que la radioactivite resultait d'une transmutation entre des
elements chimiques (rapportee par la suite des atomes aux
noyaux); il formula la loi de la decroissance des elements ra-
dioactifs, dont la probabilite ne depend que du nucleide consi-
dere, et les lois de transformation pour les differentes series
radioactives8 (voir 1'encadre 5.1).
Nous reviendrons plus tard sur un certain nombre de
contributions a la connaissance de la structure des corps
7
Andre Louis Debierne (1871-1949), collaborateur des Curie, identifia en
1899 1'actinium (Ac). D'autres elements radioactifs furent identifies par la
suite, avec de nombreux isotopes.
8
Rontgen recut le prix Nobel de physique de 1901, Lorentz et Zeeman celui
de 1902; Henri Becquerel partagea avec Pierre et Marie Curie celui de 1903,
et Marie Curie regut le prix Nobel de chimie de 1911. Philip Lenard (1862-
1947) recut le prix Nobel de physique de 1905 pour ses travaux sur les rayons
cathodiques, et J.J. Thomson celui de 1906. Rutherford se vit decerner le prix
Nobel de chimie de 1908, et Soddy, qui proposa plus tard la notion d'isotope,
recut celui de 1921. C'est a Soddy et a Kasimir Fajans (1887-1975) que Ton doit
la loi des deplacements radioactifs.
58 La physique du XXe siecle

Figure 5.2. Manuscrit, de la


main de Marie Curie, de la
publication annon^ant la
decouverte du polonium.

qui poserent les premiers jalons de la physique du solide.


Concernant la structure des atomes, un premier pas decisif
du point de vue theorique fut effectue par Einstein avec ses
travaux sur les chaleurs specifiques des corps en 1907. La
chaleur specifique d'un corps est la quantite de chaleur qu'il
faut fournir pour que la temperature d'une unite de masse
de ce corps s'eleve de un degre a une temperature donnee
et dans des conditions specifiees (a volume constant, ou a
pression constante). Elle depend de la constitution atomique
du corps. Appliquant aux atomes 1'hypothese de la quanti-
fication des echanges d'energie, Einstein obtenait un accord
avec le comportement des chaleurs specifiques aux tres basses
Atomes et etats de la matiere 59

Encadre 5.1. La decroissance radioactive


En radioactivite, on appelle « decroissance », la loi de diminution avec le temps de 1'intensite de
radioactivite. Cette loi fut formulee en 1903 par Ernest Rutherford et Frederick Soddy. Soit NO le nombre
initial d'atomes radioactifs d'un type donne et N(t) le nombre d'atomes du meme type restant a 1'instant t
apres qu'une certaine proportion des atomes initiaux (en fait, Nas(0 = NQ -N(t)) se soient desintegres. On
suppose que la probability de disintegration d'un atome par unite de temps est constante, ind£pendante
du nombre d'atomes deja d^sintegres, ce qui s'ecrit: -dN(t)/N(t) = Ad£. A est appelle la « constante de
desintegration » : c'est une caracteristique de chaque type de transformation d'un radioelement. La loi
de desintegration est done une loi exponentielle : N(f) = No&~At - Noe~f/T, ou la « duree de vie » i est
definie comme 1'inverse de la constante de desintegration (A — I/T). On voit aisement que la moitie des
atomes se sont desintegres au bout d'un temps T, appele « demi-vie » ou « periode », qui est donne en
fonction de A ou de T par: AT = T/t = Log2 & 0,6943. Pour caracteriser la radioactivite d'un element, on
peut utiliser indifferemment sa constante de disintegration, sa duree de vie ou sa periode (ou demi-vie).

temperatures que la theorie classique ne pouvait expliquer


(elles decroissent jusqu'a s'annuler au zero absolu en viola-
tion de la « loi de Dulong et Petit »9 valable aux temperatures
moyennes). Les predictions de ses calculs furent verifiees ex-
perimentalement par Walter Nernst (1864-1941) vers 1914, ce
qui constitua un element decisif pour 1'acceptation du quan-
tum d'action10.
Quant aux constituants de Tatome et a leur structuration,
c'est en 1911 qu'Ernest Rutherford mit en evidence le noyau
atomique, formulant la representation planetaire des atomes.
En bombardant une feuille d'aluminium par un faisceau de
rayons a penetrants issus de corps radioactifs, il constata la
presence au sein de 1'atome d'un cceur dur de diffusion - le
noyau atomique -, revele par 1'importance des diffusions a
grand angle.
L'atome se presentait alors comme constitue d'un noyau
central de charge positive, de tres petites dimensions (de
quelques 10~13 cm), dans lequel la presque totalite de la masse
est concentree, entoure d'un cortege d'electrons orbitaux sur
le modele d'un systeme solaire microscopique, de dimen-
sion 10~8 cm environ. Les charges electriques du noyau et
des electrons sont en equilibre pour les atomes neutres, la
perte d'un ou plusieurs electrons correspondant a 1'ionisation
de 1'atome dans un champ electrique ou dans une solution.
L'atome planetaire de Rutherford souffrait cependant d'une
difficulte fondamentale : il etait incompatible avec les lois

9
Enoncee en 1819, par Alexis T. Petit (1791-1820) et Pierre-Louis Dulong
(1785-1838), cette loi relie les chaleurs specifiques aux poids atomiques.
10
Walter Nernst regut le prix Nobel de chimie en 1920.
60 La physique du XXe siecle

Ertcadre 5.2. Loi des d^jplijftements radioactif s


Ernest Rutherford et Frederick Soddy ont egalement montre, la meme annee (1903), 1'existence de
families de radioelements, issus de processus de radioactivites a ou |3 successifs. Ces families furent
precis£es par la suite.
Un radioeletnent lourd ^X se desintegre par radioactivite alpha (a) en un noyau d'helium (a = jHe)
et en un autre element lourd, flfX'. Dans cette notation d'usage courant, A est le nombre de masse et Z
le numero atomique. La physique nueleaire nous apprend, comme nous le verrons au chapitre suivant,
que A correspond au nombre total de nucleons du noyau, protons et neutrons, et Z au nombre de
protons du noyau, £gal au nombre d'electrons du cortege atomique de 1'atome. Ainsi, la disintegration
de l'uranium-238 s'effeetue selon la reaction : |*8U —» ^He -t- ^4Th. Par radioactivite j$~ (emission d'un
eleetMn), le nombre atomique est augmente d'une unite (en fait, un neutron du noyau s'est transforme
en proton, le nombre de masse restant le mime). C'est ainsi que le noyau produit de thorium-234
de 1'exemple precedent se desintegre par deux emissions )3~ successives, au bout desquelles il s'est
transforme en uranium-234, lequel se desintegre a son tour par voie a en thoriurn-230. Par une suite
de disintegrations a, ce dernier se transforme successivement en radium, en radon, en polonium, puis
en plomb-214 radioactif, qui apres plusieurs disintegrations a et f$~, aboutit en fin de chaine a 1'isotope
stable du plomb-206. Telie est la famille radioactive de ruranium.
Un diagramme ou Ton porte en abscisse les numeros atomiques (Z) et en ordonnees les nombres de
masse (ou masses atomiques, A) laisse voir aisement les lois de deplaeements radioactifs. La radioactivite
a fait descendre vers la gauche de Z = -2 et A = -4, tandis que la radioactivite j3~ fait passer &
I'horizontale (A = constant) d'une unite vers la droite (Z = +1) vers un « isobare » (noyau de meme
nombre de masse). La radioactivity y, avec emission d'un rayon j (rayon electromagnetique pen£trant,
de tres haute frequence) ne change ni le nombre de masse ni la charge (et le numero atomique), et ne
transforme que 1'energie interne du noyau (passage d'un etat d'excitation elev£e a un etat moins excite^,
Les elements d'une meme famille radioactive ont done des nombres de masse de la forme: A = 4n—p,
netp etant des nombres entiers. II existe trois families radioactives naturelles: celles du thorium (A = 4#),
de 1'actinium (A = 4« - 1) et de 1'uranium (A = 4« - 2). Seuls les elements lourds (A > 200) ont une
radioactivite a. La radioactivite y accompagne en fait une transmutation a ou jS.
II existe deux autres types de radioactivite, dont il sera question au chapitre suivant: la radioactivity
j$+, transformation avec Emission d'un positon (ou anti-electron, e+) et deplacement vers Z — 1, pour
des noyaux produits artiflciellement* dans des reactions nucleaires; et la « capture electronique », qui
est une reaction inverse de la desintegration f$~: un electron atomique des couches basses est absorbe
dans le noyau par irn proton qui se transforttie en neutron. (En fait, des neutrinos ou antineutrinos,
qui sont des sortes d'electrons electriquement neutres, accompagnent toujours les electrons ou positons
absorbed ou prod^ifei,) Jl existe aussi une famille de radionucleldes artificiels (ce qui donne 4 families
en tout), celle du neprunjium, caracterisee par des nombres de masse de la forme A = 4« + 1.

a
Du moins sur (et surtout dans) la Tetre dans des conditions normales, Tous les types de noyaux peuvent etre
produits dans des endroits de ITJrtivers ou de$ inactions nucKaires ont lieu naturellement, comme c'est le cas
principaieKient dans les etoiles (il y en a aussi iftais d'une maniere incomparablement plus rare, sur Terre par
1'impact de rayJJns cpsntiques). s
Atonies et etats de la matiere 61

Figure 5.3. Les trois families


radioactives naturelles:
thorium-232, uranium-235 et
uranium-238.

de I'electrodynamique classique selon lesquelles les electrons


devraient perdre de I'energie en rayonnant sur leurs orbites,
interdisant a I'atome d'etre stable.
En 1913, Niels Bohr, qui etait alors eleve de Rutherford
au laboratoire Cavendish, proposa son modele semi-classique
de I'atome nucleaire, qui gardait le scheme general de
Rutherford tout en faisant 1'hypothese d'une « quantification »
des energies correspondant a chaque orbite electronique.
La quantification des echanges d'energie du rayonnement de
62 La physique du XXe siecle

Encadre 5.3. La serie de Balmer de I'atome d'hydrogene


Les spectres d'emission
ou d'absorption de rayon-
nement electromagne-
tique par les atomes sont
dus £ des transitions des
electrons entre les niveaux
atomiques. Les spectres optiques proviennent des transitions de faible energie (ou frequence) entre
les niveaux superficiels. Les spectres optiques sont constitues de raies, dont les frequences obeissent
a des regularites, en particulier pour les atomes a un electron (comme 1'hydrogene et les atomes
hydroge"no'ides). Les nombres d'ondes (a - v/c, v etant la frequence et c la vitesse de la lumiere) des
raies spectrales en lumiere visible emises (ou absorbees) par I'atome d'hydrogene sont donnees par
une relation simple, la « formule de Balmer » : a = R(l/4~l/n 2 ),ouRestla«constantedeRydberg»et«
est un nombre entier superieur a 2. Cette serie correspond aux transitions entre les niveaux superieurs
et le niveau de nombre quantique principal n = 2. II existe d'autres series (de Lyman, de Paschen, etc.),
pour divers atomes, egalement donnees par des formes regulieres.

Planck etait ainsi rapportee a une quantification au niveau de


la structure atomique.
La connaissance des raies spectrales de nombreuses sub-
stances, rapportee a celle des niveaux d 'energies atomiques,
fournit la base experimentale pour etayer et preciser les nou-
velles idees theoriques. Les developpements de la spectro-
scopie depuis le XIXe siecle s'etaient portes de la gamme
du spectre visible aux petites longueurs d'onde des rayons
ultraviolets (UV) puis X, et aux grandes longueurs d'onde
vers 1'infrarouge et les radiofrequences. Le modele de I'atome
de Bohr put expliquer les spectres les plus simples (serie de
Balmer11 de I'atome d'hydrogene, voir 1'encadre 5.3) en termes
de niveaux d'energie quantifies de I'atome et de transitions
entre les niveaux correspondant aux raies spectrales, dont il
recevait en retour la determination.
Tres peu de temps apres, James Franck (1882-1964) et
Gustav Hertz (1887-1975) ont mis en evidence experimen-
talement les niveaux discrets d'energie des atomes a 1'aide
d'electrons12.
Le modele simple de Bohr, modifie pour les corrections re-
lativistes par Sommerfeld notamment, etant base sur deux
theories contradictoires (1'electrodynamique classique et
le postulat quantique), se presentait comme simplement
heuristique : il constitua, de fait, un pas important vers la
11
De Johann Jakob Balmer (1825-1898), qui donna la formule empirique des
longueurs d'onde des raies du spectre de 1'hydrogene en fonction de nombres
en tiers.
12
Franck et Hertz partagerent le prix Nobel de physique de 1925.
Atomes et etats de la matiere 63

constitution de la theorie quantique et permit de preciser les Encadre 5.4. l/effet Zeeman
grandeurs fondamentales qui interviennent dans la structure
de l'atome. Les raies spectrales emises ou
Chaque niveau de l'atome (associe a une orbite electro- absorbees par des atomes places
nique) est caracterise par une energie et un moment cinetique dans un champ magnetique se
(multiple entier ou demi-entier de H - h/2n) auquel est asso- decomposent en multiplets. Cet
cie un moment magnetique. Dans un champ magnetique, les effet, constate par Zeeman et ex-
niveaux se subdivisent suivant les valeurs du moment ma- plique par la theorie de 1'elec-
gnetique, ce qui fournit 1'explication de 1'effet Zeeman (voir tron de Lorentz, puis de ma-
1'encadre 5.4). George E. Uhlenbeck (1900-1988) et Samuel niere plus precise par la theorie
Goudsmit (1902-1978) emirent en 1925 1'idee du « spin » (ou quantique, resulte de 1'orienta-
moment cinetique propre) de 1'electron, dont la valeur est h/2 tion du moment magnetique de
et pouvant etre oriente suivant deux directions correspondant l'atome dans le champ, qui fait
a deux valeurs du moment magnetique13. une « precession de Larmor » au-
L'etat d'un electron dans un atome est en definitive carac- tour du champ magnetique, ce
terise par 4 nombres quantiques qui definissent ses grandeurs qui ajoute des termes d'energie
caracteristiques et dont les valeurs possibles sont determinees supplementaire a chacun des ni-
par les « regies quantiques » : n, nombre quantique principal, veaux de l'atome. Le niveau de
designant la couche d'energie correspondant a une orbite don- nombre quantique interne / et de
nee ; /, lie au moment cinetique, pouvant prendre les valeurs moment magnetique M est de-
/ = 0, ...n-l;m, moment magnetique, pouvant prendre 21 + 1 compost en 2J +1 sous-niveaux,
valeurs entieres de -/ a +/); ms, correspondant au spin, avec 2 chacun d'energie difJerente.
valeurs ms = (toutes les valeurs de moment ciretique ou
magnetique sont exprimees en unite de ti). Selon le « principe
d'exclusion de Pauli », deux electrons ne peuvent occuper un
meme etat, ce qui determine 1'arrangement des electrons ato-
miques et explique la classification periodique des elements
(par completion des couches n successives). On devait s'aper-
cevoir plus tard que les raies de l'atome ainsi caracterisees
peuvent malgre tout etre encore decomposees, manifestant
une « structure hyperfine » due a 1'effet d'un spin du noyau.
Des experiences realisees par Walter Gerlach (1889-1979)
et Otto Stern (1888-1969) en 1922 avec des jets d'atomes para-
magnetiques (reprenant la technique de Dunoyer mentionnee
au debut du chapitre) places dans le champ d'un aimant, per-
mirent de mesurer des moments magnetiques d'atomes et de
noyaux atomiques: le jet se decompose dans (2/+1) directions
differentes en fonction des differentes valeurs des moments
magnetiques.
Les experiences de ce type connurent de nombreux raf-
finements par la suite, notamment avec 1'observation par
Isidor Isaac Rabi (1898-1988) en 1937 des premieres transitions
13
En physique quantique, un moment angulaire ou un spin de valeur / (en
unite Pi) correspond a (2/ + 1) valeurs de moment magnetique.
64 La physique du XXe siecle

de resonances magnetiques, grace a 1'emploi de radiofre-


quences14. Le phenomene de resonance magnetique nucleaire
connut ulterieurement des applications nombreuses dans des
domaines divers, notamment en physique, en chimie et en
medecine. En physique, il permet la determination des fre-
quences de structure hyperfine d'atomes - par exemple, celle
du cesium-133 dans 1'etat fondamental qui a ete choisie depuis
comme etalon de mesure de 1'unite de temps. L'auto-oscil-
lateur quantique appele MASER, invente en 1954, et permet-
tant de mesurer des frequences atomiques avec de tres hautes
precisions relatives (5 X 10~12) est base sur ces techniques.
C'est egalement avec des techniques de resonances hert-
ziennes que fut detecte en 1947, par Willis Eugen Lamb (1913-),
l'« effet Lamb » de deplacement de raies spectrales de structure
fine de 1'atome d'hydrogene par rapport a la valeur predite
par la mecanique quantique ordinaire - la theorie de 1'electron
de Dirac. L'explication fut donnee peu apres par 1'electrody-
namique quantique dont nous parlons plus loin15.
Terminons cette evocation de la connaissance de la struc-
ture des atomes en rappelant que la mecanique quantique
a rejete 1'image classique des trajectoires d'electrons dans
1'atome, qui n'est plus conc.ue que comme une approxima-
tion, legitime seulement dans certaines conditions tres res-
trictives. La theorie de 1'atome se confond, de fait, avec la
mecanique quantique appliquee a 1'interaction electromagne-
tique, responsable des arrangements de la structure atomique.
Cette theorie est a proprement parler aujourd'hui 1'electrody-
namique quantique.

Proprietes quantiques macroscopiques


et atomes individuels
La fonction d'etat correspondant a des nombres quantiques
determines attribue aux particules atomiques une amplitude
et une phase; les particules indiscernables dont les phases sont
distributes au hasard obeissent aux statistiques quantiques;
si elles sont en coherence de phase, des proprietes specifiques,
proprement quantiques, en resultent et peuvent se manifester
au niveau macroscopique : la condensation de Bose-Einstein, la
supmconductivite et la superfluidite. Ces trois phenomenes sont
en realite lies : la superfluidite n'est qu'une manifestation de
14
Isidor Isaac Rabi recut le prix Nobel de physique de 1944.
15
Lamb re<;ut le prix Nobel de physique de 1955.
Atomes et etats de la matiere 65

la condensation de Bose-Einstein a laquelle la supraconduc-


tivite se rattache egalement. Elles furent annoncees des 1925
comme une consequence de 1'indiscernabilite des particules
quantiques par Einstein dans son travail theorique sur les gaz
d'atomes mono-atomiques (« gaz de bosons »), inspire a 1'ori-
gine par une idee de Bose16.
Pour des atomes identiques obeissant a la meme statistique
que les photons (la « statistique de Bose-Einstein »), la « conden-
sation de Bose-Einstein » est 1'analogue de 1'emission stimulee
de la lumiere, c'est-a-dire de Yeffet laser ou un grand nombre
de photons est concentre en un paquet homogene dans 1'etat
quantique d'energie la plus basse. Lorsqu'on refroidit de tels
atomes d'un gaz ou d'un liquide a une temperature suffisam-
ment basse (proche du zero absolu) tout en les empechant de
se combiner en molecules et de se solidifier, ils peuvent s'ac-
cumuler dans 1'etat individuel d'energie minimale, l'« energie
du point zero », qui correspond a une temperature absolue
nulle.
Ces atomes sont tous physiquement identiques, en phase,
et decrits par la meme fonction d'etat. L'effet quantique re-
sultant se manifeste au niveau macroscopique : les atomes
du condensat, qui peuvent etre tres nombreux - de plusieurs
milliers a une fraction significative du nombre d'Avogadro -,
delocalises et sans interaction, ont perdu leur individualite au
sein du systeme physique collectif qu'ils constituent; ils de-
viennent une sorte de superatome. Celui-ci se presente comme
un fluide absolument homogene et denue de viscosite, pret a
occuper immediatement tout 1'espace qui s'offre a lui.
Pendant longtemps cela parut une vue de 1'esprit, et la diffi-
culte a mettre un tel phenomene directement en evidence etait
tres grande en raison des temperatures extremement basses
auxquelles il etait susceptible de se manifester. La condensa-
tion de Bose-Einstein n'a ete observee qu'en 1995, soit soixante
dix ans apres sa prediction. La possibilite de 1'observer, visible
a 1'ceil nu, en fait desormais une « fenetre macroscopique sur
le monde quantique ». Nous y reviendrons apres avoir evoque
les progres effectues en physique de la matiere condensee et en
physique des tres basses temperatures, qui nous permettront
de mieux comprendre la supraconductivite et la superfluidite.
Les proprietes quantiques se manifestent egalement pour
des atomes et des particules individuelles, comme le prevoit
la theorie depuis sa constitution : un photon, un electron,
Figure 5.4. Objet en levitation
16
Nous avons mentionne precedemment ce travail, preparatoire de la meca- magnetique par
nique quantique. supraconductivite.
66 La physique du XXe siecle

un neutron ou un atome, soumis a une experience de dif-


fraction dans les conditions appropriees - en fonction de leur
longueur d'onde, reliee a leur vitesse - interferent avec eux-
memes, comme 1'expriment les proprietes mathematiques de
leur fonction d'etat. Pendant longtemps, les experiences ont
ete realisees a 1'aide de faisceaux intenses de particules ou
d'atomes. Le phenomene n'etait alors pas observable pour
des particules quantiques individuelles.
Depuis les annees 1980, les progres techniques ont permis
d'obtenir des faisceaux suffisamment rarefies ou les particules
ou les atomes sont emis suivant une distribution temporelle
qu'il est possible de controler : on peut savoir, dans un tres
petit intervalle de temps donne (par exemple, 1 nanoseconde),
qu'une seule particule a traverse le dispositif experimental,
sans avoir eu besoin de la detecter et, ainsi, de perturber son
etat. De telles experiences ont ete effectuees en particulier pour
les photons et les neutrons, confirmant les proprietes quan-
tiques des particules individuelles.
Par ailleurs, les progres dans le refroidissement des atomes
ont permis d'isoler ces derniers (identification et image d'un
atome unique)17.

Physique de 1'etat solide et matiere


condensee
Au debut du siecle, la physique de I'etat solide prit son essor
a partir de la quantification de 1'energie des atomes - qui
debuta avec les travaux d'Einstein de 1907 sur les chaleurs
specifiques -, et de 1'etude de la structure des cristaux - qui
interesse, en particulier, les metaux.
En 1912, reprenant les idees emises au XIXe siecle par Rene
Just Hauy (1743-1822) et Auguste Bravais (1811-1863) sur la
structure des cristaux comme empilement de mailles formant
des reseaux optiques, Max von Laue decouvrit 1'interference
des rayons X par diffraction sur des cristaux. II montra que
ces rayons, de nature electromagnetique, constituent une ex-
tension du spectre optique dans les tres courtes longueurs
d'ondes de 1'ordre de grandeur des distances atomiques.
William Henry Bragg (1862-1942) construisit alors un spec-
trometre a rayons X avec lequel il observa des raies caracteris-
tiques d'elements chimiques. II analysa de nombreux cristaux

Figure 5.5. 17
Claude Cohen-Tannoudji a regu le prix Nobel de physique de 1997 pour
Claude Cohen-Tannoudji. ses travaux sur le refroidissement et le piegeage des atomes par rayons laser.
Atomes et etats de la tnatiere 67

en collaboration avec son fils William Lawrence Bragg (1890-


1971), developpant de maniere systematique la cristallogra-
phie a rayons X qui fournissait la configuration des atomes
dans les solides de toute nature, organiques ou inorganiques18.
Par ailleurs, la theorie atomique de la matiere devait four-
nir en principe une explication directe des proprietes magne-
tiques ramenees a celles des atomes elementaires : les atomes
peuvent soit comporter des aimants microscopiques (ou
moments magnetiques) permanents susceptibles de s'aligner
dans un champ magnetique (paramagnetisme), soit en etre
depourvus (diamagnetisme). Les cristaux formes d'atomes
paramagnetiques peuvent produire des etats magnetiques
ordonnes dont le plus simple est le ferromagnetisme: un corps
ferromagnetique devient paramagnetique au-dessus d'une
certaine temperature, dite « temperature de Curie ».
L'alignement des moments magnetiques peut etre contre-
carre par une tendance au desordre due aux mouvements des
atomes animes d'energie cinetique. En 1905, Paul Langevin
proposa sa theorie du paramagnetisme en suivant cette ligne :
les moments magnetiques permanents des atomes parama-
gnetiques s'orientent dans la direction du champ, mais sont
contraries par 1'agitation thermique; utilisant la relation de
Boltzmann, Langevin retrouvait la loi formulee par Pierre
Curie d'une « susceptibilite magnetique » des corps para-
magnetiques inversement proportionnelle a la temperature
absolue19. A 1'aide de la theorie des quanta, Leon Brillouin
(1889-1869) put raffiner par la suite les resultats de Langevin,
qui en representent 1'approximation classique20.
La theorie atomique permet de rendre compte du dia-
magnetisme, pour lequel, meme en 1'absence de moment
magnetique permanent, les corps eprouvent une aimantation
induite lorsqu'un champ magnetique est applique. Cette pro-
priete generate, independante de la temperature, est due a la
« precession de Larmor »21 des electrons atomiques. Le fer-
romagnetisme, etat magnetique ordonne ou 1'alignement des
18
Max von Laue (1879-1960) ree.ut le prix Nobel de physique de 1914, et les
Bragg pere et fils celui de 1915.
19
On appelle « susceptibilite magnetique » d'une substance recevant une
aimantation induite, un coefficient de proportionnalite (^m) entre la polari-
sation magnetique (representee par un vecteur axial, ou pseudo-vecteur, J)
et le champ magnetique (H) : J = JJ.Q jm H pour un milieu isotrope (,uo est la
permeabilite magnetique).
20
On doit a Leon Brillouin une contribution importante a la theorie des semi-
conducteurs, avec 1'introduction des « bandes de Brillouin ».
21
De Joseph Louis Larmor (1857-1942).
68 La physique du XXe siecle

moments magnetiques peut etre permanent (meme en 1'ab-


sence de champ magnetique) trouve egalement son explica-
tion en termes de structure atomique. Pierre Weiss (1865-1940)
etudia les transitions entre etat desordonne et etat ordonne
d'« aimantation spontanee », montrant qu'elles se font, par
interactions atomiques, dans des domaines limites, concer-
nant un nombre d'atomes allant de 104 a 106. Ces proprietes
ont ete expliquees par la suite en termes d'energie d'« echange
quantique » par couplages entre les spins des atomes.
En 1926, Dirac et Fermi developperent la statistique quan-
tique des electrons dans les solides. Apres avoir formule son
principe d'exclusion qui trouvait son explication dans le cadre
de la statistique de Fermi et Dirac, Pauli effectua les premiers
pas vers une theorie quantique des electrons libres dans les
metaux. Felix Bloch (1905-1983) trouva, en 1928, que les elec-
trons se comportent dans un cristal comme s'ils etaient libres,
ce qui fut ensuite precise en termes d'occupation, par les elec-
trons, d'etats dans des bandes d'energie determinees selon
la mecanique quantique. Ces proprietes permettaient d'expli-
quer pourquoi certains corps sont conducteurs de I'electricite
tandis que d'autres sont isolants, et de comprendre la nature
des « semi-conducteurs »22.
Les corps solides ou les atomes sont lies les uns aux
autres sont caracterises par des valeurs de 1'energie repartie en
« bandes electroniques », pour deux intervalles d'energie
etroits et bien separes. Cela resulte de 1'organisation des
atomes dans un solide cristallin qui fixe les etats d'energie
possibles des electrons. Ces etats sont determines par 1'in-
fluence electromagnetique des autres constituants sur 1'elec-
tron considere : une repulsion de la part des autres electrons,
d'ou resulte un effet d'ecran sur sa charge et une attraction des
ions positifs. L'effet net est celui d'une structure periodique -
cristalline -, repartie en une serie de « bandes d'energie »,
chacune correspondant a un ensemble d'etats electroniques
individuels.
On peut alors comprendre la difference de structure entre
un isolant et un conducteur. Dans les isolants, les etats cor-
respondants aux bandes d'energie sont completement occu-
pes par les electrons23, et ceux-ci ne peuvent done circuler en
raison du principe d'exclusion de Pauli. Les conducteurs ont,
22
Felix Bloch recut le prix Nobel de physique de 1952 avec Edward Mills
Purcell (1912-).
Figure 5.6. Diagramme des 23
Us ne peuvent pas franchir la frontiere qui separe leur bande d'energie
bandes d'energie des differents d'une autre car 1'energie superieure de leur bande permise, ou « de valence »,
types d'elements. correspond a 1'energie la plus elevee qu'ils peuvent prendre (niveau de Fermi).
Atomes et etats de la matiere 69

a la temperature ordinaire, des bandes seulement partielle-


ment occupees, ce qui permet la mobilite des electrons24. Les
semi-conducteurs correspondent a des cas intermediates : iso-
lants a temperature absolue nulle, ils se comportent comme
des conducteurs a temperature non nulle, leur conductivite
augmentant avec la temperature. Ils sont comme des isolants
qui presenteraient un intervalle entre 1'etat superieur de la
bande d'energie « de valence » totalement occupee et 1'etat
inferieur d'une bande suivante, « de conduction » : avec une
augmentation de temperature, des electrons franchissent 1'in-
tervalle et le courant passe.
La physique du solide prit son veritable essor a partir
de 1933, a la faveur de la constitution d'une veritable theo-
rie quantique des corps solides, avec les travaux marquants
d'eleves de Heisenberg et de Pauli comme Hans A. Bethe,
Eugen Wigner, John Slater, Nevill Mott, Harry Jones25. Ils
firent les calculs theoriques de la structure en bandes d'energie
a 1'aide de la mecanique quantique, en considerant les corps
solides reels et non des corps idealises, et en utilisant des me-
thodes nouvelles d'approximation. La discipline connut des
developpements considerables pendant et apres la Seconde
Guerre mondiale, en relation avec les applications techniques
et industrielles. Par exemple, le transistor fut conc.u a la fin des
annees 1940 grace aux progres des radars; il devait avoir la
posterite que Ton connait en electronique et en informatique,
par son utilisation dans les circuits integres et la miniaturisa-
tion sans cesse plus poussee de ces composants electroniques,
qui atteint aujourd'hui quelques dixiemes de micrometres (les
« puces »)26.
Mentionnons ici la decouverte par Rudolf Mossbauer
(1929-), en 1958, d'un phenomene fondamental pour 1'etude
des proprietes des solides, mais aussi pour des applications a
de multiples autres domaines, de la physique atomique a 1'as-
trophysique : l'« effet Mossbauer », a savoir un phenomene de
resonance produit par 1'absorption ou 1'emission de rayonne-
ment gamma par un reseau cristallin a tres basse temperature.

24
Le niveau de Fermi des electrons, dans un conducteur, se situe a 1'interieur
de la bande de valence.
25
E. Wigner rec,ut le prix Nobel de physique 1963, H. Bethe celui de 1967,
et N. Mott celui de 1977 avec Philip Anderson (1923-) et John H. van Vleck
(1899-1980).
26 Figure 5.7. W.H. Brattain,
La decouverte du transistor, en 1948, valut le prix Nobel de physique
de 1956 a John Bardeen (1908-1991), Walter H. Brattain (1902-) et William obtient avec W. Schockley et
Schockley (1910-). Bardeen devait le recevoir une seconde fois, pour la « theo- J. Bardeen un effet amplificateur
rie BCS » de la supraconductivite. dans un semi-conducteur.
70 La physique du XXe siecle

II permet de detecter des differences de frequences extreme-


ment petites, comme les decalages produits par les champs
gravitationnels, ou des mouvements acceleres, ou par des va-
riations de champ magnetique, etc.27.
Si nous passons a I'optique quantique, le premier laser fut mis
au point en 1968. Le principe de son fonctionnement est base
sur les proprietes des semi-conducteurs, et sur l'« emission
stimulee » de lumiere, processus prevu par la theorie quan-
tique semi-classique proposee par Einstein en 1916. Dans un
cristal semi-conducteur, place entre deux lames reflechissantes
paralleles, que Ton excite par un faisceau de lumiere ou par
un courant electrique, les electrons passent de la bande de
faible energie a celle d'energie elevee, puis se desexcitent en
Figure 5.8. Alfred Kastler emettant un photon; celui-ci, reflechi successivement par les
(1902-1984). deux miroirs qui encadrent le cristal, interagit avec les elec-
trons qu'il excite, stimulant ainsi remission d'autres photons
identiques. On obtient alors 1'emission d'un fin faisceau de
lumiere coherente « dans le mode laser » (laser, sigle anglais
pour « amplification lumineuse par emission stimulee »). Un
pas important dans cette direction avait ete fait par Alfred
Kastler (1902-1984)28, qui realisa en 1950, avec Jean Brossel
(1918-2003), le « pompage optique » d'electrons atomiques,
en accumulant les nombreux atomes dans le meme niveau
d'excitation.
La liquefaction de 1'helium a 4,2 K, obtenue en 1908 par
H. Kamerlingh Onnes (1853-1926) ouvrit le domaine de la
physique des basses temperatures qui s'avera tres riche en phe-
nomenes fondamentaux, tels que la supraconductivite et la
superfluidite29. La difficulte croissante a s'approcher du zero
absolu de temperature, valeur limite qui ne peut a strictement
parler jamais etre atteinte, trouve son expression dans le «troi-
sieme principe de la thermodynamique », formule par Nernst
et par Planck, enongant que 1'entropie d'un systeme physique
quel qu'il soit tend vers zero avec la temperature absolue. Ce
principe constitue aussi la definition d'une echelle absolue
pour 1'entropie, determinee autrement de maniere relative,
par des differences d'entropie.
La supraconductivite est 1'absence d'amortissement par effet
Joule des courants electriques dans un solide donne. Elle est

27
Rudolf Mossbauer regut le prix Nobel de physique 1961, partage avec
Robert Hofstadter (voir la physique des particules elementaires).
28
A. Kastler regut le prix Nobel de physique en 1966.
Figure 5.9. Jean Brossel 29
L'echelle absolue de temperature a son zero a T = -273,16 °C. Autrement
(1918-2003). dit, la temperature de 0 °C correspond a T = 273,16 K.
Atomes et etats de la matiere 71

due a ce que la resistance electrique s'annule dans certains


metaux en dessous d'une temperature dite « critique », jus-
qu'au zero absolu30. Cette propriete, decouverte experimenta-
lement par Kamerlingh Onnes pour le mercure31, dut attendre
la theorie quantique de la matiere pour recevoir son explica-
tion. Elle fut la premiere des proprietes quantiques collectives
a effet directement macroscopique a avoir ete observee, expli-
quee et utilisee. Son interet pratique est en effet considerable :
employee dans la realisation de circuits d'electro-aimants, elle
permet de produire des champs magnetiques intenses sans
perte de courant, et se trouve desormais utilisee dans les
grands accelerateurs de particules. Les temperatures critiques
actuellement connues sont relativement basses. L'eventualite
d'obtenir des materiaux qui seraient supraconducteurs plus
pres de la temperature ordinaire ouvrirait une gamme
encore plus prodigieuse d'applications, comme par exemple
des trains a levitation magnetique circulant sans frottements.
II est possible de rattacher la supraconductivite a la
condensation de Bose-Einstein, bien qu'elle concerne des elec-
trons d'atomes metalliques, qui sont des fermions et non des
bosons. On sait en effet, depuis 1957, que les electrons de
conduction dans un cristal peuvent se combiner deux-a-deux
en formant des « paires de Cooper ». Ces etats faiblement lies
de deux electrons ont un spin entier et sont done des bosons32.
La supraconductivite apparait alors comme une condensa-
tion de Bose-Einstein de paires d'electrons de Cooper, ce qui
confere un fondement a 1'analogie remarquee entre elle et la
superfluidite.
La superfluidite est une propriete des corps fluides, gazeux
ou liquides, qui se presente eventuellement a tres basse
temperature. Dans la conception usuelle des etats de la
matiere constates pour la plupart des corps, ces derniers se
transforment par refroidissement, de 1'etat gazeux a 1'etat
liquide, puis a 1'etat solide. L'helium faisait jusque recem-
ment exception, car sa temperature de solidification est tres

30
On appelle « point critique » la temperature a laquelle se produit une
transformation d'etat - liquide-vapeur, ou solide-liquide - a pression donnee.
La transformation d'etat liquide-solide, qui correspond a un changement de
structure, ordonnee pour le solide, exige une « transition de phase ».
31
Kamerlingh Onnes se vit attribuer pour cela le prix Nobel de physique
en 1913.
32
Leon Cooper (1930-), John Bardeen et John Robert Schrieffer (1931-) parta-
gerent le prix Nobel de physique de 1972 pour leurs etudes theoriques sur la
supraconductivite (« theorie BCS »).
72 La physique du XXe siecle

basse. Si Ton peut eviter de le solidifier - par exemple, en


maintenant 1'alignement de son moment magnetique dans
1'entrefer d'un aimant -, on montre qu'il subit, a une tem-
perature absolue de 2,2 K, un « changement de phase » de
1'etat gazeux ou liquide a un etat « superfluide », caracterise
par une viscosite anormalement faible, voire quasiment nulle,
et une supraconductivite de la chaleur (absence complete de
pertes d'energie), entrainant une homogeneite parfaite et une
absence totale d'ebullition.
Cette transformation d'etat concerne en fait 1'isotope He4 :
ses proprietes de spin-statistique sont celles d'un boson33, et il
subit une condensation de Bose-Einstein responsable du phe-
nomene. Fritz London (1900-1954) et Laszlo Tisza proposerent,
en 1938, un modele de la superfluidite de I'herium, dans lequel
une partie du fluide ordinaire coexisterait avec une autre par-
tie superfluide au sens propre, condensee en un etat unique.
Pour ce qui est de 1'isotope He3, il est en verite egalement sus-
ceptible de passer dans 1'etat superfluide, bien qu'il ne soit pas
un boson. C'est ce qui fut observe en 1972, par David N. Lee,
Douglas D. Oscheroff et Robert C. Richardson34. L'explication
en est que deux atonies de cet isotope peuvent s'apparier en
un boson lorsqu'ils sont soumis a de grandes pressions et a
des temperatures tres basses, dans la region du millikelvin, et
souffrir alors une condensation de Bose-Einstein qui les met
dans 1'etat superfluide.
Quant a la condensation de Bose-Einstein elle-meme, pour
etre mise directement en evidence, elle demandait des pro-
diges dans le refroidissement de la matiere en se rapprochant
du zero absolu de temperature : alors que la superfluidite
se manifeste pour 1'He4 a 2 K, sa condensation proprement
dite ne se produit qu'a moins d'un millionieme (10~6) de
kelvin. Un condensat de Bose-Einstein a ete realise experi-
mentalement pour la premiere fois en 1995 par Eric Cornell
et Carl Wiemann : 2000 atomes identiques de rubidium -
metal alcalin -, refroidis tres pres du zero absolu, furent
33
On appelle isotopes des atomes de memes proprietes chimiques (meme
configuration electronoique) mais differant par la masse atomique (en fait,
par le nombre de neutrons du noyau, voir le chapitre 6). Le noyau d'helium-4
possede 2 protons et 2 neutrons. Les atomes de spin - ou moment angulaire
intrinseque - entier (bosons) sont ceux dont le noyau comporte un nombre
pair de neutrons. En effet, les electrons, les protons et les neutrons ont un spin
demi-entier (ft/2). De tels spins s'apparient deux a deux pour donner un spin
0 ou 1. Les electrons et les protons dans un atome etant en nombre egal, il faut,
pour avoir un spin entier, que le nombre de neutrons soit pair : par exemple,
1'hydrogene, l'helium-4,...
34
Tous trois regurent le prix Nobel de 1996.
Atomes et etats de la matiere 73

accumules dans le meme etat atomique individuel d'« energie


du point zero » pendant une dizaine de secondes : le « super
atome » forme se comportait comme un fluide sans visco-
site. D'autres condensats furent obtenus presque aussitot par
d'autres equipes35, avec d'autres elements alcalins, lithium,
sodium, cesium ..., et bientot avec des nombres plus eleves
d'atomes en condensation.
La difficulte a produire ce phenomene provient de la tem-
perature extremement basse a laquelle il faut parvenir (quel-
ques fractions de millionieme de kelvin) : meme le vide de
1'espace intergalactique serait encore trop chaud pour cela. A
partir des annees 1970, de grands progres avaient ete obtenus
dans la physique des tres basses temperatures mais il fallait
encore pouvoir refroidir les atomes sans passer par la solidifi-
cation.
Dans 1'experience de Cornell et Wieman, cela ne fut pos-
sible que par la mise au point d'une technique appropriee. Un
premier refroidissement fut obtenu a 1'aide d'un systeme de
lasers en batterie, faisant perdre aux atomes de leur energie
par collision avec les photons et les piegeant, dans une situa-
tion de confinement magnetique : les elements alcalins sont
plus appropries que 1'hydrogene ou d'autres metaux legers
car, plus gros, ils perdent plus vite leur energie dans les chocs,
et se refroidissent avant de s'apparier a d'autres et de se solidi-
fier. Un refroidissement par evaporation des atomes, confines
et isoles de 1'exterieur, completait le premier, faisant atteindre
des temperatures aussi faibles que 0,4 x 10~6 K au-dessus du
zero absolu.
A de telles temperatures, les atomes sont dans leur etat
d'energie minimale et se condensent; ils se deplacent tres len-
tement au voisinage du centre du piege de confinement, en
respectant les inegalites de Heisenberg entre la position et
1'impulsion, et les interactions entre eux sont completement
negligeables, a la difference de la supraconductivite et de la
superfluidite.
Tous ces developpements (et d'autres qu'il n'est pas pos-
sible de mentionner ici) concernent une meme direction de
la physique : celle des proprietes macroscopiques d'origine
quantique de la matiere atomique, qui deborde la seule phy-
sique de 1'etat solide. En effet, il s'agit aussi bien de la su-
praconductivite qui concerne les solides, que de la superflui-
dite, qui concerne les etats liquides et, d'une maniere generale,

35
Notamment par Jean Dalibard au Laboratoire de physique de 1'Ecole nor-
male superieure de Paris.
74 La physique du XXe siecle

des « phenomenes collectifs ». Cette branche de la physique


se denomme desormais plus volontiers physique de la matiere
condensee.

Chimie quantique
La connaissance des liaisons entre les atomes pour former
des molecules etait acquise depuis la seconde moitie du XIXe
siecle, en particulier en ce qui concerne les liaisons entre
Figure 5.10. Representation atomes de carbones dans les molecules hydrocarbonees, dont
tetraedrique des valences le prototype est celle de benzene (C^tif,). Jacobus van't Hoff
du carbone. (1852-1911)36 et Joseph Le Bel (1847-1930) avaient propose en
1874 la representation tetraedrique des valences de 1'atome
de carbone dans 1'espace a trois dimensions, obtenant ainsi
1'explication de 1'isomerisme optique observe auparavant par
Louis Pasteur (1822-1895). Cette structure fut confirmee grace
a la cristallographie a rayons X, qui permit de determiner les
positions des atomes de nombreux cristaux, y compris, plus
tard, celles de molecules complexes comme celles des pro-
teines - celle de la penicilline le fut en 194437.
En 1902, Emil Fisher (1852-1919) et Franz Hofmeister (1837-
1923) emirent 1'idee que les proteines sont constitutes par des
chaines d'acides amines, et en 1907 les premieres syntheses
de proteines formees de nombreux acides amines - les po-
lypeptides - furent obtenues. Une autre avenue de la chimie
etait ainsi ouverte, qui conduirait a la chimie des macromole-
cules, renouvellerait la biochimie et revolutionnerait la chimie
industrielle. Elle engendrerait aussi une nouvelle discipline,
la biologic moleculaire.
L'existence des macromolecules fut etablie en 1922 par
Hermann Staudinger (1881-1965) qui leur donna cette deno-
mination et relia leurs proprietes physico-chimiques a leur
constitution. Les annees 1930 virent le debut d'une ere nou-
velle, celle des « superpolymeres » ou matieres plastiques38
dont la structure en fibre est semblable a celle de la cellulose
ou de la soie : le premier Nylon fut produit industriellement a
partir de 1938.
Du cote de la theorie, la constitution electronique de la
matiere avait permis de concevoir la liaison des atomes dans
36
Van't Hoff, prix Nobel de chimie en 1901.
37
Par Dorothy Crowfoot-Hodgkin (1910-1994).
38
Leur poids moleculaire est superieur a 10000. Staudinger recut le prix
Nobel de chimie de 1953. II convient de mentionner, a 1'origine de la chi-
mie macromoleculaire, les travaux sur la chimie colloi'dale, dont Theodor
Svedberg (1884-1971), prix Nobel de chimie de 1926, fut le pionnier.
Atomes et etats de la matiere 75

une molecule comme un partage d'un meme electron par ces


atomes. La physique quantique offrait la possibilite d'etudier
la liaison chimique et de la comprendre en termes de cova-
lence et d'electrovalence, termes proposes en 1919 par Irving
Langmuir (1881-1957)39.
En 1927, Walter Heitler (1904-1981) et Fritz London don-
nerent une description theorique de la molecule diatomique
d'hydrogene (H2) en termes d'une resonance des ondes elec-
troniques pour les deux atomes et appliquerent ce resultat
a la theorie de la valence chimique. Travaillant dans cette
ligne dans les annees 1930, Linus Pauling (1901-1994)40 et
John C. Slater (1900-1976) obtinrent ensuite 1'explication par
la mecanique quantique de la liaison chimique dans le cas de
nombreuses molecules, et en particulier pour la molecule du
benzene a structure tetraedrique -, c'est-a-dire la structure
tetraedrique de la liaison hydrogene de 1'atome de carbone.
C'est a partir de ces travaux que la representation theorique -
quantique - de la molecule chimique fut pleinement admise.
La chimie theorique etait desormais la chimie quantique : on
1'appelle aussi chimie physique.
L'etude experimentale de la structure des molecules
beneficie de toutes les ressources de la spectroscopie, qui s'est
enrichie a partir des annees 1920 de la spectroscopie infrarouge
et de la spectroscopie Raman41, et a partir des annees 1950 de
la resonance magnetique nucleaire. Dans la determination des
structures moleculaires, on n'oubliera pas non plus 1'impor-
tance de la spectroscopie de masse pour les constituants des
molecules.
A partir de 1937, Pauling travailla sur la determination de
la structure moleculaire des proteines a 1'aide de techniques de
diffraction a rayons X et a electrons, ouvrant ainsi la voie de la
biologie moleculaire, pressentie aussi par d'autres physiciens
comme Schrodinger mais de maniere plus speculative. Dans
la lignee de Pauling, Francis Crick et James Watson devaient
trouver en 1953 la structure en double helice de la molecule
d'ADN42.

39
Langmuir fut laureat du prix Nobel de chimie en 1932 pour ses travaux
sur la chimie des surfaces.
40
Pauling recut le prix Nobel de chimie de 1954, pour ses travaux sur les
liaisons chimiques et la structure moleculaire.
41
De Chandrasekhara Venkata Raman (1888-1970), prix Nobel de physique
de 1930.
42
Francis Crick (1916-) et James Watson (1928-), biochimistes americains, prix Figure 5.11. James Watson
Nobel de biologie en 1962. et Francis Crick.
Cette page est laissée intentionnellement en blanc.
Chapitre 6

Matiere subatomique
1. Dans le noyau de 1'atome

Parallelement a la realite physique des atomes qui s'etait


imposee grace a la conjonction de 1'experience et de la theorie,
les atomes n'apparaissaient plus (des les dernieres annees du
XIXe siecle) comme ces particules absolument dures et « inse-
cables »:. Les atomes possedaient une structure interne comme
le laissaient voir leurs spectres d'emission et d'absorption de la
lumiere; et ils etaient composes d'autres constituants, comme
le revelaient les phenomenes d'ionisation, la presence en leur
sein d'electrons et les disintegrations radioactives.
En quelque sorte, au tournant du XIXe et du XXe siecles,
la physique confirmait et refutait en meme temps 1'hypothese
des anciens atomistes grecs, qui avait ete reprise au XVII6 siecle
par les chimistes, et a laquelle s'etait opposee, au XIXe siecle/
une conception continuiste de la matiere, voire une doctrine
(positiviste) de 1'impossibilite de connaitre la « nature intime »
des corps en dehors des limites de 1'observation sensible.
L'atome « existait » done physiquement mais il ne justifiait
plus son etymologic; comme souvent dans des circonstances
semblables (par exemple avec la notion de « vide »2) son nom
usuel lui est reste malgre la divergence de sens. On savait done
desormais qu'il fallait chercher les « constituants ultimes » de
la matiere, qui seraient les plus elementaires, et insecables,
en dessous du « niveau » de la matiere atomique, a 1'inte-
rieur meme de 1'atome. On sut aussi tres vite que 1'interieur
de 1'atome etait regi non plus par la physique classique, mais
par la physique quantique, dont nous avons vu, au chapitre
precedent, qu'elle s'etait imposee dans le developpement de
la physique atomique. L'etonnant fut que la physique quan-
tique, valide au niveau des atomes et de leurs arrangements,

1
Atome signifie, en grec, insecable, que Ton ne peut couper (a-tomoi).
2
Sur les changements de signification du concept de vide, voir Michel Paty,
« Le vide materiel ou la matiere cree 1'espace », edite par S. Diner et E. Gunzig,
Univers du tout et du rien, pp. 22-44, et d'autres textes du meme recueil.
78 La physique du XXe siecle

le soit encore dans tout le domaine infra-atomique, qui est ce-


lui des noyaux des atomes et des « particules elementaires »
qui apparaissent en explorant ces derniers.
L'ensemble des domaines de la physique qui se situent
(en energie et spatialement) en dessous du niveau atomique
proprement dit constitue ce que Ton appelle desormais la
« physique subatomique »3. Nous verrons que ce domaine,
tel qu'il s'est revele au long des deux derniers tiers du XXe
siecle (ses premieres explorations systematiques remontent
aux annees 1930), manifeste bien une unite qui justifie sa de-
nomination : une unite de methodes, une unite conceptuelle
et une unite theorique, aujourd'hui plus significatives que
les diversifications episodiques survenues au cours de son
histoire comme 1'opposition entre physique nucleaire (ou des
basses energies) et physique des particules elementaires (ou des
hautes energies). Cette opposition fut vive dans les annees 1950
a 1970 quand emergea et explosa la physique des particules
elementaires avec ses families de nouvelles particules fonda-
mentales; elle s'est progressivement estompee dans les annees
1980-90 pour des raisons qui tiennent autant aux developpe-
ments des contenus de connaissance et aux proprietes de la
« matiere nucleaire » qu'aux pratiques de la recherche et aux
types d'instruments utilises.

Le niveau nucleaire
Le second niveau de structuration de la matiere atomique se
situe dans les profondeurs de 1'atome, dans son noyau, qui
correspond a un ordre de dimensions de 10~13 cm (1 fermi),
quand les distances au niveau atomique sont de 1'ordre de
10~8 cm. Les deux niveaux sont done nettement separes (dans
un rapport de distances de 10~5 environ) et la recherche dans ce
domaine des tres petites dimensions de la matiere ouvrait un
nouveau chapitre de la physique. L'exploration du niveau nu-
cleaire ne commenc.a que dans les annees 1930 bien que 1'exis-
tence du noyau et les manifestations de ses transformations
par la radioactivite aient ete connues bien anterieurement.
La physique nucleaire, etude de la structure du noyau ato-
mique, prit corps avec la decouverte du neutron, la radioac-
tivite artificielle, 1'exploration des proprietes des noyaux et
3
Voir, par exemple, Rene Bimbot et Michel Paty, « Vingt-cinq annees d'evo-
lution de la physique nucleaire et des particules », Physique subatomique: 25 arts
de recherche a l'IN2P3, la science, les structures, les hommes, edite par J. Yoccoz
(Editions Frontieres, Bures-sur-Yvette, 1996), pp. 12-99.
Matiere subatomique 79

Encadre 6.1. Energies et distances du domaine subatomique


Energies eV-keV MeV-lOOMeV GeV-TeV
13 14
Distances (cm) *1Q- 8
« i0- -i<r * 10-M-10-18
Domaine atomique nucMaire subnucleaire
Champ eUectromagnetique fort fort
d'interaction electromagn&ique electromagnetique
dominant (disintegration y) faible
faible (suivant les processus
(disintegration 0) et leurs regies de selection)

la fission nucleaire. Pour inventorier les regions internes du


noyau atomique, il fallait disposer de moyens de penetration
puissants : des radiations d'energie d'au moins quelques mil-
lions d'electron-volts (MeV)4, ordre de grandeur des energies
de liaisons nucleaires. Ces energies correspondent a 1'explo-
ration de distances de 1'ordre des longueurs d'onde associees
(voir 1'encadre 6.1 pour les correspondances entre les energies
et les distances spatiales)5. Elles furent fournies d'abord par les
corps radioactifs (rayons a, fi et y) et par 1'acceleration de pro-
tons et de noyaux legers dans des machines electrostatiques
(accelerateurs Cockroft-Walton, 1930 et van de Gmaff, 19316).
La physique des particules elementaires (la denomination fa-
miliere ne doit pas faire oublier qu'il s'agit de particules quan-
tiques) emergea peu-a-peu de la physique nucleaire et de 1'etude
du rayonnement cosmique. Ce dernier avait ete decouvert en
1912 par Victor Franz Hess7, dans des experiences en ballon
4
En physique atomique et subatomique, les energies sont exprimees en
multiples de 1'electron-volt (eV): keV (k pour « kilo », mille, 103 eV), MeV (M
pour « mega », million, 106 eV), GeV (G pour « giga », milliard, 109 eV), TeV
(pour « tera », mille GeV, soit 1012 eV). De 1'electron-volt au keV, on se trouve
dans le domaine des energies de 1'atome; 1'ordre du MeV (jusqu'a quelques
centaines de MeV) correspond aux energies de structure du noyau, domaine
de la physique nucleaire; au-dessus, en gros a partir de 500 MeV, s'etend le
niveau de la physique des particules elementaires ou physique des hautes
energies, ou encore physique subnucleaire.
5
La longueur d'onde associee a une particule est inversement proportion-
nelle a son impulsion ou quantite de mouvement. Une radiation de longueur
d'onde donnee peut explorer des distances spatiales de 1'ordre de sa longueur
d'onde.
6
Le premier, invente en 1930 par John Douglas Cockroft (1897-1967) et Ernest
T.S. Walton (1903-1995), tous deux prix Nobel de physique en 1951; le second,
en 1931 par Robert J. van de Graaff (1901-1967).
7
Victor Franz Hess (1883-1964), physicien autrichien naturalise americain,
recut le prix Nobel de physique en 1936 avec Carl Anderson (voir plus loin).
L'origine extraterrestre du rayonnement cosmique avait ete pressentie egale-
ment par Charles Wilson.
80 La physique du XXe siecle

faites dans une perspective de recherches geophysiques.


Constatant dans 1'atmosphere la decharge d'electroscopes
embarques, il put 1'attribuer a la presence d'un rayonnement
ionisant dont il montra 1'origine extraterrestre. Le rayonne-
ment cosmique, etudie systematiquement en haute altitude
des les annees 1930 dans des laboratoires installes en haute
montagne (Pic du Midi dans les Pyrenees franchises, Jungfrau
dans les Alpes suisses, Mont Wilson aux Etats-Unis, Mont
Chacaltaya en Bolivie dans les annees 1950, etc.) fournit des
particules chargees naturellement accelerees (par les grands
champs electromagnetiques de certaines regions du Cosmos).
Celles-ci sont pour 1'essentiel des protons et des noyaux legers
primaires, mais aussi des muons (identifies dans les annees
1940) resultant de la disintegration des particules plus in-
stables produites par les premiers. Ces particules d'origine
cosmique peuvent etre detectees par leur ionisation et leurs
interactions dans 1'atmosphere ou a la surface terrestre.
Les interactions nucleaires et cosmiques de noyaux ani-
mes de grandes vitesses (et done d'energies elevees) avec des
noyaux cibles revelerent 1'existence de nouvelles particules,
jusqu'alors inconnues a 1'etat naturel ou libres, liberees ou pro-
duites dans les reactions. Elles vinrent s'ajouter, a partir des
annees 1930, a Velectron (identifie par Joseph-John Thomson
en 1897), au proton (noyau de 1'atome d'hydrogene) et au pho-
ton8 : les premieres furent, au debut des annees 1930, le neutron
(constituant des noyaux avec les protons, de masse voisine et
electriquement neutres) et le positon (l'« anti-particule » de
1'electron, de meme masse et de charge electrique opposee,
done positive9). Puis, de 1936 a la fin des annees 1940, les
particules elementaires s'enrichirent tout d'abord du muon,
une sorte d'electron lourd instable (quoique de temps de vie
appreciable : 1 ^us), de charge negative et de masse environ
200 fois plus grande que celle de 1'electron, existant sous deux

8
Le corpuscule quantique lumineux, ou photon, pris en consideration en 1916
par Einstein du point de vue theorique (Chap. 3), fut observe en 1923 dans
son interaction avec les electrons atomiques par Arthur Compton (1892-1962),
prix Nobel de physique en 1927. Compton travailla egalement sur les rayons
cosmiques. Le corpuscule de lumiere fut baptise photon (mot forme sur le
grec, et signifiant grain de lumiere) en 1926, par Gilbert Newton Lewis (1875-
1946), physico-chimiste americain; ce dernier proposa par ailleurs la notion
de liaison covalente en chimie, dont la theorie put ensuite etre formulee dans
le cadre de la mecanique quantique (Chap. 5).
9
Le positon peut etre considere comme un electron positif ou, plus exacte-
ment, comme le « conjugue de charge » de 1'electron.
Matiere subatomique 81

etats de charge electrique, \i*, \i 10. Detecte dans le rayon-


nement cosmique en 1937, le muon ne fut exactement iden-
tifie qu'en 1948 : il fut tout d'abord pris pour le « meson de
Yukawa » (postule d'abord pour des raisons theoriques par
Hideki Yukawa, et decouvert en 1946). Le meson de Yukawa,
connu par la suite comme meson n, s'ajouta ainsi egalement a
la liste, encore breve, des particules elementaires.
A ces nouvelles venues s'adjoignirent tres vite les « par-
ticules etranges » et les premieres « resonances ». Apres quoi,
les accelerateurs d'energies de plus en plus elevees (cyclotron,
synchrotron, etc.11) produisirent un grand nombre de nouvelles
particules en fouillant, de plus en plus finement et en profon-
deur, la structure de la matiere nucleaire (voir le chapitre 7 et
1'encadre 7.1).
La physique nucleaire et celle des particules elementaires
devinrent alors deux disciplines assez nettement distinctes.
La premiere s'interessait a la structure des noyaux et a leurs
forces de liaison, dans un domaine d'energies relativement
modestes (quelques dizaines et, plus tard, centaines de MeV).
La seconde se proposait de rechercher les constituants elemen-
taires de la matiere, de les identifier et d'analyser les forces
d'interaction (ou les champs d'interaction, dans le sens ou Ton
parle de champ de gravitation ou de champ electromagne-
tique) entre ces constituants. Du point de vue experimental,
elle se caracterisa par des energies sans cesse plus elevees, et
rec,ut pour cela, des les annees 1950,1'appellation de « phy-
sique des hautes energies », equivalente a celle de physique
« des particules elementaires ». Parties du GeV vers 1950, avec
le cyclotron « Bevatron » (producteur de meson TT) de 1'univer-
site de Berkeley, aux Etats-Unis, ces energies parvinrent au TeV
vers la fin du siecle, avec les grands synchrotrons et anneaux
de collisions12 capables de produire en grande quantite des
particules tres lourdes comme les « bosons intermediaires »
(decouverts en 1983) ou, en principe, les « bosons de Higgs »
encore hypothetiques.
Aujourd'hui, la physique nucleaire et la physique des par-
ticules elementaires tendent a se rejoindre, tant par la nature de
10
Le muon se desintegre, par un processus d'« interaction faible » du meme
type que la radioactivite jS, en un electron de meme signe et en deux neutrinos,
particules dont il sera question plus loin (plus exactement, une paire neutrino-
antineutrino).
11
Ernest Orlando Lawrence (1901-1958), constructeur du premier cyclotron,
re^ut le prix Nobel de physique en 1939.
12
Notamment le super-synchroton a protons et le super-anneau europeen a
electrons et positons, LEP du CERN a Geneve.
82 La physique du XXe siecle

leurs objets (la structure de la matiere en quarks, par exemple,


les interesse 1'une comme 1'autre, et leur dynamique est celle
des memes champs d'interaction fondamentaux de la matiere)
que par leurs techniques et leurs methodes. La physique quan-
tique reste valable en physique subatomique, seule la nature
de la dynamique des interactions a prendre en compte y est
plus diversified. Au champ electromagnetique s'ajoutent deux
types d'interactions qui ne se manifestent qu'au niveau de la
matiere nucleaire13, les interactions forte etfaible, dont les ap-
proches theoriques aboutirent, dans les annees 1970 et 1980, a
une formulation assez voisine de celle de 1'electrodynamique
quantique, avec les theories des champs a « invariance de
jauge ».

Neutrons et noyaux : naissance


de la physique nucleaire
Bien que Rutherford ait obtenu la premiere transmutation ar-
tificielle de noyaux atomiques en les bombardant avec des
protons des 1919, c'est seulement en 1932 que le noyau com-
menga a livrer les secrets de sa structure avec la decouverte du
neutron. Etudiant les interactions de rayons a sur des atomes
legers, Walther Bothe14 et son etudiant H. Becker mirent en evi-
dence, en 1930, la production d'un rayonnement penetrant.
Irene Joliot-Curie et Frederic Joliot15 montrerent, en analy-
sant ce rayonnement dans une chambre de Wilson16 (voir la
figure 6.1), qu'il projette des noyaux d'atomes d'hydrogene.
Cette meme annee, il revint a James Chadwick de 1'identifier
comme une nouvelle particule, de masse sensiblement egale
13
Du moins pour 1'essentiel, car le champ faible peut se manifester au niveau
atomique avec les « courants neutres », mais dans des conditions particulieres.
14
Walther G. Bothe (1891-1957), physicien allemand.
15
Irene Joliot-Curie (1897-1956), Frederic Joliot (1900-1958), physiciens fran-
gais.
16
Ou « chambres a brouillard ». Ce detecteur visuel, par materialisation des
traces de particules ionisantes en gouttelettes de gaz condensees, fut concu
en 1910 par le physicien et meteorologiste britannique Charles T.R. Wilson
(1869-1959). Ce dernier decouvrit le mecanisme de formation des nuages :
des centres de condensation de vapeur d'eau sursaturee se forment autour
d'ions electrises. La chambre de Wilson fut perfectionnee ensuite par Patrick
M.S. Blackett (1897-1974), qui inventa son declenchement par des compteurs
Figure 6.1. Trajectoire d'un Geiger places au-dessus ou au-dessous de la chambre, obtenant une grande
positon (a gauche) et d'un efficacite d'utilisation. II observa ainsi la materialisation de photons y en
proton dans une chambre de paires electron-positon. Wilson et Blackett recurent le prix Nobel de physique
Wilson. (Cliche Frederic Joliot.) respectivement en 1927 et 1948.
Matiere subatomique 83

a celle du proton mais electriquement neutre17 : le neutron,


present dans les noyaux comme partenaire du proton.
La constitution du noyau etait ainsi expliquee en termes
de nombres de masses (ou masses atomiques) et de numeros
atomiques : un noyau comporte Z protons et (A - Z) neutrons,
et sa masse est egale a la somme des masses des constituants
moins leur energie de liaison18. II etait des lors possible de
faire simplement le bilan des energies depensees ou liberees
dans des reactions nucleaires. La constitution des isotopes
(atomes de memes proprietes chimiques et numero atomique,
mais de nombre de masse different) etait aisee a comprendre :
les noyaux des isotopes d'un meme element comportent le
meme nombre de protons (les atomes ont done le meme
nombre d'electrons, et les memes proprietes chimiques), mais
un nombre de neutrons differents. En regie generale, les iso-
topes qui contiennent des neutrons en exces par rapport a
la « plage de stabilite » sont instables et done naturellement
radioactifs. Pour un element stable donne, il peut ainsi exis-
ter des isotopes radioactifs qui sont instables : 1'hydrogene, le
deuterium (tous deux stables) et le tritium (radioactif) sont des
isotopes de 1'element hydrogene; le carbone-14 (a 6 protons
et 8 neutrons) est un isotope radioactif du carbone-12 stable, a
6 protons et 6 neutrons.
Heisenberg presenta, juste apres la decouverte du neutron,
une theorie de 1'invariance de charge des forces nucleaires, en
dormant au proton et au neutron une meme representation
(comme deux etats de charge d'un meme « nucleon ») dans le
formalisme de l'« isospin », caique sur celui du spin ou moment
angulaire propre (voir le chapitre 5). Ce formalisme associe a
une meme particule quantique a plusieurs etats de charge
des grandeurs abstraites congues comme des operateurs au
sens de la mecanique quantique (voir le chapitre 3) : / (dite
« spin isotopique » ou encore « isospin ») et lz, qui serait a J ce
que Tune des trois composantes d'un spin (J2) est au spin lui-
meme (/). En quelque sorte, on construit un espace abstrait, fic-
tif, a trois dimensions, l'« espace isotopique » ou «isoespace ».

17
James Chadwick (1891-1974), physicien britannique, prix Nobel de phy-
sique en 1935. La masse du neutron est, en fait, tres legerement superieure a Figure 6.2. Distribution des
celle du proton, ce qui autorise sa disintegration a 1'etat libre (quand il est
noyaux atomiques (A - Z en
produit, par exemple, dans des reacteurs nucleaires), en proton, electron et
neutrino (voir plus loin). abscisse, A en ordonnee).
18 Schema publie dans Decouverte
AM etant le defaut de masse, 1'energie de liaison est AE = AMc2. C'est
1'energie minimum qu'il faut fournir pour briser un noyau stable a 1'etat na- (revue du Palais de la
turel. Inversement, AE est 1'energie liberee dans une disintegration nucleaire decouverte) n° 280 (2000),
spontanee. page 31.
84 La physique du XXe siecle

Le comportement des grandeurs (qui sont des vecteurs de


cet espace) y est identique du point de vue formel a celui de
moments angulaires (ce sont des grandeurs quantifiers, qui
ne peuvent prendre que certaines valeurs), sans en avoir la
signification physique. Par definition, la signification phy-
sique de 1'isospin est: chaque valeur de la « composante » 7Z est
associee a un etat de charge, et done 7 est directement donne
par la multiplicite (21+1) des etats de charge, de meme que le
spin / est donne par la multiplicite des moments magnetiques
(2J + 1). Cet outil mathematique commode pour simplifier la
representation des etats de charge d'une meme famille de par-
ticules quantiques s'est avere d'une grande puissance heuris-
tique. En effet, bien des proprietes des particules et des champs
d'interaction ont pu etre ainsi representees d'une maniere syn-
thetique. C'est a tel point que 1'isospin est devenu 1'une des
grandeurs quantiques (ou « nombres quantiques ») intrinse-
quement attachees a des families de particules groupees en
multiplets de charge. Cette procedure a ete etendue a de nou-
velles grandeurs, autres que la charge electrique (« etrangete »,
« saveurs » superieures), distinguant des particules de proprie-
tes tres semblables (masses, spin, etc.), ce qui devait permettre
la classification des particules a 1'aide de la theorie des groupes
de symetries unitaires (voir le chapitre 7}.
Pour resumer d'une maniere concrete et pratique 1'interet
du concept d'isospin tel qu'Heisenberg le conc.ut, il suffit de
considerer son application immediate au proton et au neutron,
tres voisins par la masse (et par les proprietes d'interaction
nucleaire) et differents par la charge (1'un est charge positive-
ment et 1'autre est electriquement neutre). On admet que le
proton et le neutron constituent un « doublet d'isospin », a
deux etats de charge, d'une meme particule, qu'on appellera
le « nucleon », pourvue d'un isospin 1 = 1/2 (selon la formule
multiplicite = 27 + 1), grandeur calquee sur le formalisme du
spin. Plus tard, le meson n a trois etats de charge fut aussitot
conc.u comme dote d'un isospin 7 = 1 , etc.

De Tanti-electron
au meson n des forces nucleaires
Des 1931, Carl Anderson19 decouvrit le positon (1'anti-particule
de 1'electron) en 1'identifiant dans une chambre a traces placee
19
Carl Anderson (1905-1991), physicien americain, prix Nobel de physique
en 1936.
Matiere subatomique 85

dans un champ magnetique20. Le positon se trouvait, en fait,


avoir ete predit quelque temps auparavant par la theorie de
I'electron relativists de Dirac. La radioactivite « artificielle » etait
mise en evidence un peu plus tard, en 1934, par Irene et
Frederic Joliot-Curie. Ces derniers montrerent la materialisa-
tion de rayons y en paires electron-positon. L'emission inverse
d'un rayon y par annihilation d'un positon avec un electron a
ete egalement obtenue par F. Joliot et Jean Thibaud21. Enrico
Fermi (1901-1958) produisit et etudia de maniere systematique
les transmutations artificielles, creant de nouveaux isotopes
radioactifs22. Reprenant une hypothese formulee en 1930 par
Pauli, sur 1'existence d'une particule neutre et de masse nulle
ou quasi-nulle (le neutrino), Fermi elabora des 1933 une theorie
de la radioactivite fi. Cette theorie, qui s'inspirait de la theorie
quantique du champ mise au point pour 1'electrodynamique
quantique, etait la premiere forme de ce qui serait la theorie
des interactions faibles23.
Hideki Yukawa (1907-1981) proposa en 1935 sa theorie des
forces nucleaires, dans laquelle une particule de masse inter-
mediaire entre celle de I'electron et celle du proton, le meson
TI, est echangee entre les nucleons. La valeur theorique de
sa masse (autour de 140 MeV) lui venait de la courte portee
de 1'interaction nucleaire forte, restreinte aux dimensions du
noyau (environ 10~13 cm) en raison de la relation entre 1'ener-
gie et la distance d'exploration correspondante (voir 1'enca-
dre 6.1). La denomination de « meson » lui fut donnee en rai-
son de ce caractere intermediate. L'hypothese parut d'abord
hardie, voire gratuite a certains, car Ton n'imaginait pas faci-
lement alors 1'existence de particules elementaires autres que
20
Le champ magnetique impose aux particules chargees une trajectoire cir-
culaire avec un sens de parcours donne par le signe de la charge electrique.
Dans le cas du positon, 1'orientation etait en sens inverse de celle prise par les
electrons de charge negative : c'etait done un « electron positif ».
21
Frederic Joliot et Irene Joliot-Curie regurent le prix Nobel de chimie en
1935, et Bothe celui de 1954. Bothe avait egalement ete 1'inventeur, vers 1929,
de la technique des coincidences pour les compteurs Geiger-Muller. Enrico
Fermi, physicien italien, recut le prix Nobel de physique en 1939. Emigre aux
Etats-Unis, il realisa en outre la premiere pile atomique en 1942. Jean Thibaud,
physicien franc.ais.
22
Sur la definition d'un isotope, voir plus haut.
23
La radioactivite f}~ s'ecrit comme un processus elementaire, la disintegra-
tion, par voie « faible » (voir plus loin sur les champs fondamentaux d'in-
teraction), du neutron (generalement au sein d'un noyau) : n —» p + e~ + Ve.
La theorie quantique des champs fait intervenir des operateurs de creation et
de destruction d'etats qui permettent de formuler 1'apparition ou la dispari-
tion de particules, comme, dans le cas de la disintegration j3~, I'electron et le
neutrino.
86 La physique du XXe siecle

Encadre 6,2. Les particules fondamentales a la fin des annees 30

Aunee de decouverte Denomination Symbole Charge electrique Masse


(en unites de charge electrique) (en &£|V) (env.)

proton P +1 938
1897 electron e~ -1 0.5
Theoriquement ; 1916 photon r 0 0
Experimentalement : 1923
1931 positon e+ +1 0.5
1932 neutron n 0 940
1937-47 muon -1 et +1 106
p~ et ju+
Hypothetique : 1935 meson n n +1, 0 et -1 Charges : 139
Observ^ : 1946 n+, TT° et 7i~ Neutre : 135
Hypothetique : 1930 neutrino V 0 0
Observe : 1956 neutrino et antineutrino ve et vj

celles deja connues : Niels Bohr se declara d'abord hostile au


meson de Yukawa avant de devoir se rendre a 1'evidence. Si le
meson n, comme « particule d'echange » des forces d'interac-
tion nucleaires, etait present a l'« etat virtuel » dans le noyau
(voir 1'encadre 6.2), il devait en principe pouvoir etre cree
dans des interactions nucleaires par un apport de masse, sui-
vant la relation masse-energie E = me2 24. De fait, apres avoir
ete confondu avec le muon en lequel il se desintegre (car il est
instable a 1'etat libre), il fut effectivement identifie, en 1946, par
Cecil Powell, Cesar Lattes et Giuseppe P.S. Occchialini25, dans
des emulsions photographiques exposees a des interactions
de rayons cosmiques de 1'atmosphere26. Sa masse, mesuree
dans les reactions, etait bien celle que prevoyait la theorie27.
Le meson n fut produit ensuite en grandes quantites dans les
accelerateurs (des 1948 au Bevatron) ou Ton detecta ses trois

24
Hideki Yukawa, physicien japonais, rec.ut le prix Nobel de physique en
1949.
25
Cecil Franck Powell (1903-1969), physicien britannique, rec.ut le prix Nobel
en 1955. Cesar Lattes est un physicien bresilien et Giuseppe P.S. Occchialini
(1907-1993) un physicien italien.
26
Au mont Chacaltaya, en Bolivie.
27
Avec une difference entre les etats charges et 1'etat neutre (voir 1'enca-
dre 6.2).
Matiere subatomique 87

etats de charge electrique, n+, n et 71° 28. (La proximite de la


valeur de sa masse avec celle du muon, respectivement 139
et 106 MeV, fut 1'une des raisons de la confusion initiale entre
eux)29.

Des modeles nucleaires a la liberation


de 1'energie des noyaux
La connaissance des constituants elementaires du noyau et
de la force d'interaction qui joue entre eux restait insuffi-
sante pour rendre compte de ses proprietes globales. Dans
les annees 1930, ces proprietes firent 1'objet d'approches theo-
riques a 1'aide de modeles, comme le modele quasi-classique,
thermodynamique, « de la goutte d'eau » propose par Bohr,
puis le modele des couches concentriques mettant en relief 1'as-
pect quantique du noyau et ses similitudes de structuration
en niveaux avec 1'atome. La spectroscopie nucleaire des niveaux
« individuels », qui illustre le modele en couches, constitue
depuis un chapitre important de la physique nucleaire.
Le modele de la goutte d'eau eut une grande impor-
tance dans la decouverte, en 1939, par Otto Hahn et Fritz
Strassmann, de la fission nucleaire, scission d'un noyau lourd
(en 1'occurrence, d'uranium) en noyaux plus legers avec libera-
tion d'energie. Le mecanisme de la scission fut elucide par Lise
Meitner et Otto R. Frisch30. Peu apres, F. Joliot, Hans Halban et
Lev Kowarski31 mirent en evidence, dans la fission, 1'emission
de neutrons accompagnant les noyaux produits, ouvrant la
possibilite de reactions en chaine (par leur absorption par les
noyaux lourds, les neutrons emis causent a leur tour d'autres
reactions de fission, qui liberent de nouveaux neutrons, etc.).
Joliot conc.ut par la 1'idee de pile atomique pour des reactions
28
Le meson electriquement charge se desintegre (par voie «faible », identique
a la disintegration ]3) en donnant un muon de meme charge, accompagne
d'un neutrino. Le meson neutre se desintegre (par voie electromagnetique)
en emettant une paire de rayons y de haute energie (dans le referentiel propre,
ou au repos, du meson TT°, les rayons y se partagent a parts egales son energie
de masse, soit 135 MeV au total).
29
Initialement, le muon rec.ut 1'appellation de « meson ^u », qu'il garda de
nombreuses annees : les caracteres propres des mesons et des leptons ne
furent precises que progressivement.
30
Otto Hahn (1879-1968), prix Nobel de chimie pour 1944, Fritz Strassmann
(1902-1980), Lise Meitner (1878-1968) et Otto R. Frisch (1904-1979) sont des
physiciens allemands.
31
Hans Halban (1877-1964), physicien autrichien; Lev Kowarski (1907-1979),
physicien franc.ais d'origine russe.
88 La physique du XXe siecle

controlees : on pouvait determiner avec precision le nombre


moyen et 1'energie des neutrons capables d'entretenir la reac-
tion en la maintenant a un regime de stabilite. Celui-ci serait
maintenu grace a 1'emploi de « moderateurs » qui ralentiraient
les neutrons (plus aisement captures par les noyaux fissiles a
basse energie) et absorberaient ceux qui etaient produits en
exces. Des que le nombre de neutrons depasserait la valeur
de controle, la reaction pourrait aussi parvenir a un regime
explosif, liberant des energies considerables, plus elevees que
tout ce que Ton avait connu jusqu'alors. Le phenomene de
fission de 1'atome rendait effective dans les deux cas, celui de
production d'energie et celui de destruction, cette prediction
de la theorie de la relativite restreinte que « la matiere est un
reservoir d'energie ».
La realisation de ces deux applications de la physique
nucleaire eut lieu au cours de la Seconde Guerre mondiale,
au laboratoire de Los Alamos aux Etats-Unis, dans le cadre
du « projet Manhattan ». Face a la menace pour le monde re-
presentee par le nazisme allemand qui venait d'envahir mi-
litairement 1'Europe et menac.ait d'asservissement la planete
entiere en s'appuyant sur une capacite technologique consi-
derable, le projet mobilisa les competences reunies de nom-
breux physiciens, parmi lesquels maints savants europeens
emigres pour raisons politiques. L'histoire de 1'energie ato-
mique se greffe ici sur 1'histoire de la physique : du point de
vue militaire avec la course aux armements et du point de vue
« pacifique » avec le developpement des reacteurs et des cen-
trales nucleaires et les problemes qui leur sont attaches32. Une
autre voie de production d'energie nucleaire fut egalement ou-
verte : la « fusion thermonudeaire », effective des la realisation
de la bombe a hydrogene. Du point de vue de son utilisation

32
Le lecteur pourra se reporter a la tres vaste litterature qui existe a ce jour sur
la question. On trouvera quelques references fondamentales dans la biblio-
graphie. Le role de savants a 1'origine de ces applications ne fut pas que scien-
tifique ou technique, mais aussi politique. Par exemple, Albert Einstein et Leo
Szilard attirerent 1'attention du president des Etats-Unis, Franklin Roosevelt,
par une lettre datee du 2 aout 1939, sur le risque que 1'Allemagne nazie mette
au point une bombe atomique. Des 1945, le meme Einstein, Niels Bohr, Robert
Oppenheimer avertirent des dangers extremes qu'il y avait a developper la
bombe a hydrogene. En 1955, au cours de la « guerre froide » entre les Etats-
Unis et 1'Union Sovietique, Einstein encore, et Bertrand Russell, s'eleverent
centre la course aux armements, dans un appel qui fut prolonge par 1'action
du mouvement Pugwash anime par des savants atomistes. (L'« Appel Einstein-
Russell », est date du 11 avril 1955. Ce fut 1'un des derniers actes d'Einstein,
qui mourut le 18 du meme mois.)
Matiere subatomique 89

pacifique, elle fait 1'objet de recherches actives pour obtenir


la « fusion controlee » d'hydrogene en deuterium, tritium et
autres noyaux legers comme 1'helium. Cette fusion pourrait
etre une source inepuisable d'energie33.
Les modeles nucleaires que nous avons mentionnes
correspondaient a deux approches complementaires de la
complexite du noyau qui devaient continuer d'inspirer les
futures recherches des physiciens. La premiere s'attache
a 1'analyse globale du comportement de 1'ensemble des
nucleons, tandis que la seconde tente de deduire les proprie-
tes du noyau de la somme des comportements individuels
de chacun de ses composants. La connexion entre le mouve-
ment collectif et les mouvements individuels dans le noyau
atomique, etudiee experimentalement et theoriquement, per-
mit a Aage Bohr, Ben Mottelson et James Rainwater de rendre
compte de la deformation non-symetrique du noyau34.

De la spectroscopie nucleaire
a la physique des ions lourds
et a la notion de « matiere nucleaire »
Dans les annees 1950 et 1960, la spectroscopie nucleaire consti-
tua 1'axe principal des recherches en physique nucleaire.
Analogue a la spectroscopie atomique, dans laquelle les
niveaux d'energie d'un atome sont etablis en mesurant avec
precision 1'energie des photons emis lors d'une transition d'un
de ces niveaux a un autre, la spectroscopie nucleaire consiste a
determiner les ecarts d'energie entre les niveaux d'un noyau,
en realisant et en analysant le spectre des photons y ou d'autres
particules emis par ce noyau. Dans la spectroscopie par radio-
activite, on opere par irradiation de cibles suivies de separa-
tions chimiques et isotopiques et de la mesure des photons y
ou des particules issues de disintegrations radioactives d'iso-
topes identifies. Dans la spectroscopie par reactions nucleaires,
on observe en ligne des particules et des photons y issus
de la desexcitation des noyaux produits dans des collisions
nucleaires.

33
Dans ces reactions, ou la masse totale des produits est plus petite que la
masse initiale, la difference de masse se transforme en energie liberee.
34
Aage Bohr (1922-, fils de Niels), Ben Roy Mottelson (1926-) et L. James
Rainwater (1917-) regurent le prix Nobel de physique en 1975.
90 La physique du XXs siecle

D'autres domaines de recherche prirent une importance


grandissante, notamment a la faveur des accelerateurs de
noyaux, pour des energies plus elevees et des noyaux plus
lourds. La physique des energies intermediaries explorait, a
des energies d'environ 100 MeV, 1'interaction nucleon-nucleon
a courte portee, mettant en evidence sa structure en termes
d'echange de mesons virtuels (meson n et autres) ou encore
des excitations collectives du noyau ou la resonance A (pion-
nucleon) joue un role important. D'autre part, dans les annees
1970-80,1'exploration des noyaux par des sondes electroma-
gnetiques (diffusion d'electrons) permit d'etudier la distribu-
tion de charge d'un proton individuel (d'une couche externe)
dans des noyaux lourds; et, a des energies plus elevees, elle
permit d'explorer les proprietes du « confinement des quarks »
en dehors du regime de validite de la « chromodynamique
quantique » (qui concerne les tres hautes energies, ou les
quarks sont quasi-libres les uns par rapport aux autres, voir le
chapitre 7).
Un autre theme important de 1'etude des noyaux est celui
de ses interactions complexes, qui fit son apparition dans les
annees 1970. Elle fut realisee grace a des faisceaux de noyaux
legers polarises et surtout grace a la construction d'accelera-
teurs a ions lourds, ainsi qu'a la mise au point de detecteurs
fins appropries. Cette physique concerne : les deformations
des noyaux portes a des etats de haute excitation, en rotation
rapide et de moments angulaires eleves (etudies par spectro-
scopie y; 1'etude des phenomenes collectifs tels que les « reso-
nances geantes », vibrations mettant en jeu une grande partie,
voire la totalite, des nucleons d'un noyau; la viscosite de la
matiere nucleaire; la thermodynamique nucleaire; 1'influence,
au sein du noyau, de la structure des nucleons (protons et neu-
trons) en « quarks »(voir le chapitre 7); les transitions de phase
vers de nouveaux etats de matiere nucleaire.
La possibilite d'utiliser des faisceaux acceleres d'ions
lourds donnait acces a des niveaux nucleaires tres excites, et
augmentait les possibilites de synthese de nouveaux noyaux.
Elle prolongeait et multipliait ainsi ce qui avait ete obtenu aux
debuts avec la radioactivite artificielle. A partir des annees
1980, grace aux collisions d'ions lourds, il fut possible d'en-
visager la production de « noyaux exotiques » (des isotopes
remarquables, tres eloignes de la stabilite, obtenus par frag-
mentation d'ions lourds en collision) et de « noyaux super-
lourds » possedant des numeros atomiques tres eleves (au-
dela des elements transuraniens) et jusqu'alors inconnus de
Matiere subatomique 91

Encadr£ 6.3. Les modeles imcleaires


Les modeles nucleaires sont des representations phenomenologiques de la structure et du comportement
des noyaux atomiques pour rendre compte de certaines proprietes statiques ou dynamiques. Les trois
modeles principaux sont le modele en couche (statique), le modele de la goutte liquide et le modele du
noyau compose (dynamiques).
Le modele en couches repose sur I'hypothese d'une independence des nucleons (protons et neutrons)
dans un potentiel nucleaire moyen resultant de leurs interactions rnutuelles. Dans ce modele, les protons
et les neutrons sont repartis sur des couches ou niveaux (a 1'image des niveaux de 1'atome) selon leurs
etats d'energie, de moment angulaire et de parite, ce qui permet de rendre compte des proprietes
quantiques statiques des noyaux, ainsi que de leur stabilite relative. La stability est plus grande pour des
noyaux ayant des couches fermees de neutrons ou de protons, ce qui est le cas pour les valeurs dites
« nombres magiques ». Ce modele a etc" 1'objet de reconstitutions theoriques a partir de 1'interaction
quantique elementaire nucleon-nucleon, moyennant certaines approximations.
Les autres modeles, comme celui de la goutte liquide ou celui du noyau compose, visent a rendre compte
des phenomenes nucleaires dynamiques, qui mettent en jeu des mouvements collectifs des nucleons, tels
que les deformations des noyaux, les vibrations (resonances), les collisions tres inelastiques. Ces modeles
mettent en jeu des variables globales (comme la densite de nucleons, 1'elongation ou la deformation par
rapport a une sphere, 1'energie d'excitation moyenne qui revient a une sorte de temperature nucleaire),
dont ils suivent la variation temporelle. Le modele simple de la goutte d'eau fut propose par Bohr en
1938 pour rendre compte de la fission nucleaire. D'une maniere generate, le modele de la goutte liquide,
utilis^ pour decrire aussi bien la fission que la formation de resonances g^antes, decrit le noyau comme
une goutte liquide faite de fermions en interaction (de spin 1/2, soumis au principe d'exclusion de
Pauli), en faisant appel a des considerations de dynamique des fluides quantiques. Par exemple, dans
les collisions tres inelastiques entre noyaux, on considere la transformation de 1'energie cinetique en
energie d'excitation comme un freinage par viscosite nucleaire, et le transfer! de nucleons comme un
« courant de matiere » d'un noyau a 1'autre. Le modele du noyau compose suppose la formation dans le
noyau d'un etat intermediate qui se desexcite, et fait appel a un traitement thermodynamique. Au-dela
des modeles proprement dits, la theorie s'efforce de rendre compte de ces phenomenes dynamiques en
termes des interactions des nucleons elementaires.

la classification periodique. La table periodique des elements


s'etendait, en 1970, jusqu'a 1'element de numero atomique
Z = 105. Entre 1974 et 1996, a 1'Institut de recherches nu-
cleaires de Darmstadt (Allemagne), la recherche des elements
super-lourds aboutit a la decouverte successive des elements
de Z = 106 a Z = 112, tous instables. Les modeles nucleaires
prevoient des resurgences de stabilite pour des valeurs de
Z = 114 et 126 (quand les couches sont fermees, voir 1'enca-
dre 6.3) qui font 1'objet de recherches actives.
Les noyaux lourds comportent un nombre important de
niveaux d'energie resserres, et meme se chevauchant lorsque
les energies augmentent : la disparition des discontinuites
92 La physique du XXe siecle

(quantiques) permet de leur appliquer la mecanique statis-


tique et la thermodynamique classique, comme cela avait ete
le cas avec le modele de la goutte liquide. Cette analyse glo-
bale pour les phenomenes collectifs comme la fission ou la
formation de noyau compose, developpee initialement sous
1'impulsion des chimistes nucleaires, se generalisa en une
« macrophysique nucleaire », resultant de 1'etude de collisions
d'energie elevee entre deux noyaux complexes, cible et pro-
jectile, obtenues a 1'aide de faisceaux d'ions lourds. Le noyau
apparait de plus en plus comme un objet quantique d'un genre
tres particulier (fort different de 1'atome) alors qu'il avait ete
initialement pense dans le prolongement de celui d'atome,
avec ses niveaux discrets d'energie et ses nucleons au com-
portement essentiellement individuel. C'est un objet defor-
mable et visqueux, siege de phenomenes propres, qui vont
des proprietes fondamentales de 1'interaction forte entre des
particules quantiques individualisees a des proprietes collec-
tives complexes. L'etude de toutes ces proprietes requiert la
conjonction des points de vue de la theorie quantique, de la
thermodynamique et de la mecanique statistique. II faut rajou-
ter le point de vue de 1'astrophysique, si Ton pense aux objets
nucleaires celestes que sont les etoiles a neutrons. Le concept
de noyau fait place, en quelque sorte a un autre concept, moins
restrictif et plus complexe, mais aussi peut-etre plus unifie :
celui de matiere nucleaire.
Cette matiere nucleaire presente, en fonction de sa den-
site et de sa temperature nucleaire (dans le sens d'une ther-
modynamique), deux situations de transitions de phases. La
premiere est analogue a la transition liquide-vapeur : c'est la
multifragmentation, ou 1'energie deposee dans le noyau ato-
mique « de fusion » est telle que ce noyau perd son identite
en se volatilisant en de multiples fragments faits des nucleons
qui le composent, emis simultanement. De premiers indices
en ont ete mis en evidence vers 1995.
La seconde transition de phase egalement possible est at-
tendue a energie beaucoup plus elevee : elle fait passer d'un
etat de « confinement des quarks » dans leurs nucleons vers
un « plasma des quarks et des gluons ». C'est un nouvel etat de la
matiere de tres haute densite ou les frontieres entre nucleons
n'ont plus cours. En effet, ces derniers perdent leur identite
en fusionnant dans une sorte de « plasma » des quarks et des
gluons qui les constituent. La theorie des interactions fortes
entre les quarks, appelee chromodynamique quantique indique
la possibilite que de tels etats se produisent dans une matiere
hadronique extremement comprimee et portee a une haute
Matiere subatomique 93

valeur de la densite. Les constituants de chaque nucleon du


noyau (les quarks et les gluons), jusque-la confines a 1'interieur
du volume du nucleon, sont alors decouples les uns des autres
et liberes a 1'interieur du volume du noyau tout entier, por-
tant leurs « charges » de 1'interaction forte, dites « charges de
couleur ».
Le processus est assez analogue a la formation d'un plasma
d'ions et d'electrons dans un gaz d'atomes portes a haute tem-
perature a 1'interieur d'un volume confine (ce « quatrieme etat
de la matiere », au-dela de 1'etat gazeux), a ceci pres qu'il est
gouverne par 1'interaction forte et non par 1'interaction elec-
tromagnetique. Une telle transformation d'etat, qui s'effectue
pendant la duree tres breve de la compression par collision
(de 1'ordre de 10~22 s), correspond a une transition de phase
de la matiere nucleaire ordinaire a un plasma de quarks et
de gluons portant librement leur charge « de couleur ». Si
la duree du changement d'etat est trop petite pour que Ton
puisse esperer 1'observer directement, on peut cependant le
detecter par ses consequences, en 1'occurrence par 1'etude des
produits des reactions induites, suffisamment caracteristiques
et identifiables35. De tels etats de plasmas de quarks et de
gluons ont ete effectivement observes a 1'aide de collisions
d'ions lourds « ultra-relativistes » animes d'energies au moins
egales a 100 GeV par nucleon36.
L'etude des plasmas de quarks et de gluons permettrait
de connaitre le comportement des quarks a 1'etat libre (on
ne les connait actuellement que confines dans les hadrons).
Elle presente aussi un interet du point de vue de 1'astrophy-
sique puisque de tels plasmas pourraient etre presents dans
des etoiles a neutrons, se produire lors de 1'effondrement de
supernovae, ou encore avoir ete 1'etat de la matiere de 1'Uni-
vers au temps t = 10~5 seconde de la cosmogenese.
Ce phenomene, le plasma de quarks et de gluons (que 1'on
pourrait appeler « plasma de couleur » au sens de 1'interac-
tion nucleaire forte), nous montre que la physique des parti-
cules et des champs rejoint d'une fac,on tres etroite la physique
nucleaire. Nous avons vu qu'elles ont toujours ete intimement

35
Ces caracteristiques tiennent a la difference de comportement des quarks
confines et non-confines: le second cas favoriserait la production de particules
etranges, en raison de mecanismes qu'il ne nous est pas possible de detailler
dans le cadre de cet ouvrage.
36
La densite d'un plasma obtenu avec un faisceau de noyaux d'oxygene ou
de soufre acceleres a 200 GeV par nucleon est de 2,5 GeV/fermi3, soit 20 fois
superieure a la densite de la matiere nucleaire ordinaire (0,15 GeV/fermi3),
correspondant a une temperature de 2 x 1012 °C.
94 La physique du XXe siecle

reliees 1'une a 1'autre malgre des specialisations episodiques.


Le chapitre suivant, qui traite surtout de la physique des parti-
cules, n'est separe de celui-ci que pour des raisons de volume
et de commodite de 1'exposition. Nous avons du deja presenter
ou au moins utiliser a differents endroits certains des concepts
et des resultats qui y sont traites.
Chapitre 7

Matiere subatomique
2. Les champs fondamentaux
et leurs sources

Dans les annees 1930, la physique nucleaire (alors a ses de-


buts) et la physique des particules (s'annongant peu apres)
avaient montre que les interactions fondamentales, a ce niveau
d'organisation de la matiere, se ramenent a trois types de dy-
namiques differentes.

Les trois champs fondamentaux


d'interaction de la matiere nucleaire
En matiere d'introduction sur ce sujet, il faut rappeler que
chaque champ d'interaction fondamentale de la matiere est
caracterise, d'une part par une « constante » caracteristique
appelee « constante de couplage »(comme la constante de gra-
vitation G dans la theorie de la gravitation) et d'autre part, par
une « dynamique » propre exprimee par une « fonction lagran-
gienne » specifique. Dans 1'exemple de la theorie newtonienne
de la gravitation, la dynamique donne 1'expression de la force
comme proportionnelle au produit des masses en presence et
inversement proportionnelle au carre de leur distance, la fa-
meuse loi de Newton de 1'attraction universelle : F - GmM/d2.
La theorie de la relativite generale d'Einstein transforme cette
loi, en modifiant la fonction lagrangienne du champ de gra-
vitation mais en gardant la constante de couplage G. C'est
en raison de la faible valeur de la constante de gravitation
que le champ de gravitation est negligeable dans le domaine
des particules elementaires aux niveaux d'energies que nous
avons considered jusqu'ici. Nous verrons qu'il y a un domaine
d'energie, tres eloigne de notre atteinte, ou elle doit etre prise
en consideration (voir le chapitre 11).
Dans 1'ordre chronologique, la premiere interaction fon-
damentale connue des le niveau atomique est ^interaction
electromagnetique. C'est la theorie quantique de ce champ
96 La physique du XXe siecle

d'interaction qui suscita la formulation d'une « theorie quan-


tique des champs » dont les premieres approches furent
cone, ties des les annees 1927-33. La formulation reellement
satisfaisante, comme « electrodynamique quantique », en fut ob-
tenue en 1947, par Richard P. Feynmann, Julian Schwinger,
Shinishiro Tomonaga, Juan Jose Giambiaggi1. En particulier,
une procedure mathematique dite de « renormalisation », dont
nous reparlerons plus loin, permettait de retrouver les va-
leurs physiques, connues avec precision, de grandeurs telles
que la masse et la charge. Cette theorie permit d'expliquer
1'effet Lamb2 et, par la suite, toutes les proprietes electroma-
gnetiques des particules chargees pouvant etre considerees
comme ponctuelles, c'est-a-dire sans structure ou extension
spatiale assignable, comme 1'electron, auquel se sont adjoints
depuis d'autres leptons charges (le muon et le lepton lourd T)
et les quarks. De fait, 1'electrodynamique quantique fournit le
test assurant que ces particules sont ponctuelles : 1'extreme
precision experimental et theorique dont on dispose actuel-
lement pour leur resolution spatiale permet de leur assigner
une dimension inferieure a 10~18 cm.
Les forces nucleaires de cohesion des noyaux, indepen-
dantes de la charge electrique, faisaient intervenir une autre
dynamique, celle de Y interaction nudeaire forte, tres intense, et
dont la portee ne depassait pas la dimension des noyaux. La
theorie du meson de Yukawa en fut une premiere approche.
La plupart des nombreuses particules elementaires identifiees
a partir de la decouverte du meson sont soumises a 1'interac-
tion forte : on les appelle « hadrons ». Dans la classification des
particules, elles se rangent en mesons (qui sont des bosons, de
spin entier) et en baryons (qui sont des fermions, de spin demi-
entier3), et sont identifiees par leurs nombres quantiques (voir
1'encadre 7.1).

1
Richard P. Feynman (1918-1988), Julian Schwinger (1918-1994), physiciens
americains et Shinishiro Tomonaga (1906-1979), physicien japonais, rec,urent
tous les trois le prix Nobel de physique en 1965. Juan Jose Giambiaggi (1924-
1996), physicien argentin installe au Bresil.
2
De Willis Eugen Lamb (1913-), physicien americain, prix Nobel de physique
en 1955. L'effet Lamb est un deplacement des raies de structure fine des
electrons atomiques (pour 1'atorne d'hydrogene) du a la « polarisation du
vide ». II est du a la presence de paires virtuelles electron-positon autour de
1'electron nu (voir plus loin), dont rend compte la theorie de la renormalisation
en electrodynamique quantique. Les deux niveaux de structure fine 22Si/2
et 2 2 Pj/2, qui devraient corncider selon 1'equation de Dirac, sont distincts
parce que la correction de renormalisation est relativement importante pour
le niveau S.
3
En unites de H. Sur les bosons et les fermions, voir le chapitre 3.
Matiere subatomique 97

Encadre 7.1. Les particules elementaires


1. Les particules elementaires a interactions fortes ou hadrons composites : baryons, stables, me"ta~
stables et resonnants (nucleons, hyperons, baryons charmes, baryons de saveurs b et t), mesons: mesons
scalaires (n, etranges K, d'autres saveurs), mesons vecteurs.
Ces particules sont formees de quarks constituants (ou de valence).

2. Les fermions elementaires sources des champs fondamentaux. L'ensemble des particules de la ma-
tiere, a 1'exception des bosons quanta d'echanges des champs fondamentaux (traites separement), est
ramene a des constituants elementaires ponctuels, les leptons et les quarks, qui sont des fermions elemen-
taires, sources et capteurs des champs fondamentaux d'interactton.
ies quarks : soit (u, d), (c, s), (b, t};
les leptons : (e~, ve), (ju~, v^), (T~, VT).
II existe une symetrie des quarks et des leptons : (e~, ve) est associe a (u, d), (fT, v^) a (c, s) et (i~, V T )
a(b,t).

Fermions
Quarks c(+2/3) t (+2/3)
up (haut) charm top (dessus)
s (-1/3)
down (bas) etrange bottom (fond)
Leptons charges
electron muon tauon
Leptons neutres ve (0) vp (0) VT (0)
neutrins electronique neutrins muonique neutrins tanique

(la charge des particules est indiquee entre parentheses)

3. Les quanta des champs d'interaction. Les champs d'interaction agissent selon la theorie quantique
des champs a travers 1'echange de leurs quanta ou bosons intermediaires virtuels entre les fermions
ponctuels, qui propagent le champ d'un fermion a un autre. Ces bosons sont: le photon pour le champ
electromagnetique, les trois bosons intermediaires (deux charges W et un neutre Z°) pour le champ faible,
et huit gluons distincts par leurs « charges de couleur » pour le champ d'interaction forte. On peut ajouter
& cet ensemble le quatrieme champ, le champ gravitationriel, dont le boson d'echange est le graviton
(de spin 2).

Interaction fondamentales Mfdiateurs des forces (messagers)


Interactions ^lectromagnetiques photon, y
Interactions faibles bosons uiiierrnediiaires, W+, W~, Z°
Interactions fortes 8 gluons, gtj, transmetteurs du nombre quantique
de « couleur »(f, / *= Ir3).
Gravitation graviton, gy, elle intervjent pour toute particule ayant une masse
98 La physique du XXe siecle

Figure 7.1. Diagrammes


d'echange des interactions
fondamentales.

La desintegration radioactive ft des noyaux (processus qui


est aussi celui de nombreuses particules elementaires, comme
le meson n, le muon, les « particules etranges », etc.) ne se
laissait ramener ni a un processus electromagnetique ni a
une interaction nucleaire forte. Elle constituait un troisieme
type de la dynamique d'interaction de la matiere elementaire,
I'interaction faible (ainsi denomme en raison de sa faible inten-
site, ou probabilite, par comparaison aux deux autres), dont
la theorie de Fermi fournit pendant 25 ans une approximation
feconde. La decouverte, en 1957, de la « non-conservation de
la parite »4, qui est une dissymetrie en miroir entre les orien-
tations vers la gauche et vers la droite, dans la desintegration
j8 (comme d'une maniere generale dans les desintegrations de
particules selon le mode faible) suscita une modification de
la theorie. II fallait introduire dans la fonction lagrangienne
des termes qui ne conservaient pas la parite : finalement, les
ajustements avec les resultats experimentaux obligeaient a re-
tenir des termes de type vecteur et pseudo-vecteur, c'est-a-
dire une « interaction V-A ». L'interference de ces termes etait
responsable de la non-conservation de la parite. Mais la theo-
rie de Fermi, ainsi adaptee, restait toujours valable dans sa
structure (voir la figure 7.1). Plus tard, la theorie de jauge
des interactions faibles qui la remplaga continua de 1'admettre
4
Formulee par Tsung Dao Lee (1926-) et Chen Ning Yang (1922-), elle fut
verifiee experimentalement par Mme Chien Shiung Wu (1912-1997). Tous
trois nes en Chine, ils menerent leurs recherches aux Etats-Unis. Lee et Yang
recurent le prix Nobel de physique 1957. La parite est un operateur quantique
(P) de symetrie spatiale en miroir qui agit sur les etats de particules, soit en
les conservant inchanges, soit en les inversant comme dans un miroir.
Matiere subatomique 99

comme une approximation valide dans le domaine des basses


energies.

Neutrinos et antineutrinos
La theorie de Fermi s'appuyait sur 1'hypothese du neutrino,
associe a 1'electron emis dans une disintegration (suivant la re-
action n —> p+e~ +v, ou le symbole v designe un neutrino); plus
tard, il serait specific qu'il s'agit d'un antineutrino du genre
electronique, ve. L'existence physique du neutrino fut demon-
tree, en 1953-56, par Frederick Reines (1918-1998) et Clyde
L. Cowan (1919-1974) qui detecterent des reactions induites
directement sur la matiere nucleaire par des antineutrinos pro-
duits dans un reacteur nucleaire. De telles reactions sont des
reactions inverses de la disintegration fi-.v^ + n —> p + e~ pour
les processus elementaires (le neutron touche etant lie a 1'inte-
rieur d'un noyau), ou pour les processus effectifs sur noyaux :
n>z X -^- + z + i X )-
Pour comprendre le rapport entre neutrinos et antineutri-
nos, il nous faut indiquer quels sont les concepts et les gran-
deurs specifiques aux leptons. Nous anticipons quelque peu
du point de vue historique sur la suite car ils n'ont ete « de-
brouilles » qu'au fur et a mesure des progres de la connais-
sance de ces particules; une fois bien etablis, ils ont permis
d'acquerir, en fin de parcours, une vue claire et simplifiee des
phenomenes auxquels ils participent, dont 1'expose peut be-
neficier. Les antineutrinos sont les « conjugues de charge »
ou antiparticules des neutrinos (comme les positons le sont
pour les electrons) selon une acception generate de la notion
de conjugaison de charge (represented par un operateur quan-
tique, C) qui considere d'autres types de « charges » en plus
des charges electriques. II s'agit, en 1'occurrence, de « charges
leptoniques » (ou « nombres leptoniques ») attribuees aux di-
verses families que Ton peut former sur les leptons : electrons,
positons, muons, neutrinos, et plus tard leptons lourds.
Le neutrino de la desintegration ft est associe a 1'electron
de charge electrique negative : tous deux possedent le meme
« nombre leptonique d'electron » (par convention, le - +1) et
forment, par rapport a celui-ci, et en negligeant a ce stade les
differences de masses, un doublet de charge electrique (un
etat charge, 1'electron e~ et un etat neutre, le neutrino ve).
Le doublet d'antiparticules correspondant est celui forme
par le positon (e+] et 1'antineutrino de 1'electron (ve). Son
nombre leptonique electronique associe est 1'oppose du
100 La physique du XXe siecle

precedent : le = -1. La conservation du nombre leptonique


d'electron, supposee etre respectee a une bonne approxima-
tion pres par les reactions qui nous occupent, indique que le
neutrino associe a remission d'un electron dans la disintegra-
tion j8 doit etre un antineutrino.
Un second type de neutrino, associe au lepton fi (ou muon),
fut mis en evidence en 1962 (avec un « nombre leptonique
d'electron » nul mais un « nombre leptonique de muon »
/^ = +1, on lui associe Tantineutrino correspondant avec
lp = -1). Un troisieme type de lepton, le lepton lourd T de-
couvert en 19775, est desormais considere de meme comme
associe a un troisieme neutrino de son espece, les deux for-
mant un doublet du « nombre leptonique de tauon », /T = -1.
L'ensemble de ces neutrinos (ve, v^, V T ) et des particules char-
gees correspondantes (e, \i, T) constitue la famille des leptons :
ils sont organises en trois doublets de charges leptoniques
distinctes (e~,ve), (\r,v^), (T~,V T ), auxquels il faut ajouter les
doublets d'antileptons correspondants (ve,e+), etc. Les neutri-
nos ne sont sujets qu'aux interactions faibles tandis que les
leptons charges sont sensibles aux interactions electromagne-
tiques et faibles. Sans extension spatiale decelable, ce sont des
particules ponctuelles, comme indique precedemment.

Champs quantifies et renormalisation


Revenons, apres cet intermede, aux champs d'interaction. Au
debut, seule Velectrodynamique put etre traitee de maniere sa-
tisfaisante par la theorie quantique du champ (voir le cha-
pitre 3) en conjuguant les idees directrices de la theorie de
Maxwell (dans sa formulation relativiste) et la theorie de 1'elec-
tron de Dirac. Les raisons de cette limitation etaient, pour
1'essentiel, les suivantes. Tout d'abord, la valeur de 1'inten-
site du champ electromagnetique, exprimee notamment par
sa « constante de couplage » (« constante de structure fine »6),
est petite devant Tunite et permet des calculs de perturbation
par developpement en serie7: ces developpements convergent
5
Frederick Reines (1918-1998), recut le prix Nobel de physique en 1995, par-
tage avec Martin Perl (1927-), qui decouvrit le lepton lourd (T). Leon Lederman
(1922-), Mel Schwartz (1932-) et Jack Steinberger (1921-) partagerent le prix
Nobel de 1988 pour la mise en evidence du second neutrino (v^). Clyde L.
Cowan Jr (1919-1974). Tous sont des physiciens americains.
6
Cette constante sans dimension a pour valeur a = e2/Hc = 1/137 (e est
1'unite de charge electrique, H la constante de Planck divisee par 2n).
7
Un developpement en serie correspond a une somme de termes qui sont
proportionnels a des puissances successives du parametre choisi, a, soit a2,
Matiere subatomique 101

au bout de quelques termes (les termes successifs, etant des


puissances de la constante de couplage, deviennent rapide-
ment negligeables). Ensuite, la nature du « quantum » ou
particule propagatrice de 1'interaction n'est autre que le pho-
ton dont la masse est nulle; il en resulte une propriete fon-
damentale du champ electromagnetique, son invariance par
« transformation de jauge » (voir 1'encadre 7.5) qui permet
d'effectuer des changements de variables par lesquels, sans
changer 1'interaction, il est possible de soustraire les termes
indesirables qui iraient a 1'infini. Cette procedure est la « re-
normalisation ». Elle permet de retrouver les grandeurs phy-
siques effectives (connues par des mesures experimentales de
grande precision) d'une particule « ponctuelle » associee a un
champ electromagnetique, comme la masse et la charge elec-
trique de 1'electron. Celles-ci, calculees pour la particule ponc-
tuelle « nue », seraient infinies. Le champ electromagnetique
habille, pour ainsi dire, 1'electron nu sans extension spatiale
avec des photons et des paires d'electron-positons virtuels8,
qui octroient les valeurs physiques effectives de ces grandeurs
calculees grace a la procedure de renormalisation. Autrement
dit, une particule quantique ponctuelle ne se congoit physi-
quement qu'« habillee » de son champ.
Les proprietes des deux autres types d'interactions (forte
et faible) empecherent longtemps de concevoir qu'elles pour-
raient etre traitees theoriquement d'une maniere semblable.
Pour 1'interaction forte, c'etait en raison de la grandeur de sa
« constante de couplage »(de 1'ordre de 1'unite) qui ne permet-
tait pas d'esperer un developpement en serie limite. Quant a
1'interaction faible, malgre la petitesse de sa constante de cou-
plage en raison de son caractere ponctuel ou quasi-ponctuel, il
aurait fallu supposer un quantum transmetteur du champ (un
« boson intermediate faible ») de masse trop elevee pour auto-
riser la renormalisation (celle-ci demandait un boson de masse
nulle, comme le photon pour 1'interaction electromagnetique).
Chacune de son cote, ces deux dynamiques, fort differentes,
des interactions entre particules nucleaires ou elementaires,

a3,..., a", etc. Ces termes sont de plus en plus petits, et on peut les negliger a
partir d'un certain rang, avec une tres bonne approximation.
8
Us correspondent a des diagrammes d'echange de particules virtuelles
aux differents ordres du developpement en serie de perturbation : un pho-
ton echange au premier ordre, deux au second ordre, etc. Parmi les tests
« classiques » de 1'electrodynamique quantique et de la renormalisation, men-
tionnons Yeffet Lamb et le moment magnetique « anormal » de 1'electron. Les
valeurs mesurees experimentalement correspondent remarquablement aux
calculs, pousses a des ordres eleves du developpement en serie.
102 La physique du XXe siecle

furent 1'objet d'etudes experimentales et theoriques de nature


« phenomenologique » qui enrichirent la connaissance des
proprietes des particules elementaires.
A partir des annees 1970, les deux champs d'interaction,
d'abord le champ faible, puis le champ fort, se trouverent
integres dans une nouvelle perspective theorique qui auto-
risait leur traitement par la theorie quantique des champs.
Cela fut rendu possible a la suite des travaux sur les champs
« a symetrie de jauge » (mais une autre sorte de jauge qu'en
electrodynamique, la « jauge non-abelienne ») d'une part et,
d'autre part, de la reduction des particules a interactions fortes
en constituants plus simples, les quarks, ce qui modifiait la
forme de leur champ d'interaction.

Multiplication et reduction
des « hadrons » aux quarks
L'un des premiers resultats d'importance fondamentale
obtenus aupres du premier accelerateur de particules elemen-
taires, le Bevatron de Berkeley (d'une energie de 6 GeV), fut
la production et la detection de Vantiproton, antiparticule du
proton, en 1955, par Emilio Segre et Owen Chamberlain9. Ce
resultat, qui demandait une energie elevee (dans des collisions
de protons sur noyaux, il fallait produire une paire de proton-
antiproton, soit une energie de masse d'environ 2 GeV), confir-
mait la prediction de la theorie de Dirac qu'a toute particule
est associee une antiparticule, le proton ne faisant pas excep-
tion. Le proton, outre sa charge electrique positive, doit etre
considere comme porteur d'une charge « baryonique » (prise
egale a +1), dont la conservation totale dans 1'Univers assure
la stabilite de la matiere; 1'antiproton (conjugue de charge du
proton) est caracterise par une charge electrique negative et
un nombre baryonique negatif (voir 1'encadre 7.3). On pouvait
aussi prevoir qu'a tout noyau (le proton n'etant que le plus
simple des noyaux atomiques, celui de 1'atome d'hydrogene)
il peut correspondre dans 1'univers un anti-noyau (quelques-
uns parmi les plus legers ont pu etre produits plus tard en
accelerateurs ou observes dans le rayonnement cosmique) et
qu'il peut exister en principe des anti-atomes (anti-noyaux
9
Emilio Segre (1905-1989), physicien italo-americain, avait auparavant etu-
die le bombardement de noyaux lourds par des neutrons, et determine les
proprietes des neutrons lents, permettant le fonctionnement des reacteurs
nucleaires a fission controlee. Owen Chamberlain (1920-), physicien ameri-
cain. Tous deux partagerent le prix Nobel de physique en 1959.
Matiere subatomique 103

entoures de positons), exacts symetriques par conjugaison de


charge des atomes (avec des niveaux d'energie identiques).
La multiplication des particules elementaires qui se pro-
duisit a partir des annees 1950, d'abord a la faveur de 1'etude
du rayonnement cosmique, ensuite par les recherches aupres
des grands accelerateurs, concernait pour 1'essentiel les par-
ticules sensibles a 1'interaction forte (exceptes les leptons),
directement produites a partir de la matiere nucleaire. Ces
particules ont rec,u par la suite la denomination generique
de « hadrons » (notion introduite en 1962 par L. Okun pour
designer toute particule soumise a 1'interaction forte). Apres
I'identification des mesons n, les annees 1950 virent la decou-
verte d'un nouveau genre de particules, produites en paires
dans les interactions nucleaires fortes. Elles furent d'abord
appelees « particules V » a cause de la forme de leurs traces
dans les emulsions photographiques nucleaires (chambres de
Wilson et chambres a bulles), puis rangees dans la categoric
des « particules etranges », que 1'on put caracteriser par un
nombre quantique specifique ramene a une « hypercharge »,
l'« etrangete » (voir 1'encadre 7.3).
Des particules d'un autre type, denommees « resonances »,
apparurent egalement (les premiers A, de spin 3/2, a quatre
etats de charge et done d'isospin 3/2, furent observes en 1952).
Elles se presentaient comme des etats excites du nucleon,
proton ou neutron (N*2, de spin 1/2, A, de spin 3/2, et de
masses invariantes plus elevees), sous forme de « resonances »
de nucleons avec des mesons n et se desintegrant au bout d'un
temps extremement court en ces constituants (par exemple,
A++, etat resonnant pnn). Elles etaient identifiers comme telles
par la presence de pics dans la distribution de masses inva-
riantes calculees a partir des particules resultantes observees
(voir 1'encadre 7.2). Ces masses invariantes correspondaient
en fait a des etats caracterises par un ensemble de nombres
quantiques bien determines (charge, spin, isospin, parite, etc.)
qui permettaient d'y voir des particules comme les autres.
Elles n'en differaient que par leur tres courte duree de vie due
a la disintegration par voie forte.
L'exploration de la structure nucleaire par la production
de particules et de resonances avait debute, dans les annees
1950, avec 1'etude des mesons n, des particules etranges et
des premieres « resonances » baryoniques produites a 1'aide
d'accelerateurs de particules d'energies de 1'ordre de 3 a
10 GeV. La montee en energie des accelerateurs, qui attei-
gnaient dans les annees 1960 des energies de 30 a 70 GeV, per-
mit la mise en evidence, par leur production et leur detection,
104 La physique du XXe siecle

Encadre 7.2. Masses invariantes et resonances,«largeurs de masse » et durees de vie


On appelle « masse invariante » une quantite formee sur les parametres cinematiques des particules
observees par leurs traces, comme bilan des conservations de 1'energie et de 1'impulsion. Son carre
est donn£ par : M2 = £2 - p2 (en unites telles que c = 1; en unites ordinaires, la formule exacte est:
M2c4 = E2 — p2c2). Cette quantite est invariante (au sens de la relativitl restreinte, par rapport aux
changements de referentiels) et a la signification physique d'une masse.
Pour des reactions ordinaires, sa distribution presente un spectre continu. L'accumulation pour
des valeurs donne'es (soit M, avec une « largeur », F) indique gene"ralement une « resonance », c'est-
a-dire la presence d'un etat intermediate « metastable » entre la reaction de production initiate et la
disintegration finale. S'il s'agit effectivement d'une resonance, elle sera egalement caracterisee, outre sa
masse, par des « nombres quantiques » de spin definis, dont les valeurs s'obtiennent egalement a partir
des particules correspondant a la « resonance », c'est-a-dire issues de la disintegration de la resonance.
La « largeur » de la resonance, F, est liee a sa duree de vie, T, par la relation FT = H, dont le sens
physique est donne par la « quatrieme relation de Heisenberg » entre le temps et 1'energie : FT > H,
On peut considerer que 1'etat existe comme particule de masse definie (M T) (c'est-a-dire de masse
M definie a T pres) pendant une duree qui ne depasse pas t (T < ft/T). On exprime souvent une telle
condition en termes de possibility d'observation: il est possible d'observer 1'etat considere comme une
particule de masse de'finie (M F) a condition de le faire pendant un temps T inferieur k h/T). Mais
elle peut aussi etre formulee en termes « objectifs » comme nous 1'avons fait. (Les masses et les largeurs
sont exprimees ici en unites d'energie, ce qui revient a prendre un systeme d'unites ou la Vitesse de la
lumiere c est egale a 1 (puisque M = E/c2).)
En fait, les « resonances » sont des etats de particules qui se desintegrent par voie forte/ alors
que les particules au sens courant (plus etroites en masses) sont soit stables, soit instables mais par
desintegration electromagn^tique ou faible. Le type d'interaction par lequel s'effectue la desintegration
donne directement la probabilite de celle-ci, done sa duree de vie. Elle est plus probable si c'est par
interaction forte (pour peu que cette voie soit permise, c'est-a-dire que les lois de conservations sont
respectees), et la duree de vie est alors plus petite (de 1'ordre de ICT^-IO"23 s). Elle est moins probable
par interaction electromagnetique (dur£e de vie de 1'ordre de 10~16 s, pour le meson n°); et encore moins
probable par interaction faible (les durees de vie les plus courantes y vont de quelques minutes, pour le
neutron, a 10~6 s, pour le muon, ou 10~10 s, pour les mesons n charges, ou 10~13 s environ, pour certaines
« particules charmees »). La duree de vie depend non seulement de 1'intensite du champ, mais de la
cin£matique de la reaction, li£e £ 1'energie et a 1'impulsion disponible, et done a la difference entre les
masses de la particule initiale et des particules finales.
Les considerations sur le rapport entre la « largeur » de la masse et le temps de vie d'une resonance
pourraient egalement etre faites pour des particules moins instables, ou meme stables, de masse bien
definies. A la limite, leur dur^e de vie peut etre infinie (particules absolument stables) quand leur
«largeur de masse » est nulle (particules de masse exactement definie).
Le type de champ d'interaction qui gouverne une desintegration est determine par le regime des
lois de conservation que le processus peut suivre. Si la reaction de desintegration consideree respecte
les lois de conservation caracterisant 1'interaction forte (la plus contraignante a cet egard), cette reaction
pourra avoir lieu par cette voie/ et la particule sera done du type d'une resonance. Sinon, elle ne pourra
se d^sintegrer que par voie electromagnetique et faible. Si la premiere n'est pas non plus possible, elle
se desintegrera seulement par voie faible, ou encore, si celle-ci est egalement interdite, la particule sera
stable (comme le sont, jusqu'a nouvel ordre, 1'electron et le proton).
Matiere subatomique 105

d'un grand nombre de particules nouvelles : resonances


hadroniques et autres particules, tant baryoniques (se desin-
tegrant avec un nucleon dans 1'etat final) que mesoniques,
etranges et non-etranges. Les premieres resonances meso-
niques (p, CL>, 7}) furent produites et identifiees en 1961. Les pre-
miers mesons etranges (mesons K, charges et neutres), apparus
avec les « particules V » des les annees 1950, avaient ete a 1'ori-
gine de 1'idee de non-conservation de la parite emise par Lee
et Yang comme solution d'une difficulte, l'« enigme, ou puzzle
T - 6 »10.
Le nombre de particules dites elementaires monta ainsi a
plusieurs centaines11. La plethore des resonances12 se rame-
nait souvent a des etats excites des hadrons (baryons et me-
sons) deja connus. Les particules instables se desintegrent en
d'autres, de masses moins elevees, par voie forte, electroma-
gnetique ou faible. On etudia de maniere systematique leurs
proprietes intrinseques comme leurs masses et leurs « lar-
geurs », leurs durees de vie, leurs spins, leurs isospins (lies a
la multiplicite de leurs etats de charge), leurs modes de dis-
integration, ainsi que les caracteristiques de leurs interactions
(sections efficaces, distributions angulaires, etc.).
Cette « spectroscopie » des particules a interactions fortes
(ou « hadrons ») fut 1'un des chapitres les plus riches de la
periode. Le foisonnement des particules hadroniques s'avera
tempere par des regularites qui permettaient de les mettre en
ordre, d'en etablir une classification et de reduire le nombre
des constituants elementaires. La classification des hadrons
par la symetrie unitaire SL/3, proposee en 1961 par Murray

10
T et 6 designaient alors respectivement deux modes de disintegration
(faible) de parites opposees du meson K+ produit en association avec un
baryon etrange A ou E : 1'un a 2 mesons n, de parite P - +1,1'autre a 3 mesons
n, de parite P = -1. La non-conservation de la parite dans 1'interaction faible
expliquait que les deux disintegrations soient possibles pour une seule et
meme particule.
11
Ces nouvelles resonances comprennent des etats avec particules etranges,
tant baryoniques que mesoniques.
12
II n'y a pas de difference fondamentale entre une resonance et une particule
instable puisque les trois champs d'interaction sont sur un pied d'egalite. En
effet, pour la premiere, la disintegration par voie forte est permise alors qu'elle
est interdite pour la seconde, qui se desintegre selon les voies autorisees par
les regies de selection dues aux lois de conservation (voie electromagnetique
ou faible). Elles ne different done que par la grande largeur T associee a la
masse M d'une resonance, inverse de sa courte duree de vie T (Ti = H).
L'inverse de la duree de vie, ou probabilite de disintegration, est, comme la
« section efficace » pour les collisions, a la mesure de 1'intensite du champ
d'interaction.
106 La physique du XXe siecle

Gell-Mann, Yuval Ne'eman et K. Nishijima13, regroupait des


hadrons de memes nombres quantiques (et de masses voi-
sines) en multiplets d'isospin et d'hypercharge, et en faisait
des representations d'un groupe de symetrie unitaire dans
1'espace de ces grandeurs. Outre sa capacite a bien rendre
compte des proprietes des particules a interactions fortes alors
connues (notamment par une formule dormant des relations
de masses entre les etats d'un multiplet donne14), cette theo-
rie possedait une valeur predictive immediate : elle predisait
1'existence d'un baryon supplementaire dans la famille des
particules connues de spin-parite 3/2+ a laquelle appartenait
la resonance A. En effet, elle exigeait un multiplet de dix etats
dont seulement neuf etaient connus. Elle affectait a la dixieme
particule requise une charge electrique negative, une hyper-
charge Y = —2 (soit une etrangete S = —3) et une masse de
1680 MeV, et une disintegration par voie faible (duree de vie
relativement longue) (voir la figure 7.2). Denommee « grand
omega moins » (Q~), cette particule « manquante » dans la
classification fut decouverte experimentalement en 1964, par
sa detection en chambre a bulles au laboratoire americain de
Brookhaven, avec toutes les proprietes requises, ce qui consti-
tua un succes remarquable pour la theorie.
En 1962, Murray Gell-Mann et George Zweig, considerant
la representation la plus fondamentale du groupe SI/3 (a trois
etats: deux d'isospin, u et d, et un d'« etrangete », s, et le conju-
gue de charge) a partir de laquelle les representations des ba-
ryons et des mesons pouvaient etre construites, suggererent
que les etats de base correspondants, appeles « quarks »15
(soient deux triplets de « quarks » et d'« antiquarks ») pour-
raient etre considered comme les elements de base dont tous
les hadrons seraient constitues : uud pour le proton, udd pour
le neutron, et d'une maniere generale, cjiCj^k pour les baryons,

13
Murray Gell-Mann (1929-), physicien americain, rec.ut le prix Nobel de phy-
sique en 1969 (c'est lui qui avait propose, en 1954, le concept d'« etrangete »).
Yuval Ne'eman, physicien israelien et K. Nishijima, physicien japonais (ega-
lement introducteur de 1'idee d'« etrangete »). Cette theorie s'appela d'abord
la « voie octuple », a cause de la consideration de multiplets privilegies (ceux
des nucleons et des mesons).
14
Formule dite de Gell-Mann-Okubo.
15
La denomination de « quarks »fut proposee par M. Gell-Mann d'apres une
reminiscence litteraire de James Joyce, dans Finnegans Wake, « Three quarks
for muster Mark ». De son cote, G. Zweig proposait de les appeler « as » (en
anglais « aces »). C'est la premiere qui fut retenue. Le texte de Zweig resta
sous la forme d'un pretirage, et ne fut pas public en revue. II fut toutefois
suffisamment remarque pour rester une reference au meme titre que 1'article
de Gell-Mann.
Matiere subatomique 107

Figure 7.2. Representations des


groupes de symetrie unitaire
des particules elementaires SU2,
Sl/3, SU6, et leur representation
fondamentales en termes de
quarks. La symetrie SU2
concerne 1'axe de 1'isospin (73);
SU 3 ,leplan(/3,Y), Yetant
1'hypercharge; SU^, les trois
dimensions (/3, Y, C), C etant le
nombre quantique de
« charme ». La representation
des symetries SUs et SU&
demanderait de visualiser deux
dimensions supplemantaires
(b : bottom, et t : top).
Voir 1'encadre 7.4.
et ^y pour les mesons si Ton designe par ^, 1'un des quarks
et par q. 1'un des antiquarks. Ce modele formel etait com-
mode en ce qui concerne la representation de leurs grandeurs
quantiques caracteristiques. Rien ne 1'indiquait encore pour
leur constitution physique reelle, d'autant plus que ces quarks
devraient avoir une charge electrique fractionnaire (1/3 ou 2/3),
quand on ne connaissait jusqu'ici que des charges electriques
entieres16. Tel fut le « modele des quarks », dont les succes
marquerent les annees 1960 (voir 1'encadre 7.3 et la figure 7.2).
La spectroscopie et la classification des particules infra-
nucleaires elementaires s'accompagnerent de 1'etude de la
dynamique de leurs interactions et disintegrations, dont la
forme differe pour les interactions fortes, faibles ou electro-
magnetiques.
Un autre genre d'exploration de la structure des nucleons
(proton et neutron) fut effectue a 1'aide de sondes penetrantes
comme des electrons de grande energie. Robert Hofstadter put
obtenir ainsi, au laboratoire de Stanford (en Californie, Etats-
Unis), par des experiences de diffusion d'electrons sur des
noyaux et sur des protons, la repartition de la charge electrique
dans ces derniers en termes de « facteurs de forme »17. Au
cours des annees 1970, des experiences analogues furent faites
a 1'aide de faisceaux de muons et de faisceaux de neutrinos qui
16
En unite de charge electrique. Les quarks ont une charge baryonique 1/3.
II en faut toujours trois pour composer un baryon.
17
Robert Hofstadter (1915-1990), physicien americain, prix Nobel de phy-
sique en 1961. Les « facteurs de forme », exprimes en fonction de 1'impulsion
q transferee dans la reaction a la particule cible (plus exactement, d'un inva-
riant correspondant, q2), sont les transformees de Fourier (selon cette variable)
de la distribution spatiale de la charge electrique et du moment magnetique.
108 La physique du XXe siecle

Encadre 7.3. Nombre baryonique et hypercharge, etrangete et « saveurs » superieures


Un nombre (ou charge} baryonique B = +1 est attache a tout nucleon (proton, neutron), resonance de
nucleon et hyperon (baryons « etranges » ou d'autres « saveurs », encadre 7,1), et B = -1 a tout
anti-nucleon (ou resonance) et anti-hyperon. Le proton et le neutron sont ainsi caracterises par une
charge baryonique +1 ; 1'antiproton et 1'antineutron, par une charge baryonique -1 (1'antineutron a
aussi ete produit et observe). La conservation du nombre baryonique est additive comme celle de
la charge electrique. Un atome ou un noyau a done pour nombre baryonique son nombre de masse
(B * Z+N = A). Une paireproton-antiproton a un nombre baryonique nul(B+B = +1-1 = 0),commeles
mesons. Si le neutron libre peut se desintegrer en proton en raison de sa masse plus elevee, le proton ne
peut, jusqu'a nouvel ordre, se desintegrer en d'autres particules en raison de la conservation du nombre
baryonique (outre celle de 1'energie). A moins qu'il n'existe une force d'interaction ne conservant pas ce
dernier, comme le requierent certaines theories d'unification entre les interactions fortes et electrof aibles.
La limite inferieure de la duree de vie du proton, mesuree dans des experiences de haute precision,
est tres eleve'e (1032 annees, tres superieure a 1'age de FUnivers), ce qui infirme ies predictions de ces
theories en 1'etat actuel des choses.
L'« etrangete » (et sa variante l'« hypercharge ») est un nombre quantique (note S, et Y pour
1'hypercharge) affecte" a la famille des « particules etranges », pour rendre compte de leur production
associ4e en paires dans les interactions fortes, par sa conservation dans ces interactions et dans Ies
interactions electromagnetiques. L'« hypercharge » Y associe I'etrangete et le nombre baryonique selon
la formule : Y = B + S. II existe une relation entre la troisieme composante d'isospin (chapitre 6), la
charge electrique, et 1'hypercharge ou I'etrangete, qui joue un role dans la classification des hadrons de
la symetrie unitaire SUs (encadre 7,4). II s'agit de la formule de Klein-Nishijima :

L'etrangete n'est pas conserved dans les interactions faibles ou sa non-conservation suit cependant des
regies precises (par exemple, Af = AQ).
L'isospin et sa troisieme composante (1$, liee a la charge electrique) constituent les premieres ma-
nifestations des grandeurs quantiques generiques appelees plus tard « saveurs », quand de nouveaux
niveaux de la spectroscopie des hadrons firent leur apparition avec des masses elevees. II y eut d'abord
le « charme » (c) qui rendait compte de certains processus (relies a la question des « courants neutres »
de 1'interaction faible et a la d^couverte de la particule J/W, resonance etroite et de masse eleve'e). n y
eut ensuite les nombre quantiques b (bottom ou fond) et t (top ou dessus). Selon la theorie de la symetrie
unitaire SUs, etendue a SLTg, et la theorie des « quarks », chaque saveur est associee a un quark de la
representation unitaire du groupe de symetrie (encadre 7.4). II est admis aujourd'hui, pour des raisons
tant theoriques qu'exp^rimehtales, que le nombre de quarks est limite a 6.
Lexique des saveurs, Les termes utilises en fran^ais et transcrits (ou non) de 1'anglais sont : saveur
powc flavour, etrangei<epouT strangeness (s), charme pour charm (c), bottom (b), top (t), (Initialement, suivant
les variantes en usage, b et t e" talent associ^s a « beautiful », beaute, et a « truth », verite. Mais ces hearts
verbaux ont e^ corriges dans un sens plus neutre, comme les deux etats des quarks d'isospin baptises
up ou haut (u), et down ou bas (4).) On peut regretter 1'abandon du grec dans ces denominations qui n'ont
plus un caractere aussi umversel, et qui relevent du registre de la plaisanterie pour initi£s (joke) plutot
que de celui de I'objectivite" ou de 1'esthe'tique.
Matiere subatomique 109

permirent de connaitre les distributions de la « charge faible »


dans les nucleons et d'etablir une relation etroite entre les dis-
tributions des deux types de charge. Le comportement des
interactions electromagnetiques et faibles pour les nucleons et
la matiere nucleaire se clarifiait. Dans les annees 1970,1'etude
systematique de ce genre de diffusions aux plus hautes ener-
gies, avec de grands « transferts d'impulsion » (c'est-a-dire
une grande profondeur de penetration), revela des discon-
tinuites dans la distribution de la matiere des hadrons et la
presence de centres durs de diffusion a 1'interieur meme des
nucleons. Les proprietes de ces centres durs, appeles « par-
tons », s'avererent par la suite correspondre a celles des quarks,
jusqu'alors hypothetiques. On trouva aussi que les partons-
quarks ne suffisaient pas a rendre compte de toute 1'energie
distribute dans le nucleon, et Ton admit que des constituants
neutres accompagnaient les quarks et emportaient 1'energie
manquante : ce furent les premieres manifestations de la pre-
sence de « gluons » (supposes « coller » les quarks entre eux
dans la matiere hadronique).
Les particules hadroniques pouvaient done desormais etre
considerees comme constitutes physiquement de quarks, lies
entre eux par les gluons. Les baryons (en particuliers les
nucleons, proton et neutron) comportent trois quarks, et les
mesons sont constitues de paires quark-antiquark. La theo-
rie de jauge de 1'interaction forte rendue desormais possible
(« chromodynamique quantique ») completerait la descrip-
tion en accompagnant ces « quarks constituants » de gluons,
porteurs du champ fondamental d'interaction forte, sur un
fond de paires virtuelles quark-antiquark. Ainsi, la mise en
evidence de 1'existence des quarks comme constituants des
hadrons expliquait en meme temps la classification de ces
derniers, la structure des nucleons et des autres hadrons, tout
en faisant des quarks les sources du champ d'interaction forte.
Les quarks, qui ne peuvent etre observes a 1'etat libre, malgre
leur recherche, sont considered comme « confines » au sein de
leurs hadrons.
Aux quarks dont nous avons parle (u, d, s), trois autres
vinrent s'ajouter dans le contexte des nouvelles theories de
jauge des interactions faibles et fortes. Le premier fut le quark
« charme » dont 1'hypothese fut avancee pour former un me-
canisme de suppression de « courants neutres » dans les inter-
actions faibles avec changement d'etrangete. L'absence de tels
courants neutres, notamment de la disintegration K^ —> jU + ,u~,
avait ete jusqu'alors un argument invoque contre les courants
110 La physique du XXe siecle

neutres faibles en general18. En 1974, soit 1'annee qui suivit la


decouverte des courants neutres, le quatrieme quark se revela
dans une nouvelle particule « a charme cache ». Cette parti-
cule J/W, resonance etroite de masse 3,1 GeV, decouverte de
deux manieres differentes et a peu pres simultanement, fut in-
terpretee comme un etat lie cc (c etant le quatrieme quark), de
proprietes semblables a bien des egards au « positronium »,
qui est un etat lie e+e~ a plusieurs niveaux d'excitation19. Le
meson //W appartient a une nouvelle famille de particules
caracterisee par un nombre quantique supplementaire, dit« de
charme », les particules « charmees » (bien que J/^¥ soit « a
charme cache », son « nombre de charme » etant nul). Outre
ce meson, des particules porteuses du nombre quantique de
« charme » (contenant un quark c) furent ensuite decouvertes
(tant des baryons, par exemple, csu, cud, etc., que des me-
sons, par exemple, cs, cu, etc.), et furent dument etudiees et
integrees a la classification de symetrie unitaire ainsi pour-
vue d'une dimension supplementaire, Sl/s passant a SL/4 (voir
1'encadre 7.4 et la figure 7.1).
Ce fut vers cette epoque que 1'habitude fut prise d'utiliser le
concept generique de « saveur »(en anglais flavour) pour quali-
fier 1'ensemble des nombres quantiques de symetrie unitaire,
specifiques a chacun des quarks. Ces saveurs, et les quarks
correspondants, etaient jusqu'alors les suivants : I'isospin (en
fait, le couple I et /a) avec ses quarks u et d, Vetrangete avec son
quark s, et le charme avec son quark c.
Quelque temps apres, une autre famille de hadrons se re-
vela porteuse d'une cinquieme saveur, le nombre quantique-b
(pour bottom, « fond »). Comme dans le cas du quark c, elle se
manifesta d'abord par une nouvelle resonance etroite Y, de-
couverte en 1977, et qui fut interpretee aussitot comme un etat
lie bb; puis par des particules porteuses de saveur-b, contenant
un quark b, qui se joignirent a la table des hadrons des 1980,
faisant passer de SU^ a SL/s.
Mais deja les physiciens savaient que 1'inventaire ne s'ar-
reterait pas la, et qu'il devrait y avoir un sixieme quark, t,

18
Le mecanisme de suppression s'exprime en terme de quarks, avec un quark
supplementaire agissant « comme par un charme » (ou par magie) pour
interdire la disintegration par une regie de selection. II fut formule en 1970,
avant meme la decouverte experimentale des courants neutres, par Sheldon
Glashow, Jean Iliopoulos, physicien frangais d'origine grecque et Luciano
Maiani, physicien italien, d'ou son nom de « mecanisme GIM ».
19
Cette decouverte valut le prix Nobel en 1976 aux deux inventeurs: Burton
Richter (1931-), physicien americain, et Samuel Chao Chung Ting (1936-),
physicien americain d'origine chinoise.
Matiere subatomique 111

Encadre 7.4. Les symetries SU2/ SLf3, SUg, et le modele des quarks
La theorie des groupes de transformation (associes a des symetries) permet d'exprimer les relations qui
existent entre les grandeurs caracteirisants les membres d'un multiplet d'un nombre quantique donne.
Le groupe d'une transformation ou symetrie admet comme representations les differents multiplets
possibles que Ton peut former sur cette symetrie : par exemple, le groupe de Fisospin, SL/2 (pour
« groupe de symetrie unitaire d'ordre 2 ») est analogue au groupe des rotations dans 1'espace ordinaire,
et relie entre eux les etats de charge d'une mime particule. Ces representations peuvent etre constitutes
par rapport a la troisieme composante de I'isospin (Is) et figures geometriquement sur un axe, ^3. Par
exemple, le doublet (p, n) pour le nucl^on (ou baryon ordinaire) de spin-parite" f - 1/2+; le triplet (n*,
nQ, n") pour le meson pseudo-scalaire n, de spin-parite f = 0~; le triplet (p+, p°, p~) pour le meson
vecteur p, de spin-parite f = l~ (figure 7.2).
Si Ton prend en compte 1'existence de 1'etrangete, on peut rapporter les etats des particules a des
multiplets de ces deux grandeurs en portant, par exemple, sur un plan, les valeurs de la troisieme
composante d'isospin (liee & la charge) en abscisse et 1'hypercharge en ordonnee. Les multiplets sont
des representations du groupe de symetrie 511$, qui met ensemble isospin et etrangett? (figure 7.2).
En prenant en compte, outre les nombres quantiques precedents, celui de charme, on obtient des
representations du groupe SU4. Pour les figurer geometriquement, on ajoute aux diagrammes plans
de Sl/3 un axe vertical suivant le nombre de charme, et 1'on peut ainsi visualiser dans 1'espace a
3 dimensions les divers multiplets des differents nombres quantiques considered (I3, s, c) (figure 7.2). De
meme, les nouvelles saveurs superieures, b et t, permettent d'associer les particules en multiplets d'ordre
6, qui constituent autant de representations du groupe de symetrie unitaire S14- Leur representation
aig£brique ne pose pas de probleme, mais leur visualisation graphique est plus difficile, car elle necessite
un espace & 5 dimensions.
Le groupe de I'isospin, SUa, admet comme representation fondamentale un doublet de quarks (u,
d) et le doublet d'antiquarks associes (d, u). On peut, a partir d'eux, former tous les etats de hadrons de
I'isospin, en combinant trois quarks pour un baryon, et une paire quark-antiquark pour un meson. Le
groupe du spin unitaire, Sl/3, admet comme representation fondamentale un triplet de quarks (u, d, s)
et le triplet d'antiquarks associes (s, d, u). On peut, a partir d'eux, former tous les etats de hadrons de
I'isospin et de 1'etrangete, en combinant trois quarks pour un baryon, et une paire quark-antiquark pour
un meson. Le groupe SL/6/ admet comme representation fondamentale trois doublets de quarks, (u, d),
(c, s), (b, t), et les trois doublets d'antiquarks associes. On peut, a partir d'eux, former tous les etats de
hadrons des diverses saveurs, en combinant trois quarks pour un baryon, et une paire quark-antiquark
pour un meson.

de saveur top (« dessus »), avec toute une famille de particules


associees. Les physiciens avaient remarque depuis quelque
temps un parallelisme, une symetrie, entre les leptons et les
quarks, ces particules ponctuelles, dans leur comportement
par rapport aux champs electromagnetique et faible, deja
reunis dans le champ electrofaible. Comme les trois doublets
de leptons etaient deja connus, il etait legitime de supposer
qu'il existait aussi trois doublets de quarks, soit (u, d), (c, s),
(b, t). De fait, cette nouvelle famille (la derniere) se presenta,
et ses etats commencerent d'etre engranges a partir de 1994,
112 La physique du XXe siecle

faisant monter les groupes de symetrie unitaire des hadrons


de SUs a SL/6- Les families de « saveurs » successives s'etagent
selon une echelle de masses croissantes: c'est pourquoi elles ne
furent connues que Tune apres 1'autre, a la faveur de la mon-
tee en energie des accelerateurs. Le modele des quarks permet
d'attribuer aux quarks de saveurs des masses definies bien qu'ils
ne se presentent pas a 1'etat libre, et ces masses augmentent
egalement. Ce sont elles qui sont responsables de 1'etage-
ment vers les masses elevees de leurs families de hadrons res-
pectives. Les particules d'une saveur donnee se desintegrent
generalement par voie faible20, en descendant d'un degre dans
1'ordre des saveurs: par exemple, une particule-f se desintegre
preferentiellement en particule-b, celle-ci en particule-c, puis
en une particule-s, et cette derniere en particule de la symetrie
de 1'isospin (constitute des quarks u et d).
Le nombre de quark de saveurs est stabilise a six, comme
les leptons, pour un groupe de symetrie unitaire des nombres
quantiques de saveurs des hadrons qui est SL/6- Diverses consi-
derations fondees (sur des arguments theoriques et des resul-
tats d'experience) amenerent a considerer que ce nombre ne
devrait pas etre depasse, que la nature connait six leptons et
six quarks de saveur, et pas un de plus. Pour des raisons egale-
ment bien fondees, on admit que les doublets de leptons et de
quarks s'associent preferentiellement de la maniere suivante :
(e~, Vg) avec (u, d); (^~, v^) avec (c, s ) ; et (T~, V T ) avec (b, t).

Les theories de jauge et les perspectives


d'uniflcation des champs
Les resultats que nous venons d'exposer d'une maniere syn-
thetique nous font voir 1'ensemble des particules hadroniques
comme composees de particules plus fondamentales qu'elles,
irreductibles les unes aux autres, ponctuelles, et liees entre
elles par le champ d'interaction forte : les quarks de saveur.
Cette representation des hadrons ouvrit une voie simplifiee
pour formuler une theorie du champ d'interaction forte. II
faut revenir en arriere dans la chronologic (avant les derniers
developpements indiques sur les quarks) pour comprendre
comment s'est developpee 1'approche theorique des champs
20
Sauf, comme les autres hadrons des saveurs inferieures (voir plus haut
dans le texte), lorsque leurs masses et la conservation des autres grandeurs
qui les caracterisent permettent leur disintegration par voie forte (resonances)
ou electromagnetique.
Matiere subatomique 113

fondamentaux, longtemps consideree comme impossible. La


premiere circonstance decisive fut la formulation, en 1967-
68 par Abdus Salam et Steven Weinberg21, d'une theorie du
« champ d'interaction electrofaible unifie ». Certaines idees
avaient ete anticipees vers 1960 par Sheldon Glashow, en
s'appuyant sur une idee fondamentale de physique mathe-
matique, proposee des 1954 par Chen Ning Yang et Robert
Mills22, mais passee alors inapergue de la plupart des physi-
ciens.
Yang et Mills, considerant la symetrie de 1'isospin (voir le
chapitre 6), la traitaient en s'inspirant de 1'invariance de jauge
electromagnetique et en adaptant cette derniere aux caracte-
ristiques de 1'isospin. Us consideraient 1'operateur d'isospin
(/ et ses composantes) comme decrivant et transmettant une
« charge » d'un genre specifique, en meme temps qu'ils trans-
portent une charge electrique (Q = /3, la troisieme compo-
sante de 1'isospin), a la difference de 1'electrodynamique ou
le champ ne transmet pas la charge. Pour cette raison, il leur
fallait prendre en compte la « non-commutation » du champ
correspondant (voir le chapitre 3) et ils formulerent ainsi une
theorie de « symetrie de jauge non-abelienne »23. Cette theo-
rie considerait des quanta de champ de masse nulle pour que
1'invariance de jauge soit respectee, et paraissait ainsi tres eloi-
gnee de toute application a la physique (puisque ce ne pouvait
etre le cas du champ faible, comme nous 1'avons vu precedem-
ment; quant au champ fort, il n'en etait pas alors question pour
les raisons indiquees; voir 1'encadre 7.5).
Glashow, Salam et Weinberg eurent cependant 1'idee que,
ce que le champ faible ne pouvait faire tout seul, il pour-
rait peut-etre le reussir en se joignant a un autre, et d'au-
tant plus si cet autre 1'avait lui-meme deja fait de son cote.
Diverses indications militaient d'ailleurs pour rapprocher les
champs electromagnetique et faible : en particulier, 1'hypo-
these de bosons intermediaires electriquement charges (et de
spin 1) pour transmettre 1'interaction faible, faite plusieurs

21
Sheldon Lee Glashow (1932-), Steven Weinberg (1933-), physiciens ame-
ricains, et Abdus Salam (1926-1996), physicien pakistanais, fondateur et di-
recteur du Centre international de physique theorique de Trieste (institution
orientee vers les pays du tiers-monde), regurent le prix Nobel de physique en
1979 pour la theorie electrofaible.
22
Chen Ning Yang (voir plus haut), et Robert Mills, physicien americain.
23
En theorie des groupes de transformation, le qualificatif d'« abelien »
(d'apres Niels Abel, mathematicien norvegien (1802-1829)) se rapporte a la
propriete de commutation dans la relation de 1'algebre du groupe. Les groupes
dont 1'algebre est non-commutative sont dits « groupes non-abeliens ».
114 La physique du XXe siecle

Encadre 7.5. Les sym^tries et les champs de jauge


Selon un theoreme du a la mathematicienne Emmy Ncettier8 (dont nous adaptons ici la formulation),
si 1'on considere un systeme (un champ) dont les lois de transformation en fonction de ses variables
geometriques ou dynamiques sont connues, a toute transformation qui latsse invariante l'actionb est associee
une quantite qui est une constante du mouvement. L'invariance sous les transformations (geometriques)
de Lorentz d'espace-temps correspond a la conservation de l'energie-impulsion (pour les translations)
et du moment angulaire (pour les rotations).
On de'finit, en electrodynamique classique, les « transformations de jauge », des transformations non
geometriques qui font intervenir d'autres variables que les coordonnees d'espace-temps. Une transfor-
mation de jauge dite « de premiere espece », ou globale, est d^finie par : W —> Weu (A est un nombre
reel). L'invariance par cette transformation correspond a la conservation du courant electrique /^ (et
de la charge). Une transformation de jauge « de deuxieme espece » est definie par une transformation
du quadrivecteur champ/potentiel electrique qui lui ajoute une « jauge » (le gradient d'une quantite
scalaire A):

L'invariance sous cette transformation implique que le d'alembertien de A soit nul, ce qui constitue la
condition dite « de Lorentz », ou «jauge de Lorentz ». Cette invariance, en physique quantique, entraine
la polarisation du photon (Jz — , car il est toujours possible de choisir A tel qu'il soit perpendiculaire
a 1'impulsion du photon (c'est-a-dire que leur produit scalaire soit nul: k^ Aft = 0, k^ etant 1'impulsion
du photon) et le photon reste transverse.
En physique quantique, les champs et les grandeurs dynamiques sont soumis a des relations de
non-commutation ([A,B] = AB - BA 2 0). Les relations qui precedent sont maintenues en electrodyna-
mique quantique ou un photon (sans charge) est echange entre les particules chargees electriquement.
Le groupe d'invariance correspondant est le groupe de symetrie unitaire a une dimension U\. Les autres
interactions font intervenir des nombres quantiques qui jouent un role analogue a la charge electrique
pour le champ electromagnetique, les six saueurs pour les interactions faibles et les trois couleurs pour
les interactions fortes. On peut associer a ces champs des transformations de jauge globales et locales,
etendues aux operateurs de champs (que 1'on peut constituer sur ces grandeurs). Cette fois-ci, il faut
tenir compte de 1'operateur de champ qui est une representation fondamentale du groupe de symetrie
correspondant (par exemple, pour 1'isospin: un multiplet de SUa). On definit alors les transformations
de jauge, globale et locale, en considerant les operateurs de ces groupes de symetrie, et leurs « gene-
rateurs infinitesimaux » caracterises par des relations d'anticommutation formant 1'algebre du groupe.
Les transformations laissant invariant le lagrangien d'interaction (qui fait intervenir des formes qua-
dratiques du champ <p} ont la forme generate suivante:

* Emmy Ncether (1882-1935), math&maticienne alleinande.


&
L*a<:tion est (Mfinie comme 1'integrale du lagrangien (ou fonction lagrangienne) sur le temps: S = J L dt.
Matiere subatomique 115

Encadre 7.5 (suite). Les symetries et les champs de jauge


ou U[0(a:)] est un operateur unitajre (IT"1!! - 1). II est par exemple de la forme :

oii les operateurs t (vecteurs d'un espace a N dimensions) sont des multiplets generateurs du groupe
de transformation, et les parametres 6(x) sont des fonctions arbitraires de I'espace-temps (x) (dans le cas
des transformations de jauge locales). On ecrit alors le lagrangien invariant sous cette transformation de
jauge. Daris la theorie de jauge electrofaible, le lagrangien inclut des terrrtes 1^ WF (produit scalaire), dans
lequel les Wp repre*sentent des champs de jauge sans masse (les bosons intermediaires de la sym£trie).
Nous nous en tiendrons a ces quelques elements, pour dormer une idee des transformations de jauge
qui ne demande pas encore une trop grande technicite.
Les groupes d'invariance de jauge correspondant aux differentes interactions sont les suivants :
1. SUj ® L/i (I : pour 1'isopsin leptonique) : theorie du champ electrofaible,
2. $1X3 (C '. pour la couleur) : theorie de la chromodynamique quantique,
3. SUj <g> Hi <8> SUf + ... : theories de grande unification.

annees auparavant (par Feynman et Gell-Mann, en 195824),


etait calquee sur la representation de 1'interaction electro-
magnetique. On savait aussi que les « courants vectoriels »
faibles et electromagnetiques constituaient les trois compo-
santes d'un meme isovecteur25. L'idee pouvait etre tentante de
ramener les deux champs et leurs quanta d'echanges (ou de
propagation) a un unique processus fondamental. C'est ce que
fit des 1958, un precurseur de 1'unification electrofaible, Jose
Leite Lopes26. A partir de considerations sur les constantes de
couplage et sur les courants electromagnetiques et faibles, il
parvint a la conclusion qu'il faudrait ajouter, aux deux bosons
intermediaires connus pour les courants charges faibles, un
troisieme, electriquement neutre, et que ces trois bosons
devraient avoir une masse tres elevee (autour de 80 GeV).
Des 1961, Glashow proposa sa theorie de l'interaction unifiee
electrofaible avec des courants neutres, mais il fallut attendre
24
Les raisons theoriques pour introduire des bosons intermediaires faibles
n'etaient pas qu'analogiques: on savait que la theorie V-A de Fermi ne pouvait
etre qu'approximative, et qu'elle ne pouvait plus etre ponctuelle aux energies
elevees : la propagation, entre les fermions en interaction, d'un boson de
grande masse (pour une courte portee) etait une possibilite.
25
Get « isovecteur » est un triplet de charge electrique : IQ pour le champ
electromagnetique, /+ et /_ pour les « courants charges » du champ faible,
correspondant par exemple a la transition d'un electron en neutrino et a la
transition inverse.
26
Jose Leite Lopes (1918-), physicien bresilien, ancien eleve de these de W.
Pauli a 1'Universite de Princeton, professeur a 1'Universite Federale de Rio de
Janeiro, plus tard professeur a 1'Universite de Strasbourg.
116 La physique du XXe siecle

la reprise independante de cette theorie par Salam et Weinberg


pour qu'elle vienne sur le devant de la scene.
La theorie « du champ de jauge electrofaible unifie »
de Glashow, Salam et Weinberg mettait ensemble les deux
champs, electromagnetique et faible, en supposant que le
champ electrofaible qui les reunissait etait invariant de jauge,
permettant de « renormaliser » les interactions en eliminant
les quantites infinies dans les calculs. Cela impliquait cepen-
dant que les masses des particules en jeu soient nulles, ce
qui ne pouvait etre le cas27. Un mecanisme de rupture de la
symetrie de jauge etait alors invoque, qui aurait pour effet
d'engendrer les masses non-nulles des bosons intermediaires
par interaction avec un champ (scalaire28) hypothetique. En
meme temps, cette brisure de symetrie separe en deux champs
distincts, electromagnetique et faible, le champ unifie electro-
faible, dont on peut considerer que sa symetrie est effective
dans les regions d'energie ou les masses engendrees par la
brisure sont negligeables. L'hypothese de ce mecanisme est
due a Robert Brout, Francois Englert, et P.W. Higgs29. Un
jeune physicien hollandais, Gerard't Hooft, alors etudiant de
these de Martin Veltman, demontra en 1971 qu'il etait effec-
tivement possible, avec ce modele theorique, de maintenir
I'elimination des divergences comme en electrodynamique,
meme avec le mecanisme de rupture de symetrie30. La renor-
malisation de la theorie etait done compatible avec les masses
non-nulles des bosons d'echange. Ce n'est qu'apres le travail
de't Hooft que 1'attention se porta vers la theorie de Glashow,
Salam et Weinberg, puisqu'elle ne presentait pas d'incompati-
bilite avec les exigences physiques reconnues. Une implication
tres importante de la theorie etait la presence d'un boson

27
On disposait deja de limites inferieures de la masse des bosons charges
(Mw > 2 GeV), acquises en 1964-65 par des experiences avec des neutrinos
au CERN (Geneve).
28
Un champ scalaire a un quantum (ou boson) d'echange de spin nul, comme
un champ vectoriel a un quantum d'echange de spin 1.
29
Robert Brout et Francois Englert, physiciens beiges, et P.W. Higgs, physi-
cien americain. Les particules hypothetiques, de spin nul, de masse elevee,
responsables de la brisure de symetrie qui engendre les masses des parti-
cules, sont connues sous le nom de « bosons de Higgs ». Comme on le sait de
bien d'autres cas (par exemple, que 1'Amerique decouverte par Christophe
Colomb ait pris son nom d'Amerigo Vespucci, qui ne fut que lieutenant du
second voyage), les denominations retenues apres les inventions sont souvent
injustes pour les inventeurs : ici, un seul nom sur trois a ete garde. L'etude de
ces aleae releve de la sociologie des sciences.
30
Martin Veltman (1931-) et Gerard't Hooft (1946-), physiciens neerlandais,
obtinrent le prix Nobel de physique en 1999.
Matiere subatomique 117

intermediate neutre, propagateur de courants faibles elec-


triquement neutres31.
De formulation relativement simple (par rapport a d'autres
egalement possibles), la theorie electrofaible reposait sur 1'idee
d'un enchevetrement des courants faibles et electromagne-
tiques, dont la mecanique quantique s'est fait une specialite
avec son principe de superposition lineaire des etats (voir les
chapitres 3 et 4). Les bosons neutres electrofaibles lies a 1'inva-
riance de jauge peuvent etre considered comme une superpo-
sition lineaire des bosons physiques : le photon et un boson
encore inconnu, denote Z°. Le coefficient de cette superposi-
tion lineaire est le seul parametre arbitraire de la theorie que
Ton ramene a un angle, Tangle de Weinberg, 6w32- Les don-
nees physiques (frequences relatives des courants charges et
neutres, masses des bosons intermediaires charges et neutres,
durees de vie de ces derniers, etc.) sont des lors fonctions des
constantes de couplage et du parametre Ow- Ce dernier peut
etre determine a partir de 1'un des resultats experimentaux et
permet a son tour d'en predire d'autres. En particulier, avec un
parametre correspondant a un rapport des courants neutres
sur les courants charges de 20 % environ (ce qui fut le cas
effectivement observe), on devrait avoir des bosons interme-
diaires aussi lourds que 80-90 GeV (environ cent fois la masse
du proton).
La theorie electrofaible n'a cesse de connaitre des succes
remarquables. Le premier d'entre eux fut la decouverte de
1'existence de « courants neutres faibles » purement leptoniques
du type Vp + e~~ —» v^ + e~, et semi-leptoniques du type vf( +
P —* vii + P, ou v^ + p —> Vp + p + 71°, Vp + n —> vf, + p +
n~, etc. L'existence des courants neutres de 1'interaction faible
fut etablie en 1973 sur la base de 1'observation d'interactions
de neutrinos et d'antineutrinos sur des electrons et sur des
noyaux, done sur protons et neutrons. Les developpements
techniques ont joue un role important dans 1'obtention de ces
31
D'une maniere generale, une interaction de particules met en jeu des « cou-
rants » de particules ou de systemes de particules : celui forme entre la par-
ticule incidente et sa transformee apres 1'interaction, et celui forme entre la
particule cible et sa transformee (les transformees peuvent etre des systemes
de particules, dans le cas de hadrons). Cette representation, qui a son origine
en electromagnetisme, est devenue generale avec la formulation des theories Figure 7.3. Mise en evidence
de champs en termes d'interactions de particules elementaires ponctuelles, experimentale d'un cas
les leptons et les quarks, comme source des champs. d'interaction de « courants
32
Ce coefficient doit etre norme : soient a et b les coefficients respectifs des neutre » v^ + e~ —> vf, + e+
amplitudes (ou fonctions d'etat) de chacun des bosons, on doit avoir: a2 + b2 - interdit par la theorie classique
I; a et b sont done entre eux comme le cosinus et le sinus d'un angle puisque (M. Paty, La Recherche n° 37,
cos2 0 + sin2 6 = I . septembre 1973).
118 La physique du XXs siecle

resultats. La production de faisceaux extremement intenses de


neutrinos (pour compenser leur faible pouvoir d'interaction)
fut possible grace a 1'invention d'une « corne magnetique »
pour focaliser les particules-meres chargees (par Simon van
der Meer, au CERN). La detection et 1'identification fine des
particules produites dans les interactions avaient demande la
construction d'un detecteur approprie : la chambre a bulles
geante a liquide lourd Gargamelle33.
L'existence de courants neutres hadroniques du type
observe necessitait de savoir pourquoi des courants neutres
hadroniques d'autres types (avec changement d'etrangete)
n'existent pas : le mecanisme GIM (voir plus haut) fut in-
vente dans cette perspective, puis corrobore par la connais-
sance du quark « charme ». Enfin, les trois « bosons interme-
diates » lourds, charges (W*) et neutre (Z°), furent produits,
detectes et identifies (par leurs disintegrations) dans des inter-
actions de particules a tres haute energie aupres de 1'anneau
de collisions a protons-antiprotons du SPS du CERN34, en
1982-83, par une collaboration internationale dirigee par Carlo
Rubbia. La production du faisceau d'antiprotons acceleres et
accumules dans 1'anneau representait une performance tech-
nique remarquable rendue possible par la mise au point, par
Simon van der Meer, d'un dispositif de « refroidissement sto-
chastique des antiprotons », qui permettait leur accumulation
dans 1'anneau pendant 24 heures, avant leur acceleration. Les
interactions etaient analysees dans un grand detecteur elec-
tronique a chambres multifils.
Les bosons charges W furent identifies en premier par
des disintegrations caracteristiques choisies parmi d'autres
possibles : W* —> e + ve(v^). Peu apres, les bosons neutres Z°
(Z° —> e++e~) furent identifies avec des valeursde leurs masses
conformes a celles predites par la theorie electrofaible et en
33
Cette chambre fut construite en France par le CEA et TIN2P3, en vue
de 1'etude des neutrinos. Les maitres d'ceuvre du projet, qui donna lieu a
une collaboration de laboratoires europeens, furent Andre Lagarrigue, Paul
Musset, Andre Rousset, qui furent egalement parmi les meilleurs artisans de
cette decouverte. Ce livre est dedie a leur memoire.
34
La production de masses aussi elevees que celle des bosons intermediaires
demanda la transformation du SPS du CERN (de 400 GeV) en anneau de col-
lisions protons-antiprotons, qui fournit, pour la meme energie nominale des
particules accelerees, une energie disponible beaucoup plus grande. L'energie
d'annihilation de 1'antiproton et du proton est en effet a considerer dans le
referentiel au repos associe a leur centre de masse, et est totalement disponible
pour la production de particules (soit 2 x 270 GeV disponibles, a 1'energie de
fonctionnement adoptee). Carlo Rubbia (1934-), physicien italien, et Simon
van der Meer (1925-), ingenieur physicien hollandais travaillant au CERN,
recurent le prix Nobel de physique de 1'annee 1984.
Matiere subatomique 119

accord avec les taux mesures des courants neutres. Depuis, les
bosons intermediates W et Z sont produits par millions, no-
tamment aupres d'anneaux de collisions a electrons-positons,
et etudies dans leurs differents canaux possibles de desinte-
gration. Le boson Z°35 constitue, par les determinations tres
precises qu'il rend possible sur de multiples processus, un
veritable laboratoire de physique des particules elementaires.
Des resultats importants ont ainsi ete obtenus : limitation a
trois des neutrinos et done des families de leptons, connais-
sance des particules comportant un quark lourd; d'autres sont
esperes, sur le boson de Higgs, par exemple.
Marquant un « retour en force » de la theorie quantique des
champs, le grand succes de la theorie electrofaible ne pouvait
qu'encourager les tentatives de traiter d'une maniere plus ou
moins semblable le champ des interactions fortes et de tenter
de trouver une perspective unifiee sur 1'ensemble des champs
electrofaible et fort.
A partir de 1974, une theorie quantique du champ d'inter-
actions fortes put effectivement etre constitute avec succes
en considerant les interactions entre quarks comme etant
les processus elementaires de transport du champ. Ce der-
nier fut aborde, comme le champ electrofaible, a partir des
symetries de jauge non-abeliennes. Au lieu de porter sur les
saveurs des quarks, comme c'etait le cas pour le champ elec-
trofaible, ces symetries portent sur une autre qualification des
quarks (decouverte entre-temps) leur « charge forte » denom-
mee « couleur ». La theorie du champ d'interaction forte fut
en consequence appelee la chromodynamique quantique (selon
une analogic transparente avec 1'' electrodynamique quantique).
Le nombre quantique de « couleur » avait ete formule en
1964, en relation au modele des quarks pour constituer les
hadrons : il etait apparu necessaire de doter les quarks d'un
« degre de liberte » supplementaire a cote de la saveur pour
rendre compte le plus simplement possible des arrangements
de quarks dans les hadrons.
L'une des raisons les plus fortes en etait la suivante : la
famille de baryons connue comme la resonance A possede
un etat de charge +2 et un spin 1/2, qui est done constitue
des trois quarks identiques uuu. Tous trois se trouvent dans
le meme etat, avec leurs spins alignes, ce qui contrevient au
principe d'exclusion de Pauli. II faut done qu'ils soient dis-
tincts : pour cela, il faut admettre que les quarks ont un degre

35
On parle d'« usines a Z° ». La precision sur la determination de la masse
de ce boson est remarquable : Mz = 91,188 0,002 GeV.
120 La physique du XXe siecle

de liberte supplemental, par exemple une charge interne, pou-


vant prendre trois valeurs, 1, 2 et 3. Chaque quark de saveur
serait un triplet de ce nouveau nombre, appele « couleur » (A
est alors const!tue de u\u^u^). Cette hypothese permettait en
meme temps, non pas d'expliquer, mais de decrire le confine-
ment des quarks a 1'interieur des particules hadroniques: il suf-
fisait de transcrire le confinement des quarks en confinement
de leur charge interne de couleur en admettant que les hadrons
physiques (constitues de quarks) sont des etats neutres (ou
singulets) de la couleur (de la le nom donne a cette derniere,
par analogic avec 1'optique, le blanc resultant de la superpo-
sition des couleurs fondamentales). L'hypothese pouvait etre
plus feconde encore, si Ton identifiait les charges de couleurs
a la charge fondamentale de 1'interaction forte. Les bosons
d'echange fondamentaux devaient relier deux quarks de cou-
leurs differentes, qi et qj, et done porter deux couleurs diffe-
rentes. Us pouvaient etre identifies aux gluons de la matiere
hadronique, chaque type de gluons etant caracterise comme
gij. II devait done exister huit gluons independants en tout36.
On pouvait les supposer de masse nulle. Les gluons, comme
les quarks, restent confines dans les particules hadroniques; ils
peuvent interagir directement entre eux en echangeant leurs
charges de couleur (a la difference des photons, qui necessitent
1'intermediaire de paires virtuelles electron-positon pour in-
teragir entre eux, voir la figure 7.1), et se transformer partiel-
lement en paires virtuelles de quark-antiquark (gij —> qi + ~qj).
Une autre propriete fondamentale des quarks, outre le
confinement, est que leur potentiel au sein de la matiere
nucleaire, du au champ d'interaction forte, varie en fonction de
la distance au centre (« liberte asymptotique »), d'une valeur
nulle en ce centre a une valeur infinie aux bords du nucleon
(c'est-a-dire a une distance d'environ 10~13 cm) (confinement)37.
Cette variation pouvait etre rapportee a une propriete de la
« constante de couplage » de 1'interaction forte, diminuant
avec 1'energie. Des lors disparaissait 1'un des obstacles au trai-
tement du champ d'interaction forte par la theorie quantique
des champs, qui etait la grande valeur de la constante de cou-
plage entre les hadrons. En effet, la bonne « constante de cou-
plage » a considerer, celle d'interaction forte entre les quarks,
etait petite devant 1'unite a partir d'une certaine region du
36
II y a 9 combinaisons possibles et une relation lineaire entre elles : d'ou
seulement huit entites (types de grandeurs) distinctes.
37
Ou encore « esclavage infrarouge ». Ce dernier terme n'a qu'une valeur
d'analogie avec la lumiere dans la mesure ou il designe les grandes longueurs
d'onde, done les grandes distances (grandes, relativement!).
Matiere subatomique 121

spectre des energies. Les developpements en serie de termes


de puissances de cette constante pouvaient converger vers une
valeur finie, et la chromodynamique quantique conduire a des
calculs de grandeurs physiques.
Avec les quarks comme source du champ de couleur, et les
gluons comme quanta du champ echanges entre les quarks
pris deux a deux, on disposait done de tous les ingredients
pour traiter 1'interaction forte fondamentale par la theorie
quantique des champs de jauge non-abelien38, portant sur la
charge de couleur. (L'interaction forte est indifferente a la sa-
veur, dans la mesure ou elle conserve la symetrie SU& de cette
derniere, ce qu'elle fait a 20 % pres.) La couleur definit aussi,
quant a elle, un groupe de symetrie unitaire dit « de la cou-
leur » et denote SUC3.
La chromodynamique quantique pouvait etre testee a par-
tir de 1'etude de phenomenes caracteristiques qu'elle implique
en considerant que les interactions fortes elementaires ont lieu
entre les quarks constituants qui se recombinent a d'autres en
« s'habillant » pour former des hadrons a la sortie du nucleon
cible (voir le diagramme des interactions fondamentales en
figure 7.1). Les hadrons produits, seuls observes dans les in-
teractions (puisque Ton n'a pas acces directement aux quarks,
en raison de leur confinement) portent en quelque sorte la
memoire des interactions fondamentales elementaires entre
les quarks et les gluons. Des « jets de quarks et de gluons »
peuvent ainsi etre retraces, comme effets d'entrainement des
particules emises dans des collisions par les particules de la
collision elementaire. La fusion d'un quark et d'un antiquark
pour dormer une paire de lepton-antilepton, et d'autres pro-
cessus de meme nature, revelent la presence des quarks de
valence (ou quarks constituants) et celle, sous-jacente, d'un
fond de paires virtuelles de quark-antiquark qq, ainsi que
des gluons. Les plasmas de quarks et de gluons (dont nous
avons deja parle par anticipation au chapitre 6) constituent
egalement une des predictions importantes de la chromody-
namique quantique. De telles reactions ont ete effectivement
observees avec les proprietes prevues.
Ces resultats octroient a cette theorie fondamentale du
champ d'interaction forte une legitimite telle qu'elle a desor-
mais rejoint la theorie electrofaible pour constituer desormais

38
Les bosons d'echange transporter^ la charge de couleur, et leurs operateurs
de champ de jauge sont non-commutatifs : la symetrie de jauge correspon-
dante est « non-abelienne ».
122 La physique du XXe siecle

Figure 7.4. L'unification des


quatre champs d'interaction.

avec elle ce que les physiciens appellent le « modele standard


en physique subnucleaire.

Perspectives vers Tunification


L'ensemble theorique constitue par le « modele standard »,
comprend done les traitements, independants du point de vue
de la dynamique, mais dans le meme cadre general des theo-
ries quantiques des champs de jauge a symetrie non-abelienne,
du champ electrofaible et du champ fort de la chromodyna-
mique quantique. Malgre ses grands succes, ce modele theo-
rique n'est pas une theorie unifiee, puisque, d'une part, il est
fait de deux « blocs » independants, sans connexion directe,
et d'autre part, il laisse de nombreux problemes dans 1'ombre,
en particulier la raison des valeurs des differents parametres,
connues seulement de maniere empirique (les masses, les
intensites de couplage, l'« angle de Weinberg », etc.). Toute
theorie depassant le modele actuel qui rendrait compte de ces
valeurs constituerait un progres theorique sensible.
En fin de compte, les interactions fondamentales de la
matiere ont ete ramenees a des champs echanges entre les
« particules » (fermions) les plus elementaires (ponctuelles,
c'est-a-dire sans structuration interne) que sont les quarks et
les leptons. La dynamique de ces champs est exprimee a 1'aide
de symetries de jauge relatives aux « charges » responsables
Matiere subatomique 123

de ces interactions (charge electrique, saveurs, couleurs39)


moyennant le transport de I'influence, dans le premier cas,
et de ces charges elles-memes, dans les deux derniers, entre
un fermion elementaire et un autre. Cette dynamique fait ap-
paraitre des constantes de couplage sans dimension, caracte-
ristiques de chaque type de champ (electromagnetique, faible
et fort) et independantes des processus particuliers, mais de-
pendant de 1'energie. La variation des constantes de couplage
avec 1'energie, croissante pour les champs electromagnetiques
et faible, decroissante pour le champ fort, et qui peut etre ex-
trapolee a partir des valeurs connues, montre que les trois se
rencontrent pour une certaine valeur de 1'energie, tres elevee,
hors de 1'atteinte des accelerateurs de particules actuels.
Cette convergence suggere que les trois champs fonda-
mentaux du domaine subnucleaire pourraient bien n'etre, aux
energies que nous connaissons, que les manifestations sepa-
rees (par des ruptures de symetrie) d'un champ unifie plus
fondamental. Des theories de Grande Unification (GUT) ont ete
proposees. Elles reuniraient le champ electrofaible et la chro-
modynamique quantique, meleraient les divers bosons (pho-
ton, bosons W et Z, gluons) d'une part, et les leptons et les
quarks d'autre part. Elles necessiteraient des bosons interme-
diaires d'un genre nouveau, de masses extremement elevees
(M > 1014-1015mp). Mais elles n'ont pas regu, jusqu'a present,
de confirmation experimentale40.
On peut aussi inclure le champ gravitationnel dans le dia-
gramme des constantes de couplages, constatant qu'il devient
comparable aux autres pour des energies plus grandes encore
et conjecturer que, dans ces domaines « asymptotiques », tous
les champs d'interaction se fondent en un seul. C'est un pro-
gramme pour la theorie physique que les physiciens envi-
sagent desormais. II implique la quantification du champ de
gravitation, done de la theorie de la relativite generale (voir le
chapitre 2), ce qui constitue un probleme tres difficile. En effet,
le champ gravitationnel est identifie a la structure de 1'espace-
temps qui est continu, ce qui s'oppose en principe a 1'idee
de quantification. Dans cette direction, des voies tres diverses
sont explorees, allant des supersymetries (melant les fermions
et les bosons, et requerant pour chaque fermion actuellement
39
Respectivement pour les champs electromagnetique, faible et fort.
40
Par exemple, une symetrie de jauge SU$, comme produit de la symetrie
SL/3 de la chromodynamique et de la symetrie SU'2 electrofaible. Melant les
leptons et les quarks, elle admettrait une desintegration (rare) du proton telle
que : p —> n°e+. Mais les recherches sur cette derniere ne 1'ont pas confirmee,
et la duree de vie du proton depasse 1032 annees.
124 La physique du XXe siecle

connu un s-fermion41, qui serait un boson et inversement)


aux theories de cordes dans des espaces a beaucoup plus
de quatre dimensions, et a des approches topologiques. Ces
tentatives, encore inabouties, appartiennent d'ores et deja a la
physique du XXP siecle. Si elles se precisent, on pourra dire
alors qu'elles prenaient leurs racines dans la physique du XXe
siecle. Md chi lo sa 1
Ces questions, restees en suspens dans la physique sub-
nucleaire, se trouvent egalement posees dans une discipline
en apparence fort eloignee de la physique du monde sub-
atomique, du moins en ce qui concerne les dimensions de ses
objets: 1'astrophysique, surtout associee a la cosmologie. Nous
les retrouverons done un peu plus loin (voir les chapitres 10
etll).

41
s pour supersymetrique.
Chapitre 8

Systemes dynamiques
et phenomenes
critiques
Nous abordons dans ce chapitre, plus heterogene que les
autres, un certain nombre de sujets qui, pour etre a pre-
miere vue moins spectaculaires du point de vue des struc-
tures profondes et des renouvellements de notre connaissance,
se sont averes d'une tres grande importance et retiennent de
plus en plus 1'attention depuis une trentaine d'annees. Ces
sujets interessent au plus haut point les physiciens mais aussi
les techniciens, les industriels et le public en general car ils
ont des implications dans notre paysage quotidien et certains
d'entre eux ont des applications immediates les plus variees
dans differents domaines de 1'industrie.
Nous evoquerons seulement quelques-uns de ces themes,
de maniere relativement breve et, de toute fac.on, non ex-
haustive, car il ne s'agit pas ici d'effectuer un parcours
encyclopedique. Bien des connaissances nouvelles d'une im-
portance pourtant considerable et des realisations qui ont
contribue a changer notre vie quotidienne ne pouvaient trou-
ver place dans un expose de la nature de celui-ci. II aurait
fallu pour etre plus complets, aborder des aspects de la phy-
sique comme, par exemple, en physique du solide et de la matiere
condensee, les vibrations et les ondes de spin dans les cristaux,
la supraconductivite aux « hautes » (relativement aux tres
basses) temperatures1, ou les developpements de la physique
1
Decouverte en 1986 par Johannes Georg Bednorz (1950-), physicien alle-
mand, et Karl Alexander Miiller (1927-), physicien suisse de la compagnie
IBM a Zurich, qui regurent le prix Nobel de physique de 1987. Ils observerent
la supraconductivite de certaines ceramiques pour une temperature critique
de 35 K (soit -238 °C), plus haute de quelques dizaines de degres que la
temperature trouvee anterieurement pour ces phenomenes (-250 °C), qui
requeraient des techniques cryogeniques complexes. D'autres alliages supra-
conducteurs a des temperatures plus elevees encore ont ete trouves depuis.
Les applications potentielles de ce phenomene, a des temperatures proches
de 1'ordinaire, seraient multiples (trains levitants sans frottements, etc.).
126 La physique du XXe siecle

des plasmas, dont on attend, en particulier, la possibilite de


controler et utiliser la fusion thermonucleaire. Ou encore, les
developpements de la mecanique statistique et de la thermodyna-
mique, dont nous ne mentionnerons ici que quelques aspects
concernant les transitions de phase et les phenomenes critiques.
On salt 1'importance de la thermodynamique des processus
loin de 1'equilibre, fondee notamment par Lars Onsager2, et
illustree en physico-chimie par 1'ceuvre, entre autres, d'llya
Prigogine et de son ecole3.
Nous laissons aussi de cote la physique des macromolecules,
qui a pourtant des applications innombrables dans notre uni-
vers quotidien, des matieres plastiques aux nouveaux ma-
teriaux. Les macromolecules concernent la physique propre-
ment dite mais aussi la chimie, et touchent de tres pres a
la constitution moleculaire des organismes vivants, que nous
evoquerons toutefois plus loin a propos de la question des
origines physico-chimiques de la vie (voir le chapitre 12). II
aurait d'ailleurs fallu, d'une maniere generate, parler de la
chimie et de ses liens a la physique bien davantage que ce
que nous avons pu en dire au chapitre 5 a propos de la struc-
ture atomique et quantique des corps. Ne mentionnons, parmi
d'autres sujets remarquables, que les representations de 1'ar-
chitecture complexe des molecules, obtenues par les molecules
de synthese, et en particulier celles que Jean-Marie Lehn a su
modeler a sa guise, pour des emboitements riches d'applica-
tions4. Nous nous resignons a laisser le lecteur sur sa faim en
ce qui concerne nombre d'autres avancees des connaissances,
pourtant d'un tres grand interet, dans les domaines d'organi-
sations complexes de la matiere.
Les themes que nous avons choisi d'aborder sont, tout
d'abord, la physique des systemes dynamiques non lineaires
et les phenomenes dits du « chaos deterministe »; en-
suite les phenomenes critiques de changements de phase et
2
Lars Onsager (1903-1976), physicien norvegien naturalise americain. II
montra que la diminution apparente d'entropie dans les systemes loin de
1'equilibre est due a des echanges avec le milieu exterieur, et etudia de ma-
niere quantitative les processus proches de 1'equilibre. II rec.ut le prix Nobel
de chimie en 1967.
3
Ilya Prigogine (1917-), physico-chimiste beige d'origine russe, professeur
a 1'universite de Bruxelles, rec.ut le prix Nobel de chimie en 1977.
4
Jean-Marie Lehn (1939-), professeur a 1'universite de Strasbourg puis au
College de France, membre de 1'Academie des sciences, specialiste de la re-
connaissance moleculaire, recut le prix Nobel de chimie en 1987, conjointe-
ment avec Donald J. Cram (1919-), chimiste americain et Charle J. Pedersen
(1904-1989), chimiste americain d'origine norvegienne, egalement createurs
de molecules de synthese.
Systemes dynamiques et phenomenes critiques 127

d'invariance d'echelle; puis les « quasi-cristaux », les « objets


fractals », et enfin certains phenomenes de la « physique du
quotidien » lies a la « theorie de la percolation ».

La theorie des systemes dynamiques


non lineaires
Avant les annees 1970,1'etude des systemes dynamiques etait
cantonnee a un domaine relativement limite des mathema-
tiques et de la physique mathematique. Depuis, elle est deve-
nue une discipline qui est aujourd'hui 1'une des plus impor-
tantes de la physique mathematique comme de la physique
theorique et experimentale, et qui comporte egalement des
applications a d'autres domaines, allant de la chimie a la statis-
tique des populations. A la theorie des systemes dynamiques
non lineaires ou dissipatifs, correspondent des phenomenes
physiques qui appartiennent a ce qu'il est convenu desormais
d'appeler la « physique des systemes chaotiques », ou « du
chaos deterministe ».
Les systemes physiques concernes, tout en etant
« deterministes » au sens traditionnel (laplacien) du terme,
ne conduisent pas a des previsions certaines, voire sont
totalement imprevisibles. Leurs evolutions temporelles sont
pleinement causales, determinees par des systemes d'equa-
tions differentielles (non lineaires dans leur cas) et par un en-
semble de « conditions initiales ». Cependant, des variations,
meme tres petites, de ces conditions initiales peuvent entrai-
ner des amplifications considerables dans les differences cor-
respondantes des variables dynamiques solutions du systeme
d'equations differentielles, en raison du caractere non lineaire
de ces dernieres, rendant ces grandeurs totalement imprevi-
sibles a terme. Les phenomenes de turbulence en hydrodyna-
mique, qui correspondent a un nombre tres eleve (quasi-infini)
de degres de liberte, en constituent des exemples classiques.
On sait desormais que de tels systemes « chaotiques » ne sont
pas necessairement tres complexes car le phenomene se pre-
sente deja avec un petit nombre de degres de liberte (a partir
de trois), ce qui a permis 1'etude en laboratoire des regimes de
« transition vers le chaos ».
L'idee directrice de 1'etude de tels systemes physiques re-
monte aux travaux mathematiques d'Henri Poincare sur la
theorie des equations differentielles de la dynamique, deve-
loppes a partir de ses recherches sur le probleme des trois corps
en mecanique celeste (1890). Ces recherches etaient etayees sur
128 La physique du XXe siecle

ses travaux mathematiques anterieurs concernant 1'etude des


courbes definies par des systemes d'equations differentielles,
par lesquels Poincare avait introduit et developpe le point de
vue de la recherche « qualitative » des solutions. Resoudre
des systemes d'equations differentielles correspondant a des
courbes passait par 1'etude du comportement des solutions et
de 1'allure des trajectoires. Cette etude est determinee par les
comportements asymptotiques (cycles limites) et les points sin-
guliers de 1'equation, qui sont de differents types : les cols, ou
passent deux courbes, les nceuds ou s'en croisent une infinite,
les foyers autour desquels les courbes tournent en s'en rap-
prochant indefiniment, les centres entoures par les courbes qui
s'enveloppent successivement. Poincare les classait d'apres
leurs proprietes de voisinage etudiees par des developpe-
ments en series. II considerait deja la stabilite des trajectoires
solutions, probleme qui serait au cceur de son approche de la
dynamique des corps en mecanique celeste. Pour etudier cette
stabilite ramenee a la periodicite des solutions, il employait
une « methode des sections » (appelees par la suite « sections
de Poincare »): coupant la trajectoire par un plan perpendicu-
laire en un point donne, il etudiait les autres points solutions
au voisinage de ce dernier. Le probleme etait ainsi ramene
a 1'etude de systemes a deux dimensions autour d'un point
singulier.
La question de la stabilite et de 1'equilibre se posait natu-
rellement en dynamique, depuis les debuts de 1'etude du pro-
bleme a trois corps au milieu du XVIIF siecle (avec Clairaut,
sur la figure de la Terre, d'Alembert, Euler, Lagrange, Laplace,
Poisson, etc., sur le systeme solaire dans son ensemble). La
« stabilite a la Poisson » que Poincare devait privilegier etait
telle que, bien que sans periodicite au sens strict, le systeme
etant perturbe retourne au voisinage d'une configuration don-
nee au bout d'un certain temps. Poincare aborda les problemes
d'equilibre et de stabilite de 1'equilibre en 1885, a propos du
comportement d'une masse fluide en rotation dans un champ
de forces. Mais c'est surtout dans son travail sur « le probleme
des trois corps et les equations de la dynamique », de 1890,
qu'il developpa les idees qui sont a 1'origine de la theorie
des systemes dynamiques non lineaires. Poincare y etudiait
comment varient les solutions du systeme d'equations diffe-
rentielles quand on fait varier un parametre des equations. Le
probleme caracteristique des systemes dynamiques etait, pour
lui, tant du point de vue mathematique que du point de vue
physique, celui de la stabilite de tels systemes, des conditions
de cette stabilite et de ses transformations.
Systemes dynamiques et phenomenes critiques 129

Poincare remarqua que parmi les solutions des equations


de la dynamique d'interactions a trois corps, il pouvait se trou-
ver des cas de configurations ou I'une de ces solutions etait
si compliquee et irreguliere qu'elle semblait aller au hasard,
bien que le systeme fut totalement deterministe (par 1'exacti-
tude des equations et la connaissance de conditions initiales).
C'etait la premiere fois qu'etait relevee une situation telle que,
pour des evenements parfaitement determines, « une cause
tres petite, qui nous echappe, determine un effet conside-
rable ». Une tres petite incertitude sur les conditions initiales
interdit toute prevision exacte a partir d'un certain temps.
Sans avoir a connaitre la forme exacte des solutions, il etait
cependant possible de decrire la nature de ces solutions, c'est-
a-dire leur comportement structurel, d'equilibre stable ou in-
stable, qui concerne non pas une trajectoire individuelle mais
un ensemble de trajectoires. Poincare introduisit a cette occa-
sion dans la dynamique la notion de « cycle limite »(reprise de
ses travaux anterieurs de geometrie) comme une idealisation
des mouvements stationnaires. II etait ainsi amene a conside-
rer que, dans 1'etude theorique de tels systemes, le probleme
fondamental de la dynamique etait de s'attacher a connaitre la
nature des solutions et leur comportement structurel sous de
petites perturbations de rhamiltonien, d'equilibre stable ou
instable, quasi-periodique, sans avoir a les ecrire exactement.
En adoptant un tel point de vue qualitatif, il transformait la
maniere de concevoir les problemes de la dynamique, creant
ainsi, selon les termes memes de 1'Academie suedoise qui le
couronna5, « une nouvelle maniere de penser ».
L'etude du comportement des solutions par rapport a des
configurations de stabilite, pour des systemes dynamiques
definis par des equations differentielles non lineaires, ouvrit
ainsi un nouveau domaine qui s'avera beaucoup plus large
que la dynamique traditionnelle preoccupee de la resolution
des problemes en termes de trajectoires bien definies. Nee
de 1'etude du probleme de 1'interaction de gravitation a trois
corps, la theorie des systemes dynamiques allait s'appliquer
a bien d'autres domaines de la physique ou interviennent des
equations non lineaires. Poincare lui-meme faisait intervenir,
dans ses recherches sur 1'interaction a trois corps, des raison-
nements bases sur une interpretation hydrodynamique: les or-
bites etant prises comme des lignes de flux d'un fluide a trois
dimensions, resultant de la marge d'imprecision des condi-
tions initiales. On peut y deceler un effet de sa connaissance

Henri Poincare rec.ut pour ces travaux le « Prix du Roi de Suede » en 1889.
130 La physique du XXe siecle

des equations de Maxwell, mais aussi le reflet de 1'origine


plus lointaine des equations aux derivees partielles dans la
mecanique des fluides et des milieux continus.
Apres Poincare, le probleme des systemes dynamiques et
de la stabilite des mouvements fut etudie en premier lieu par
Alexandre Mikhailovitch Liapounov6. Son premier travail sur
le sujet fut en realite independant de celui de Poincare, avec
qui, il eut ensuite une correspondance. Sa these de doctorat,
soutenue en 1892, intitulee Probleme general de la stabilite du
mouvement7, propose une definition de la stabilite plus ge-
nerale que celle qui reliait auparavant I'equilibre a 1'existence
d'une fonction potentiel. Une solution stable, pour Liapounov,
est telle que toutes les autres solutions dont les conditions
initiales sont tres voisines de la premiere restent proches de
celle-ci au cours du temps. Si ces solutions se rapprochent
asymptotiquement de la premiere lorsque le temps croit inde-
finiment, la solution est dite asymptotiquement stable. Dans
cette approche, la stabilite d'une trajectoire est liee aux autres
trajectoires qui passent dans son voisinage. Ce depassement
de la notion de trajectoire individuelle rejoignait la concep-
tion structurelle des solutions et des trajectoires de Poincare :
ce n'etait pas la trajectoire individuelle suivie par un mobile
qui importait mais Failure de 1'ensemble des trajectoires. Plus
tard, les « attracteurs etranges » des systemes dynamiques
devaient conforter le bien-fonde de ce point de vue.
Lyapounov obtint encore des resultats importants pour
la theorie de la turbulence. En 1897-98, Jacques Hadamard8,
reprenant les resultats de Poincare, se pencha sur la dyna-
mique d'un point materiel liee a la geodesique des surfaces, et
detailla le comportement cinematique tres irregulier du mo-
bile en fonction de la configuration des surfaces, en particulier
les surfaces a courbure negative dont il etait specialiste. Ces
considerations furent commentees par Pierre Duhem dans son

6
Alexandre Mikhailovitch Liapunov (parfois transcrit en Liapounoff ou
Lyapunov) (1857-1918), mathematicien et physicien russe.
7
Traduite en francais par Edouard Davaux, elle fut publiee en 1907 dans les
Annales de lafaculte des sciences de Toulouse.
8
Jacques Hadamard (1865-1963), mathematicien francais, auteur de contri-
butions fondamentales dans les diverses branches des mathematiques, singu-
larites des fonctions analytiques, equations aux derivees partielles, fonctions
de variables complexes, theorie des nombres... Pierre Duhem (1861-1916),
physicien chimiste et thermodynamicien, philosophe et historien des sciences
frangais.
Systemes dynamiques et phenomenes critiques 131

Encadre 8.1. La description par Duhem de la « geodesic a front de taureau » de Hadamard


Imaginons le front d'un taureau, avec les eminences d'ou partent les comes et les oreilles, et les cols
qui se creusent entre ces eminences; rnais allongeons sans limite ces comes et ces oreilles, de telle facxm
qu'elles s'etendent & 1'infini; nous aurons une des surfaces que nous voulons e"tudier.
Sur une telle surface, les geodesiques peuvent presenter bien des aspects differents. II est, d'abord,
des geodesiques qui se ferment sur elles-memes. II en est aussi qui, sans jamais repasser exactement par
leur point de depart, ne s'en eloignent jamais infiniment; les unes tournent sans cesse autour de la corne
droite, les autres autour de la come gauche, ou de 1'oreille droite, ou de 1'oreille gauche; d'autres, plus
compliquees, font alterner suivant certaines regies les tours qu'elles decrivent autour de 1'autre corne,
ou de Tune des oreilles. Enfin, sur le front de notre taureau aux cornes et aux oreilles iilimit^es, il y aura
des geodesiques qui s'en iront a I'infini, les unes en gravissarit la corne droite, les autres en gravissant
la corne gauche, d'autres encore en suivant 1'oreille droite ou 1'oreille gauche.
(...) Si 1'on connait avec une entiere exactitude la position initiale d'un point materiel sur ce front de
taureau et la direction de la vitesse initiale, la ligne geodesique que ce point suivra dans son mouvement
sera determinee sans aucune ambiguite. (...)
H en sera tout autrement si les conditions initiales ne sont pas donnees mathematiquement, mais
pratiquement; la position initiale de notre point materiel ne sera plus un point determine sur la surface,
rnais un point quekonque pris a 1'interieur d'une petite tache. (...) A nos donnees initiales pratiquement
determinees correspondra, pour le geometre, une infinie multiplkite de donnees initiales differentes.
(...) Malgre les limites etroites qui resserrent les donnees geometriques capables de representer nos
donnees pratiques, on peut toujours prendre ces donnees geometriques de telle sorte que la geodesique
s'eloigne sur celles des nappes infinies qu'on aura choisies d'avance. On aura beau augmenter la
precision avec laquelle sont determinees les donnees pratiques (...), jamais la geodesique ne pourra etre
dlbarrassee de ces compagnes infideles qui, apres avoir tourne comme elle autour de la meme corne,
s'e'carteront indefiniment. Le seul effet de cette plus grande precision dans la fixation des donnees
initiales sera d'obliger ces geodesiques a decrire un plus grand nombre de tours embrassant la corne
droite avant de produire leur branche infinie; mais cette branche infinie ne pourra jamais etre supprimee.

ouvrage de philosophic des sciences « La theorie physique »9.


En rendant explicite d'un point de vue physique la trajec-
toire suivie par le mobile, la geometrie « a front de taureau »
etudiee par Hadamard, Duhem donne une description sai-
sissante de 1'apparence chaotique du mouvement. Elle parait
anticiper celles que Ton donne de nos jours du parcours d'un
« attracteur etrange » par un point representatif de 1'etat d'un
systeme (voir 1'encadre 8.1). II y voyait une limitation de 1'uti-
lisation possible des deductions mathematiques en physique :
mais ici il n'etait pas prophete, comme nous le verrons, du
moins concernant la connaissance structurelle possible des
systemes dynamiques. A part ces quelques contributions, la
theorie des systemes dynamiques resta dans 1'ombre durant
plusieurs decennies.
9
Pierre Duhem, La theorie physique (1906), 2e edition 1916 (Vrin, Paris, 1981),
pp. 206-211 : « Exemple de deduction mathematique a tout jamais inutili-
sable ».
132 La physique du XXe siecle

Entre les annees 1930 et I960, une ecole de mathema-


tiques appliquees et de physique mathematique se developpa
en Union sovietique autour de 1'etude des systemes dyna-
miques non lineaires et des processus stochastiques, a partir
de problemes de regulation des machines et de radiotechnique
portant sur les ondes electromagnetiques. Ces chercheurs,
qui disposaient d'une formation mathematique approfondie,
manifestaient en meme temps une grande preoccupation pour
la physique appliquee (une conjonction tres exceptionnelle a
1'epoque) et orienterent leurs recherches vers les oscillations
non lineaires, en direction tant des systemes conservatifs et de
leur comportement qualitatif, que des systemes dissipatifs avec
la formation de structures.
L'un des pionniers de cette ecole, Aleksander Andronov10,
reprit les resultats de Poincare et de Liapounov en les appli-
quant a des situations physiques dans le domaine des sys-
temes dissipatifs. II developpa une theorie generale des oscil-
lations non lineaires centree autour de 1'idee de systemes auto-
oscillants et de bifurcations. Son premier travail sur «les cycles
limites de Poincare et les oscillations auto-entretenues » fut pu-
blie en 1929 dans les Comptes-rendus de I'Academic des sciences de
Paris. Les applications envisagees concernaient de nombreux
domaines tels que 1'acoustique, la physique du rayonnement,
la chimie des reactions, et meme la biologic. Andronov pro-
posa, en 1937, avec Lev Pontriaguine11, d'etendre la conside-
ration des problemes de stabilite aux equations dynamiques
(par exemple, dans le cas des oscillations forcees). Us elabo-
rerent le concept de « systeme grossier » dans le sens suivant:
une perturbation dans la definition d'un tel systeme maintient
les trajectoires qui en sont les solutions a un homeomorphisme
pres; pour de tels systemes, la topologie de 1'ensemble des tra-
jectoires est maintenue. Le concept de « grossierete » pour un
systeme est de fait une definition de stabilite, et correspond a
ce qui sera appele ensuite « stabilite structurelle »12.
Andronov devait faire paraitre, en 1937, en collaboration
avec S.E. Cha'ikin, un ouvrage intitule La theorie des oscillations,
devenu un classique. D'autres membres importants de cette
10
Aleksander Alexandrovitch Andronov (1901-1952), mathematicien sovie-
tique.
11
Lev Semenovitch Pontriaguine (ou Pontryagin) (1908-), mathematicien
sovietique, connu par ailleurs pour ses travaux en topologie, notamment
sa demonstration, en 1932, d'une loi generale de dualite, ou theoreme de
Pontriaguine-van Kampen.
12
Denomination due a Salomon Lefschetz (1884-1972), mathematicien ame-
ricain d'origine russe, qui la proposa en 1952.
Systemes dynamiques et phenomenes critiques 133

ecole, L.I. Mandelstam, N.S. Krylov, N.N. Bogolubov, deve-


lopperent la physique non lineaire. Le mathematician Andrei
N. Kolmogorov, connu par ailleurs pour ses travaux fonda-
mentaux sur la theorie des probabilites et ses applications,
s'interessa en 1940 aux phenomenes de turbulence puis, en
1950, aux systemes dynamiques13.
Lev Landau et E. Hopf14 etudierent, chacun de leur cote, au
cours des annees 1940, le probleme d'hydrodynamique phy-
sique de la transition, pour un fluide, d'un etat laminaire vers
1'etat turbulent. Selon leur analyse, 1'etat stationnaire initial,
destabilise progressivement par la superposition successive
d'un certain nombre de vitesses independantes, tendrait en-
suite a nouveau vers un etat pouvant etre non stationnaire
mais quasi-periodique. II ne tendrait vers un etat turbulent
que dans le cas de la juxtaposition d'une infinite de frequences
ou « modes », independants, chacun etant associe a un degre
de liberte. La « theorie des modes » de Landau et de Hopf im-
pliquait done une infinite de degres de libertes pour 1'etablis-
sement d'un regime chaotique. Cette fac.on de voir fit autorite
dans le domaine jusqu'aux travaux de Ruelle et Takens dont
nous parlerons un peu plus loin.
George Birkhoff15, qui avait realise des 1912 un travail« sur
le mouvement des systemes dynamiques » publia en 19271'ou-
vrage Dynamical systems dans lequel il formulait la notion de
mouvements recurrents au lieu de la « stabilite a la Poisson »
de Poincare (qui avait lui-meme etabli un « theoreme de re-
currence » dans ses Methodes de mecanique celeste16}. Birkhoff
developpa, avec son eleve G.M. Morse, la « dynamique topo-
logique », tandis que Salomon Lefschetz, reprenant les resul-
tats des pionniers de 1'ecole russe, poursuivait, vers la fin des
annees 1940,1'etude des equations differentielles de la dyna-
mique.
II faut mentionner a cet endroit les travaux de 1'ecole
des mathematiciens bresiliens travaillant sur les systemes

13
L.I. Mandelstam, N.S. Krylov et N.N. Bogolubov, physiciens theoriciens
sovietiques. Andrei Nikolaievitch Kolmogorov (1903-1987), mathematicien
sovietique.
14
Lev Davidovitch Landau (1908-1968), prix Nobel de physique en 1962, et
E. Hopf, physiciens theoriciens sovietiques.
15
George David Birkhoff (1884-1944), mathematicien americain, specialiste
de 1'analyse et des equations differentielles appliquees a la dynamique, et
en particulier du probleme des trois corps ainsi que de la theorie cinetique
des gaz, dont il reformula rigoureusement les bases a 1'aide de son theoreme
ergodique.
16
Dans le troisieme volume.
134 La physique du XXe siecle

dynamiques, avec Mauricio Peixoto17 (et plus tard Jacob Palis


et d'autres), generalisant la question de la stabilite structurelle
a des dimensions quelconques, montrant que les systemes
structurellement stables sont denses (au sens mathematique),
c'est-a-dire que, etant donne un systeme quelconque situe
dans une region donnee de 1'espace, il existe dans son voi-
sinage un systeme structurellement stable. Les cheminements
de 1'etude des systemes dynamiques par les mathematiciens
peuvent ainsi etre vus comme la mise en place d'un certain
nombre de concepts mathematiques rigoureux pour definir le
concept physico-mathematique de stabilite structurelle18.
Au cours des annees I960, les travaux de Stephen Smale
et de V.I. Arnold sur les systemes dynamiques differentiates
attirerent 1'attention sur les resultats obtenus par 1'ecole so-
vietique et marquerent le debut d'un engouement au niveau
international pour ces problemes, que les resultats theoriques
et experimentaux qui suivent ne firent que renforcer. Les tra-
vaux de Rene Thorn sur la « theorie des catastrophes » ap-
partiennent au meme contexte. Portant sur les singularites de
certaines equations differentielles et leurs proprietes topolo-
giques, ils trouvent des illustrations et des applications dans
de nombreux domaines impliquant des changements discon-
tinus19.

« Chaos deterministe » et « attracteurs »


On passe, avec les etudes du meteorologiste Edward Lorenz20,
a 1'etude physique, observationnelle sinon experimentale au
sens propre, des phenomenes turbulents lies aux systemes dy-
namiques. Poincare avait souligne combien les variations de
I'atmosphere illustrent la situation d'une grande amplification
17
Mauricio Peixoto (1921-), mathematicien bresilien.
18
Un autre concept important, d'inspiration egalement mathematique, est
celui de genericite. Ce travail d'elaboration collectif et a plusieurs voix a ete
etudie du point de vue historique et epistemologique par Tatiana Roque dans
sa these (voir, d'une maniere generale, la bibliographie du chapitre 8 sur ce
theme).
19
Stephen Smale (1930-), mathematicien americain; V.I. Arnold (1937-), ma-
thematicien sovietique, travaillant actuellement a 1'Institut des hautes etudes
scientifiques (Bures-sur-Yvette, France); Rene Thorn (1923-), mathematicien
francais, auteur de la theorie du « cobordisme » sur les varietes differentiates,
ainsi que de travaux sur les espaces feuilletes et les ensembles et morphismes
stratifies, et sur la « theorie des catastrophes », rec.ut la Medaille Fields en
1958.
20
Edward Lorenz (1917-), physicien et meteorologiste americain.
Systemes dynamiques et phenomenes critiques 135

d'un effet minime, en rendant tres faible la previsibilite


du temps qu'il fera. L'atmosphere est un systeme physique
d'une extreme complexite, dans la determination duquel in-
terviennent des facteurs nombreux, aussi differents que la
temperature, la pression, le degre hygrometrique, 1'effet du
rayonnement solaire, le relief, la presence des oceans, etc., fac-
teurs a prendre en compte pour un instant donne en chaque
point de la surface terrestre et en altitude... En calculant, a
1'aide d'un ordinateur, les previsions d'un modele mathema-
tique simplifie des courants de convection de 1'atmosphere,
Lorenz retrouva, en 1963,1'effet d'amplification considerable
des petites differences de conditions initiales qu'avait indique
Poincare: de petites causes comme des orages localises (ou, en
exagerant un peu, un battement d'ailes de papillons) peuvent
avoir de grands effets sur le temps au niveau de 1'hemisphere,
ou meme de la planete entiere.
La sensibilite de tels systemes, par ailleurs entierement de-
terministes, a de tres petits changements dans les conditions
initiales, entrainait 1'impossibilite de predire leur comporte-
ment a terme. Meme en disposant d'un reseau tres serre de
mesures des differents parametres qui caracterisent la configu-
ration et les proprietes dans 1'espace et dans le temps de 1'at-
mosphere, les previsions meteorologiques ne peuvent porter
que sur une tres courte periode. L'instabilite meteorologique
ne tient pas seulement a la multiplicite des facteurs qui in-
terviennent, et Lorenz utilisait d'ailleurs un modele simplifie
a douze parametres. Comme on 1'a su par la suite, quelques
parametres seulement sont necessaires pour decrire des situa-
tions chaotiques. Lorenz essay a aussi un modele a trois va-
riables qui lui fournit le premier exemple d'un « attracteur »
(Yattmcteur de Lorenz). La simulation numerique presentait ici,
comme dans les etudes sur les systemes dynamiques en gene-
ral, un grand interet car elle permettait de tester la sensibilite
des parametres. Certains sont plus effectifs que d'autres dans
les transitions vers la turbulence; en particulier, certains des
parametres de ces situations complexes ne sont pas indepen-
dants21.
Par la suite, au cours des annees 1970, Lorenz appliqua
ses considerations a la biologic des populations. On s'aper-
c,ut plus tard que les comportements chaotiques concernent
de multiples phenomenes dans les domaines les plus divers,
comme le comportement du systeme solaire (dont Jacques

21
Aux effets normaux, dynamiques, d'imprevisibilite, s'ajoutent cependant
ceux de 1'approximation numerique, dont il faut tenir compte.
136 La physique du XXe siecle

Laskar, Jack Wisdom et Gerald Sussman ont montre le ca-


ractere chaotique22), le fonctionnement des lasers, 1'evolution
d'ecosystemes ou la cinetique de reactions chimiques.
David Ruelle et Floris Takens23 public-rent en 1971 leur ar-
ticle fondamental « sur la nature de la turbulence », portant
sur le comportement d'un liquide visqueux incompressible et,
plus precisement, sur la transition vers 1'etat turbulent. Us y
etablissaient, centre les idees regues auparavant (notamment
de la « theorie des modes » de Landau et Hopf dont nous
avons deja parle), que le comportement turbulent d'un sys-
teme dynamique n'est pas intrinsequement lie a un grand
nombre de parametres : un etat turbulent s'etablit a la suite
d'un petit nombre de bifurcations, c'est-a-dire pour un sys-
teme a un nombre petit (et non pas quasi-infini) de degres
de liberte. Ruelle et Takens introduisaient egalement la notion
d'« attracteur etrange », designant par ce mot 1'ensemble des
courbes caracteristiques des parametres d'un systeme turbu-
lent : les attmcteurs sont les etats finals possibles dans les sys-
temes dissipatifs et constituent la signature de 1'etat turbulent
(ou « chaotique »).
Pour concevoir ce qu'est un « attracteur », imaginons plu-
sieurs etats d'un meme systeme dynamique defini par un
ensemble d'equations differentielles mais dont les conditions
initiales seraient differentes. L'attracteur est une petite region
de 1'espace des phases ou le point representatif du systeme
vient au bout d'un certain temps et qu'il parcourt indefini-
ment. Dans le cas de 1'attracteur de Lorenz, comme le systeme
est decrit par trois parametres, il est represente par la figure
que parcourt un point d'un espace a trois dimensions (voir
la figure 8.1). Le point figuratif representant 1'etat du systeme
suit un chemin desordonne qui va de 1'une a 1'autre des par-
ties de la figure de 1'attracteur, mais il en dessine au total la
figure entiere. Si 1'on suit successivement les autres etats du
meme systeme dynamique, differents pour chaque ensemble
de conditions initiales, on obtient le meme attracteur, mais
les diverses regions de celui-ci sont occupees a des instants
tres differents. Ce qui compte, finalement, c'est la figure d'en-
semble, decoupee dans 1'espace des phases, globalement in-
variante, liee a la structure dynamique du systeme c'est-a-dire
a son ensemble d'equations differentielles, qui « attire » les

22
Jacques Laskar, astronome fran^ais du Bureau des longitudes, Jack Wisdom
et Gerald Sussman, physiciens americains.
23
David Ruelle, physicien beige, travaille a 1'Institut des hautes etudes scien-
tifiques (Bures-sur-Yvette, France); Floris Takens, physicien hollandais.
Systemes dynamiques et phenomenes critiques 137

Figure 8.1. Attracteur


de Lorenz, figure par ordinateur
programmed par Oscar Lanford.

trajectoires independamment de leur point de depart. D'ou le


nom d'« attracteur », par ailleurs etrange par ses proprietes :
c'est une region homogene, a structure feuilletee, identique a
elle-meme a toutes les echelles...
Le terme de « chaos » fut propose en 197524, avec le suc-
ces que Ton sait, pour decrire ce genre de situation, en realite
extremement frequente et rencontree dans des phenomenes
tres divers. Si le terme frappe les imaginations, il suggere sou-
vent des interpretations trompeuses, comme si la science ne
pouvait plus rien predire dans de tels cas, les systemes les
plus « deterministes » soient-ils etant tout simplement voues
a terme au seul hasard. Mais, bien entendu, ce n'est pas le
choix arbitraire d'un mot faisant image qui donne le contenu
d'un concept, ni en physique ni ailleurs. On ne peut parler de
« systemes chaotiques » que dans le sens precis (mathemati-
quement et physiquement) suivant: ce sont des systemes phy-
siques determines par une equation dynamique non lineaire,
tres sensibles a de petites variations des conditions initiales,
rapidement amplifiers de telle sorte que toute precision sur les
trajectoires individuelles des particules constituant ces systemes
devient au bout d'un certain temps impossible.
Le travail « seminal » de Ruelle et Takens ouvrit la voie
des recherches experimentales par la possibilite de controler
les parametres sensibles des processus conduisant au regime
de turbulence. La notion d'attracteur se plac,ait desormais au
centre de la theorie, substituant les parametres : 1'attracteur
est la structure cachee sous le chaos apparent des trajectoires.
24
Par Li et Yorke, dans la revue « American Mathematics Monthly :
138 La physique du XXe siecle

II fut possible de mettre en evidence de tels attracteurs, d'abord


en les etudiant par calcul numerique (comme une sorte
d'« experience mathematique »), ensuite en laboratoire. Us ont
notamment ete mis en evidence dans des phenomenes hydro-
dynamiques par des experiences physiques proprement dites,
qui permirent d'« observer » les attracteurs etranges dans
1'espace des phases pour des situations donnees, en identi-
fiant des scenarios, ou « routes de transition vers le chaos » :
ces derniers donnent, par correspondance, et, en quelque sorte
construisent, la signification physique de tels « objets ».
Parmi les travaux experimentaux de cette nature qui se
sont developpes a partir du debut des annees 1980, ceux reali-
ses par Pierre Berge (qui fut 1'un des pionniers de la physique
du chaos du point de vue phenomenologique) en collabora-
tion avec Monique Dubois et Yves Pomeau sont exemplaires et
caracteristiques25. Ces chercheurs ont etudie les modalites de
la transition d'un systeme dynamique vers la turbulence en en
controlant les parametres physiques. Aides par leur connais-
sance des methodes de velocimetrie optique par rayons laser
et par interferometrie, ils etudierent dans leur comportement
temporel les rouleaux de convection dits de Rayleigh-Benard
d'un fluide chauffe entre des plaques, divise en cellules. Pour
suivre le deroulement du phenomene, il leur fallut traduire
physiquement les concepts de la theorie mathematique des
systemes dynamiques, telle que Ruelle et Takens 1'avaient pro-
posee, afin de construire une interpretation du phenomene
etudie. Ils accederent ainsi a la possibilite de controler les
degres de liberte du systeme dont 1'etat turbulent etait signe
par 1'attracteur etrange. Simulation numerique par ordinateur
et observation experimentale etaient conjuguees, et aboutirent
a la description des etapes du phenomene avec notamment la
mise en evidence d'un nouveau scenario de la transition vers
la turbulence, « 1'intermittence ».
Nous retiendrons encore un autre effet remarquable (parmi
bien d'autres) de 1'etude des systemes dynamiques, qui est la
connaissance beaucoup plus precise du probleme de la sta-
bilite du systeme solaire. Cette stabilite initialement posee
comme 1'effet d'une action divine par Newton, avait ensuite
ete trouvee « par le seul secours du calcul » par Laplace,
puis examinee avec la precision de plus en plus grande des
methodes de calcul, de Le Verrier a Poincare. Ce dernier
25 pjerre Berge (1939-1997), Monique Dubois, Yves Pomeau, physiciens fran-
^ais. Je renvoie a leurs ouvrages, ainsi qu'a 1'etude historico-epistemologique
de leurs travaux faite par Sara Franceschelli dans sa these (voir la biblio-
graphic).
Systemes dynamiques et phenomenes critiques 139

la trouvait effective, mais sans garantie absolue a terme.


En reprenant le probleme, A.N. Kolmogorov trouva comme
solutions des trajectoires oscillant indefiniment autour de
positions moyennes, d'ou il concluait a la stabilite du sys-
teme solaire. Toutefois, 1'echelle de temps accessible aux cal-
culs etait relativement petite, et cette relative stabilite s'inscri-
vait au sein de situations de configurations instables, si 1'on
envisageait des temps de 1'ordre de 108 annees (cent millions).
La puissance des ordinateurs a permis recemment de calculer
les trajectoires des planetes du systeme solaire sur une echelle
de temps de cet ordre et d'etudier la stabilite de chacune
des planetes. Jacques Laskar a montre ainsi le caractere chao-
tique du mouvement des planetes interieures avec un temps
caracteristique d'environ 10 millions d'annees26, tandis que
les orbites des planetes exterieures, au contraire, sont stables
sur plusieurs milliards d'annees.
Remarquons que tout systeme dynamique n'est pas neces-
sairement chaotique. Un systeme dynamique ne devient chao-
tique que s'il respecte certaines conditions : par exemple,
en physique, des systemes complexes a tres grand nombre
de parametres doivent etre decrits par des equations exactes
(cas de 1'orbite future de la Terre); des systemes plus simples
devront etre decrits par un petit nombre de parametres (cas
de certaines reactions chimiques). En biologic et en economie,
il est plus difficile de deceler s'il s'agit vraiment de systemes
chaotiques en raison du caractere incertain de leur modeli-
sation mathematique. Quoiqu'il en soit, le chaos peut etre un
puissant outil theorique pour etudier des proprietes nouvelles
ou des types de comportement.
Les etudes, aujourd'hui repandues, de situations de chaos
deterministe dans la nature (en physique, en meteorologie,
etc.) et en particulier la possibilite de les controler en labora-
toire, ont permis de caracteriser de maniere positive ce type
de phenomenes, en depassant le simple constat de leur impre-
visibilite a terme.
L'absence de prevision possible, qui devrait apparaitre
comme une sorte d'indetermination, peut etre vue, en fait,
comme 1'effet d'une sorte de determinisme absolu, ou pour
26
Mars et la Terre sont animees de mouvements chaotiques qui les laissent
dans des zones separees; les deformations de 1'orbite terrestre dues a 1'inter-
action des autres corps sont periodiques sur une echelle d'un million d'an-
nees (mais chaotiques a 1'echelle de 100 millions d'annees). Venus et surtout
Mercure ont des mouvements tres chaotiques, au point que le sens de rotation
de Venus autour de son axe a pu changer plusieurs fois depuis sa formation, et
que Mercure pourrait meme un jour (relativement lointain) quitter le systeme
solaire.
140 La physique du XXe siecle

mieux dire de necessite absolue. Toutes les causes, meme celles


que nous ignorons mais qui nous paraitraient negligeables
parce qu'elles nous echappent (imperceptibles comme un bat-
tement d'ailes de papillon a de tres grandes distances) se
joignent aux autres effets qui seront necessairement pergus
plus tard, au bout d'un certain temps, meme tres loin de leur
lieu d'action initial. D'un autre cote, comme les conditions ini-
tiales ne nous sont, en fin de compte, pas tout a fait exactement
connues, nous ne nous trouvons jamais dans une situation de
determinisme au sens strict. Autrement dit, l'« ideal determi-
niste », meme pour les systemes physiques, ou mecaniques,
classiques, reste tres eloigne de la realite. II represente un point
de vue anthropocentrique de la connaissance de la nature et
n'a qu'une prise limitee sur la necessite de la nature. Sa capacite
de previsions est souvent derisoire au regard des informations
que ces systemes recelent.
De tels systemes restent cependant gouvernes par 1'enchai-
nement des causalites. Us sont structures, de maniere causale,
par le systeme ou Yensemble de leurs equations differentielles,
transcription de cette causalite physique. Or cet ensemble pos-
sede une contrepartie dans les phenomenes qui apparait tout
a fait determinee (du moins de maniere globale): 1'attracteur.
Les developpements de 1'etude de tels systemes nous revelent
ainsi que nous pouvons acceder a des connaissances bien plus
riches que celles envisagees au depart si nous ne nous laissons
pas enfermer dans les limitations d'une pensee du determi-
nisme, et si nous pensons plus largement les predictions d'une
autre nature permises par les relations causales. Par exemple,
comme Poincare en eut 1'idee le premier, en s'interessant au
comportement general (« qualitatif ») des solutions, ou au
comportement de families de trajectoires (au lieu d'une seule)
ou encore, comme les connaissances plus recentes 1'ont fait
voir, aux « attracteurs etranges » qui signent les proprietes
structurelles de tels systemes physiques. II semble bien qu'ils
servent a caracteriser un comportement physique specifique
pour un type donne de systeme, et on peut ainsi penser qu'ils
ont la signification d'un veritable concept physique.

Phenomenes critiques
et transitions de phases
Les phenomenes physiques a seuil, ou phenomenes critiques,
caracterises par une discontinuite entre les diverses phases ou
etats de 1'organisation de la matiere qui les constituent a un
Systemes dynamiques et phenomenes critiques 141

niveau donne, remarques dans differents domaines, ont ete


etudies de maniere qualitative depuis la fin du XIXe siecle,
sans que fussent epuisees les considerations theoriques a leur
sujet. Ces differents domaines sont la thermodynamique (pour
les transitions entre les etats solide, liquide et gazeux : voir
1'etude des proprietes d'un fluide au point critique par van
der Waals), le magnetisme (le point de Curie pour le ferroma-
gnetisme), I'electromagnetisme (les plasmas, parfois appeles
« quatrieme etat de la matiere » completement ionisee). A
ces phenomenes se sont ajoutes plus recemment deux etats
de phase de la matiere quantique : la condensation de Bose-
Einstein (conc.ue theoriquement des 1925, observee seulement
en 1996), et les plasmas de quarks et de gluons (predits par la
chromodynamique quantique et qui ont connu un commence-
ment d'observation dans les dernieres annees du XXe siecle).

Tous ces phenomenes, bien qu'ils relevent de dynamiques


tres differentes, pour lesquelles on dispose d'ailleurs desor-
mais de theories satisfaisantes, possedent un point en com-
mun, qui n'avait jusque recemment pas ete explore, faute de
concept theorique adequat: le caractere et le type d'action de
la cause de la transition brutale et discontinue qui fait pas-
ser d'une phase a une autre. Ce probleme est celui, considere
d'une maniere generale, des phenomenes critiques et des tran-
sitions de phases. II a pu faire 1'objet de grandes avancees au
cours des vingt dernieres annees grace aux considerations de
symetrie et de groupes de transformations qui ont affecte en
profondeur tous les domaines de la physique, classique aussi
bien que quantique.

L'un des renouvellements les plus remarquables de la phy-


sique dans le dernier tiers du XXe siecle a ete en effet, sans
aucun doute, 1'etude theorique des phenomenes critiques et
des transitions de phase a 1'aide du « groupe de renorma-
lisation ». II s'agit la d'un cas particulierement notable de
fecondation mutuelle de deux domaines totalement distincts
de la physique, grace a une similitude structurelle (a une
« analogic mathematique », selon 1'expression de Poincare)
des mathematiques qui leur sont appropriees; ces dernieres
se rapportant en 1'occurrence, une fois encore, aux proprie-
tes des groupes de transformations et de symetries. L'idee de
renormalisation (dont 1'histoire serait a faire, car elle remonte,
quant au type de procedure, aux premiers calculs en series de
perturbations dans le traitement du probleme a trois corps en
142 La physique du XXs siecle

astronomic, effectues au milieu du XVIIP siecle27) provient de


la theorie quantique des champs, ou elle a permis de reformu-
ler de maniere rigoureuse et avec une tres grande precision
1'electrodynamique quantique, puis les theories des champs
de jauge (avec la theorie electrofaible et la chromodynamique
quantique, voir le chapitre 7).
La « renormalisation » est une operation de redefinition
physique de certains parametres qui, calcules mathematique-
ment, recevraient une valeur infinie, due a des integrales di-
vergentes, en raison de 1'idealisation des grandeurs utilisees,
comme le recours au concept de point sans dimension. En
theorie quantique des champs, les calculs d'interactions des
« integrales de chemin » correspondant aux « diagrammes de
Feynman » font intervenir des developpements perturbatifs
en series de puissances de la constante de couplage. Dans les
termes de chacun des ordres de la serie apparaissent les ex-
pressions prenant des valeurs infinies; elles sont indesirables,
car non physiques, puisqu'on sait que les grandeurs physiques
calculables a partir du developpement en serie sont finies (par
exemple, la masse et la charge electrique d'un electron). La
renormalisation consiste a remplacer, a chaque ordre de per-
turbation, les termes divergents par des quantites qui restent
finies (determinees par le moyen de « coupures » en energie).
On dit que la theorie considered est renormalisable si cette ope-
ration peut etre effectuee en ne redefinissant qu'un nombre fini
de parametres, de sorte que la theorie soit calculable et donne
lieu a des predictions physiques definies en considerant tous
les ordres possibles de la serie de perturbations.
La renormalisation laisse invariante la dynamique des in-
teractions (dans le cas des champs quantifies de jauge). Cette
condition definit le « groupe de renormalisation » dont les
equations expriment cette invariance et donnent le contenu
physique de la theorie, laquelle est des lors totalement predic-
tible. Le groupe de renormalisation, employe avec succes en

27
Ces calculs etaient effectues par Leonhard Euler, Alexis Clairaut et Jean
d'Alembert: ils rencontraient aux divers ordres du developpement en serie
des termes « circulaires », ou encore « seculaires », contenant directement la
variable temporelle (qui etait autrement confinee dans des termes en sinus
et cosinus) et allant ainsi a 1'infini avec le temps. Ils attribuaient 1'apparition
de ces termes a la technique mathematique employee et s'efforc.aient de les
eliminer. Ce probleme a continue d'occuper par la suite 1'astronomie mathe-
matique (de Joseph Louis Lagrange et Pierre Simon Laplace a M. Lindstedt
et Henri Poincare). Des termes infinis apparaissent aussi dans les calculs de
1'electrodynamique classique du debut du XXe siecle, ou ils ont a voir avec
1'utilisation du point materiel sans dimension (comme c'est aussi le cas avec
1'apparition de quantites infinies en theorie quantique des champs).
Systemes dynamiques et phenomenes critiques 143

theorie quantique des champs (comme on 1'a vu au chapitre 7),


a ete etendu a un autre domaine, pourtant tres eloigne, de la
physique : celui de la thermodynamique et de la mecanique
statistique concernant les phenomenes critiques et les transi-
tions de phase considered d'une maniere generale. Kenneth
Wilson28, qui avait fait ses premieres recherches en theorie
quantique des champs, eut 1'idee d'appliquer la technique
mathematique de la renormalisation a 1'etude theorique des
phenomenes critiques. Dans une transition de phase comme
la liquefaction d'un solide ou la vaporisation d'un liquide
(dite transition de phase du second ordre), les phases diffe-
rentes sont melangees dans le voisinage du point critique,
et ce melange se retrouve aux diverses echelles de dimen-
sions que Ton peut considerer entre le niveau microscopique
et le niveau macroscopique. A ces melanges correspondent
des fluctuations de densite. En effectuant pour chaque echelle
des moyennes sur les fluctuations, on retrouve les contraintes
du groupe de renormalisation. Celles-ci permettent finalement
d'exprimer les proprietes physiques du systeme, c'est-a-dire
la dynamique des changements d'etat au voisinage du point
critique. Le groupe de renormalisation fournit ainsi la theorie
des phenomenes critiques.
II est remarquable que le « groupe de renormalisation »
soit efficace dans des domaines aussi differents que la theorie
quantique des champs et la theorie des phenomenes critiques.
Cela est du assurement a une analogic « formelle », dans la
forme mathematique, entre les fluctuations quantiques et les
fluctuations en mecanique statistique. Cela indique peut-etre,
plus profondement, une structure mathematique commune ou
universelle sous-jacente a la forme theorique de dynamiques
aussi differentes. On pourrait faire a ce propos une remarque
analogue a celle de Poincare sur la physique mathematique
en general: Poincare soulignait qu'un meme type d'equation
fondamentale (comme, par exemple, 1'equation de Laplace,
Ay = 0), pour des grandeurs tres differentes, avait la capacite
de decrire des proprietes et des phenomenes relatifs a des do-
maines sans rapport entre eux (comme le potentiel newtonien
d'un champ de gravitation ou la distribution d'electricite a la
surface d'un conducteur).
Ce genre de similitude de structure pour des systemes de
concepts sans commune mesure constitue sans aucun doute
un trait fondamental de la physique actuelle, du a ses modes

28
Kenneth G. Wilson (1936-), physicien americain, ancien eleve de Murray
Gell-Mann, recut le prix Nobel de physique de 1982.
144 La physique du XXe siecle

d'approche mais aussi probablement a la nature meme des


phenomenes dont elle traite, malgre leur grande difference.
Elle se rapporte, d'une maniere ou d'une autre, a 1'unite fon-
damentale de la matiere, selon ses differentes proprietes, qui
est 1'objet de la physique. L'utilisation de plus en plus ge-
nerale des groupes de symetries et de transformations est un
autre aspect de cette perspective vers 1'unite (en verite, ces der-
niers englobent le groupe de renormalisation et des symetries
d'echelle).

Les quasi-cristaux
La notion de structure d'ordre des corps solides, que Ton
croyait bien circonscrite par la connaissance de la structure
et des proprietes des cristaux, a connu des modifications
qui conduisent a dissocier 1'identification classique stricte de
I'ordre avec la periodicite. Ces modifications se sont operees
dans deux directions : la realisation de deformations modu-
lees de 1'arrangement cristallin et la decouverte de « quasi-
cristaux ». Avant de les aborder, nous ferons un bref rappel
sur les connaissances anterieures relatives aux cristaux.
Des la fin du XVIIP siecle, Rene-Just Haiiy, fondateur de la
cristallographie29, avait mis en evidence et etudie de maniere
systematique les proprietes physiques des cristaux, montrant
que leur forme geometrique est liee a 1'espece chimique inde-
pendamment de 1'origine et etudiant leurs proprietes de tron-
cature et leur anisotropie. Les cristaux temoignent d'un ordre
dans la structure moleculaire qui se reproduit jusqu'au niveau
macroscopique. Get ordre est lie a des symetries spatiales, plus
faibles pour le cristal que la symetrie generale, maximale, d'un
gaz ou d'un liquide homogene, dont la forme et les proprietes
sont invariantes sous des displacements (translations et rotations)
quelconques. Les transitions entre les differentes phases sont,
comme on le sait, discontinues30, et font 1'objet de 1'etude des
phenomenes critiques, dont nous avons parle (ce sont des bri-
sures de symetrie aux alentours du « point critique »).
Indiquons ici, incidemment, 1'existence d'etats de matiere
dans une phase a symetrie intermediaire (ou « mesophase »)
entre 1'etat de cristal solide et de liquide : ce sont les « cristaux
29
Rene-Just Haiiy (1743-1822), abbe et mineralogiste frangais, professeur a
1'Ecole des Mines et au Museum d'histoire naturelle. II publia notamment un
Essai d'une theorie sur la nature des cristaux (1784) et un Traite de cristallographie
(1822).
30
En ce qui concerne leur configuration spatiale, on ne peut pas prolonger
analytiquement 1'une pour parvenir a 1'autre.
Systemes dynamiques et phenomenes critiques 145

liquides », qui ont de tres nombreuses applications dans des


instruments aussi familiers aujourd'hui que les montres ou
les ecrans d'ordinateurs. Us gardent une symetrie de transla-
tion et, par exemple, une direction privilegiee (de tels mate-
riaux sont appeles « nematiques ») ou une structure lamellaire,
periodique dans une direction et desordonnee dans les autres
(les « smectiques »).
Revenons a la transition de la phase liquide a la phase solide,
par refroidissement en-dessous de la temperature critique. Elle
peut conduire, dans le cas de certains materiaux, a 1'existence
de plusieurs phases solides et cristallines differentes (voir, par
exemple, le carbone, qui peut etre, entre autres, graphite ou
diamant) suivant les conditions physiques de la solidification
(gradient de temperature, pression, etc.). Chaque phase solide
ou cristalline correspond a une organisation differente des
atomes du materiau, et done a des proprietes physiques dif-
ferentes. En ce qui concerne les phases cristallines d'un meme
materiau, elles sont caracterisees par des groupes cristallo-
graphiques distincts. En particulier, les phases cristallines de
« chiralites » opposees d'un meme materiau (la chiralite est
une orientation propre qui n'est pas conservee sous la syme-
trie en miroir ou parite31) ont des proprietes tres differentes.
Cette constatation, soit dit en passant, a des implications im-
portantes en biologie moleculaire : les molecules organiques
complexes du vivant ont une seule et meme chiralite (et non
les deux qui seraient a priori possibles). Cette selection, sans
doute accidentelle a I'origine, resulte des mecanismes de revo-
lution et des circonstances particulieres qui ont donne lieu a
1'apparition de la vie (voir le chapitre 12).
D'une maniere generale, les proprietes d'un solide sont in-
variantes sous certaines rotations (autour de leurs axes de
symetrie) et non sous d'autres : elles sont anisotropes (par
exemple, 1'indice de refraction d'un cristal depend de deux
variables de direction et se comporte comme un tenseur).
L'invariance par rotation dans 1'etat fluide se « brise spon-
tanement » lors de la transition de phase entre 1'etat liquide
et 1'etat solide cristallin. En perdant de la symetrie, le cristal a
augmente son ordre, ce dernier etant mesure par la baisse d'en-
tropie32 qui accompagne le processus de cristallisation. L'ordre
de la structure cristalline, correspondant a des invariances par
31
Par exemple, la main droite ou la main gauche dans le cas d'un corps hu-
main, ou un moment angulaire, ou un spin, a deux orientations ou davantage,
dans le cas de particules elementaire (voir les chapitres 6 et 7).
32
L'entropie d'un systeme est definie comme S = J dQ/T, dQ etant 1'element
de chaleur perdue et T la temperature absolue.
146 La physique du XXe siecle

translation et par rotations autour d'axes de symetrie, est pe-


riodique, les symetries au niveau atomique ou moleculaire se
retrouvant au niveau d'arrangements quelconques d'atomes
ou de molecules jusqu'a 1'echelle macroscopique. Les syme-
tries des cristaux constituent des groupes d'operations spa-
tiales (translation, rotations, parite ou symetrie en miroir) qui
laissent invariants les arrangements au niveau de la structure
atomique. Ces groupes, completement repertories par Haiiy,
sont au nombre de 230, et les seules rotations permises par la
periodicite des structures cristallines sont d'ordres 2, 3,4 et 6,
avec des angles bien determines : 180°, 120°, 90°, 60°. D'autres
valeurs ne permettraient pas le recouvrement de la figure du
cristal par rotation.
L'etude des deformations des cristaux par 1'application
d'ondes de modulation (d'origine mecanique, comme une onde
sonore traversant le cristal, ou d'origine magnetique ou chi-
mique) a montre que la periodicite d'un cristal pouvait etre
modifiee par 1'etablissement de phases dites « incommensu-
rables », dependant de la direction de 1'onde modulee, detec-
tables par des figures d'interference par diffraction. De telles
structures deformees ne sont plus periodiques au sens strict,
1'ensemble n'etant pas recouvrable par des rotations, ni meme
par translation. Cependant, elles continuent d'etre ordonnees.
La decouverte des cjuasi-cristaux formes dans certains
alliages a apporte un autre type de quasi-periodicite, present
dans des corps de la nature, qui obligea a reconsiderer les
conceptions usuelles sur 1'ordre cristallin.
Etudiant des alliages metalliques constitues d'aluminium
et de manganese, Dany Schechtman33 observa, au microscope
electronique en 1984, des precipites de type cristallin ayant une
symetrie d'ordre 5 (celle de pentagones reguliers, faces d'un
dodecaedre, solide a douze cotes egaux), ce qu'interdisait la
cristallographie classique, car une telle symetrie est incompa-
tible avec la triple periodicite spatiale des cristaux (elle interdit
la superposition d'un cristal sur lui-meme). De tels objets sont
anisotropes comme les cristaux mais ne presentent pas de re-
seaux periodiques. Us ne sont pas invariants par translation,
tout en recelant un certain ordre, revele par les figures de dif-
fraction que leur reseau determine. Cette decouverte montrait
que les structures ordonnees des corps de la nature peuvent
comporter d'autres symetries que celles de la cristallographie
ordinaire. Des structures differentes, avec d'autres symetries
egalement interdites pour des cristaux (5 et 10, ainsi que,

Dany Schechtman, physicien israelien.


Systemes dynamiques et phenomenes critiques 147

dans une moindre mesure, 8 et 12), furent observees par la


suite, revelant la generalite du phenomene. Leur ensemble
constitue desormais ce qu'on appelle des « quasi-cristaux ».
Les cristaux, dont la structure est revelee par des figures
de diffraction, sont des solides dans lesquels les atomes sont
distribues de maniere periodique dans 1'espace a trois dimen-
sions, et qui se comportent comme les nceuds d'un reseau,
diffractant le rayonnement incident. La tridimensionalite de
1'espace ne permet de retenir, pour des arrangements perio-
diques, que 32 combinaisons de symetrie pour les orienta-
tions relatives des facettes. La symetrie d'ordre 5 echappe a
ces combinaisons. II fut cependant possible d'etudier les nou-
veaux objets comme des structures quasi-periodiques ordon-
nees seulement sur de longues distances. De telles structures
etaient deja connues, comme on 1'a vu, par 1'etablissement
de phases dites « incommensurables », obtenues par appli-
cation d'ondes de modulation modifiant la periodicite d'un
cristal. On s'aper^ut alors que les quasi-cristaux avaient une
periodicite icosaedrique (un icosaedre est un solide a 20 faces
constitutes de triangles reguliers) dans un espace a six dimen-
sions, dont le quasi-cristal observe serait une coupe dans les
trois dimensions de 1'espace ordinaire.
L'ensemble des structures ordonnees considerees, qui ne
sont pas des cristaux, sont des structures ordonnees aperiodiques
ou quasi-periodiques. Elles revelent des symetries, cachees dans
1'espace tridimensionnel, qui se rapportent a des espaces a un
nombre plus grand de dimensions. Ces espaces fournissent
ainsi une representation geometrique de ces objets. Les quasi-
cristaux appartiennent desormais a la cristallographie a N
dimensions.
L'etude de ces periodicites, que Ton avait cru au debut
« deviantes », mais en realite tout a fait naturelles, peut etre
eclairee par 1'image de la disposition des pavages non perio-
diques (comme celui du mathematicien Roger Penrose). Une
symetrie d'ordre 5 pour des figures dans le plan peut etre ob-
tenue par deux elements au lieu d'un seul et unique pour les
symetries planes ordinaires : en 1'occurrence, deux losanges
d'angles au sommet respectivement (4H/5, n/5) et (371/5,
271/5). Un tel pavage ne peut se superposer a lui-meme sur
quelque distance qu'on le prenne, mais on peut le retrouver
comme une coupe a deux dimensions d'un objet periodique
dans un espace a quatre dimensions.
L'ordre cristallin semble etre un cas particulier de struc-
tures d'ordres plus generaux dans les formes des corps so-
lides. On soulignera la valeur heuristique, meme dans de telles
148 La physique du XXe siecle

Figure 8.2. Partie d'un pavage


de Penrose.

formes concretes (des solides faits de reseaux atomiques ordon-


nes), de representations dans des espaces de configuration a
plus de trois dimensions, que Ton savait deja utiliser dans
des representations beaucoup plus abstraites comme celles
de 1'espace-temps a 4 dimensions (voir le chapitre 2) ou des
espaces a n dimensions dont n - 3 sont repliees, des theories
de cordes en cosmologie (voir les chapitres 7 et 11)...

Les objets fractals


On doit au mathematicien Benoit Mandelbrot34, la decouverte,
vers 1970, des structures « fractales », correspondant a des
« geometries fractales », a dimensions non entieres, decrivant
les formes et les proprietes de nombreux objets, soit rencon-
trees dans la nature, soit produites par la pensee et 1'activite
humaine. Ces « geometries » permettent de retablir un ordre
dans des formes apparemment desordonnees mais exhibant
34
Benoit Mandelbrot (1924-), mathematicien franc.ais d'origine polonaise,
developpa la theorie des fractales (dont il inventa le nom, tire du latin « frac-
tus », brise).
Systemes dynamiques et phenomenes critiques 149

des regularites sous-jacentes qui se reproduisent a diverses


echelles. Mentionnons, comme exemples de telles formes :
des agregats atomiques irreguliers, les fronts de diffusion dans
des soudures, des cristaux de givre en dentelles, la suite des
asperites d'un grain de sable examine au microscope, le des-
sin dechiquete des cotes marines ou des zones rocheuses des
montagnes en geographic, la repartition des galaxies dans
1'espace cosmique, les arborescences de nombreux systemes
biologiques comme les alveoles pulmonaires et les vaisseaux
sanguins, le dessin de plantes, de fleurs ou de fruits (du tour-
nesol au chou-fleur, a la pomme de pin...), et les cours de la
bourse... Une telle geometric est egalement appropriee aux
attracteurs etranges et aux formes prises par des systemes
turbulents ou chaotiques en dynamique non lineaire, ainsi
qu'a d'autres types de phenomenes aleatoires, auto-amortis,
formes resultant de processus de percolation, etc. Cette
variete d'applications aux phenomenes les plus courants de la
vie quotidienne et des formes qui nous entourent, s'ajoutant a
1'appel esthetique de beaucoup de ces formes, ont rapidement
popularise les fractales.
Les notions d'« invariance d'echelle » et de « symetrie
d'echelle », reliees par ailleurs a 1'etude des phenomenes cri-
tiques, sont a 1'origine de la notion de dimension non entiere.
(L'echelle etant celle d'une representation choisie, comme
on parle de 1'echelle d'une carte : son invariance traduit la
similitude par homothetie35). La symetrie d'echelle exprime
les proprietes de similitude interne d'un objet ou d'un sys-
teme physique (par exemple un cube contient une infinite de
cubes homothetiques semblables). Elle avait ete considered
des les premiers pas de la physique des materiaux (1'une des
« deux sciences », avec la dynamique, dont traitait Galilee
dans ses Discours sur deux sciences nouvelles, au XVIP siecle)
par la constatation que 1'equilibre mecanique d'une structure
ne peut s'ecarter beaucoup d'une echelle donnee : le volume,
et done le poids, est comme le cube de la longueur, tandis que
la force qui supporte le poids, proportionnelle a la section,

35
L'invariance d'echelle (en anglais « scale invariance » ou « scaling ») est
utilisee aussi en dynamique de la physique des particules elementaires, ou elle
a ete introduite par J.D. Bjorken et par R.P. Feynmann, en 1969. Les «fonctions
de structure » des hadrons ne sont fonction, a tres haute energie (E) et transfert
d'impulsion (q) (pour leurs valeurs « asymptotiques ») que du rapport des
grandeurs q/E (variable sans dimension, independante des energies), et non
des deux variables separement, ce qui conduit au « modele des partons » et
des quarks (voir le chapitre 7).
150 La physique du XXe siecle

est comme le carre36. C'est une donnee bien connue des archi-
tectes et des ingenieurs. Poincare en discute egalement dans
un de ses ouvrages de philosophic des sciences a propos des
symetries spatiales, montrant que les lois de la mecanique ne
sont pas invariantes par homothetie.
C'est en etudiant la geometric d'objets dont chaque partie
reproduit le tout a un facteur d'echelle ou d'homothetie pres
(comme le cube et ses sous-cubes), qu'il appela autosimilaires
ou a similitude interne, que Mandelbrot fut amene a formu-
ler la notion de « geometrie fractale » et d'objets fractals, ou
simplement de « fractale ». Une geometrie fractale est caracte-
risee par une « dimension non entiere », en prenant dimension
dans le sens des dimensions d'un espace. Les dimensions geo-
metriques ordinairement observees dans la nature sont celles
de 1'espace, soit 1 pour la ligne, 2 pour la surface, 3 pour le
volume (le point etant, quant a lui, de dimension nulle). On
congoit egalement abstraitement des dimensions superieures,
d'espaces a n dimensions.
D'une maniere generale, il existe une relation simple entre
le « facteur d'echelle » (/) caracteristique d'une dilatation (ou
homothetie) invariante, le nombre des sous-objets (ou sous-
systemes, N) de 1'objet initial determines par cette relation
d'echelle et la dimension (d). Pour 1'espace ordinaire a trois
dimensions (d = 3), cette relation est : N = fd. A partir de
cette formule, on peut donner une definition generalised de
la dimension d'un objet ou systeme : d = Log N/Log/. Les
objets ou les formes geometriques de 1'espace ordinaire ont
ainsi une dimension entiere : un cube divise par symetrie en
parties egales est bien de dimension 3 (pour / = 2, N = 8 = 23,
soit d - 3). Les objets ou systemes de dimension non entiere
sont des «fractales » (ou « objets fractals »).
L'idee de dimension non entiere avait ete proposee avant
la definition des fractales, des 1919, par le mathematicien
Felix Hausdorff37, a propos de formes presentant une syme-
trie geometrique de cette sorte, comme la courbe de von Koch
ou le triangle de Sierpinski38 (voir la figure 8.3). En termes
de dimension, la courbe de von Koch, dont chaque element
de symetrie est divisible en 4 sous-elements pour un facteur
36
Galilee expliquait ainsi pourquoi les fourmis portent de bien plus grandes
charges en proportion de leur taille qu'un animal beaucoup plus grand.
37
Felix Hausdorff (1868-1942), mathematicien allemand, fut I'un des fonda-
teurs de la topologie generale et developpa le concept d'espace metrique.
38
Helge von Koch (1870-1924), mathematicien suedois, publia la courbe qui
porte son nom en 1904. Waclaw Sierpinski (1882-1969), mathematicien polo-
Figure 8.3. Tamis de Sierpinski. nais.
Systemes dynamiques et phenomenes critiques 151

d'echelle 3, est de dimension fractale Log4/Log3 = 1,2618...


Le tamis ou triangle de Sierpinski, obtenu par une suite d'evi-
dements du triangle central dans la serie des triangles equi-
lateraux formes dans un triangle equilateral en divisant ses
cotes en deux (N = 3, / = 2), a pour dimension fractale
Log3/Log2 = 1,585...
Ces proprietes geometriques de dimension fractale corres-
pondent a des caracteristiques qui permettent de trouver de
1'ordre sous 1'apparence de 1'irregularite et du desordre. C'est
ainsi que les attracteurs etranges des systemes dynamiques
non lineaires obeissent a une geometric fractale qui restitue en
quelque sorte la trace de la causalite stricte de ces systemes.
De nombreux phenomenes aleatoires, tels que les trajectoires
de particules animees d'un mouvement brownien, obeissent a
une geometric fractale. II pourrait etre des lors possible d'asso-
cier la geometric fractale et le calcul des probabilites, comme
la geometric des courbes ou des surfaces est associee a des
equations algebriques.
Les cotes marines sont erodees par la force de la mer, mais
celle-ci s'epuise dans les turbulences engendrees par les aspe-
rites rocheuses, de telle sorte que, cette force se stabilise finale-
ment lorsque le dessin des cotes, tres long, suit une geometrie
fractale, qui est celle des havres calmes dans une cote tres
decoupee. De maniere semblable, des ecoulements fluides (le
vent par exemple) modifiant la structure d'un obstacle solide
(le tas de sable que constitue une dune) conduisent a des confi-
gurations stables, telles les dunes « barkhanes » du desert, qui
ont une forme en croissant et ne se pretent plus a la defor-
mation39.

Les phenomenes de percolation


Les phenomenes de la « physique du quotidien », generale-
ment lies aux proprietes de la « matiere condensee », consti-
tuent une riche source d'enseignements, dont nous avons deja
evoques quelques-uns. En effet, des phenomenes de turbu-
lence, des phenomenes critiques, des formes fractales, se pre-
sentent a nos yeux tous les jours sous les especes les plus
diverses. Malgre leur apparence empirique ou susceptible de
desordre, des phenomenes comme ceux de 1'equilibre d'un tas
de sable, ou le contact d'une goutte liquide a 1'ebullition sur
une plaque chauffante, requierent d'ingenieuses et savantes
39
Cette propriete trouve des applications pratiques dans la stabilisation des
dunes afin d'eviter l'ensablement.
152 La physique du XXe siecle

explications theoriques, qui les rattachent a la connaissance la


plus fondamentale que Ton puisse concevoir40. De plus, leur
approche theorique conduisant a leur controle (par la maitrise
des parametres sensibles) est susceptible d'applications, tant
a d'autres phenomenes (en chimie, en biologic, en sciences
economiques et sociales) qu'a des realisations industrielles.
Pour terminer ce chapitre, nous evoquerons un des as-
pects de cette physique que Ton peut appeler des « pheno-
menes ordinaires » ou d'apparence banale, qui recele un inte-
ret theorique tout particulier et qui n'a pas encore ete aborde
dans ces pages. II s'agit des phenomenes physiques qui le rat-
tachent a la theorie « de la percolation », dont 1'etude concerne
1'echelle mesoscopique. Ces phenomenes font 1'objet de ce que
Ton appelle desormais les « nanosciences », dont les sondes
permettent 1'observation de la structure des corps jusqu'au
niveau atomique. C'est, en effet, au niveau mesoscopique des
nanosciences que Ton peut agir sur les phenomenes de sur-
face comme 1'adherence, le mouillage, les frictions, avec des
repercussions aux diverses echelles.
On appelle percolation, en mecanique statistique, la trans-
formation de melanges, lorsque 1'un des constituants du
melange est sous forme d'amas, et que sa proportion atteint
une valeur critique : au-dessus de cette valeur, le melange
acquiert des proprietes nouvelles41. La theorie de la percola-
tion a ete initialement developpee du point de vue mathema-
tique par J.M. Hammersley pour rendre compte d'un pheno-
mene technique et pratique, a savoir les circonstances dans
lesquelles un filtre de masque a gaz se bouche en raison de
1'obstruction des canaux ou 1'air circule, cette obstruction etant
considered comme aleatoire.
Ce cas de figure, plus facilement analysable, puisqu'il peut
etre simule sur ordinateur, est en fait representatif de mul-
tiples situations physiques de melanges de percolation. Par
exemple, un melange de grains conducteurs d'electricite et de
grains isolants est tel qu'au-dessus d'un certain seuil de la
40
La consecration du domaine a d'ailleurs ete avalisee par 1'octroi de la plus
grande recompense a 1'un de ses pionniers : Pierre-Gilles de Gennes (1932-),
physicien franc.ais, professeur a 1'Ecole nationale de physique et chimie de
Paris et au College de France, dont les recherches ont porte sur les structu-
rations d'ordre et de desordre de systemes comme les aimants, les supracon-
ducteurs, les cristaux liquides, les solutions de polymeres, a rec.u le prix Nobel
de physique en 1991.
41
Cette definition est differente de celle de la percolation en chimie qui
consiste a extraire une substance contenue dans une poudre en faisant tra-
verser celle-ci par un solvant qui la dilue (comme dans les machines a cafe
expresso).
Systemes dynamiques et phenomenes critiques 153

concentration critique en grains metalliques, le courant passe.


Ou encore, un milieu poreux penetre par un liquide qui ne le
mouille qu'au-dessus d'une certaine pression critique: ce phe-
nomene est directement applicable a 1'exploitation des gise-
ments petroliers, en pratiquant une « percolation d'invasion »
par un melange d'eau et d'huile de petrole sous pression, qui
fait sourdre le petrole hors du gisement.
Le phenomene de formation gel est egalement du a la per-
colation : une solution de polymeres, dans laquelle des ponts
(appeles « elements reticulents ») sont etablis entre des poly-
meres, se solidifie en devenant \mgel, au-dessus d'une concen-
tration critique de ces elements. Dans ce cas, 1'augmentation de
la concentration des ponts entre les polymeres s'accompagne
d'une augmentation de la grosseur des amas de polymeres
jusqu'a un seuil au-dela duquel les amas se fusionnent en un
seul, donnant un gel.
La dynamique des grains de sable ou de neige (dans 1'etude
de I'ecoulement d'un tas de sable, de la deformation des dunes,
ou des avalanches en montagne) releve egalement de meca-
nismes de percolation.
Dans ces phenomenes, les proprietes de 1'ensemble ne se
reduisent pas aux proprietes locales : ce sont des phenomenes
non locaux. Au seuil, les systemes locaux, grossis, sont sem-
blables au systeme global, et le systeme est fractal. Cette auto-
similitude se presente sur quelques echelles de grossissement
(3 ou 4). II est alors possible de rapporter la connaissance de
la structure d'un niveau a un autre niveau, par exemple, le
niveau mesoscopique au niveau macroscopique, en utilisant
la mecanique statistique.
Cette page est laissée intentionnellement en blanc.
Chapitre 9

Dynamique de la Terre

La physique entretient des rapports directs avec de norn-


breuses autres sciences qui sont distinctes d'elle par leurs ob-
jets et leurs methodes. Mais Tunite de la nature est plus forte et
contraignante que nos distinctions disciplinaires. Le XXe siecle
1'aura particulierement marque pour de nombreux domaines,
et nous le verrons en particulier avec 1'astronomie et Tastro-
physique (au chapitre 10). La geologie etait traditionnellement
(dans la periode classique) rattachee aux sciences naturelles.
La cristallographie, qui en etait issue, se raccorda a la phy-
sique au XIXe siecle, non seulement par la connaissance des
symetries cristallines mais aussi par le rapprochement entre
les proprietes physiques des cristaux et les divers domaines
de la physique, tant sous Tangle experimental (d'abord par
leurs proprietes optiques, comme analyseurs de la lumiere,
puis electriques avec la piezo-electricite), que sous Tangle
theorique (par le rapport entre les symetries des cristaux et
les orientations des champs electrique et magnetique). II fut
ensuite demontre que la structure des cristaux s'expliquait di-
rectement en termes d'atomes, et de nombreux phenomenes
physiques fondamentaux, au niveau atomique et quantique,
furent reveles par les cristaux (voir les chapitres 3 et 5).
Par ailleurs,la geologie s'adjoignit dans plusieurs do-
maines les methodes de la physique et de la chimie, pour
Tetude des roches (petrographie, geochimie) et des materiaux
de la croute terrestre, pour Tetude de la structure et des mou-
vements de cette derniere (volcanologie, sismologie, ...) A
cela s'ajouta le developpement de ce qui devint une nouvelle
science, Toceanographie. L'etude systematique des proprietes
physiques, locales ou globales, de la planete Terre donna lieu
aux developpements considerables de la geophysique (etude
du magnetisme terrestre, gravimetric,...).
On savait depuis plusieurs siecles que la Terre a une his-
toire marquee par des bouleversements. Us etaient penses
comme accidentels, et ce n'est qu'au XXe siecle qu'a ete admise
Tidee d'une evolution naturelle et d'une veritable dynamique
156 La physique du XXe siecle

Figure 9.1. Structure de la Terre


en couches concentriques
successives (voir encadre 9.3).

de la Terre, consubstantielle de cette derniere. En outre, notre


perception de la Terre s'est sensiblement modifiee a partir du
moment ou la connaissance des autres planetes du systeme
solaire et de leurs satellites a fait de la notre un objet celeste
parmi d'autres semblables, et ou nos idees sur sa genese ont
pu etre precisees.
Des avancees de la geologic et de la geophysique, nous
retiendrons ici ce qui concerne la structure et la dynamique
des mouvements internes de la Terre, et nous laisserons de
cote des chapitres tres riches comme, par exemple, la volcano-
logic ou 1'etude des ressources minerales. La structure de la
Terre en couches concentriques successives comme celles d'un
oignon, proposee des la fin du XIXe siecle et precisee dans les
premieres annees du XXe, etait un fait considere comme etabli.
Cette configuration statique se completa et se modifia au cours
du siecle : d'un cote par une connaissance precise de 1'echelle
des temps et des periodes (les « ages de la Terre »), acquise des
le debut des annees 1920 et, d'un autre cote, mais seulement
a partir des annees 1960, par la mise au point d'une veritable
theorie, au sens le plus complet du terme, de la dynamique des
mouvements de la croute et du manteau terrestre. Cette theo-
rie, la «tectonique des plaques », qui a ete depuis lors corrobo-
ree par de multiples faits d'observation, faisait prendre corps
Dynamique de la Terre 157

a 1'hypothese de la « derive des continents » proposee plus de


quarante annees auparavant par Alfred Wegener (1880-1930).

Les temps de la Terre


Si Ton disposait deja, au debut du siecle, d'une vue assez
precise des periodes geologiques, les durees absolues de ces
periodes et 1'age de la Terre etaient encore tres grossierement
evaluees. Selon les estimations faites auparavant en se fon-
dant sur la thermodynamique classique des echanges et des
pertes de chaleur (par exemple selon les calculs du physi-
cien William Thomson, Lord Kelvin), la formation de la coute
terrestre, en considerant son refroidissement a partir d'une
chaleur initiale, n'aurait demande que cent ou deux cents
millions d'annees. Entre-temps, la connaissance des pheno-
menes radioactifs permit de concevoir la radioactivite natu-
relle des roches comme une source de production d'energie
et de chaleur. En etudiant le rapport, dans un mineral, entre
la quantite d'uranium et celle d'helium degage par la dis-
integration du premier, il fut possible d'acceder, des 1917, a
une estimation plus vraisemblable des temps geologiques. Les
techniques de radio-datation furent ensuite ameliorees a 1'aide
de radio-isotopes varies comme le potassium-40 et l'argon-40,
puis, apres la Seconde Guerre mondiale, le carbone-14 (voir
1'encadre 9.1). D'une maniere generale, les developpements
de la geologie sont toujours restes etroitement tributaires des
progres de connaissances voisines, comme 1'etude des roches
et 1'analyse chimique, la mineralogie, la paleontologie, mais
egalement la geophysique et la geochimie, qui ont connu d'im-
portantes avancees.

De Thypothese a la theorie : derive


des continents, tectonique des plaques Figure 9.2. Reconstruction de la
derive des continents selon
La dynamique des transformations de 1'ecorce terrestre ne Alfred Wegener. Les continents,
s'est imposee que tardivement malgre les premiers jalons autrefois reunis en une seule
fournis par des remarques sur sa morphologic, telles que la masse continentale nommee
Pangee, se sont disperses pour
concordance des profils cotiers de continents qui paraissent
atteindre leur position actuelle
s'emboiter (comme ceux du Bresil et de 1'Afrique de 1'Ouest, en fendant le SIMA qui les
pourtant separes par 4000 km d'ocean). Eduard Suess, pour entoure. En haut: periode
qui les modifications de la surface de la Terre resultaient Carbonifere superieur;
d'une contraction due a son refroidissement, interpretait cette au milieu : periode Eocene;
complementarite morphologique en termes d'effondrements en has : Quaternaire ancien.
158 La physique du XXe siecle

Encadre 9.1. Les methodes de radiodatation des roches


En 1909, dans son ouvrage sur la radioactivite en geologic (Radoactimty in geology), John Joly montra
qu'une importante proportion de la chaleur de la Terre provient de la radioactivite des roches qui la
composent (voir chapitre 5). Cela obligeait a revoir les valeurs proposees precedemment pour 1'age de
la Terre, notamment par William Thomson, Lord Kelvin, en se basant sur l'estimation des echanges
thermiques du Soleil vers la Terre et sur 1'idee d'un refroidissement progressif et relativement rapide de
cette derniere. On detecta 1'helium qui resulte de la disintegration de 1'uranium (sous forme de « rayons
a »), et la proportion d'helium par rapport & 1'uranium, directement liee a la periode de disintegration de
l'uranium-238, permit d'evaluer les ages absolus des roches, et done les durees geologiques. La connais-
sance des isotopes (voir chapitre 6) permit de mettre au point d'autres methodes complementaires ou
plus fines de datation : la methode au potassium-argon se base sur la disintegration du potassium-40
(^K) en argon-40 (^ Ar); de meme le rubidium-87 (87Rb) en strontium-87 (87Sr). Ces methodes ont donne"
a 1'epoque de leur invention un age minimal de la Terre de 3 milliards (3 x 109) d'annees. L'age reel de la
Terre est estime aujourd'hui a 4,5 milliards d'annees. On peut egalement evaluer 1'age de notre galaxie
(la Voie lactee) a partir de la composition isotopique du plomb contenu dans des meteorites, en faisant
quelques extrapolations.
En ce qui concerne les composes organiques, on peut les dater en utilisant la methode du carbone-14
(14C). Sachant que le rayonnement cosmique maintient par ses interactions une certaine proportion de
carbone-14 radioactif a cote du carbone-12 stable, cette proportion etant a 1'equilibre dans les orga-
nisrnes vivants et, connaissant la demi-vie du 14C (5 570 ans), on peut determiner avec precision 1'age
d'un echantillon de matiere organique fossile en mesurant le rapport des isotopes 12C et 14C. Les deter-
minations sont precises jusqu'a -40 000 a -50 000 annees.
En fait, la proportion 14C /12C, qui est actuellement de 1,2 x 10~12, a varie au cours du temps d'envi-
ron 10 % : des corrections doivent etre faites. La methode classique de determination de la proportion
des isotopes 14C /12C est basee sur le comptage radioactif : 14C se desintegre par radioactivite ft et Ton
compte les electrons emis. La demi-vie du 14C etant longue, il faut des echantillons relativement impor-
tants (1 g) et un temps de comptage long pour obtenir une determination suffisamment precise. Une
autre technique a ete mise au point relativement recernment avec la spectrometrie de masse aupres
d'accelerateurs : au lieu de mesurer la radioactivite de 1'echantillon, on opere, a 1'aide d'accelerateurs
nucleaires « tandems », une sepa-
ration de masse des isotopes qui
permet de compter directement les
atomes de 14C. L'echantillon neces-
saire peut etre 10000 fois plus
petit qu'avec la methode radioactive
(0,1 mg au lieu de 1 g).
L'ensemble de ces methodes a
considerablement enrichi la geochi-
mie, par 1'etude de la repartition sur
Terre des diff^rents isotopes issus
de disintegrations radioactives et la
connaissance des datations absolues
correspondantes.
Dynamique de la Terre 159

continentaux, ou de ponts. II formula le premier 1'idee d'un


continent austral originaire joignant I'Afrique et ITnde, le
Gondwana. On lui doit aussi la representation de la croute
(ou ecorce) terrestre et du manteau de la Terre comme des en-
veloppes successives autour d'un noyau de fer et de nickel
(de 5000 km d'epaisseur) : une couche de silicium et de
magnesium (le SIMA, epais de 1500 km) pour le manteau
et une enveloppe plus mince de silicium et d'aluminium (le
SIAL) pour la croute. Son ouvrage monumental, La face de la
Terre1, eut une influence considerable sur le developpement
ulterieur des conceptions modernes de la geologic. Ont egale-
ment fait date, a la meme epoque, les travaux d'Emile Haug
sur la geologic structurale et sur les geosynclinaux, ces fosses
marins de sedimentation en enfoncement durant de longues
periodes, qu'il voyait responsables, par leur soulevement, de
la formation des chaines de montagnes2.
Alfred Wegener, astronome et meteorologue de forma-
tion3, devait apporter, en avance sur son epoque, une idee
theorique fondamentale propre a renouveler la representation
que Ton se faisait de la Terre. Ayant releve, lui aussi, les simi-
litudes entre des continents separes (notamment I'Afrique et
le Bresil), il constata qu'elles concernent de nombreux carac-
teres, outre le dessin des cotes, comme la structure des couches
geologiques, les donnees paleontologiques et la nature des
fossiles, ou encore les donnees paleoclimatiques. II formula,
sur cette base, la theorie, encore hypothetique de son temps,
d'une « translation continentale » (par la suite appelee « derive
des continents ») qui introduisait 1'idee d'une dynamique de la
Terre en opposition aux conceptions precedentes d'une Terre

1
Eduard Suess, Das Antlitz der Erde, 3 tomes en plusieurs volumes, 1883-
1909 (La face de la Terre). Eduard Suess (1831-1914), geologue autrichien, ne
a Londres, etudia et fit sa carriere a Vienne. Paleontologue a 1'origine, il fut
nomme a la chaire de geologie de 1'universite et s'imposa comme un des
grands geologues de son temps. II avait publie precedemment, en 1875, un
livre sur 1'origine des Alpes, Die Entstehung der Alpen.
2
Emile Haug, Traite de geologie, Paris, 1907-1911. Emile Haug (1833-1914),
paleontologue puis geologue francais, contraint comme Alsacien de prendre
la nationalite allemande en 1870, rejoignit la France en 1887; il reprit des
etudes et recommenc,a une carriere a Paris ou il fut professeur a la faculte des
sciences et se fit connaitre a partir de 1900 par ses travaux sur les Alpes.
3
Alfred Wegener (1880-1930), meteorologue allemand. II formula egalement
1'idee que les crateres de la Lune ont pour origine des impacts meteoritiques,
qui ne fut confirmee que bien plus tard. D'origine prussienne, il fut nomme
en 1924 professeur dans la chaire de meteorologie et de geophysique de
1'universite de Graz, en Autriche, oil il demeura jusqu'a sa mort prematuree
a 1'age de 50 ans, au cours d'une expedition au Greenland dont il explorait la
calotte glaciaire.
160 La physique du XXe siecle

essentiellement statique sur laquelle se produisaient des acci-


dents (effondrements). Wegener etait, par ailleurs, auteur d'un
ouvrage sur la Thermodynamique de Vatmosphere4' paru en 1911,
et fut egalement fondateur, avec son beau-pere W. Koppen,
de la paleodimatologie : ils proposerent notamment 1'existence
d'un rapport entre les cycles climatiques et les cycles solaires5.
II n'est pas interdit de penser que sa connaissance de la circu-
lation atmospherique ait pu 1'inspirer dans 1'idee d'une dyna-
mique terrestre, sur une echelle bien plus grande des temps.
Des 1912, Wegener emit done I'hypothese d'une translation
ou derive des continents, en prenant en compte les connais-
sances de son epoque dans divers domaines, qu'il s'agisse
de 1'existence d'une energie intra-terrestre, de donnees geolo-
giques et physiques, par exemple sismologiques sur la matiere
du fond des oceans, le SIMA, identifiee au basalte, et sur la
matiere continentale, plus legere, le SIAL, faite de granit et
de gneiss6. La matiere des oceans se prolongerait sous celle
des continents, qui glisserait sur elle en des mouvements
horizontaux. Finalement, en faisant la synthese des donnees
paleoclimatiques connues sur la base des flores et des faunes
fossiles en fonction des diverses periodes geologiques, il fal-
lait admettre, selon Wegener, que les continents actuellement
separes et repartis comme ils le sont sur la surface du globe
soient issus d'un unique continent austral originaire, qu'il bap-
tisa la Pangee. A la difference du super-continent de Suess, les
parties scindees auraient migre sur le manteau au cours de
centaines de millions d'annees. « L'Amerique du Sud », ecrit
par exemple Wegener dans son ouvrage, « doit avoir ete conti-
gue a 1'Afrique au point de constituer avec elle un bloc conti-
nental unique. Ce bloc s'est scinde pendant le Cretace en deux

4
Get ouvrage fut reedite en 1924 et en 1928.
5
II publierent en collaboration, en 1924, un ouvrage intitule Les climats du
passe geologique.
6
Wegener presenta pour la premiere fois ses conceptions dans une com-
munication a la session annuelle de la Geologische Vereinigung (Association
geologique), a Francfort-sur-le-Main, le 6 Janvier 1912, sous le titre « Idees
nouvelles sur la formation des grandes structures de la surface terrestre
(continents et oceans) sur des bases geophysiques ». II redigea un ouvrage
developpant sa theorie, public dans une premiere edition en 1915 (Alfred
Wegener, Die Entstehung der Kontinente und Ozeane), reedite avec des ajouts
en 1920, en 1922 et en 1929 (cette 4e edition etant sensiblement augmentee).
La premiere traduction en francais parut en 1922 : La genese des continents
et des oceans, Paris, 1922; rendition augmentee, La genese des continents et des
oceans. Theorie des translations continentales, traduit de I'allemand par A. Lerner,
Nizet et Bastard, Paris, 1937; reedition, La formation des continents et des oceans,
Bourgois, Paris, 1990.
Dynamique de la Terre 161

parties qui se sont ecartees dans le cours des temps comme


derivent les trongons d'un glac.cn se brisant dans 1'eau »7.
La theorie de Wegener, qui devait lui assurer une gloire
posthume, ne fut pas acceptee en son temps par les geologues,
pour diverses raisons convergentes. Cette theorie, proposee
par quelqu'un qui n'etait pas un geologue professionnel, sor-
tait des canons de la geologie de 1'epoque, qui etaient et res-
terent longtemps fixistes, et non pas « mobilistes ». Certaines
des hypotheses de geophysique invoquees contredisaient des
faits d'experience averes, et surtout on ne pouvait se repor-
ter a aucun mecanisme physique connu pour expliquer les
deplacements continentaux. Quant a la premiere objection, la
theorie remettait en cause la permanence des continents et
des oceans, que Wegener remplac.ait, selon ses propres mots,
par une « permanence de la surface oceanique totale et de la
surface continentale totale prises en bloc ». Sur la seconde, il est
vrai que Wegener supposait une fluidite des fonds oceaniques,
que contredisaient les donnees de la sismologie, montrant les
fonds des oceans comme rigides. II attribuait la fluidite sup-
posee a une temperature de fusion du SIMA plus basse que
celle du SIAL, ce que contredisaient les experiences de la-
boratoire. Quant a la troisieme objection, 1'invocation d'un
mecanisme encore inconnu relevait d'un « wishful thinking »
qui ne paraissait pas scientifique. Personne n'imaginait alors
ce qui constituerait la reponse aux deux dernieres objections, le
glissement des fonds oceaniques sur un substrat en fusion par-
tielle, entraine par leur renouvellement comme consequence
des courants de convexion de la masse fluide a haute tempe-
rature sous le manteau terrestre.
Malgre son rejet assez general, la theorie de Wegener
fut largement discutee dans les milieux scientifiques concer-
nes au cours des annees vingt, notamment en Allemagne,
en Angleterre, en France, aux Etats-Unis. Un Symposium
specialement consacre a la theorie de la derive des conti-
nents, Theory of continental drift, fut meme reuni a New York
en 1926. Cependant, 1'absence d'une cause dynamique assi-
gnable a cette derive et le conservatisme des idees des geo-
logues de 1'epoque, repugnant, une minorite mise a part, a
abandonner des conceptions fixistes, firent que cette theorie
resta marginale jusqu'en 1960. Dans 1'ensemble, elle ne fut pas
acceptee par la science geologique de son epoque, ni encore

7
A. Wegener : La Genese des continents et des oceans, op. cit. Le Cretace est la
derniere des trois periodes de I'ere secondaire (les deux autres etant le Trias
et le Jurassique) qui se termina il y a 65 millions d'annees.
162 La physique du XXe siecle

de longues annees apres la mort de Wegener. Parmi les rares


scientifiques qui soutinrent ses vues, citons le geologue suisse
Emile Argand, auteur d'un ouvrage sur la Tectonique de I'Asie
paru en 1922, et le paleontologue sud-africain Alexandre Du
Toit. Ce dernier proposa, en 1927, une comparaison geolo-
gique entre 1'Afrique australe et 1'Amerique du Sud qui confor-
tait les idees de Wegener. II publia, en 1937, plusieurs annees
apres la mort de ce dernier, un ouvrage sur « Les continents
en derive » (ou « errants » : Wandering continents) qui ajou-
tait aux considerations de Wegener d'autres indices, sur les
chaines hercyniennes de montagnes, en faveur de sa these.
Du Toit remplac.ait le continent originaire unique de Wegener,
la Pangee, par deux paleocontinents, la Laurasie septentrio-
nale et le Gondwana austral8.
Si la connaissance de la radioactivite, d'ailleurs invoquee
par Wegener, permettait de concevoir qu'une energie interne
de la Terre puisse etre a 1'origine de ses transformations, ce
n'etait encore que d'une maniere qualitative et elle n'etait
pas prise en consideration comme « moteur » possible de la
translation des continents. Ce fut seulement plus tard que
Ton put disposer d'une estimation quelque peu precise des
energies considerables d'origine radioactive emmagasinees a
1'interieur de la Terre. On doit au geologue ecossais Arthur
Holmes la prise en compte de cette source d'energie appli-
quee explicitement aux mouvements internes de la Terre, des
1929. Dans un article publie cette annee-la sur « la radioacti-
vite et les mouvements de la Terre », il conjectura, etant donne
1'energie interne de la Terre d'origine radioactive, que des
courants de convection ascendants pourraient faire mouvoir
les continents, mais sans developper davantage cette etude
en relation avec la theorie de Wegener9. Ce dernier n'eut pas
connaissance de ce travail publie peu de temps avant sa mort.
L'hypothese de la derive des continents fut reprise a la
suite de resultats observationnels d'une importance consi-
derable obtenus, dans les annees 1950, par 1'exploration des
fonds oceaniques10. L'etude topographique et geologique des
oceans revela le caractere recent de leur sedimentation et leur
8
Emile Argand (1879-1940), geologue suisse, de Geneve, specialiste des
chaines de montagnes, tres connu pour ses travaux sur les Alpes. Alexandre
L. Du Toit (1878-1948), paleontologue sud-africain d'ascendance huguenote
franchise lointaine.
9
Arthur Holmes (1890-1965), geologue ecossais.
10
Auguste Piccard (1884-1962), physicien suisse, qui avait construit, dans les
annees 1931-32, un ballon a nacelle etanche avec lequel il fit des ascensions
stratospheriques, conc.ut et realisa en 1948 le premier bathyscaphe, qui eut un
Dynamique de la Terre 163

Figure 9.3. Mouvements relatifs


des plaques lithospheriques.
Les valeurs portees sur la figure
correspondent aux vitesses
relatives de deplacement des
plaques (exprimees en cm/s).
Elles ont ete calculees a partir
d'un modele elabore par
DeMets et al. (1997).

partage par une ligne mediane de montagnes sous-marines,


les grandes dorsales, elles-memes creusees tout au long par
une faille profonde, les « rifts » oceaniques.
La seismologie, la mesure d'anomalies magnetiques dues
a 1'apparition de laves sous les couches sedimentaires, et les
donnees du paleomagnetisme (ou etude des variations du
magnetisme des roches au cours du temps) qui revelaient des
inversions du magnetisme terrestre et des poles magnetiques
(voir 1'encadre 9.2), renouvelerent les perspectives concer-
nant la dynamique de 1'ecorce terrestre. Elles conduisirent a
reprendre 1'hypothese de la derive des continents pour en faire
la theorie, desormais universellement acceptee, de la tectonique
des plaques oceaniques et continentales, qui repose sur le meca-
nisme de 1'expansion des fonds oceaniques a partir des fosses
ou « rifts » des dorsales.
Harry Hess11 proposa, vers 1960, 1'idee d'expansion des
fonds oceaniques a la suite du renouvellement du manteau
par des courants de convexion. Selon sa theorie, de nouveaux
fonds oceaniques apparaissent au niveau des dorsales, dans
les rifts ou surgit la lave de volcans sous-marins : refroi-
die et solidifiee au contact de 1'eau du fond de 1'ocean, elle
forme de chaque cote des planchers oceaniques de basalte,
qui s'eloignent de la dorsale dans des mouvements de glis-
sement inverses pour aller s'enfoncer ensuite sous les masses
continentales.

role important dans la recherche oceanographique, en inaugurant les plongees


a grandes profondeurs.
11
Harry Harmond Hess (1906-1969), geologue americain, professeur a 1'uni-
versite de Princeton.
164 La physique du XXe siecle

Encadre 9.2. Le paleomagnetisme terrestre et la derive des continents


Le paleomagnetisme etudie les variations du champ magnetique terrestre au cours des periodes geolo-
giques, a partir de I'aimantation des roches. L'etude des basaltes issus de laves ernises par les volcans
fournit I'aimantation des mineraux magnetiques qu'ils contiennent, qui fut fixee par le champ magne-
tique terrestre au moment du jaillissernent de la lave et conservee lors du refroidissement. C'est ainsi
que Ton put constater, des les annees 1950, que le champ magnetique terrestre n'a pas toujours eu
la meme orientation, autrement dit, que les
poles magnetiques ont migre. Au Precambrien,
le pole Nord magnetique se trouvait au milieu
du Pacifique; il se deplaca ensuite vers 1'ouest et
atteignit le sud du Japon a la fin du Primaire, puis
rernonta le long de la Siberie, pour atteindre sa
position actuelle. Les poles magnetiques se sont
ainsi inverses plusieurs fois au cours des periodes
geologiques.
La position absolue des poles magnetiques
etant unique a une epoque donnee, la comparai-
son de leurs positions apparentes pour des conti-
nents differents permet de constater les deplace-
ments relatifs de ces derniers. C'est a partir d'une
observation de ce genre, effectuee pour 1'Europe et
1'Amerique du Nord, que Ton put constater que les
deux se touchaient a la fin de 1'ere primaire, confor-
mement a la prediction de la theorie de la derive
des continents de Wegener.

J. Tuzo Wilson12 introduisit en 1963 les notions de


« plaques » et de « failles transformantes », et le mecanisme
de la tectonique des plaques fut propose, en 1967-68, indepen-
damment par Jason W. Morgan, Dan MacKenzie13 et Xavier
Le Pichon14 : la croute terrestre est constitute de plaques
rigides (une quinzaine) de quelques dizaines de kilometres
d'epaisseur en deplacement les unes par rapport aux autres,
de nouvelles plaques se formant a partir de 1'activite volca-
nique des dorsales, et rempla^ant les anciennes. L'activite des
dorsales est due aux courants de convection qui viennent de-
verser dans les rifts la matiere en fusion de 1'asthenosphere,
renouvelant ainsi le manteau en creant le plancher ocea-
nique. Les plaques oceaniques ainsi renouvelees et mobiles,
12
J. Tuzo Wilson (1908-1993), geologue americain.
13
Dan MacKenzie (1935-).
14
Xavier Le Pichon (1937-), geologue frangais, aujourd'hui professeur a 1'uni-
versite de Paris.
Dynamique de la Terre 165

repoussees dans les deux sens par rapport a la dorsale, glissent


comme un tapis roulant et leurs extremites plongent sous
les plaques continentales, au niveau des fosses oceaniques
formant les zones de subduction. Les massifs continentaux,
plus legers et flottant sur leurs plaques, entrainees dans leurs
derives, provoquent, lorsqu'ils viennent a se heurter, le soule-
vement des montagnes: 1'Himalaya surgit ainsi de la rencontre
des plaques de 1'Inde et de 1'Asie (voici environ 55 millions
d'annees), et les Alpes de la collision des plaques de 1'Afrique
et de 1'Europe (a la meme periode). La matiere des plaques
continentales, partiellement detruite par 1'erosion et par les
collisions des plaques, se voit ainsi partiellement renouve-
lee par celle du plancher oceanique. Cette theorie coherente
des phenomenes geologiques et geophysiques entrainait, a la
fac.on des theories physiques, plusieurs predictions qui furent
effectivement verifiees par 1'observation.
II etait desormais possible de reconstituer 1'histoire des
mouvements de I'ecorce terrestre comme une vaste suite de
fragmentations, de glissements, retournements et collisions
de masses continentales, resultant des expansions oceaniques.
Selon les conceptions recentes solidement etayees, un super-
continent primitif est a 1'origine des continents actuels, le
Rodinia, assemble autour de -1200 Ma (millions d'annees); il
se scinda en fragments qui se rassemblerent ensuite en formant
deux mega-continents, le Laumsia septentrional et le Gondwana
austral. Ce dernier, agrege voici 600 Ma, fut integre entre 390
et 210 Ma, a 1'epoque hercynienne de 1'ere primaire, au super-
continent de la Pangee reunissant alors 1'ensemble des conti-
nents et entoure d'un unique ocean, le Panthalassa. Apres la
scission de la Pangee (qui se produisit au debut de 1'ere secon-
daire, a 1'epoque du Permien, vers 200 Ma), le Gondwana se
fragmenta a son tour, il y a 170 millions d'annees, a partir de
1'ouverture, dans les cassures continentales, des oceans atlan-
tique, indien et antarctique, pour dormer les sous continents
de 1'hemisphere austral : Afrique, Amerique du Sud, Inde,
Australie, Antarctique...15

15
Wegener supposait que la derive des continents, qui se marque au long
des temps geologiques, est encore actuelle aujourd'hui, mais les moyens tech-
niques ne permettaient pas alors de le mettre en evidence. On sait, de nos
jours, que 1'Eurafrique et 1'Amerique s'eloignent 1'une de 1'autre de quelques
centimetres par an, soit, pour les temps geologiques, quelques dizaines de
kilometres par million d'annees.
166 La physique du XXe siecle

Encadre 9.3. La structure de la Terre selon les representations actuelles


Selon les representations actuelles, la Terre a une structure en « pelure d'oignon », c'est-a-dire en couches
ernfooitties d'e"paisseurs diverses, constituees de materiaux de difMrentes densites. Au centre, se tient un
noyau dur defer et de nickel qui constitue un gigantesque aimant et dont les mouvements determinent
les variations du magnetisme terrestre. Le milieu qui se trouve entre le noyau et le manteau superieur
est 1'asthenosphere, dont la matiere est partiellement en fusion. Puis vient le manteau proprement dit
(relativement pauvre en silice), a partir d'une profondeur de 2 900 km environ jusqu'a la croute, ou
ecorce, terrestre, qui est 1'enveloppe superficielle de la Terre et dont 1'epaisseur va de quelques kilometres
(sous les oce'ans) a une trentaine de kilometres (sous la surface des continents). La croute sub-oceanique
est f aite de basalte tandis que la croute continentale est plus riche en silice et constituee surtout de granit.
La separation entre la croute et le manteau est caracterisee par un changement brusque de la vitesse
des ondes sismiques (plus rapides dans 1'^corce, qui est moins dense). La lithosphere, qui comprend la
croute et le manteau superieur, 4paisse d'une centaine de kilometres, est rigide et fragmente'e en plaques.
L'etude de ces dernieres et de leurs mouvements sous 1'effet de 1'activite des dorsales oceaniques, ou les
courants de convexion renouvellent le manteau, constitue la tectonique des plaques (voir figure 9.1).

Sciences de la Terre et planetologie


L'ensemble des sciences concernant les proprietes de la Terre,
telles que la meteorologie, 1'oceanographie, la geologic, la geo-
chimie et la geophysique, la seismologie, la volcanologie, le
magnetisme terrestre, se rapprocherent progressivement au
cours du siecle. Elles se rejoignirent dans une perspective syn-
thetique selon laquelle tous les phenomenes qu'elles etudient
sont conc,us comme etant lies de maniere coherente dans une
meme dynamique, celle de la planete Terre. Ces disciplines sont
aujourd'hui reunies dans 1'entite que constituent desormais les
sciences de la Terre.
Les dernieres decennies du siecle voient une autre evolu-
tion : 1'interaction avec 1'espace congue comme constitutive
de la Terre et de son histoire. La connaissance des autres pla-
netes du systeme solaire et leur exploration systematique par
des missions spatiales a permis, par exemple, des comparai-
sons entre la constitution de ces planetes, notamment les pla-
netes rocheuses (ou telluriques) comme Mars, Venus, Mercure,
sans oublier notre satellite voisin, la Lune, et les proprietes de
la Terre, qui nous etaient plus familieres. Les sciences de la
Terre rejoignaient ainsi la planetologie. La connaissance acquise
depuis quelques decennies de 1'importance des collisions de
corps celestes (meteorites) oblige a tenir compte du caractere
ouvert de la dynamique planetaire. Les sciences de la Terre
et la planetologie appartiennent elles-memes desormais a un
Dynamique de la Terre 167

ensemble plus vaste de disciplines, les sciences de la Terre et de


I'Univers.
L'histoire de la formation de la Terre releve egalement
de 1'astronomie : la formation de notre planete accompagne
celle du systeme solaire a partir d'une nebuleuse de gaz et
de poussieres anterieurement rejetees dans 1'espace par 1'ex-
plosion d'une etoile, une supernova. De telles explosions
sont le dernier aboutissement d'un processus de genese des
noyaux d'atomes des elements chimiques, des noyaux legers
jusqu'aux elements plus lourds comme le fer ou ruranium.
Par le seul jeu de la gravitation universelle, combinee a leurs
mouvements anterieurs propres, ces atomes et ces poussieres,
tournant autour de leur centre de gravite commun, se sont
rassembles a une certaine distance de ce centre en un anneau
et se sont peu a peu agreges en un spheroi'de. De meme, eche-
lonnees a distance, se formaient les autres planetes, telluriques
et gazeuses, leurs satellites et, au centre, le Soleil, dans cette
region situee a la peripherie de la galaxie de la Voie Lactee ou
se situe notre systeme solaire. Les donnees de 1'astronomie et
la datation des roches concourent a la meme valeur de 1'age de
la Terre et des autres corps du Systeme solaire : 4,5 milliards
d'annees.
La Terre, comme les autres planetes et comme les satellites,
et comme le Soleil lui-meme, est en interaction constante avec
les autres objets de I'Univers: elle partage avec eux les effets de
1'attraction gravitationnelle, regoit la chaleur du Soleil, en subit
les vents de particules electrisees, et est sujette aux impacts de
meteorites. Son climat lui-meme est tributaire des lois astrono-
miques et des variations physiques qui en resultent, de 1'incli-
naison de 1'axe de la Terre par rapport au plan de 1'ecliptique
(qui determine les saisons), de la precession des equinoxes, des
marees qui dependent des positions respectives de la Lune et
du Soleil par rapport a la Terre...
D'un autre cote, 1'histoire astronomique et geologique de la
Terre se prolonge dans une autre histoire, tout aussi naturelle
et reglee par des lois, celle de la biosphere, dont il sera traite
plus loin, du moins sous Tangle particulier de la question des
origines, qui rattache de maniere fondamentale 1'objet de la
biologic (les organismes vivants) a celui de la physico-chimie
(la matiere inanimee).
II est curieux de relever que 1'un des evenements qui
semble avoir ete parmi les plus importants de Thistoire de
la Terre et de la vie sur la Terre, a savoir 1'extinction des
dinosaures, survenue brutalement (a 1'echelle geologique :
en quelques milliers d'annees), resulte, si 1'on en croit son
168 La physique du XXe siecle

explication tenue pour la plus vraisemblable (la collision


d'un meteorite geant avec notre planete survenue a la fin du
Cretace, il y a soixante cinq millions d'annees), de cette double
ouverture de la Terre comme systeme physique au cosmos
d'un cote, a la vie de 1'autre. Alors que le regne des grands
reptiles aura dure pendant toute 1'ere secondaire, soit de -235
a -65 Ma, leur extinction, qui a marque le passage de 1'ere
secondaire a 1'ere tertiaire, et permis le developpement des
mammiferes, s'est produite comparativement en tres peu de
temps. La brusque variation climatique qui en serait respon-
sable aurait resulte de 1'impact d'un meteorite gigantesque,
dont les traces d'un cratere geant ont ete trouvees dans la
presqu'ile du Yucatan en Amerique centrale, et dont la signa-
ture serait le taux extremement eleve d'iridium (metal tres rare
sur Terre, mais dont certains meteorites sont riches) enregistre
sur les couches geologiques de toute la Terre qui marquent la
jonction des eres secondaire et tertiaire. La force de la collision
aurait cree des nuages de poussieres de la Terre et du meteo-
rite melees, qui, repandus dans 1'atmosphere autour de la Terre
entiere, auraient cree un ecran centre la lumiere solaire, qui au-
rait determine une longue nuit polaire, un « hiver planetaire ».
Get ecran se serait maintenu pendant un temps suffisamment
long (des dizaines d'annees) pour creer une catastrophe eco-
logique, dont les dinosaures, peu adaptables a des variations
de temperatures et d'ecosystemes, auraient ete les premiers a
faire les frais. De fait, des milliers d'especes animales et vege-
tales disparurent a cette epoque-la.
Chapitre 10

Les objets du cosmos :


planetes, etoiles,
galaxies, radiations

L'astronomie et 1'astrophysique, sciences des objets contenus


dans les cieux, c'est-a-dire dans 1'Univers, et la cosmologie,
science de cet Univers considere comme un tout et de ses
transformations au cours du temps, completent la representa-
tion du monde que procure la physique proprement dite.
L'astronomie, qui est peut-etre la plus ancienne des
sciences et qui avait ete la premiere, des les debuts de la science
moderne, a beneficier des apports de la physique mathemati-
see, qu'elle avait d'ailleurs largement contribue a susciter (de
Copernic, Galilee et Newton a Laplace et Poincare), a connu
au XXe siecle un accroissement considerable de son champ
d'exploration et un enrichissement de ses objets d'etude.
Son domaine s'est etendu, en effet, dans la profondeur spa-
tiale, sur dix ou quinze milliards d'annees-lumiere, distance
quasiment atteinte a la fin du siecle par les plus puissants
telescopes, terrestres ou embarques sur satellites, et radioteles-
copes, qui permettent d'obtenir des resolutions considerables.
Ce domaine s'est aussi agrandi dans la profondeur du temps,
dont 1'astronomie, depassant les anciennes perspectives sta-
tiques ou cycliques, a decouvert le deploiement, de la duree
de vie des etoiles a celui des galaxies les plus anciennes et
jusqu'a 1'age de 1'Univers.
Quant a ses objets d'etude, ils se sont diversifies et
demultiplies, elargissant le champ traditionnel de 1'astro-
nomie dans les deux directions des corps celestes les plus
enormes (systemes d'etoiles, galaxies, quasars...) aux rayonne-
ments et particules les plus infimes (rayonnement electroma-
gnetique radio, lumineux, X et y, neutrinos cosmiques et stel-
laires, et particules quantiques du rayonnement cosmique).
Ce faisant, 1'astronomie s'est associee tres etroitement a 1'as-
trophysique qui etudie les proprietes, la structure physique
170 La physique du XXe siecle

et revolution de ces memes objets celestes. Elle a debute au


XIXe siecle avec 1'etude spectroscopique de la lumiere pro-
venant du Soleil et des etoiles, qui permet de determiner la
composition en elements chimiques de ces derniers. Elle mo-
bilise aujourd'hui toutes les ressources des diverses branches
de la physique.
Comme nous le verrons au chapitre suivant, 1'astronomie
est allee plus loin encore, en se liant a 1'une des sciences les plus
nouvelles et atypiques du XXe siecle, la cosmologie. Celle-ci lui
apporte 1'objet le plus immense de tous, I'Univers, considere
dans son ensemble ou sa totalite, devenu objet legitime de
science avec la cosmologie contemporaine, contrairement aux
canons qui avaient prevalu anterieurement.
Le changement le plus saillant survenu avec 1'astronomie
contemporaine est sans aucun doute de s'etre adjoint 1'astro-
physique et la cosmologie. Ces trois sciences sont aujour-
d'hui indissociables. Par les elements concrets de connaissance
qu'elles apportent, elles contribuent a renforcer et a legitimer,
en leur donnant plus d'ampleur, les questions fondamentales
que 1'homme s'est sans doute toujours plus ou moins pose
mais pour lesquelles il ne put pendant bien longtemps que se
livrer a des speculations. Et d'abord celle-ci:« qu'est la matiere
dont nous sommes faits et celle qui nous environne, et quel
est leur lien a celle de I'Univers ou nous sommes plonges ? »
Ou encore, cette autre, qui la suit aussitot: « qu'est-ce que cet
Univers ? ». Ces deux questions sont immediatement reprises
et reflechies dans la suivante : « que pouvons-nous connaitre
du monde, matiere et Univers ? »
A leur maniere, 1'astronomie et la cosmologie du XXe siecle
ont contribue a redonner vie, en prenant au serieux ces ques-
tions sur le mode scientifique1, a la conscience du lien entre
la science et la philosophic, y compris dans ses implications
metaphysiques (ces questions seront surtout abordees au cha-
pitre 12).

1
De telles interrogations etaient generalement recusees par la pensee domi-
nante impregnee de positivisme au XIXe siecle. On peut constater toutefois
la presence d'une idee cosmologique chez bien des scientifiques de cette
periode, et elle se trouve a 1'origine de 1'apparition de la cosmologie comme
science. (Voir, a ce sujet, Jacques Merleau-Ponty, La science de I'Univers a I'age
du positivisme. Etude sur les origines de la cosmologie contemporaine, Vrin, Paris,
1983, et Cosmologie du XXe siecle. Etude epistemologique et historique des theories
de la cosmologie contemporaine, Gallimard, Paris, 1965.) Le philosophe Jacques
Merleau-Ponty (1916-2002), a ete 1'un des premiers epistemologues et histo-
riens des sciences a etudier les idees de la cosmologie contemporaine.
Les objets du cosmos : planetes, etoiles, galaxies, radiations 171

Lemons et perspectives
de la nouvelle astronomic

Nous voudrions dormer, dans ce chapitre, une idee des


grandes lignes de ces developpements. En matiere d'intro-
duction, il est utile d'insister d'emblee sur quelques traits de
cette astronomic du XXe siecle et de ses directions nouvelles,
qui rendent manifeste son lien plus etroit que jamais avec la
physique, tout en revelant avec force 1'inscription de ses objets
dans le cours du temps oriente vers une direction sans retour.
Comme 1'astronomie de la seconde moitie du XIXe siecle
avait etc marquee, du point de vue instrumental et observa-
tionnel, par le developpement des grands telescopes a refrac-
tion, celle de la premiere moitie du XXe siecle a ete caracterisee
par le developpement systematique des tres grands telescopes
a reflexion (celui du Mont Wilson, aux Etats-Unis, constitue
Tun des principaux prototypes). Les telescopes a refraction
avaient en effet atteint les limites des possibilites de construc-
tion de lentilles de large diametre et de grande ouverture. La
course au gigantisme, pour atteindre de meilleures resolutions
et de plus grandes largeurs de champ, demandait de reve-
nir aux telescopes a miroir, de construction plus facile meme
pour de tres grandes dimensions. D'autre part, les telescopes
a reflexion etaient plus appropries aux objectifs de 1'astrophy-
sique. Ajoutons, a la fin du siecle, le telescope spatial Hubble,
lance en 1990, dont la moisson de resultats a, notamment,
largement enrichi la connaissance des objets tres lointains.
Quant a la seconde moitie du siecle, elle devait voir le de-
veloppement des grands arrangements de telescopes a inter-
ferometrie (voir 1'encadre 10.1) situes sur Terre dans des sites a
1'atmosphere degagee (montagnes ou deserts) et des radiote-
lescopes. L'astronomie s'enrichit en outre d'autres types d'ins-
truments lies aux methodes de 1'astrophysique : on compte,
parmi les derniers en date, les detecteurs de neutrinos solaires
et stellaires, de rayons y de tres haute energie, et ceux d'ondes
gravitationnelles en construction. La photographic, qui n'avait
commence d'etre pleinement admise au rang des instruments
legitimes de 1'astronomie que dans le dernier quart du XIXe
siecle, quand elle fut maitrisee scientifiquement, fut tout au
long du XXe siecle 1'un des detecteurs privilegies de 1'astrono-
mie et de 1'astrophysique. Ces disciplines se sont dernierement
approprie les methodes d'analyse et de resolution develop-
pees quelques decennies auparavant pour 1'analyse des cliches
172 La physique du XXe siecle

Encadre 10.1. Les radiotelescopes et le telescope spatial


Les radiotelescopes sont corpus pour capter les rayonnemertts electromagnetiques d'origine cosmique
dans la gamme des ondes radio, les localiser, mesurer leur intensite. Ces instruments sont constitues
d'une antenne en forme de miroir metallique parabolique et d'un recepteur.
Le telescope spatial Hubble (denomme d'apres 1'astronome Edwin Hubble) de grandes dimensions
a etc place sur orbite terrestre a 520 km d'altitude en 1990. II peut observer un ciel parfaitement pur et
sans deformations de I'atmosphere. II avait, a la fin du siecle, engrange une moisson considerable de
resultats, malgre des defauts de construction qui ont necessite plusieurs interventions dans 1'espace. On
en espere notamment des informations sur des objets sirues a plus de dix milliards d'annees-lumiere,
qui seraient parmi les plus anciens de 1'Univers.
D'autres grands instruments de construction recente ou entreprise a la fin du XXe siecle sont, par
exemple, 1'Observatoire spatial a infrarouge (Infrared Space Observatory), les telescopes geants,« Keck »
de 10 m de diametre aux Etats-Unis, le Tres Grand Telescope (Very Large Telescope, VLT) europeen,
installe dans un desert chilien, pour Themisphere austral...

de detecteurs visuels de particules elementaires (chambres a


bulles), ainsi que les methodes electroniques de comptage et
d'analyse des donnees. II est ainsi possible de detecter dans
une region donnee du ciel des signaux rares initialement noyes
sous un important bruit de fond et, par exemple, de deceler
par ce moyen des « naines brunes », ou cTidentifier d'autres
objets celestes.
L'astronomie proprement dite est restee, au XXe siecle, par-
tiellement en continuite avec ses approches anterieures, en
portant d'abord sur la connaissance du systeme solaire, avec
le Soleil, les planetes et leurs satellites, les cometes et les aste-
roi'des. Cette connaissance a ete de plus en plus precise grace
aux examens a distance a 1'aide des telescopes relies a des ins-
truments de physique performants (spectrometres, interfero-
metres, etc.) et grace aux sondes spatiales munies de cameras
automatiques et des instruments d'observation de mesure les
plus varies. Les objets du systeme solaire nous sont desor-
mais accessibles par une observation de plus en plus proche,
jusqu'au toucher, depuis les premiers pas de Thomme sur la
Lune, avec les diverses series de missions d'exploration des
sondes interplanetaires, dont la collecte de pierres par un robot
sur la planete Mars, au tournant de la fin du siecle, a constitue
une etape notable (voir 1'encadre 10.2).
De la, nous devrions passer aux autres systemes stellaires,
a la « zoologie » des diverses sortes d'etoiles et a la recherche
plus recente des planetes extrasolaires qui les accompagnent
eventuellement. Nous ne suivrons pas cet ordre, car la com-
prehension de la nature des etoiles et de leurs mecanismes
dynamiques requiert la connaissance de la hucleosynthese et
Les objets du cosmos : planetes, etoiles, galaxies, radiations 173

Figure 10.1. Premiers pas de


1'homme sur la Lune (21 juillet
1969, mission Apollo 11). Le
commandant Niel Armstrong
photographic le pilote du
module lunaire Edwin Aldrin
au cours de sa « promenade »
sur la Lune.

Figure 10.2. Le robot Sojourner


sur Mars (mission Pathfinder).
Arrive sur Mars le 4 juillet 1997,
Sojourner a sillonne la planete
pendant trois mois afin de
realiser cliches et mesures.

d'autres processus d'astrophysique, auxquels par centre, la


question des planetes extrasolaires n'est pas liee. C'est pour-
quoi nous evoquerons d'abord, quitte a bousculer la chro-
nologic, la question plus classique, quoique tres recente, des
planetes extrasolaires puis, dans 1'ordre, la relativite generale
en astronomie et les rudiments d'astrophysique necessaires
pour comprendre la constitution des etoiles.
L'astronomie au sens usuel comprend aussi 1'inventaire
des objets et des structures a grande echelle de 1'Univers,
174 La physique du XXe siecle

Eneadre* 10.2. Parmi les objets du systeme solaire


Nous ne dirons ici pratiquement rien des connaissances acquises au XXe siecle sur le Soleil, les planetes et
leurs satellites, qui sont considerables (voir, notamment, Jean-Claude Pecker, Sous I'etoile Soleil, Fayard,
Paris, 1984; Encyclopaedia Universalis, Dictionnaire de I'Astronomic, Encyclopaedia Universalis / Albin
Michel, Paris, 1999). Nous donnons seulement quelques indications sur des objets plus irreguliers,
comme les cometes et les astero'ides, qui se sont recemment rappeles a 1'interet du public.
Les cometes, corps du systeme solaire de faible luminosite, d'aspect nebuleux ou diffus, se presentent,
lorsqu'elles sont eclairees par le Soleil, comme un noyau de particules solides (en fait, de la glace) entoure
d'une « chevelure » gazeuse (produite par 1'evaporation du noyau sous 1'effet de la chaleur solaire).
Elles sont prolongee par une queue qui s'etend sur des millions de kilometres, poussee par la pression
de radiation dans le sens oppose au Soleil. Leurs orbites elliptiques, de grande excentricite, sont tres
allonge"es. Elles reapparaissent periodiquement, comme par exemple la comete de Halley...
Les astero'ides, ces corps celestes de petites dimensions gravitant autour du Soleil, peuvent atteindre
des dimensions importantes : le plus grand que 1'on connaisse, Ceres, a un diametre de 1000 km
(seulement dix fois moins que celui de la Terre). Plus de 3000 ont etc catalogues, concentres pour la
plupart dans une zone comprise entre les orbites de Mars et de Jupiter. Certains asteroi'des, de trajectoire
irreguliere ou excentree, viennent a croiser les trajectoires des planetes, determinant des impacts qui
peuvent etre d'une importance considerable, en degageant des energies aupres desquelles celle des
bornbes atomiques seraient des feux de paille. La Lune et la planete Mars notamment, dont les surfaces
nous sont directement visibles, en ont conserve les cicatrices. La Terre en a subi aussi les bombardements,
plus intenses dans les premieres periodes apres sa formation, et continue de loin en loin d'en recevoir
d'importants (sans compter les meteorites, qui sont de petites tailles). Les traces des anciens impacts
ont etc effacees par les mouvements geologiques, mais les plus recentes sont encore visibles, cornrne les
restes d'un gigantesque cratere observes dans la peninsule du Yucatan, en Amerique centrale, cause par
1'impact d'un grand asteroitde que 1'on a pu dater de 65 millions d'annees. II en resulta une catastrophe
planetaire qui determina 1'extinction de nombreuses especes, dont les dinosaures (voir le chapitre 9).
II semble que d'autres catastrophes, peut-etre de meme nature, ont a plusieurs reprises provoque des
extinctions massives d'especes animales au long de 1'histoire anterieure de notre planete. L'eventualite
d'un cataclysrne futur de ce genre n'est evidemment pas exclue, bien qu'elle soil de faible probabilite.
La surveillance des cieux tente d'y parer, mais elle ne peut etre totale, surtout concernant des asteroi'des
de taille moyenne. Les moyens de les detruire ou de modifier leur trajectoire sont loin d'etre evidents.

comme les galaxies et leurs amas, leurs formes, leur nature


et leur repartition : on sait que 1'Univers visible contient des
centaines de milliards de galaxies, chacune d'elle comportant
en moyenne de 1'ordre de cent milliards d'etoiles. Au niveau
des planetes, des etoiles et des grands objets cosmiques, la
dynamique de 1'interaction entre les corps est celle de la gra-
vitation, dont Newton avait formule a la fin du XVII6 siecle la
premiere theorie consequente, qui fut developpee du XVIIP au
XIXe siecle grace aux progres du traitement du « probleme des
trois corps »2. La theorie de la gravitation peut etre consideree
2
Selon la loi universelle de la gravitation de Newton, toutes les particules de
matiere s'attirent en raison directe de leurs masses et en raison inverse du carre
Les objets du cosmos : planetes, etoiles, galaxies, radiations 175

comme la theorie fondamentale de 1'astronomie, et 1'astrono-


mie fournit, dans diverses regions du del, des laboratoires
plus ou moins localises de cette theorie.
C'est pourquoi la nouvelle theorie de la gravitation, la theo-
rie de la relativite generale formulee par Einstein a la fin de
1915 (voir le chapitre 2), a connu un tel impact en astronomic :
elle proposa tout d'abord 1'explication de 1'avance seculaire
du perihelie de la planete Mercure; puis elle fit la prediction
d'une courbure des rayons lumineux passant au voisinage
du Soleil, ainsi que celle'd'un deplacement vers le rouge des
rayons lumineux pres des grandes masses (toutes deux confir-
mees peu apres par 1'observation) et d'un retard des horloges
dans les memes circonstances (dont le calcul de la periode
de Mercure est un cas particulier). D'autres predictions sui-
virent plus tard, ainsi que des applications immediates a des
objets compacts et massifs pour lesquels 1'approximation new-
tonienne ne suffisait plus.
Nous evoquerons ensuite diverses questions d'astrophy-
sique, sur les mecanismes de la formation des etoiles et des
differents scenarios de leur evolution, de leur genese a leur
disparition (des naines blanches aux supernovae). Ces pro-
cessus font intervenir le jeu de la force gravitationnelle et
des differentes forces d'interact!on de la matiere atomique et
subatomique, et comprennent la production des noyaux ato-
miques de plus en plus lourds a chaque cycle stellaire, repan-
dus dans le cosmos a la mort de 1'etoile et se re-agregeant pour
former ensuite de nouvelles etoiles de seconde ou troisieme
generation...
Un autre domaine relevant de 1'astrophysique est 1'etude
des processus violents dans certaines regions de 1'Univers, par
lesquels sont emises des particules chargees et des bouffees de
rayons y a des energies extremement elevees. S'y ajoute la
recherche d'objets cosmiques « exotiques », microscopiques
ou macroscopiques, restes jusqu'ici invisibles, susceptibles de
contribuer a la « masse manquante » que requierent diverses
considerations contraignantes de 1'astronomie (pour assurer
les mouvements observes des galaxies) et de la cosmologie

de leur distance mutuelle : F = G mim^/d2, F etant la force d'attraction, G la


constante de gravitation (G = 6,67x 10"11 N m2 kg~ 2 ), m\ et m-i les masses, d la
distance. Le probleme des trois corps se traite par un calcul de perturbations et
de developpement en serie de ces perturbations a 1'aide du calcul differentiel
et integral. Euler, Clairaut et d'Alembert, suivis par Lagrange et Laplace, en
furent les pionniers au XVIIIe siecle. Mentionnons, au XIXe siecle, les travaux
de Lindstedt et ceux de Poincare.
176 La physique du XXe siecle

(pour assurer la « densite critique » qui rend compte de la


« platitude » de 1'Univers).
Quant a la cosmologie proprement dite, elle fera 1'objet du
chapitre suivant.

La chasse aux planetes extrasolaires


Si nous considerons que les planetes sont (du moins pour
nous) les objets les moins etranges du cosmos, il est normal
de commencer par la notre inventaire. Ne pouvant etre com-
plets, nous ne dirons rien ici (sinon dans 1'encadre 10.2) de la
connaissance du systeme solaire dont les objets nous sont deve-
nus presque familiers. Pensons aux representations (y compris
photographiques rapprochees) dont nous disposons aujour-
d'hui, par exemple des planetes gazeuses ou telluriques et
de leurs satellites ou de leurs anneaux, ainsi que des cometes,
spectaculaires par les traines immenses qu'elles deploient face
au Soleil, qui viennent de temps a autre des confins du systeme
solaire rendre visite a nos regions moins froides.
Nous nous avancerons done vers les profondeurs du cos-
mos, de ses objets les plus grands et les plus petits, qui ont
change notre maniere de concevoir I'Univers. Quand nous par-
lerons des etoiles, nous nous attacherons a leur constitution
et a leur devenir, sans nous occuper de savoir si elles forment
des systemes comme le notre car les planetes, a cette aune,
sont des objets classiques et banals. Et cependant la quete
de planetes situees en dehors du systeme solaire represente
depuis quelque temps un chapitre important des recherches
astronomiques entreprises a partir de la fin du XXe siecle. En
1'evoquant maintenant, nous ne respectons evidemment pas
1'ordre chronologique des decouvertes puisque la possibilite
de les observer et leur observation effective sont tres recentes3.
La detection de planetes lointaines est difficile. La faible
intensite de leur lumiere, reflechie de celle de leur etoile4, qui
d'ailleurs pratiquement les cache, et leur tres petite separation
3
Les philosophes grecs Democrite et Epicure, ainsi que le poete et phi-
losophe latin Lucrece dans son poeme De la nature, evoquaient deja, dans
1'Antiquite, la possibilite d'autres mondes comme le notre. Au tournant du
XVII6 siecle, le philosophic italien et religieux dominicain Giordano Bruno la
reprit comme une consequence de I'Univers infini ouvert par le systeme de
Copernic. II fut condamne par le tribunal de 1'Inquisition a etre brule sur le
bucher.
4
Le rapport des luminosites est estime a 10~9 environ pour une masse de
Jupiter (Mj).
Les objets du cosmos : planetes, etoiles, galaxies, radiations 177

Encadre 10.3. L'eff et Doppler-Fizeau


Lorsqu'une source emet un rayonnement (sonore ou lumineux, par exemple) a une certaine frequence,
v&, un observateur en mouvement relatif par rapport a la source pergoit cette frequence avec une valeur
differente, y0bs, de telle fagon que (vs - ifobsV^obs = v/V (v etant la vitesse du mouvement relatif de la
source et de 1'observateur, et V la vitesse de propagation du rayonnement, qui est c dans le cas de la
lumiere). Si la source s'eloigne de 1'observateur (ou 1'inverse), la frequence et 1'energie diminuent et
la longueur d'onde augmente : la lumiere est« decalee vers le rouge ». Si la source et 1'observateur se
rapprochent, I'effet est inverse et la lumiere est decalee vers le bleu.
On doit a Christian Doppler (1803-1853), physicien autrichien, d'avoir deeritcet effet pour les ondes
sonores, et a Hippolyte Fizeau (1819-1896), physicien franijais, d'avoir etendu a 1'optique I'effet mis en
evidence par Doppler pour les ondes sonores. Fizeau fut par ailleurs 1'auteur d'importants travaux
d'optique dont 1'experience qui porte son nom. Celle-ci, realisee en 1851, confirmait le coefficient
d'entrainement de la lumiere dans un milieu refringent en mouvement (coefficient de Fresnel), et
eut un role majeur dans la genese de la theorie de la relativity (voir le chapitre 2).

angulaire aux grandes distances ou elles se trouvent rendent


leur detection optique pratiquement impossible, pour le mo-
ment du moins. II faut done avoir recours a d'autres methodes
de detection, basees sur 1'etude des perturbations dynamiques
qu'elles induisent sur le mouvement de leur etoile (en parti-
culier sur sa vitesse radiale, mesuree par effet Doppler) ou sur
les transits planetaires (quand elles produisent une eclipse de
leur etoile, ce qui en attenue la luminosite), ou encore sur les
effets de lentille gravitationnelle.

Malgre ces difficultes, les resolutions extremes dans 1'obse-


rvation et les tres grandes precisions atteintes dans les cor-
rections d'effets connus a prendre en compte ont permis de
detecter des planetes situees en dehors du systeme solaire,
appartenant a des systemes parfois tres lointains. La chasse
aux planetes extrasolaires est desormais ouverte depuis 1995,
lorsque la premiere fut decouverte par les astronomes Mayor
et Queloz, ce qui causa quelque surprise, esperee toutefois. La
planete, d'une demi-masse de Jupiter (Mj/2), etait situee a une
distance de 15 pc, gravitant autour d'un soleil comme le notre,
mais en orbite tres rapprochee (0,05 UA), avec une periode de
revolution de 4 jours.

Depuis lors, d'autres planetes extrasolaires ont ete obser-


vees tres regulierement. On en comptait une dizaine au debut
de 1'annee 1998. Huit d'entre elles etaient tres eloignees de
nous (quatre associees a des soleils simples et quatre a des
178 La physique du XXe siecle

Encadre 10,4. Grandeurs et unites astronomiques usuelles


Distances et unites de distances
La dimension d'un objet celeste est d^signee par son rayon, R. Pour le Soleil: RS - 695 000 km; pour
la Terre, RT - 6370 km; pour les planetes Jupiter, Rj * 70000 km, et Saturne : Rsat « 60000 km & son
equateur (sa rotation rapide sur elle-meme, un tour en environ 10 heures, la rend tres aplatie aux poles).
On designe par Unite Astronomique (UA) la distance moyenne Terre-Soleil, soit 150000 000 (= 1,5 x
10s) km. Le demi-grand axe de 1'orbite (elliptique) de Jupiter autour du Soleil est de 5,2 UA, et sa periode
orbitale (annee jupiterienne) est de 11,9 anne"es (1 annee etant par definition la periode orbitale de la
Terre). Le demi-grand axe de 1'orbite de Saturne est de 9,5 UA et sa periode orbitale (annee saturnienne)
est de 29,2 annees.
L'annee-lumiere (unite introduite par William Herschel) est la distance que la lumiere parcourt dans
le vide en un an, a la Vitesse de 3 x 105 km/s, soit environ 0,95 x 1013 km.
Pour les distances stellaires, on utilise comme unite le parsec (pc), defini comme la distance a
laquelle une Unitt: Astronomique (1 UA) sous-tend un angle d'une seconde d'arc. Le parsec vaut done
3,1 x 1013 km, ou 3,26 annees-lumiere (1 pc — 3,26 annees-lumiere). Les distances des etoiles les plus
proches sont de 1'ordre du parsec. (Pour donner une idee de la densite de la Galaxie dans notre voisinage,
on compte environ 2000 etoiles connues dans un rayon de 25 pc autour du SoleiL) On utilise des multiples
du parsec : le kiloparsec (1 kpc = 103 pc), et le Megaparsec (1 Mpc = 106 pc). La distance du Soleil au
centre de la Galaxie (de la Voie Lactee) est de 8,5 kpc (le Soleil tourne autour a la vitesse de 215 km/s).
Le rayon de la galaxie de la Voie lactee est de 30 000 annees-lumiere. Celui de 1'Univers visible est
de 86 Mpc, et celui de 1'horizon est de 3 000 Mpc.
Masses et unites de masses
La masse du Soleil (1 Ms) est de 1,99 x 1030 kg (soit 333 432 fois celle de la Terre) et sa densite est 0,256 fois
celle de la Terre. La masse de Jupiter (1 Mj) est de 1,90 x 1027 kg (soit environ 10~3 Ms). Celle de Saturne:
5,605 x 1026 kg (soit environ 2,80 x IGT* Ms, ou 0,3 Mj). La masse de la Terre est de 5,908 x 1024 kg (soit
environ 2,95 x 10~6 Ms).
Le Soleil est constitue' d'un plasma de gaz incandescent, forme essentiellement d'hydroglne (92 %) et
d'helium (7,2 %), distribue en quatre couches concentriques. Le noyau central, de densite tres elevee, ou
regne une temperature de 15 millions de degres, est le siege de reactions thermonucleaires transformant
1'hydrogene en helium. La photosphere, de 100 km d'epaisseur, de temperature 7500 K, emet 1'energie
liberee par les reactions du noyau vers 1'exterieur (c'est la lurniere que nous recevons). La chromosphere,
epaisse de 2 000 km est visible lots des ellipses; et la couronne, d'une temperature d'un million de degres,
qui contient des traces de noyaux plus lourds, est le siege d'e"ruptions et source du vent solaire. C'est une
etoile du type naine jaune, vieille de 5 milliards d'annees. Jupiter et Saturne sont des planetes gazeuses
et ont leurs orbites au-dela de celles des planetes telluriques que sont Mercure, Venus, Terre et Mars.
On peut estimer la masse de notre galaxie a partir de la dynamique du mouvement des etoiles dans
son champ de gravitation (Jan H, Oort 1'a montre en 1927 pour des etoiles voisines du Soleil"). On
peut determiner la masse d'amas de galaxies en leur appliquant un resultat de mecanique du a Henri
Poincare : le « theoreme du viriel ». Pour un systeme stationnaire, 1'energie cinetique, £, et 1'energie
8
Jan Hendrik Oort (1900-1992), astronome hollandais, calcula la cine'matique de notre galaxie, ^tablit sa rotation
et sa forme spirale, determina sa masse, et conclut des 1932 a Texistence probable d'une masse cachee. On lui doit
£galement la de\:ouverte, en 1950, du « nuage d'Oort », re^ervok de comdtes aux confins du systeme solaire, situ6
entre 40 000 et SO 000 UA.
Les objets du cosmos : planetes, etoiles, galaxies, radiations 179

Encadre 10.4 (suite). Grandeurs et unites astronomiques usuelles


potentielle, Q, sont liees par la relation 2f + O = 0. La dimension de 1'amas, R, et la dispersion des
vitesses des galaxies, (i?2), reliee a 1'ettf rgie cinetique, sont mesurabies, et Ton obtient ainsi la masse de
I'amas, egale a CR (v2)/G (G est la constant de gravitation, C un parametre fonction de la structure de
1'amas, de Fordre de 1'unite). La masse mOyenne par galaxie est alors obtenue en divisant cette valeur
par le nombre de galaxies de I'amas. Cette vaieur de la masse, obtenue par la dynamique, est plus eleve*e
que la masse observed des galaxies individuelles. C'est le probleme de la masse manquante au niveau
astronomique.
La densite actuelle de 1'Univers est estimee, a partir des objets visibles, a po = 10~31 g/cm3.
Luminosite
On d^signe la luminosite par la grandeur L, On prend souvent la luminosity du Soleil (ts) pour point de
comparaison. Le logarithme de la luminosite est appele" magnitude. Le diagramme de Hertzprung-Russel
distribue les Etoiles suivant leur luminosite et leur temperature (temperature du corps noir equivalent),
ce qui en fournit une classification. Les etoiles variables periodiques Cepheides foumissent une relation
universelle entre la periode et la luminosite, qui permet de determiner les distances des etoiles tres
ek»ign£es et des galaxies qui les contiennent.

soleils doubles); les deux autres, plus proches, annoncees peu


apres, se trouvent respectivement a 15 et a 60 annees-lumiere.
La premiere tourne autour de 1'etoile Gliese-876; la seconde,
lourde de trois masses de Jupiter, fait son orbite autour de
1'astre 14-Herculis, qu'elle parcourt en 4 ans. Une nouvelle pla-
nete, errante celle-ci, fut annoncee le 6 juin 1998 par le telescope
spatial Hubble, vigie du vaisseau Terre, dans la constellation
du Taureau, a 450 annees-lumiere, dans un systeme de soleils
doubles (TMR 1 dans le catalogue des etoiles binaires). Ce
systeme est de formation recente, 300000 annees seulement
(quand la duree de formation de ces systemes binaires est
en general 30 fois superieure), et ses soleils sont separes par
6 milliards de kilometres. La planete, designee comme 1'objet
TMR-1C, se situe dans leur peripherie lointaine, a plus de
200 milliards de kilometres d'eux. Depuis, la collecte n'a
cesse de s'enrichir, et Ton ne comptait pas moins de cin-
quante planetes extrasolaires a la fin de 1'annee 20005. Celles
detectees jusqu'ici sont plus massives que Saturne (soit Mj/3),
et leurs orbites sont soit tres petites soit de grande excentri-
cite par comparaison aux planetes solaires. Par ailleurs, des
disques protoplanetaires, annonciateurs de la formation de
planetes sur le modele de la nebuleuse solaire ont ete obser-
ves dans notre galaxie: ils sont relativement faciles a observer,

5
Ce nombre est porte a 80 en mai 2002.
180 La physique du XXe siecle

etant donnees leurs grandes dimensions (1000 UA autour de


1'etoile) et leur longue duree de vie (de un a trente millions
d'annees)6.
Aujourd'hui, la quete des planetes extrasolaires est sou-
vent reliee a la recherche d'autres formes de vie, voire d'intelli-
gence, dans I'Univers. II serait etonnant, pense-t-on, que la
Terre et son atmosphere favorable au developpement de la
vie et, la nature aidant, a celui de la pensee, fut une excep-
tion, si Ton considere la myriade des etoiles et si elles sont
organisees en systemes stellaires a planetes. Cette recherche,
deja fructueuse, est interessee, car cet animal incorrigiblement
anthropocentrique qu'est rhomme voudrait savoir s'il est la
seule « merveille » de I'Univers de son genre : la chasse aux
planetes extraterrestres est en meme temps une quete d'autres
lieux possibles d'emergence de la vie (voir le chapitre 12, sur
les origines).

L'astronomie, laboratoire de la theorie


de la relativite generate
La theorie de la relativite generale, en tant que nouvelle theorie
du champ de gravitation (a propagation de proche en proche,
avec une vitesse finie) destinee a remplacer la theorie newto-
nienne de I'attraction instantanee a distance, interessa imme-
diatement 1'astronomie. Des 1914, il fut envisage de verifier,
avant meme la formulation complete de la theorie par Einstein,
ses predictions preliminaries sur la courbure des rayons lumi-
neux au voisinage des grandes masses en photographiant le
deplacement apparent de la position d'etoiles situees au voisi-
nage du Soleil, observees lors d'une eclipse. L'eclatement de la
Premiere Guerre mondiale empecha cette observation qui au-
rait probablement fourni un resultat ambigu sur la validite de
la theorie (en raison de 1'imprecision des mesures et surtout de
1'insuffisance de la prediction theorique, qui ne donnait alors
que la moitie de la deflexion finalement attribute).
La premiere verification eut lieu en 1919 (voir le chapitre 2)
a la faveur de 1'eclipse du 29 mai sur la zone equatoriale ter-
restre. Son observation avait ete preparee pendant les annees
de la guerre et elle fut realisee par la double mission dirigee
par Arthur Eddington en Afrique et au Bresil. Les mesures
de la position des etoiles sur les photographies, comparees
Figure 10.3. Sir Arthur 6
Voir Michael A.C. Ferryman,« Extra-Solar Planets », Rep. Progr. Phys. 63(8),
Eddington. 1209-1272 (2000).
Les objets du cosmos : planetes, etoiles, galaxies, radiations 181

a celles dans le ciel nu, meme relativement imprecises, don-


naient la deflexion indiquee par la theorie pour les rayons
lumineux rasant le disque solaire. Ce resultat d'observation
astronomique fut suffisamment remarquable et spectaculaire
pour contribuer a faire emporter, en quelques annees, 1'adhe-
sion des scientifiques et du public en general a la theorie
d'Einstein. Nous avons deja evoque (voir le chapitre 2) les
autres implications astronomiques de la relativite generale
formulees initialement, notamment 1'explication directe de
1'avance seculaire du perihelie de Mercure, observee par Le
Verrier au milieu du XIXe siecle et qui etait demeuree jus-
qu'alors sans explication satisfaisante7.
Pendant de nombreuses annees, la theorie de la relativite
generale connut une disaffection de la part des physiciens et
des astronomes en raison de 1'absence d'autres predictions de
phenomenes directement observables. Seuls quelques scienti-
fiques preoccupes de physique mathematique (eu egard a la
« beaute mathematique » de la theorie) et quelques astronomes
travaillant sur les implications cosmologiques de la relativite
generale continuerent a s'y interesser. Cette « traversee du
desert » dura jusqu'aux annees I960, quand les observations
astronomiques et astrophysiques ainsi que la cosmologie phy-
sique redonnerent a la theorie d'Einstein un regain d'actualite
qui ne fit ensuite que s'amplifier. Plusieurs objets de nature
nouvelle, massifs et compacts (lieux de champs de gravita-
tion intenses), furent decouverts dans ces annees a 1'aide de
radiotelescopes, comme les pulsars et les quasars (sans comp-
ter encore les trous noirs dont I'eventualite commenc.ait d'etre
discutee), qui necessitaient directement 1'application de la re-
lativite generale. L'observation du rayonnement micro-onde
du fond du ciel, en 1965, suscita 1'essor de la cosmologie et
de ses modeles dynamiques, dont la relativite generale etait la
theorie fondamentale.
La theorie de la relativite generale a ainsi ete 1'objet, au
cours des quatre dernieres decennies du siecle, d'un regain
d'interet considerable, en relation aux progres de 1'astrophy-
sique et aux developpements de la cosmologie, qui a abouti a
renouveler la pensee des objets astronomiques et de la nature

7
L'explication la plus naturelle en theorie newtonienne aurait ete 1'influence
perturbatrice d'une planete encore non observee. Ce fut ainsi, a partir des
irregularites de 1'orbite d'Uranus, qu'Adams et Le Verrier avaient predit par
le calcul 1'existence d'une planete perturbatrice, Neptune. Elle fut ensuite
observee par Galle en 1846 a I'endroit indique. John Couch Adams (1819-1892),
astronome britannique; Urbain Le Verrier (1811-1877), astronome fran^ais;
Johann Gottfried Galle (1812-1910), astronome allemand.
182 La physique du XXe siecle

de 1'Univers. En particulier, il est interessant de constater


que la relativite generale est requise, en meme temps que les
theories dynamiques des particules quantiques, pour rendre
compte de la dynamique elementaire des processus stellaires
et des differents etats de 1'evolution des etoiles, alors que les
concepts de ces deux types de theorie sont, en 1'etat actuel
des choses, sans commune mesure, voire incompatibles entre
eux. Toute consideration de dynamique stellaire se fonde sur
1'equilibre de 1'objet considere (c'est-a-dire de ses constituants)
entre la tendance a 1'effondrement gravitationnel sur lui-meme
(gouvernee par la relativite generale) et la pression en sens
contraire, de nature thermodynamique et quantique, qui re-
suite soit de conditions quantiques propres (par exemple, la
degenerescence des gaz de fermions), soit de 1'energie liberee
dans des reactions de fusion thermonucleaire. La formula-
tion suivante resume bien cette double implication : les etoiles
sont des lieux de reaction entre objets quantiques en condition
de confinement gravitationnel.
Les proprietes explicatives et predictives de la theorie de
la relativite generale ont pu etre testees avec le plus grand suc-
ces. Meme les phenomenes astronomiques relativement ordi-
naires ont montre la superiorite du traitement par la relativite
generale sur la theorie classique de la gravitation (irregularites
d'orbites dans le systeme solaire, deviations par rapport a la
force newtonienne dans le cas des pulsars doubles, etc.).
Munis de leurs radiotelescopes terrestres ou embarques
sur satellites, les chercheurs scrutent desormais le ciel a la
recherche d'objets tres compacts et massifs, sieges de champs
de gravitation tres intenses, comme les « trous noirs », ces
astres devoreurs de leur propre lumiere et de la matiere
environnante, dont la relativite generale predit 1'existence.
Us semblent aujourd'hui etre les moteurs dynamiques des
galaxies.
D'autres tentent, en imaginant des appareils de detection
appropries, sortes d'antennes geantes tres sensibles, de capter
les ondes gravitationnelles, predites par la theorie de la rela-
tivite generale, qui sont au champ de gravitation ce que les
ondes electromagnetiques (la lumiere et les ondes radio) sont
au champ electromagnetique dans la theorie de Maxwell. Leur
existence fut predite par Einstein des 1918. Des ondes gravi-
tationnelles seraient engendrees par un changement rapide
de 1'intensite d'un champ de gravitation en un lieu donne
de 1'Univers : emises dans toutes les directions, elles corres-
pondent a des variations de la courbure de 1'espace-temps
Les objets du cosmos : planetes, etoiles, galaxies, radiations 183

dont elles ebranlent la structure au long de leur parcours


comme des rides se propageant a la vitesse de la lumiere8. Elles
pourraient etre engendrees dans des processus cosmiques im-
pliquant des changements brusques du champ de gravitation,
des phenomenes violents tels que les explosions de supernovae
(dormant lieu a la formation d'etoiles a neutrons ou de trous
noirs). Des detecteurs appropries devraient alors les capter et
il devrait etre possible de les rapporter a une source celeste
decelee a 1'aide des autres moyens de 1'astronomie et de 1'as-
trophysique. Elles sont tres difficiles a detecter directement,
en raison de la tres petite intensite de 1'interaction gravita-
tionnelle, et ne 1'ont pas encore ete. II se pourrait, cependant,
qu'elles le soient assez prochainement, par des dispositifs ter-
restres actuellement en construction, les detecteurs a bras tres
long et de grande sensibilite Virgo et Ligo9.
Les ondes gravitationnelles ont d'ores et deja ete mises
en evidence indirectement, dans 1'evolution dynamique d'un
systeme double de pulsars (le systeme 1913 + 16) par R.A.
Hulse et J.H. Taylor10 : le comportement de ces deux etoiles
a neutrons (un mouvement d'attraction mutuelle en spirale)
resulterait de leur perte d'energie par emission d'ondes de
gravitation.
L'effet de lentille gmvitationnelle est un phenomene, egale-
ment predit par la theorie de la relativite generale (il fut consi-
dere par Einstein en 1936), du a la courbure de 1'espace au voi-
sinage de grandes masses : celle-ci occasionne une deflexion
et une amplification des rayons lumineux provenant d'une
source distante donnant par exemple d'un quasar une image
double ou triple11. De tels mirages gravitationnels peuvent four-
nir des informations sur la quantite et la repartition de matiere
rencontree sur leur chemin par les rayons lumineux prove-
nant d'un astre eloigne, et done permettre la detection d'ob-
jets denses et invisibles. C'est ainsi que des naines brunes
ont recemment pu etre detectees, de maniere indirecte,

8
En theorie quantique de la gravitation, le boson d'echange du champ gra-
vitationnel serait une particule (hypothetique) de spin 2 (en unites h/2n), le
« graviton », qui serait aux ondes gravitationnelles ce que le photon est aux
ondes electromagnetiques.
9
II s'agit de projets respectivement franco-italien et americain, qui consti-
tuent une autre occasion de rapprochements feconds entre les differentes
disciplines impliquees et leurs technologies (voir le chapitre 2).
10
Astrophysiciens americains, ils ont obtenu le prix Nobel de Physique en
1995.
11
Les mirages gravitationnels sont 1'analogue des mirages optiques, pro-
duits, quant a eux, par une refraction anormale de 1'air surchauffe.
184 La physique du XXe siecle

Figure 10.4. Lentille et Ton espere detecter par ce moyen de nouvelles planetes
gravitationnelle et croix extrasolaires12.
d'Einstein. La deviation des Enfin, la doctrine de 1'univers en expansion, dont nous
rayons lumineux par un corps parlerons au chapitre 11, resulte aussi de la relativite generale
massif sous 1'effet de la
et s'ajoute de maniere determinante aux raisons qui font de la
gravitation est 1'un des
phenomenes que la theorie de la
relativite generale la theorie centrale de 1'astronomie actuelle.
relativite generale, developpee
par Einstein, permet
d'expliquer. Get effet peut etre La synthese des elements dans les etoiles
spectaculaire lorsque la masse
qui induit la deviation, la L'astrophysique a debute au XIXe siecle avec 1'etude spectro-
« lentille gravitationnelle », est scopique de la lumiere du Soleil et des etoiles, qui permet de
une galaxie. Une superbe
determiner la composition de ces derniers en elements chi-
illustration de ce phenomene
est donnee par la celebre « croix
miques. Elle a mobilise, tout au long du XXe siecle, toutes les
d'Einstein » formee des quatre ressources de diverses branches de la physique, et c'est a ces
images du meme quasar methodes que Ton doit la connaissance de la nature des objets
lointain (Q2237+0305). La celestes, de leur composition et de leur structure, ainsi que
lumiere provenant de 1'objet de leur evolution temporelle. La connaissance des transmuta-
reel est deviee par une galaxie tions des noyaux atomiques des divers elements, acquise des
beaucoup plus proche situee les annees 1930, posait naturellement la question de 1'origine
juste sur la ligne de visee. de ces derniers, presents dans les etoiles. Ainsi la question
de la matiere constitutive des etoiles ne pouvait-elle recevoir
de reponse qu'avec la physique quantique et nucleaire. Nous
aliens voir que la structuration physique et 1'evolution des
etoiles sont gouvernees par les lois de la matiere nucleaire.
Quant a la formation des etoiles, elle s'est effectuee sous le
regime de la force d'attraction gravitationnelle. Le concept
de gravitation universelle pouvait susciter assez naturelle-
ment 1'idee d'une agregation mutuelle de poussieres ou de
petits corps cosmiques qui seraient initialement repartis dans
une sorte de nebuleuse en forme de disque. Ce fut 1'idee
du philosophe Emmanuel Kant, au milieu du XVIII6 siecle,
12
A I'aide des dispositifs « Eros » et « Machos
Les objets du cosmos : planetes, etoiles, galaxies, radiations 185

pour le systeme solaire, reprise quelques decennies plus tard


par le mathematicien et physicien Pierre Simon Laplace, puis
oubliee, et dont l'astronomie du XXe siecle a pu reconnaitre la
valeur anticipatrice. De nos jours, on considere que les etoiles
se forment dans des nuages de matiere, gaz et poussieres, a
la suite d'instabilites gravitationnelles, produites par exemple
par une onde de choc cosmique, qui provoquent des accretions
locales de matiere si 1'energie potentielle de gravitation 1'em-
porte sur 1'energie thermique. Si 1'accretion est suffisamment
massive, une etoile se forme, entouree de grains repartis en
couche dense sur le disque entourant 1'objet central, comme un
anneau (1'anneau de Saturne), et leurs mouvements irreguliers
provoquent des collisions, des agregations et des fragmenta-
tions, qui aboutiront, apres quelques millions d'annees, a la
formation d'autres corps, etoile compagnon ou planetes.
Pour que 1'objet ainsi forme soit une etoile, il faut qu'il
ait une masse d'au moins un dixieme de masse solaire (a
peu pres)13, afin que les reactions nucleaires accedent a un
regime de stabilite. La plupart des etoiles sont constitutes,
pour 1'essentiel, de noyaux d'hydrogene et d'helium et d'une
faible proportion d'elements lourds. Leurs masses se situent
entre un dixieme et cent masses solaires (0,1-100 MS). On les
classe en fonction de leur temperature et de leur luminosite,
selon le diagramme de Hertzprung-Russel14 ou elles se repar-
tissent majoritairement sur la diagonale, formant la « sequence
principale ». A la diversite de leur repartition correspond celle
de leur evolution, qui est determinee par leur constitution et
surtout par leur masse. L'evolution stellaire est la sequence
des phenomenes qui se produisent au cours du temps dans
une etoile, de sa formation par condensation gravitationnelle
de gaz interstellaire aux divers stades de reactions thermonu-
cleaires qui s'y donnent cours, et a sa fin par explosion ou par
effondrement.
On doit a Joseph N. Lockyer, des 1890, la premiere sug-
gestion d'une genese des elements qui serait liee a 1'evolution
stellaire15. Quelque temps apres, la relation masse-energie de

13
Plus precisement: 0,08 Ms, soit 80 Mj.
14
De Ejnar Hertzprung (1873-1967), astronome danois, et Harry Norris
Russel (1877-1957), astronome americain, le proposerent independamment,
en 1905 et 1914 respectivement. La temperature est celle d'un corps noir equi-
valent. La luminosite est exprimee en unites de luminosite solaire.
15
Joseph Norman Lockyer (1836-1920), astronome britannique, decouvrit en
1868 la presence de la raie de 1'helium, absente sur Terre, dans la couronne
solaire observee a la faveur d'une eclipse (elle fut aussi decouverte, inde-
pendamment et eri meme temps par Jules Janssen (1824-1907), astronome
186 La physique du XXe siecle

Figure 10.5. Diagramme de


Hertzprung-Russell. II etablit la
relation entre la luminosite
reelle d'une etoile (magnitude
absolue) et sa temperature de
surface. C'est 1'un des outils
fondamentaux de
1'astrophysique stellaire.
Chaque etoile rejoint la region
du diagramme, « branche » ou
« sequence », correspondant a
son stade d'evolution et a sa
composition chimique. La plus
grande partie de son existence
se deroule sur la sequence
principale, ou elle se maintient
en operant la fusion de
1'hydrogene en helium. Elle
evolue ensuite en geante rouge
puis en naine blanche.

la relativite restreinte d'Einstein amena a considerer que les


atomes, et plus precisement les noyaux atomiques, constituent
un formidable reservoir d'energie. Paul Langevin fut Tun des
premiers a concevoir, en 1913,1'idee d'une synthese des dif-
ferents elements chimiques par fusion a partir d'atomes d'hy-
drogene. La nucleosynthese des atomes dans les etoiles fut for-
mulee a titre d'hypothese dans les annees 1930 avant de se voir
confirmee. II fallait, dans le cceur des etoiles, une energie aussi
considerable que celle produite par les reactions nucleaires
pour resister a 1'effondrement gravitationnel. Des 1939, Hans
Bethe proposait sa theorie du cycle de la fusion de 1'hydrogene
en helium, accompagnee de production de neutrinos dans les
etoiles.
C'est seulement au cours des annees 1950 que Ton put
disposer d'une theorie coherente de la nucleosynthese, qui
expliquait en meme temps 1'energie rayonnee par les etoiles
et les processus de synthese des elements chimiques au long

et physicien frangais). L'helium fut decouvert en 1895 par William Ramsay


(1852-1916), chimiste britannique, prix Nobel de chimie 1904, qui decouvrit
egalement 1'argon et les trois autres gaz rares.
Les objets du cosmos : planetes, etoiles, galaxies, radiations 187

de 1'histoire de 1'Univers. Cette nucleosynthese commence en


fait (comme on le verra) avec le « big bang », des que la tem-
perature de 1'Univers est devenue suffisamment basse pour
que les nucleons puissent se Her par interaction forte : c'est
la nucleosynthese primordiale, ou sont produits les elements
les plus abondants, limites a la formation du deuterium (De),
de 1'helium (He) 3 et 4, du tritium (T), et du lithium (Li) 7.
L'helium primordial represente 25 % de la masse de la matiere
visible dans 1'Univers (les 75 % restants etant essentiellement
des noyaux d'hydrogene). Parmi ces elements, 1'helium et le
lithium sont egalement produits dans les etoiles. Les elements
lithium, beryllium et bore sont formes par 1'interaction du
rayonnement cosmique avec le milieu interstellaire. Pour les
autres elements, plus lourds, la formation requiert des condi-
tions qui ne se rencontrent que dans le confinement gravita-
tionnel qui regne a 1'interieur des etoiles, comme F. Hoyle,
W.A. Fowler, A.G.W. Cameron, G. et M. Burbidge le mon-
trerent en 1957. Les elements lourds que sont les noyaux des
atomes metalliques situes au-dessus des elements legers dans
la classification periodique des elements sont fabriques dans
les etoiles quand celles-ci ont acheve la synthese des elements
legers.
La matiere des etoiles est comprimee par la gravitation
dans des etats de grande densite sous la forme d'un plasma :
les noyaux atomiques animes de grandes energies cinetiques,
concentres et confines, entretiennent des reactions de fusion
thermonucleaire. Pour que ces reactions soient enclenchees,
les noyaux doivent vaincre la repulsion electrique coulom-
bienne et se rapprocher a une distance de 1'ordre d'un fermi
(10~13 cm), ou le champ nucleaire agit entre eux, et y rester
suffisamment longtemps pour que la reaction s'amorce puis
s'entretienne avec les autres noyaux. Ces conditions sont at-
teintes dans les plasmas en etat de confinement gravitationnel
des etoiles. Les noyaux d'hydrogene et d'helium, dont 1'etoile
est composee pour 1'essentiel dans son premier stade, entre-
tiennent des reactions nucleaires qui aboutissent, notamment
par les cycles de Bethe et de Salpeter, a la synthese du car-
bone puis de 1'oxygene. Ces reactions liberent de 1'energie
sous forme d'energie cinetique des noyaux constituants, qui
compense au total la force de gravitation et se transforme par-
tiellement en energie lumineuse : celle-ci echappe au confine-
ment et se disperse dans 1'espace.
Le cycle des etoiles passe ainsi par des phases successives.
D'abord de combustion, au cours desquelles Tetoile est stable,
188 La physique du XXe siecle

sous 1'equilibre entre la pression de gravitation et celle due a


1'energie thermonucleaire. Ensuite de refroidissement, lorsque
1'etoile a epuise son combustible : elle ne libere plus d'energie
et s'effondre sous sa propre attraction gravitationnelle jus-
qu'a ce qu'un nouveau cycle de reactions s'amorce, pour des
energies plus elevees. D'une maniere generale, il y a effondre-
ment gravitationnel lorsqu'un objet celeste comme une etoile
est soumis a la seule force de gravitation entre ses parties
constitutives, sans autre effet qui puisse 1'equilibrer (tel qu'une
pression thermique due aux reactions thermonucleaires ou
une « pression quantique ») : 1'objet s'effondre sur lui-meme,
devenant ainsi plus compact. Ueffondrement ne s'arrete que
lorsqu'un nouvel effet compensateur est rencontre, comme
I'amorgage d'un nouveau seuil de reactions nucleaires, etc.

Dans 1'etat de plus grande densite de 1'etoile compri-


mee, 1'energie cinetique elevee des constituants du plasma
provoque (s'il est possible) I'allumage de nouvelles reactions
nucleaires au-dessus d'un certain seuil, produisant des noyaux
plus lourds. L'etoile est, pendant cette periode, a nouveau
dans un etat d'equilibre, qui ne cesse que lorsque le combus-
tible pour ces reactions est epuise. Une nouvelle contraction
s'ensuit puis 1'ouverture eventuelle d'un nouveau regime de
synthese thermonucleaire. De tels cycles se succedent jusqu'a
la synthese du fer. Les reactions qui se produisent dans 1'etoile
peuvent etre de fusion, ou de capture de protons, puis de par-
ticules a, de 12C, etc.

Dans d'autres sites astrophysiques, tels que les novee et les


supernova, une nucleosynthese explosive se developpe a plus
haute temperature, et les noyaux entre lesquels s'operent les
transmutations sont souvent instables, radioactifs. En dehors
des cycles ou se produisent des reactions nucleaires, il existe
des situations ou 1'etoile reste stable parce qu'un autre effet
de pression vient compenser celui lie a 1'effondrement gravi-
tationnel. Tel est le cas de la « pression quantique » pour 1'etat
« degenere » du gaz de plasma dont tous les constituants
sont des fermions identiques : ces derniers sont maintenus a
distance, et ainsi proteges de 1'effondrement, par le principe
d'exclusion de Pauli (voir le chapitre 3).

La phase terminale des etoiles enrichit progressivement


1'espace interstellaire en noyaux des elements carbone, azote,
oxygene (CNO) et en metaux. On y trouve, en particulier, la
molecule CN.
Les objets du cosmos : planetes, etoiles, galaxies, radiations 189

La connaissance des grands objets


de TUnivers : dynamique des etoiles
et des galaxies
En abordant maintenant 1'observation profonde de 1'Univers,
precisons que seul 1'Univers observable nous est accessible, par
1'intermediaire de diverses sortes de rayonnements qui nous
informent sur les objets qu'il contient. Ses dimensions, 1024 km,
sont limitees par I'horizon de 1'Univers, la distance au-dela de
laquelle aucun signal ne peut nous parvenir, en raison du
caractere fini de la vitesse de la lumiere. Nous nous en tien-
drons, ici, aux tres gros objets de 1'Univers, des etoiles aux
amas de galaxies, qui sont lies aux renouvellements les plus
considerables de 1'astronomie et de 1'astrophysique, de leurs
methodes et de leurs conceptions, puis aux tres petits, que sont
les rayons cosmiques. Parmi les grands objets de 1'Univers,
nous distinguerons, tout d'abord, les divers types d'etoiles.
Celles-ci ont souvent ete decrites selon les methodes de 1'as-
tronomie et de 1'astrophysique avant que leur nature puisse
recevoir une explication theorique.
II faut indiquer ici tout ce que 1'astronomie doit a la
connaissance des Cepheides, decouvertes des la fin du XIXe
siecle et qui doivent leur denomination a la premiere connue
d'entre elles, 1'etoile 6 Cephee. Ce sont des etoiles variables
periodiques, dont la periode, comprise entre un et cent jours,
est reliee a la luminosite selon une loi reguliere formulee par
H.S. Leavitt en 1912. La relation permet de les utiliser pour
determiner les distances des etoiles et des galaxies tres eloi-
gnees.
Les etoiles naines brunes16 sont des etoiles (relativement)
massives et denses (entre 12 et 80 Mj) dans lesquelles les re-
actions de combustion qui ont commence a se produire n'ont
pu etre entretenues de maniere stable en raison d'une masse
trop faible. (Quant aux objets de masse inferieure a 12 Mj, ils
sont en dec,a des conditions de toute reaction thermonucleaire,
meme episodique, et n'ont aucune luminosite propre : ce sont
en general des planetes; nous avons evoque precedement les
planetes extrasolaires.)
Les naines blanches sont des etoiles de faible luminosite et de
grande densite, observees au telescope (tel le compagnon de

16
Denommees en anglais : massive compact objects.
190 La physique du XXe sie.de

Sirius, formant avec celui-ci une etoile double17, a 8,6 millions


d'annees-lumiere). Elles constituent 1'aboutissement du pro-
cessus le moins violent de la mort d'une etoile. Ce sont en effet
des residus d'etoiles : pour une masse de 1'etoile restante un
peu inferieure a une fois et demie la masse du Soleil (< 1,5 MS),
valeur qui constitue la «limite de Chandrasekhar »18, le rayon
est de 1'ordre de grandeur de celui de la Terre (Rj ^ 6 370 km),
ce qui correspond a une densite elevee (61000 fois celle de
1'eau). Le combustible nucleaire etant epuise, la matiere de
1'etoile se presente comme un « gaz d'electrons completement
degenere », c'est-a-dire sans structure propre, tous les consti-
tuants du gaz se trouvant dans des etats quantiques sem-
blables : ils ne sont maintenus a distance les uns des autres
que par le principe d'exclusion de Pauli. La temperature de
Fermi du gaz degenere d'electrons est beaucoup plus grande
que celle de 1'etoile (bien que celle-ci soit encore elevee) et
la « pression quantique » qui en resulte equilibre les forces
gravitationnelles, ce qui assure la stabilite de ce genre d'etoile.
L'explication de la structure de ces etoiles en termes de pres-
sion de degenerescence des electrons, due au principe d'ex-
clusion, a ete imaginee des 1925 par R.H. Fowler, des qu'il eut
connaissance de la statistique etudiee par Paul Dirac, qui etait
son eleve.
L'equilibre des etoiles a neutrons precede d'un mecanisme
de nature semblable, bien que ces objets soient tres differents
des precedents. Les etoiles a neutrons constituent, comme les
naines blanches, 1'etat d'une etoile en bout de course apres
epuisement de ses possibilites de nucleosynthese. Elles furent,
quant a elles, predites theoriquement par Lev Landau, vers
1932, et leurs proprietes ont ete precisees du point de vue
theorique, notamment par J. Robert Oppenheimer, bien avant
qu'elles n'aient ete observees en 1967 sous forme de pul-
sars19. Ce sont des objets tres compacts et denses, massifs
17
Les etoiles doubles, ou systemes binaires, sont relativement frequentes. Les
premiers catalogues systematiques en ont ete etablis par William Herschel
puis par son fils John.
18
De Subrahmanyan Chandrasekhar (1910-1995), astrophysicien indo-
americain, egalement connu par ses travaux theoriques sur la structure interne
des etoiles et sur les atmospheres stellaires (probleme du transfert de rayon-
nement). II rec.ut le prix Nobel de physique 1983 avec William A. Fowler
(1911-1995), astrophysicien americain, pour leurs travaux sur les processus
nucleaires et la synthese des elements chimiques dans les etoiles. On doit en-
core a W.A. Fowler la mise au point de methodes de datations astronomiques
fondees sur la decroissance radioactive de 1'uranium et du thorium.
19
R.H. Fowler (1911-1995), physicien britannique rec.ut le prix Nobel de phy-
sique en 1983 avec S. Chandrasekhar. Lev Davidovitch Landau (1908-1968),
Les objets du cosmos : planetes, etoiles, galaxies, radiations 191

et de faibles dimensions : de 1'ordre de une a deux masses


solaires dans un volume spherique de 10 km de rayon, et
d'une densite 1014 g/cm3 (soit cent millions de fois, 108,
superieure a celle des naines blanches). Ayant epuise toutes
ses possibilites de combustion, apres 1'explosion de 1'etoile
mere (une supernova), elle n'est plus constitute que d'une
croute de fer entourant des neutrons (les protons et electrons
se sont transformes en neutrons par interaction faible), com-
presses les uns sur les autres. Ces neutrons ne sont separes
les uns des autres que par 1'impossibilite d'etre tous dans le
meme etat, due au principe d'exclusion (les neutrons sont
des fermions, auxquels ce principe s'applique, voir le chapitre
3). L'etat degenere de neutrons engendre une « pression de
degenerescence » qui contrebalance la force de gravitation de
1'ensemble et empeche 1'etoile de s'effondrer sur elle-meme.
Dans 1'effondrement de 1'etoile sur elle-meme, de son etat
initial a celui, condense, d'etoile a neutrons ou son diametre a
diminue considerablement, le moment angulaire ou cinetique
est conserve (comme le dictent les lois de la mecanique), ce qui
resulte en une grande augmentation de la vitesse de rotation
(par 1'effet dit « du patineur »). Cela en fait un gyrophare
cosmique emettant des rayonnements de radiofrequences :
sa periodicite, de quelques dizaines de millisecondes, trahit
la rotation sur elle-meme, excessivement rapide, de 1'etoile.
La premiere detection d'un tel radiophare astronomique, de
petite dimension, a rotation rapide et emettant des ondes radio
periodiques, eut lieu en 1967. On le baptisa pulsar et il fut
tres vite identifie comme 1'etoile a neutrons de la prediction
theorique. Ses pareils ne tarderent pas a suivre : on connait
aujourd'hui environ 400 pulsars pour notre seule galaxie. L'un
des pulsars les plus connus est celui de la Nebuleuse du Crabe,
objet remanent de la supernova de 1'an 1054 enregistree par
les astronomes chinois de 1'epoque; il emet des ondes radio
mais aussi de la lumiere visible et des rayons X.
Les etoiles geantes rouges sont, pour leur part, situees en
haut et a gauche du diagramme de Hertzprung-Russel : de Figure 10.6. Nebuleuse du
couleur rouge et de forte luminosite, leur rayon peut atteindre Crabe « Messier 1 ». Elle est le
resultat de 1'explosion d'une
1000 rayons solaires. Les etoiles parvenues a ce stade ont
supernova, a
6 000 annees-lumiere, observee
physicien sovietique, auteur de travaux theoriques dans toutes sortes de en 1054 par des astronomes
domaines, du ferromagnetisme aux changements de phase, de la supracon- chinois. La nebuleuse du Crabe
ductivite aux oscillations dans les plasmas, de 1'helium superfluide a la theo-
contient, a proximite de son
rie quantique des champs; il rec.ut le prix Nobel de physique en 1962. Julius
Robert Oppenheimer (1904-1967), physicien americain, directeur du Centre centre, une etoile a neutron
de recherches de Los Alamos a partir de 1943, construisit la premiere bombe dont la vitesse de rotation
atomique. Sur Paul A.M. Dirac, voir le chapitre 3. s'eleve a 30 tours par seconde.
192 La physique du XXe siecle

epuise leur combustible d'hydrogene et brulent de 1'helium,


operant des nucleosyntheses superieures dans la table des ele-
ments. L'energie degagee dilate 1'enveloppe de I'etoile dont la
surface se refroidit, emettant de la lumiere rouge.
Les novx se manifestent comme de vives augmentations de
I'eclat d'une etoile, pouvant correspondre a mille ou dix mille
fois I'eclat initial, qui se produisent en quelques jours, durent
plusieurs semaines puis decroissent pour revenir a la lumino-
site primitive. II s'agit d'explosions de 1'atmosphere stellaire,
probablement due a 1'appartenance de I'etoile a un systeme
binaire rapproche. Imaginons, par exemple, un systeme bi-
naire constitue d'une naine blanche et d'une geante froide tres
proches 1'une de 1'autre. La premiere, de grande densite, attire
une partie de la matiere de la seconde, ce qui donne lieu a des
reactions thermonucleaires. De relies explosions peuvent etre
recurrentes.
Les supernovas correspondent a des eclats de luminosite
bien plus grands, de 1'ordre de cent millions (108) de fois
la luminosite initiale20, qui durent plusieurs mois avant de
s'eteindre. Ce sont des explosions d'etoiles qui se produisent
a un certain stade de 1'evolution, pour des etoiles d'une masse
de 6 a 10 fois celle du Soleil. Ce stade est atteint lorsque les
reactions de nucleosynthese s'arretent avec la production d'un
cceur de noyaux de fer (le ^Fe est tres stable) et la presence
d'un gaz d'electrons degenere dont la pression quantique
soutient le cceur de fer de I'etoile. Mais la masse de ce cceur
augmente rapidement sous 1'effet des transmutations radio-
actives des autres noyaux qui les transforment en fer. Lorsque
cette masse en vient a depasser la limite de Chandrasekhar,
le cceur s'effondre sur lui-meme par contraction gravitation-
nelle en liberant une grande quantite d'energie. Celle-ci est
communiquee aux regions externes de I'etoile et provoque
une explosion avec une vive augmentation de la luminosite (le
rayonnement d'energie lumineuse est d'environ 6 x 1050 erg),
une gigantesque onde de choc et 1'emission de particules. On
s'attend a ce que des ondes gravitationnelles soient egalement
emises. Les particules creees avec la liberation d'energie du
cceur interagissent avec le nuage de matiere ejecte par 1'explo-
sion, produisant notamment en fin de compte des neutrinos
en tres grand nombre, de maniere pratiquement instantanee :
on estime leur nombre a environ 4 x 1058 par supernova.

20
Si on prend la luminosite du Soleil, LS, pour terme de comparaison, I'eclat
d'une supernova peut atteindre 1010 Lg (dix milliards).
Les objets du cosmos : planetes, etoiles, galaxies, radiations 193

Au terme de 1'explosion, il reste le nuage de la matiere


externe qui se deploie en forme de nebuleuse dans 1'espace
et ensemence celui-ci en noyaux atomiques d'elements lourds
pour un cycle stellaire ulterieur. Telle est, semble-t-il, 1'origine
de ces elements presents dans le systeme solaire, et notamment
sur Terre et dans les autres planetes telluriques. L'explosion
laisse egalement un noyau remanent qui peut etre une etoile
a neutrons ou un trou noir. Selon les estimations, il se pro-
duit de 1'ordre de une a deux supernovae par galaxie et par
siecle. Les supernovas les plus connues, observees a 1'ceil nu,
sont celle de la Nebuleuse du Crabe, consignee par les astro-
nomes chinois en 1054, et celles observees respectivement par
Tycho Brahe en 1572 et par Kepler en 1604. II convient desor-
mais de leur adjoindre la supernova SN 1987A, observee en
1987 de 1'Observatoire de Las Campanas au Chili, egalement
a 1'ceil nu, dans le Grand Nuage de Magellan, galaxie satellite
de la Voie Lactee, situee dans le ciel austral a 170000 annees- Figure 10.7. Photographie du
lumiere. L'observation, recente, de cette supernova represente detecteur de neutrinos
par ailleurs une premiere, puisque des neutrinos emis par SuperKamiokande (Japon),
elle ont ete detectes sur Terre et enregistres avant meme que le successeur du detecteur
signal lumineux n'ait pu etre perc,u. Des interactions de neutri- Kamiokande qui enregistra, en
nos en provenance precise de cette direction avaient ete detec- fevrier 1987, des interactions de
neutrinos issus de la supernova
tees, anterieurement au signal lumineux, dans un laboratoire
SN 1987A. Les murs du
souterrain situe de 1'autre cote de la Terre, dans l'hemisphere detecteur sont tapisses de tubes
Nord (Kamiokande, au Japon). Le tres grand pouvoir de pene- photomultiplicateurs capables
tration des neutrinos leur avait evite tout retard a 1'emission, de detecter la lumiere
contrairement a la lumiere, issue de nombreux processus se- Cherenkov emise par des
condaires dans le nuage de matiere, et leur avait permis de particules chargees traversant la
traverser 1'epaisseur de la Terre sans encombre jusqu'a ce que piscine d'eau a grande vitesse.
194 La physique du XXe siecle

quelques-uns d'entre eux se fassent pieger dans le detecteur


qui, d'ailleurs, n'avait pas ete place la a cet effet...
Quant aux trous noirs, dont il a ete question a plusieurs
reprises, ils sont encore hypothetiques, en ce sens qu'ils
n'ont pas fait 1'objet d'observations indiscutables. Mais autant
furent-ils tenus par la plupart, quand 1'hypothese en fut for-
mulee, pour 1'invention de cerveaux delirants, autant serait-
on bien etonnes aujourd'hui s'il devait s'averer (par impro-
bable) qu'ils n'existent pas. Car ils sont devenus evidents et
necessaires pour tous les astronomes, astrophysiciens et cos-
mologues, qui savent a quel point la relativite generale est
desormais le guide conceptuel et theorique sans lequel au-
cune pensee coherente des objets cosmiques ne serait possible.
D'ailleurs, on connait (par le calcul) leurs proprietes sous tous
les angles mieux que si elles avaient ete effectivement obser-
vees et mesurees... On a meme anticipe dans un film (docu-
mentaire scientifique) ce que serait un trou noir et quel voyage
spatio-temporel agite il faudrait faire pour atteindre, venant
de 1'exterieur, son horizon21... Et pourtant ses proprietes sont
difficiles a se representer intuitivement, en raison des defor-
mations extremes du cone de lumiere de 1'espace-temps dans
des champs de pesanteur aussi intenses que ceux qui regnent
dans les trous noirs et dans leur proximite.
Dans la theorie de la relativite generale, la necessite du
trou noir apparait lorsqu'on considere une region d'espace-
temps de courbure extremement grande autour d'une sin-
gularite dans 1'equation de champ. De telles regions se ren-
contrent lorsque le champ gravitationnel est tellement intense,
et 1'espace correspondant tellement courbe, que la lumiere elle-
meme ne peut s'en echapper. D'ou le nom de trou noir, puisque
ces astres ne rayonnent pas de lumiere visible. Cette caracte-
ristique n'est pas absolue puisque les proprietes quantiques
appliquees a ces conditions de densite extremes font que les
trous noirs rayonnent, ce qui dispense de la difficulte mathe-
matique des singularites et fait que les trous noirs peu a peu
s'evaporent22. Du point de vue de leur constitution materielle,
21
« L'horizon » d'un trou noir est la region frontiere de 1'espace-temps mar-
quee par la trajectoire d'un rayon lumineux qui ne peut s'echapper du trou
noir. Le cone de lumiere correspondant (voir le chapitre 2) est totalement de-
vie par la gravitation vers I'interieur. En deqa de cette region, rien ne peut
s'echapper d'un trou noir, ni matiere, ni rayonnement. II peut toutefois se
produire un effet quantique « d'evaporation », qui a lieu au voisinage externe
de 1'horizon.
22
La theorie quantique appliquee aux trous noirs a ete elaboree en premier
lieu par 1'astrophysicien S. Hawking, auteur par ailleurs du livre de vulgari-
sation a succes sur la cosmologie contemporaine Une breve histoire du temps.
Les objets du cosmos : planetes, etoiles, galaxies, radiations 195

ces etats tres condenses de la matiere que sont les trous noirs
peuvent etre atteints au terme de revolution stellaire, lorsque
la masse d'une etoile est elevee (plus de trois masses solaires),
dans les circonstances suivantes. Ay ant epuise son combus-
tible, pour des reactions thermonucleaires de synthese des
elements chimiques, et donne lieu a une supernova, le cceur
de 1'etoile s'effondre sous sa propre gravite, devenant ainsi
tres dense et siege d'un champ de gravitation intense qui en-
gendre une tres importante deformation de 1'espace-temps.
Cette deformation est telle que la lumiere ne peut s'en echap-
per et que la lumiere ou la matiere qui passe pres d'elle tombe
sur le trou noir. Suivant les speculations actuelles, le mouve-
ment des galaxies serait cause par la presence en leur centre
d'un gigantesque trou noir, pouvant contenir plusieurs mil-
lions de masses solaires, source d'un champ gravitationnel
d'une intensite considerable.
Si les trous noirs ne sont pas visibles directement, ils sont
en principe detectables par leur action gravitationnelle sur
leur voisinage : c'est le cas des systemes binaires (ou etoiles
doubles). On pourrait deceler un trou noir invisible au mou-
vement de son compagnon visible. II existe actuellement plu-
sieurs candidats au titre de trou noir mais aucune identifica-
tion certaine.
Ayant examine la plupart des objets de type stellaire et
leurs avatars, venons-en maintenant a ces autres objets, beau-
coup plus gigantesques qu'eux, que sont leurs agglomerats.
Ils nous meneront directement de I'astronomie et de 1'astro-
physique a la cosmologie.
Les etoiles sont regroupees en galaxies, amas de galaxies et
superamas, suivant une hierarchic gravitationnelle qui avait ete
deja pressentie dans ses grandes lignes par Jean Henri Lambert
au XVIIP siecle23. Les nebuleuses de William Herschel et
de Charles Messier se sont averees etre, comme le premier
1'avait entrevu, des systemes d'etoiles isoles dans 1'espace
cosmique, c'est-a-dire des galaxies comme celle de la Vote
lactee ou se tient le systeme solaire. Les Herschel, pere et
fils, les localisaient et les comptaient par milliers dans les
cieux boreal et austral. La resolution des telescopes et les
mesures de luminosite ont permis depuis d'en identifier

23
Jean Henri (ou Johann Heinrich) Lambert (1728-1777), originaire de
Mulhouse, alors ville libre rattachee a la Confederation helvetique, philo-
sophe, mathematicien et physicien, membre de 1'Academie de Berlin, in-
venteur de la photometric, est 1'auteur de 1'ouvrage Lettres cosmologiques sur
I'organisation de I'Univers (trad, fr., Brieux, Paris, 1977).
196 La physique du XXe siecle

Figure 10.8. Galaxies spirales. des quantites incomparablement plus grandes et d'estimer
(a) La Voie lactee observee dans le nombre d'etoiles qu'elles contiennent, soit en moyenne
1'infrarouge par le satellite quelques cent milliards d'etoiles (10n). Tel est le cas de notre
COBE. On distingue ici le mince galaxie, la Voie lactee; mais il existe aussi des galaxies qui
disque de la galaxie spirale.
en contiennent moins (107) comme les Nuages de Magellan,
(b) La galaxie spirale NGC 4414
deux galaxies naines irregulieres, satellites de la Voie lactee24;
observee par le telescope spatial
Hubble en 1995. Cette galaxie ainsi que des geantes qui en contiennent davantage (1013). La
est situee a une distance de 19,1 galaxie la plus proche de la Voie lactee au-dela des Nuages
megaparsecs, soit environ de Magellan est celle d'Andromede, visible a 1'ceil nu, situee a
60 millions d'annees-lumiere. deux millions d'annees-lumiere et formant avec la Voie lactee
Mamas local. Les galaxies peuvent etre de differentes formes
en projection dans le ciel: spirales, elliptiques, etc. Celles qui
sont irregulieres, ni spirales, ni elliptiques, contiennent beau-
coup d'etoiles jeunes, de gaz et de poussieres. Les galaxies
actives, aux noyaux tres lumineux, emettent de grandes quan-
tites d'energie (de 1'ordre de 1058 erg, soit 1010 fois plus, dix mil-
liards, qu'une supernova). Une explication possible pourrait
en etre la presence en leur centre d'un trou noir, de plusieurs
millions de masses solaires, absorbant les etoiles voisines.
De nouveaux genres d'objets, decouverts plus recemment
(le premier le fut en 1960), se rattachent aux galaxies : il s'agit
des quasars. Ce sont des sources radio tres intenses d'origine
cosmique. Malgre le nom qui leur fut donne, quasars (ou QSO,
pour objets quasi-stellaires), il s'est avere qu'il s'agit de galaxies,
sieges d'une intense activite, tres eloignees et tres decalees
24
Denommes d'apres Fernao de Magalhaes (1480-1521), navigateur portu-
gais qui fit le premier voyage de circumnavigation autour de la Terre, et qui
les decouvrit dans le ciel austral, pres du pole Sud. Les Nuages de Magellan
sont visibles a 1'oeil nu. Le Grand Nuage, situe dans la constellation de la
Dorade, contient environ 109 etoiles, le Petit Nuage, situe dans la constella-
tion du Toucan, en contient 108. Us sont situes a 60 kpc de nous. Le Grand
Nuage a ete le siege de la supernova SA 1987 dont nous avons parle et dont
il sera encore question plus loin.
Les objets du cosmos : planetes, etoiles, galaxies, radiations 197

« vers le rouge » (en fait, vers les ondes radio), suivant le


processus de fuite des galaxies que nous evoquerons bientot.
Les amas globulaires25 sont des amas d'etoiles, riches et
tres denses, comprenant de mille a cent mille masses so-
laires (105 MS) contenues dans un volume de forme sphe-
rique, de quelques dizaines de parsecs de diametre. Eloignes
du plan de notre galaxie, ils se situent sur le disque des « halos
galactiques », qui sont des regions de faible densite stellaire
entourant les galaxies, parfois presentes dans 1'espace interga-
lactique. Ces halos sont constitues d'etoiles vieillies et d'amas
globulaires entourant une galaxie spirale, soit visibles, soit
invisibles et deceles dans ce cas seulement par leurs effets gra-
vitationnels. Ces amas, qui se seraient formes peu apres le
« big bang », selon la theorie du meme nom, seraient done les
objets celestes les plus anciens de 1'Univers, avant-coureurs
des galaxies : 1'estimation de leur age les situe entre 14 et
18 milliards d'annees.

Particules et rayonnements cosmiques


A I'oppose dans 1'echelle des dimensions de ces tres gros
objets, des particules et des radiations quantiques sillonnent
en tous sens le cosmos a la vitesse de la lumiere, porteuses
d'energies parfois extremement elevees, bien au-dela des
capacites des accelerateurs produits par rhomme. Le rayon-
nement ionisant d'origine extraterrestre decouvert en 1912, fut
identifie par Robert Millikan, en 1919-20, comme etant consti-
tue de particules chargees; neanmoins il ne s'agit pas, comme
il le pensait alors, d'electrons. II fut montre en 1948 que le
rayonnement cosmique primaire est constitue en majorite de
protons, ainsi que d'autres noyaux d'atomes completement
ionises, portes a des energies comprises entre 107 et 1021 eV.
Ces protons et ces noyaux, en rencontrant les atomes de 1'at-
mosphere, induisent des reactions nucleaires avec production
de particules elementaires qui constituent le rayonnement cos-
mique secondaire, comportant surtout des muons (en raison
de leur duree de vie relativement longue, voir les chapitres 6
et 7), des protons et du rayonnement electromagnetique, pro-
duisant de grandes gerbes penetrantes, qui correspondent a
la materialisation successive des photons en paires electron-
positon. C'est avec le rayonnement cosmique que furent mises

25
En anglais : clusters.
198 La physique du XXe siecle

en evidence les premieres nouvelles particules elementaires


jusqu'a 1'ere des accelerateurs (voir le chapitre 6).
Les rayons cosmiques sont des particules quantiques electri-
quement chargees. Les particules neutres venant de 1'espace
comme les photons de grande energie (rayons y) et les neu-
trinos peuvent aussi etre rangees sous cette appellation. Les
sources du rayonnement cosmique primaire sont des objets
ou regions celestes, sieges de reactions energetiques violentes:
reactions thermonucleaires de nucleosynthese dans le Soleil et
les etoiles26 pour le rayonnement de relativement basse ener-
gie; pour celui de tres haute energie, 1'explosion de super-
novae, 1'activite de centres galactiques, etc. Les mecanismes de
leur acceleration sont mal connus : ils sont portes a des ener-
gies elevees par des champs electromagnetiques intenses qui
regnent dans certaines regions de 1'Univers.
L'etude des particules de tres haute energie du rayonne-
ment cosmique permet de prolonger les connaissances four-
nies par la physique aupres des accelerateurs dans un domaine
energetique qui echappe a ces derniers. Elle fournit egalement
des informations importantes concernant 1'astrophysique et
la cosmologie. Les particules chargees donnent la proportion
exacte d'anti-matiere par rapport a la matiere (1CT9 selon les
connaissances actuelles), et les rayons ~y ouvrent une fenetre sur
les corps qui emettent ces energies elevees. Une autre fenetre
complementaire est fournie par les neutrinos de haute d'ener-
gie, qui proviennent directement et sans alteration du cceur
meme des sources energetiques.
L'astronomie par neutrinos, ou neutrino-astronomic, est un
nouveau chapitre desormais ouvert de cette science, comple-
mentaire des astronomies optique, X et y: la tres grande trans-
parence de la matiere aux neutrinos, due a leur extreme pou-
voir de penetration, en fait des sondes privilegiees des objets
opaques de 1'Univers. Un telescope a neutrino est un detecteur
constitue d'un grand volume de matiere, liquide ou solide,
equipe de scintillateurs, chambres a fils ou autres detecteurs de
particules chargees, qui permettent d'enregistrer les interac-
tions de neutrinos incidents a partir des particules produites,
en les identifiant en nature et en direction, et en reconstituant
leur energie incidente. Le detecteur est place sous une epaisse
couche de matiere, pour un filtrage severe du bruit de fond de
26
Le vent solaire est un flux de particules electriquement chargees (protons et
electrons) emises par le Soleil et constituant un plasma interplanetaire anime
d'une vitesse moyenne de 300 a 400 km/s. Le Soleil ejecte ainsi en une annee
environ 10~13 fois sa masse. De fac^on similaire, les etoiles emettent des vents
stellaires.
Les objets du cosmos : planetes, etoiles, galaxies, radiations 199

reactions parasites, necessaire etant donnee la faible capacite


d'interaction des neutrinos : les detecteurs de neutrinos sont
done souterrains, situes dans des tunnels sous des montagnes
ou au fond de mines profondes, desaffectees ou non, ou encore
sous-marins (en construction).
Les resultats deja acquis de 1'astronomie par neutrinos
concernent en premier lieu 1'etude des neutrinos solaires,
entreprise des 1968 par Raymond Davis Jr. Les neutrinos (de
type electronique, ve), produits dans les reactions de nucleo-
synthese solaire, etaient detectes par leurs interactions dans un
immense reservoir rempli de tetrachlorure de carbone, place
au fond d'une mine d'or desaffectee, a Homestack dans le
Dakota du Sud aux Etats-Unis. La connaissance des processus
de nucleosynthese solaire et la theorie des interactions faibles
permettent de calculer le taux et le spectre des neutrinos emis,
et done de prevoir celui des interactions dans le detecteur
situe sur la Terre. Le taux de neutrinos observes (dans des
interactions « a courants charges », donnant un electron dans
1'etat final: ve —> e, voir le chapitre 7), etait trois fois plus bas
que celui escompte a partir de la theorie et de notre connais-
sance du Soleil. Le defaut d'interactions constate pourrait etre
impute soit a 1'inexactitude du modele solaire adopte, soit a
une propriete « d'oscillation » des neutrinos (de 1'une de leurs
trois especes a une autre, ve —> vfi ou ve —> vT27), previsible si
leur masse n'est pas nulle. D'autres experiences du meme type
sont poursuivies en divers endroits dans le monde a 1'aide de
detecteurs varies, afin de capter toute la gamme des energies
de neutrinos solaires produits dans les divers types de reac-
tions nucleaires. Diverses experiences aux resultats conver-
gents semblent indiquer une « oscillation » des neutrinos28.
Un autre resultat remarquable a porte sur la detection
de neutrinos emis par une supernova. Le 24 fevrier 1987, des
neutrinos ont ete detectes dans deux detecteurs situes dans
1'hemisphere Nord de la Terre (au Japon et aux Etats-Unis),
leur direction indiquant qu'ils avaient traverse la Terre et pro-
venaient de la supernova SN 1987A, survenue dans le Grand
27
Les neutrinos solaires sont de basse energie, de 1'ordre du MeV, et ne
permettent pas de produire les deux autres leptons charges, le muon et le
tauon, dont les masses sont trop elevees pour cela.
28
En particulier un resultat annonce au debut de 2002 montre que le taux
de neutrinos recueillis sur Terre est celui prevu theoriquement si Ton detecte
les neutrinos parvenus sur Terre par leurs reactions de « courants neutres »
(v'e,,u,T ~» ve,jj,r)' dans lesquelles il n'y a pas d'effet de seuil de masse comme
pour les courants charges. L'attenuation observee pour les reactions avec pro-
duction d'electrons serait done bien due a la transformation, dans le parcours
du Soleil a la Terre, du ve dans les deux autres varietes.
200 La physique du XXe siecle

Nuage de Magellan situe dans le ciel austral. La supernova


etait par ailleurs visible a 1'oeil nu par 1'eclat de la lumiere
emise, mais 1'instant d'enregistrement des neutrinos prece-
dait le moment de 1'observation optique, confirmant ainsi le
caractere quasi-instantane de leur emission au moment de
1'explosion de 1'etoile. II n'est pas excessif de dire que cette
observation a ouvert une ere nouvelle pour 1'astronomie, en
offrant une nouvelle fenetre d'observation pour etudier des
sources d'evenements tres energetiques.

La masse manquante
Le probleme d'une « masse manquante » dans 1'Univers
observable s'est trouve pose a la fois a partir de considerations
d'astronomie locale, sur la dynamique de certaines structures
comme les galaxies, et de cosmologie sur la structure globale
de 1'Univers. Les premieres portent sur la difference consi-
derable qui existe, sur le mouvement des galaxies dans les
amas, entre la masse qui serait necessaire du point de vue
dynamique pour rendre compte de leur mouvement, et celle
estimee par 1'observation optique. II semble bien, au total,
que des masses, au niveau d'objets astronomiques comme les
galaxies, se manifestent indirectement par leurs effets dyna-
miques et gravitationnels, tout en echappant a la detection
habituelle (voir 1'encadre 10.1).
Quant a 1'argument de nature cosmologique (nous antici-
pons ici sur la suite), il concerne la valeur de la densite obser-
vee de 1'Univers dans son rapport a la « densite critique ». La
densite critique (pcrit) est la valeur de la densite de 1'Univers
pour laquelle 1'expansion serait exactement compensee par
1'attraction gravitationnelle de ses constituants, et correspond
a un univers plat ou quasi-euclidien de Minkowski (on parle
de la « platitude de 1'Univers »). Or il se trouve que le rapport
de la densite observee a la densite critique est de 0,01, au temps
present de 1'Univers; sa valeur est dix fois moindre que celle
que 1'on aurait si, en remontant au temps de 1'Univers primor-
dial ou le rayonnement et la matiere s'equilibraient, la densite
observee avait tres exactement la valeur critique (c'est-a-dire
que le rapport etait egal a 1). La coincidence extremement pre-
cise avec cette valeur tres particuliere suggere que le rapport
actuel de la densite effective a la valeur critique soit dix fois
plus eleve que celui observe29.
29
Pcrit = Hp/SnG; HO est la valeur de la constante de Hubble aujourd'hui. On
definit le rapport de la densite a la densite critique, aujourd'hui (Qo = po/Pcrit)
Les objets du cosmos : planetes, etoiles, galaxies, radiations 201

Dans les deux cas, un deficit est done diagnostique dans


les masses observables par rapport aux valeurs qui seraient
en coherence avec 1'analyse des phenomenes astronomiques
et cosmiques. La proportion est tres elevee : la masse totale
observee representerait seulement 10 % de la masse totale
requise. II faut supposer que ces 90 % de masse ont echappe
jusqu'ici a 1'observation visuelle ou equivalente : c'est la masse
« manquante »,« invisible » ou « cachee ». Les objets echappant a
la detection visuelle qui pourraient contribuer de fac.on signifi-
cative a la masse de 1'Univers pourraient etre des astres massifs
et compacts comme les trous noirs ou les naines brunes, ou
des objets encore inconnus, constituant une « matiere noire »,
n'emettant pas de rayonnement detectable, non baryonique
(c'est-a-dire faite d'autres constituants que les neutrons et
protons des noyaux atomiques). Elle pourrait etre constitute
de « particules exotiques »30, creees aux tout debuts de 1'expan-
sion du cosmos, suffisamment nombreuses et massives pour
representer une composante preponderante de 1'energie et de
la masse de 1'Univers. Ces particules exotiques pourraient etre
les particules requises par les diverses theories d'unification,
ou encore des neutrinos, s'ils sont dotes de masse, comme
les neutrinos « fossiles » du fond du ciel, aussi nombreux
que les photons du rayonnement electromagnetique isotrope
(qui sont environ un milliard de fois plus nombreux que les
nucleons) et furent produits, a peu de choses pres, en meme
temps qu'eux. II semble que la masse des neutrinos, si elle
n'est pas nulle, serait trop faible cependant pour augmenter
suffisamment la masse de 1'Univers.
La recherche de la matiere noire non baryonique direc-
tement par des detecteurs appropries, ou indirectement par
ses effets sur la dynamique des structures a grande echelle et
par les comparaisons entre les simulations numeriques et les
observations, est un theme qui connait un tres grand develop-
pement depuis le milieu des annees 1980. C'est un des themes
ou se marque le plus activement le rapprochement entre la
cosmologie et la physique subatomique.

et au temps t (Q = p/p cr it)- ^o = 0,01. II faudrait avoir QQ = 0,1 pour que


1'Univers ait ete tel que Q = 1 a 1'epoque ou la matiere s'est formee.
30
Elles devraient, en effet, differer des particules connues dont les interactions
ont determine la formation de 1'Univers telle que la decrit la « cosmologie des
premiers instants ».
Cette page est laissée intentionnellement en blanc.
Chapitre 11

La cosmologie
contemporaine:
deploiement
et transformations
de TUnivers

Venons-en maintenant a la cosmologie, devenue au debut du


XXe siecle la science qui etudie 1'Univers considere dans sa
totalite et dans son evolution temporelle. Le terme « cosmo-
logie » etait plutot reserve jusqu'alors aux lois de la nature
dans ce qu'elles ont de general et d'universel1. Quant aux
doctrines sur une histoire, voire sur une creation, de 1'Uni-
vers, appelees « cosmogonies », elles etaient non scientifiques
et notoirement mythiques. Cependant, la loi de 1'attraction
universelle avait commence de susciter des « cosmogonies na-
turelles »telles que la Nebuleuse originelle de Kant et Laplace,
mais elle etait restreinte a la consideration du systeme solaire.
L'ouverture du ciel profond a 1'observation, inauguree par
William Herschel a la fin du XVIIP siecle, impliquait a terme
1'eventualite de prendre en consideration une « constitution
naturelle des cieux » pour les grandes structures de 1'Univers,
centree sur la dynamique de la gravitation.
La cosmologie apparait, suscitee en tant que science,
comme decoulant directement et naturellement de la theorie
1
C'est le sens qui lui est donne au XVIII6 siecle dans I'Encyclopedic
de d'Alembert et Diderot, sous la plume de d'Alembert (a 1'article
« Cosmologie ») : loi d'application generale au cosmos entier. C'est une
conception post-copernicienne et elle etait en cela d'une importance fonda-
mentale, en affirmant 1'unite de la matiere dans tout I'Univers. Elle supposait
bien 1'idee d'un Univers physique, mais sans le prendre encore pour objet de
connaissance (a quelques exceptions pres, a 1'epoque meme, notamment Jean
Henri Lambert).
204 La physique du XXe siecle

de la relativite generale ou theorie relativiste de la gravita-


tion, applicable a 1'Univers entier. II fallait, pour cette appli-
cation, faire des hypotheses sur la structuration de 1'Univers
(comme la repartition des masses dans 1'espace), c'est-a-dire
formuler des modeles cosmologiques. Ces modeles, portant sur la
dynamique de la gravitation, entrainerent la necessite de tenir
compte d'une transformation de 1'Univers avec le temps, avec
differents scenarios possibles (expansion acceleree, ou uni-
forme, ou re-contraction). L'observation de la recession des
galaxies, faite a peu pres a la meme epoque, et la loi qui en
fut formulee par Hubble fournirent la contrepartie factuelle
et observationnelle necessaire pour que la cosmologie puisse
etre consideree comme une science physique a part entiere.
Une autre dimension de la cosmologie s'est manifestee
dans le troisieme quart du siecle par la rencontre de la
cosmologie de 1'Univers primordial avec la physique des par-
ticules et des champs quantiques fondamentaux. En la decla-
rant effective, bien que d'une fagon encore seulement theo-
rique et souvent speculative, par 1'enonce de sa necessite, qui
ressort imperieusement des donnees d'observation, la fin du
XXe siecle venait ainsi mettre un point d'orgue a 1'ouverture
conjointe, faite au XVIF siecle, par la double invention du
telescope et du microscope2, a 1'observation et a la connais-
sance de la matiere du macrocosme et de celle du microcosme.
Entre-temps, 1'homme avait realise I'immensite des
espaces cosmiques, avec les observations, au debut du
XIXe siecle, de William Herschel3, qui prenait deja la mesure
des distances astronomiques en dehors du systeme solaire en
definissant « 1'annee-lumiere »4. II observait et comptait des
nebuleuses d'etoiles ou il voyait des « univers-iles », qui sont
les galaxies.
Aux debuts de la revolution scientifique, au milieu du
XVIP siecle, Blaise Pascal, savant mathematicien et physicien,
2
A savoir, la lunette de Galilee, le telescope de Cassegrain et de Newton, et
le microscope de Loewenhoek.
3
William Herschel (1738-1822), astronome britannique, ne a Hanovre, qui
decouvrit le rayonnement thermique ou infrarouge et la planete Uranus, en
1771, fut le premier a construire de grands telescopes a miroirs (pour leur
grande luminosite) et a sender 1'espace extra-galactique. II fit ainsi le cata-
logue de nombreux objets celestes, notamment les etoiles doubles (visuelles)
et les galaxies (qu'il appelait « nebuleuses >>). Son fils John Herschel (1792-
1871), mathematicien et astronome, poursuivit son ceuvre en faisant des ob-
servations dans rhemisphere Sud, au Cap de Bonne Esperance; il fut 1'un des
premiers a appliquer la technique de la photographie a 1'astronomie.
4
Voir, dans 1'encadre 10.4, les unites de distances et autres grandeurs usitees
en astronomie.
La cosmologie contemporaine : deploiement et transformations de I'Univers 205

egalement philosophic, s'interrogeait sur le sens des « deux


infinis »(post-coperniciens) que Ton ne pouvait alors que pres-
sentir, celui de 1'extreme petitesse et celui de 1'immensite des
espaces cosmiques : « Qu'est ce que 1'homme dans la nature ?
Un neant a 1'egard de 1'infini, un tout a 1'egard du neant, un
milieu entre rien et tout. »
L'homme, sans en savoir beaucoup plus sur le fond de la
question et sur ce qu'il fait en ce monde, a du moins aborde
depuis lors a ces rivages de 1'extremement petit et de 1'extre-
mement grand. Du moins les a-t-il approches suffisamment
pour savoir qu'ils ne lui sont pas etrangers puisqu'il peut s'en
donner une connaissance deja assez precise : il peut apprivoi-
ser ces distances « astronomiques » et leurs inverses avec les
« objets » correspondants. De plus, d'une maniere inattendue,
il peut considerer que ces deux infinis entretiennent une re-
lation tres etroite. Pour reprendre 1'image frappante proposee
par le physicien Leon Lederman5, les astrophysiciens et les
cosmologues, braquant leurs hyper-telescopes vers I'Univers
dans ses premiers etats (la distance etant ici une mesure di-
recte du temps, celui mis par la lumiere pour nous parvenir),
et les physiciens du domaine quantique, pointant leurs hyper-
microscopes (ou accelerateurs) vers les tres petites dimensions
de la matiere (dimensions inverses des energies), s'aperc,oivent
qu'ils sont en train de regarder le meme objet.
La cosmologie et la physique contemporaine nous ensei-
gnent que le monde de l'« infiniment grand »tient aux proprie-
tes du monde de « 1'infiniment petit » par sa structure meme :
la forme du contenant a ete fixee par le contenu, selon le derou-
lement du temps. En effet, la connaissance de I'Univers dans
sa totalite et de ses grandes structures (les galaxies et leurs
amas) depend de celle de la physique subatomique, dont nous
avons deja parle. Inversement, les proprietes de « 1'infiniment
petit » dans ses regions extremes et asymptotiques ne nous
seront eventuellement connaissables que par celles de « 1'infi-
niment grand », encore que ce terme ne soit pas tres adequat
pour designer I'Univers entier a ses debuts (puisque toute sa
masse-energie etait alors concentree en un volume infime). En
effet, dans son observation tres distante, qui correspond a son
epoque precoce, I'Univers se propose comme laboratoire pour
1'etude des proprietes « ultimes » de la matiere elementaire.
Et ce laboratoire « naturel » est evidemment le seul possible.

5
Voir le chapitre 7.
206 La physique du XXe siecle

La cosmologie gravitationnelle
La cosmologie, comme science, a pris son essor a partir d'une
conjonction de travaux theoriques sur la structure spatio-
temporelle de 1'Univers dans le cadre de la theorie de la re-
lativite generale, et de resultats d'observation concernant le
mouvement des galaxies. Du point de vue theorique, le com-
mencement se situe en 1917 quand Einstein fut amene a appli-
quer sa theorie de la relativite generale a 1'Univers considere
dans sa totalite. Ce fut le souci de coherence de sa theorie
qui 1'y conduisit et non 1'idee de considerer d'emblee 1'Uni-
vers. On peut dire, en ce sens, que la cosmologie s'est impo-
see « naturellement » dans la logique de la theorie relativiste
de la gravitation. De meme, du point de vue observation-
nel, comme nous le verrons, ce sont les objets de 1'Univers a
grande echelle, les galaxies, et leur mouvement relatif, qui ont
suscite 1'idee d'expansion de 1'Univers, et done de la prise en
compte de 1'Univers dans sa totalite : done, egalement d'une
maniere naturelle. Ajoutons cependant que 1'interpretation de
la recession des galaxies en termes d'expansion de 1'Univers
fut guidee par la theorie de la relativite generale.
Einstein, poursuivant sa reflexion sur la necessite d'eradi-
quer la notion d'espace absolu, qui 1'avait conduit a la fin
de 1915 a la theorie de la relativite generale, se demanda en
1917 ce que devenait la theorie si 1'on considerait 1'espace
astronomique dans les regions tres lointaines (dans 1'idee d'un
espace infini) ou Ton peut supposer qu'il n'y a plus de corps.
II faudrait alors en revenir a 1'espace absolu de Newton, et la
theorie de la relativite generale devrait inclure, a cote du terme
representant les champs de gravitation, un autre terme repre-
sentant 1'espace absolu a 1'infini, pour les regions denuees de
matiere. Mais la theorie perdrait ainsi, tant dans la forme de
ses equations que dans la pensee de ses concepts, sa simplicite
et son homogeneite. Einstein trouva secours dans le « principe
de Mach » qui lui avait servi de guide au debut de son travail
sur la relativite generale. II lui fit a nouveau appel, d'une ma-
niere differente de la precedente ou il 1'avait utilise comme un
« principe de la relativite de 1'inertie », pour former le concept
de « covariance » (voir le chapitre 2).
Le « principe de Mach », qu'il baptisa ainsi pour 1'occasion,
lui fournissait cette fois une condition aux limites pour 1'appli-
cation de sa theorie. Mach estimait que 1'espace absolu n'est
qu'une maniere de dire, et que tous les effets qu'on peut lui
attribuer se rapportent, en fait, a I'influence des corps eloignes
(les etoiles fixes de Newton). Autrement dit, ainsi qu'Einstein
La cosmologie contemporaine : deploiement et transformations de I'Univers 207

le traduisit dans son propre systeme de concepts, la ou il n'y a


pas de corps, et done de champ de gravitation, il n'y a pas d'es-
pace : il n'y a pas d'espace vide a 1'infini. II fallait done retenir
pour I'Univers un espace fini sans toutefois qu'on puisse lui
assigner de limites. Or la relativite generale permettait de rea-
liser des espaces riemanniens pour lesquels il est possible de dis-
socier les notions de fini et de limite (ou d'infini et d'illimite).
Un espace spherique a deux dimensions, comme la surface
d'une sphere, est fini et sans limites, et il en va de meme pour
les dimensions superieures. Einstein choisit done la condition
« aux limites » de sa theorie : un Univers spherique ferme (pour
une distribution homogene de matiere). II le prit en iaii ferme
et statique, car rien, a 1'epoque, dans les observations astrono-
miques, n'autorisait a considerer un Univers dynamique dont
la forme globale se modifierait avec le temps. L'idee meme
n'en avait probablement jamais ete soulevee. Pourtant, les
equations du champ de gravitation d'Einstein pour I'Univers
entier impliquaient une variation avec le temps du rayon de
I'Univers. Pour la compenser, Einstein ajouta un terme dans
son equation : le « terme cosmologique ». II devait dire une
dizaine d'annees plus tard, quand il se rallia a 1'idee d'expan-
sion de I'Univers, que ce fut«la plus grande erreur de sa vie ».
Cependant, meme avec un Univers dynamique et en expan-
sion, le terme cosmologique devait etre maintenu par la suite,
notamment dans les annees 1930 par Eddington et Lemaitre6.
Divers modeles cosmologiques furent depuis lors propo-
ses, tous situes dans le cadre de la theorie de la relativite gene-
rale d'Einstein. Wilhelm de Sitter presenta, des 1917, une autre
solution que celle d'Einstein avec son modele (plus mathema-
tique que physique) d'un univers vide, pratiquement eucli-
dien, « quasi-statique » ou « stationnaire », et ou les masses
introduites doivent se repousser continuellement pour com-
penser 1'attraction. Alexander Friedmann ecrivit, en 1922-24,
les equations generates de la cosmologie relativiste, en admet-
tant les hypotheses cosmologiques d'Einstein, comme un sys-
teme de deux equations differentielles admettant une infinite
de solutions, pouvant etre spatialement ouvertes ou fermees,
et ou la metrique spatiale est fonction du temps cosmique.

6
La constante cosmologique est maintenue dans les theories de I'Univers en
expansion mais avec une signification differente. C'est la constante d'integra-
tion dans la resolution des equations differentielles d'Einstein qui decrivent
les modeles de Friedmann. La constante cosmologique acquiert une impor-
tance particuliere dans la theorie du « big bang » : elle est liee, dans I'Univers
primordial, aux energies potentielles de tous les champs quantiques presents.
208 La physique du XXe siecle

(La variabilite de la metrique remplac.ait 1'hypothese


einsteinienne d'un Univers ferme.) Les modeles station-
naires d'Einstein et de de Sitter en sont des cas particuliers.
L'« Univers de Friedmann », ou les galaxies sont les molecules
d'un gaz dont la pression est consideree comme nulle, pos-
sede des solutions non stationnaires, ou le rayon ou echelle
d'Univers, R(t), varie avec le temps : il constitue le premier
modele dynamique de 1'Univers7. Friedmann n'envisagea pas
les consequences physiques du caractere non statique de la
metrique, et son travail ne fut reellement pris en considera-
tion qu'apres les travaux de Lemaitre et Hubble de 1929.
Hermann Weyl fut le premier a montrer, en 1923, qu'une
metrique riemannienne d'univers implique en general un de-
calage spectral, qui serait vers le rouge dans le modele de
de Sitter, retrouvant 1'idee d'un temps cosmique comme celui
d'Einstein mais libere de 1'hypothese statique. II revint ensuite
a Robertson, en 1929, de clarifier les hypotheses geometriques
sous-jacentes a la cosmologie relativiste de Friedmann et de
former exactement la metrique riemannienne correspondante.
C'est a peu pres a la meme epoque que les conclusions
des observations astronomiques sur 1'expansion de 1'Univers
vinrent apporter a la cosmologie une base factuelle en faveur
d'un developpement dynamique de 1'Univers. La cosmolo-
gie privilegiait 1'hypothese d'une evolution temporelle irre-
versible de 1'Univers par rapport aux deux autres possibili-
tes a priori, celle d'un Univers cyclique des mythologies de
1'Antiquite ou d'un Univers statique.
Einstein, qui avait reconnu des 19221'exactitude du travail
de Friedmann, ne fit cependant sienne 1'idee d'un Univers
dynamique qu'en 1931. II donna des lors plusieurs travaux
cosmologiques dans lesquels il rejetait la constante cosmo-
logique, admettait des modeles en expansion, et notait que
« la structure de 1'espace est de moins en moins determinee

7
Wilhem de Sitter (1872-1934), astronome neerlandais. Alexander
Alexandrovitch Friedmann (1888-1925), astrophysicien russe, fut egalement
1'un des fondateurs de la meteorologie dynamique. L'equation de Friedmann,
qui fait intervenir R(t) et ses derivees premiere et seconde par rapport au
temps, constitue 1'une des relations fondamentales de la cosmologie rela-
tiviste. Friedmann montra que ses solutions peuvent, selon la valeur prise
par la constante cosmologique, correspondre a trois regimes : deux regimes
d'expansion et un regime periodique avec recon traction. L'idee de temps cos-
mique, envisagee par Einstein et Friedmann, revient a supposer qu'il est pos-
sible de choisir des coordonnees d'espace-temps de sorte que les elements go/
du tenseur metrique soient identiquementnuls. Sur tous ces developpements,
on consultera avec profit 1'ouvrage de Jacques Merleau-Ponty, Cosmologie du
XXe siecle, op. cit.
La cosmologie contemporaine : deploiement et transformations de I'Univers 209

par la matiere qu'il contient »8. II proposa en 1932, avec de


Sitter, un modele d'Univers en expansion indefinie, pour un
espace euclidien, comme Tune des solutions d'un univers de
Friedmann-Robertson9.
Desormais, la cosmologie etait devenue une science a part
entiere pour laquelle la structure de I'univers est inseparable
de sa dynamique, gouvernee dans son etat present par le
champ de gravitation qui s'exerce entre les constituants de
matiere et d'energie. Sa theorie fondamentale est done la
relativite generate, qui permet d'ecrire les equations donnant
sa metrique spatio-temporelle. Le principe cosmologique pose
1'homogeneite et 1'isotropie de I'Univers a grande echelle, qui
sont effectivement observees (a une echelle superieure aux
dimensions des galaxies). Ce principe generalise en quelque
sorte la decentration copernicienne, en ce sens qu'aucun objet
de I'Univers n'y occupe une place centrale. La cosmologie
observationnelle etudie, par 1'observation astronomique et
astrophysique, independamment d'une theorie cosmologique
donnee, les proprietes de I'Univers telles que son homogeneite
et son isotropie, sa structure a grande echelle, 1'abondance des
elements, etc. Elle fournit les donnees qui correspondent aux
parametres laisses libres dans les equations de la cosmolo-
gie theorique et permet ainsi de determiner la dynamique de
I'Univers : pour une valeur donnee de la densite de masse-
energie et pour un etat initial correspondant a une phase d'ex-
pansion, un seul type devolution, parmi les trois types de
solutions donnant la dependance du rayon de I'Univers en
fonction du temps, sera selectionne. II peut s'agir soit d'une
re-contraction, si la densite est superieure a une certaine valeur
dite densite critique, soit d'une expansion indefinie. Dans ce
dernier cas, on peut observer deux regimes distincts : une
variation lente pour un Univers plat si la densite correspond
exactement a la valeur critique (modele d'Einstein-de Sitter),
ou une variation rapide si la densite est inferieure a la valeur
critique.

La recession des galaxies


et 1'expansion de 1'Univers
Parallelement au developpement des idees de la cosmolo-
gie theorique, 1'observation astronomique sur de grandes
8
Dans un article de 1945.
9
La variation du rayon d'Univers avec le temps est, dans le modele
d'Einstein-de Sitter : R(f) = f 2 / 3 .
210 La physique du XXe siecle

Figure 11.1. Georges Lemaitre


entre Robert Millikan (a gauche)
et Albert Einstein (a droite). La
theorie de 1'atome primitif
triomphe. California Institute of
Technology, Pasadena,
10 Janvier 1933.

distances impliquait progressivement la consideration de


1'Univers, pris dans son ensemble, comme une entite elle-
meme dynamique. Des mesures astronomiques avaient mon-
tre, des le debut du siecle, des decalages spectraux pour plu-
sieurs galaxies (appelees alors « nebuleuses spirales »): Vesto
Slipher, notamment, avait interprete ses resultats par 1'effet
Doppler-Fizeau (voir 1'encadre 10.3) en termes de mouve-
ments de fuite a des vitesses tres elevees, proches de celle de la
lumiere, ce qui ne laissait pas d'etonner. D'autres observations
confirmerent par la suite ces mouvements pour de nombreuses
galaxies : la longueur d'onde de la lumiere emise par celles-ci
subit un deplacement (ou decalage) vers le rouge (c'est-a-dire
une augmentation). Le phenomene fut admis vers 1919, et
d'une maniere generale et definitive en 1924: le decalage etait
caracteristique d'un mouvement d'eloignement par rapport a
1'observateur terrestre, et il semblait d'autant plus important
que les galaxies sont eloignees10.
Considerant ces resultats, Georges Lemaitre (1894-1966)11
eut 1'idee de les interpreter a travers la theorie de la relati-
vite generale et des modeles cosmologiques dont il avait une
bonne connaissance. II formula et argumenta 1'idee, des 1927,
10
Vesto Melvin Slipher (1875-1969), astronome americain, etudia par ailleurs
les spectres des planetes et contribua a la decouverte de la planete Pluton, en
1930.
11
Georges Henri Lemaitre (1904-1966), chanoine, astrophysicien et cosmo-
logue beige, fut 1'eleve d'Arthur Eddington.
La cosmologie contemporaine : deploiement et transformations de I'Univers 211

que I'Univers etait en expansion : la representation d'un


univers courbe permettait de concevoir que les galaxies
s'eloignent les unes des autres, et d'autant plus qu'elles sont
mutuellement plus eloignees. Les mesures precises des dis-
tances des galaxies etaient devenues possibles grace a 1'obser-
vation des Cepheides (voir le chapitre 10). Edwin Hubble12,
mesurant les distances d'eloignement de ces galaxies, mon-
tra, en 1928, que le decalage se laisse decrire pour toutes les
galaxies par une meme relation de proportionnalite entre le
deplacement spectral, c'est-a-dire la vitesse et la distance, et
enonc.a la loi qui porte son nom. II infera lui aussi de la reces-
sion des galaxies que I'Univers est en expansion. L'expansion
de I'Univers ressortait naturellement, comme nous 1'avons vu,
des equations de la relativite generate appliquees a I'Univers :
le rayon ou facteur d'echelle (correspondant au rayon de
I'Univers) R(t) croit avec le temps. Nous savons aujourd'hui,
par la loi de Hubble, que cette expansion est reguliere13 depuis
environ 15 milliards d'annees14.
La recession des galaxies, dans 1'hypothese d'une expan-
sion de I'Univers, ne doit pas etre interpretee comme un mou-
vement des galaxies dans 1'espace mais comme 1'effet d'une
deformation de 1'espace lui-meme (de meme que lorsqu'un
ballon se gonfle les distances a sa surface se dilatent) : elles
sont « comobiles » avec I'Univers. La recession des galaxies est
12
Edwin Powell Hubble (1889-1953), astronome americain, qui decouvrit le
caractere extragalactique (en dehors de la Voie lactee) des nebuleuses, mit en
evidence leur distribution uniforme et donna la loi du decalage vers le rouge
de leur spectre. Cette loi s'ecrit cz = Hd, avec c vitesse de la lumiere, z decalage
spectral, d distance et H constante de Hubble (H = 100 kms"1 Mpc"1). Elle
indique que la vitesse de fuite, v, est proportionnelle a la distance.
13
On parle d'expansion adiabatique de I'Univers. Est adiabatique une trans-
formation d'un systeme physique qui s'effectue sans echange d'energie avec
1'exterieur. C'est effectivement le cas avec I'Univers pris dans sa totalite : la
transformation est lente et progressive, la variation avec le temps du facteur
d'expansion ou d'echelle cosmique, R(t), est de la forme R ~ t", avec a = 1.
La vitesse d'expansion, designee par H(t) varie comme t~l en regime normal.
14
La loi de Hubble pour la recession des galaxies s'ecrit: z = V/c = HO (avec :
2
- ^obsMmise ~ I/ decalage; d : distance; V : vitesse de la galaxie par rapport
a la Terre; c : vitesse de la lumiere; HO : constante de Hubble pour I'Univers
dans son etat actuel). La loi de Hubble pour la recession des galaxies permet
d'ecrire le facteur d'echelle de I'Univers comme: HO = (l/R)o(dR/df)o (1'indice
0 signifiant la valeur prise pour I'Univers actuel). L'age de I'Univers est: to =
I/Ho. La valeur actuellement admise de H est entre 60 et 80 km s"1 Mpc"1. La
valeur du facteur d'echelle, R(t), depend de la densite moyenne de I'Univers,
exprimee par son rapport a la densite critique, Q(= p/p c ), et de la constante
cosmologique, A. On appelle cosmochronologie 1'application de methodes de
determination de 1'age de I'Univers et de notre galaxie par datation a partir
des elements radioactifs de meteorites ou de roches lunaires, ou encore de
roches terrestres primitives.
212 La physique du XXe siecle

done le temoin de 1'expansion de 1'espace physique cosmique


et done de 1'Univers lui-meme : avec elle, c'est 1'Univers, bien
plus que les corps qu'il contient, qui est directement objet d'ob-
servation, ce qui conforte la cosmologie comme une science a
part entiere.
II est possible a priori de considerer 1'expansion de 1'Univers
jusqu'a son etat actuel depuis un temps infini ou depuis un
temps fini. Dans le premier cas, 1'Univers aurait existe de tout
temps; dans le second, il est possible de parler d'une duree
finie de 1'Univers jusqu'a son etat actuel, ce qui pose certains
problemes epistemologiques, comme celui de la signification
physique d'un age de 1'Univers, voire d'une « origine » de ce
dernier. Les modeles d'Univers du second genre sont appeles
« modeles du big bang » et sont les plus en faveur aujourd'hui.
La denomination leur fut en fait donnee a 1'epoque ou ils furent
proposes comme un signe de derision et d'invraisemblance
par 1'astronome Fred Hoyle, qui les trouvait« creationnistes ».
Get aspect fut, il est vrai, quelque peu exploite dans les de-
buts, mais de telles interpretations metaphysico-theologiques
sortaient evidemment du cadre des idees scientifiques. Dans
ce cadre, la question n'etait pas vraiment de savoir si de telles
idees pouvaient susciter des interpretations hasardeuses (car
qui saurait dans tous les cas brider les imaginations fertiles ?),
mais si elles etaient coherentes du point de vue physique
et epistemologique. (Souvenons-nous de certaines interpre-
tations de la mecanique quantique, dont le caractere delirant
n'altera en rien le bien-fonde de la theorie elle-meme.)
Le modele theorique du « big bang », que nous allons
decrire, est done porte de nos jours au rang de « modele stan-
dard », et sa denomination est reprise sans aucune conno-
tation. (II est vrai que la physique nous a habitues depuis
aux inventions langagieres imagees les plus curieuses, comme
nous avons pu le voir au chapitre 7.)
Quoiqu'il en soit, des theories ou modeles ont ete propo-
ses, comme alternatifs au big bang, souvent avec la motivation
d'eviter ce qui apparaissait comme les apories d'un commen-
cement du temps et d'une singularite initiale de 1'espace (sujet
sur lequel nous reviendrons au chapitre 12, consacre aux « ori-
gines ») et les interpretations creationnistes qui les accompa-
gnaient. Les plus connues sont la « theorie de 1'etat station-
naire » (« Steady state theory »), du a Hermann Bondi, T. Gold
et Fred Hoyle, et celle, posterieure, « de la lumiere fatiguee »,
proposee par Hannes Alfven, Jean-Claude Pecker, Jean-Pierre
Vigier et d'autres. Le premier proposait un Univers station-
naire dans lequel la densite de matiere dans 1'Univers etait
La cosmologie contemporaine : deploiement et transformations de I'Univers 213

maintenue par un flux d'energie et de matiere-antimatiere en


formation permanente qui contrebalanc.ait la dispersion (la
base theorique etait reprise de I'Univers de de Sitter). Les
resultats observationnels qui firent le succes du modele du
big bang infirmaient au contraire les predictions d'une forma-
tion continue de matiere antimatiere (et notamment 1'absence
d'antimatiere a un niveau comparable a celui de la matiere).
La theorie de la formation continue fut abandonnee dans le
courant des annees 1960.
Quant au modele theorique de la « lumiere fatiguee », il
proposait un mecanisme physique de decalage de la lumiere
vers le rouge proportionnellement a la distance, ce qui eviterait
d'avoir un mouvement d'expansion. Selon ce mecanisme, des
particules neutres de matiere d'un type non encore observe,
presentes dans 1'espace intergalactique, interagiraient avec le
rayonnement electromagnetique, lui faisant perdre son ener-
gie au long de son parcours avec pour resultat une aug-
mentation de la longueur d'onde. Cette hypothese est tres
defavorisee par 1'observation astronomique: aucune particule
de ce type n'a pu etre detectee.
Reste done la deuxieme solution, qui correspond aux
« modeles du big bang ».

La theorie (ou le modele) du big bang


La theorie dite du « big bang » constitue la version la plus
recente et 1'explication dynamique de la theorie de I'Univers
en expansion. Elle a conquis, pendant tout le dernier tiers du
siecle (tres precisement depuis 1965), la faveur des astrophy-
siciens et des cosmologues, mais son idee est plus ancienne.
Une premiere forme de la theorie fut proposee par Georges
Lemaitre, en 1931, sous le nom de theorie ou modele de I'atome
primitif. Lemaitre faisait 1'hypothese qu'en remontant le cours
du temps en sens inverse de 1'expansion, jusqu'a ses « debuts »,
nous verrions 1'energie totale de 1'Univers se concentrer dans
un volume de plus en plus petit, jusqu'a former une « boule
de feu » d'une densite d'energie extreme, figurant une sorte
« d'atome primitif » unique, de nature quantique. Get atome
originel se serait desintegre sur le mode de I'atome radioactif,
ses produits formant, par cascades successives de matiere-
energie se repandant dans 1'espace, I'Univers en expansion.
La theorie de Lemaitre importait dans la cosmologie
naissante des donnees de la physique de la matiere ele-
mentaire, mais sur un mode encore purement speculatif.
214 La physique du XXs siecle

L'idee directrice devait toutefois s'averer finalement feconde.


Reprise par Georges Gamow15, dans les annees 1947-50, en un
modele plus plausible de 1'Univers comme corps noir, qui in-
tegrait les derniers developpements de la physique nucleaire,
elle aboutirait a la theorie du « big bang ». Cette nouvelle cos-
mologie fait appel aussi bien a la theorie de relativite generale
qu'a la physique quantique, et, dans la forme du « modele
standard », a la theorie quantique des champs pour la periode
de 1'evolution temporelle de I'Univers appelee cosmologie pri-
mordiale.
Gamow et ses collaborateurs, Ralph Alpher et Robert
C. Hermann, reprirent 1'idee de Lemaitre d'un etat initial
extremement dense de la matiere-energie de I'Univers ras-
semblee dans un tres petit volume. Cette matiere etait suppo-
see constitute de protons et de neutrons d'energie cinetique
Figure 11.2. George Gamow, elevee, tres rapproches les uns des autres, et dont les colli-
inventeur de la nucleosynthese sions incessantes declenchaient des reactions nucleaires avec
primordiale. production de noyaux de plus en plus complexes (comme
cela etait deja admis a 1'epoque pour les milieux solaire et
stellaires). Us pensaient pouvoir expliquer ainsi la nucleosyn-
these des elements chimiques. Leur conjecture ne s'avera juste
que pour les noyaux tres legers, de nombre atomique infe-
rieur ou egal a 4. La nucleosynthese dans les conditions de
1'Univers primordial est empeche pour les masses atomiques
superieures : E. Fermi et A. Turkhevich montrerent en 1950
que les noyaux de nombre atomique 5 et 8 sont tres instables
et bloquent la possibilite d'autres reactions. Les autres noyaux
ne peuvent etre produits que dans les conditions de confine-
ment gravitationnel des etoiles16.
Dans la theorie de Gamow, les etats tres « chauds » et
de grande densite d'energie de I'Univers dans ses premiers
instants sont refroidis par 1'expansion. Lorsque la temperature
devient inferieure a 10 000 K environ, les noyaux atomiques
ionises (essentiellement des noyaux d'hydrogene) capturent
les electrons, jusqu'alors libres, pour former les atomes, selon
la reaction p++e~ —> H+y, qui s'accompagne d'un degagement
intense de rayonnement electromagnetique dans 1'ultraviolet.
Ce rayonnement est refroidi ensuite par 1'expansion jusqu'a
devenir un rayonnement micro-onde. A la valeur numerique
15
Georges Gamow (1904-1968), physicien nord-americain, par ailleurs auteur
d'ouvrages celebres de divulgation.
16
Cette nucleosynthese stellaire a ete demontree en 1957 par Fred Hoyle,
William A. Fowler, A.G.W. Cameron, G. et M. Burbidge. En fait, le lithium,
le beryllium et le bore sont formes par interaction du rayonnement cosmique
avec le milieu interstellaire.
La cosmologie contemporaine : deploiement et transformations de I'Univers 215

pres, cette prediction devait se voir pleinement confirmee pres


de vingt ans plus tard.
En effet, en 1965, Arno Penzias et Robert Wilson17, cher-
chant pour de tout autres raisons des signaux radio dans le
ciel, detecterent accidentellement le rayonnement radio dif-
fus, isotrope, qui fut tres vite identifie comme le rayonnement
electromagnetique fossile du fond du ciel prevu par la theo-
rie de Gamow. La longueur d'onde observee correspondait a
une temperature de corps noir de 2,7 K, plus basse que celle
calculee par la theorie (5 a 7 K)18. L'accord quasiment parfait
serait 1'affaire de raffinements ulterieurs, rendus possibles par
les developpements de la physique subatomique.
Quant a la nucleosynthese primordiale, elle se serait effec-
tuee a une temperature de I'Univers comprise entre quelques
milliards et quelques dizaines de millions de degres, dans
I'intervalle de temps situe entre 1 et 100 secondes sur 1'axe
des temps auquel on rapporte 1'expansion. La theorie du
big bang predisait Yabondance de 1'helium (de nombre ato-
mique 2, representant 25 % de la masse de la matiere visible) et
des autres elements legers primordiaux comme le deuterium
(hydrogene lourd) et le lithium 7 (de nombre atomique 3).
L'observation du rayonnement micro-onde diffus du fond
du ciel, jointe a la connaissance de 1'abondance de 1'helium
primordial et a celle du mouvement d'ensemble d'expansion
de I'Univers, declencha 1'adhesion, qui devait bientot etre pra-
tiquement generale, a la theorie du big bang, malgre 1'obscu-
rite que representait la singularite du « point origine », extra-
pole sur 1'axe du temps et sur celui figurant 1'espace, designe
metaphoriquement comme le « big bang ».

La cosmologie primordiale
et la matiere subatomique
La cosmologie telle qu'elle se presente aujourd'hui raccorde,
en les integrant 1'un a 1'autre, deux regimes distincts
de 1'evolution de I'Univers, correspondant a deux series
17
Arno Penzias (1933-) et Robert Wilson (1936-), physiciens americains de la
compagnie Bell Telephone, re^urent le prix Nobel de physique en 1978.
18
Rappelons qu'un corps noir est une cavite (four) chauffee et emettant de la
lumiere a 1'equilibre thermique (le rayonnement absorbe et le rayonnement
emis s'equilibrent). Le spectre emis (distribution en longueurs d'onde) est
alors seulement fonction de la temperature. La loi du rayonnement du corps
noir a ete la premiere manifestation de la necessite d'introduire les quanta
(voir le chapitre 3).
216 La physique du XXe siecle

d'organisations de la matiere qui se succedent, chacune


gouvernee par un type defini de theorie physique. Le pre-
mier est la cosmologie de I'Univers en expansion telle que nous
1'avons consideree d'abord, organisee autour de la theorie de
la relativite generale et de 1'etude des structures de I'Univers
a grande echelle, gouvernees par le champ de gravitation.
Le second est la cosmologie primordiale, qui constitue la theo-
rie du big bang proprement dite et qui concerne la periode de
I'Univers preparatoire a son organisation a grande echelle. Au
cours de cette periode, I'Univers est concentre en totalite dans
un volume tres restreint et se trouve dans un etat de matiere-
energie de tres haute densite. Pendant une phase initiale tres
rapide mais tres mouvementee, la matiere de I'Univers est
dans un etat de plasma de particules et de champs quantiques
comprimes a de tres hautes temperatures, soumis aux lois de
la physique de ces champs.
La cosmologie primordiale rejoint ici la physique subatomique,
ce qui est naturel puisque leurs objets respectifs correspondent
a des etats de la matiere soumis aux memes conditions phy-
siques, pour des energies et densites d'energie tres elevees
et des distances spatiales extremement petites. Cette ren-
contre constitue en soi un phenomene remarquable, tant du
point de vue epistemologique que de celui de 1'organisation
des disciplines scientifiques. Une nouvelle discipline est en
fait apparue depuis une vingtaine d'annees, a la jonction de
1'astrophysique-cosmologie et de la physique subatomique,
a laquelle on donne parfois le nom de physique « astropar-
ticule ». Elle comprend les themes deja rencontres relatifs
aux proprietes physiques des objets de I'Univers dans leur
structure subatomique, mais egalement tout ce qui concerne
la cosmologie primordiale. La relation est une interpenetra-
tion dans les deux sens : chacune des disciplines fournit des
interrogations pour 1'autre, mais aussi des informations et des
contraintes qui permettent de determiner une solution parmi
plusieurs a priori possibles.
Nous allons montrer cette imbrication, en examinant les
differentes phases que 1'on peut associer a la cosmogenese,
c'est-a-dire a I'Univers primordial en expansion, dans son
etat microscopique et quantique « precoce » ainsi que dans
1'etat suivant intermediate ou, la densite diminuant et les
distances spatiales augmentant, les interactions quantiques
cessent d'agir et les effets du champ de gravitation (« clas-
sique », relativiste mais non quantique) predominent desor-
mais. Pour se representer la succession des etats de TUnivers,
c'est-a-dire ceux de la matiere-energie qu'il contient, dans cette
La cosmologie contemporaine : deploiement et transformations de I'Univers 217

periode precoce, on peut definir une echelle du temps cosmique


par extrapolation a partir des donnees de I'Univers macrosco-
pique en expansion, en considerant le rayon d'echelle, R(t),
fonction du temps, lie a la loi de Hubble. Ce rayon donne le
volume occupe par la matiere de I'Univers a chaque instant t. II
lui correspond une densite de matiere-energie, p(t). En consi-
derant I'Univers comme un corps noir a 1'equilibre thermody-
namique, on peut associer a chaque instant une temperature
d'Univers, T(t). On obtient ainsi une echelle de correspon-
dance entre les differents parametres qui permet de concevoir
les proprietes physiques de 1'Univers a chaque instant: celles-
ci sont donnees par le regime des lois physiques qui sont
effectives pour la temperature ou la densite d'energie consi-
deree, qui correspondent aux divers etats de particules et de
champs de la physique subatomique.
Les etats successifs de I'Univers sont alors directement
donnes par les champs quantifies tels qu'ils sont structures
dans les conditions d'energie correspondant aux temps consi-
deres. Ces champs sont les champs de jauge de la physique
des hautes energies, tels que nous les avons rencontres pre-
cedemment avec leurs proprietes d'unification et de syme-
trie. Plus 1'energie est elevee, plus la symetrie est grande, et
plus le degre d'unification est fort; les brisures de symetrie
interviennent lorsque 1'energie diminue : les masses des parti-
cules dominantes a ce stade deviennent sensibles et les champs
d'interaction se differencient les uns des autres. Ainsi I'echelle
du temps cosmique rend ce scenario theorique effectif; celui-
ci s'identifie des lors aux phases successives de I'Univers
primordial, dans le « sens descendant » de la diminution de
densite d'energie, celui du cours du temps cosmique et de
1'expansion.
On peut distinguer, sur I'echelle des temps, une premiere
phase pour les temps t inferieurs a la valeur dite « temps de
Planck » (fp = 10~43 s)19 qui correspondrait a un seul champ
de jauge unifie portant toutes les interactions, en particulier
1'interaction gravitationnelle qui doit alors etre quantique. En
effet, si Ton considere le diagramme des variations avec 1'ener-
gie des constantes de couplage des quatre champs d'interac-
tion connus, elles se rejoignent et coincident pour les energies
superieures a «1'energie de Planck » de cette premiere periode
« inaugurale ». Celle-ci porte sur un domaine que les physi-
ciens ne savent pas encore traiter du point de vue theorique
puisqu'il s'agit de la quantification de la gravitation, ce qui
19
Le temps de Planck est defini comme : fp = ^J(hG/c2).
218 La physique du XXe siecle

revient a reunir la theorie de la relativite generale et la


mecanique quantique, deux theories qui reposent sur des
bases conceptuelles incompatibles (1'espace-temps continu
d'un cote, les grandeurs quantiques et leurs valeurs propres
discontinues de 1'autre).
La prise en compte de ce domaine, et de cette periode, cor-
respond a une necessite logique (par continuite) mais a une
complete indetermination physique (par ignorance, meme si
des efforts remarquables et d'une grande inventivite y sont
actuellement deployes, comme nous le verrons plus loin, a
propos de la signification du temps dans ces conditions).
Nous n'en parlerons pas davantage ici, sinon pour mention-
ner certaines directions des recherches en cours, modifiant
1'approche de la theorie quantique des champs dans un sens
qui puisse etre adapte au champ de gravitation : les theories
de cordes (les objets ne sont plus des points materiels mais
des cordes a une dimension) et de super-symetries (voir le
chapitre 7), les geometries non commutatives ou les approches
topologiques avec des espaces a plus de 4 dimensions, repliees
sur elles-memes,...
Dans une phase suivante, 1'etat de matiere-energie est
structure par le champ de Grande Unification (GU), disso-
cie du champ de gravitation quantique et dont la symetrie se
rompt a 10~35 s, en differencial le champ d'interaction forte
(chromodynamique quantique) et le champ electrofaible. La
transition de phase qui survient alors, entre 10~35 et 10~32 s,
sous 1'effet de « bosons de Higgs » specifiques, occasionne une
augmentation tres rapide (exponentielle: R(t) = e f ) du volume
de 1'Univers. Cette phase intermediate, dite « d'inflation », a
ete inseree par les physiciens et cosmologues theoriciens20 afin
d'accelerer le mouvement d'expansion d'ensemble de 1'Uni-
vers observable dans un temps tres court, pour diverses rai-
sons. Parmi ces raisons, signalons la necessite de maintenir la
possibilite d'une relation causale entre des regions plus tard
separees de 1'Univers (en rapport a 1'isotropie du rayonne-
ment diffus emis dans une phase ulterieure), et la necessite
de diluer tres vite dans 1'espace des « cordes cosmiques »,
« defauts topologiques », « mini trous noirs primordiaux »
ou autres monopoles magnetiques massifs supposes avoir ete
produits dans la phase GU21. Lorsque la phase de 1'inflation

20
La theorie de 1'inflation a ete formulee par Alan Guth, Francois Englert et
Paul Steinhardt.
21
Les cordes cosmiques sont des types particuliers de defauts topologiques :
elles sont formees de I'ensemble des points constituant une courbe fermee
La cosmologie contemporaine : deploiement et transformations de I'Univers 219

(d'une duree de 10 3 s) s'acheve, le regime normal de 1'expan-


sion spatiale reprend, de 10~32 a 10~12 s, avec la dominance
des champs de chromodynamique et electrofaible. A 10~12 s,
la symetrie electrofaible se rompt a son tour, differencial les
champs electromagnetique quantique et nucleaire faible.
Les etats de la matiere qui dominent dans I'Univers entre
10~6 et 10~4 s definissent une ere hadronique ou nucleons,
antinucleons et photons sont a 1'equilibre, et a laquelle suc-
cede, de 10"3 a 1 s, une ere leptonique, ou leptons et anti-
leptons se tiennent en equilibre avec les photons. Puis, ces der-
niers, refroidis par 1'expansion, ne peuvent plus se recombiner
en paires d'electron-positon et se decouplent de la matiere,
determinant Yere radiative. Celle-ci dure d'une seconde a trois
cents mille annees environ : la densite des photons, produits
alors avec la formation des atomes par la capture des electrons
par les noyaux (les protons et les noyaux d'helium synthetises
vers 3 minutes), devient alors tres superieure a la densite des
particules de matiere residuelle.
Entre-temps sont intervenus divers phenomenes qui ont
contribue a dormer a I'Univers sa configuration actuelle, et
tout d'abord la suppression de 1'antimatiere. On sait que I'Uni-
vers est constitue pour 1'essentiel de matiere : I'asymetrie
entre matiere et antimatiere est mesuree par le rapport du
nombre actuel de baryons ou nucleons (donne par le nombre
de baryons diminue du nombre d'antibaryons, NB — Ng)22 au
nombre de photons du rayonnement thermique isotrope; ce
nombre ( BN B ) est egal a 10~9. Ce fait, contraire a la symetrie
initiale supposee des particules et antiparticules dans 1'Uni-
vers, trouve une explication (par un mecanisme propose par
Andrei Sakharov23) avec les theories d'unification des champs

autour de laquelle les champs de Higgs sont orientes, de la meme maniere


que les lignes de force d'un champ magnetique s'orientent autour d'un cou-
rant electrique. Ce sont des regions filiformes, d'une minceur de 10~24 cm,
de grande densite d'energie, representant une sorte de felure du tissu de 1'es-
pace, produites aux tout premiers instants de I'Univers, selon les theories de
1'unification des champs d'interaction. Elles pourraient avoir ete a 1'origine
des structures filamenteuses des galaxies mais elles n'ont pas ete observees
jusqu'ici.
22
On se souvient (chapitre 7) que le nombre de baryons (protons, neutrons,
etc.) dans I'Univers est conserve (conservation de la charge baryonique).
23
Andrei Dmitrievitch Sakharov (1921-1989), physicien sovietique, membre
de 1'Academie des sciences d'URSS, auteur de travaux importants sur la fusion
nucleaire, fut 1'un des principaux artisans de la mise au point de la bombe H
sovietique. II milita ensuite pour les droits de 1'homme, rec.ut le prix Nobel de
la paix en 1975, et fut persecute par le pouvoir avant d'etre rehabilite en 1988,
sous le gouvernement de Mikhail Gorbatchev.
220 La physique du XXe siecle

d'interaction applicables a 1'Univers primordial, et par la


brisure de la symetrie PC dans certains processus (voir le cha-
pitre 7). Quant au confinement des quarks, il s'est realise au
cours de la transition qui les a synthetises en hadrons (protons,
neutrons, deuterium...).
Au cours de Yere radiative, le rayonnement, dilue dans
1'espace, ne controle plus 1'evolution de I'Univers. Celui-
ci poursuit son expansion, lentement freine par 1'attraction
mutuelle de gravitation de la matiere-energie qu'il contient
et qui represente desormais la solicitation dynamique pre-
ponderante. L'ere de la matiere est celle ou les atomes, formes
dans la nucleosynthese primordiale, vont lentement s'agreger
sous 1'effet de leur champ de gravitation pour dormer (a partir
de « germes » preformes dans les periodes precoces, comme
des potentiels energetiques) les galaxies au sein desquelles se
constitueront les etoiles. Tout ceci, sans compter les aventures
paralleles de la « matiere noire » dont on ne sait rien pour 1'ins-
tant, sinon qu'elle doit bien etre presente quelque part pour
augmenter dans la proportion requise (de 90 %) la densite
globale de 1'Univers (voir le debut du chapitre).
Ce qui precede sur la cosmologie primordiale laisse voir
que 1'Univers, dans les premieres phases de son evolution tem-
porelle, constitue le laboratoire ideal de physique nucleaire et
des particules elementaires pour 1'etude des etats extremes de
la matiere, qui nous eclairent sur la nature profonde de celle-
ci. Laboratoire ideal et privilegie (d'acces evidemment indi-
rect) par son champ unique (au sens litteral) d'observations
(reconstitutes par coherence theorique) et dont les conditions
physiques ne seront pas renouvelees.
Si la cosmologie dans son ensemble est devenue une
science au sens plein du terme, on voit bien, par ce caractere
et par d'autres, que c'est au prix d'innovations considerables,
quant a son objet et a ses methodes, par rapport aux canons
habituels de la physique. Elle suscite par-la un elargissement
remarquable de la rationalite scientifique, ce qui ne va pas
toujours sans quelques risques si 1'inventivite et 1'imagination
theorique ne s'accompagnent pas d'une lucidite epistemolo-
gique de meme niveau.
II est vraisemblable de penser que 1'Univers, tel que 1'impli-
quent la theorie de la relativite generale et les cosmologies rela-
tiviste et quantique, ainsi que les observations astronomiques
et astrophysiques, deploie lui-meme son espace et son temps,
qui ne sont pas definis en dehors de lui. La recession des ga-
laxies, qui revele 1'expansion de 1'Univers, ne doit pas etre
comprise comme un mouvement resultant d'une dynamique
La cosmologie contemporaine : deploiement et transformations de I'Univers 221

de forces qui leur seraient appliquees, mais seulement comme


1'effet de la dilatation de 1'espace constitutive de la structure
de celui-ci pour les temps consideres. Quant au temps, nous
lui consacrons quelques remarques pour terminer.

Remarques sur la signification du temps


physique et cosmologique
Aux debuts de la physique classique, la definition du temps
etait associee a des phenomenes astronomiques comme
1'annee, le jour, 1'heure, qui assuraient la signification natu-
relle ou physique du temps comme concept et grandeur. A
une epoque ou les horloges etaient encore tres imprecises, la
signification, du point de vue physique, des divisions plus
fines du temps n'etait pas evidente. Descartes evoquant, au
XVIP siecle, la division du temps en dessous de 1'unite de jour
ou d'heure, la jugeait de pure convention et estimait qu'elle
tient uniquement a ce que nous considerons le temps comme
une grandeur continue, c'est-a-dire indefiniment divisible.
Depuis, il a ete possible d'associer des durees temporelles
plus courtes a des phenomenes physiques, et de garder ainsi
au temps une signification physique pour de tres breves frac-
tions de seconde.
C'est ainsi que la definition relativement recente du temps
par les horloges atomiques a ete rendue possible par 1'evi-
dence de la realite physique d'intervalles de temps aussi
petits que 1'ordre de 10~10 s. Ce temps correspond a la
periode de vibration, pour la structure hyperfine, de 1'atome
de cesium-133 (133Cs), excite dans 1'intervalle de frequence
Av = 9192631 x 770,00 Hz (environ 9,2 x 109 Hz). On peut
aller beaucoup plus loin encore dans le caractere physique
de tres petits intervalles de temps avec la physique, non plus
atomique mais subatomique. Celle-ci considere, experimen-
talement et theoriquement, des periodes ou durees de vie
« d'objets » quantiques bien moindres encore, et ces periodes
continuent de garder une signification physique claire. Pour
les particules considerees comme relativement stables (se des-
integrant par voie d'interaction faible ou electromagnetique),
ces durees physiques vont jusqu'a 10~18 s, et pour les par-
ticules metastables (ou resonances, se desintegrant par voie
d'interaction nucleaire forte) jusqu'a 1'ordre de 10~23 s, voire
encore en dessous.
On voit comment le concept de temps, defini par de telles
« horloges naturelles », ou rapporte a elles, est construit par
222 La physique du XXe siecle

nous en reference aux phenomenes du monde physique. En


d'autres termes, le contenu physique du temps est soumis
aux proprietes des phenomenes : il existe entre le temps et
les phenomenes associes une relation de reciprocite24. Get etat
de choses s'inscrit contre la conception d'un temps absolu
et rejoint les considerations sur le temps de la theorie de la
relativite (restreinte et generate) et de la thermodynamique. La
cosmologie le confirme et offre, en outre, la possibilite de pro-
longer 1'echelle des temps physiques vers des valeurs encore
plus petites.
La cosmologie primordiale et les theories quantiques de
jauge actuelles en physique subatomique de tres haute ener-
gie, selon la conception generalement admise du « modele
standard » de ces deux theories associees, donnent une
signification physique a des temps ou durees temporelles bien
inferieurs encore. Dans la phase de 1'evolution de 1'Univers
ou la matiere se trouve dans des etats qui relevent de la phy-
sique des particules elementaires et des champs quantifies, les
echelles de temps sont directement structurees par les lois qui
gouvernent les champs d'interaction en jeu. La signification
physique de ces temps cosmologiques leur est donnee par le
regime du comportement des champs et des particules ainsi
que par 1'etat de 1'Univers correspondant a cette periode25. On
peut done considerer que le temps, comme concept et gran-
deur physique, garde un sens jusqu'a la valeur du « temps
de Planck » (TP = 10~43 s). Le concept de temps scande les
differentes phases de revolution de 1'etat physique de 1'Uni-
vers, et 1'echelle spatiale de ce dernier, R(t), associe au temps
la loi du champ (ou des champs) dominant(s) et 1'etat des
arrangements de matiere correspondants.
Pour cette raison, qui associe aux temps primordiaux un
etat assignable de la matiere, le concept de temps n'a plus, en
1'etat actuel de notre connaissance, de signification physique
en-dec.a de la valeur du temps de Planck (pour TP < 10~43 s).
On peut alors reprendre 1'argument de Descartes sur la defi-
nition du temps en-dec.a de 1'heure et continuer a parler de
temps dans la region asymptotiquement petite, en-dega du
temps de Planck, a condition de considerer que la division du
temps n'est que de convention, si nous persistons a en faire

24
Voir Michel Paty, Sur 1'histoire du probleme du temps : le temps phy-
sique et les phenomenes, edite par Etienne Klein et Michel Spiro, Le temps
et safleche (Editions Frontieres, Gif-sur-Yvette, 1994); Collection « Champs »
(Flammarion, Paris, 1996), pp. 21-58.
25
Voir 1'encadre 12.6.
La cosmologie contemporaine : deploiement et transformations de I'Univers 223

une grandeur continue. II se peut cependant que les theories


futures qui lieront entre elles d'une maniere fondamentale le
champ de gravitation et les champs quantifies en decident tout
autrement. II ne semble pas, en particulier, que Ton puisse
parler d'un « temps zero » de I'Univers en gardant un sens
physique au concept de temps26.

26
Cette question est reprise au chapitre 12, a propos de la question d'une
« origine de 1'Univers ».
Cette page est laissée intentionnellement en blanc.
Chapitre 12

Remarques
sur les recherches
des origines

Si I'humanite, dans la diversite de ses cultures, s'est toujours


montree preoccupee de ses origines et de celles du cosmos qui
1'entoure, c'est generalement aux mythes qu'elle en confiait
le recit, rapporte au poetique et au surnaturel. Le probleme
des origines n'est devenu que progressivement un objet de
connaissance scientifique, et encore sous des formes tres
differentes selon qu'il s'agit des origines de l'homme (pro-
bleme appartenant a la paleontologie humaine), de celles de la
vie (dont la jeune science a rec.u pour nom Yexobiologie), de
celles de la Terre (cette planete pour nous tres particuliere,
mais peut-etre banale a 1'echelle du cosmos), ou de celles de
1'Univers (preoccupation recente pour la science, depuis la
cosmologie de 1'Univers en expansion).

Evolutions, origines de 1'homme,


frontieres
La question des origines est a 1'ordre du jour dans les disci-
plines les plus differentes a partir du moment ou ces dernieres
ont pleinement admis que leurs objets se situent dans une evo-
lution temporelle, ay ant abandonne toute conception fixiste.
Les choses et les etres de 1'Univers n'ont pas toujours ete tels
que nous les voyons aujourd'hui, ils se sont, dans tous les
domaines, transformes sur la nappe du temps deploye : c'est
ce dont nous assurent, pour les formes animales et humaines,
la paleontologie et 1'anthropologie, d'une maniere generate
pour les formes vivantes, la biologic evolutionniste, et pour
les corps inanimes terrestres ou cosmiques, la chimie, la phy-
sique, 1'astrophysique et la cosmologie.
226 La physique du XXe siecle

La question des origines de la vie et peut-etre celle des


origines de 1'homme sont des questions frontieres; non plus a
la frontiere de la science, puisqu'elles en font desormais par-
tie integrante, mais aux frontieres qualitatives des formes de
la matiere : de la matiere inanimee a la matiere vivante (aux
confins de la physico-chimie et de la biologic) et de la matiere
vivante a la matiere pensante (entre la biologie et les neuros-
ciences et « sciences de 1'esprit », mais ayant a voir aussi avec
1'anthropologie et les sciences humaines). Admettre que la
question des origines dans ces domaines releve de 1'approche
scientifique, c'est admettre la possibilite de passages « natu-
rels » entre les objets de disciplines qui avaient ete separees par
une tradition de pensee dans laquelle s'enracine la science qui
pose aujourd'hui ces questions. C'est reconnaitre, sous les rup-
tures qualitatives, une continuite fondamentale et une unite
de nature de la matiere constituante de ces differents etats
d'organisation. En proposant des reponses a ces questions, la
science suscite en meme temps de nouvelles questions phi-
losophiques, qui portent en premier lieu sur les categories
de pensee qui sous-tendent ses enonces. D'abord epistemo-
logiques et philosophiques, ces questions interessent en fin
de compte aussi la metaphysique. Le fil qui lie les objets de
science s'accompagne, parce qu'il est lui-meme objet de pen-
see, d'un autre enchainement fondamental des dimensions de
cette pensee dans leur diversite.
En parlant des origines, il nous faudra deborder 1'ob-
jet auquel nous nous etions jusqu'ici limites dans cet ou-
vrage (celui de la physique), puisque la complexification des
formes materielles atomiques et moleculaires, relevant de la
chimie organique, est capable, dans certaines conditions que
1'on cherche a connaitre, d'aboutir a des organismes vivants.
Desormais la question se pose et ne peut etre eludee: comment
s'effectue le passage, dans la structure et 1'agencement des
formes, mais aussi dans leur genese, de 1'organique au vivant ?
Nous deborderons notre objet encore d'un cran (d'ailleurs des
le debut de cette evocation de la recherche des origines) en
nous posant en premier la question, avant les autres, de 1'ori-
gine de la pensee. Car la question des origines implique aussi
les origines de la pensee, dans la mesure ou cette derniere
aboutit, avec la pensee humaine, au retournement sur elle-
meme de la « matiere » vivante, pensante et consciente, pour
se comprendre et s'efforcer de voir d'ou elle vient.
Certes, dans le deroulement ou le deploiement de 1'evolu-
tion de 1'Univers et des formes de la matiere, 1'apparition ou
Remarques sur les recherches des origines 227

1'emergence de la pensee ne vient qu'en bout de chaine, du


moins pour notre regard interesse et, en cette matiere, tou-
jours anthropocentrique, meme si Ton convient qu'il existe
d'autres formes de pensee que 1'humaine, et que les animaux
aussi en sont pourvus a quelque degre. Sans doute 1'histoire
de la pensee, quand on la cernera mieux dans le futur par
la paleontologie et par la biologic animale comparee, nous
revelera-t-elle des series de sauts de differences qualitatives
sur un fond de transformations plus ou moins continues des
formes materielles. II reste que la pensee humaine est, sans
forfanterie, ce que nous connaissons actuellement de plus ela-
bore dans cet ordre quant a ses effets (et sans doute quant a
I'organisation du systeme nerveux central). Nulle autre espece
animale n'est en effet parvenue, par ses capacites cognitives
et techniques, a transformer d'une telle fagon le monde ou
elle vit (au risque de le detruire), ni a operer ce retourne-
ment reflexif qui est capable de mettre le monde exterieur et
soi-meme a distance, pour s'interroger sur eux, en vouloir la
raison (comme si elle s'en voulait le createur, ou du moins se
hisser a 1'egal d'un createur), et en remonter le chemin des
origines. Peut-etre, en fin de compte, pour en dire le sens ? Un
but probablement hors de portee de cet imperceptible (bien
que remuant) element de 1'Univers qu'est l'homme, mais qui
constitue cependant en soi, seulement pour avoir ete pose, un
phenomene cosmique fort troublant.
C'est un fait, a prendre comme un donne de la nature,
que le cosmos a engendre dans son sein (et que ce soit par
1'effet de series quasiment infinies de hasards n'y change rien)
cette creature tendue vers la formulation d'un sens, quant
a sa propre place dans cet univers, voire quant a 1'Univers
lui-meme. Propos demesure, sans doute, mais propos quand
meme, lance comme un cri, voue a se perdre dans cette infi-
nite des espaces et du temps et a s'eteindre, ou comme « un
eclair dans la nuit de 1'Univers », selon le mot de Poincare
qui remonte en fait a Diderot. « Mais », ajoutaient-ils, « c'est
un eclair qui est tout ». Du moins ce passage, ce propos, cette
ambition folle auront-ils laisse quelques traces, localisables,
mais reconnaissables : les outils, les restes funeraires, les pa-
rures et les objets d'art, les monuments, les vestiges des ceuvres
de la pensee, qui incluent les savoirs (et les questions). Le
tableau des connaissances en physique qu'avaient les humains
au XXe siecle appartiendra aussi a ces traces, et c'est pourquoi,
en parlant des origines, il n'est pas sans interet de commencer
par celles de 1'espece etonnante qui a invente, avec 1'idee de
sens, celle de connaissance, et formule les notions generales,
228 La physique du XXe siecle

sans lesquelles rien ne pourrait etre dit, de matiere, de vie,


d'Univers...
Que ces questions d'origine soient devenues objet de
science n'est pas indifferent a la nature de la science et a son
rapport a la situation de rhomme dans la nature. En objec-
tivant cette derniere, rhomme concevait a la fois sa distance
par rapport a elle, prise par la connaissance qu'il s'en don-
nait, et son insertion dans ce monde, comme un element de la
nature. Le XXe siecle devait achever le mouvement de decen-
tration qui avait inaugure la science des temps modernes, de
Copernic a Kepler et Galilee : non seulement 1'homme et son
habitat n'etaient plus le centre de 1'Univers, mais rien de cet
Univers ne restait fixe et donne une fois pour toutes : ni les
formes vivantes, ni la Terre, ni le Cosmos. Tout etait mouve-
ments et transformations.
La pensee humaine, qui de nos jours en prend conscience
a un degre inegale, n'en finit pas d'opposer a cette precarite
inexorable de sa situation naturelle les significations partielles
obtenues par ses questions et dont il se pourrait, d'une certaine
fagon, qu'elles la transcendent. Ou, en d'autres termes, tout en
etant passees dans la science, ces questions gardent quelque
chose de leur attache metaphysique, ou elles se retrouvent
d'ailleurs peut-etre avec le pourquoi de la science elle-meme.
Nous commencerons done par une rapide evocation des
progres accomplis au cours du siecle sur la connaissance des
origines de rhomme, objet d'une science bien eloignee de la
physique, la paleoanthropologie, ne serait-ce que pour souli-
gner le lien que cette question entretient, au fond des choses,
avec celles posees par les sciences de 1'esprit et de la cogni-
tion sur le raccord de la matiere a la pensee. II est toujours
aussi fascinant de considerer qu'une continuite ontologique
fondamentale va de la matiere elementaire a rhomme, et que
ce qu'on appelle Yceuvre du temps aura reussi, sur une longue
duree, a fac.onner par le jeu des lois de la nature, a partir des
noyaux d'atomes fabriques dans les fourneaux de plusieurs
generations d'etoiles, sur un astre convenablement tempere,
d'abord les elements moleculaires complexes puis les orga-
nismes vivants et les etres pensants.
Nous nous arreterons ensuite aux approches qui ont tente
de diverses manieres de comprendre comment les formes vi-
vantes sont apparues a partir de la matiere inanimee. Nous
reprendrons enfin quelques aspects de la cosmologie pour
voir en quoi il est possible de dire qu'elle pose, elle aussi, un
probleme des origines, et nous verrons que ce ne peut etre que
dans un sens bien different des deux precedents.
Remarques sur les recherches des origines 229

La nature physique et les origines


de I'homme
Les sciences naturelles de I'homme comprennent 1'anthropo-
logie, 1'ethnologie, la prehistoire, et la paleontologie humaine
ou paleoanthropologie. L'interpenetration de ces disciplines
et 1'utilisation de techniques fournies par les sciences exactes
comme la physique et la chimie, ont permis a la paleontologie
humaine, nee au XIXe siecle1, de progresser considerablement
au long du XXe siecle vers une meilleure connaissance des de-
buts de 1'espece humaine. D'une maniere generale, la paleon-
tologie s'interesse a 1'etude morphologique des restes fossiles
et s'efforce d'interpreter ces donnees en fonction du contexte
ecologique, en vue de comprendre les caracteristiques propres
des etres qui vivaient a ces periodes reculees. Pour les hu-
mains, elle s'interesse a leurs modes de vie, leurs coutumes,
leurs ressources, leur vie sociale, voire leur pensee et leur Ian-
gage. La paleontologie animale et la palynologie, etude des pollens
fossiles, fournissent des informations indispensables sur le cli-
mat et I'environnement. Le perfectionnement des methodes de
fouilles, celui des techniques de datation (voir 1'encadre 12.1),
en particulier par les progres de la geologic et de la stratigra-
phie, et la mise au jour en differents endroits de nombreux
restes humains fossiles, ont fait reculer sensiblement 1'estima-
tion du passe de I'homme et precise sa filiation dans la famille
des primates, ainsi que, en remontant plus haut, dans la serie
des especes animales.
La paleontologie humaine beneficie egalement desor-
mais des apports de la biologic moleculaire sur la phyloge-
nese humaine, en particulier par 1'ADN mitochondrial (voir
1'encadre 12.2). L'etude des variations de 1'ADN mitochondrial
et de sa transmission fournit des informations sur la diver-
site genetique et sur les flux geniques entre des populations
humaines (notamment modernes) au cours de leur histoire
evolutive. Si 1'on peut obtenir en definitive des definitions
plus precises des diverses especes, des differences persistent
sur les classifications et sur les filiations, suivant les auteurs
et les ecoles. A ces determinations physiques s'ajoutent celles
provenant des outils utilises et fabriques par les hommes pre-
historiques. Elles comprennent les reconstitutions des tech-
niques et des gestes de 1'industrie lithique, la complexification
1
Pratiquement tous les termes lies a la prehistoire sont entres dans la langue
frangaise (et dans les autres) au XIXe siecle, et surtout dans la seconde moitie
du siecle (voir le Dictionnaire Robert de la langue fran$aise).
230 La physique du XXe siecle

Encadre 12.1. Les methodes de datation en paleontologie


Les methodes de base des datations en paleontologie sont celles de la geologie, a savoir: la stratigraphie,
qui repose sur le principe de la plus grande anciennete, dans une superposition de couches de terrain,
des couches inf«*rieures; et les marqueurs chronologiques, qui sont constitutes par des fossiles animaux ou
vegetaux, caracteristiques d'une epoque g£ologique donnee, en considerant les modes de sedimenta-
tion. Les datations sont aussi bien relatives, par la mise en evidence de eontemporaneites, qu'absolues,
par 1'utilisation des substances radioactives, telles que Furanium ou les autres substances indiqu£es
precedemment (voir Fencadre 10.1), ou par thermoluminescence. La thermoluminescence est la stimula-
tion, par elevation de temperature, d'une luminescence prealabie caractMstique de la structure de la
substance lors de sa formation.
Le radiocarbone (carbone-14), dont la methode fut mise au point en 1949 pour la matiere orga-
nique, permet de dater avec precision jusqu'a —40 000 ans. On ameliore desormais ces determinations
en detectant le carbone-14 par mesure de sa masse grace aux accelerateurs nucleaires « Tandems » qui
ne de"truisent qu'une infime partie de 1'^chantillon. Pour les periodes tres anciennes, on utilise d'autres
substances radioactives contenues dans les roches eruptives ou sedimentaires. Pour les datations geo-
logiques fines, les foraminiferes constituent des marqueurs stratigraphiques particulierement precieux.
Ds se sont, en effet, repartis, depuis leurs 530 millions d'annees d'existence, en 50 000 especes, chacune
caracterisee par une duree de vie breve a 1'echelle des temps geologiques, qui permet de dater avec
precision la « tranche de temps » de la couche sedimentaire ou ils se trouvent. Ces coquillages micro-
scopiques, de fossilisation facile, furent decrits pour la premiere fois par le naturaliste franc,ais Alcide
d'Orbigny (1802-1857), connu par ailleurs par ses explorations en Amerique du Sud (rapportes dans
ses Voyages en Amerique meridionals, en plusieurs volumes), et titulaire, en 1853, de la premiere chaire de
Paleontologie du Museum d'histoire naturelle.
En ce qui concerne rhomme prehistorique, aux marqueurs chronologiques naturels s'ajoutent les
marqueurs culturels que sont les outils, surtout les outils lithiques (pierres taillees), tres abondants, 1'art,
les formes d'habitat, etc.

Encadre 12.2. Derive genetique et ADN mitochondrial


Derive genetique. Les distances genetiques donnent des informations assez grossieres sur ies relations de
parente entre les populations. La derive genetique (decrite des 1930) est un phenomene lie a la frequence
des fluctuations aleatoires d'un gene. Soit t le nombre de generations, N la population de la generation
suivante, la derive genetique entre deux populations issues d'une meme population ancestrale depend
du rapport t/2N.
ADN mitochondrial. L'ADN (acide desoxyribonucl^ique), support moleculaire de I'information gene-
tique, est situe principalement dans le noyau cellulaire: c'est YADN nudeaire. Une tres petite proportion
est toutefois situ£e en dehors du noyau, dans les mitochondries, qui sont de petits organismes cellulaires
jouant un role dans la synthese des molecules : c'est I'ADN mitochondrial. L'ADN mitochondrial peut
etre plus facilement I$ol6 et analyse, car la sequence de bases dont il est forme est assez courte. Comme
il se transmet uniquement par la mere et est davantage sujet aux mutations, il constitue un moyen
sensible pour analyser la diversite interspecifique, en particulier dans le cas d'Homo sapiens.
Remarques sur les recherches des origines 231

de la taille des pierres avec le rapport de 1'outil au cerveau


et, d'une maniere generate, les elements qui caracterisent
chaque culture, de plus en plus elaborees en se rapprochant
de 1'homme moderne et des temps presents2.
Toutes ces techniques et ces disciplines conjuguees ont
concouru a mieux nous faire connaitre la serie des formes
apparentees a l'homme et a nous faire voir par quelles evolu-
tions probables, marquees de discontinues, elles conduisent
ou non a l'homme moderne. Pour 1'homme comme pour les
diverses especes animales, 1'etude de 1'evolution des especes
et 1'anatomie comparee ont montre, sous les rapports d'identite
a travers les especes (par les concepts de type et d'homologie)
et sous les rapports de differences, dans le temps geologique et
dans 1'espace geographique,«la dimension temporelle comme
caracteristique essentielle du monde vivant »3.
Les etudes de paleontologie, alors surtout developpees en
Europe, avaient fait prendre conscience des le XIXe siecle que
l'homme s'enracine dans la profondeur du temps: on connais-
sait l'homme de Cro-Magnon, I'Homo sapiens sapiens du mag-
dalenien, et 1'homme de Neandertal beaucoup plus ancien et
primitif par sa morphologie et par sa culture, tres rudimen-
taire. Le debut du XXe siecle revela la bien plus grande an-
tiquite de 1'homme, avec la decouverte, d'abord par Louis
S.B. Leakey4, de restes d'hommes fossiles en Afrique orien-
tale, et de nombreux autres dans les differents continents5.
2
Voir notamment les ouvrages d'Andre Leroi-Gourhan (cf. la bibliographie).
Andre Leroi-Gourhan (1911-1986), ethnologue et prehistorien francais fut pro-
fesseur au College de France et membre de 1'Institut.
3
Bernard Balan, L'ordre et le temps, 1979.
4
Louis Seymour B. Leakey (1903-1972), ne au Kenya, fit ses etudes d'ar-
cheologie et d'anthropologie en Angleterre et soutint une these sur la pre-
histoire africaine. II fut membre de 1'expedition au Tanganyika en 1923-26,
avant d'organiser lui-meme ses propres missions de recherche, et effectua
de nombreuses decouvertes importantes. II decouvrit et prospecta le site de
1'acheulien dans la vallee du Rift de I'Est africain et trouva au Kenya le crane
du plus ancien singe connu, le proconsul africain. II etudia avec sa famille,
a partir de 1959, le site de 1'Olduvai. Sa femme Mary recueillit le premier
crane d'australopitheque, son fils Robert tomba, en 1960, sur des restes d'Homo
habilis, et lui-meme decouvrit la meme annee un crane auquel il donna le nom
d'Homo erectus.
5
L'arrivee de l'homme en Amerique fut plus tardive: on y a retrouve seule-
ment, des les premieres decennies du XIXe siecle, des restes fossiles d'homme
moderne, avec rhomme de Lagoa Santa au Bresil, decouvert et identifie par le
geologue et paleontologue danois etabli au Bresil, Peter Lund (1805-1880). II
remonte a 12 000 ans environ. Le peuplement de 1'Amerique s'est fait d'Asie
en Amerique du Nord par le detroit de Behring, a des periodes ou ce der-
nier etait recouvert de glaces (vers -20000 et -12000 ans), puis du nord du
continent jusqu'a 1'extreme sud de la Patagonie.
232 La physique du XXe siecle

La decouverte, en 1934, au Kenya, en Afrique australe, de


Yaustralopitheque, renvoya les premiers hominides a 1 million
d'annees (Ma), selon 1'estimation d'alors; en realite, on ren-
contre ces hominides bipedes de petite taille, vivant eh savane,
fabriquant des outils de pierre et d'os, de -6,5 Ma a -1 Ma,
aussi bien en Afrique du Sud qu'en Ethiopie. Le plus connu
des australopitheques est « Lucy », chere au paleontologue
Yves Coppens, une jeune de sexe feminin et de petite taille,
dont on a pu identifier, en 1974, dans un gisement de I'Omo en
Ethiopie, le squelette presque complet (voir les encadres 12.3
et 12.4).
Le genre Homo proprement dit se manifeste, sous les traits
d'Homo habilis, dote d'une capacite cranienne plus elevee et de
la station verticale, en Afrique equatoriale de 1'Est entre -4 et
-1,5 millions d'annees d'apres les estimations actuelles. Les
restes de cet homme socialise furent trouves dans le gisement
de Hadar dans 1'Afar ethiopien, en Afrique orientale. Les pre-
Figure 12.1. Lucy.
mieres representations de I'Homo habilis furent datees initia-
Reconstitution du crane et du
bassin, en pression, de Lucy.
lement de -2 Ma, mais des decouvertes ulterieures rejeterent
cette origine a -3,5 Ma. On decele, au long de ces deux millions
d'annees de presence, des evolutions morphologiques et le
passage d'un regime vegetarien a un regime omnivore, et
1'on trouve, vers -1,6 Ma, des restes de structures d'habita-
tions. Selon Yves Coppens6, son apparition serait correlative
des modifications climatiques autour de la vallee du Rift afri-
cain (assechement de la depression de 1'Afar), resultant d'un
regain d'activite geologique, determinant a Test une region de
savane basse au lieu des forets denses, qui aurait favorise la
marche bipede et 1'adaptation a une alimentation diversified
(cette hypothese devra sans doute etre modifiee, au vu des
decouvertes plus recentes).
Homo habilis est suivi d'Homo erectus : apparu dans la
meme region vers -1,7 Ma, il se repand de 1'Afrique a 1'Asie
et a 1'Indonesie. Les plus anciens exemplaires (Homo erectus
archai'ques) ont ete trouves dans le bassin du lac Turkana au
Kenya, et d'autres 1'ont ete dans 1'Olduvai, en Tanzanie, pour
la periode -1,7 a -1 Ma, au pleistocene inferieur. On le repere
entre 1,7 et 0,5 Ma en Indonesie, ou il est parvenu a la faveur
de jonctions de terres emergees, sous le nom d'Homme de Java,
qui avait ete decouvert, en fait, des 1890. Puis on le retrouve
en Chine, avec le sinanthrope ou homme de Pekin, decouvert
6
Yves Coppens, Le singe, I'Afrique et I'homme, Fayard, Paris, 1983. Yves
Coppens (1934-), professeur au College de France, decouvrit et etudia de
nombreux restes d'australopitheques et d'humains fossiles en Afrique orien-
tale : il baptisa Lucy par reference a une chanson des Beattles.
Remarques sur les recherches des origines 233

Encadre 12.3. Tableau des ages geologiques

fere Periode Temps en millions Caracteristiques


d'annees (Ma) (les temps indiques son! en Ma)
Quaternaire Pleistocene Voir encadr£ 12.4.
Tertiaire Pliocene 1,8-5,3 3,5: apparition de 1'espece Homo. Homo habi-
ou C6nozoique lis (Afrique £quatoriale de Test: depression
de i'Afar)
1-6,5 : austmlopitheque (Afrique du Sud,
Ethiopie)
Miocene 5,3-23,8 8-12 : mmapitheque (ancetre des hominides,
utilisation d'outils) (Europe, Afrique, Asie)
15: marche bipede de I'Oreopitheqw
Oligocene 23,8-33,7 14-22 : singe proconsul (Afrique equatoriale
orientale, puis Eurasie)
6ocene 33,7-54,8
35 : aegyptopithecus (petit singe hominoide)
Paleocene 54,8-65 40 : premiers Simiens (Afrique, Amerique
du Sud)
Secondaire Cretace 65-144 65 : extinction des dinosaures
ou
Mezozoi'que 100 : premiers mammiferes placentaires
Jurassique 144-206
Trias 206-248 225 : premiers mammiferes
Primaire Permien 248-290
ou
Paleozoi'que Carbonifere 290-354
Devonien 354-417 354 : premiers reptiles
Silurien 417-443 435 : premieres plantes terrestres
Ordovicien 443-490
Cambrien 490-540
Precambrien 540-4500 1500 : premiers eucaryotes (cellules3 a
noyaux)
3 500 : premieres bact&ries
4500 4500 : formation de la Terre et du systeme
solaire

a Choukoutien (Zhoukoudian) dans les annees 1920 (entre


1921 et 1929). Pierre Teilhard de Chardin, I'un de ses decou-
vreurs, s'inspira de fa^on evidente de la signification des restes
fossiles du sinanthrope pour son livre Le phenomene humain7.

7
Pierre Teilhard de Chardin (1881-1955), pere jesuite, geologue et paleonto-
logue fran^ais, fit ses premieres recherches de paleontologie sous la direction
de Marcellin Boulle (1861-1942), professeur au Museum d'Histoire naturelle
de Paris et specialiste de Thomme de Neandertal. Boulle avait ete I'un des pre-
miers paleontologues, a la suite d'Albert Jean Gaudry (1827-1908), lui-meme
professeur au Museum et correspondant de Darwin, a adopter la theorie
234 La physique du XXe siecle

Encadre 12,4 Tableau de la phylogenese du groupe humain


Temps en Cultures (p£riodes Groupes Regions Caracteristiques
milliers paleontologiques)
d'annees
avant
rtotre ere
0-0,8 Age du fer
0,8-2 Age du bronze
2-5 Neolitfiique megalithes (Stonehenge,
Carnac), villes, ^criture
7-11 Mesolithique Oceanie
11-18 Magdalenien art parietal : Lascaux (Fr),
Altamira (Esp)
18-20 Grav£tien, Homo sapiens sapiens Amerique
Solutreen (homme moderne)
22-33 Cro-Magnon
Aurignacien,
Perigordien
33 grotte Cosner (Fr)
Hndu
40 Paleolithique Europe, Asie
moyen
Of)
ow
im Afrique du Nord
Paleolithique Moyen-Orient rites funeraires
140 moyen Afrique

100 Homo sapiens neandertalensis Europe


Mousterien (Homme de Neandertal)
et Homo sapiens Afrique
500 Paleolithique archaique (apparition)
150 Afrique du Nord feu
Acheuleen
500 Homo erectus Chine (Asie) Sinanthrope
1000 Abbevillien homme de Java,
Indonesie habitations
Homo erectus archaique
1700 (Pleistocene Afrique subsaharienne
moyen) de 1'Est
1600
2000 Homo habitis Afrique equatoriale utilisation d'outils
3500 de 1'Est
1500 PaMolithique (depression de outils sur galets
2600 ancien Australopithecus 1'Afar)
4500 (Pteistocene Pithecanthropus Kenya (Afrique Lucy
ancien) equatoriale de 1'Est) *
Remarques sur les recherches des origines 235

Teilhard s'attacha, par-dela ses travaux de paleontologue, a


developper la construction d'une meta-theorie generate de
1'evolution. Elle situait la « place de 1'homme dans la nature »
comme la derniere etape presente d'un processus universel de
cosmogenese, de biogenese, et de noogenese8, etapes decisives de
1'evolution universelle de la matiere, orientee vers une spiri-
tualisation progressive de cette derniere a travers un accrois-
sement de la « complexite-conscience »9.
Les etudes sur le sinanthrope durent s'interrompre en rai-
son de la guerre et de 1'occupation de la Chine par le Japon.
Elles furent reprises par la suite, et de nouvelles decouvertes,
faites dans les annees 60 sur le champ de fouille reinvesti de
Choukoutien, indiquent qu'il connaissait 1'usage du feu, sans
parler d'eventuels « vestiges metaphysiques ». Sa presence est
attestee de -500 000 a -130 000 ans. En 1954, des exemplaires
d'Homo erectus ont ete identifies en Afrique du Nord, les plus
recents datant du pleistocene moyen. Mais il n'en existe pas
de traces tangibles en Europe. Au cours du million et demi
d'annees (1,5 Ma) de sa presence, 1'espece a connu diverses
transformations morphologiques graduelles correspondant a
une evolution rapide, comme la reduction des dents poste-
rieures et 1'augmentation du cerveau, avec un volume endo-
cranien autour de 1000 ml.
Parallelement aux Homo erectus recents, 1'homme de
Neandertal (dont les premiers restes fossiles avaient ete

de 1'evolution. Teilhard fit de nombreuses fouilles en divers endroits de la


planete, en Chine, en Afrique et en Amerique, de 1923 jusqu'a sa mort en
1955. Mais c'est surtout la Chine qui le marqua. II fut 1'un des membres de
la celebre « Croisiere jaune » et participa a la decouverte des restes du sinan-
thrope, qu'il etudia, ainsi que d'autres hornmes fossiles, esperant retrouver
les etapes du developpement de l'homme parmi les especes vivantes. Ces
travaux lui valurent de se voir proposer la chaire de Paleontologie du College
de France, a laquelle il fut oblige de renoncer par ses superieurs religieux.
C'est en exil, interdit de publier et d'enseigner, qu'il mourut a New York.
8
« Noogenese » : genese de 1'esprit, ou de la pensee.
9
Pierre Teilhard de Chardin vecut intimement et douloureusement le conflit
entre son etat de religieux et la vocation scientifique a une periode oil 1'Eglise
catholique s'opposait, au nom de la Revelation et du dogme, a certaines theo-
ries scientifiques comme la theorie darwinienne de 1'evolution de 1'homme
parmi celle des especes animales. II surmonta ce conflit en elaborant une
sorte de synthese entre la science et la religion, entre 1'evolution des especes
et la transcendance chretienne, autour d'une conception dynamique et spiri-
tuelle de la matiere. L'hominisation etait, selon ses vues, un moment decisif
de la spiritualisation de la matiere, vers sa divinisation christique. II encou-
rut 1'interdiction de publier de son vivant ses ecrits, qui circulaient cepen-
dant sous le manteau, et qui eurent de fait une importance considerable
pour Yaggiornamento de 1'Eglise catholique (au Concile Vatican II, dans les
annees 60) en ce qui concerne la theorie de 1'evolution et la science moderne.
236 La physique du XXe siecle

Figure 12.2. Organisation


cellulaire et ADN
mitochondrial. Dans les cellules
eucaryotes (cellules a noyau),
1'acide desoxyribonucleique
(ADN) est present
simultanement dans le noyau et
les mitochondries. Les
mitochondries sont de petites
structures (organites) qui
fournissent 1'energie necessaire
au fonctionnement de la cellule.
La molecule d'ADN se presente
comme une double helice
formee par 1'appariement de
deux brins complementaires de
nucleotides.

decouverts en 1856, dans la vallee du Neander, en Allemagne),


fait son apparition en Europe vers -450000 ans et se
repand jusqu'au Proche-Orient et en Asie centrale. L'homme
de Tautavel, decouvert dans les Pyrenees orientales (dans le
Caune de 1'Arago), etudie et date par Henri de Lumley, en
est un des plus anciens representants connus. Sa capacite
cerebrale, qui atteint 1500 ml, se rapproche de celle de 1'homme
moderne. Aujourd'hui considere generalement comme une
sous-espece d'Homo sapiens, collaterale a celle (pre-sapiens)
supposee qui engendra Homo sapiens sapiens, 1'homme mo-
derne, il cohabita avec celui-ci, sur les memes territoires,
mais sans se melanger a lui. Telle est du moins la conclu-
sion tiree des donnees connues pour 1'Europe occidentale,
plus etudiee que les autres regions du monde, et depuis
plus longtemps, et ou Ton dispose de davantage de restes
fossiles. L'homme de Neandertal disparait vers -40 000 ans,
sans laisser de descendance directe, lors de la derniere grande
glaciation, pour des raisons mal comprises. Quant a I'Homo
sapiens sapiens, il survient au debut du paleolithique supe-
rieur, vers -150 000 ans, en Afrique, a partir de formes d'Homo
sapiens archai'ques, et pratique 1'enterrement de ses morts de-
puis au moins 100 000 ans. D'Afrique sub-saharienne il gagne
1'Afrique du Nord et 1'Europe occidentale, ou sa culture s'epa-
nouit au magdalenien, avec rhomme de Cro-Magnon, ainsi
que le Proche-Orient puis 1'Asie.
Remarques sur les recherches des origines 237

Le probleme de la variabilite des especes rend complexe


1'attribution exacte de leurs repartitions, dans le temps et dans
1'espace. Certains caracteres d'Homo erectus se confondent,
dans les premieres periodes, avec ceux d'Homo habilis. De
1'autre cote, plus pres de nos temps, la dispersion geogra-
phique s'accompagne, chez les Homo sapiens archa'iques, de ca-
racteres regionaux acquis au cours de 1'expansion de 1'espece
dans 1'Ancien monde. Cette dispersion rend parfois delicate
la distinction entre des traits d'Homo erectus et d'Homo sapiens.
Jusqu'en 1980,1'Homo erectus etait considere comme 1'ancetre
de YHomo sapiens. En Afrique, les Homo sapiens archa'iques
precoces possedent des traits d'Homo erectus et d'Homo sapiens.
D'ou le maintien d'interpretations differentes des chaines phy-
letiques et des peuplements. II semble cependant que 1'origine
africaine des premiers hommes modernes soit desormais bien
etablie, par les reevaluations recentes de la chronologie du
paleolithique subsaharien, grace a des decouvertes paleonto-
logiques nouvelles et a la revision de datations au 14C.
Deux theories des origines des populations de I'homme
moderne sont actuellement en concurrence, basees sur des
hypotheses opposees et combinant de deux manieres diffe-
rentes les donnees paleontologiques et les donnees de 1'ana-
tomie comparee, chacune avec son explication et son interpre-
tation propres des variations de 1'ADN mitochondrial.
La premiere est le modele dit du « jardin d'Eden » ou de
« 1'Eve africaine » qui postule une origine unique de I'homme
moderne en Afrique. Selon cette theorie, 1'homme moderne,
I'Homo sapiens sapiens, serait une nouvelle espece biologique,
surgie par mutations d'une source unique, situee en Afrique
subsaharienne, puis remontant lentement vers 1'Afrique du
Nord et le Moyen-Orient et de la vers TEurope occiden-
tale, et vers 1'Asie. L'Homo sapiens sapiens d'Europe semble
effectivement, selon les evidences fossiles, ne pas s'etre mele
a 1'homme de Neandertal avec qui il n'aurait pas de filiation,
et qu'il aurait completement remplace vers -40 000 ans10.
La seconde theorie est celle d'une evolution multi-regio-
nale, selon laquelle les formes d'Homo sapiens seraient issues
de metissages locaux des diverses especes en presence. L'Homo
erectus d'Asie se serait melange a des Homo sapiens precoces,
qui seraient ainsi les ancetres de Thomme moderne en Chine.
Mais cette these, qui peut a premiere vue paraitre naturelle,

10
Marcellin Boulle, qui fut 1'initiateur de la paleoanthropologie europeenne,
avait montre deja de son temps qu'il existe une discontinuite entre Neandertal
et Cro-Magnon.
238 La physique du XXe siecle

se heurte a des difficultes dont la premiere est la grande unite


de 1'homme moderne sur tous les continents.
Le devant de la scene est done occupe en fin de compte, de-
finitivement au moins jusqu'a nouvel ordre, par I'Homo sapiens
sapiens, qui etait apparu entre -35000 et -10000 ans, crut-on
pendant longtemps. On fait depuis peu remonter cette origine
beaucoup plus haut, en provenance d'Afrique subsaharienne:
montees en Afrique du Nord et au Moyen-Orient, les popu-
lations se sont deployees, sous des pressions ecologiques, en
Europe et en Asie et a la faveur du retrait progressif de la
derniere calotte glaciaire (Wiirm) et de la lente migration de
la faune froide au Magdalenien. On a trouve recemment, au
Proche-Orient, des hommes modernes des -90000 ans, qui
etaient contemporains des neandertaliens de la meme region,
voire meme plus anciens qu'eux.
Get homme de Cro-Magnon, semblable en tous points par la
morphologic a 1'homme moderne, est 1'auteur des grottes or-
nees, de peintures parmi les plus belles de I'humanite, de figu-
rines d'une remarquable finesse fagonnees dans 1'os, la corne
ou 1'ivoire, et d'outils tallies avec un grand savoir-faire dans
le silex ou d'autres pierres11. Le peuplement humain s'etendit
des lors aux cinq continents : du nord de 1'Asie vers I'Ame-
rique a travers le detroit de Behring en plusieurs vagues a la
faveur de glaciations (la premiere vers -20 000 ans, semble-
t-il); d'Afrique et d'Australie vers les divers archipels de
1'Oceanie sur de grandes pirogues a balanciers, de -10 000 ans
jusqu'au debut de 1'ere moderne (la derniere grande migration
fut sans doute la colonisation de Rapa Nui, 1'Ile de Paques, a
2000 km a 1'ouest des cotes chiliennes), du moins pour ce qui
est des migrations massives.
Depuis Homo sapiens sapiens, qui cohabita quelque temps
avec Homo neandertalensis, puis 1'evinc.a sans que 1'on sache
comment (il semble que le genocide soit une invention plus
recente, due au cote Mr Hyde de H.S. Sapiens), les differen-
ciations significatives qui s'operent chez les etres humains ne
sont plus morphologiques mais culturelles. On ne connait de-
puis sur la Terre qu'une seule espece et meme, a proprement
parler, une seule race humaine, sous diverses varietes de ca-
racteres secondaires, qui s'estompent d'ailleurs a la faveur
11
II faut mentionner a cet endroit le nom de 1'abbe Henri Breuil (1877-1961),
ecclesiastique, archeologue et prehistorien franc,ais, de renommee interna-
tionale pour ses travaux pionniers sur 1'art et 1'industrie du paleolithique.
Professeur de Prehistoire au College de France de 1929 a 1947, il fut le pre-
mier archeologue a decrire en 1960 les peintures de la grotte de Lascaux en
Perigord.
Remarques sur les recherches des origines 239

des metissages12. Puis une tres grande acceleration demogra-


phique eut lieu a 1'epoque historique, et advint 1'histoire, mul-
tiple et tourmentee, des civilisations humaines sur 1'ensemble
des continents de la planete, de leurs conquetes des oceans
et, au XIXe et surtout au XXe siecle, des airs, et meme des
premieres explorations de 1'espace interplanetaire...

Les origines physico-chimiques de la vie


L'histoire de la vie sur la Terre est aujourd'hui connue dans les
grandes lignes de sa chronologic. Elle commence, a suivre
ses premieres traces fossiles, assez peu de temps apres la
formation de la Terre et du systeme solaire qui remonte a
-4,5 milliards d'annees. Les premieres bacteries apparaissent
vers -3,5 milliards d'annees, selon les vestiges fossiles qu'elles
ont laisses. Les premiers eucaryotes (cellules a noyaux) appa-
raissent a -1,5 milliards d'annees. La conquete des continents
s'effectue d'abord par les plantes : on decele les premieres
plantes terrestres vers —435 millions d'annees. Les animaux
suivent, par 1'acquisition de poumons et de membres : les
premiers reptiles, a -345 millions d'annees, et les premiers
mamrmferes a -225 millions d'annees. Ces derniers domine-
ront apres 1'extinction des dinosaures, a partir de -65 millions
d'annees (voir le chapitre 9). Les mammiferes placentaires ont
fait leur entree sur la scene terrienne vers —100 millions d'an-
nees, puis les primates, a -70 Ma, caracterises, entre autres
traits notables, par le developpement du cerveau et la reduc-
tion de la face, le pouce opposable, le developpement de la
vision... A -40 Ma apparaissent les simiens en Afrique et en
Amerique du Sud. A -15 Ma on signale la marche bipede de
1'oreopitheque. Dans 1'ancien Monde (Europe, Afrique, Asie),
le ramapitheque, petit primate, ancetre de la lignee des homi-
nides, se fait connaitre de -12 a -8 Ma : peut-etre est-il deja
utilisateur d'outils. On constate des adaptations a la bipedie
en reponse a la pression ecologique. Puis, vient l'homme, deja
evoque pour les raisons qu'on a dites, « d'invention » plus
recente (invention de la nature), puisqu'il n'a vraisemblable-
ment pas plus que 3 ou 4 millions d'annees.

12
Voir, sur ce sujet : Claude Levi-Strauss, Race et histoire, Plon/Unesco,
Paris, 1959; Jean Dausset, Francois Jacob, Jacques Ruffie, Axel Kahn, Andre
Langaney, Luca Cavalli-Sforza, Alberto Piazza : Les races : un faux concept,
Conference au Musee de l'homme, Paris, 10 octobre 1996.
240 La physique du XXe siecle

Nous retiendrons de cette breve evocation de la chrono-


logic de revolution des especes vivantes sur la Terre, une
sorte de loi temporelle (tout empirique) de successions, qui
peut se formuler ainsi : aux tres longues periodes initiates
depuis la formation de la Terre, pendant lesquelles il ne se
passe presque rien de qualitativement important, succedent
des phases de transitions progressivement plus rapides, jus-
qu'a 1'apparition de rhomme. D'ailleurs, a partir de celle-ci,
dans 1'ordre des mouvements de civilisations et de cultures (et
aussi de connaissances), on note une lenteur initiale analogue
a celle de la nature, modifiee par une acceleration progressive.
Le temps, dans ces formations de la nature, est, d'une certaine
maniere,« createur de formes »: la vie est une propriete « emer-
gente » de 1'organisation de la matiere, longuement murie par
la surface de la Terre, oceans, continents et atmosphere, et
les diverses etapes qualitatives des formes d'organisation des
etres vivants peuvent chacune apparaitre aussi comme telles.
On peut dire que le probleme de 1'origine de la vie est en-
tre pleinement dans la science avec la theorie de revolution
de Darwin, comme le point de fuite de 1'origine des especes
meme si certains penseurs avaient deja pu le poser en termes
du rapport entre les organismes vivants et la matiere physico-
chimique. Cette question fondamentale etait au centre de la
controverse qui opposa, du milieu du XVIIP siecle a celui du
XIXe, les partisans d'un reductionnisme physico-chimique et
ceux d'un principe vital irreductible (ou vitalisme). Le terme
mis par Louis Pasteur a la question de la generation sponta-
nee determina la transformation de la question du rapport du
vivant au non vivant en une question d'origine : si la barriere
entre les deux etait maintenant infranchissable, il fallait sup-
poser qu'elle ne 1'avait pas toujours ete, et que le vivant naquit
un jour de 1'inanime13. L'origine des especes invitait, de son cote,
a se poser cette question-limite.
Nous laisserons desormais de cote les transformations des
formes et des regnes du vivant, dont nous savons aujourd'hui
Figure 12.3. Caricature de
Charles Darwin (1809-1882)
qu'elles resultent de deux processus combines : les mutations
publiee dans un magazine du qui surviennent dans les chaines moleculaires qui portent le
XIXe siecle. Naturaliste anglais, code genetique (les molecules geantes d'acide desoxyribonu-
Charles Darwin est le pere des cleique, ADN) au moment de leur replication, et les jeux de
theories modernes sur circonstances qui font Vevolution en favorisant les individus les
1'evolution des etres vivants. II mieux adaptes au milieu. Nous nous portons directement et
fut tres vivement critique par
ces contemporains, comme le
13
montrent les nombreuses Pasteur lui-meme etant, comme on le salt, creationniste, ne se posait pas le
caricatures dont il fut 1'objet. probleme, bien que son role ait ete decisif pour la nouvelle formulation.
Remarques sur les recherches des origines 241

uniquement vers le probleme de 1'apparition sur la Terre des


premieres de ces formes. Le probleme des origines de la vie
depend, pour sa formulation meme, de la definition donnee
au mot et au concept de vie. Celle-ci n'a ete cernee de maniere
precise que dans la seconde moitie du XXe siecle, avec 1'ave-
nement de la biologic moleculaire.
Le geologue Edmond Perrier faisait ainsi observer, vers le
debut du siecle, que la recherche sur la formation de la vie sur
Terre demandait en prealable « de determiner d'abord en quoi
consiste la matiere vivante ». Le probleme des origines de la vie
ne peut etre veritablement formule qu'en rapport a ce qui fait
la specificite des organismes vivants, de la theorie cellulaire
a la biochimie qui, au debut du vingtieme siecle, decouvrait
la complexite chimique de la cellule et identifiait les enzymes
specifiques. Cela rend d'ailleurs la question de 1'origine plus
compliquee : elle ne peut venir d'une seule substance, comme,
par exemple, le protoplasme cellulaire de la theorie de Thomas
Huxley ou de celle d'Emil Dubois-Reymond14.
Des interrogations fecondes furent effectivement posees
par la chimie et la biologic, avant que la nature reelle du
phenomene de « la vie » n'ait ete comprise, a propos de la
constitution et des proprietes des molecules qui determinent
la specificite des structures « vivantes », et de 1'apparition de
telles structures moleculaires. On formula des hypotheses, des
modeles et des scenarios pour tenter de rendre compte de la
formation, par des processus physico-chimiques, a partir de
la matiere minerale inanimee, de la matiere organique et des
organismes vivants.
L'origine de la vie sur la Terre est evidemment liee a
1'histoire et a 1'origine de la Terre elle-meme. Les elements
chimiques qui servent de materiau aux molecules vivantes
sont de maniere predominante 1'oxygene, 1'hydrogene, le car-
bone, le soufre et le phosphore (O, H, C, S, P), mais comportent
aussi des metaux plus lourds comme le calcium (Ca) ou le fer
(Fe). Ces elements ne se sont trouves reunis sur Terre que parce
que la formation de celle-ci a resulte de 1'agregation progres-
sive, par le seul jeu de la gravitation universelle combinee
aux mouvements d'inertie propres, d'atomes errants parmi
ceux qui ont forme les corps (planetes, satellites, cometes,
asteroi'des) du systeme solaire. Ces atomes avaient ete pre-
cedemment rejetes dans 1'espace par 1'eruption de quelque
14
Thomas Huxley (1825-1895), naturaliste britannique, defenseur de la theo-
rie darwinienne de 1'evolution, s'interessa au probleme de 1'origine de
1'homme; Emil Dubois-Reymond (1818-1896), physiologiste allemand, fut
1'un des fondateurs de la physiologic experimentale.
242 La physique du XXe siecle

supernova primitive apres avoir ete synthetises dans 1'etoile,


haut-fourneau a produire la matiere nucleaire, vouee ensuite
a 1'explosion par le jeu des desequilibres entre 1'attraction
de gravitation entre ces atomes et les pressions thermody-
namiques internes (voir le chapitre 10)...
Selon toute vraisemblance, la vie est venue de la ren-
contre de molecules complexes, amenees a se polymeriser en
molecules plus complexes encore dans certaines conditions
chimiques et thermodynamiques. Ces conditions reunies sur
la surface de la Terre a un certain moment de son histoire
ont ete transformers depuis, en partie sous 1'effet meme des
consequences de 1'apparition et du developpement de la vie
(par exemple, la production d'oxygene repandu dans Tatmo-
sphere), et leurs traces en ont ete irremediablement perdues.
Une reconstitution eventuelle de ces conditions ne sera jamais
qu'indirecte et hypothetique; on pourra cependant juger du
degre de vraisemblance de tels modeles a leurs succes.
La chimie pre-biotique s'interessa aux conditions de la
Terre minerale primitive, a ses oceans et a son atmosphere,
dont on pouvait penser que les constituants chimiques avaient
concouru a la synthese de molecules organiques de plus en
plus complexes. Cette synthese avait aussi bien pu se realiser
dans d'autres milieux, comme les meteorites de 1'espace, fos-
siles du materiau primitif du systeme solaire, porteurs, comme
on le sait maintenant, de molecules organiques tres diverses,
ou les autres planetes et leurs satellites qui peuvent aider a
formuler les conditions physico-chimiques de la Terre primi-
tive. Au debut du siecle, le physico-chimiste suedois Svante
Arrhenius15 formulait 1'hypothese d'une « panspermie »,
ou ensemencement de la vie sur Terre en provenance de 1'ex-
terieur. Cette hypothese connait des resurgences aujourd'hui
encore, d'autant plus que la synthese de grosses molecules
organiques, observees dans 1'espace, est sans doute favorisee
par les rayons ultraviolets dans les regions de 1'espace inter-
stellaire ou rien ne les filtre.
Des physico-chimistes et des biologistes s'attache-rent a
tenter de reconstituer la mise en place des conditions de forma-
tion de I'atmosphere terrestre primitive, en prenant en compte
le bombardement meteoritique, le rayonnement ultraviolet, la
radioactivite naturelle alors tres elevee et dispensatrice d'ener-
gie, 1'intense activite tellurique, les eruptions volcaniques,

15
Svante Arrhenius (1859-1927), physicien et chimiste suedois, auteur de la
theorie ionique de la dissociation electrolytique, rec.u le prix Nobel de chimie
en 1903.
Remarques sur les recherches des origines 243

ainsi que 1'effet de serre du au gaz carbonique, et d'ou re-


sulta la formation des premiers oceans primitifs. Si Ton sait
que I'atmosphere terrestre s'est formee par le degazage du
manteau terrestre, on ignore si la premiere atmosphere etait
reductrice (comme du methane) ou oxydante (comme du di-
oxyde de carbone). On pouvait supposer que des syntheses
moleculaires resultant de circonstances particulieres firent ap-
paraitre la vie sous forme de micro-organismes, dont les traces
directes et les plus importantes seraient pour la plupart per-
dues a jamais dans les transformations geologiques. Des traces
fossiles ont pu cependant etre recueillies: des algues microsco-
piques auront produit par photosynthese le premier oxygene
de 1'atmosphere.
Dans cette veine d'une interessante vraisemblance, mal-
gre 1'ignorance ou Ton etait alors sur la veritable nature du
vivant, il faut mentionner la theorie pionniere du chercheur Figure 12.4. Aleksander
russe Aleksander Oparin16 qui conc.oit 1'apparition de la vie Ivanovich Oparin (1894-1980).
en 1'absence d'oxygene avec une atmosphere dominee par le
methane. Oparin faisait fond sur le metabolisme mais ignorait
encore les genes et le mecanisme hereditaire, et leur caractere
fondamental pour la definition du vivant. Les biologistes bri-
tanniques John Haldane et John D. Bernal17 en proposerent
des variantes. Haldane optait pour une atmosphere de gaz
carbonique. Bernal considerait la synthese d'acides amines
produite par les phenomenes naturels, soit dans des condi-
tions de dilution dans les oceans, soit d'adsorption dans les
argiles du littoral.
Ces theories constituent ce que Ton peut appeler la « filiere
du metabolisme biochimique », par opposition a la « filiere
genetique » qui est aujourd'hui le dernier mot. Celle-ci est ba-
see sur la theorie genetique de 1'heredite, qui prend sa source
dans les travaux de Gregor Mendel et de Thomas Morgan18,

16
Aleksander Ivanovich Oparin (1894-1980), botaniste et biochimiste russe,
fonda et fut directeur de 1'Institut Bakh de biochimie de Moscou.
17
John Haldane (1892-1964), biologiste indien d'origine britannique, parti-
san du neo-darwinisme, specialiste de genetique des populations et des mu-
tations genetiques chez I'homme; John D. Bernal (1901-1971), cristallographe
et biologiste britannique, ecrivit aussi des ouvrages importants d'histoire des
sciences.
18
Gregor Johann Mendel (1822-1884), botaniste et moine autrichien, fonda-
teur de la genetique par ses etudes sur 1'hybridation des plantes; Thomas
Morgan (1866-1945), biologiste americain, 1'un des fondateurs de la gene-
tique moderne, par ses etudes sur de nombreuses generations de mouches
drosophiles.
244 La physique du XXe siecle

et aboutit a la biologie moleculaire et a la trilogie de 1'ADN


porteur du code genetique, de 1'ARN messager et de la
synthese des proteines (reference faite aux travaux decisifs
d'Etienne Wolf, de Jacques Monod et de Frangois Jacob)19.
D'autres theories, plus recentes et tenant compte de la
biologie moleculaire, reprennent une part des idees physico-
chimiques d'Oparin, Haldane et Bernal. La theorie de la re-
leve genetique (ou de « 1'usurpation » : take-over) de Graham
Cairns-Smith situe la synthese des molecules du vivant (ance-
tres de 1'ADN ou de VARN) a la jonction de 1'eau et de la terre,
dans les lamelles minerales de 1'argile. Cette derniere, jouant
le role d'enzyme primitive, aurait catalyse la polymerisation
des molecules adsorbees sur les surfaces minerales formees en
feuillets, en fournissant la matrice de sa structure a la molecule
organique qui se la serait appropriee et 1'aurait transformee.
Les chaines de polymeres ainsi constitutes auraient ensuite
acquis definitivement la capacite de se reproduire de maniere
autonome. II existe de nombreux autres modeles sur lesquels
nous ne pouvons nous etendre ici (voir la bibliographic).
Tous ces essais de comprendre les origines de la vie en mo-
bilisant une grande variete de connaissances sont marques par
les caracteres des savoirs d'une epoque et par leurs limites.
La theorie genetique et la biologie moleculaire obligent a
depasser le cadre simplement physico-chimique, en deman-
dant la formulation de theories dynamiques qui puissent
rendre compte du mecanisme detaille de 1'apparition du
vivant, avec la formation du materiau hereditaire et d'un appa-
reil genetique primitif. Telle est desormais, la maniere dont se
formule le probleme de 1'origine de la vie. La recherche dans ce
domaine mobilise simultanement des disciplines tres variees,
comprenant, outre la biologie moleculaire, 1'astrophysique, la
geologic, la physique nucleaire, qui fournissent le cadre, le
contexte et les elements. Une question frontiere comme celle
de 1'origine nous rappelle opportunement que ce sont encore
ces disciplines assurees qui menent le jeu, que nos dissocia-
tions disciplinaires sont avant tout le resultat de nos conven-
tions, et qu'au cceur de ces objets d'etude se tient une unite
fondamentale, qui est au soubassement de la matiere et de ses
phenomenes.

19
Andre Lwolf (1902-1994), Jacques Monod (1910-1976) et Francois Jacob
(1920-), recurent tous les trois le prix Nobel de medecine en 1965.
Remarques sur les recherches des origines 245

Dans quelle mesure peut-on parler


d'une origine de l'Univers ?
Le caractere ouvert des systemes vivants soumet leur consti-
tution, leur developpement et leur origine a 1'influence
des conditions physiques exterieures. L'idee d'une origine
de 1'Univers, comme aussi sa transformation dans 1'expan-
sion, renvoie au contraire a un systeme ferme, soumis dans
ses toutes premieres phases, caracterisees par des densites
d'energie extraordinairement grandes (la totalite de 1'energie
de l'Univers tient alors dans des volumes infimes), non pas
tant a la thermodynamique qu'aux lois physiques fondamen-
tales des entites physiques elementaires (particules et champs
quantiques). En effet, ces conditions extremes correspondent
a celles etudiees au niveau infra-atomique avec les particules
elementaires et leurs champs d'interaction et, pour la gamme
des energies plus elevees, aux extrapolations asymptotiques
effectuees a partir des premieres. L'echelle des temps s'y de-
roule en deployant le volume spatial selon un processus ou
chaque etape significative correspond a un certain regime des
champs quantiques et des particules associees.
A partir d'un champ unique initial suppose, les quatre
champs connus se differencient et se separent, selon des bri-
sures de symetrie successives. A la differenciation des champs
correspond une differenciation correlative des particules, ini-
tialement indistinctes (voir les chapitres 7 et 11), a la fa-
veur de la decroissance de la densite d'energie qui resulte de
1'expansion de l'Univers dans 1'espace. Pour mieux dire, cette
decroissance resulte de 1'auto-expansion de 1'espace de la ma-
tiere, car cet espace ne preexiste pas a 1'Univers qui 1'occupe :
il est lui-meme engendre ou produit par la matiere de l'Uni-
vers en expansion. La theorie de la relativite generale nous
enseigne, en effet, que son objet, la matiere-espace-temps, est
indissociable20.
La sequence admise par le « modele standard » du « big-
bang » (voir le chapitre 11) combine a celui de la physique des
interactions fondamentales (voir le chapitre 7) est a peu pres
la suivante (voir 1'encadre 12.5; malgre le ton assure de la des-
cription et la beaute de 1'idee, gardens sagement a 1'esprit

20
Du moins, cela me semble-t-il etre la maniere la plus directe de voir les
choses. II faudrait, autrement, concevoir un espace vide de matiere et de
champs, qui serait un cadre exterieur que l'Univers viendrait occuper, ce qui
serait revenir a un concept d'espace absolu.
N>
£*
Encadre 12,5. Tableau de 1'echelle temporelle de la cosmogendse o^
Temps Etat de 1'univers Regime de la physique Ph£nomenes dominants et objets
< 10 43 s Totalite indifferenciee ? « Theorie du Tout ».,. tous les champs sont reunis en un seul, y compris
la gravite quantique (terra incognita)
10-43-l(T35 s Ere de Planck champs: particules quantiques; leptoquarks
gravitation quantique + grande uni-
fication (GUT)
Ere de 1'inflation augmentation exponentielle du volume de
1'Univers
10-32_10-i2 s unification electrofaible particules quantiques :
champs : CDQ + eleetro-faible quarks, antiquarks, electrons, neutrinos
l(T6s 4 champs separ^s plasma de quarks, d'antiquarks et de gluons
3 champs quantiques actifs a petites annhilations quarks-antiquarks
distances :
CDQ + electro-magnetique + faible
10-4s formation des nucleons vers 1 s : decouplage des neutrinos (fond de
neutrinos cosmiques)
1 0~3 - 1 s Ere leptonique electrons, positons, neutrinos
3 min formation de noyaux d'helium :
nucle"o-synthese primordiale
1 3 x 105 ans Ere radiative la densite de photons 1'emporte sur decouplage des photons (fond de rayonnement
celle de particules de mariere cosmique isotrope)
formation des atomes
109 ans Ere de la mattere champs classiques a grandes dis- formation des galaxies
tances :
gravitation + electro-magnetique nucleo-synthese stellaire
15 x 109 ans Etat present de TUnivers le champ gravitationnel domine la galaxies, systemes stellaires, trous noirs, geantes
structure de 1'Univers rouges, etoiles a neutrons, naines blanches,
planetes, cometes, asteroides, rayonnements de
particules cosmiques, molecules organiques, la
« planete bleue » (la Terre), parfois quelques
cosmonautes dans cette region du ciel
Remarques sur les recherches des origines 247

qu'il s'agit d'une vue hypothetique, certes fondee sur la


physique, ou du moins coherente avec elle).
Avant le temps 10~43 s, dit « temps de Planck », 1'Uni-
vers est concentre dans un volume qui est bien moins qu'une
fraction de fraction de fraction de tete d'epingle, et sa den-
site d'energie est immense, correspondant a des conditions
physiques ou le champ de gravitation ne peut plus etre consi-
dere sous la forme du champ classique valable aux grandes
distances et doit etre quantified A ces energies, il egale en in-
tensite les autres champs, et Ton suppose qu'un seul champ
et un seul type de particules prevalent. Get Univers parme-
nidien n'est, bien sur, qu'une vue de 1'esprit suggeree par le
passage a la limite asymptotique des lois physiques connues
aux energies moins elevees. Tout ce que nous en saurons ne
sera jamais qu'hypothetique et nulle experience de labora-
toire, meme localisee, ne pourra le verifier. Aussi elevee soit
1'energie utilisee, elle ne parviendra jamais a egaler celle de
1'Univers dans sa totalite.
De surcroit, la physique que nous connaissons ne nous
donne, sur cette region, aucune information, ni experimen-
tale car elle n'est pas encore parvenue a s'approcher, meme
de loin, de telles energies, ni theorique car il serait neces-
saire de pouvoir formuler au moins une theorie du champ
de gravitation quantique (et de 1'unifier aux autres champs).
II n'est pas exclu que 1'on puisse un jour en dire davantage,
et de nombreux theoriciens des champs quantiques et de la
cosmologie sont au travail pour tenter de formuler une telle
theorie. La difficulte, nous 1'avons dit plus haut (chapitres 7
et 11) est considerable : il faudrait pouvoir concilier le continu
de la theorie de la relativite generale et des transformations
spatio-temporelles, et le discontinu qui est inherent aux proces-
sus quantiques. Ou encore, il faudrait pouvoir concilier une
theorie qui est fondamentalement spatio-temporelle (la rela-
tivite generale, voir le chapitre 2) et une theorie qui ne Test
pas (une theorie quantique, voir les chapitres 3 et 4). II sera
vraisemblablement necessaire d'inventer, pour cela, de nou-
velles mathematiques, peut-etre une nouvelle geometric sans
points materiels et sans localite... Si Ton y parvient, ce que
rien n'exclut a priori (car la pensee humaine a fait la preuve de
ses capacites prodigieuses d'invention), on se sera rapproche
de « 1'origine » de 1'Univers, quel que soit le sens que Ton
donne a ce mot « origine », et cela reste un motif legitime de
fascination.
C'est, a vrai dire, cette fascination meme qui nous sai-
sit a evoquer le deploiement de 1'Univers materiel, suivi par
248 La physique du XXe siecle

celui des formes qui s'engendrent en lui (agregations en ob-


jets celestes, syntheses des noyaux atomiques dans les etoiles,
developpement d'etres vivants, puts d'etres pensants, puis
auto-reflechissants), qui m'a incite a faire figurer dans un livre
sur les conquetes de la physique un chapitre sur 1'idee d'ori-
gine, qui depasse la physique, mais qui aussi, comme nous
le voyons, la contient. Cependant, avec 1'Univers, cette quete
de I'origine se heurte necessairement a un mur, car nous nous
trouvons dans I'impossibilite, pour les toutes premieres pe-
riodes, de formuler exactement ce dont nous parlons, puisque
1'espace, le temps, la matiere (et les lois physiques qui en
sont la reciproque) se definissent et se determinent les uns les
autres comme en un nceud. Nous y reviendrons en terminant.
Reprenons 1'evocation de la descente du temps cosmologique.
Entre 10~43 et 1CT35 s, regne un regime des champs quan-
tiques ou celui de gravitation s'est decouple des autres et co-
existe avec un champ de Grande Unification: ce dernier devient
dominant et connecte entre eux de maniere equivalente les lep-
tons et les quarks (ils existent alors a 1'etat de « leptoquarks »)
qui vont ensuite perdre la symetrie qui les confondait et de-
venir distincts. De 10~35 a 10~32 s a lieu ce qu'on appelle « 1'in-
flation », ou une brisure de symetrie particuliere « souffle »
pour ainsi dire 1'espace, en le faisant s'accroitre exponentiel-
lement (preformant ainsi en germe certaines structurations
importantes de 1'Univers ulterieur a grande echelle). De 10~32
a 10~12 s (remarquons comment la pente des durees s'inflechit,
avec un ralentissement du rythme des evenements), les parti-
cules elementaires « ponctuelles » que nous connaissons, les
quarks, antiquarks et gluons coexistent avec les leptons (char-
ges et neutres), interagissant entre eux dans un etat d'equi-
libre. De 10~12 a 10~6 s (soit 1'ecoulement de pres d'une micro-
seconde), les quarks et les antiquarks s'annihilent entre eux
et forment avec les gluons un plasma a 1'equilibre. Le jeu des
transformations et des annihilations aboutit, vers un dix mil-
lieme de seconde (1CT4), a un excedent de particules (du a la
non-conservation de la grandeur CP21 dans certains de ces pro-
cessus), et les quarks se confinent a 1'interieur des nucleons.
Vers une seconde, les neutrinos se decouplent des autres par-
ticules et vont desormais leur chemin independamment des

21
C est la conjugaison de charge et P la parite. En physique des particules
elementaires, I'operation combinee CP n'est pas conservee dans certaines in-
teractions. Cet effet, tenu pour les particules individuelles, a done des conse-
quences considerables au niveau de 1'Univers entier: on tient la la raison pour
laquelle 1'Univers est constitue essentiellement de particules et non d'antipar-
ticules, alors qu'il etait symetrique a cet egard a I'origine.
Remarques sur les recherches des origines 249

autres, preparant leur long voyage « isotrope » dans 1'Univers


en expansion qui en fait des fossiles privilegies (quoique fort
refroidis a de tres basses energies) des premiers instants.
Un intervalle de temps beaucoup plus long (relativement!)
s'ecoule encore jusqu'au temps cosmique de 3 minutes, ou
les conditions physiques correspondent a la formation des
noyaux d'helium et, en moindres proportions, de beryllium
et de bore : c'est la nucleosynthese primordiale. Puis le deroule-
ment du temps se ralentit encore: qui disait que « par sa propre
nature, le temps coule uniformement » ?22 Nous voyons plu-
tot, dans le calendrier des phenomenes cosmologiques, une
variation logarithmique du rythme des evenements en des-
cendant le cours du temps23. II nous faut ainsi passer de la a
cent mille ans, pour assister a la formation des atomes a par-
tir des noyaux precedents (hydrogene, helium, et les autres
noyaux legers plus rares) par attraction electrostatique des
electrons libres du milieu et emission de rayonnement electro-
magnetique de maniere isotrope.
Bien que cette matiere de 1'Univers ait 1'air de constituer
alors un brouet deja plus proche de ce que nous connais-
sons, 1'Univers a cette epoque, si nous parvenions a 1'atteindre
(par un puissant telescope spatial, par exemple), nous serait
opaque a cause de ce rayonnement meme. C'est ce rayonne-
ment qui, refroidi dans 1'expansion au cours des 15 milliards
d'annees suivantes, s'est transforme, sa longueur d'onde
s'allongeant, dans le « rayonnement centrimetrique fossile »
du fond du ciel observe en 1965 par hasard. Rayonnement qui
fut considere comme la premiere preuve vraiment tangible du
« big bang », avec le taux de 1'helium primordial.
Nous passons de la directement, car aucun evenement
qualitativement nouveau ne se produit entre-temps, a un mil-
liard d'annees. C'est 1'epoque de la formation des galaxies.
Desormais, 1'effet du champ de gravitation domine les grandes
structures de 1'Univers et la loi de son devenir, et non plus
les champs nucleaires fort et faible, dont la portee est limitee
aux dimensions des noyaux, ou le champ electromagnetique,
bien qu'il soit sensible aux grandes distances. Car ce sont
les masses materielles qui comptent a 1'echelle de 1'Univers
deploye sur les distances astronomiques, et avec elles, les
champs de gravitation qui structurent 1'espace et forment
sa geometric. Les autres champs n'interviennent que tres
22
Newton, dans ses Principia, ou Prindpes mathematiques de la philosophie na-
turelle, de 1687.
23
C'est-a-dire inverse d'une variation exponentielle.
250 La physique du XXe siecle

localement: par exemple, a 1'interieur des etoiles, qui sont des


fours nucleaires, ou, pour le champ electromagnetique (clas-
sique) de longue portee, les champs accelerant les particules
cosmiques, les orages magnetiques et les aurores boreales...
Puis nous voici, sans transition, traversant les suites de
naissances et de morts d'etoiles et les evolutions des galaxies,
quinze milliards d'annees apres, a 1'epoque presente. D'ou,
situes en un lieu singulier de I'Univers, la Terre du systeme
solaire, qui se tient a la peripherie de la galaxie de la Voie lac-
tee, et nous-memes issus devolutions stellaires et planetaires,
chimiques, organiques et biologiques, neurophysiologiques et
culturelles, nous nous sommes pose, depuis tres recemment
au regard du temps de ces evolutions, peut-etre a force de
contempler « le champ des etoiles », la triple question qui est
comme la marque de notre humanite : « D'ou venons-nous ?
Qui sommes-nous ? Ou allons-nous ? »24.

La conscience de la question des origines


et rinterrogation metaphysique
La conscience de notre precarite, et du hasard qui nous a
fait apparaitre dans le monde, en ce lieu, et pour assez peu
de temps, induit certains a conclure (metaphysiquement)
a 1'absurde : c'est « une histoire de fous racontee par un
ivrogne ». D'autres, a 1'inverse, sensibles a la necessite des
choses qui a fait que tout ceci soit (car meme les chaines de
hasards ont le reel et sa necessite pour support), imaginent
que tout ceci a un sens, et que ce sens magnifie notre pre-
sence dans le monde. La poesie aussi bien que la religion
en sont des effets. D'autres encore concluent a une finalite
dans I'Univers, qu'elle soit divine ou immanente. Finalite a la
fois immanente et divine d'une evolution congue, dans la vi-
sion prophetique et poetique d'un Pierre Teilhard de Chardin,
comme la « conscience d'une derive profonde, ontologique,
totale, de I'Univers autour de soi », car il revient a 1'esprit hu-
main, a ce moment de la montee de la complexite-conscience
dans la nature, de reveler la « puissance spirituelle de la ma-
tiere »25. Ou finalite seulement immanente a la nature, comme
celle du « principe anthropique », formule par Brandon Carter
24
« Le champ des etoiles »: Victor Hugo,« Booz endormi», dans La Legende des
siecles. « D'ou venons-nous ? Qui sommes-nous ? Ou allons-nous ? » : legende
d'un tableau tahitien de Paul Gauguin.
25 pjerre Teilhard de Chardin, CEuvres, Seuil, Paris, Vol. 13, p. 33.
Remarques sur les recherches des origines 251

et repris par d'autres cosmologistes, selon lequel les theories et


les modeles d'Univers doivent tenir compte de ce que 1'homme
en fait partie, et que tous les parametres et les constantes phy-
siques de la nature sont ajustes de telle sorte que 1'emergence
de 1'homme ait ete possible. Ce principe quelque peu « nom-
briliste » veut rompre expressement, de la volonte meme de
ses partisans, avec la vue copernicienne de la decentration du
cosmos par rapport a 1'homme (voir 1'encadre 12.6