Vous êtes sur la page 1sur 129

La théorie

quantique
« John Polkinghorne nous offre ici le fruit d’un excellent travail… On peut
regretter que de nombreux auteurs de livres « populaires » sur la physique
moderne aient pris la fâcheuse habitude de mélanger la science factuelle
avec la « science-fiction ». Polkinghorne ne commet jamais cette erreur :
il laisse toujours la vérité se défendre toute seule et démontrer sa propre
fascination. Je pense que c’est une excellente contribution à la documentation
sur la théorie quantique destinée au grand public. »
Chris Isham, Imperial College, Londres

« Ce livre splendide explique à la fois le triomphe et le mystère que constitue


la théorie quantique. C’est un triomphe en raison de sa structure mathéma-
tique imposante et de son étonnante précision empirique. C’est un mystère
en raison de les énigmes sur la façon de l’interpréter. John Polkinghorne,
lui-même un éminent physicien quantique, est un guide fiable pour tout
cela : il célèbre ici les succès de la théorie, et fait preuve d’un jugement sûr
s’agissant des énigmes. »
Jeremy Butterfield, Oxford University
La théorie
quantique
John Polkinghorne

Traduit de l’anglais par Alan Rodney


ChronoSciences
Collection destinée à un large public qui invite le lecteur à découvrir de façon
très complète mais de manière abordable un sujet ou une thématique précise.

« Dans la même collection »


L’Intelligence artificielle, Margaret A. Boden (à paraître)
Les Marées, David George Bowers et Emyr Martyn Roberts (à paraître)
L’Anthropocène, Erle C. Ellis (à paraître)
L’Odorat, Matthew Cobb (à paraître)

Quantum Theory: A very short introduction, first edition was originally published
in English in 2002. This translation is published by arrangement with Oxford
University Press.
Quantum Theory: A very short introduction, first edition, a été initialement publiée
en anglais en 2002. Cette traduction est publiée avec l’autorisation d’Oxford
University Press.

© John Polkinghorne, 2002


© Pour la traduction française, EDP sciences, 2021.

Composition et mise en page : Desk (www.desk53.com.fr)

Imprimé en France

ISBN : 978-2-7598-2571-4
Ebook : 978-2-7598-2572-1

Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés


pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3
de l’article 41, d’une part, que les « copies ou reproductions strictement réservées
à l’usage privé du copiste et non destinées à une utilisation collective », et d’autre
part, que les analyses et les courtes citations dans un but d’exemple et d’illustration,
« toute représentation intégrale, ou partielle, faite sans le consentement de l’auteur
ou de ses ayants droit ou ayants cause est illicite » (alinéa 1er de l’article 40). Cette
représentation ou reproduction, par quelque procédé que ce soit, constituerait donc
une contrefaçon sanctionnée par les articles 425 et suivants du code pénal.
À la mémoire de
Paul Adrien Maurice Dirac
1902-1984

« Je pense pouvoir dire avec force que


personne ne comprend la mécanique
quantique. »
Richard Feynman
 
Remerciements

Je suis reconnaissant au personnel d’Oxford University Press pour leur


aide dans la préparation du manuscrit pour aboutir à la version imprimée,
en particulier à Shelley Cox pour un certain nombre de commentaires
utiles sur le premier jet du texte.
John Polkinghorne
Queens’ College
Université de Cambridge
 
Sommaire

Préface........................................................................................................................... 11
1. Les « fissures » de la physique classique................................................... 13
2. La lumière de l’aube apparaît.......................................................................... 27
3. Un horizon paradoxal qui s’assombrit........................................................ 51
4. Des développements supplémentaires..................................................... 71
5. Vers l’unité................................................................................................................... 91
6. Les leçons et leurs significations.................................................................... 97
Lectures complémentaires................................................................................ 109
Glossaire....................................................................................................................... 111
Annexe mathématique........................................................................................ 115
Index............................................................................................................................... 125
 
Préface

La découverte de la théorie quantique moderne au milieu des années


1920 entraîna la plus grande révision de notre réflexion sur la nature
du monde physique depuis l’époque d’Isaac Newton. Ce qui avait été
considéré comme l’arène d’un processus clair et déterministe s’avéra, au
niveau de ses racines subatomiques, nébuleux mais bien adapté dans
son comportement.
Par rapport à ce changement révolutionnaire, les grandes décou-
vertes de la relativité restreinte et générale ne semblent guère être plus
que des variations intéressantes sur des thèmes classiques. En effet,
Albert Einstein, le progéniteur de la théorie de la relativité, trouva la
mécanique quantique moderne si peu à son goût métaphysique qu’il
y resta implacablement opposé jusqu’à la fin de sa vie. Il n’est pas exa-
géré de considérer la théorie quantique comme l’une des réalisations
intellectuelles les plus remarquables du xxe siècle et sa découverte
comme une véritable révolution dans notre compréhension des pro-
cessus physiques.
Cela étant dit, la jouissance des idées quantiques ne devrait pas être
l’apanage des seuls physiciens théoriciens. Bien que l’articulation com-
plète de la théorie nécessite l’utilisation de son langage naturel, c’est-à-
dire les mathématiques, nombre de ses concepts de base peuvent être
accessibles au lecteur lambda si ce dernier est prêt à souffrir un peu et
se donne la peine de suivre le récit d’une découverte remarquable. Ce
petit livre est écrit en pensant à de tels lecteurs. Son texte principal ne
contient aucune équation mathématique. Une courte annexe présente,
cependant, quelques aperçus mathématiques simples qui éclaireront
davantage ceux qui sont capables de digérer une substance un peu plus

 11 
 La théorie quantique 

forte (les sections de cette annexe sont référencées en caractères gras


dans le texte principal).
La théorie quantique s’est avérée incroyablement fructueuse durant
les 75 ans qui ont suivi les découvertes initiales. Elle est actuellement
appliquée avec confiance et succès dans la discussion sur les quarks et
les gluons (les candidats contemporains pour être considérés comme
les constituants ultimes de la matière nucléaire), malgré le fait que ces
entités soient au moins 100 millions de fois plus petites que les atomes
dont le comportement était l’affaire des pionniers quantiques. Pourtant,
il existe toujours un profond paradoxe. L’épigraphe de ce livre traduit
l’exagération qui caractérisait le discours de ce grand physicien quan-
tique de la deuxième génération, Richard Feynman, mais il est certain
que – bien que nous sachions faire les sommes – nous ne comprenons
pas la théorie aussi bien que nous le devrions. Nous verrons dans ce qui
suit que d’importantes questions d’interprétation restent en suspens.
Pour y répondre, elles exigeront une compréhension physique ainsi que
quelques décisions d’ordre métaphysique.
Jeune homme, j’ai eu le privilège d’apprendre ma théorie quantique
face à Paul Dirac, assistant à ses célèbres cours à l’Université de Cam-
bridge. Le contenu des cours de Dirac correspondait étroitement au
traitement donné dans son livre de référence, The Principles of Quantum
Mechanics, l’un des véritables classiques fondateurs de l’édition scienti-
fique du xxe siècle. Dirac fut le plus grand physicien théorique que j’ai
connu personnellement, et sa pureté d’esprit comme sa modestie (il n’a
jamais mis en avant ses propres contributions pourtant immenses aux
fondements de cette discipline) firent de lui une figure inspirante et une
sorte de saint scientifique. Je dédie humblement ce livre à sa mémoire.

 12 
1
Les « fissures »
de la physique classique

La première floraison de la science physique moderne atteignit son


sommet en 1687 avec la publication de l’ouvrage d’Isaac Newton intitulé
Principia. Par la suite, la mécanique fut établie et reconnue comme une
discipline mature, capable de décrire les mouvements des particules de
manière claire et déterministe. Cette nouvelle science semblait si com-
plète qu’à la fin du xviiie siècle, le plus grand des successeurs de Newton,
Pierre-Simon Laplace, pouvait dire – et il fut applaudi pour cette affirmation
– qu’un être doté de pouvoirs de calcul illimités, connaissant parfaitement
les dispositions de toutes les particules à un moment donné, pouvait utiliser
les équations de Newton pour prédire l’avenir et rétrodater avec une égale
certitude le passé de tout l’Univers. En fait, cette affirmation mécaniste
plutôt effrayante a toujours été fortement soupçonnée d’être teintée
d’orgueil. D’une part, les êtres humains ne se considèrent pas comme
des automates mus par des mécanismes d’horlogerie. D’autre part, bien
que considérables, les réalisations de Newton n’embrassaient pas tous les
aspects du monde physique alors connus à son époque. Il restait des ques-
tions non résolues qui menaçaient la croyance en l’autosuffisance absolue
de la synthèse newtonienne. Par exemple, quelles étaient la vraie nature et
l’origine de la loi universelle de la gravité en carré inverse que Sir Isaac avait
découverte ? À cette question, Newton lui-même avait refusé de formuler
une hypothèse. Restait aussi la question non résolue de la nature de la
lumière. Newton s’autorisa ici une certaine spéculation. Dans son ouvrage
Opticks, il était enclin à penser qu’un faisceau de lumière était constitué d’un
flux de minuscules particules. Ce type de théorie corpusculaire s’accordait
avec sa tendance à considérer le monde physique en termes atomistes.

 13 
 La théorie quantique 

LA NATURE DE LA LUMIÈRE
Il s’avéra que ce n’est qu’au xixe siècle qu’il y eut de réels progrès
dans la compréhension de la nature de la lumière. Dès le début du
siècle, en 1801, Thomas Young présenta des preuves très convaincantes
que la lumière avait pour caractéristique un mouvement ondulatoire.
On notera qu’une hypothèse dans ce sens avait été faite plus d’un
siècle plus tôt par le contemporain néerlandais de Newton, Christiaan
Huygens. Les principales observations faites par Young portaient sur des
effets que nous appelons aujourd’hui des phénomènes d’interférence.
Un exemple typique est l’existence de bandes alternées de lumière et
d’obscurité, qui, assez ironiquement, avait été mise en évidence par Sir
Isaac lui-même dans un phénomène appelé « les anneaux de Newton ».
Les effets de ce genre sont caractéristiques des ondes et se manifestent
comme suit. La manière dont deux trains d’ondes se combinent dépend
de la relation entre leurs oscillations l’un par rapport à l’autre. S’ils sont
en phase (comme disent les physiciens), alors la crête de l’un coïncide
de manière constructive avec la crête de l’autre, ce qui donne un ren-
forcement mutuel maximal. Lorsque cela se produit dans le cas de la
lumière, on obtient des bandes de luminosité. Si, en revanche, les deux
ensembles d’ondes sont exactement décalés l’un par rapport à l’autre
(déphasés), alors la crête de l’un coïncide avec le creux de l’autre ce
qui conduit à une annulation mutuelle et on obtient une bande d’obs-
curité. Ainsi, l’apparition de motifs d’interférence alternant la lumière
et l’obscurité est une signature indubitable de la présence d’ondes. Les
observations de Young semblent avoir réglé la question. La lumière est
de nature ondulatoire.
Au cours du xixe siècle, la nature du mouvement ondulatoire associé
à la lumière devins apparemment claire. D’importantes découvertes de
Hans Christian Oersted et de Michael Faraday montrèrent que l’électricité
et le magnétisme, phénomènes qui, à première vue, semblaient très
différents, étaient, en fait, intimement liés les uns aux autres. La manière
dont ils pouvaient être combinés pour donner une théorie cohérente de
l’électromagnétisme fut finalement arrêtée par James Clerk Maxwell – un

 14 
 Les « fissures » de la physique classique 

Fig. 1  L’addition des ondes : (a) en phase ; (b) déphasées.

homme doté d’un tel génie qu’on pouvait le comparer à Isaac Newton
lui-même. Les célèbres équations de Maxwell, qui constituent encore
aujourd’hui la base fondamentale de la théorie de l’électromagnétisme,
furent exposées en 1873 dans son Traité sur l’électricité et le magnétisme,
l’un des livres de référence classiques de l’édition scientifique. Maxwell
se rendit compte que ces équations avaient des solutions ondulatoires et
que la vitesse de ces ondes était déterminée en fonction de constantes
physiques connues. Il s’agissait en fait de la vitesse de la lumière !
Cette découverte a été considérée comme le plus grand triomphe
de la physique du xixe siècle. Le fait que la lumière soit des ondes élec-
tromagnétiques était on ne peut plus solidement établi. Maxwell et ses
contemporains considéraient ces ondes comme des oscillations dans un
milieu élastique omniprésent, que l’on a fini par appeler éther. Dans un
article d’encyclopédie, il allait même avancer que l’éther était l’entité la
mieux confirmée de toute la théorie physique.

 15 
 La théorie quantique 

Nous avons donné à la physique de Newton et Maxwell le nom


de « physique classique ». À la fin du xixe siècle, elle était devenue un
imposant édifice théorique. Il n’est guère surprenant que de grands
« anciens », comme Lord Kelvin, en soient venus à penser que toutes
les grandes idées de la physique étaient désormais connues et qu’il ne
restait plus qu’à en régler les détails avec une précision accrue. Au cours
du dernier quart de siècle, un jeune homme en Allemagne qui envisageait
une carrière universitaire a été mis en garde contre une carrière dans la
physique. Il valait mieux chercher ailleurs, car la physique était au bout
du chemin, il restait trop de peu de choses à entreprendre. Le jeune
homme s’appelait Max Planck et, heureusement, il a ignoré les conseils
qui lui avaient été donnés.
En fait, certaines « fissures » avaient déjà commencé à se manifes-
ter dans la splendide façade de la physique classique. Dans les années
1880, les Américains Michelson et Morley réalisèrent des expériences
intelligentes destinées à démontrer le mouvement de la Terre à tra-
vers l’éther. L’idée était que, si la lumière était effectivement constituée
d’ondes dans ce milieu, alors sa vitesse mesurée devait dépendre de la
façon dont l’observateur se déplaçait par rapport à l’éther. Pensez aux
vagues sur la mer. Leur vitesse apparente, telle qu’observée depuis un
navire, dépend du fait que celui-ci se déplace dans le sens des vagues
ou dans le sens opposé, apparaissant moins élevée dans le premier cas
que dans le second. L’expérience permet de comparer la vitesse de la
lumière dans deux directions mutuellement perpendiculaires. Ce n’est
que si et seulement si la Terre se trouve « au repos » par rapport à l’éther
au moment où les mesures sont effectuées que l’on peut s’attendre à
ce que les deux vitesses mesurées soient les mêmes, et cette possibilité
peut être exclue en répétant l’expérience quelques mois plus tard, lorsque
la Terre se déplace dans une direction différente sur son orbite. En fait,
Michelson et Morley n’ont pu détecter aucune différence de vitesse.
La résolution de ce problème a nécessité une application de la théorie
restreinte de la relativité d’Einstein, qui ignore totalement l’existence
de l’éther. Cette grande découverte n’est pas l’objet de notre histoire
actuelle, aussi significative et surprenante que fut la relativité, elle n’a pas

 16 
 Les « fissures » de la physique classique 

aboli les qualités de clarté et de déterminisme que possède la physique


classique. C’est pourquoi, dans la préface, j’ai affirmé que la relativité
restreinte exigeait beaucoup moins d’être repensée radicalement que
la théorie quantique.

SPECTRES
Le premier signe de la révolution quantique, non reconnu comme
tel à l’époque, apparut en 1885. Elle naquit des gribouillages mathéma-
tiques d’un maître d’école suisse appelé Balmer. Il pensait au spectre
de l’hydrogène, c’est-à-dire à l’ensemble des raies colorées distinctes
que l’on voit lorsque la lumière d’un gaz incandescent est divisée en
passant à travers un prisme. Les différentes couleurs correspondent à
différentes fréquences (différents taux d’oscillation) des ondes lumi-
neuses impliquées. En jouant avec les chiffres, Balmer découvrit que
ces fréquences pouvaient être décrites par une formule mathématique
assez simple [voir l’Annexe mathématique, 1]. À son époque, cela pou-
vait être appréhendé comme une simple curiosité.
Plus tard, les scientifiques essayèrent de comprendre le résultat
de Balmer en fonction de l’image contemporaine de l’atome. En 1897,
J. J. Thomson découvrit que la charge négative d’un atome était portée
par de minuscules particules, que l’on nomma « électrons ». On suppo-
sait alors que la charge positive d’équilibre était simplement répartie
dans l’atome. Cette idée fut appelée « le modèle du plum-pudding »,
les électrons jouant le rôle des prunes et la charge positive celui du
pudding. Les fréquences spectrales devaient alors correspondre aux
différentes façons dont les électrons pouvaient osciller dans le « pud-
ding » chargé positivement. Il s’avéra toutefois extrêmement difficile
de faire appliquer cette idée de manière empiriquement satisfaisante.
Nous verrons que la véritable explication de l’étrange découverte de
Balmer a finalement été trouvée en utilisant un ensemble d’idées
très ­différentes. Entre-temps, la nature des atomes semblait proba-
blement trop obscure pour que ces problèmes suscitent une anxiété
généralisée.

 17 
 La théorie quantique 

LA CATASTROPHE ULTRAVIOLETTE
Une autre difficulté, beaucoup plus évidente mais déroutante, fut mise
en lumière pour la première fois par Lord Rayleigh en 1900, et appelée
« la catastrophe ultraviolette ». Elle était née de l’application des idées
d’une autre grande découverte du xixe siècle, la physique statistique. Les
scientifiques tentaient alors de comprendre le comportement de sys-
tèmes très complexes, dont les mouvements détaillés pouvaient prendre
des formes très différentes. Un exemple d’un tel système pourrait être
un gaz composé de très nombreuses molécules différentes, chacune
ayant son propre état de mouvement. Un autre exemple serait l’énergie
rayonnante (ou radiative), qui pourrait être constituée de contributions
réparties entre de nombreuses fréquences différentes. Il serait tout à
fait impossible de suivre tous les détails de ce qui se passe dans des
systèmes de cette complexité, néanmoins, certains aspects importants
de leur comportement global pourraient être analysés et mis en équation.
Cela s’explique par le fait que le comportement global résulte d’une
moyenne grossière des contributions de nombreux états de mouvement
individuels. Parmi ces possibilités, l’ensemble le plus probable domine
parce qu’il s’avère être justement le plus probable. Sur la base de cette
maximisation de la probabilité, Maxwell et Ludwig Boltzmann ont pu
montrer que l’on peut calculer de manière fiable certaines propriétés
générales du comportement global d’un système complexe, comme, par
exemple, la pression dans un gaz de volume et de température donnés.
Rayleigh appliqua ces techniques de physique statistique au problème
de la répartition de l’énergie entre les différentes fréquences dans le cas
du rayonnement des corps noirs. Un corps noir est un corps qui absorbe
parfaitement toutes les radiations et qui les réémet ensuite toutes. La
question du spectre des radiations en équilibre avec un corps noir peut
sembler assez originale, mais il existe en fait d’excellentes approximations
des corps noirs. C’est donc une question qui peut être étudiée aussi bien
de manière expérimentale que théorique, par exemple en étudiant les
radiations à l’intérieur d’un four spécialement préparé. La question a été
simplifiée par le fait que l’on savait que la réponse ne devait dépendre

 18 
 Les « fissures » de la physique classique 

que de la température du corps et non d’autres facteurs de sa structure.


Rayleigh fit remarquer que l’application directe des idées éprouvées de la
physique statistique conduisait à un résultat désastreux. Non seulement le
résultat par calcul ne correspondait pas au spectre mesuré, mais il n’avait
aucun sens. Il prédit qu’une quantité infinie d’énergie serait concentrée
dans les très hautes fréquences, une conclusion embarrassante qui est
devenue « la catastrophe ultraviolette ». La nature catastrophique de
cette conclusion est assez claire : « ultraviolet » était alors une façon
de dire « hautes fréquences ». La catastrophe est survenue parce que la
physique statistique classique prédisait que chaque degré de liberté du
système (dans ce cas, chaque manière distincte dont le rayonnement
peut onduler) recevra la même quantité fixe d’énergie, une quantité
qui ne dépend que de la température. Plus la fréquence est élevée, plus
le nombre de modes d’oscillation correspondants est important, ce qui
fait que les fréquences les plus élevées emportent tout, accumulant ainsi
des quantités illimitées d’énergie. Ce problème qui représentait bien
plus qu’un défaut inesthétique sur la splendide façade de la physique
classiqueétait plutôt un trou béant dans le bâtiment.
En un an, Max Planck, devenu professeur de physique à Berlin, avait
trouvé une remarquable issue à ce dilemme. Il dit d’ailleurs à son fils
qu’il pensait avoir fait une découverte d’une importance égale à celles
de Newton. Cela ressemble à une affirmation pleine d’emphase mais,
dans les faits, Planck disait simplement la vérité.
La physique classique considérait que le rayonnement suintait conti-
nuellement dans et hors du corps noir, tout comme l’eau pouvait suinter
dans et hors d’une éponge. Dans le monde en constante évolution de
la physique classique, aucune autre hypothèse ne semblait plausible.
Pourtant, Planck fit une proposition contraire, suggérant que les radia-
tions étaient émises ou absorbées de temps en temps dans des paquets
d’énergie d’une taille définie. Il précisa que le contenu énergétique de
l’un de ces quanta (comme on appelait les paquets) serait proportionnel
à la fréquence du rayonnement. La constante de proportionnalité a été
vue comme une constante universelle de la nature, et porte aujourd’hui

 19 
 La théorie quantique 

le nom de constante de Planck. Elle est désignée par le symbole h. La


magnitude de h est très petite en termes de tailles que nous rencontrons
dans notre expérience quotidienne. C’est pourquoi ce comportement
ponctuel des rayonnements n’avait pas été remarqué auparavant, une
rangée de petits points très proches les uns des autres ressemblant à
une ligne continue.
Une conséquence immédiate de cette hypothèse audacieuse fut que
le rayonnement à haute fréquence ne pouvait être émis ou absorbé que
lors d’événements impliquant un seul quantum porteur d’une énergie
significativement élevée. Ce « tarif » énergétique élevé signifiait que ces
événements à haute fréquence seraient sévèrement entravés et amoin-
dris par rapport aux attentes de la physique classique. L’apprivoisement
des hautes fréquences de cette manière a non seulement supprimé la
« catastrophe ultraviolette », il a également permis d’obtenir une formule
en accord parfait avec le résultat empirique des mesures.
Manifestement, Planck tenait là une piste de grande importance. Mais
ni lui ni d’autres n’étaient sûrs de cette importance au début. Jusqu’à quel
point faut-il prendre les quanta au sérieux ? Étaient-ils une caractéris-
tique persistante des radiations ou simplement un aspect de la manière
dont les radiations interagissaient avec un corps noir ? Après tout, les
gouttes d’un robinet forment une séquence de quanta aqueux, mais elles
se fondent dans le reste de l’eau et perdent leur identité individuelle dès
qu’elles tombent dans le bassin.

L’EFFET PHOTOÉLECTRIQUE
L’avancée suivante fut accomplie par un jeune homme qui avait du
temps devant lui puisqu’il travaillait comme examinateur de troisième
classe à l’Office des Brevets de Berne. Il s’appelait Albert Einstein. En
1905, annus mirabilis pour Einstein, il fit trois découvertes fondamentales.
L’une d’entre elles s’est avérée être l’étape suivante dans l’histoire de la
théorie quantique. Einstein réfléchissait aux propriétés étonnantes mises
en évidence par les recherches sur l’effet photoélectrique [2]. Il s’agit d’un

 20 
 Les « fissures » de la physique classique 

phénomène par lequel un faisceau de lumière fait éjecter des électrons de


l’intérieur d’un métal. Les métaux contiennent des électrons qui peuvent
se déplacer à l’intérieur (leur flux constitue le courant électrique), mais qui
n’ont pas assez d’énergie pour s’échapper entièrement du métal. Le fait
que l’effet photoélectrique se produise n’est pas du tout surprenant. Le
rayonnement transfère de l’énergie aux électrons piégés à l’intérieur du
métal et, si le gain est suffisant, des électrons peuvent alors s’échapper
des forces qui les retiennent. Dans un mode de pensée classique, les
électrons seraient agités par la « houle » des ondes lumineuses et certains
pourraient être suffisamment perturbés pour se détacher du métal. Selon
ce schéma, le degré de cette perturbation dépendrait de l’intensité du
faisceau, puisque celle-ci détermine son contenu énergétique, mais on
ne s’attendrait pas à une dépendance particulière de la fréquence de la
lumière incidente. En fait, les expériences montrèrent exactement l’in-
verse. En dessous d’une certaine fréquence critique, aucun électron n’était
émis, quelle que soit l’intensité du faisceau ; au-dessus de cette fréquence,
même un faible faisceau pouvait faire éjecter quelques électrons.
Einstein vit que ce comportement déroutant devenait instantané-
ment intelligible si l’on considérait le faisceau de lumière comme un
flux de quanta persistant. Un électron serait éjecté parce qu’un de ces
quanta l’aurait heurté et lui aurait transféré toute son énergie. La quantité
d’énergie de ce quantum, selon Planck, était directement proportionnelle
à la fréquence. Si la fréquence était trop basse, il n’y aurait pas assez
d’énergie transférée lors d’une collision pour permettre à l’électron de
s’échapper. En revanche, si la fréquence dépasse une certaine valeur
critique, il y aurait suffisamment d’énergie pour que l’électron puisse
s’échapper. L’intensité du faisceau détermine simplement combien de
quanta il contient, et donc combien d’électrons sont impliqués dans les
collisions et éjectés. L’augmentation de l’intensité ne pouvait pas modi-
fier l’énergie transférée lors d’une seule collision. Le fait de prendre au
sérieux l’existence des quanta de lumière (qui devaient par la suite être
dénommés les « photons ») explique le mystère de l’effet photoélectrique.
Le jeune Einstein avait fait une découverte capitale et il reçut finalement
un prix Nobel pour cette découverte, l’Académie suédoise considérant

 21 
 La théorie quantique 

probablement ses deux autres grandes découvertes de 1905 – la relativité


restreinte et une démonstration convaincante de la réalité des molécules
– comme étant encore trop spéculatives pour qu’il soit récompensé de
cette manière !
L’analyse quantique de l’effet photoélectrique fut une grande victoire
de la physique, mais une victoire à la Pyrrhus. La question de fond se
trouve alors confrontée à une grave crise. Comment concilier toutes
ces grandes connaissances du xixe siècle sur la nature ondulatoire de la
lumière avec ces nouvelles idées ? Après tout, une onde est une chose
étendue, qui virevolte, tandis qu’un quantum est assimilé à une particule,
une sorte de petite balle de fusil. Comment ces deux notions peuvent-
elles être également vraies ? Pendant longtemps, les physiciens ont dû
vivre avec le paradoxe inconfortable de la nature ondulatoire/parti-
culaire de la lumière. Aucun progrès n’aurait été réalisé en faisant fi
des intuitions de Young et Maxwell ou de Planck et Einstein. Les gens
devaient simplement s’y accrocher intellectuellement, même si cela ne
permettait pas d’y trouver du sens. Beaucoup adoptèrent une tactique
plutôt lâche, le détournant du regard. Cependant, cette histoire, comme
nous le verrons, eut une fin heureuse.

L’ATOME
Pendant ce temps, l’attention se détourna de la lumière vers les
atomes. En 1911, à Manchester, Ernest Rutherford et quelques collègues
plus jeunes commencèrent à étudier le comportement de certains petits
projectiles à charge positive, appelés particules-α, lorsqu’ils atteignaient
une fine pellicule d’or. De nombreuses particules-a passaient à travers
sans subir d’effet mais, à la grande surprise des chercheurs, certaines
étaient sensiblement déviées. Rutherford a déclaré plus tard que c’était
aussi étonnant que si un obus naval de 15 pouces avait reculé en heurtant
une feuille de papier de soie. Le modèle de l’atome en plum-pudding ne
pouvait avoir aucun sens à partir de ce résultat. Les particules-a auraient
dû passer à travers comme une balle au travers d’un gâteau. Rutherford
comprit vite qu’il n’y avait qu’une seule issue au dilemme. La charge

 22 
 Les « fissures » de la physique classique 

positive des atomes d’or, qui repousserait les particules-a positives, ne


pouvait pas être répartie comme dans un « pudding », mais devait être
concentrée au centre de l’atome. Une rencontre avec de telles charges
concentrées serait capable de dévier sensiblement une particule-a. En
sortant un vieux manuel de mécanique de ses études de premier cycle
en Nouvelle-Zélande, Rutherford – qui était un merveilleux physicien
expérimental mais pas un grand mathématicien – a pu montrer que
cette idée, à savoir, une charge positive centrale située dans l’atome avec
des électrons négatifs en orbite, correspondait parfaitement au com-
portement observé. Le modèle du plum-pudding céda instantanément la
place au modèle de l’atome dit du « système solaire ». Rutherford et ses
collègues venaient de découvrir le noyau atomique.
Ce fut un grand succès, mais il semble à première vue qu’il s’agit
une fois de plus d’une victoire à la Pyrrhus. La découverte du noyau
plongea la physique classique dans la crise la plus profonde qu’elle ait
connue jusqu’à ce jour. Si les électrons d’un atome encerclent le noyau,
ils changent continuellement de direction de mouvement. La théorie
électromagnétique classique exigeait alors que dans ce processus, ils
rayonneraient une partie de leur énergie. Par conséquent, ils devraient
se rapprocher progressivement du noyau. Cette conclusion est absolu-
ment désastreuse, car elle implique que les atomes seraient instables, les
électrons en orbite s’effondreraient en spirale vers le centre. En outre, au
cours de cette désintégration, un modèle continu de rayonnement serait
émis qui ne ressemblerait en rien aux fréquences spectrales aiguës de la
formule de Balmer. Après 1911, le grand édifice de la physique classique
ne commençait pas seulement à se fissurer. Il avait été touché par un
tremblement de terre.

LE MODÈLE ATOMIQUE DE BOHR


Cependant, comme dans le cas de Planck et de la « catastrophe
ultraviolette », un autre physicien et théoricien vint à la rescousse pour
arracher le succès aux mâchoires de l’échec en proposant une nouvelle
hypothèse aussi audacieuse que radicale. Cette fois, c’est un jeune danois

 23 
 La théorie quantique 

du nom de Niels Bohr, qui travaillait à Manchester tout comme Ruther-


ford. C’est en 1913 que Bohr avança une proposition révolutionnaire [3].
Planck avait remplacé l’idée classique d’un processus continu dans lequel
l’énergie suinte à l’intérieur et à l’extérieur d’un corps noir par la notion
d’un processus ponctuel dans lequel l’énergie est émise ou absorbée
sous forme de quanta. En termes mathématiques, cela signifie qu’une
quantité telle que l’énergie échangée, qui était auparavant considérée
comme prenant n’importe quelle valeur possible, est maintenant consi-
dérée comme ne pouvant prendre qu’une série de valeurs nettes (1, 2, 3…
paquets). Les mathématiciens diraient que le continu a été remplacé par
le discret. Bohr compris que cela pouvait être une tendance très générale
dans le nouveau type de physique qui naissait lentement. Il appliqua
aux atomes des principes similaires à ceux que Planck avait appliqués
aux radiations. Un physicien classique aurait supposé que les électrons
tournoyant autour d’un noyau pouvaient le faire sur des orbites dont
les rayons avaient la capacité de prendre n’importe quelle valeur. Bohr
proposa de remplacer cette possibilité continue par l’exigence discrète
que les rayons ne puissent prendre qu’une série de valeurs distinctes
que l’on pourrait énumérer (première, deuxième, troisième… niveaux).
Il fit également une suggestion précise sur la façon dont ces rayons
possibles étaient déterminés, en utilisant une formule qui impliquait la
constante de Planck, h. (La proposition concernait le moment angulaire,
une mesure du mouvement rotatif de l’électron mesuré dans les mêmes
unités physiques que h.)
Deux conséquences découlent de ces propositions. La première est
la propriété hautement souhaitable de rétablir la stabilité des atomes.
Une fois qu’un électron était dans l’état correspondant au rayon le plus
faible autorisé (qui était aussi l’état de la plus faible énergie), il n’avait
nulle part où aller et ne pouvait donc plus perdre d’énergie. L’électron
pouvait arriver à cet état le plus bas en perdant de l’énergie lorsqu’il
passait d’un état de rayon plus élevé. Bohr a supposé que lorsque cela
se produirait, l’énergie excédentaire serait émise comme un seul photon.
Les calculs ont montré que cette idée a conduit directement à la deu-
xième conséquence de l’hypothèse audacieuse de Bohr, la prédiction de

 24 
 Les « fissures » de la physique classique 

la formule de Balmer pour les raies spectrales. Après presque trente ans,
cette mystérieuse formule numérique est passée d’une bizarrerie inex-
plicable à une propriété intelligible de la nouvelle théorie des atomes. La
netteté des raies spectrales était considérée comme le reflet de la nature
discrète qui commençait à être reconnue comme une caractéristique de
la pensée quantique. Le mouvement en spirale continue auquel on aurait
pu s’attendre sur la base de la physique classique avait été remplacée
par un « saut quantique » fortement discontinu d’une orbite d’un rayon
autorisé à une orbite d’un rayon autorisé mais inférieur.
L’atome de Bohr fut un grand triomphe. Mais il était né d’une sorte de
« bricolage » inspiré de ce qui était encore, à bien des égards, de la phy-
sique classique. Le travail de pionnier de Bohr correspondait, en réalité,
à une réparation substantielle de l’édifice sérieusement endommagé de
la physique classique. Les tentatives d’extension de ces concepts se sont
rapidement heurtées à des difficultés et à des incohérences. La « vieille
théorie quantique », comme on a fini par appeler ces essais, était une
combinaison difficile et inconciliable des idées classiques de Newton
et Maxwell avec les formulations quantiques de Planck et Einstein. Les
travaux de Bohr constituaient une étape essentielle dans l’histoire de la
physique quantique, mais ils ne pouvaient être qu’une étape sur la voie
de la « nouvelle théorie quantique », un compte rendu totalement intégré
et cohérent de ces étranges idées. Pour en arriver là, il fallait découvrir
un autre phénomène important qui soulignait encore plus l’inévitable
nécessité de trouver un moyen de faire face à la pensée quantique.

EFFET COMPTON
En 1923, le physicien américain Arthur Compton étudia la diffusion
des rayons X (rayonnement électromagnétique à haute fréquence) par
la matière. Il découvrit que la fréquence des radiations diffusées était
modifiée. Sur un diagramme d’onde, cela ne pouvait pas être expliqué.
L’idée était que le processus de diffusion serait dû au fait que les électrons
des atomes absorbent et réémettent l’énergie des ondes incidentes,
et que cela se produirait sans changement de fréquence. En revanche,

 25 
 La théorie quantique 

sur un diagramme de photons, le résultat peut s’expliquer facilement. Il


s’agirait d’une collision entre une « boule de billard » et un photon, au
cours de laquelle le photon perdrait une partie de son énergie au profit
de l’électron. Selon la formule de Planck, le changement d’énergie est le
même que le changement de fréquence. Compton a ainsi pu donner une
explication quantitative de ses observations expérimentales et fournir
ainsi les preuves les plus convaincantes à ce jour du caractère particulaire
des rayonnements électromagnétiques.
Si la série de découvertes évoquée dans ce chapitre a pu en laisser
certains perplexes, elle ne devait pas rester longtemps sans réponse. Deux
ans après les travaux de Compton, des progrès théoriques substantiels
et durables ont été réalisés. La lumière de la nouvelle théorie quantique
commençait à poindre.

 26 
2
La lumière de l’aube
apparaît

Les années qui suivirent la proposition pionnière de Max Planck repré-


sentent une période de confusion et d’obscurité pour la communauté
des physiciens. La lumière, c’était des ondes ; la lumière, c’était aussi des
particules. Des modèles à succès fascinant, tels que l’atome de Bohr,
prédisaient qu’une nouvelle théorie physique était sur le point d’être
révélée, mais la mise en place imparfaite de ces « patchs » quantiques sur
les ruines de la physique classique indiquait surtout qu’il allait falloir plus
de perspicacité avant qu’une image cohérente puisse émerger. Lorsque
la lumière de l’aube pointa, elle le fit avec toute la soudaineté d’un lever
de soleil tropical.
Les années 1925 et 1926 ont vu la théorie quantique moderne prendre
toute son ampleur. Ces anni mirabiles restent un épisode de grande impor-
tance dans la mémoire populaire de la communauté de la physique
théorique, et on s’en souvient encore avec émerveillement bien que
notre mémoire actuelle n’ait plus accès à ces temps héroïques. Lorsque
des aspects fondamentaux de la théorie physique sont remis en question,
on peut entendre : « J’ai l’impression que nous sommes de nouveau en 1925. »
Une telle remarque est empreinte de nostalgie. Comme l’a dit le poète
Wordsworth à propos de la Révolution française : « Quel ravissement
d’être en vie à cette aube-là, mais y être et jeune fut le paradis même. » Bien
que de nombreux progrès importants aient été réalisés au cours des
soixante-quinze dernières années, aucune nouvelle révision radicale des
principes physiques, de l’ampleur de celle qui a accompagné la naissance
de la théorie quantique, n’a été nécessaire.

 27 
 28 
 La théorie quantique 

Fig. 2  Le grand et le bon de la théorie quantique : le congrès Solvay de 1927. © International Institutes of Physics &
Chemistry, Bruxelles.
 La lumière de l’aube apparaît 

Deux hommes en particulier ont amorcé le mouvement de la révo-


lution quantique, avançant presque simultanément de nouvelles idées
surprenantes.

LA MÉCANIQUE MATRICIELLE
L’un d’eux était un jeune théoricien allemand, Werner Heisenberg
qui travailla avec acharnement pour comprendre les détails spécifiques
des spectres atomiques.
La spectroscopie joua un rôle très important dans le développement
de la physique moderne. L’une des raisons en est que les techniques
expérimentales de mesure des fréquences des raies spectrales sont
capables d’une grande précision, de sorte qu’elles donnent des résultats
très fins mais qui, en même temps, posent des problèmes très précis
aux théoriciens. Nous en avons déjà vu un exemple simple dans le cas
du spectre de l’hydrogène, avec la formule de Balmer et l’explication
donnée par Bohr, en fonction de son propre modèle atomique. À partir
de ce moment, les choses se compliquèrent et Heisenberg mena une
attaque beaucoup plus large et ambitieuse des propriétés spectrales en
général. Alors qu’il récupérait d’une grave crise de rhume des foins sur
l’île de Helgoland dans la mer du Nord, il fit sa grande percée. Les calculs
semblaient assez compliqués mais, lorsque la complexité mathématique
se dissipa, il apparut que ce qui avait été impliqué était la manipulation
d’entités mathématiques appelées matrices (des tableaux de nombres
qui se multiplient ensemble d’une manière spéciale). C’est pourquoi la
découverte d’Heisenberg a été connue sous le nom de « mécanique des
matrices ». Les idées sous-jacentes réapparaîtront un peu plus tard sous
une forme encore plus générale. Pour l’instant, notons simplement que
les matrices diffèrent des nombres simples en ce sens qu’elles ne com-
mutent généralement pas. C’est-à-dire que si A et B sont deux matrices,
le produit AB et le produit BA ne sont généralement pas les mêmes.
L’ordre de multiplication importe, contrairement aux nombres, où 2 × 3 et
3 × 2 font 6. Il s’est avéré que cette propriété mathématique des matrices
a une signification physique importante liée aux q­ uantités pouvant être

 29 
 La théorie quantique 

mesurées simultanément en mécanique quantique. [Voir 4 pour une


autre généralisation mathématique nécessaire pour le développement
complet de la théorie quantique].
En 1925, les matrices étaient aussi exotiques pour le physicien théo-
rique moyen qu’elles peuvent l’être aujourd’hui pour le lecteur moyen
de ce livre peu familier des mathématiques. Les physiciens de l’époque
connaissaient beaucoup mieux les mathématiques associées au mouve-
ment des ondes (impliquant des équations aux dérivées partielles). Elles
faisaient appel à des techniques standardisées de la physique classique
du type de celles que Maxwell avait développées. Dans la foulée de
la découverte de Heisenberg, une version très différente de la théorie
quantique, basée sur les équations d’ondes, beaucoup plus conviviales,
a vu le jour.

LA MÉCANIQUE ONDULATOIRE
Cette deuxième approche et explication de la théorie quantique fut
appelée, à juste titre, la « mécanique des ondes ». Bien que sa version
complète fût découverte par le physicien autrichien Erwin Schrödinger,
un pas dans la bonne direction avait été fait un peu plus tôt dans les
travaux d’un jeune aristocrate français, le prince Louis de Broglie [5].
Ce dernier avait audacieusement suggéré que si la lumière ondulatoire
présentait également des propriétés semblables à celles des particules,
peut-être fallait-il s’attendre à ce que des particules telles que les élec-
trons présentent aussi, par analogie, des propriétés ondulatoires. Ainsi,
de Broglie donna à cette idée sa forme quantitative, en généralisant la
formule de Planck. Ce dernier avait rendu la propriété particulaire de
l’énergie proportionnelle à la propriété ondulatoire de la fréquence. De
Broglie suggéra qu’une autre propriété des particules, leur « moment »,
c’est-à-dire la quantité de mouvement (une quantité physique significa-
tive, bien définie et correspondant approximativement au « moment »,
c’est-à-dire la quantité de mouvement persistant que possède une
particule), devrait être liée de façon analogue à une autre propriété
ondulatoire, la longueur d’onde, la constante universelle de Planck étant

 30 
 La lumière de l’aube apparaît 

à nouveau la constante de proportionnalité pertinente. Ces équivalences


fournirent une sorte de mini-dictionnaire permettant de passer des par-
ticules aux ondes, et vice-versa. En 1924, de Broglie exposa ces idées dans
sa thèse de doctorat. Les autorités de l’Université de Paris, d’habitude
méfiantes envers des notions aussi hétérodoxes, jugèrent heureusement
bon de consulter en parallèle Einstein. Celui-ci reconnut le génie du
jeune homme et le diplôme de docteur ès sciences lui fut décerné. En
quelques années seulement, des expériences menées par Davisson et
Germer aux États-Unis, et celles de George Thomson, en Angleterre, ont
pu mettre en évidence l’existence de schémas d’interférence lorsqu’un
faisceau d’électrons interagit avec un réseau cristallin, confirmant ainsi
que les électrons manifestent effectivement un comportement ondu-
latoire. Louis de Broglie reçut le prix Nobel de physique en 1929. George
Thomson était le fils de J. J. Thomson. On a souvent fait remarquer que
le père remporta le prix Nobel pour avoir montré que l’électron est une
particule, tandis que le fils se vit décerner le prix Nobel pour avoir montré
que l’électron est une onde.
Les idées que de Broglie développa étaient basées sur une analyse
contradictoire des propriétés des particules en mouvement libre. Pour
parvenir à une théorie dynamique complète, il fallait une généralisation
supplémentaire afin de tenir compte et d’incorporer ces interactions.
C’est le problème que Schrödinger réussit à résoudre. Début 1926, il publia
la célèbre équation qui porte aujourd’hui son nom [6]. Il la découvrit en
s’appuyant sur une analogie tirée de l’optique.
Bien que les physiciens du xixe siècle aient pensé que la lumière
était constituée d’ondes, ils n’ont pas toujours utilisé les techniques de
calcul du mouvement des ondes pour comprendre ce qui se passait. Si
la longueur d’onde de la lumière était petite par rapport aux dimensions
définissant le problème, il était possible d’employer une méthode bien
plus simple. Il s’agit de l’approche de l’optique géométrique, selon laquelle
la lumière se déplace en rayons linéaires réfléchis ou réfractés suivant
des règles simples. Les calculs de physique scolaire des systèmes élémen-
taires de lentilles et de miroirs sont aujourd’hui effectués de la même

 31 
 La théorie quantique 

manière, sans que les calculateurs n’aient à se soucier des complexités


d’une équation d’onde. La simplicité de l’optique des rayons appliquée à
la lumière est similaire à celle du tracé des trajectoires en mécanique des
particules. Si cette dernière devait s’avérer n’être qu’une approximation
d’une mécanique ondulatoire sous-jacente, Schrödinger soutint que cette
mécanique ondulatoire pourrait être découverte en inversant le type de
considérations qui avaient conduit de l’optique ondulatoire à l’optique
géométrique. C’est ainsi que Schrödinger découvrit l’équation.
Schrödinger a publié ses idées quelques mois seulement après la
présentation, faite à la communauté des physiciens par Heisenberg, de
sa théorie de la mécanique matricielle. À l’époque, Schrödinger avait
38 ans, fournissant un contre-exemple remarquable à l’affirmation, éma-
nant souvent de non-scientifiques, selon laquelle les physiciens théori-
ciens accomplissent leur travail le plus original avant 25 ans. L’équation
de Schrödinger est l’équation dynamique fondamentale de la théorie
quantique. C’est un type d’équation différentielle partielle assez simple,
familier à l’époque pour les physiciens et pour lequel ils possédaient
une formidable batterie de techniques de résolutions mathématiques.
Elle était beaucoup plus facile à utiliser que les nouvelles méthodes
matricielles de Heisenberg.
Les chercheurs purent appliquer sans tarder ces idées à une variété
de problèmes physiques spécifiques. Schrödinger lui-même déduisit de
son équation la formule de Balmer pour le spectre de l’hydrogène.
Ce calcul a montré à quel point Bohr était à la fois proche et éloigné
de la vérité en bricolant la vieille théorie quantique. (Le moment angulaire
était important, mais pas exactement de la même manière que Bohr
avait proposée.)

LA MÉCANIQUE QUANTIQUE
Il était clair que Heisenberg et Schrödinger avaient réalisé des
avancées impressionnantes. Pourtant, ils présentèrent leurs nouveaux
travaux d’une manière différente qu’il ne fut pas aisé de savoir s’ils

 32 
 La lumière de l’aube apparaît 

avaient fait la même découverte, mais exprimée différemment, ou s’il


y avait deux propositions rivales sur la table [voir la discussion de 10].
Un important travail de clarification suivit immédiatement, auquel Max
Born à Göttingen et Paul Dirac à Cambridge contribuèrent de manière
particulièrement significative. Il s’est vite avéré qu’il existait une théorie
unique, fondée sur des principes généraux communs, dont l’articula-
tion mathématique pouvait revêtir diverses formes équivalentes. Ces
principes généraux furent finalement exposés de la manière la plus
transparente dans Les Principes de la mécanique quantique de Dirac, publié
pour la première fois en 1930 et qui constitue l’un des classiques de très
haut niveau du xxe siècle. La préface de la première édition commence
par une affirmation d’une simplicité trompeuse : « Les méthodes de progrès
obtenus dans la physique théorique ont subi d’importants changements
au cours du siècle en cours. » Nous devons maintenant considérer
l’image transformée de la nature du monde physique que ces vastes
changements ont amenée.
J’ai personnellement appris la mécanique quantique directement de
« la bouche du cheval » comme disent les Anglo-Saxons, c’est-à-dire, à
la source. J’ai pu assister au fameux cours sur la théorie quantique que
Dirac assura à Cambridge pendant plus de 30 ans. Le public comprenait
non seulement des étudiants de dernière année comme moi, mais aussi
souvent des visiteurs de haut niveau qui ont pensé, à juste titre, que ce
serait un privilège d’entendre à nouveau l’histoire, qu’ils connaissaient
probablement dans les grandes lignes, de la bouche de l’homme qui en
avait été l’un des exceptionnels protagonistes. Les conférences ont suivi
de près le modèle du livre de Dirac. Il est impressionnant de constater
que le conférencier n’a absolument pas mis l’accent sur sa considérable
contribution personnelle à ces grandes découvertes. À l’occasion, j’ai parlé
de Dirac comme d’une sorte de saint scientifique, pour la pureté de son
esprit et la singularité de son but. Les conférences captivaient par leur
clarté et le déroulement majestueux de leur raisonnement, aussi satis-
faisant et apparemment inévitable que le développement d’une fugue
de Bach. Elles étaient totalement dépourvues de tout artifice rhétorique,
bien qu’au début, Dirac s’autorisa un geste légèrement théâtral.

 33 
 La théorie quantique 

Il prit un morceau de craie et le brisa en deux. En plaçant un frag-


ment d’un côté de son pupitre et l’autre de l’autre côté. Dirac dit alors
que pour la physique classique, il y a un état où le morceau de craie
est « ici » et un autre état où le morceau de craie est « là », ce sont les
deux seules possibilités. Si on remplace la craie par un électron, dans le
monde quantique, il n’y a pas seulement des états « ici » et « là », mais
aussi toute une série d’autres états qui sont des mélanges de ces deux
possibilités – un peu d’« ici » et un peu de « là » qui s’ajoutent. La théorie
quantique permet de mélanger des états qui, « classiquement », s’exclu-
raient mutuellement. C’est cette possibilité contre-intuitive d’addition
qui distingue le quantum du monde quotidien de la physique classique
[7]. Dans le jargon professionnel, cette nouvelle possibilité est appelée
le principe de superposition.

LES DOUBLES FENTES ET LA SUPERPOSITION


Les conséquences radicales qui découlent de l’hypothèse de la super-
position sont bien illustrées par ce que l’on appelle « l’expérience des
doubles fentes ». Richard Feynman, le fougueux prix Nobel de physique
qui a captivé l’imagination populaire par ses livres d’anecdotes, a décrit
ce phénomène comme se situant « au cœur de la mécanique quantique ».
Il estimait qu’il fallait avaler la théorie quantique tout entière, sans se
soucier du goût ou de la digestibilité. Cela pouvait se faire en avalant
toute crue l’expérience des doubles fentes
En réalité, il contient le seul mystère. Nous ne pouvons pas faire disparaître
ce mystère en « expliquant » son fonctionnement. Nous vous expliquerons
simplement comment il fonctionne. Et en vous expliquant comment elle
fonctionne, nous vous aurons parlé des particularités fondamentales de
toute la mécanique quantique.
Après une telle promesse, le lecteur ne peut que souhaiter se fami-
liariser avec ce phénomène intrigant. L’expérience de Feynman implique
une source d’entités quantiques, soit un canon à électrons qui tire un
flux constant de particules. Ces particules frappent un écran dans lequel

 34 
 La lumière de l’aube apparaît 

figure de diffraction

Fig. 3  L’expérience de la double fente.

il y a deux fentes, A et B. Au-delà de cet écran, il y a un écran détecteur


qui peut enregistrer l’arrivée des électrons. Il peut s’agir d’une grande
plaque photographique sur laquelle chaque électron incident fera une
marque. Le débit du canon à électrons est réglé de manière à ce qu’un
seul électron traverse le dispositif à chaque moment dans le temps.
Observons alors ce qui se passe.
Les électrons arrivent l’un après l’autre sur l’écran du détecteur, et
pour chacun, on voit apparaître une marque correspondante et qui enre-
gistre son point d’impact. Ceci manifeste le comportement individuel des
électrons en mode particulaire. Cependant, lorsqu’un grand nombre de
marques se sont accumulés sur l’écran du détecteur, nous constatons
que le modèle « collectif » qu’ils ont créé prend la forme familière d’un
effet d’interférence. Il y a une tache sombre intense sur l’écran à l’opposé
du point à mi-chemin entre ses deux fentes, correspondant à l’endroit
où le plus grand nombre de marques électroniques ont été déposées. De
part et d’autre de cette bande centrale, il y a des bandes alternativement
claires et de moins en moins sombres, correspondant respectivement à la
non-arrivée et à l’arrivée des électrons à ces endroits-là. Un tel schéma

 35 
 La théorie quantique 

de diffraction (comme les physiciens appellent ces effets d’interférence)


est la signature indiscutable d’électrons qui se comportent en mode
ondulatoire.
Ce phénomène est un exemple parfait de la dualité onde électro-
nique/particule. Les électrons arrivant un par un se comportent comme
des particules ; le modèle d’interférence qui en résulte est un comporte-
ment ondulatoire. Mais il y a quelque chose de beaucoup plus intéressant
encore. Approfondissons un peu plus ce qui se passe en posant la ques-
tion suivante : lorsqu’un seul électron indivisible traverse l’appareil, par
quelle fente passe-t-il pour atteindre l’écran du détecteur ? Supposons
qu’il passe par la fente supérieure A. Dans ce cas, cela signifierait que la
fente inférieure B n’était vraiment pas pertinente et qu’elle aurait tout
aussi bien pu être fermée temporairement. Avec seulement la fente A
ouverte, l’électron ne serait pas le plus susceptible d’arriver au milieu
de l’écran lointain, mais de se retrouver au point opposé à A. Comme
ce n’est pas le cas, nous concluons que l’électron n’a pas pu passer par
A. En inversant ce raisonnement, nous concluons que l’électron n’a pas
pu passer par B non plus. Que se passe-t-il alors ? Ce « bon et grand »
homme, Sherlock Holmes, aimait à dire que lorsque vous avez éliminé
l’impossible, tout ce qui reste doit être vrai, aussi improbable que cela
puisse paraître. L’application de ce principe holmésien nous amène à
la conclusion que l’électron indivisible est passé par les deux fentes. En
termes d’intuition classique, c’est une conclusion absurde. En revanche,
en invoquant le principe de superposition de la théorie quantique, elle
devient parfaitement logique. L’état de mouvement de l’électron était
l’addition des états (passant par A) et (passant par B).
Le principe de superposition nous livre deux caractéristiques très
générales de la théorie quantique. La première est qu’il n’est plus possible
de se faire une idée précise de ce qui se passe au cours d’un proces-
sus physique. Vivant comme nous le faisons dans le monde quotidien
(classique), il nous est impossible de visualiser une particule indivisible
passant par les deux fentes. L’autre conséquence est qu’il n’est plus pos-
sible de prévoir exactement ce qui se passera lorsque nous ferons une

 36 
 La lumière de l’aube apparaît 

o­ bservation. Supposons que nous modifions l’expérience des doubles


fentes en plaçant un détecteur près de chacune des deux fentes, afin de
pouvoir déterminer par quelle fente un électron est passé. Il s’avère que
cette modification de l’expérience aurait deux conséquences. La première
est que l’électron serait parfois détecté près de la fente A et parfois près
de la fente B. Il serait impossible de prédire où il se trouverait à un instant
donné mais, sur une longue série d’essais, les probabilités relatives asso-
ciées aux deux fentes seraient de 50-50. Cela illustre la caractéristique
générale selon laquelle, dans les prédictions de la théorie quantique, les
résultats des mesures sont de nature statistique et non déterministe. La
théorie quantique traite des probabilités plutôt que des certitudes. L’autre
conséquence de cette modification de l’expérience serait la destruction
du dessin d’interférence tel qu’il apparaît sur l’écran final. Les électrons
ne tendraient plus vers le point central de l’écran du détecteur mais ils
se répartiraient de manière égale entre ceux qui arrivent en face de A
et ceux qui arrivent en face de B. En d’autres termes, le comportement
que l’on identifie dépend de ce que l’on choisit de chercher. Poser une
question en forme de particule (quelle fente ?) donne une réponse en
forme de particule ; poser une question en forme d’onde (uniquement
sur le motif final accumulé sur l’écran du détecteur) donne une réponse
en forme d’onde.

PROBABILITÉS
C’est Max Born à Göttingen qui, le premier, souligna clairement le
caractère probabiliste de la théorie quantique, une réalisation pour
laquelle il ne reçut son prix Nobel bien mérité qu’en 1954. L’avènement
de la mécanique ondulatoire avait soulevé la fameuse question des
ondes, mais quelles ondes ? Au départ, on supposa qu’il pouvait s’agir
d’ondes de la matière, de sorte que c’était l’électron lui-même qui se
déployait de cette manière ondulatoire. Born se rendit vite compte que
cette idée n’était pas satisfaisante. Elle ne pouvait pas s’accommoder
des propriétés particulaires. L’équation de Schrödinger décrit plutôt des
ondes de probabilité. Ce développement ne fut pas accepté par tous les

 37 
 La théorie quantique 

pionniers qui conservaient avec force les instincts déterministes de la


physique classique. De Broglie et Schrödinger furent désillusionnés par
la physique quantique lorsqu’on leur présenta son caractère probabiliste.
L’interprétation probabiliste impliquait que les mesures devaient
être des occasions de changement instantané et de discontinuité. Si un
électron se trouvait dans un état où la probabilité était répartie « ici »,
« là » et, peut-être, « partout », lorsque sa position était mesurée et
qu’on découvrait qu’il était, à cet instant, « ici », alors la distribution de
probabilité devait changer soudainement, se concentrant uniquement
sur la position réellement mesurée, « ici ». Puisqu’il faut calculer la dis-
tribution de probabilité à partir de la fonction d’onde, celle-ci doit aussi
changer de manière discontinue, un comportement que l’équation de
Schrödinger elle-même ne prédisait pas. Ce phénomène de changement
soudain, appelé « réduction du paquet d’ondes », était une condition
supplémentaire qui devait être imposée à la théorie de l’extérieur. Nous
verrons dans le prochain chapitre que le processus de mesure continue
à susciter des perplexités quant à la manière de comprendre et d’in-
terpréter la théorie quantique. Chez quelqu’un comme Schrödinger, la
question suscite plus que de la perplexité. Elle l’a rempli de dégoût et il
déclara que s’il avait su que ses idées conduiraient à ces « satanés sauts
quantiques », il n’aurait pas souhaité découvrir son équation !

OBSERVABLES
(Avertissement au lecteur : cette section comprend quelques idées
mathématiques simples mais qui nécessitent un effort pour les assimiler,
et de la concentration pour les digérer. C’est la seule section du texte qui
ose proposer une rencontre avec les mathématiques. Cela risque d’être
un peu ardu pour le non-mathématicien, je m’en excuse).
La physique classique décrit un monde qui est clair et déterministe. La
physique quantique décrit un monde qui est nuageux mais approprié. En
ce qui concerne le formalisme (expression mathématique de la théorie),
nous avons vu que ces propriétés découlent du fait que le principe de

 38 
 La lumière de l’aube apparaît 

Fig. 4  L’addition des vecteurs.

superposition quantique permette de mélanger des états qui, classique-


ment, seraient strictement immiscibles. Ce simple principe d’additivité
contre-intuitive trouve une forme naturelle d’expression mathématique
en termes de ce qu’on appelle les espaces vectoriels [7].
Un vecteur dans l’espace ordinaire peut être considéré comme une
flèche, avec une longueur donnée et pointant dans une direction donnée.
Les flèches peuvent être additionnées simplement en se suivant les unes
les autres. Par exemple, cinq km vers le nord, suivis de trois km vers l’est,
cela donne cinq km dans une direction 37° à l’est du nord (voir figure 4).
Les mathématiciens peuvent généraliser ces idées en les étendant à des
espaces à n’importe quel nombre de dimensions. La propriété essentielle
de tous les vecteurs est qu’ils peuvent être ­additionnés. Ils fournissent

 39 
 La théorie quantique 

ainsi une contrepartie mathématique naturelle au principe de super-


position quantique. Les détails n’ont pas besoin de nous préoccuper ici,
mais, comme il est toujours bon de se sentir à l’aise avec la termino-
logie, il convient de remarquer qu’une forme particulièrement sophis-
tiquée d’espace vectoriel, appelé espace de Hilbert, fournit le ­véhicule
­mathématique idoine pour aborder la théorie quantique.
Jusqu’à présent, la discussion s’est concentrée sur les états de mou-
vement. On peut penser qu’ils résultent de manières spécifiques pour
préparer le matériau initial d’une expérience : le tir d’électrons à partir
d’un canon à électrons ;le passage de la lumière à travers un système
optique particulier ; la déviation de particules par un ensemble par-
ticulier de champs électriques et magnétiques ; et ainsi de suite. On
peut considérer que l’état est « ce qu’il en est » pour le système qui a
été préparé, bien que l’imprévisibilité visuelle de la théorie quantique
signifie que ce ne sera pas une question aussi claire et simple qu’elle le
serait en physique classique. Si le physicien veut savoir quelque chose
de plus précis (où se trouve réellement l’électron ?), il devra faire une
observation, impliquant une intervention expérimentale sur le système.
Par exemple, l’expérimentateur peut souhaiter mesurer une quantité
dynamique particulière, comme la position ou la quantité de mouvement
d’un électron. La question formelle se pose alors : si l’état est représenté
par un vecteur, comment représenter les observables qui peuvent être
mesurés ? La réponse se trouve dans les opérateurs qui agissent dans
l’espace de Hilbert. Ainsi, le schéma reliant le formalisme mathématique
à la physique inclut non seulement la spécification que les vecteurs
correspondent à des états, mais aussi que les opérateurs correspondent
à des observables [8].
L’idée générale d’un opérateur est qu’il s’agit de quelque chose qui
transforme un état en un autre. Un exemple simple est fourni par les
opérateurs de rotation. Dans l’espace tridimensionnel ordinaire, une rota-
tion de 90 o autour de la verticale (on invoque la règle du tire-­bouchon)
transforme un vecteur (pensez à une flèche) pointant vers l’est en un
vecteur (flèche) pointant vers le nord.

 40 
 La lumière de l’aube apparaît 

Fig. 5  Les rotations non commutantes.

Une propriété importante des opérateurs est qu’ils ne commutent


généralement pas entre eux, c’est-à-dire que l’ordre dans lequel ils
agissent est significatif. Considérons deux opérateurs : R1, une rotation

 41 
 La théorie quantique 

de 90o autour de la verticale ; R2, une rotation de 90 o (toujours à gauche)


autour d’un axe horizontal pointant vers le nord. Appliquez-les dans
l’ordre R1 suivi de R2 sur une flèche pointant vers l’est. R1 transforme cela
en une flèche pointant vers le nord, qui est alors inchangée par R2. Nous
représentons les deux opérations effectuées dans cet ordre comme le
produit R2.R1, puisque les opérateurs, comme l’hébreu et l’arabe, sont
toujours lus de droite à gauche. En appliquant les opérateurs dans l’ordre
inverse, on transforme d’abord la flèche vers l’est en une flèche pointant
vers le bas (effet de R2), qui est ensuite laissée inchangée (effet de R1).
Puisque R2.R1 se termine par une flèche pointant vers le nord et R1.R2
se termine par une flèche pointant vers le bas (vers le sud). Ces deux
produits sont tout à fait distincts l’un de l’autre. L’ordre importe – les
rotations ne commutent pas.
Les mathématiciens reconnaîtront que les matrices peuvent égale-
ment être considérées comme des opérateurs, et la non-commutativité
des matrices utilisées par Heisenberg est donc un autre exemple spéci-
fique de cette propriété générale des opérateurs.
Tout cela peut sembler assez abstrait, mais la non-commutativité
s’avère être la contrepartie mathématique d’une propriété physique
importante. Pour voir comment cela se produit, il faut d’abord établir
comment le formalisme des opérateurs pour les observables est lié aux
résultats réels des expériences. Les opérateurs sont des entités mathé-
matiques assez sophistiquées, mais les mesures sont toujours exprimées
sous forme de nombres non-sophistiqués, comme 2,7 unités de n’importe
quelle entité. Si la théorie abstraite doit donner un sens aux observations
physiques, il doit y avoir un moyen d’associer les nombres (les résultats
des observations) aux opérateurs (le formalisme mathématique). Heu-
reusement, les mathématiques s’avèrent être à la hauteur de ce défi. Les
idées clés sont les vecteurs propres et les valeurs propres [8].
Parfois, un opérateur agissant sur un vecteur ne change pas la
direction de ce vecteur. Un exemple serait une rotation autour de l’axe
vertical, qui laisse un vecteur vertical complètement inchangé. Un autre
exemple serait l’opération d’étirement dans la direction verticale. Cela

 42 
 La lumière de l’aube apparaît 

ne changerait pas la direction d’un vecteur vertical, mais modifierait sa


longueur. Si l’étirement a un effet de doublement, la longueur du vecteur
vertical est multipliée par 2. En termes plus généraux, nous disons que
si un opérateur O transforme un vecteur particulier υ en un multiple λ
de lui-même, alors υ est un vecteur propre de O avec une valeur propre
λ. L’idée essentielle est que les valeurs propres (λ) donnent une façon
mathématique d’associer des nombres à un opérateur particulier (O) et
à un état particulier (υ). Les principes généraux de la théorie quantique
comprennent l’exigence audacieuse qu’un vecteur propre (également
appelé état propre) corresponde physiquement à un état dans lequel, en
mesurant la quantité observable O, donnera avec certitude le résultat λ.
Un certain nombre de conséquences importantes découlent de cette
règle. L’une d’entre elles est l’implication réciproque : comme il existe
de nombreux vecteurs qui ne sont pas des vecteurs propres, il y aura de
nombreux états dans lesquels la mesure de O ne donnera aucun résultat
particulier avec certitude. (Mathematica® mis de côté : il est assez facile de
voir que la superposition de deux états propres de O qui correspondent à
des valeurs propres différentes donnera un état qui ne peut être un simple
état propre de O). La mesure de O dans des états de ce dernier type doit
donc donner une variété de réponses différentes à différents moments
de mesure. (Le caractère probabiliste bien connu de la théorie quantique
se manifeste à nouveau.) Quel que soit le résultat effectivement obtenu,
l’état conséquent doit alors lui correspondre ; c’est-à-dire que le vecteur
doit changer instantanément pour devenir le vecteur propre approprié
de O. C’est la version sophistiquée de la réduction du paquet d’ondes.
Une autre conséquence importante concerne les mesures qui peuvent
être mutuellement compatibles, c’est-à-dire effectuées en même temps.
Supposons qu’il soit possible de mesurer simultanément O1 et O2, avec les
résultats λ1 et λ2, respectivement. En procédant ainsi dans un ordre, on
multiplie le vecteur d’état par λ1 puis par λ2, tandis qu’en inversant l’ordre
des observations, on inverse simplement l’ordre dans lequel λ multiplie
le vecteur d’état. Comme les λ ne sont que des nombres ordinaires, cet
ordre n’a pas d’importance. Cela implique qu’O2 O1 et O1 O2 agissant sur le

 43 
 La théorie quantique 

vecteur d’état ont des effets identiques, de sorte que l’ordre de l’opérateur
n’a pas d’importance. En d’autres termes, les mesures simultanées ne
peuvent être mutuellement compatibles que pour les observables qui
correspondent à des opérateurs qui commutent entre eux. Dans l’autre
sens, les observables qui ne commutent pas ne seront pas mesurables
simultanément.
Nous voyons ici se manifester à nouveau la « nébulosité » familière
de la théorie quantique. En physique classique, l’expérimentateur peut
mesurer ce qu’il veut, quand il le veut. Le monde physique est présenté
sous l’œil potentiellement perçant et avisé du scientifique. Dans le monde
quantique, en revanche, la vision du physicien est partiellement voilée.
Notre accès à la connaissance des entités quantiques est épistémologi-
quement plus limité que ne le supposait la physique classique.
Notre « flirt » mathématique avec les espaces vectoriels est terminé.
Les lecteurs un peu déroutés doivent simplement retenir qu’en théorie
quantique, seuls les objets observables dont les opérateurs commutent
entre eux peuvent être mesurés simultanément.

LE PRINCIPE D’INCERTITUDE
Ce que cela signifie fut considérablement clarifié par Heisenberg
en 1927 lorsqu’il formula son célèbre principe d’incertitude. Il se rendit
compte que la théorie devait préciser ce qu’elle permettait de savoir par le
biais de mesures. Le souci d’Heisenberg ne portait pas sur les arguments
mathématiques du type de ceux que nous venons d’examiner, mais sur
des « expériences de pensée » idéalisées qui cherchaient à explorer le
contenu physique de la mécanique quantique. L’une de ces expériences
de pensée a consisté à étudier le microscope à rayons γ.
En principe, l’idée est de découvrir avec quelle précision on pourrait
mesurer la position et la quantité de mouvement d’un électron. Selon les
règles de la mécanique quantique, les opérateurs correspondants ne se
déplacent pas. Par conséquent, si la théorie fonctionne réellement, il ne
devrait pas être possible de connaître les valeurs de la position et de la

 44 
 La lumière de l’aube apparaît 

quantité de mouvement avec une précision arbitraire. Heisenberg voulait


comprendre en termes physiques pourquoi il en était ainsi. Commençons
par essayer de mesurer la position de l’électron. Une façon de le faire
serait d’éclairer l’électron, puis de regarder dans un microscope pour
voir où il se trouve. (N’oubliez pas qu’il s’agit d’expériences de pensée.) Les
instruments optiques ont un pouvoir de résolution limité, ce qui réduit la
précision avec laquelle les objets peuvent être localisés. On ne peut pas
faire mieux que la longueur d’onde de la lumière utilisée. Bien sûr, une
façon d’améliorer la précision serait d’utiliser des longueurs d’onde plus
courtes – c’est là que les rayons γ entrent en jeu, puisqu’il s’agit de rayon-
nements à très haute fréquence (courte longueur d’onde). Cependant,
cette ruse a un coût, résultant du caractère particulaire du rayonnement.
Pour que l’électron soit visible, il doit faire dévier la trajectoire d’au moins
un photon dans le microscope. La formule de Planck implique que plus la
fréquence est élevée, plus le photon transporte d’énergie. Par conséquent,
la diminution de la longueur d’onde soumet l’électron à une perturbation
de plus en plus importante de son mouvement par sa collision avec le
photon. Il s’ensuit que l’on perd de plus en plus la connaissance de la
quantité de mouvement de l’électron après la mesure de sa position. Il y
a un compromis inévitable entre la précision croissante de la mesure de
position et la précision décroissante de la connaissance de l’impulsion.
Ce fait est à la base du principe d’incertitude : il n’est pas possible d’avoir
simultanément une connaissance parfaite de la position et de l’impulsion
[9]. Pour le dire plus clairement, on peut savoir où se trouve un électron,
mais ne pas savoir ce qu’il fait ; ou on peut savoir ce qu’il fait, mais ne
pas savoir où il se trouve. Dans le monde quantique, ce que le physicien
classique considérerait comme une demi-connaissance est le mieux que
nous puissions offrir.
Cette demi-connaissance est une caractéristique quantique. Les
observables se présentent par paires qui s’excluent épistémologique-
ment l’une l’autre. Un exemple quotidien de ce comportement peut
être donné en termes musicaux. Il n’est pas possible à la fois d’attribuer
un instant précis au moment où une note a été jouée et de savoir
­précisément quelle était sa hauteur. En effet, pour déterminer la h­ auteur

 45 
 La théorie quantique 

d’une note, il faut analyser la fréquence du son et, pour cela, il faut
écouter une note pendant une période qui dure plusieurs oscillations
avant de pouvoir faire une estimation précise. C’est la nature ondulatoire
du son qui impose cette restriction, et si les questions de mesure de la
théorie quantique sont discutées du point de vue de la mécanique des
ondes, des considérations exactement similaires ramènent au principe
d’incertitude.
L’histoire humaine derrière la découverte de Heisenberg est inté-
ressante. À l’époque, il travaillait à l’Institut de Copenhague, dont le
directeur était Niels Bohr. Bohr aimait les discussions interminables et
le jeune Heisenberg était l’un de ses interlocuteurs préférés. Au bout
d’un certain temps, les interminables ruminations de Bohr poussèrent
son jeune collègue presque à la distraction. Heisenberg était heureux
de saisir l’occasion offerte par l’absence de Bohr pendant ses vacances
au ski pour se consacrer à son propre travail et terminer son article sur
le principe d’incertitude. Il s’empressa ensuite de le publier avant que
le vénérable et vénéré Bohr ne revienne. À son retour, Bohr détecta
une erreur que Heisenberg avait commise. Heureusement, l’erreur put
être corrigée et cela n’affecta pas le résultat final. Cette petite erreur
concernait le pouvoir de résolution des instruments optiques. Il se trouve
qu’Heisenberg avait déjà rencontré des problèmes à ce sujet auparavant.
Il avait fait ses travaux de doctorat à Munich sous la direction d’Arnold
Sommerfeld, l’un des principaux protagonistes de l’ancienne théorie
quantique. Brillant théoricien, Heisenberg ne s’était pas beaucoup pré-
occupé des travaux expérimentaux qui devaient également faire partie
de ses études. Le collègue expérimentateur de Sommerfeld, Wilhelm
Wien, l’avait remarqué.
Comme il avait pris en grippe l’attitude cavalière du jeune homme,
il décida de la lui faire payer lors de l’examen oral. Il demanda alors à
Heisenberg de préciser par déduction le pouvoir de résolution de ses
instruments optiques ! Et ce dernier n’a pas su répondre. Après l’examen,
Wien affirma que cette lacune ne permettait pas à Heisenberg d’obtenir
son diplôme.

 46 
 La lumière de l’aube apparaît 

Sommerfeld, bien sûr (et à juste titre), plaida pour l’obtention de son
doctorat et au plus haut niveau (summa cum laude). En fin de compte, il
fallut trouver un compromis et le futur prix Nobel obtint son doctorat,
mais au niveau le plus bas possible.

LES AMPLITUDES PROBABILISTES


La façon dont les probabilités sont calculées dans la théorie quantique
se décline en ce que l’on appelle les amplitudes de probabilité. Pour bien
comprendre de quoi il s’agit, il faudrait rentrer dans des explications
mathématiquement trop exigeantes. Retenons deux aspects dont le
lecteur doit être conscient. Le premier est que ces amplitudes sont des
nombres complexes, c’est-à-dire qu’elles impliquent non seulement des
nombres ordinaires mais aussi i, la racine carrée « imaginaire » de -1. En
fait, les nombres complexes sont endémiques dans l’expression formaliste
de la théorie quantique. En effet, ils offrent une manière très pratique de
représenter un aspect des ondes que nous avons abordé au chapitre 1,
quand nous examinions les phénomènes d’interférence. Nous avons vu
que la phase des ondes est liée au fait que deux ensembles d’ondes sont
en phase ou en décalage l’un par rapport à l’autre (ou à toute possibi-
lité intermédiaire entre ces deux ensembles). Mathématiquement, les
nombres complexes constituent un moyen naturel et pratique d’exprimer
ces « relations de phase ». La théorie doit cependant veiller à ce que les
résultats des observations (valeurs propres) soient exempts de toute
contamination par des termes impliquant i. Pour ce faire, il faut que les
opérateurs correspondant aux observables satisfassent à une certaine
condition que les mathématiciens appellent « hermitienne » [8].
Le deuxième aspect des amplitudes de probabilité dont nous devons
au moins être informés est que, dans le cadre de l’appareil mathématique
de la théorie dont nous avons discuté, leur calcul s’avère impliquer une
combinaison de vecteurs d’état et d’opérateurs observables. Comme ce
sont ces « éléments matriciels » (comme on appelle ces combinaisons) qui
ont la signification physique la plus directe, et comme il s’avère qu’ils sont
formés de ce que l’on pourrait appeler des « sandwiches » observables,

 47 
 La théorie quantique 

la dépendance de la physique au temps peut être attribuée soit à une


dépendance au temps présente dans les vecteurs d’état, soit à une dépen-
dance au temps présente dans les observables. Cette observation s’avère
être un indice de la façon dont, malgré leurs différences apparentes, les
théories de Heisenberg et de Schrödinger correspondent en fait exac-
tement à la même physique [10]. Leur apparente dissemblance provient
du fait que Heisenberg attribue toute la dépendance temporelle des
opérateurs et que Schrödinger l’attribue entièrement aux vecteurs d’état.
Les probabilités elles-mêmes, qui, pour avoir un sens, doivent être des
nombres positifs, sont calculées à partir des amplitudes par une sorte de
quadrillage (appelé « le carré du module ») qui donne toujours un nombre
positif à partir de l’amplitude complexe. Il existe également une condition
de mise à l’échelle (appelée « normalisation ») qui garantit que lorsque
toutes les probabilités sont additionnées, elles totalisent 1 (signifiant que
quelque chose ait lieu, avec une certitude absolue).

COMPLÉMENTARITÉ
Au moment de ces merveilleuses découvertes, Copenhague était
le centre des évaluations et des verdicts rendus sur ce qui se passait.
Niels Bohr n’apportait alors plus de contributions détaillées aux pro-
grès techniques. Il restait cependant profondément intéressé par les
questions d’interprétation et c’est à son intégrité et à son discernement
que les jeunes effrontés, qui étaient en fait les auteurs des documents
pionniers, ont soumis leurs découvertes. Copenhague était la cour du
philosophe-roi, à qui les travaux intellectuels en mécanique quantique
de la nouvelle génération de scientifiques étaient présentés pour être
évaluées et reconnues.
Outre ce rôle de figure paternelle, Bohr offrit un aperçu perspicace de
la nouvelle théorie quantique, sous la forme de qu’il a appelé la notion
de complémentarité. La théorie quantique offre un certain nombre de
modes de pensée alternatifs. Il y avait les représentations alternatives du
processus qui pouvaient être basées sur la mesure de toutes les positions
ou de tous les moments ; la dualité entre la pensée en termes d’entités

 48 
 La lumière de l’aube apparaît 

ondes ou en termes de particules. Bohr souligna que les deux membres


de ces paires d’alternatives devaient être pris également au sérieux et
pouvaient être traités sans contradiction, car chacun se complétait plutôt
que d’entrer en conflit avec l’autre. En effet, ils correspondent à des
arrangements expérimentaux différents et mutuellement incompatibles
qui ne peuvent être mis en œuvre en même temps. Soit on mettait en
place une expérience sur les ondes (la double fente), auquel cas une
question ondulatoire était posée et recevait une réponse ondulatoire
(un modèle d’interférence) ; soit on mettait en place une expérience
sur les particules (en détectant par quelle fente l’électron était passé),
auquel cas la question ondulatoire recevait une réponse particulaire
(deux zones d’impact à l’opposé des deux fentes).
La complémentarité était évidemment une idée utile, bien qu’elle
ne résolve aucunement tous les problèmes d’interprétation, comme le
montrera le chapitre suivant. En vieillissant, Bohr se préoccupa de plus
en plus de questions philosophiques. C’était assurément un très grand
physicien, mais il me semble qu’il était nettement moins doué pour cette
dernière vocation. Ses pensées étaient vastes et nébuleuses, ainsi, de
nombreux livres ont été écrits par la suite pour tenter de les analyser,
avec des conclusions lui attribuant diverses positions philosophiques
incompatibles entre elles. Cela ne l’aurait peut-être pas étonné, car il
aimait à dire qu’il y avait une complémentarité entre le fait de pouvoir
dire quelque chose clairement et le fait que ce soit quelque chose de
profond et qui vaille la peine d’être dit. Il est certain que la pertinence de
la complémentarité pour la théorie quantique (où la question se pose par
expérience et où nous possédons un cadre théorique global qui la rend
intelligible) n’autorise pas d’exporter facilement la notion vers d’autres
disciplines, comme si elle pouvait être invoquée pour « justifier » tout
appariement paradoxal et fantaisiste. On peut penser que Bohr s’en est
dangereusement approché lorsqu’il a suggéré que la complémentarité
pouvait éclairer la question séculaire du déterminisme et du libre arbitre
par rapport à la nature humaine. Nous nous abstiendrions de poursuivre
cette réflexion philosophique ici, pour mieux la reprendre au chapitre
final.

 49 
 La théorie quantique 

LA LOGIQUE QUANTIQUE
Il est bien possible que la théorie quantique ait modifié de façon frap-
pante nos conceptions de termes physiques tels que position et moment.
Il est encore plus surprenant qu’elle ait également affecté notre façon de
penser des petits mots logiques tels que « et » et « ou ».
La logique classique, telle qu’elle est conçue par Aristote et « l’homme
de l’omnibus Clapham » (à savoir, le quidam raisonnable, le citoyen éclairé,
représentatif), est basée sur la loi de distribution de la logique. Si je vous
dis que Bill est roux et qu’il est soit à la maison soit au pub, vous vous
attendrez à trouver un Bill roux à la maison ou un Bill roux au pub. Cela
semble une conclusion assez inoffensive à tirer, et formellement, cela
dépend de la loi aristotélicienne du milieu exclu : il n’y a pas de terme
intermédiaire entre « à la maison » et « pas à la maison ». Dans les années
1930, les gens ont commencé à se rendre compte que les choses étaient
différentes dans le monde quantique. Un électron peut non seulement
être « ici » et « pas ici », mais aussi dans un certain nombre d’autres états
qui sont des superpositions de « ici » et « pas ici ». C’est un moyen terme
qu’Aristote n’aurait jamais imaginé. La conséquence est qu’il existe une
forme spéciale de logique, appelée logique quantique, dont les détails ont
été élaborés par Garret Birkhoff et John von Neumann. Elle est parfois
appelée logique à trois valeurs, parce qu’en plus du « vrai » et du « faux »,
elle prend en compte la réponse probabiliste « peut-être », un concept
avec lequel les philosophes ont joué de manière autonome.

 50 
3
Un horizon paradoxal
qui s’assombrit

À l’époque où la théorie quantique moderne a été découverte, les


problèmes physiques qui occupaient le devant de la scène traitaient du
comportement des atomes et des radiations. Cette période de décou-
verte initiale a été suivie à la fin des années 1920 et au début des années
1930 par une période d’exploitation soutenue et fébrile, où les nouvelles
idées étaient appliquées à une grande variété d’autres phénomènes
physiques. Par exemple, nous verrons un peu plus tard que la théorie
quantique a permis de mieux comprendre comment les électrons se
comportent à l’intérieur des solides cristallins. J’ai entendu un jour Paul
Dirac parler de cette période de développement rapide en disant que
c’était une époque « où des hommes de second plan ont accompli un
travail de premier plan ». Dans la bouche de presque tout le monde, ces
mots auraient été désobligeants et peu agréables. Ce n’est pas le cas de
Dirac. Toute sa vie, il eut une façon simple et directe de parler, il disait
ce qu’il voulait dire avec franchise et sans fioritures. Ses mots étaient
simplement destinés à transmettre quelque chose de la richesse de la
compréhension qui découlait de ces premières intuitions fondamentales.
Cette application réussie des idées quantiques s’est poursuivie sans
relâche. Nous utilisons maintenant la théorie avec autant d’efficacité
pour discuter du comportement des quarks et des gluons, une réussite
impressionnante si l’on se rappelle que ces constituants de la matière
nucléaire sont au moins 100 millions de fois plus petits que les atomes
qui préoccupaient les pionniers dans les années 1920. Les physiciens
savent faire les calculs et ils constatent que les réponses continuent à être
justes avec une précision étonnante. Par exemple, l’électrodynamique

 51 
 La théorie quantique 

quantique (théorie de l’interaction des électrons avec les photons) donne


des résultats qui concordent avec l’expérimentation, avec une précision
comprenant une erreur inférieure à la largeur d’un cheveu humain par
rapport à la distance entre Los Angeles et New York !
Considérée en ces termes, l’histoire quantique est un formidable récit
de succès, peut-être la plus grande réussite de l’histoire des sciences
physiques. Pourtant, un profond paradoxe demeure. Malgré la capacité
des physiciens à faire les calculs, ils ne comprennent toujours pas la
théorie. De graves problèmes d’interprétation restent en suspens, et
font l’objet de litiges permanents. Ces questions litigieuses concernent
deux perplexités en particulier : la signification du caractère probabiliste
de la théorie et la nature du processus de mesure.

PROBABILITÉS
Les probabilités ont leur place également en physique classique, leur
origine résidant dans l’ignorance de certains détails de ce qui se passe.
Un exemple de ce paradigme est le tirage au sort avec une pièce de
monnaie. Personne ne doute que la mécanique newtonienne détermine
la façon dont la pièce doit atterrir après avoir été jetée – il n’est pas
question d’une intervention directe de Fortuna, la déesse du hasard –
mais le mouvement est trop sensible aux détails précis et infimes de la
façon dont la pièce a été lancée (détails dont nous ignorons l’existence)
pour que nous puissions prédire exactement ce que sera le résultat.
Nous savons cependant que si la pièce n’est pas truquée, les chances
sont égales, 1/2 pour qu’elle tombe pile et 1/2 face. De même, pour un
dé non-pipé, la probabilité qu’un nombre donné se termine face vers le
haut est de 1/6. Si l’on demande la probabilité de lancer un 1 ou un 2, il
suffit d’additionner les différentes probabilités pour obtenir 1/3. Cette
règle d’addition est valable parce que les processus de lancement qui
mènent à 1 ou à 2 sont distincts et indépendants l’un de l’autre. Comme ils
n’ont aucune influence les uns sur les autres, on additionne simplement
les cotes qui en résultent. Tout cela semble assez simple. Pourtant, dans
le monde quantique, les choses sont différentes.

 52 
 Un horizon paradoxal qui s’assombrit 

Considérons d’abord ce qui serait l’équivalent classique de l’expérience


quantique avec les électrons et les doubles fentes. Un analogue courant
serait de lancer des balles de tennis sur une clôture percée de deux trous.
Il y aura une certaine probabilité qu’une balle passe par un trou et une
certaine probabilité qu’elle passe par l’autre. Si nous nous préoccupons
de la probabilité que la balle atterrisse de l’autre côté de la clôture,
puisqu’elle doit passer par un trou ou l’autre, il suffit d’additionner ces
deux probabilités (comme nous l’avons fait pour les deux faces du dé).
Dans le cas quantique, les choses sont différentes en raison du principe
de superposition qui permet à l’électron de passer par les deux fentes.
Ce qui, classiquement, était des possibilités mutuellement distinctes,
s’entremêlent l’une à l’autre par la mécanique quantique.
Par conséquent, les lois de combinaison des probabilités sont dif-
férentes dans la théorie quantique. Si l’on doit additionner un certain
nombre de possibilités intermédiaires non observées, ce sont les ampli-
tudes des probabilités que l’on doit additionner, et non les probabilités elles-
mêmes. Dans l’expérience des doubles fentes, on doit ajouter l’amplitude
observée (en passant par A) à l’amplitude observée (en passant par B).
Rappelons que les probabilités sont calculées à partir des amplitudes par
une sorte de quadrillage. L’effet de l’addition-avant- la-mise-au-carré est
de produire ce qu’un mathématicien appellerait des « termes croisés ». On
peut apprécier cette idée en considérant l’équation arithmétique simple :
(2 + 3)2 = 22 + 32 + 12
Ce 12 « supplémentaire » est le terme croisé.
Peut-être cela vous semble-t-il un peu mystérieux. La notion essen-
tielle est la suivante : dans le monde de tous les jours, pour obtenir la
probabilité d’un résultat final, il suffit d’additionner les probabilités de
possibilités intermédiaires indépendantes. Dans le monde quantique,
la combinaison des possibilités intermédiaires qui ne sont pas direc-
tement observées se fait de manière plus subtile et plus sophistiquée.
C’est ­pourquoi le calcul quantique implique des termes croisés. Puisque
les amplitudes de probabilité sont des nombres complexes, ces termes
croisés incluent des effets de phase, de sorte qu’il peut y avoir une

 53 
 La théorie quantique 

interférence constructive ou destructrice, comme cela se produit dans


l’expérience dite des doubles fentes.
Pour résumer, très succinctement, les probabilités classiques cor-
respondent à l’ignorance et se combinent par simple addition. Les
probabilités quantiques se combinent d’une manière apparemment
plus insaisissable et inimaginable (au sens de l’image). La question se
pose alors : serait-il néanmoins possible de comprendre les probabilités
quantiques comme ayant également leur origine dans l’ignorance du
physicien de tout ce qui se passe, de sorte que les probabilités de base
sous-jacentes – qui correspondraient à une connaissance inaccessible
mais complètement détaillée de ce qui se passe – s’additionneraient
encore de manière classique ?
Derrière cette question se cache une nostalgie de certains qui vou-
draient rendre à la physique son déterminisme, même si cela devait
s’avérer être une sorte de déterminisme voilé. Prenons par exemple
la désintégration d’un noyau radioactif (instable et susceptible de se
briser). Tout ce que la théorie quantique peut prédire, c’est la probabilité
que cette désintégration se produise. Par exemple, elle peut dire qu’un
noyau particulier a une probabilité de 1/2 de se désintégrer au cours de
l’heure suivante, mais elle ne peut pas prédire si ce noyau spécifique se
désintégrera réellement au cours de cette heure.
Pourtant, ce noyau possède peut-être une petite horloge interne qui
spécifie précisément le moment où il se désintégrera, mais que nous ne
pouvons pas lire. Si c’était le cas, et si d’autres noyaux du même type
avaient leurs propres horloges internes dont les différents réglages les
feraient se désintégrer à des moments différents, alors ce que nous avons
attribué comme probabilités découlerait simplement de l’ignorance, de
notre incapacité à accéder aux réglages de ces horloges internes cachées.
Bien que les défaillances nous semblent aléatoires, elles seraient en fait
entièrement déterminées par ces détails inconnus. En réalité, finalement,
la probabilité quantique ne serait alors pas différente de la probabilité clas-
sique. Les théories de ce type sont appelées des interprétations variables
cachées de la mécanique quantique. Mais sont-elles réellement possibles ?

 54 
 Un horizon paradoxal qui s’assombrit 

Le célèbre mathématicien John von Neumann pensait avoir mon-


tré que les propriétés peu ordinaires des probabilités quantiques
impliquaient qu’elles ne pouvaient jamais être interprétées comme la
conséquence de l’ignorance des variables cachées. En fait, il y avait dans
son argumentation une erreur et il a fallu des années pour l’identifier.
Nous verrons plus tard qu’une interprétation déterministe de la théorie
quantique est possible, et où les probabilités découlent de l’ignorance
des détails. Cependant, nous verrons dans le même temps que la théorie
qui « réussit » ainsi possède d’autres propriétés qui l’ont fait paraître peu
attrayante pour la majorité des physiciens.

DÉCOHÉRENCE
Un aspect des problèmes que nous examinons dans ce chapitre peut
être formulé en se demandant comment il se fait que les constituants
élémentaires du monde physique, tels que les quarks, les gluons et les
électrons, dont le comportement est nuageux et approprié, peuvent
donner naissance au monde macroscopique de l’expérience quotidienne,
qui semble si clair et si fiable. Un pas important vers une certaine com-
préhension de cette transition a été franchi grâce à une évolution qui a eu
lieu au cours des 25 dernières années. Les physiciens ont pris conscience
que dans de nombreux cas, il est important de prendre en compte, plus
sérieusement qu’auparavant, l’environnement dans lequel les processus
quantiques se déroulent réellement.
La pensée communément admise avait pris cet environnement
comme un vide, à l’exception des entités quantiques dont les inte-
ractions faisaient l’objet d’une considération explicite. En réalité, cette
idéalisation ne fonctionne pas toujours, et là où elle ne fonctionne
pas, des conséquences importantes peuvent en découler. Ce qui avait
été négligé, c’était la présence quasi-omniprésente des radiations. Les
expériences se déroulent dans un océan de photons, certains prove-
nant du Soleil et d’autres du rayonnement de fond cosmique universel
qui est un écho persistant de l’époque où l’univers avait environ un
demi-million d’années et venait tout juste de devenir suffisamment

 55 
 La théorie quantique 

froid pour que la matière et le rayonnement se découplent de leur


mélange universel précédent.
Il s’avère que la conséquence de ce rayonnement de fond pratique-
ment omniprésent est d’affecter les phases des amplitudes de probabilité
pertinentes. La prise en compte de cette « randomisation de phase » peut,
dans certains cas, avoir pour effet d’éliminer presque entièrement les
termes croisés dans les calculs de probabilité quantique. (En gros, elle
calcule la moyenne d’environ autant de « plus » que de « moins », ce qui
donne un résultat proche de zéro). Tout cela peut se produire avec une
rapidité assez étonnante. Ce phénomène est appelé la « décohérence ».
La décohérence a été saluée par certains comme fournissant l’in-
dice permettant de comprendre comment les phénomènes quantiques
microscopiques et les phénomènes classiques macroscopiques sont
interdépendants. Malheureusement, ce n’est qu’une demi-vérité. Elle
peut servir à faire ressembler certaines probabilités quantiques à des
probabilités classiques, mais elle ne les rend pas identiques. Il reste encore
la perplexité centrale de ce que l’on appelle « le problème de la mesure ».

LE PROBLÈME DE LA MESURE QUANTIQUE


En physique classique, les mesures ne posent pas de problème. Il s’agit
simplement d’observer ce qui se passe. Au préalable, nous ne pouvons
peut-être pas faire plus que d’attribuer une probabilité de 50 % que la
pièce atterrira sur face, mais si c’est ce que nous voyons, c’est simplement
parce que c’est ce qui s’est réellement passé.
La mesure dans la théorie quantique conventionnelle est différente
parce que le principe de superposition réunit des possibilités alternatives,
possiblement mutuellement exclusives, jusqu’au dernier moment, lorsque
soudain l’une d’entre elles seule fait surface comme l’actualité réalisée à
cette occasion. Nous avons vu qu’une façon de penser à ce sujet peut être en
termes d’effondrement du paquet d’ondes. La probabilité de l’électron était
répartie entre « ici », « là » et « partout », mais lorsque le physicien pose la
question expérimentale « Où êtes-vous ? » et qu’à cette occasion p­ articulière

 56 
 Un horizon paradoxal qui s’assombrit 

Fig. 6  L’expérience de Stern-Gerlach.

la réponse « ici » apparaît, alors toute la probabilité s’effondre du fait de


cette seule réalité. La grande question restée sans réponse dans notre
discussion jusqu’à présent est la suivante : comment cela se produit-il ?
Les mesures sont une chaîne de conséquences corrélées par lesquelles
un état de fait dans le monde quantique microscopique produit un signal
correspondant observable dans le monde quotidien des appareils de
mesure de laboratoire. Nous pouvons clarifier ce point en examinant
une expérience quelque peu idéalisée, qui ne nous induira pas en erreur,
pour mesurer le spin d’un électron. La propriété du spin correspond au
comportement des électrons comme s’ils étaient de minuscules aimants.
En raison d’un effet quantique inimaginable (au sens toujours de l’image)
qu’il suffira de demander au lecteur d’accepter « sur parole », l’aimant de
l’électron ne peut pointer que dans deux directions opposées, que l’on
peut appeler par convention « vers le haut » et « vers le bas ».
L’expérience est réalisée avec un faisceau d’électrons non polarisé au
départ, c’est-à-dire des électrons dans un état de superposition égale de
« haut » et de « bas ». Ces électrons sont amenés à traverser un champ
magnétique inhomogène.

 57 
 La théorie quantique 

En raison de l’effet magnétique de leur spin, ils seront déviés vers


le haut ou vers le bas selon la direction du spin. Ils passeront ensuite à
travers l’un ou l’autre des deux détecteurs positionnés de façon appro-
priée, Du ou Dd (des compteurs Geiger, par exemple), et l’expérimenta-
teur entendra alors l’un ou l’autre de ces détecteurs émettre un « clic »,
ce qui enregistre le passage d’un électron dans le sens ascendant ou
descendant. Cette procédure est appelée expérience Stern-Gerlach, du
nom des deux physiciens allemands qui ont été les premiers à mener
une telle étude. (En fait, elle a été réalisée avec un faisceau atomique,
mais ce sont les électrons des atomes qui contrôlaient ce qui se passait).
Comment analyser ce qui se passe ?
Si le spin est « haut », l’électron est dévié vers le haut, puis il passe à
travers Du, celui-ci émet un clic, et l’expérimentateur l’entend. Si le spin
est « bas », l’électron est dévié vers le bas, passe à travers Dd, qui émet
un clic que l’expérimentateur entend. On voit ce qui se passe dans cette
analyse. Elle nous présente une chaîne de conséquences corrélées : si…
alors… alors…
Mais lors d’une mesure réelle, une seule de ces chaînes se produit.
Qu’est-ce qui fait que cette situation particulière se produit à cette
occasion particulière ? Qu’est-ce qui fait que cette fois, la réponse sera
« haute » et non pas « basse » ?
La décohérence ne répond pas à cette question. Ce qu’elle fait, c’est de
resserrer les maillons des différentes chaînes, les rendant plus classiques,
mais cela n’explique pas pourquoi une chaîne particulière est la possibilité
réalisée à un moment donné. L’essence du problème de mesure est la
recherche de l’origine de cette spécificité. Nous examinerons la variété
des réponses proposées, mais nous verrons qu’aucune d’entre elles n’est
entièrement satisfaisante ou exempte de perplexité. Les propositions
peuvent être classées sous plusieurs rubriques.

(1) La non-pertinence
Certains tentent d’analyser finement à l’extrême le problème, en
avançant qu’il n’est pas pertinent. Un argument en faveur de cette

 58 
 Un horizon paradoxal qui s’assombrit 

position est l’affirmation positiviste selon laquelle faire de la science


consiste simplement à corréler des phénomènes mais qu’elle ne doit
pas aspirer à les comprendre. Si nous savons comment faire les sommes
quantiques, et si les réponses présentent une corrélation très satisfaisante
avec l’expérience empirique, alors c’est tout ce que nous pourrions et
devrions souhaiter. Il est tout simplement intellectuellement trop avare
d’en demander plus. Une forme plus raffinée de positivisme est repré-
sentée par ce que l’on appelle « l’approche des histoires cohérentes »,
qui établit des formulations de protocoles pour obtenir des séquences
de prédictions quantiques qui soient facilement interprétables comme
des résultats provenant de l’utilisation d’appareils de mesure classiques.
Un autre type d’argument, et qui relève également de la rubrique de
la non-pertinence, est l’affirmation selon laquelle la physique quantique
ne devrait pas du tout chercher à parler d’événements individuels, mais
qu’elle devrait plutôt s’intéresser aux « ensembles », c’est-à-dire aux
propriétés statistiques de collections d’événements. Si tel était le cas,
on serait en droit d’attendre un compte rendu purement probabiliste.
Un troisième type d’argument dans cette catégorie générale affirme
que la fonction d’onde ne concerne pas du tout les états des systèmes
physiques, mais les états de la connaissance humaine de ces systèmes.
Si l’on pense simplement de manière épistémologique, alors « l’effon-
drement » est un phénomène qui ne pose pas de problème : avant,
j’étais ignorant ; maintenant, je sais. Il semble toutefois très étrange
que la représentation de ce que l’on prétend être contenu dans l’esprit
satisfasse en fait une équation d’apparence physique comme l’équation
de Schrödinger.
Tous ces arguments ont une caractéristique commune. Ils adoptent
une vision minimaliste du rôle et objectifs de la physique. En particulier,
ils supposent qu’elle ne s’intéresse pas à la compréhension de la nature
détaillée de certains processus physiques. Ce point de vue peut être
sympathique pour ceux qui possèdent un certain type de disposition
philosophique, mais il est détestable pour l’esprit du scientifique, dont
l’ambition est d’atteindre le plus haut degré possible de compréhension

 59 
 La théorie quantique 

de ce qui se passe dans le monde physique. Se contenter de moins serait


une « trahison des clercs ».
(2) Les grands systèmes
Les fondateurs de la mécanique quantique étaient, bien sûr, conscients
des problèmes que la mesure posait pour la théorie. Niels Bohr, en par-
ticulier, s’est beaucoup intéressé à cette question. La réponse qu’il a
proposée avec force est connue sous le nom de l’École de Copenhague.
L’idée clé ici était qu’un rôle unique était joué par les appareils de mesure
classiques. Bohr soutenait que c’était l’intervention de ces grands appa-
reils de mesure qui produisait l’effet déterminant.
Avant même que la question des mesures n’apparaisse, il était néces-
saire d’avoir un moyen de voir comment on pourrait récupérer au niveau
de la théorie quantique les succès très considérables de la mécanique
classique dans la description des processus se déroulant à l’échelle de
la vie quotidienne. Il ne servirait en effet à rien de décrire le microsco-
pique au détriment du macroscopique. Cette exigence, appelée principe
des correspondances, revenait en gros à pouvoir voir que les « grands »
systèmes (l’échelle de grandeur étant fixée par la constante de Planck)
devraient se comporter d’une manière parfaitement approchée par les
équations de Newton. Plus tard, les gens ont réalisé que la relation entre
la mécanique quantique et la mécanique classique était beaucoup plus
subtile que celle donnée par cette image simpliste. Par la suite, nous
verrons qu’il existe des phénomènes macroscopiques qui présentent
certaines propriétés intrinsèquement quantiques, y compris la possibilité
d’une exploitation technologique, comme dans l’informatique quantique.
Toutefois, ces phénomènes se produisent dans des circonstances quelque
peu exceptionnelles et le cap général indiqué par le du principe de cor-
respondance allait dans la bonne direction.
Bohr a souligné qu’une mesure impliquait à la fois l’entité quantique
et l’appareil de mesure classique et il a insisté sur le fait que l’on devait
considérer la mise en œuvre mutuelle des deux comme un seul et même
ensemble (qu’il a appelé un « phénomène »). L’endroit exact où, le long
de la chaîne de conséquences corrélées menant d’un bout à l’autre,

 60 
 Un horizon paradoxal qui s’assombrit 

la particularité d’un résultat spécifique se trouvait alors devenait une


question qui pouvait être évitée, à condition de garder les deux extrémités
de la chaîne définitivement reliées entre elles.
À première vue, cette proposition a quelque chose d’attrayant. Si
vous entrez dans un laboratoire de physique, vous y trouverez le genre
d’appareils dont parlait Bohr. Mais il y a aussi quelque chose de louche
dans cette proposition. Son récit a un ton dualiste, comme si le monde
physique était composé de deux classes différentes d’« êtres » : des
entités quantiques appropriées et des appareils de mesure classiques
déterminants. En réalité, il existe un monde physique unique et moniste.
Ces éléments des appareils classiques sont eux-mêmes composés de
constituants (à la base de tout, les quarks, les gluons et les électrons).
L’interprétation originale de Copenhague n’a pas abordé le problème de
savoir comment un appareil déterminant pouvait émerger d’un substrat
quantique indéterminé.
Néanmoins, Bohr et ses amis agitèrent leurs mains dans la bonne
direction, même si ce ne fut pas assez vigoureux. Aujourd’hui, je pense
que la majorité des physiciens quantiques en exercice souscriraient à ce
que l’on pourrait appeler une interprétation néo-Copenhague. Dans cette
optique, l’ampleur et la complexité de l’appareil macroscopique est ce qui
lui permet d’une certaine façon de jouer le rôle déterminant. La manière
dont cela se produit n’est certainement pas bien comprise du tout, mais
on peut au moins établir une corrélation avec une autre propriété (éga-
lement mal comprise) des grands systèmes : leur irréversibilité.
À une exception près – mais qui n’est pas vraiment significative
pour la présente discussion – les lois fondamentales de la physique sont
réversibles. Pour voir ce que cela signifie, supposons, contrairement à
Heisenberg, que l’on puisse faire un film de deux électrons en interaction.
Ce film aurait le même sens s’il était tourné en avant ou en arrière. En
d’autres termes, dans le micro-monde, il n’y a pas de flèche intrinsèque
du temps, qui distingue le futur du passé. Dans le macromonde, les choses
sont évidemment très différentes. Les systèmes s’épuisent et le monde
quotidien est irréversible. Le film d’une balle où l’on voit des rebonds de

 61 
 La théorie quantique 

plus en plus hauts est tourné à l’envers. Ces effets sont liés à la deuxième
loi de la thermodynamique, qui stipule que, dans un système isolé, l’en-
tropie (la mesure du désordre) ne diminue jamais. La raison en est qu’il
y a beaucoup plus de façons d’être désordonné que d’être ordonné, de
sorte que le désordre l’emporte haut la main. Il suffit de penser à votre
bureau, si vous n’intervenez pas de temps en temps pour le ranger.
Or, la mesure est l’enregistrement irréversible d’un signal macros-
copique de l’état des choses dans le micro-monde. Elle intègre donc
une direction intrinsèque du temps : avant il n’y avait pas de résultat,
après il y en a un. Il est donc plausible de supposer qu’une compréhen-
sion adéquate des grands systèmes complexes qui explique pleinement
leur irréversibilité pourrait également fournir un indice précieux sur la
nature du rôle qu’ils jouent dans la mesure quantique. Dans l’état actuel
des connaissances, cependant, cela reste un vœu pieux plutôt qu’une
réalisation réelle.

(3) La nouvelle physique


Certains ont estimé – pour résoudre le problème des mesures – qu’il
faudra une réflexion plus radicale que la simple mise en avant de principes
déjà connus de la science. Girardin, Ghirardi, Rimmer et Weber ont fait
une suggestion particulièrement intéressante dans ce sens (connue sous
le nom de théorie de la GRW). Ils proposent une propriété universelle
d’effondrement des fonctions d’ondes aléatoires dans l’espace, mais que
la vitesse à laquelle cela se produit dépendrait de la quantité de matière
présente. Pour les entités quantiques seules, ce taux est trop faible pour
avoir un effet perceptible, en revanche, en présence de quantités macros-
copiques de matière (par exemple, dans un appareil de mesure classique),
il devient si rapide qu’il est pratiquement instantané.
C’est une suggestion qui, en principe, est ouverte à l’investigation par
des expériences délicates visant à détecter d’autres manifestations de
cette propension à l’effondrement. En l’absence d’une telle confirmation
empirique, cependant, la plupart des physiciens considèrent la théorie
de la GRW comme trop ad hoc pour être convaincante.

 62 
 Un horizon paradoxal qui s’assombrit 

(4) La conscience
Dans l’analyse de l’expérience Stern-Gerlach, le dernier maillon de la
chaîne corrélée était un observateur humain qui entend le compteur qui
émet des « clic ». Chaque mesure quantique dont nous connaissons le
résultat a eu comme dernière étape la prise de conscience du résultat par
quelqu’un. La conscience est l’expérience mal comprise mais indéniable
(sauf par certains philosophes) de l’interface entre le matériel et le mental.
Les effets des drogues ou des lésions cérébrales montrent clairement que
le matériel peut agir sur le mental. Pourquoi ne pas s’attendre à ce qu’un
pouvoir réciproque du mental agisse sur le matériel ? Une telle chose
semble se produire lorsque nous exécutons l’intention volontaire de lever
un bras. Peut-être, alors, est-ce l’intervention d’un observateur conscient
qui détermine le résultat d’une mesure. À première vue, la proposition
a un certain attrait, et un certain nombre de physiciens reconnus ont
adhéré à ce point de vue. Néanmoins, elle présente également de très
graves difficultés.
À la plupart des époques et dans la plupart des endroits, l’Univers
a été dépourvu de conscience. Doit-on supposer que dans ces vastes
étendues d’espace et de temps cosmiques, aucun processus quantique
n’a eu de conséquence déterminante ? Supposons que l’on mette en
place une expérience informatisée dont le résultat est imprimé sur un
bout de papier, qui est ensuite automatiquement stocké sans qu’aucun
observateur ne le regarde avant six mois. Serait-il possible que ce ne
soit qu’à ce moment-là (six mois plus tard) que l’on considère qu’il y a
une empreinte définitive sur le papier ?
Ces conclusions ne sont pas absolument impossibles, mais de nom-
breux scientifiques ne les trouvent pas du tout plausibles. Les difficultés
s’intensifient encore si l’on considère la triste histoire du chat de Schrö-
dinger. Le malheureux animal est emmuré dans une boîte qui contient
également une source radioactive ayant une chance sur deux de se
désintégrer dans l’heure qui suit. Si la décomposition a lieu, les radiations
émises déclencheront la libération d’un gaz létal qui tuera instantanément
le chat. L’application des principes conventionnels de la théorie quantique

 63 
 La théorie quantique 

à la boîte et à son contenu conduit à l’implication qu’à la fin de l’heure, et


avant qu’un observateur conscient ne soulève le couvercle de la boîte, le
chat est dans une superposition 50-50 entre « vivant » et « mort ». Ce n’est
qu’après l’ouverture de la boîte qu’il y a un effondrement des possibilités,
entraînant la découverte, soit d’un cadavre en train à l’évidence de se
refroidir, soit d’un félin en superforme. Mais l’animal, lui, sait sûrement
s’il est vivant ou non, sans qu’une intervention humaine soit nécessaire
pour l’aider à en arriver à cette conclusion. Peut-être devrions-nous donc
conclure que la conscience du chat est aussi efficace que la conscience
humaine pour déterminer les résultats quantiques. Où s’arrêtera-t-on
alors ? Les vers de terre peuvent-ils aussi faire s’effondrer la fonction
d’onde ? Ils ne sont peut-être pas exactement conscients, mais on aurait
tendance à supposer que d’une manière ou d’une autre, ils ont la propriété
certaine d’être soit vivants soit morts. Ce genre de difficultés a empêché
la plupart des physiciens de croire que l’hypothèse d’un rôle unique pour
la conscience est la solution au problème de la mesure.

(5) De nombreux mondes


Une proposition encore plus audacieuse rejette totalement l’idée de
l’effondrement. Ses partisans affirment que le formalisme quantique doit
être pris plus au sérieux que de lui imposer de l’extérieur l’hypothèse
entièrement ad hoc d’un changement discontinu de la fonction d’onde.
Il faut plutôt reconnaître que tout ce qui peut arriver arrive.
Pourquoi alors les expérimentateurs ont-ils l’impression contraire, en
découvrant qu’à cette occasion l’électron est « ici » et nulle part ailleurs ?
La réponse est qu’il s’agit là de la vision à œillères d’un observateur dans
cet univers, mais la réalité quantique est bien plus grande que ce qu’une
image si contraignante suggère. Non seulement il y a un monde dans
lequel vit le chat de Schrödinger, mais il y a aussi un monde parallèle et
déconnecté dans lequel le chat de Schrödinger meurt. En d’autres termes,
à chaque acte de mesure, la réalité physique se divise en une multiplicité
d’univers séparés, dans chacun desquels des expérimentateurs différents
(clonés) observent les différents résultats possibles de la mesure. La
réalité est un « multivers » plutôt qu’un simple univers.

 64 
 Un horizon paradoxal qui s’assombrit 

Les mesures quantiques se produisant tout le temps, c’est une pro-


position d’une étonnante prodigalité ontologique. Le pauvre Guillaume
d’Occam (dont le « rasoir » logique est censé couper les hypothèses
inutilement prodigues) doit se retourner dans sa tombe à l’idée d’une telle
multiplication d’entités. Une autre façon de concevoir cette prolifération
inimaginable est de la situer non pas à l’extérieur du cosmos mais à
l’intérieur des états d’esprit/cerveau des observateurs. Cette démarche
est le résultat d’un passage d’une interprétation de plusieurs mondes à
une interprétation de plusieurs esprits, mais cela ne sert guère à réduire
la prodigalité de la proposition.
Au début, les seuls physiciens attirés par cette façon de penser étaient
les cosmologistes quantiques, qui cherchaient à appliquer la théorie
quantique à l’Univers lui-même. Bien que nous restions perplexes quant
à la relation entre le microscopique et le macroscopique, cette extension
en direction du cosmique est une démarche audacieuse dont la faisabilité
n’est pas nécessairement évidente. Cependant, si elle doit être réalisée,
l’approche des mondes multiples peut sembler la seule option à utiliser,
car lorsque le Cosmos est impliqué, il n’y a plus de place pour l’appel
scientifique aux effets des grands systèmes externes ou de la conscience.
Récemment, il semble que d’autres physiciens aient été de plus en plus
enclins à adopter l’approche des mondes multiples. Cependant, pour
beaucoup d’entre nous, cela reste un marteau-pilon à vapeur méta-
physique utilisé pour casser une noix quantique, certes très résistante.

(6) Déterminisme
En 1954, David Bohm publia un article sur la théorie quantique entiè-
rement déterministe et qui donnait exactement les mêmes prédictions
expérimentales que celles de la mécanique quantique conventionnelle.
Dans cette théorie, les probabilités découlent simplement de l’igno-
rance de certains détails. Cette découverte remarquable a conduit John
Bell à réexaminer l’argument de von Neumann selon lequel cela était
impossible et à exposer l’hypothèse erronée sur laquelle cette conclusion
erronée également avait été fondée.

 65 
 La théorie quantique 

Bohm réalisa cet exploit impressionnant en prononçant le divorce


entre l’onde et la particule, que l’Ecole de Copenhague avait mariées dans
une complémentarité indissoluble. Dans la théorie de Bohm, il y a des
particules classiques, aussi classiques que Newton souhaitaient qu’elles
soient. Lorsque l’on mesure leurs positions ou leurs moments, il s’agit
simplement d’observer ce qui existe sans ambiguïté. Mais en plus des
particules, il y a une onde complètement séparée, dont la forme à tout
instant encapsule des informations sur l’ensemble de l’environnement.
Cette onde n’est pas directement discernable mais elle a des consé-
quences empiriques, car elle influence le mouvement des particules d’une
manière qui s’ajoute aux effets des forces conventionnelles qui peuvent
également agir sur elles. C’est cette influence de l’onde cachée (parfois
appelée « onde de guidage » ou source du « potentiel quantique ») qui
affecte de manière sensible les particules et réussit à produire l’appa-
rition d’effets d’interférence et les probabilités caractéristiques qui leur
sont associées. Ces effets d’ondes directrices sont strictement détermi-
nistes. Bien que les conséquences soient étroitement prévisibles, elles
dépendent très délicatement du détail des positions réelles des particules,
et c’est cette sensibilité à des variations infimes qui produit l’apparence
d’un caractère aléatoire. Ainsi, ce sont les positions des particules qui
agissent comme les variables cachées dans la théorie « bohmienne ».
Pour mieux comprendre la théorie de Bohm, il est instructif de se
demander comment elle traite l’expérience des doubles fentes. En raison
de la nature picturale des particules, dans cette théorie, l’électron doit
absolument passer par l’une des fentes. Qu’est-ce qui ne marche donc
pas avec notre argument précédent selon lequel il ne peut en être ainsi ?
Ce qui permet de contourner cette première conclusion, c’est l’effet de
l’onde cachée. Sans son existence et son influence indépendantes, il serait
en effet vrai que si l’électron passait par la fente A, la fente B n’aurait pas
d’importance et aurait pu aussi bien être ouverte que fermée. Mais l’onde
de Bohm renferme des informations instantanées sur l’environnement
total, et donc sa forme est différente si B est fermée à ce qu’il est quand
B est ouverte. Cette différence a des conséquences importantes sur la

 66 
 Un horizon paradoxal qui s’assombrit 

façon dont l’onde guide les particules. Si B est fermée, la plupart d’entre
elles sont dirigées vers l’endroit opposé à A ; si B est ouverte, la plupart
seront orientées vers le point au milieu de l’écran du détecteur.
On aurait pu supposer qu’une version déterminée et imaginable (au
sens « image ») de la théorie quantique aurait un grand attrait pour les
physiciens. En fait, peu d’entre eux se sont ralliés aux idées bohmiennes.
La théorie est certes instructive et intelligente, mais beaucoup pensent
qu’elle est bien trop intelligente pour être vraie. Il y a un air d’artifice dans
cette théorie qui la rend peu attrayante. Par exemple, l’onde cachée doit
satisfaire une équation d’onde. D’où vient cette équation ? La réponse
franche est de nulle part ou, plus exactement, de l’esprit de Schrödinger.
Pour obtenir les bons résultats, l’équation de la vague de Bohm doit
être l’équation de Schrödinger, mais cela ne découle d’aucune logique
interne de la théorie et il s’agit simplement d’une stratégie ad hoc conçue
pour produire des réponses empiriquement acceptables. Il existe éga-
lement certaines difficultés techniques qui font que la théorie n’est pas
totalement satisfaisante. L’une des plus ardues concerne les propriétés
probabilistes. Je dois admettre que, par souci de simplicité, je ne les ai pas
tout à fait énoncées correctement jusqu’à présent. Ce qui est exactement
vrai, c’est que si les probabilités initiales relatives aux dispositions des parti-
cules coïncident avec celles que la théorie quantique classique prescrirait,
alors cette coïncidence entre les deux théories sera maintenue pour tous
les mouvements ultérieurs. Cependant, il faut bien commencer quelque
part. En d’autres termes, le succès empirique de la théorie de Bohm
exige soit que l’Univers ait démarré avec les bonnes probabilités (quan-
tiques) intégrées au départ, soit, si ce n’est pas le cas, qu’un processus de
convergence l’ait rapidement conduit dans cette direction. Cette dernière
possibilité n’est pas inconcevable (un ­physicien ­l’appellerait « relaxation »
sur les probabilités quantiques), mais elle n’a pas été démontrée et son
échelle de temps n’a pas été estimée de manière fiable.
Le problème de la mesure continue de nous inquiéter alors que
nous contemplons la gamme étonnante de propositions, au mieux
­partiellement convaincantes, qui ont été faites pour le résoudre. Parmi

 67 
 La théorie quantique 

les options retenues, il y a le mépris (la non-pertinence) ; physique connue


(décohérence) ; physique espérée (grands systèmes) ; nouvelle physique
inconnue (GRW) ; nouvelle physique cachée (Bohm) ; conjecture méta-
physique (conscience, multi-mondes). Il s’agit d’une histoire enchevêtrée
et il est embarrassant pour un physicien de la raconter, étant donné le
rôle central que la mesure a dans la pensée physique. Pour être franc,
nous n’avons pas une maîtrise intellectuelle de la théorie quantique aussi
solide que nous le souhaiterions. Nous pouvons effectuer tous les calculs
et, en ce sens, expliquer les phénomènes, mais nous ne comprenons pas
vraiment ce qui se passe.
Pour Bohr, la mécanique quantique est indéterminée ; pour Bohm,
la mécanique quantique est déterminée. Pour Bohr, le principe d’incerti-
tude de Heisenberg est un principe ontologique d’indétermination ; pour
Bohm, le principe d’incertitude de Heisenberg est un principe épistémo-
logique d’ignorance. Nous reviendrons sur certaines de ces questions
métaphysiques et interprétatives dans le dernier chapitre. En attendant,
une autre question spéculative nous attend.

EXISTE-T-IL DES ÉTATS PRÉFÉRENTIELS ?


Au xixe siècle, des mathématiciens tels que Sir William Rowan Hamil-
ton développèrent une compréhension très générale de la nature des
systèmes dynamiques newtoniens. L’une des caractéristiques des résul-
tats de ces recherches fut d’établir qu’il existe de nombreuses manières
équivalentes pour formuler une analyse. Il est souvent commode, pour
les besoins de la pensée physique, de donner un rôle privilégié à la repré-
sentation explicite des processus comme se produisant dans l’espace,
mais ce n’est en aucun cas une nécessité fondamentale. Lorsque Dirac
élabora les principes généraux de la théorie quantique, cette égalité
démocratique entre les différents points de vue fut maintenue dans
la nouvelle dynamique qui en a résulté. Tous les observables – et leurs
états propres correspondants – avaient un statut égal en ce qui concerne
la théorie fondamentale. Les physiciens expriment cette conviction en

 68 
 Un horizon paradoxal qui s’assombrit 

disant qu’il n’y a pas de « base préférentielle » (un ensemble spécial


d’états, correspondant à un ensemble spécial d’observables et qui ont
une signification unique).
La lutte avec ce problème des mesures a soulevé dans l’esprit de
certains la question de savoir si ce principe de non-préférence devait être
maintenu. Parmi la variété des propositions sur la table, il y a la caracté-
ristique que la plupart d’entre elles semblent attribuer un rôle particulier
à certains états, soit en tant qu’états finaux de l’effondrement, soit en
tant qu’états qui en donnent l’illusion : dans une discussion de (néo-)
Copenhague centrée sur les appareils de mesure, la position spatiale
semble jouer un rôle particulier lorsqu’on parle de « pointeurs » sur les
échelles ou de marques sur les plaques photographiques ; de même, dans
l’interprétation des multi-mondes, ce sont ces mêmes états qui sont à
la base de la division entre les mondes parallèles ; dans l’interprétation
de la conscience, ce sont vraisemblablement les états du cerveau qui
correspondent à ces perceptions qui sont la base privilégiée de l’interface
matière/esprit ; la proposition du GRW postule l’effondrement sur les
états de position spatiale ; la théorie de Bohm attribue un rôle spécial
aux positions des particules, dont les minuscules détails sont les variables
cachées effectives de la théorie. Il convient également de noter que la
décohérence est un phénomène qui se produit dans l’espace. S’il s’agit
en fait d’indications de la nécessité de réviser la pensée démocratique
antérieure, la mécanique quantique s’avérerait avoir encore une autre
influence « révisionniste » à faire peser sur la physique.

 69 
4
Des développements
supplémentaires

La période mouvementée de la découverte fondamentale des quanta


au milieu des années 1920 a été suivie d’une longue période de déve-
loppements au cours de laquelle les implications de la nouvelle théorie
ont été explorées et exploitées. Nous devons, à présent, noter certaines
des idées issues de ces développements supplémentaires.

L’EFFET TUNNEL
Les relations d’incertitude du type Heisenberg ne s’appliquent pas
seulement aux positions et aux moments. Elles s’appliquent également
au temps et à l’énergie. Bien que l’énergie soit, au sens large, une quan-
tité préservée dans la théorie quantique – tout comme dans la théorie
classique – elle ne l’est que jusqu’au niveau de l’incertitude pertinente. En
d’autres termes, la mécanique quantique offre la possibilité « d’emprun-
ter » de l’énergie supplémentaire, à condition qu’elle soit « remboursée »
avec une rapidité appropriée. Cet argument quelque peu original (qui
peut être rendu plus précis et plus convaincant par des calculs détaillés)
permet à la mécanique quantique de réaliser des choses qui seraient
rigoureusement interdites en physique classique. Le premier exemple de
processus de ce type à être reconnu concernait la possibilité de creuser
un tunnel à travers une barrière potentielle.
Le prototype est décrit dans la figure 7, où la « colline » carrée
représente une région dont l’entrée nécessite le paiement d’un tarif
énergétique (appelé énergie potentielle) équivalent à la hauteur de la
colline. Une particule en mouvement emportera avec elle l’énergie de

 71 
 La théorie quantique 

Fig. 7  L’effet tunnel.

son ­mouvement, ce que les physiciens appellent énergie cinétique. En


physique classique, la situation est claire. Une particule dont l’énergie
cinétique est supérieure au tarif énergétique potentiel traversera la bar-
rière à une vitesse réduite (comme une voiture qui ralentit en franchissant
une colline), mais qui accélérera à nouveau de l’autre côté en récupé-
rant toute son énergie cinétique. Si l’énergie cinétique est inférieure à la
barrière potentielle, la particule ne peut pas franchir la « colline » et va
simplement rebondir en arrière.
En mécanique quantique, la situation est différente en raison de la
possibilité particulière de monnayer de l’énergie contre le temps. Cela
peut permettre à une particule dont l’énergie cinétique est classiquement
insuffisante pour franchir la colline, de franchir néanmoins parfois la
barrière, à condition qu’elle atteigne l’autre côté assez rapidement pour
rembourser l’énergie dans le délai nécessaire. C’est comme si la particule
avait creusé un tunnel à travers la colline. Le remplacement de ces récits
pour le moins originaux par des calculs précis permet de conclure qu’une
particule dont l’énergie cinétique n’est pas trop éloignée de la hauteur
de la barrière a une certaine probabilité de la franchir et une certaine
probabilité de repartir en arrière.
Il existe des noyaux radioactifs qui se comportent comme s’ils conte-
naient certains constituants, appelés particules-a, piégés à l’intérieur du
noyau par une barrière potentielle générée par les forces nucléaires. Si
seulement ces particules pouvaient franchir la barrière, elles auraient
assez d’énergie pour s’échapper totalement de l’autre côté. Les noyaux

 72 
 Des développements supplémentaires 

de ce type présentèrent en fait le phénomène de désintégration-a et ce


fut un triomphe précoce de l’application des idées quantiques au niveau
nucléaire que d’utiliser les calculs de l’effet tunnel en vue de donner un
compte rendu quantitatif des propriétés de ces émissions-a.

STATISTIQUES
En physique classique, des particules identiques (c’est-à-dire deux de
la même espèce comme, par exemple, deux électrons) se distinguent
néanmoins l’une de l’autre. Si, dans un premier temps, nous les désignons
par les étiquettes 1 et 2, ces marques de discrimination auront une signi-
fication durable lorsque nous suivrons les trajectoires des particules. Si
les électrons finissent par émerger après une série d’interactions com-
pliquées, nous pouvons encore, en principe, dire lequel est étiqueté 1 et
lequel 2. Dans le monde quantique flou et imprévisible, en revanche, ce
n’est plus le cas. Comme il n’y a pas de trajectoires observables en continu,
tout ce que nous pouvons dire après une interaction, c’est qu’un électron
a émergé ici et qu’un autre a émergé là. Tout étiquetage initial que nous
aurions choisi ne peut être suivi. Dans la théorie quantique, les particules
identiques sont également des particules impossibles à distinguer.
Comme les étiquettes ne peuvent pas avoir de signification intrin-
sèque, l’ordre particulier dans lequel elles apparaissent dans la fonction
d’onde (ψ) doit être sans importance. Pour les particules identiques,
l’état (1,2) doit être physiquement identique à l’état (2,1). Cela ne signifie
pas que la fonction d’onde est strictement inchangée par l’échange, car il
s’avère que les mêmes résultats physiques seraient obtenus soit à partir
de ψ, soit à partir de -ψ [11]. Cet argument, bien qu’un peu rapide, nous
conduit à une grande conclusion. Le résultat concerne ce que l’on appelle
les « statistiques », c’est-à-dire le comportement de divers ensembles de
particules identiques. En mécanique quantique, il y a deux possibilités
(correspondant aux deux signes possibles du comportement de ψ dans
le cadre de l’échange) :
les statistiques de Bose-Einstein, dans le cas où ψ est inchangée dans le
cadre de l’échange. Cela indique que la fonction d’onde est symétrique,

 73 
 La théorie quantique 

avec échange de deux particules. Les particules qui ont cette propriété
sont appelées bosons.
La statistique de Fermi-Dirac s’appliquant au cas où ψ change de signe
avec l’échange. C’est-à-dire que la fonction d’onde est antisymétrique
sous l’échange de deux particules. Des particules qui ont cette propriété
sont appelées fermions.
Les deux options donnent des comportements qui sont différents des
statistiques des particules classiquement distinguables. Il s’avère que les
statistiques « quantiques » entraînent des conséquences importantes
tant pour la compréhension fondamentale des propriétés de la matière
que pour la construction technologique de nouveaux dispositifs. (On
avance que 30 % du PIB des États-Unis proviennent des industries basées
sur les quanta : semi-conducteurs, lasers, etc.)
Les électrons sont des fermions. Cela implique que deux d’entre eux
ne peuvent jamais se trouver exactement dans le même état. Ce fait
découle du raisonnement selon lequel l’échange ne produirait aucun
changement (puisque les deux états sont les mêmes) et, en même temps,
produira un changement de signe (en raison des statistiques sur les
fermions). La seule façon de sortir de ce dilemme est de conclure que
la fonction d’onde à deux particules a en fait la valeur nulle. (Une autre
façon d’énoncer le même argument est de souligner que vous ne pouvez
pas faire une combinaison antisymétrique avec deux entités identiques.)
Ce résultat est appelé le principe d’exclusion et il fournit la base qui permet
de comprendre le tableau périodique (la table de Mendeleïev) en chimie,
avec des propriétés récurrentes d’éléments apparentés. En fait, le principe
d’exclusion est à la base de la possibilité d’une chimie suffisamment
complexe en fin de compte pour soutenir le développement de la vie
elle-même.
L’histoire de la chimie se déroule ainsi : dans un atome, il n’y a que
certains états d’énergie disponibles pour les électrons et, bien sûr, le
principe d’exclusion exige qu’il ne peut y avoir plus d’un électron qui
occupe chaque état. L’état énergétique le plus bas et stable de l’atome
correspond au remplissage des états les moins énergétiques disponibles.

 74 
 Des développements supplémentaires 

Ces états peuvent être ce que les physiciens appellent « dégénérés », ce


qui signifie qu’il existe plusieurs états différents, mais tous avec la même
énergie. Un ensemble d’états dégénérés constitue un niveau d’énergie.
Nous pouvons nous imaginer mentalement l’état énergétique le plus bas
de l’atome : constitué par l’addition d’électrons un par un à des niveaux
d’énergie successifs, jusqu’à atteindre le nombre d’électrons requis pour
un atome donné. Une fois tous les états d’un niveau d’énergie remplis,
un électron supplémentaire devra passer au niveau d’énergie immédia-
tement supérieur de l’atome. Ce niveau rempli à son tour, il devra passer
au niveau suivant, et ainsi de suite. Dans un atome contenant de nom-
breux électrons, les niveaux d’énergie les plus bas (également appelés
« couches » ou « coquilles ») seront tous remplis, les électrons restants
occupant partiellement la couche suivante. Ces électrons « restants » sont
ceux qui sont les plus éloignés du noyau et, de ce fait, ils déterminent
les interactions chimiques de l’atome avec les autres atomes. Lorsque
l’on monte dans l’échelle de la complexité atomique (en parcourant le
tableau périodique), le nombre d’électrons restants (0, 1, 2…) varie de
manière cyclique, au fur et à mesure que les couches se remplissent, et
c’est ce schéma répétitif d’électrons les plus extérieurs qui autorise les
« répétitions » chimiques du tableau périodique.
À la différence des électrons, les photons sont des bosons. Il s’avère
que le comportement des bosons est l’exact opposé de celui des fermions.
Le principe d’exclusion n’est plus applicable ! Les bosons aiment être dans
le même état. Ils ressemblent aux Européens du Sud, s’entassant joyeuse-
ment dans le même compartiment du train, tandis que les fermions sont
comme les Européens du Nord, qui vont se répartir un à un dans tous les
compartiments du train. Ce « copinage » des bosons est un phénomène
qui, dans sa forme la plus extrême, conduit à un degré de concentration
dans un seul état que l’on appelle la condensation des bosons. C’est cette
propriété qui s’applique au dispositif technologique du laser. La puissance
de la lumière laser est due à son caractère « cohérent », c’est-à-dire que
la lumière est constituée de nombreux photons, tous dans le même
état, une propriété que les statistiques de Bose-Einstein encouragent
fortement. Il existe également des effets associés à la supraconductivité

 75 
 La théorie quantique 

(disparition totale de la résistance électrique à très basse température),


effets qui dépendent de la condensation de Bose-Einstein, ce qui entraîne
des conséquences observables au niveau macroscopique des propriétés
quantiques. (La basse température est nécessaire pour éviter que des
« bousculades » thermiques ne viennent détruire la cohérence.)
Les électrons et les photons sont également des particules avec
un spin, c’est-à-dire qu’ils transportent une quantité intrinsèque de
moment angulaire (une mesure des effets de rotation), presque comme
s’ils étaient de petites toupies. Dans les unités naturelles de la théorie
quantique (définies par la constante de Planck), l’électron a un spin 1/2
et le photon un spin 1. Il s’avère que ce fait illustre une règle générale : les
particules de spin entier (0, 1…) sont toujours des bosons ; les particules de
spins demi-entiers (1/2, 3/2…) sont toujours des fermions. Du point de vue
de la théorie quantique ordinaire, ce théorème du spin et de la statistique
n’est qu’une règle empirique inexpliquée. Cependant, Wolfgang Pauli (qui
a également formulé le principe d’exclusion) a découvert que lorsque la
théorie quantique et la relativité restreinte sont combinées, le théorème
apparaît comme une conséquence nécessaire de cette combinaison. La
mise en commun des deux théories permet d’obtenir une vision plus
riche que celle que l’une ou l’autre fournit seule. Le tout s’avère être plus
grand que la somme de ses parties.

LA STRUCTURE EN BANDES
La forme de matière solide la plus simple à imaginer est un cristal,
dans lequel les atomes constitutifs sont ordonnés selon le schéma d’un
réseau régulier. Un cristal macroscopique – significatif à l’échelle de
l’expérience quotidienne – contiendra tellement d’atomes qu’il peut
être traité comme étant effectivement infiniment grand du point de
vue microscopique de la théorie quantique. L’application des principes
de la mécanique quantique à des systèmes de ce type révèle de nou-
velles propriétés, intermédiaires entre celles des atomes individuels et
celles des particules en mouvement libre. Nous avons vu que dans un
atome, les énergies électroniques possibles se présentent sous la forme

 76 
 Des développements supplémentaires 

Fig. 8  La structure en bandes.

d’une série discrète de niveaux distincts. D’autre part, on notera qu’un


électron en mouvement libre peut posséder n’importe quelle énergie
positive, correspondant à l’énergie cinétique de son mouvement réel.
Les propriétés énergétiques des électrons dans les cristaux sont une
sorte de compromis entre les deux extrêmes. Les valeurs possibles de
l’énergie se trouvent dans une série de « bandes ». À l’intérieur d’une
bande donnée, il existe une gamme continue de possibilités ; entre les
bandes, les électrons ne disposent d’aucun niveau d’énergie. En résumé,
les propriétés énergétiques des électrons dans un cristal correspondent
à une série de plages de valeurs alternativement autorisées et interdites.
L’existence de cette structure de bandes fournit la base pour com-
prendre les propriétés électriques des solides cristallins. Les courants
électriques résultent de l’induction du mouvement des électrons dans
le solide. Si la bande d’énergie la plus élevée d’un cristal est totalement
­remplie, ce changement d’état des électrons nécessitera que des élec-
trons excitateurs se répandent à travers l’espace dans la bande qui se
trouve immédiatement dessus. La transition exigerait un apport éner-
gétique important par électron excité. Comme cela est très difficile à
réaliser, un cristal dont les bandes sont totalement remplies se com-
portera comme un isolant. Il sera très difficile d’induire un mouvement
dans ses électrons. Si, toutefois, un cristal a sa bande la plus élevée
partiellement remplie, l’excitation sera facile, car elle ne nécessitera qu’un
faible apport d’énergie pour amener un électron dans un état disponible
d’énergie légèrement supérieur. Un tel cristal se comportera comme un
conducteur électrique.

 77 
 La théorie quantique 

DES EXPÉRIENCES À CHOIX DIFFÉRÉ


La discussion de John Archibald Wheeler sur ce qu’il a appelé les
« expériences de choix différé » donnèrent un aperçu supplémentaire des
implications qu’on peut qualifier d’« étranges » du principe de superpo-
sition. Un arrangement possible est illustré à la figure 9. Un faisceau de
lumière étroit est subdivisé au point A en deux sous-faisceaux réfléchis
par les miroirs en B et C et ensuite réunis à nouveau au point D, où
un motif d’interférence peut se former en raison de la différence de
phase entre les deux trajectoires (les ondes sont déphasées). On peut
considérer qu’un faisceau initial est si faible qu’à tout moment, un seul
photon traverse l’appareil. Les effets d’interférence à D doivent alors
être compris comme étant dus à l’auto-interférence entre les deux états
superposés : trajectoire à gauche et trajectoire à droite. (Cela est com-
parable à la discussion antérieure sur l’expérience de la double fente au
chapitre 2.) La nouvelle caractéristique qu’évoqua Wheeler apparaît si
l’appareil est modifié en insérant un dispositif X entre les points C et D.
X est un commutateur qui soit laisse passer un photon, soit le détourne
vers un détecteur Y. Si le commutateur est réglé pour la transmission,
l’expérience est la même qu’auparavant, avec un motif d’interférence
en D. Si l’interrupteur est réglé pour la déviation et que le détecteur Y
enregistre un photon, il ne peut y avoir d’interférence à D car ce photon
doit avoir pris le chemin de la droite pour être dévié par Y. Wheeler a
souligné le fait étrange que le réglage de X pouvait être choisi alors que
le photon est en vol après A. Jusqu’à ce que le réglage de l’interrupteur
soit sélectionné, le photon est, dans un certain sens, « ouvert » à deux
options : celle de suivre les chemins de la gauche et de la droite et celle
de ne suivre que l’un d’eux. Des expériences astucieuses ont été menées
dans ce sens.

LA SOMMATION DES AMPLITUDES


ET PARCOURS POSSIBLES
Richard Feynman découvrit une façon originale de reformuler la
théorie quantique. Cette reformulation donne les mêmes prédictions

 78 
 Des développements supplémentaires 

Fig. 9  Une expérience à choix différé.

que l’approche conventionnelle, mais offre une manière imagée très


différente de penser la façon dont ces résultats se produisent.

 79 
 La théorie quantique 

La physique classique nous présente des trajectoires claires, des


chemins de mouvement uniques reliant le point de départ A au point
d’arrivée B. Conventionnellement, ceux-ci sont calculés en résolvant
les célèbres équations de la mécanique newtonienne. Au xviiie siècle,
on découvrit que la trajectoire réelle suivie pouvait être décrite d’une
manière différente, mais équivalente, c’est-à-dire comme la trajectoire
reliant A à B, qui donne la valeur minimale pour une quantité dynamique
particulière associée à différents chemins. Cette quantité est appelée
« action ». Ce n’est pas le lieu ici de vous asséner sa définition précise.
Le principe de la moindre action (comme on l’a naturellement appelé)
s’apparente à la propriété des rayons lumineux, à savoir qu’ils empruntent
le chemin du temps minimal pour relier deux points. (S’il n’y a pas de
réfraction, ce chemin est une ligne droite, mais dans un milieu réfractaire,
le principe du moindre temps conduit à la courbure familière des rayons,
comme lorsqu’un bâton plongé dans un verre d’eau semble courbé).
En raison de l’imprévisibilité nuageuse des processus quantiques, les
particules quantiques n’ont pas de trajectoire définie. Feynman a suggéré
que l’on devrait plutôt imaginer une particule quantique se déplaçant
du point A au point B le long de toutes les trajectoires possibles, directes ou
sinueuses, rapides ou lentes. De ce point de vue, la fonction ondulatoire
de la pensée conventionnelle est née de l’addition des contributions de
toutes ces possibilités, donnant lieu à la description de « la sommation
des amplitudes et parcours possibles ».
Les détails de la formation des termes de cette immense intégrale
sont trop techniques pour être abordés ici. Il s’avère que la contribution
d’un chemin donné est liée à l’action associée à ce chemin, divisée par la
constante de Planck. (Les dimensions physiques de l’action et de h sont
les mêmes, de sorte que leur rapport est un nombre pur, indépendant
des unités dans lesquelles nous choisissons de mesurer les quantités
physiques). La forme réelle prise par ces contributions de différents che-
mins est telle que des chemins voisins ont tendance à s’annuler, en raison
des fluctuations rapides des signes (plus précisément, des phases) de
leurs contributions. Si le système considéré est un système dont l’action

 80 
 Des développements supplémentaires 

est importante par rapport à h, seule la trajectoire d’action minimale


contribuera beaucoup (puisqu’il s’avère que c’est près de cette trajectoire
que les fluctuations sont les plus faibles et que l’effet des annulations est
donc minimisé). Cette observation permet de comprendre simplement
pourquoi les grands systèmes se comportent de manière classique, en
suivant des trajectoires de moindre action.
Formuler ces idées de manière précise et calculable n’est pas du tout
facile. On peut facilement imaginer que la plage de variation représentée
par la multiplicité des trajectoires possibles n’est pas un simple agrégat
sur lequel on peut calculer l’intégrale. Néanmoins, l’approche « intégrale
fictionnelle des historiques » a eu deux conséquences importantes. La
première est qu’elle a conduit Feynman à découvrir une technique de
calcul beaucoup plus facile à gérer, désormais universellement appelée
« intégrales de Feynman », qui est l’approche la plus utile des calculs
quantiques mise à la disposition des physiciens au cours des cinquante
dernières années. Elle donne une image physique dans laquelle les inte-
ractions sont dues à l’échange d’énergie et d’élan transmis par ce qu’on
appelle les particules virtuelles. L’adjectif « virtuel » est invoqué parce que
ces « particules » intermédiaires, qui ne peuvent pas apparaître dans
l’état initial ou final du processus, ne sont pas contraintes d’avoir des
masses physiques, mais plutôt une intégrale de toutes les valeurs de
masse possibles.
L’autre avantage de l’approche des sommes par rapport aux histoires
est qu’il existe des systèmes quantiques assez subtils et délicats pour
lesquels elle offre une manière plus claire de formuler le problème que
celle donnée par l’approche plus conventionnelle.

LA DÉCOHÉRENCE (SUITE)
Les effets environnementaux des rayonnements omniprésents qui
produisent la décohérence ont une signification qui va au-delà de leur
pertinence partielle pour le problème de la mesure. Une évolution
récente importante a été la prise de conscience qu’ils ont également

 81 
 La théorie quantique 

une ­incidence sur la façon dont il faut envisager la mécanique quantique


des systèmes dits « chaotiques ».
Les imprévisibilités intrinsèques présentes dans la nature ne pro-
viennent pas uniquement des processus quantiques. La plupart des phy-
siciens ont été très surpris de constater, il y a une quarantaine d’années,
que même en physique newtonienne, il existe de nombreux systèmes
dont l’extrême sensibilité aux effets de très petites perturbations rend leur
comportement futur impossible à prévoir avec précision. Ces systèmes
chaotiques (comme on les appelle) deviennent rapidement sensibles aux
détails au niveau de l’incertitude de Heisenberg ou en dessous. Pourtant,
leur traitement d’un point de vue quantique – un sujet appelé « chaologie
quantique » – s’avère problématique.
La raison de cette perplexité est la suivante : les systèmes chaotiques
ont un comportement dont le caractère géométrique correspond aux
célèbres fractales (dont l’ensemble de Mandelbrot, objet d’au moins
une centaine d’affiches psychédéliques, est l’exemple le plus connu).
Les fractales sont ce qu’on appelle « autosimilaires », c’est-à-dire qu’elles
se ressemblent pratiquement, quelle que soit l’échelle à laquelle on les
examine (dents de scie comprenant des dents de scie… jusqu’aux plus
petites). Les fractales n’ont donc pas d’échelle naturelle. Les systèmes
quantiques, en revanche, possèdent une échelle naturelle, fixée par la
constante de Planck. Par conséquent, la théorie du chaos et la théorie
quantique ne s’accordent pas parfaitement l’une à l’autre.
Le décalage qui en résulte conduit à ce que l’on appelle « la suppres-
sion quantique du chaos » : les systèmes chaotiques voient leur compor-
tement modifié lorsqu’il s’agit de se fier aux détails, au niveau quantique.
Cela entraîne à son tour un autre problème pour les physiciens, qui prend
sa forme la plus aiguë lorsqu’on considère la 16e lune de Saturne, appelée
Hypérion. Ce gros rocher, en forme de pomme de terre, de la taille de
New York, virevolte dans l’espace de façon chaotique. Si l’on applique
les notions de suppression quantique à Hypérion, on s’attend à avoir un
résultat étonnamment efficace, malgré la taille considérable de cette
lune. En fait, sur la base de ce calcul, le mouvement chaotique d’Hypérion

 82 
 Des développements supplémentaires 

ne peut durer au maximum qu’environ 37 ans. Les astronomes observent


Hypérion depuis un peu moins longtemps que cela, mais personne ne
s’attend à ce que son étrange tumulte prenne fin si tôt. À première vue,
nous sommes confrontés à un sérieux problème. Cependant, la prise en
compte de la décohérence le résout pour nous. La tendance de la déco-
hérence à faire bouger les choses dans une direction plus classique a pour
effet, à son tour, de supprimer la suppression quantique du chaos. On
peut s’attendre avec confiance à ce qu’Hypérion continue de virevolter
pendant très longtemps encore.
L’effet Zénon quantique est un autre effet de nature assez similaire, dû
aussi à la décohérence. Un noyau radioactif à cause de la désintégration
est ramené à son état initial par les « mini-observations » qui résultent de
son interaction avec les photons de l’environnement. Ce retour continu
à la case départ a pour effet d’inhiber sa désintégration, un phénomène
qui a été observé expérimentalement. Cet effet porte le nom du phi-
losophe grec ancien Zénon d’Elée, dont la méditation sur l’observation
d’une flèche devant se trouver maintenant à un point fixe particulier le
convainquit que la flèche ne pouvait pas être en mouvement.
Ces phénomènes montrent clairement que la relation entre la théorie
quantique et sa limite classique est subtile, impliquant l’entrelacement
d’effets qui ne peuvent être caractérisés par une simple division simpliste
en « grand » et « petit ».

LA THÉORIE QUANTIQUE RELATIVISTE


Notre discussion sur le théorème du spin et de la statistique a déjà
montré que la combinaison de la théorie quantique et de la relativité
restreinte produit une théorie unifiée du contenu enrichi. La première
équation satisfaisante qui réussit à formuler de manière cohérente la
combinaison des deux fut l’équation relativiste de l’électron, découverte
par Paul Dirac en 1928 [12]. Son détail mathématique est trop technique
pour être présenté dans un livre comme celui-ci, mais nous pouvons
noter deux conséquences importantes et imprévues qui découlent de
cette évolution.

 83 
 La théorie quantique 

Dirac produisit son équation simplement en tenant compte des


besoins de la théorie quantique et de l’invariance relativiste. Il fut cer-
tainement agréablement surpris lorsqu’il découvrit que les prédictions
de l’équation sur les propriétés électromagnétiques de l’électron étaient
telles qu’il s’avéra que les interactions magnétiques de l’électron étaient
deux fois plus fortes que ce à quoi on aurait pu naïvement s’attendre
en considérant l’électron comme une toupie miniature, chargée élec-
triquement. On savait déjà empiriquement que c’était le cas, mais per-
sonne n’avait été en mesure de comprendre pourquoi ce comportement
­apparemment anormal devait être ce qu’il est.
La deuxième conséquence, encore plus importante, est due au fait que
Dirac transforma brillamment la menace de défaite en victoire triom-
phante. En l’état, l’équation comportait un défaut flagrant. Elle permet-
tait des états d’énergie positive du type nécessaire pour correspondre
au comportement des électrons réels, mais elle permettait également
des états d’énergie négative. Ces derniers n’avaient tout simplement
pas de signification sur le plan physique. Pourtant, ils ne pouvaient pas
être simplement rejetés, car les principes de la mécanique quantique
permettraient inévitablement la conséquence désastreuse de passer
des états d’énergie positive physiquement acceptables à ces états. (Ce
serait un désastre physique en ce sens que les transitions vers de tels
états pourraient produire des quantités illimitées d’énergie positive, ce
qui mènerait à une sorte de machine à mouvement perpétuel hors de
contrôle). Pendant un certain temps, cela constitua une énigme hau-
tement embarrassante. Puis Dirac réalisa que les statistiques de Fermi
des électrons pourraient nous permettre de sortir de ce dilemme. Avec
beaucoup d’audace, il supposa que tous les états d’énergie négative
étaient déjà occupés. Le principe d’exclusion bloquerait alors la possibilité
de toute transition vers ces derniers à partir des états d’énergie positifs.
Ce que l’on pensait être l’espace vide (communément appelé « le vide »)
était en fait rempli de cette « mer » d’électrons d’énergie négative !
Cette image semble plutôt étrange et plus tard, en fait, il s’est avéré
possible de formuler la théorie de telle manière que les résultats souhaités

 84 
 Des développements supplémentaires 

d’une manière moins pittoresque mais aussi moins bizarre puissent être
conservés. Entre-temps, le travail avec le concept de la mer d’énergie
négative a conduit Dirac à une découverte de première importance.
Si une quantité suffisante d’énergie était fournie, par exemple, par un
photon très énergétique, il serait possible d’éjecter un électron à énergie
négative de la mer, le transformant en un électron à énergie positive de
type ordinaire. Que faire alors du « trou » que ce processus aurait laissé
dans la mer négative ? L’absence d’énergie négative est identique à la
présence d’énergie positive (deux « moins » font un « plus »), de sorte
que le trou se comporterait comme une particule d’énergie positive. Mais
l’absence de charge négative est identique à la présence d’une charge
positive, de sorte que cette « particule trou » serait chargée positivement,
contrairement à l’électron chargé négativement.
Dans les années 1930, la manière dont les physiciens pensaient les
particules élémentaires était assez conservatrice par rapport à la liberté
spéculative qui allait suivre. Ils n’aimaient pas du tout l’idée de sug-
gérer l’existence d’un nouveau type de particule, jusqu’alors inconnu.
Au départ, on supposa que cette particule positive dont Dirac parlait
pourrait simplement être le proton bien connu, chargé positivement.
Cependant, on se rendit compte vite que le trou devait avoir la même
masse que l’électron, alors que le proton est beaucoup plus massif. Ainsi,
la seule interprétation acceptable proposée conduisit à la prédiction
– quelque peu refoulée – d’une toute nouvelle particule, rapidement
baptisée positron, de masse électronique mais de charge positive. Son
existence fut bientôt confirmée expérimentalement par la détection
des positrons dans les rayons cosmiques. (En fait, des exemples avaient
été vus beaucoup plus tôt, mais ils n’avaient pas été reconnus comme
tels. Les expérimentateurs avaient du mal à voir ce qu’ils ne cherchaient
pas réellement.)
On s’est rendu compte que ce jumelage électron-positon était un
exemple particulier de comportement répandu dans la nature. Il y a à la
fois de la matière (comme les électrons) et de l’antimatière chargée de
façon opposée (comme les positrons). Le préfixe « anti- » est ­approprié

 85 
 La théorie quantique 

car un électron et un positron peuvent s’annihiler mutuellement, dis-


paraissant dans un éclat d’énergie. (À l’ancienne, l’électron remplit le
trou dans la mer et l’énergie libérée est alors rayonnée. À l’inverse,
comme nous l’avons vu, un photon très énergétique peut chasser un
électron de la mer, laissant un trou derrière lui et créant ainsi une paire
électron-positon).
L’histoire féconde de l’équation de Dirac – qui a conduit à la fois à
une explication des propriétés magnétiques et à la découverte de l’an-
timatière, sujets qui n’ont joué aucun rôle dans la motivation initiale de
l’équation – est un bel et remarquable exemple de la valeur à long terme
que peut revêtir une idée scientifique vraiment fondamentale. C’est cette
fertilité qui persuade les physiciens qu’ils sont vraiment « sur la bonne
voie » et que, contrairement aux suggestions de certains philosophes
et sociologues des sciences, ils ne se contentent pas d’accepter tacite-
ment d’envisager les choses d’une manière particulière. Ils font plutôt
des découvertes sur ce qu’est réellement le monde physique.

LA THÉORIE QUANTIQUE DES CHAMPS


Dirac fit une autre découverte fondamentale lorsqu’il appliqua les
principes de la mécanique quantique non pas aux particules mais au
champ électromagnétique. Ce développement donna le premier exemple
connu de théorie quantique des champs. Avec le recul, il n’est pas trop
difficile, techniquement parlant, de franchir cette étape. La principale
différence entre une particule et un champ est que la première n’a qu’un
nombre fini de degrés de liberté (manières indépendantes dont son
état peut changer), alors qu’un champ a un nombre infini de degrés
de liberté. Il existe des techniques mathématiques bien connues pour
gérer cette différence.
Les théories des champs quantiques s’avèrent d’un intérêt considé-
rable et nous offrent une façon très éclairante de penser la dualité onde/
particule. Un champ est une entité étalée dans l’espace et le temps. Il
s’agit donc d’une entité qui a un caractère intrinsèquement ondulatoire.
L’application de la théorie quantique au champ a pour résultat que ses

 86 
 Des développements supplémentaires 

quantités physiques (telles que l’énergie et la quantité de mouvement)


deviennent présentes en paquets discrets et dénombrables (les quanta).
Mais cette « comptabilité » est exactement ce que nous associons au
comportement des particules. En étudiant un champ quantique, nous
étudions et comprenons donc une entité qui présente explicitement des
propriétés ondulatoires et particulaires de la manière la plus claire pos-
sible. C’est un peu comme si l’on se demandait comment un mammifère
pouvait en arriver à pondre un œuf et que l’on nous présentait l’ornitho-
rynque. Un exemple réel est toujours le plus instructif. Il s’avère qu’en
théorie quantique des champs, les états qui présentent des propriétés
ondulatoires (techniquement, qui ont des phases définies) sont ceux qui
contiennent un nombre indéfini de particules. Cette dernière propriété
est une possibilité naturelle en raison du principe de superposition de
la théorie quantique qui permet de combiner des états contenant un
nombre variable de particules. Ce serait une option impossible dans
la théorie classique, où l’on pourrait simplement regarder et voir pour
compter le nombre de particules réellement présentes.
Le vide dans la théorie quantique des champs possède des propriétés
inhabituelles particulièrement importantes. Le vide, bien sûr, représente
l’état ou le niveau d’énergie le plus bas, dans lequel il n’y a pas d’excitation
correspondant aux particules. Pourtant, bien que dans ce sens il n’y ait
rien, dans la théorie quantique des champs, cela ne signifie pas qu’il n’y
a réellement rien. La raison : une technique mathématique standard,
appelée analyse de Fourier, nous permet de considérer un champ comme
l’équivalent d’un ensemble infini d’oscillateurs harmoniques. À chaque
oscillateur est associée une fréquence particulière et l’oscillateur se com-
porte dynamiquement comme s’il était un pendule de cette fréquence
donnée. Le vide de champ est l’état dans lequel toutes ces « pendules »
sont dans leur état d’énergie le plus bas. Pour une pendule classique,
c’est le moment où le pendule est au repos et au fond. C’est vraiment
une situation dans laquelle rien ne se passe. Cependant, la mécanique
quantique ne permet pas qu’un degré de tranquillité aussi parfait puisse
exister. Heisenberg ne permettra pas au « pendule » d’avoir à la fois une
position définie (en bas) et un mouvement véritable (au repos). Au lieu de

 87 
 La théorie quantique 

cela, le pendule quantique doit être en mouvement léger même dans son
état d’énergie le plus bas (près du fond et presque au repos, mais pas tout
à fait). Le frémissement quantique qui en résulte est appelé mouvement
du point zéro. L’application de ces idées à l’ensemble infini d’oscillateurs
qu’est un champ quantique implique que son vide est un bourdonnement
d’activité. Des fluctuations ont lieu en permanence, au cours desquelles
des « particules » transitoires apparaissent et disparaissent. Un vide
quantique ressemble plus à un plénum qu’à un espace vide.
Lorsque les physiciens en sont venus à appliquer la théorie quantique
des champs à des situations impliquant des interactions entre champs,
ils se sont heurtés à des difficultés. Le nombre infini de degrés de liberté
avait tendance à produire des réponses infinies pour ce qui aurait dû
n’être que des quantités physiques finies. L’interaction avec le vide, qui
fluctue sans cesse, a joué un rôle important dans ce processus. Finale-
ment, on a trouvé un moyen de produire du sens à partir du « non-sens »,
c’est-à-dire de l’absurdité. Certains types de théories des champs (appe-
lées théories « renormalisables ») ne produisent que des types limités
d’infinis, simplement associés aux masses de particules et à la force de
leurs interactions. Le simple fait de supprimer ces termes infinis et de les
remplacer par les valeurs mesurées finies des quantités physiques perti-
nentes constitue un protocole qui définit des résultats significatifs, même
s’il ne s’avère pas être exact, d’un point de vue purement mathématique.
Il en résulte également qu’elle fournit des expressions finies qui sont en
accord stupéfiant avec l’expérimentation. La plupart des physiciens sont
satisfaits de ce succès pragmatique. Dirac lui-même ne fut jamais aussi
heureux. Il désapprouvait fortement les tours de passe-passe douteux
avec des quantités formellement infinies.
Aujourd’hui, toutes les théories des particules élémentaires (comme
la théorie des quarks qui composent la matière) sont des théories des
champs quantiques. Les particules sont considérées comme des exci-
tations énergétiques du champ sous-jacent. (Une théorie des champs
appropriée s’avère aussi pouvoir fournir la bonne façon de traiter les
difficultés de la « mer » d’électrons d’énergie négative.)

 88 
 Des développements supplémentaires 

LE CALCUL QUANTIQUE
Récemment, la possibilité d’exploiter le principe de superposition
comme moyen d’obtenir une puissance de calcul considérablement
accrue a suscité un intérêt considérable.
L’informatique conventionnelle est basée sur la combinaison d’opéra-
tions binaires, exprimées formellement par des combinaisons logiques de
0 et de 1, mises en évidence, en termes matériels, par des interrupteurs qui
sont soit allumés soit éteints. Dans un appareil classique, bien sûr, ces der-
nières sont des possibilités mutuellement exclusives. Un interrupteur est
soit allumé, soit éteint. Dans le monde quantique, cependant, l’interrupteur
pourrait être dans un état qui est une superposition de ces deux possi-
bilités classiques. Une séquence de telles superpositions correspondrait
à un type de traitement parallèle totalement nouveau. La possibilité de
maintenir simultanément un nombre important de billes en l’air – comme
un jongleur – pourrait, en principe, représenter une augmentation de la
puissance de calcul que l’ajout d’éléments supplémentaires multiplierait
de manière exponentielle, par rapport à l’augmentation linéaire dans des
circonstances conventionnelles. De nombreuses tâches de calcul, telles
que le décodage ou la factorisation de très grands nombres, deviendraient
réalisables, chose impossible avec les machines actuelles.
Ce sont des possibilités passionnantes. (Leurs partisans se plaisent
à en parler en termes de mondes multiples, comme si le traitement
avait lieu dans des univers parallèles, mais il semble qu’en réalité, seul
le principe de superposition lui-même soit à la base de la faisabilité de
l’informatique quantique.) La mise en œuvre effective, cependant, sera
une entreprise nettement délicate, avec de nombreux problèmes qui
restent à résoudre. Nombre d’entre eux sont centrés sur la conservation
stable d’états superposés. Le phénomène de décohérence montre à quel
point il peut être problématique d’isoler un ordinateur quantique des
interférences nocives de l’environnement. L’informatique quantique fait
l’objet de sérieuses considérations technologiques et entrepreneuriales,
mais en tant que procédure efficace, elle reste actuellement au niveau
d’une lueur d’espoir dans l’œil de ses partisans.

 89 
5
Vers l’unité

Einstein, par son explication de l’effet photoélectrique, fut l’un des


grands-pères de la théorie quantique. Cependant, il détesta son petit-fils.
Comme la grande majorité des physiciens, Einstein était profondément
convaincu de la réalité du monde physique et avait confiance en la
véracité et la fiabilité du récit scientifique sur sa nature. Il se mit pourtant
à croire que cette réalité ne pouvait être garantie que par une forme
d’objectivité naïve que la pensée newtonienne avait prédite et acceptée.
Par conséquent, Einstein abhorra l’adéquation nuageuse que l’orthodoxie
de l’École de Copenhague attribuait à la nature d’un monde quantique.
Sa première attaque contre la théorie quantique moderne prit la
forme d’une série d’expériences de pensée très ingénieuses, chacune
d’entre elles visant à contourner, d’une certaine manière, les limites du
principe d’incertitude de Heisenberg. L’adversaire d’Einstein dans ce
concours était Niels Bohr qui réussit à chaque fois à montrer qu’une
application approfondie des idées quantiques à tous les aspects de l’expé-
rience proposée permettait au principe d’incertitude de survivre indemne.
Finalement, Einstein admit sa défaite dans cette bataille particulière.
Après avoir pansé ses blessures, Einstein revint dans la mêlée et trouva
un nouveau terrain d’affrontement. Avec l’aide de deux collaborateurs
plus jeunes, Boris Podolsky et Nathan Rosen, il démontra l’existence
d’implications très particulières à long terme, jusqu’alors inaperçues, sur
le comportement du point de vue de la mécanique quantique de deux
particules clairement distantes l’une de l’autre. Les problèmes sont plus
faciles à expliquer en termes de développement ultérieur de ce que l’on
peut appeler la pensée ou le paradoxe EPR (du nom de ses découvreurs
Einstein, Podolsky et Rosen). L’argument vint de David Bohm et, bien

 91 
 La théorie quantique 

que le raisonnement sous-jacent soit un peu ardu, cela vaut la peine de


vous y accrocher.
Supposons que deux particules aient des spins s1 et s2 et que l’on
sache que leur spin total est nul. Cela implique, bien sûr, que s2 est
– s1. Le spin est un vecteur (c’est-à-dire qu’il a une magnitude et une
direction, voyez-le comme une flèche), nous avons suivi la convention
mathématique en utilisant des caractères gras pour les quantités vec-
torielles. Un vecteur de spin aura donc trois composantes, mesurées le
long de trois directions spatiales choisies, x, y et z. Si l’on devait mesurer
la composante x de s1 en obtenant la réponse s′1x, alors la composante
x de s2 doit être – s′1x. Si, en revanche, on avait mesuré la composante
y de s1 obtenant la réponse s′1y, on saurait que la composante y de s2
doit être – s′1y. Mais la mécanique quantique ne permet pas de mesurer
simultanément les composantes x et y du spin, car il existe une relation
d’incertitude entre elles. Einstein fit valoir que, si cela peut être le cas
selon la pensée quantique orthodoxe, ce qui arrive à la particule 1 ne
peut avoir d’effet immédiat sur la particule 2, qui en est éloignée. Si
c’est le cas, et si l’on peut choisir de mesurer les composantes x ou y du
spin à 1 et d’obtenir certaines connaissances sur les composantes x ou
y respectivement du spin à 2, alors Einstein a affirmé que la particule 2
doit effectivement avoir ces valeurs définies pour ses composantes de
spin, que les mesures aient été réellement effectuées ou non. C’est ce
que la théorie quantique classique a nié, parce que, bien sûr, la relation
d’incertitude entre les composantes x et y du spin s’appliquait autant à
la particule 2 qu’à la particule 1.
La conclusion d’Einstein à partir de cet argument modérément com-
pliqué fut qu’il devait y avoir quelque chose d’incomplet dans la théorie
quantique conventionnelle. Elle ne tenait pas compte de ce qu’il croyait
être des valeurs définies des composantes du spin. Presque tous ses
collègues physiciens interprètent les choses différemment. Selon eux, ni
s1 ni s2 n’ont de composantes de spin définies tant qu’une mesure n’a pas
été effectuée. Ensuite, la détermination de la composante x de 1 force la
composante x de 2 à prendre la valeur opposée. En d’autres termes, la

 92 
 Vers l’unité 

mesure à 1 entraîne également un effondrement de la fonction d’onde à 2


sur la valeur opposée de la composante x du spin. Si c’était la composante
y qui avait été mesurée à 1, alors l’effondrement à 2 serait intervenu sur
la composante de spin y opposée. Ces deux états à 2 (composantes x
et y connues) sont absolument distincts l’un de l’autre. Ainsi, la logique
majoritaire conduit à la conclusion que la mesure à 1 produit un changement
instantané à 2, un changement qui dépend précisément de ce qui est mesuré
à 1. En d’autres termes, il y a une certaine unité contre-intuitive entre
1 et 2 ; l’action à 1 produit des conséquences immédiates pour 2 et les
conséquences sont différentes pour les différentes actions à 1. C’est ce
qu’on appelle généralement l’effet EPR. La terminologie est quelque peu
ironique puisqu’Einstein lui-même refusa de croire à une telle connexion
à long terme, la considérant comme une influence trop « effrayante »
pour être acceptable par un physicien. La question a donc été laissée en
suspens pendant un certain temps.
L’étape suivante fut franchie par John Bell qui analysa les propriétés
du système 1-2 comme s’il s’agissait d’un système véritablement séparé
(comme Einstein l’avait supposé), avec des propriétés à 1 dépendant
uniquement de ce qui se passe localement à 1 et des propriétés à 2
dépendant uniquement de ce qui se passe localement à 2. Bell montre
que s’il y avait cette stricte localité, certaines relations entre des quantités
mesurables (on les appelle maintenant les inégalités de Bell) que la méca-
nique quantique prédit seraient violées dans certaines circonstances. Ce
fut un pas en avant très significatif, faisant passer l’argument du domaine
des expériences de pensée au domaine empiriquement accessible, c’est-
à-dire qui pouvait être réellement étudié en laboratoire. Les expériences
n’ont pas été faciles à réaliser, mais finalement, au début des années 1980,
Alain Aspect et ses collaborateurs réussirent à mener habilement une
enquête, confirmant les prédictions de la théorie quantique et niant la
possibilité d’une théorie purement locale du type de celle qu’Einstein avait
épousée. Il était devenu évident qu’un degré irréductible de non-localité
était présent dans le monde physique. Les entités quantiques qui inte-
ragissent les unes avec les autres restent mutuellement enchevêtrées,
quelle que soit la distance à laquelle elles peuvent éventuellement être

 93 
 La théorie quantique 

séparées dans l’espace. Il semble que la nature lutte contre un réduc-


tionnisme implacable. Même le monde subatomique ne peut être traité
de manière purement atomiste.
L’implication de l’effet EPR dans la « relationnalité » profonde, présente
dans la structure fondamentale du monde physique, est une découverte
que la pensée physique et la réflexion métaphysique doivent encore
accepter pour en élucider pleinement toutes les conséquences. Dans
le cadre de ce processus continu d’assimilation, il est nécessaire d’être
aussi clair que possible sur la nature de l’enchevêtrement que l’effet
EPR implique. Il faut reconnaître qu’il s’agit d’un véritable cas d’action
à distance, et pas seulement d’un gain de connaissances supplémen-
taires. En langage courant, l’effet EPR est ontologique et non simplement
épistémologique. L’augmentation des connaissances à distance n’est
en aucun cas problématique ou surprenante. Supposons qu’une urne
contienne deux boules, l’une blanche, l’autre noire. Vous et moi mettons
tous les deux une main dans l’urne pour en retirer une, le poing fermé.
Vous vous rendez ensuite à un kilomètre de distance, vous ouvrez le
poing et vous constatez que vous avez la boule blanche. Immédiatement,
vous savez que je dois avoir la noire. La seule chose qui a changé dans
cet épisode, c’est votre état de connaissance. J’ai toujours eu la boule
noire, vous avez toujours eu la boule blanche, mais maintenant vous avez
pris conscience qu’il en est ainsi. En revanche, dans l’effet EPR, ce qui se
passe à 1 change ce qui se passe à 2. C’est comme si vous trouviez une
boule rouge dans votre main, je devais avoir une boule bleue dans la
mienne, mais si vous trouviez une boule verte, je devais avoir une boule
jaune et, avant que vous ne regardiez, aucun de nous n’avait de boules
de couleurs déterminées.
Un lecteur attentif peut s’interroger sur ce changement instantané.
La relativité restreinte n’interdit-elle pas qu’une chose à 1 ait un effet
quelconque à 2 jusqu’à ce qu’il ait le temps de transmettre une influence
se déplaçant au maximum à la vitesse de la lumière ? Pas tout à fait. Ce
que la relativité interdit c’est la transmission instantanée d’informations,
d’un type qui permettrait la synchronisation immédiate d’une horloge

 94 
 Vers l’unité 

à 2 heures avec une horloge à 1 heure. Il s’avère que l’enchevêtrement


du type EPR ne permet pas la transmission de messages de ce type. La
raison en est que l’unité dans la séparation prend la forme de corrélations
entre ce qui se passe à 1 et ce qui se passe à 2 et qu’aucun message
ne peut être lu à partir de ces corrélations sans savoir ce qui se passe
aux deux extrémités. C’est comme si un chanteur à 1 chantait une série
aléatoire de notes et qu’un chanteur à 2 chantait également une série
aléatoire de notes, ce n’est que si l’on pouvait les entendre tous les deux
ensemble que l’on se rendrait compte que les deux chanteurs sont en
« harmonie » l’un avec l’autre. Le fait de réaliser cela nous met en garde
contre « l’exagération quantique » qui affirme à tort que l’effet EPR
apporte la « preuve » que la télépathie est possible.

 95 
6
Les leçons
et leurs significations

L’image du processus physique que nous présente la théorie quan-


tique est radicalement différente de ce que l’expérience quotidienne
nous laisse espérer. Sa particularité est telle qu’elle soulève avec une
certaine force la question de savoir s’il s’agit bien de la nature suba-
tomique ou si la mécanique quantique n’est rien d’autre qu’une façon
commode de parler, bien que bizarre, et de nous permettre d’effectuer
les calculs. Nous pouvons obtenir des réponses qui concordent éton-
namment bien avec les résultats obtenus en laboratoire par l’utilisation
d’appareils de mesure classiques, mais peut-être ne devrions-nous pas
croire la théorie. La question soulevée est essentiellement d’ordre phi-
losophique, allant au-delà de ce qui peut être réglé par la simple utili-
sation des r­ essources propres de la science. En fait, ce questionnement
quantique n’est qu’un exemple particulier – bien qu’exceptionnellement
difficile – du débat philosophique fondamental entre les positivistes et
les réalistes.

POSITIVISME ET RÉALISME
Les positivistes voient le rôle de la science comme étant une récon-
ciliation de données d’observation. Si l’on peut faire des prédictions qui
rendent compte de manière précise et harmonieuse du comportement
de l’appareil de mesure, la tâche est réussie. Les questions ontologiques
(qu’y a-t-il vraiment là-dedans ?) ne sont pas pertinentes, mieux vaut s’en
débarrasser. Le monde du positivisme est peuplé de contre-indications
et d’impacts visibles sur les plaques photographiques.

 97 
 La théorie quantique 

Ce point de vue a une longue histoire. Le cardinal Bellarmin demanda


à Galilée de considérer le système copernicien comme un simple moyen
pratique de « sauver les apparences », une bonne façon de faire des calculs
pour déterminer où les planètes apparaîtront dans le ciel. Galilée n’aurait
pas dû penser que la Terre fait réellement le tour du Soleil – tandis que
Copernic aurait dû être considéré comme ayant utilisé la supposition
simplement comme un dispositif de calcul pratique. Cette tentative de
sauver la face n’a pas plu à Galilée, et des suggestions similaires n’ont
pas été accueillies favorablement par les scientifiques en général. Si
la science se contente de corréler des données, sans nous dire à quoi
ressemble réellement le monde physique, il est difficile de voir que les
travaux scientifiques valent tout ce temps, tous ces efforts et tout ce
talent consacrés. Ses résultats semblent trop maigres pour justifier un
tel degré d’implication. En outre, l’explication la plus naturelle de la capa-
cité d’une théorie à sauver les apparences serait certainement qu’elle
correspond à la réalité.
Néanmoins, Niels Bohr semblait souvent parler de la théorie quan-
tique d’une manière positiviste. Un jour, il écrivit à un ami qu’il n’y a pas
de monde quantique.
Il n’y a qu’une description physique quantique abstraite. Il est faux de penser
que la tâche de la physique est de découvrir comment est la nature. La
physique s’intéresse à ce que nous pouvons dire de la nature.
Il serait possible de dire que la préoccupation de Bohr concernant
le rôle des appareils de mesure classiques encouragea un tel point de
vue positiviste. Nous avons vu qu’au cours de ses dernières années, il
s’intéressa beaucoup aux questions philosophiques et écrivit beaucoup
à ce sujet. Le corpus qui en résulte d’ailleurs est difficile à interpréter.
Les dons qu’avait Bohr en matière de philosophie sont loin d’être à la
hauteur de son exceptionnel talent de physicien. De plus, il croyait – et il
a montré l’exemple – qu’il existe deux types de vérité : une triviale, mais
clairement articulée, et une profonde dont on ne peut parler que de façon
filandreuse, tel un nuage. Il est certain que le corps de ses écrits a été
interprété de manière très diverse par les commentateurs. Certains ont
estimé qu’il y avait une sorte de réalisme auquel Bohr adhérait.

 98 
 Les leçons et leurs significations 

Les réalistes considèrent que le rôle de la science est de découvrir à


quoi ressemble réellement le monde physique. C’est une tâche qui ne
sera jamais complètement accomplie. De nouveaux régimes physiques
(rencontrés à des énergies encore plus élevées, par exemple) seront tou-
jours à l’étude, et il se pourrait bien qu’ils présentent des caractéristiques
très inattendues dans leur comportement. Une évaluation honnête des
réalisations de la physique peut tout au plus prétendre à la vraisemblance
(un compte rendu précis d’une gamme large mais circonscrite de phé-
nomènes) et non à la vérité absolue (un compte rendu total de la réalité
physique). Les physiciens sont les cartographes du monde physique, ils
trouvent des théories adéquates à une échelle choisie mais ne sont pas
capables de décrire tous les aspects de ce qui se passe. Une telle vision
philosophique considère que l’accomplissement de la science physique
est le resserrement de l’emprise d’une réalité réelle. Le monde du réalisme
est peuplé d’électrons et de photons, de quarks et de gluons.
Le pragmatisme, cette position philosophique qui reconnaît le fait
technologique selon lequel la physique nous permet de faire des choses,
sans aller jusqu’à une position réaliste qui affirmerait que nous savons
comment est le monde en réalité, offre une sorte de mi-chemin entre le
positivisme et le réalisme. Un pragmatiste pourrait dire que nous devrions
prendre la science au sérieux, mais que nous ne devrions pas aller jusqu’à
y accorder une croyance. Pourtant, l’explication la plus évidente du succès
technologique de la science est certainement qu’elle est basée sur une
compréhension en termes de vérisimilitude de la façon dont la matière
se comporte réellement.
Un certain nombre d’arguments en faveur du réalisme scientifique
peuvent être avancés. L’un d’eux, déjà mentionné, est qu’il permet de
comprendre naturellement les succès prédictifs de la physique et sa
fécondité à long terme, ainsi que le fonctionnement fiable des nombreux
dispositifs technologiques construits à la lumière de son image du monde
physique. Le réalisme explique également pourquoi l’effort scientifique
est considéré comme utile, attirant l’attention et le dévouement incon-
ditionnel de personnes de grand talent, car il s’agit d’une activité qui
permet de connaître réellement la façon dont les choses sont. Le ­réalisme

 99 
 La théorie quantique 

correspond à la conviction des scientifiques selon laquelle ils font l’ex-


périence de la découverte et ne font pas qu’apprendre de meilleures
façons de faire les calculs, ou se mettre tacitement d’accord entre eux
pour voir les choses d’une certaine manière. Cette conviction de faire
des découvertes vient de l’expérience répétée de l’attente du scientifique
face à l’attitude récalcitrante de la nature. Le physicien peut aborder les
phénomènes avec certaines idées en tête, pour constater finalement
qu’elles ne se vérifient pas dans le monde physique qui ne se comporte
comme ils l’avaient pensé. La nature nous oblige à reconsidérer notre
comportement, ce qui conduit souvent à la découverte du caractère
totalement inattendu de ce qui se passe. L’essor de la théorie quantique
est, bien sûr, un exemple remarquable d’une réinterrogation de la pensée
du scientifique imposée par la réalité physique.
Si la théorie quantique nous dit effectivement à quoi ressemble
réellement le monde subatomique, alors sa réalité est très différente
de l’objectivité naïve avec laquelle nous pouvons aborder le monde des
objets quotidiens. C’est le point qu’Einstein a eu tant de mal à accepter.
Il croyait passionnément à la réalité du monde physique, mais il a rejeté
la théorie quantique conventionnelle parce qu’elle présupposerait à tort
que seul l’objectif serait le réel.
La réalité quantique est « nuageuse » et a un caractère bien trempé.
Le philosophe-physicien français Bernard d’Espagnat a dit qu’elle était
« voilée ». La figure la plus philosophique, au sens propre du mot, parmi
les figures fondatrices de la théorie quantique était Werner Heisenberg.
Il a estimé qu’il serait utile d’emprunter à Aristote le concept de potentia.
Heisenberg a écrit que
dans les expériences sur les événements atomiques, nous avons affaire à
des choses qui sont des faits, avec des phénomènes qui sont tout aussi réels
que n’importe quel phénomène de la vie quotidienne. Mais les atomes ou
les particules élémentaires ne sont pas aussi réels ; ils forment un monde de
potentialités ou de possibilités plutôt que de choses ou de faits.
Un électron ne possède pas toujours une position définie ou un
mouvement prédéfini, mais possède plutôt la potentialité de présenter

 100 
 Les leçons et leurs significations 

l’une ou l’autre de ces caractéristiques si une mesure transforme cette


potentialité en réalité. Je ne suis pas d’accord avec Heisenberg lors-
qu’il dit que ce fait rend un électron « moins réel » qu’une table ou une
chaise. L’électron jouit simplement d’un autre type de réalité, approprié
à sa nature. Si nous voulons connaître les choses telles qu’elles sont,
nous devons être prêts à les connaître tels qu’ils sont réellement, à leurs
propres conditions, pour ainsi dire.
Pourquoi presque tous les physiciens veulent-ils insister sur la réalité,
bien comprise, des électrons ? Je crois que c’est parce que l’hypothèse
selon laquelle il y a des électrons, avec toutes les subtiles propriétés
quantiques qui vont avec, rend intelligibles de grandes parties de l’ex-
périence physique qui, autrement, nous seraient opaques. Cela explique
les propriétés de conduction des métaux, les propriétés chimiques des
atomes, notre capacité à construire des microscopes électroniques, et
bien d’autres choses encore. C’est l’intelligibilité (plutôt que l’objectivité)
qui est l’indice de la réalité – une conviction, d’ailleurs, qui est consonante
avec une tradition métaphysique issue de la pensée de Thomas d’Aquin.
La réalité voilée qui est l’essence même de la nature des électrons
est représentée dans notre pensée par les fonctions d’onde qui leur
sont associées. Lorsqu’un physicien réfléchit à ce qu’un électron « fait »,
c’est la fonction d’onde appropriée qui est à l’esprit. De toute évidence,
la fonction d’onde n’est pas une entité aussi accessible que la présence
objective d’une boule de billard, mais elle ne fonctionne pas non plus
dans la pensée quantique d’une manière qui rend confortable la notion
positiviste selon laquelle il s’agit simplement d’un dispositif de calcul. La
fonction ondulatoire, qui ressemble à une vague, semble être un véhicule
approprié pour véhiculer la potentialité voilée de la réalité quantique.

POUR ÊTRE RAISONNABLE


Si l’étude de la physique quantique devait nous apprendre quelque
chose, c’est bien que le monde est rempli de surprises. Personne n’au-
rait pu supposer qu’il pouvait y avoir des entités qui se comporteraient

 101 
 La théorie quantique 

parfois comme des ondes et parfois comme des particules. Cette prise
de conscience s’est imposée à la communauté des physiciens par la
nécessité de disposer d’une expérience empirique réelle. Comme Bohr
l’a dit un jour, le monde n’est pas seulement plus étrange que nous le
pensions, il est plus étrange que nous pourrions le penser. Nous avons
noté précédemment que même la logique doit être modifiée lorsqu’elle
est appliquée au monde quantique.
Un slogan pour le physicien quantique pourrait bien être : « Pas de
tyrannie excessive du bon sens. » Cette devise transmet un message
dont la pertinence dépasse le seul domaine quantique. Elle nous rappelle
que notre capacité de prévision rationnelle est assez myope. La question
qu’un scientifique devrait poser instinctivement face à ce qui se propose
de rendre compte d’un aspect de la réalité, que ce soit dans le cadre de
la science ou au-delà, n’est pas « est-ce raisonnable ? », comme si nous
pensions savoir à l’avance quelle forme la raison allait prendre. La bonne
question est plutôt : « Qu’est-ce qui vous fait penser que cela pourrait
être le cas ? » Cette dernière question est beaucoup plus ouverte, car
elle n’exclut pas la possibilité d’une surprise radicale, mais insiste sur le
fait que ce qui est affirmé doit être étayé par des preuves.
Si la théorie quantique nous encourage à garder une souplesse dans
notre conception de ce qui est raisonnable, elle nous encourage éga-
lement à reconnaître qu’il n’existe pas d’épistémologie universelle, pas
de moyen souverain unique par lequel nous pourrions espérer acquérir
toutes les connaissances. Si nous pouvons connaître le monde quoti-
dien dans sa clarté newtonienne, nous ne pouvons connaître le monde
quantique que si nous sommes prêts à l’accepter dans son incertitude
heisenberguienne. Insister sur un compte rendu naïvement objectif des
électrons ne peut que conduire à l’échec. Il existe une sorte de cercle
épistémologique : la façon dont nous connaissons une entité doit se
conformer à la nature de cette entité ; la nature de l’entité est révélée par
ce que nous savons sur elle. Il est impossible d’échapper à cette délicate
circularité. L’exemple de la théorie quantique encourage la croyance que
le cercle peut être « bénin » et non « vicieux ».

 102 
 Les leçons et leurs significations 

LES CRITÈRES MÉTAPHYSIQUES


Les théories physiques qui réussissent doivent finalement pou-
voir démontrer leur capacité à s’adapter aux faits expérimentaux. La
sauvegarde des apparences est une réalisation nécessaire, bien qu’il
puisse y avoir quelques périodes intermédiaires difficiles sur le chemin
(comme lorsque Dirac fit face initialement à la prédiction apparemment
­désastreuse sur le plan empirique d’états d’énergie négative de l’élec-
tron). La propriété de fécondité durable sera particulièrement convain-
cante, car une théorie s’avère capable de prédire ou de donner une
compréhension de phénomènes nouveaux ou inattendus (explication
de Dirac sur les propriétés magnétiques des électrons et sa prédiction
du positron).
Cependant, ces succès empiriques ne sont pas toujours en soi des
critères suffisants pour qu’une théorie soit approuvée et adoptée par
la communauté scientifique. Le choix entre une interprétation indéter-
ministe de la théorie quantique et une interprétation déterministe ne
peut être fait sur ces bases. Bohm sauve les apparences, au même titre
que Bohr. La question entre eux doit être réglée pour d’autres raisons.
Il s’avère que la décision dépend d’un jugement métaphysique et pas
seulement de mesures physiques.
Parmi les critères métaphysiques que la communauté scientifique
prend très au sérieux lorsqu’elle évalue le poids à accorder à une théorie,
se trouvent :

(1) Champ d’application


La théorie doit rendre intelligible l’éventail le plus large possible de
phénomènes. Dans le cas de Bohr et de Bohm, ce critère ne conduit
pas à un règlement de la question entre eux, en raison de l’équivalence
empirique des deux ensembles de résultats (il faut cependant noter
que la pensée bohmienne doit compléter son exposé par de meilleurs
arguments pour étayer sa conviction que les probabilités initiales sont
correctement données par un calcul de fonction d’onde).

 103 
 La théorie quantique 

(2) Économie
Plus une théorie est concise et parcimonieuse, plus elle paraîtra
attrayante. La théorie de Bohm est moins bien notée ici en raison de
son hypothèse de l’onde cachée en plus des particules observables. Cette
multiplication des entités est certainement considérée par de nombreux
physiciens comme une caractéristique peu attrayante de la théorie.

(3) Élégance
C’est une notion, à laquelle on peut ajouter la propriété de naturel,
qui résulte de l’absence d’artifice excessif. C’est pour cette raison que la
plupart des physiciens trouvent que les idées bohmiennes sont les plus
difficiles à mettre en pratique. En particulier, l’appropriation ad hoc mais
nécessaire pour accepter l’équation de Schrödinger en tant qu’équation
de l’onde bohmienne revêt un air opportuniste peu attrayant.
Ces critères ne se situent pas seulement en dehors de la physique
elle-même, ils sont tels que leur évaluation est aussi une question de
jugement personnel. Pour être convainquant, il ne suffit pas de suivre un
protocole formalisé. L’évaluation de ce jugement ne peut être déléguée
à un ordinateur. Le fait que la communauté de la physique quantique
soit en majorité en faveur de Bohr et contre Bohm est un exemple
paradigmatique de ce que le philosophe de la science, Michael Polanyi,
aurait appelé le rôle de la « connaissance personnelle » dans la science.
Polanyi, qui fut lui-même un éminent physico-chimiste avant de se
tourner vers la philosophie, souligna que, bien que le sujet de la science
soit le monde physique impersonnel, l’activité qui consiste à faire de
la science est inéluctablement une activité de personnes. En effet, elle
implique de nombreux actes de jugement qui requièrent l’exercice de
compétences tacites qui ne peuvent être acquises que par des per-
sonnes qui ont fait un long apprentissage au sein de la communauté
des scientifiques en quête de vérité. Ces jugements ne concernent pas
seulement l’application du type de critères métaphysiques dont nous
avons parlé. À un niveau plus quotidien, ils incluent des compétences
telles que la capacité de l’expérimentateur à évaluer et à éliminer les

 104 
 Les leçons et leurs significations 

effets de « bruit de fond » fallacieux qui pourraient autrement contaminer


les résultats d’une expérience. Il n’existe pas de petit livre noir qui indique
à l’expérimentateur comment procéder. C’est une chose qui s’apprend
par l’expérience. Comme le répétait souvent Polanyi, nous en savons
tous « plus que nous ne pouvons en dire », que ce soit dans les compé-
tences tacites de la bicyclette, l’appréciation du vin ou la conception et
l’exécution d’expériences physiques réussies.

HOLISME
Nous avons vu au chapitre 5 que l’effet EPR montre une non-localité
intrinsèque présente dans le monde quantique. Nous avons également
vu que le phénomène de décohérence a mis en évidence les effets
étonnamment puissants que l’environnement général peut exercer sur
les entités quantiques. Bien que la physique quantique soit la physique
des très petits, elle ne valide en aucun cas un compte rendu purement
atomiste de la réalité.
La physique ne détermine pas la métaphysique (la vision du monde
au sens large), mais elle la contraint certainement, plutôt comme les
fondations d’une maison contraignent – mais ne déterminent pas com-
plètement – l’édifice qui sera construit sur elles. La pensée philosophique
n’a pas toujours pris en compte de manière adéquate les implications
des aspects holistiques de la théorie quantique. Il ne fait aucun doute
qu’ils encouragent l’acceptation de la nécessité de parvenir à une repré-
sentation du monde naturel qui réussit à la fois à reconnaître que ses
éléments constitutifs sont effectivement des particules élémentaires et
que leur combinaison donne naissance à une réalité plus intégrée qu’une
simple image constitutive pourrait le laisser supposer.

LE RÔLE DE L’OBSERVATEUR
Un cliché souvent répété est que la théorie quantique est « créée par
l’observateur ». Une réflexion plus approfondie permettra de nuancer
et de réduire considérablement cette affirmation. Ce qui peut être dit

 105 
 La théorie quantique 

dépendra essentiellement de l’interprétation du processus de mesure qui


sera choisie. C’est la question centrale car, entre les mesures, l’équation de
Schrödinger prescrit qu’un système quantique évolue de manière parfai-
tement continue et déterminée. Il est également important de rappeler
que la définition générale de la mesure est l’enregistrement macros-
copique irréversible du signal d’un état microscopique. Cet événement
peut impliquer un observateur, mais en général il n’est pas nécessaire.
Seule l’interprétation de la conscience attribue un rôle unique aux
actes d’un observateur conscient. Toutes les autres interprétations
concernent simplement des aspects du processus physique, sans faire
appel à la présence d’une personne. Même dans l’interprétation en
conscience, le rôle de l’observateur se limite à choisir consciemment ce
qui doit être mesuré et à provoquer inconsciemment le résultat final. La
réalité ne peut être transformée que dans les limites de la potentialité
quantique déjà présente.
Dans la vision néo-Copenhague, l’expérimentateur choisit quel(s)
appareil(s) utiliser et donc ce qui doit être mesuré, mais le résultat est
ensuite décidé au sein de ces appareils par des processus physiques
macroscopiques. Si, au contraire, c’est la « nouvelle physique » dite de
GRW qui est à l’œuvre, c’est un processus aléatoire qui produit le résultat
réel. Si la théorie de Bohm est correcte, le rôle de l’observateur est simple-
ment de voir ce qui est déjà le cas sans ambiguïté. Dans l’interprétation
des mondes multiples, c’est l’observateur qui est soumis à l’action de
la réalité physique, étant cloné pour apparaître dans tous ces univers
parallèles, dans le vaste portefeuille desquels tous les résultats possibles
sont réalisés quelque part ou autre.
Aucun facteur commun n’unit ces différents témoignages sur le rôle
de l’observateur. Il semble tout au plus approprié de ne parler que de
« réalité influencée par l’observateur » et d’éviter de parler de « réalité
créée par l’observateur ». Ce qui n’était pas déjà potentiellement présent
dans un certain sens ne pourrait jamais voir le jour.
Dans ce contexte, il convient également de s’interroger sur l’af-
firmation, souvent associée à des parallèles avec le concept de mâyâ

 106 
 Les leçons et leurs significations 

dans la pensée orientale védique, selon laquelle le monde quantique


est un « monde en dissolution » fait d’insubstantialité. C’est une sorte
de demi-vérité. Il y a la caractéristique de « voile » quantique dont nous
avons déjà parlé, ainsi que le rôle largement reconnu que joue la poten-
tialité dans la compréhension quantique. Mais il y a aussi des aspects
persistants du monde quantique qui doivent également être pris en
compte. Les quantités physiques telles que l’énergie et la quantité de
mouvement sont conservées dans la théorie quantique, tout comme
elles le sont dans la physique classique. Rappelons également que l’un
des premiers triomphes de la mécanique quantique a été d’expliquer
la stabilité des atomes. Le principe d’exclusion quantique sous-tend la
structure fixe du tableau périodique. Le monde quantique ne se dissout
en aucun cas dans l’insaisissabilité.

L’EXAGÉRATION QUANTIQUE
Il semble approprié de clore ce chapitre par un avertissement pour la
santé intellectuelle de chacun. La théorie quantique est, certes, étrange et
surprenante, mais selon elle, il n’est pas si étrange d’affirmer que « tout
est possible ». Bien sûr, personne ne conteste une telle désinvolture, mais
il existe une sorte de discours qui peut dangereusement se rapprocher
de cette attitude caricaturale. On pourrait l’appeler de « l’exagération
quantique ». Je souligne que la mesure et la sobriété doivent être de mise
lorsqu’on fait appel à la connaissance quantique.
Nous avons vu que l’effet EPR n’offre pas d’explication à la télépathie,
car son degré d’enchevêtrement mutuel ne pourrait pas faciliter le trans-
fert d’informations. Les processus quantiques dans le cerveau peuvent
éventuellement avoir un lien avec l’existence de l’esprit conscient humain,
mais l’incertitude subatomique aléatoire est en fait très différente de
l’exercice du libre arbitre d’un agent.
La dualité onde/particule est un phénomène très surprenant et ins-
tructif, dont le caractère apparemment paradoxal a été résolu pour nous
par les connaissances de la théorie quantique des champs. Cependant,

 107 
 La théorie quantique 

elle ne nous confère pas la liberté d’embrasser n’importe quelle paire de


notions apparemment contradictoires qui nous prennent au dépourvu.
Comme une drogue puissante, la théorie quantique est merveilleuse
lorsqu’elle est appliquée correctement ; elle est désastreuse lorsqu’on
en abuse et l’applique à mauvaise escient.

 108 
 
Lectures
complémentaires

Les livres relatifs à la théorie quantique sont légion. La liste suivante


présente une courte sélection personnelle qui pourrait être utile de pour
un lecteur à la recherche d’informations complémentaires.
Des livres qui utilisent plus les mathématiques que celui-ci, tout en
restant accessibles :
T. Hey et P. Walters, The Quantum Universe (Cambridge University Press, 1987)
J. C. Polkinghorne, The Quantum World (Penguin, 1990)
M. Rae, Quantum Physics: Illusion or Reality? (Cambridge University Press, 1986)
Un livre qui utilise les mathématiques à un niveau professionnel, tout en
étant beaucoup plus concerné par les questions d’interprétation que le sont
les manuels scolaires :
C. J. Isham, Lectures on Quantum Theory: Mathematical and Structural Foundations
(Imperial College Press, 1995)
La présentation la plus connue d’un des fondateurs du sujet :
P. A. M. Dirac, The Principles of Quantum Mechanics, 4e ed. (Oxford University
Press, 1958)
Une analyse philosophique complexe sur quelques thèmes sujets à
interprétation :
B. d’Espagnat, Reality and the Physicist: Knowledge, Duration and the Quantum
World (Cambridge University Press, 1989)
Une introduction plus générale aux questions de philosophie des sciences :
W. H. Newton-Smith, The Rationality of Science (Routledge et Kegan Paul, 1981)

 109 
 La théorie quantique 

Newton-Smith, cependant, ne tient pas compte de la pensée de Michael


Polanyi, que l’on peut trouver dans :
M. Polanyi, Personal Knowledge (Routledge et Kegan Paul, 1958)
Des livres présentant un intérêt particulier pour la version bohmienne de
la théorie quantique :
D. Bohm et B. Hiley, The Undivided Universe (Routledge, 1993)
J. T. Cushing, Quantum Mechanics: Historical Contingency and the Copenhagen
Hegemony (University of Chicago Press, 1994)
Les écrits de deux figures fondatrices :
N. Bohr, Atomic Physics and Human Knowledge (Wiley, 1958)
W. Heisenberg, Physics and Philosophy: The Revolution in Modern Science (Allen
& Unwin, 1958)
Les biographies des principaux physiciens quantiques :
A. Pais, Niels Bohr’s Times in Physics, Philosophy and Polity (Oxford University
Press, 1991)
H. S. Kragh, Dirac: A Scientific Biography (Cambridge University Press, 1990)
A. Pais, “Subtle is the Lord…”: The Science and Life of Albert Einstein (Oxford
University Press, 1982)
J. Gleick, Genius: The Life and Science of Richard Feynman (Pantheon, 1992)
D. C. Cassidy, Uncertainty: The Life and Science of Werner Heisenberg
(W. H. ­Freeman, 1992)
W. Moore, Schrödinger: Life and Thought (Cambridge University Press, 1989)

 110 
 
Glossaire

D’une manière générale, ce glossaire se limite à définir les termes


présents dans le texte ou qui sont particulièrement importants pour une
compréhension de base de la théorie quantique. D’autres termes qui ne
reviennent qu’une seule fois ou qui sont d’une importance moins fonda-
mentale sont définis dans le texte lui-même, et sont accessibles via l’index.
Bosons : particules dont les fonctions d’onde sont symétriques.
Chaologie quantique : le sujet (très mal compris) de la mécanique quan-
tique des systèmes chaotiques.
Complémentarité : le fait, très souligné par Niels Bohr, qu’il existe des
façons distinctes et mutuellement exclusives d’envisager un système
quantique.
Constante de Planck : la nouvelle constante physique fondamentale qui
fixe l’échelle de la théorie quantique.
Décohérence : effet de l’environnement sur les systèmes quantiques,
capable d’induire rapidement un comportement presque classique.
Degrés de liberté : les différentes manières indépendantes dont un sys-
tème dynamique peut changer au cours de son mouvement.
École de Copenhague : une famille d’interprétations de la théorie quan-
tique dérivée de Niels Bohr et mettant l’accent sur l’indétermination et
le rôle des appareils de mesure classiques dans la mesure.
Effondrement du paquet d’ondes : changement discontinu de la fonction
d’une onde occasionné par un acte de mesure.
Épistémologie : discussion philosophique sur la signification de ce que
nous pouvons savoir.

 111 
 La théorie quantique 

Équation de Schrödinger : l’équation fondamentale de la théorie quan-


tique qui détermine comment la fonction d’onde varie avec le temps.
Fermions : particules dont les fonctions d’onde sont asymétriques.
Fonction d’onde : la représentation mathématique la plus utile d’un état
dans la théorie quantique. C’est une solution de la dualité onde/particule
de l’équation de Schrödinger : la propriété quantique selon laquelle les
entités peuvent parfois se comporter comme des particules et parfois
comme des ondes.
Formule de Balmer : une formule simple pour les fréquences des raies les
plus importantes du spectre de l’hydrogène.
Inégalités de Bell : conditions qui devraient être satisfaites dans une théo-
rie strictement locale, sans corrélations non locales.
Interprétation des multimondes : une interprétation de la théorie
quantique dans laquelle tous les résultats possibles de la mesure sont
effectivement réalisés dans différents mondes parallèles.
L’effet EPR : conséquence contre-intuitive que deux entités quantiques qui
ont interagi l’une avec l’autre conservent un pouvoir d’influence mutuelle
quelle que soit la distance qui les sépare.
Moment angulaire : une quantité dynamique qui est la mesure du mou-
vement de rotation.
Non-commutant : la propriété que l’ordre de multiplication importe, de
sorte qu’AB n’est pas la même chose que BA.
Observables : quantités qui peuvent être mesurées expérimentalement.
Ontologie : discussion philosophique sur la nature de l’être.
Phénomènes d’interférence : effets résultant de la combinaison des
ondes, qui peuvent se traduire par un renforcement (ondes en phase)
ou une annulation (ondes hors phase).
Physique classique : théorie physique déterministe et imaginable (au sens
de « image ») du type de celle qu’Isaac Newton a découverte.

 112 
 Glossaire 

Physique statistique : traitement du comportement global des systèmes


complexes sur la base de leurs états les plus probables.
Positivisme : position philosophique selon laquelle la science se préoc-
cupe simplement de la corrélation entre des phénomènes directement
observés.
Pragmatisme : la position philosophique selon laquelle la science est en
réalité une question de capacité technique à faire avancer les choses.
Principe d’exclusion : la condition selon laquelle deux fermions (comme
deux électrons) ne peuvent pas être dans le même état.
Principe d’incertitude : le fait qu’en théorie quantique, les éléments
observables peuvent être regroupés par paires (comme la position et la
quantité de mouvement, le temps et l’énergie) de telle sorte que les deux
membres de la paire ne peuvent pas être mesurés simultanément avec
une exactitude précise. L’échelle de la limite de la précision simultanée
est fixée par la constante de Planck.
Problème de mesure : la question litigieuse dans l’interprétation de la
théorie quantique concernant la manière dont on doit comprendre l’ob-
tention d’un résultat précis à chaque fois qu’une mesure est effectuée.
Quarks et gluons : candidats actuels pour les constituants de base de la
matière nucléaire.
Rayonnement : énergie transportée par le champ électromagnétique.
Réalisme : la position philosophique selon laquelle la science nous dit ce
qu’est réellement le monde physique.
Spin : le moment angulaire intrinsèque que possèdent les particules
élémentaires
Statistiques : le comportement des systèmes composés de particules
identiques.
Superposition : principe fondamental de la théorie quantique qui per-
met d’additionner des états qui, en physique classique, ne sont pas
additionnables.

 113 
 La théorie quantique 

Théorie bohmienne : une interprétation déterministe de la théorie quan-


tique proposée par David Bohm.
Théorie du chaos : la physique des systèmes dont l’extrême sensibilité aux
détails des circonstances rend leur comportement futur intrinsèquement
imprévisible.
Théorie quantique des champs : application de la théorie quantique à
des champs tels que le champ électromagnétique ou le champ associé
aux électrons.
Variables cachées : des quantités non observables qui aident à fixer ce qui
se passe réellement dans une interprétation déterministe de la théorie
quantique.

 114 
 
Annexe mathématique

J’expose ici, sous une forme concise, quelques détails mathématiques


simples qui éclaireront, pour ceux qui le souhaitent, divers points soulevés
dans le texte principal. Les prérequis pour lire cette annexe vont de la capacité
à se sentir à l’aise avec les équations algébriques à une certaine familiarité
élémentaire avec la notation du calcul différentiel.
1. La formule de Balmer
Il est très utile de donner la formule sous la forme légèrement modifiée
dans laquelle elle a été réécrite par Rydberg. Si υn est la fréquence de la
n-ième ligne du spectre visible de l’hydrogène (n prenant les valeurs entières,
3, 4…), alors
1 1
υn = cR  2 − 2  , (1.1)
2 n 
où c est la vitesse de la lumière et R est une constante appelée la constante
Rydberg.
Exprimer la formule de cette manière, comme la différence de deux
termes, s’est finalement avéré être une manœuvre astucieuse (voir la sec-
tion 3 ci-dessous).
D’autres séries de lignes spectrales dans lesquelles le premier terme est
1/12, 1/32, etc., ont été identifiées par la suite.
2. L’effet photoélectrique
Selon Planck, le rayonnement électromagnétique oscillant υ fois par
seconde est émis en quanta d’énergie hυ, où h est la constante de Planck
et a la valeur minuscule de 6,63 × 10– 34 joules-secondes. (Si l’on remplace υ
par la fréquence angulaire ω = 2πυ, la formule devient ħω, où ħ = h/2π, aussi
souvent appelée constante de Planck et prononcée « h bar » ou « h slash »).

 115 
 La théorie quantique 

Einstein avait avancé que ces quanta avaient une existence permanente.
Si un rayonnement tombait sur un métal, l’un des électrons du métal pourrait
absorber un quantum, acquérant ainsi son énergie. Si l’énergie nécessaire à
l’électron pour s’échapper du métal était W, alors cette évasion aurait lieu si
hυ > W, mais elle serait impossible si hυ < W. Il y avait donc une fréquence
(υo = W/h) en dessous de laquelle aucun électron ne peut être émis, quelle
que soit l’intensité du faisceau de rayonnement incident. Au-delà de cette
fréquence, certains électrons seraient émis, même si le faisceau était assez
faible.
Une théorie des ondes pures du rayonnement donnerait un compor-
tement entièrement différent, puisque l’énergie transmise aux électrons
dépendrait alors de l’intensité du faisceau, mais pas de sa fréquence. Les
propriétés observées de l’émission photoélectrique concordent avec les
prédictions de l’image des particules et non avec l’image des ondes.
3. Le modèle d’atome de Bohr
Bohr a supposé que l’atome d’hydrogène est constitué d’un électron
de charge – e et de masse m parcourant un cercle autour d’un proton de
charge e. La masse de ce dernier est suffisamment importante (1 836 fois la
masse de l’électron) pour que l’effet de son mouvement soit négligé. Si le
rayon du cercle est r et la vitesse de l’électron est u, alors l’équilibre entre
l’attraction électrostatique et l’accélération centrifuge sera
e2 v2
= m , ou e2 = mv2r. (3.1)
r2 r
L’énergie de l’électron est la somme de son énergie cinétique et de son
énergie potentielle électrostatique, ce qui donne
1 e2
E = mv 2 − , (3.2)
2 r
lequel, partant de (3.1), peut s’écrire
−e 2
E= . (3.3)
2r

 116 
 Annexe mathématique 

Bohr a alors imposé une nouvelle condition quantique, exigeant que le


moment angulaire de l’électron soit un multiple intégral de la constante
de Planck ħ,
mvr = nħ (n = 1, 2…). (3.4)
Les énergies possibles correspondantes sont alors
−e 4 m 1
En = ⋅ . (3.5)
2h 2 n 2
Si l’énergie libérée lorsqu’un électron passe de l’état n à l’état 2 est émise
sous la forme d’un seul photon, la fréquence de ce photon sera
e4 m  1 1
υn = c ⋅ ⋅  2 − 2 . (3.6)
4π h c  2 n 
3

Il s’agit simplement de la formule Balmer (voir 1.1). Non seulement Bohr


avait expliqué cette formule, mais il avait aussi permis de calculer la constante
de Rydberg R en fonction d’autres constantes physiques connues,
e4 m
R= , (3.7)
4 π h3 c
un nombre qui correspondait à la valeur connue expérimentalement. La
découverte de Bohr a représenté une avancée remarquable pour la nouvelle
façon de penser le monde quantique.
(Dans le calcul admis en termes de mécanique quantique de l’atome d’hy-
drogène, et en utilisant l’équation de Schrödinger (voir section 6), les niveaux
d’énergie discrets se produisent d’une manière quelque peu différente, pré-
sentant une certaine analogie avec les fréquences harmoniques d’une chaîne
ouverte, et le nombre n est davantage « obliquement lié » au moment angulaire.)
4. Les opérateurs non-commutants
Les matrices employées par Heisenberg ne commutent généralement
pas les unes avec les autres, mais il s’est finalement avéré que la théorie
quantique nécessitait une généralisation supplémentaire dans laquelle les
opérateurs différentiels non commutants étaient incorporés dans le for-
malisme. C’est ce développement qui a conduit les physiciens à utiliser les
mathématiques de l’espace de Hilbert.

 117 
 La théorie quantique 

Dans le cas général, les formules de la mécanique quantique peuvent


être obtenues à partir de celles de la physique classique en effectuant les
substitutions suivantes pour la position x et la quantité de mouvement p :
x → x,

p → – iħ (4.1)
∂x
En raison de l’apparition de l’opérateur différentiel ∂/∂x dans (4.1), les
variables x et p ne commutent pas entre elles, contrairement à la propriété
de commutation qui s’applique trivialement aux nombres que la physique
classique attribue aux positions et aux moments. Lorsque ∂/∂x est à gauche,
il différencie le x à sa droite, ainsi que toute autre entité à droite, de sorte
que nous pouvons écrire
∂ ∂
⋅ x − x ⋅ = 1. (4.2)
∂x ∂x
En définissant les crochets du collecteur [p, x] = p.x – x.p, nous pouvons
la réécrire comme suit
[p, x] = – iħ. (4.3)
Cette relation est connue sous le nom de condition de quantification.
Un lecteur averti notera qu’une autre solution de (4.3) serait donnée par

x → iħ ,
∂p
p → p. (4.4)
Dirac a particulièrement insisté sur le fait qu’il existe de nombreuses
manières équivalentes qui permettent de formuler la mécanique quantique.
5. Les ondes de de Broglie
La formule de Planck
E = hυ (5.1)
rend l’énergie proportionnelle au nombre de vibrations par unité d’intervalle
de temps. La théorie de la relativité met entre crochets l’espace et le temps,
le moment et l’énergie, comme des combinaisons quadruples naturelles.

 118 
 Annexe mathématique 

Le jeune de Broglie a donc proposé qu’en théorie quantique, le moment


cinétique soit proportionnel au nombre de vibrations par unité d’intervalle
d’espace. Cela a conduit à la formule
h
p= , (5.2)
λ
où λ est la longueur d’onde. Les équations (5.1) et (5.2) donnent ensemble
un moyen de relier les propriétés des particules (E et p) aux propriétés des
ondes (υ et λ). La dépendance spatiale d’une forme d’onde de la longueur
d’onde λ est donnée par
ei2πx/λ. (5.3)
Si maintenant on combine (4.1) et (5.3), on retrouve (5.2).

6. L’équation de Schrödinger
L’énergie d’une particule est la somme de son énergie cinétique
1 2 1 2
( mv = p /m , où p est mv) et son énergie potentielle (que, en général,
2 2
on peut écrire en fonction de x, V(x)). La relation de mécanique quantique
entre l’énergie et le temps, qui est l’analogue de (4.1), est

E → iħ . (6.1)
∂t
La différence de signes entre (6.1) et (4.1) est due au fait que la dépen-
dance temporelle d’une forme d’onde se déplaçant vers la droite et corres-
pondant à la dépendance spatiale (5.3), est
e– i2πut, (6.2)
de sorte que le signe plus (6.1) est nécessaire pour arriver à E = hυ.
1
En utilisant (4.1) et (6.1) pour transformer E = mv 2 + V en une équation
2
différentielle pour la fonction d’onde de la mécanique quantique ψ, on obtient
∂Ψ  ħ 2 ∂ 2 
iħ = − + V (x) ψ (6.3a)
∂ t  2m ∂x2 

 119 
 La théorie quantique 

dans une dimension spatiale, et


∂Ψ  ħ 2 2 
iħ = − ∇ + V (x) ψ , (6.3b)
∂ t  2m 

dans l’espace tridimensionnel du vecteur x = (x, y, z), où


∂2 ∂2 ∂2
∇2 = 2 + 2 + 2 . (6.4)
∂x ∂y ∂z
Ces expressions sont l’équation de Schrödinger, d’abord écrite par lui
sur la base d’une ligne d’argumentation assez différente. L’opérateur entre
crochets dans les équations (6.3) est appelé l’hamiltonien.
Notez que les équations (6.3) sont des équations linéaires dans ψ, c’est-à-
dire que si ψ1 et ψ2 sont deux solutions, il en va de même pour
λ1ψ1 + λ2ψ2, (6.5)
pour toute paire de chiffres λ1 et λ2.
Max Born a souligné que la fonction d’onde permet de représenter
une onde de probabilité. La probabilité de trouver une particule au point x
est proportionnelle au carré du module de la fonction d’onde (complexe)
correspondante.
7. Les espaces linéaires
La propriété de linéarité notée à la fin de la section 6 est une caractéris-
tique fondamentale de la théorie quantique et le fondement du principe de
superposition. Dirac a généralisé les idées basées sur les fonctions d’onde,
formulant la théorie en termes d’espaces vectoriels abstraits.
Un ensemble de vecteurs | αi 〉 forment un espace vectoriel si une
­combinaison de ceux-ci
λ1 | α1 〉 + λ2 | α2 〉 + …, (7.1)
appartient également à l’espace, où les λi sont des nombres arbitraires (com-
plexes). Dirac a appelé ces vecteurs « kets ». Ce sont les généralisations des
fonctions d’onde de Schrödinger ψ. Il existe également un double espace
de « bras », liés de manière antilinéaire aux kets

∑ λ lα 〉 →∑ 〈α lλ
i
i i
i
i
*
i
(7.2)

 120 
 Annexe mathématique 

où les λi* sont les conjugués complexes des λi. (Les bras 〈 α | correspondent
évidemment aux fonctions d’ondes conjuguées complexes, ψ*). Un produit
scalaire peut être formé entre un bras et un ket (ce qui donne un « bra(c)ket »
[crochet] – Dirac aimait bien ce jeu de mots). Cela correspond, en termes
de fonctions d’onde, à l’intégrale ∫ψ1*ψ2dx. Elle est dénotée par 〈 α1 | a2 〉 et
elle a la propriété que
〈 α1 | a2 〉 = 〈 α2 | a1. 〉* (7.3)
Il découle de (7.3) que 〈 α | a 〉 est un nombre réel et, en fait, dans la
théorie quantique, la condition est imposée qu’il soit positif (il doit corres-
pondre à |ψ|2).
La relation entre un état physique et un ket est ce qu’on appelle une
représentation de rayon, ce qui signifie que | a 〉 et λ | a 〉 représentent le même
état physique pour tout nombre complexe non nul λ.
8. Vecteurs et valeurs propres
Les opérateurs sur les espaces vectoriels sont définis par leur effet de
transformation des kets en d’autres kets :
O| a 〉 = | a′. 〉 (8.1)
Dans la théorie quantique, les opérateurs sont la manière dont les quan-
tités observables sont représentées dans le formalisme (comparer avec les
opérateurs (4.1) agissant sur une fonction d’onde). Les expressions signifi-
catives sont les nombres qui apparaissent sous la forme de « sandwichs »
bras-opérateur-ket (appelés « éléments de matrice » liés aux amplitudes
de probabilité) :
〈 b | O| a. 〉 (8.2)
Le conjugué hermitien d’un opérateur, O , est défini par la relation entre

les éléments de la matrice :


〈 b | O | a 〉 = 〈 a | O† | b. 〉* (8.3)
Une importance particulière est accordée aux opérateurs qui sont leur
propre conjugué hermitien :
O† = O. (8.4)

 121 
 La théorie quantique 

Ils sont appelés hermitiens, et seuls ces opérateurs représentent des


quantités physiquement observables.
Comme les résultats des observations réelles sont toujours des chiffres
réels, pour que ce système ait un sens physique, il doit y avoir un moyen
d’associer les numéros aux opérateurs. Ceci est établi en utilisant les idées
de vecteurs propres et de valeurs propres. Si un opérateur O transforme un ket
| a 〉 en un multiple numérique de lui-même,
O | a 〉 = λ | a 〉, (8.5)
alors on dira que | a 〉 est un vecteur propre de O avec valeur propre λ.
On peut montrer que les valeurs propres des opérateurs hermitiens sont
toujours des nombres réels.
L’interprétation physique correspondant à ces faits mathématiques est
que les valeurs propres réelles d’un observable sont les résultats possibles qui
peuvent être obtenus en mesurant cet observable, et les vecteurs propres
associés correspondent aux états physiques dans lesquels ce résultat par-
ticulier sera obtenu avec certitude (probabilité = 1). Seuls deux observables
dont les opérateurs correspondants commutent seront simultanément
mesurables.
9. Les relations d’incertitude
L’exposé antérieur sur le microscope à rayons gamma a montré que la
mesure quantique impose à l’observateur un certain compromis entre une
bonne résolution spatiale (courte longueur d’onde) et une petite perturba-
tion (à basse fréquence). La traduction de cet équilibre en termes quantitatifs
conduit aux relations d’incertitude de Heisenberg, où l’on constate que l’in-
certitude de position, Δx, et l’incertitude de moment, Δp, ne peuvent avoir
un produit Δx. Δp dont l’amplitude est inférieure à l’ordre de la constante
de Planck ħ.
10. Schrödinger and Heisenberg
Si H est l’Hamiltonien (opérateur énergétique), l’équation de Schrödinger
est la suivante
∂ Iα ,t 〉
iħ = H | a, t. 〉 (10.1)
∂t

 122 
 Annexe mathématique 

Si H ne dépend pas explicitement du temps, comme c’est généralement


le cas, (10.1) peut être résolu formellement par écrit
| a, t 〉 = e– iHt/ħ | α, 0. 〉 (10.2)
Les conséquences physiques de la théorie découlent toutes des propriétés
des éléments matriciels de la forme 〈 a | O| b 〉. En écrivant explicitement la
dépendance temporelle (10.2), on obtient
〈 α, 0 | eiHt/ħ. O . e– iHt/ħ | β, 0. 〉 (10.3)
En associant les termes d’une manière différente, on obtient
〈 α, 0 | . eiHt/ħOe– iHt/ħ . | β, 0. 〉 (10.4)
où la dépendance temporelle a été, pour ainsi dire, confiée à un opérateur
dépendant du temps
O(t) = eiHt/ħOe– iHt/ħ (10.5)
(10.5) peut alors être traitée comme la solution de l’équation différentielle
∂O(t)
iħ = OH – HO = [O, H]. (10.6)
∂t
Cette façon de penser la théorie quantique, dans laquelle la dépendance
du temps est associée aux opérateurs observables plutôt qu’aux états, est
exactement la façon dont Heisenberg a abordé la question à l’origine. Ainsi,
la discussion de la section a démontré l’équivalence des approches des deux
grandes figures fondatrices de la théorie quantique, malgré l’apparence
initiale d’avoir traité la question de manière très différente.
11. Statistiques
Si 1 et 2 sont des particules identiques et indiscernables, alors | 1, 2 〉 et
| 2, 1 〉 doivent correspondre au même état physique. En raison du caractère de
représentation des rayons du formalisme (voir section 7), cela implique que
| 2, 1 〉 = λ | 1, 2 〉 (11.1)
où λ est le nombre. Cependant, échanger deux fois le 1 et le 2 n’est pas du
tout un changement et doit donc rétablir exactement la situation initiale.
Par conséquent, il doit être possible que
λ2 = 1, (11.2)
donne les deux possibilités, λ = + 1 (statistiques de Bose), ou λ = – 1 (statis-
tiques de Fermi).

 123 
 La théorie quantique 

12. L’équation de Dirac


Sur la plaque commémorative de Paul Dirac à l’abbaye de Westminster,
l’équation est gravée :
iγ∂ψ = mψ. (12.1)
Il s’agit de sa célèbre équation relativiste des ondes pour l’électron,
écrite en notation spatio-temporelle quadridimensionnelle et (en utilisant
les unités physiques naturelles de la théorie quantique qui fixent ħ = 1). Les γs
sont des matrices 4 par 4 et ψ est ce qu’on appelle un « spineur » à quatre
composantes (2 (spin) fois 2 (états (électron/positron)). On ne peut pas
aller plus loin dans un tel livre d’introduction, mais, que ce soit sur le papier,
sur la page ou gravé sur la pierre de l’Abbaye, le visiteur devrait y trouver
l’occasion de rendre hommage à ce qui est l’une des plus belles et des plus
profondes équations de la physique.

 124 
 
Index

A Conscience (état de) 55, 63, 64, 65,


68, 69, 81, 94, 102, 106
Antimatière 85, 86 Corps noir (rayonnement) 18, 19,
Aspect, Alain 93 20, 24
Correspondance (principe) 60
B
Bell, John 65, 93, 112 D
Bohm, David 65, 66, 67, 68, 69, 91, de Broglie, Louis 30, 31, 38, 118, 119
103, 104, 106, 110, 114 décohérence 56, 58, 68, 69, 81, 83,
Bohr, Niels 23, 24, 25, 27, 29, 32, 46, 89, 105
48, 49, 60, 61, 68, 91, 98, 102, d’Espagnat, Bernard 100, 109
103, 104, 110, 111, 116, 117 Diffraction électronique 36
Boltzmann, Ludwig 18 Dirac, Paul 12, 33, 34, 51, 68, 74, 83,
Born, Max 33, 37, 120 84, 85, 86, 88, 103, 109, 110, 118,
Bosons 74, 75, 76 120, 121, 124
dualité onde/particule 36, 48, 86,
C 107, 112
Calcul quantique 53, 89
Catastrophe ultraviolette 18, 19, E
20, 23 École de Copenhague 46, 48, 60,
Chaologie quantique 82 61, 66, 69, 91, 106, 111
Chaos (théorie) 82 Effet Compton 25
Chat de Schrödinger 63, 64 Effet EPR 91, 93, 94, 95, 105, 107, 112
Chimie 74 Effet photoélectrique 20, 21, 22, 91
Commutation 118 Effet tunnel 71, 72, 73
Complémentarité 48, 49, 66 Effet Zénon quantique 83
Condensation de Bose 76 Effondrement du train d’onde 56,
59, 62, 64, 69, 93

 125 
 La théorie quantique 

Einstein, Albert 11, 16, 20, 21, 22, 25, Inégalités de Bell 93
31, 73, 75, 91, 92, 93, 100, 110, 116 Intelligibilité 101
Électrodynamique quantique 51 Interprétation Bohmienne 66, 67,
Enchevêtrement 94, 95, 107 104
Épistémologie 102 Irréversibilité 61, 62
Espace de Hilbert 40, 117
Espaces vectoriels 39, 44, 120, 121 L
Exagération quantique 95, 107
Exclusion (principe) 74, 75, 76, 84, Laplace, Pierre Simon 13
107 Logique quantique 50
Expérience à choix différé 78, 79 Lumière 13, 14, 15, 16, 17, 18, 21, 22,
Expérience de la double fente 49, 78 26, 27, 30, 31, 40, 45, 75, 78, 94,
99, 115
F
M
Fermions 74, 75, 76, 113
Feynman, Richard 12, 34, 78, 80, Maxwell, James Clerk 14, 15, 16, 18,
81, 110 22, 25, 30
fonction d’onde 38, 59, 64, 73, 74, Mécanique d’onde 30, 32, 37
93, 101, 103, 112, 119, 120, 121 Mécanique matricielle 29, 32
Mécanique quantique (principes)
G 11, 30, 32, 33, 34, 44, 48, 53, 54,
60, 65, 68, 69, 71, 72, 73, 76, 82,
GRW (théorie) 62, 68, 69, 106 84, 86, 87, 91, 92, 93, 97, 107, 111,
117, 118, 119
H Mesures 16, 20, 37, 38, 42, 43, 44,
56, 57, 60, 62, 65, 69, 92, 103, 106
Hamilton, William Rowan 68 Métaphysique 11, 12, 65, 68, 94, 101,
h (constante de Planck) 20, 24, 60, 103, 105
76, 80, 82, 113, 115, 117, 122 Michelson-Morley (expérience) 16
Heisenberg, Werner 29, 30, 32, 42, Moindre action 80, 81
44, 45, 46, 48, 61, 68, 71, 82, 87, Mouvement du point zéro 88
91, 100, 101, 110, 117, 122, 123 Multi-mondes (interprétation) 68,
69
I
Incertitude (principe) 44, 45, 46,
68, 91

 126 
 Index 

N Q
Newton, Isaac 11, 13, 14, 15, 16, 19, Quanta 19, 20, 21, 24, 71, 74, 87,
25, 60, 66, 109, 110, 112 115, 116

O R
Observables 40, 42, 44, 45, 47, 68, Rayleigh, Lord 18
73, 76, 104, 113, 114, 121, 122, 123 Réalisme 97, 98, 99
Observateur (rôle) 16, 63, 64, 105, Rosen, Nathan 91
106, 122 Rutherford, Lord 22, 24
Onde 14, 15, 16, 17, 21, 25, 27, 30,
31, 37, 38, 43, 46, 47, 49, 56, 62, S
66, 78, 102, 111, 112, 116, 118, 119,
121, 124 Schéma de pensée orientale 107
Onde de guidage 66 Schrödinger (équation) 32, 37, 38,
Opérateurs 40, 41, 42, 44, 47, 117, 59, 67, 104, 106, 112, 117, 119,
121, 122, 123 120, 122
Schrödinger, Erwin 30, 31, 32, 38,
P 48, 63, 64, 67, 110, 112, 120, 122
Série de Balmer 17, 23, 25, 29, 32, 115
Pauli, Wolfgang 76 Sommerfeld, Arnold 46
Phénomènes d’interférence 112 Spectres 29
Planck, Max 16, 19, 20, 21, 22, 23, 25, Spin 57, 58, 76, 83, 92, 124
26, 27, 30, 45, 111, 115, 118 Spin et statistique 76, 83
Podolsky, Boris 91 Statistique 18, 37, 74, 113
Polanyi, Michael 104, 110 Stern-Gerlach (expérience) 57, 58,
Positivisme 59, 97, 99, 113 63
Potentia 100 Structure en bandes 76, 77
Pragmatisme 99, 113 Superposition( principe) 34, 36, 39,
Probabilité (amplitudes) 47, 53, 40, 43, 53, 56, 57, 64, 78, 87, 89,
56, 121 120
Probabilités 37, 47, 48, 52, 53, 54,
55, 56, 65, 66, 67, 103 T
Théorie quantique des champs 86,
87, 88, 107
Théorie quantique relativiste 83

 127 
Thomson, George 31 von Neumann, John 50, 55, 65
Thomson, Joseph 17, 31
W
V Wheeler, John Archibold 78
Valeurs propres 42, 43, 47, 121, 122 Wien, Wilhelm 46
Variables cachées 54, 55, 66, 69
Vecteurs propres 42, 43, 122 Y
Vide 55, 84, 87, 88
Young, Thomas 14, 22

Vous aimerez peut-être aussi