Vous êtes sur la page 1sur 12

Louis DE BROGLIE

Dualité et complémentarité ondes/corpuscules

Continu et discontinu en physique moderne


Paris, Flammarion, 1941, extraits de la préface et du chap. I

Dans un précédent volume de cette collection, nous avions réuni un certain nombre d’études
sur la Physique contemporaine dans l’intention de mettre enévidence l’originalité des
conceptions nouvelles qui y ont été récemment introduites et l’importance des conséquences
philosophiques qui en découlent. L’idée centrale de ce premier volume était de montrer
comment les théories corpusculaires et les théories ondulatoires de la Physique
classiqueétaient venues se rejoindre et se fondre au sein de la Mécanique ondulatoire. Grâce
à cette fusion, toute différence essentielle s’était trouuée abolie entre la Matière et la
Lumière, toutes deux douées d’un double aspect corpusculaire et ondulatoire : ainsi se
trouvait justifié le titre sous lequel cette première série d’études avait été rassemblée.

Dans le présent ouvrage, nous offrons aux lecteurs une nouvelle série de monographies
consacrées, elles aussi, presque toutes à diverses questions de Physique quantique et de
Mécanique ondulatoire. Ici l’idée centrale à laquelle se peut rattacher cet ensenible d’essais,
c’est l’aspect vraiment nouveau que prennent dans la Physique d’aujourd’hui le traditionnel
dilemme « continu ou discontinu », la classique opposition de l’élément simple et indivisible
avec le continu étendu et disible. Dans la science moderne, l’élément simple et indivisible,
c’est le grain, grain de matière ou grain de lumière, neutron, électron ou photon. Ce grain se
manifeste à nous comme une entité physique indivisible, susceptible de produire tantôt une
action localisée en une région quasi ponctuelle de l’espace, tantôt unéchange d’énergie ou
d’impulsion où apparaît son caractère d’unité dynamique autonome : il est l’élément
discontinu qui dans les profondeurs de l’infiniment petit paraît bien constituer la réalité
ultime. Par contre, dans les théories nouvelles comme dans les anciennes, l’étendue continue
et divisible, c’est essentiellement le champ, c’est-à-dire l’ensemble des propriétés physiques
qui caracterisent à chaque instant les divers points de l’espace et qui s’expriment par des
jonctions généralement continues des coordonnées d’espace et de temps. Au premier abord,
on pourrait être tenté de considérer l’espace et le temps (ou l’espace-temps relativiste)
comme un cadre donné à priori : le champ viendrait remplir ce cadre vide en exprimant ses
propriétés locales. Cependant, il paraît plus juste (la relativité généralisée nous a d’ailleurs
habitués à cette idée) de renverser l’ordre des préséances et de dire au contraire : c’est le
champ qui est la réalité première et c’est lui qui crée et qui modèle l’espace et le temps en
leur donnant un contenu physique.

Mais les conceptions antinomiques de grain et de champ doivent nécessairement en fin de


compte venir à la rencontre l’une de l’autre puisqu’elles doivent trouver leur place côte a côte
dans le cadre de la Physique totale. Comment les concilier ? Longtemps on a pensé que les
grains devaient se décrire comme des objets ponctuels ou quasi ponctuels ayant à chaque
instant une position dans l’espace. Eux aussi ils se trouveraient insérés dans le cadre de
l’espace et du temps et viendraient se situer au sein du « champ ». Il était alors tout naturel
de considérer les grains comme des sortes de points singuliers du champ. Il ne semble pas
que les tentatives faites pour préciser cette séduisante conception aient été très heureuses

1
et les théories quantiques actuelles nous font entrevoir une solution de ce problème bien
autrement profonde et intéressante. Esquissons la rapidement.

La discontinuité symbolisée par le grain est sans doute la réalité ultime. Mais les grains ne
sont pas véritablement localisables dans le cadre de l’espace et du temps comme on le
supposait autrefois. C’est le développement de la théorie des quanta qui nous a amenés a
cette surprenante conclusion : les incertitudes d’Heisenberg s’opposent en effet à ce que
nous puissions leur attribuer constamment une position et une vitesse bien déterminées dans
l’espace. Nous ne devons pas trop nous en étonner. Qu’est-ce, en effet, que l’espace et le
temps ? Ce sont des cadres qui nous sont suggéres par l’interprétation de nos perceptions
usuelles, c’est-à-dire des cadres où peuvent se loger les phénomènes essentiellement
statistiques et macroscopiques que nos perceptions nous révèlent. Pourquoi alors être surpris
de voir le grain, réalité discontinue essentiellement élémentaire et microscopique, refuser de
s’insérer exactement dans ce cadre grossier bon seulement pour représenter des moyennes?
Ce n’est pas l’espace et le temps, concepts statistiques, qui peuvent nous permettre de
décrire les propriétés des entités élémentaires, des grains ; c’est au contraire à partir de
moyennes statistiques faites sur les manifestations des entités élémentaires qu’une théorie
suffisamment habile devrait pouvoir dégager ce cadre de nos perceptions macroscopique que
forment l’espace et le temps. Les nouvelles théories quantiques semblent nous indiquer assez
nettement la voie dans laquelle il faudrait s’engager pour réaliser ce programme. Elles nous
montrent, en effet, que si les grains ne sont pas constamment localisables dans notre cadre
usuel de l’espace et du temps, par contre les probabilités de leurs localisations possibles dans
ce cadre sont representées par des fonctions généralement continues ayant le caractère de
grandeurs de champ : ces « champs de probabilité » sont les ondes de la Mécanique
ondulatoire ou du moins des grandeurs se calculant à partir de ces ondes. La dualité
corpuscule-onde, qui avait été le leitmotiv de Matière et Lumière, nous apparaît ici sous un
autre jour : l’onde étendue de la Mécanique ondulatoire, onde ψ associée à l’électron ou
onde électro-magnétique associée au photon, c’est comme le reflet dans notre espace et
notre temps macroscopiques de l’impossibilité de localiser les corpuscules élémentaires, les
grains, dans un cadre moyen qui n’est pas adapté à leur description exacte. Mais, comme
précédemment, on peut aussi renverser l’ordre des préséances et considérer le cadre continu
constitué par notre espace et notre temps comme engendré en quelque sorte par
l’incertitude d’Heisenberg, la continuité macroscopique résultant alors d’une statistique
opérée sur des éléments discontinus affectés d’incertitudes. Il n’est probablement pas facile
de de développer ces idées sous une forme précise et logiquement satisfaisante. Mais il est
certain qu’en nous montrant comment l’existence des champs correspond à la non
localisation des grains, la Mécanique ondulatoire et les théories quantiques nous ouvrent de
remarquables perspectives nouvelles sur le vieux problème du continu et du discontinu. […]

[L’expérience des fentes de Young]

Lorsqu’une onde se propage librement dans l’espace, on peut la concevoir comme une suite
de vagues dont les crêtes successives sont séparées par une distance constante appelée
« longueur d’onde ». L’ensemble des vagues se propage dans la direction de propagation de
l’onde, de sorte qu’en un point fixe de l’espace les différentes vagues avec eurs crêtes et leurs

2
creux passent l’une après l’autre régulièrement. Par définition, on appelle « fréquence de
l’onde » le nombre des crêtes de l’onde qui passent en un point fixe en une seconde.

Nous nous figurons ainsi aisément comment progresse régulièrement une onde dans une
région où rien ne vient entraver sa propagation. Mais les choses vont se passer tout
différemment si l’onde en progressant vient se heurter à des obstacles. Alors, en effet, l’onde
pourra être comme déformée ou repliée sur elle-même, de sorte qu’au lieu d’avoir affaire a
une onde simple du type précédent, on a maintenant affaire à une superposition de telles
ondes simples. L’état vibratoire résultant en chaque point dépendra alors de la façon dont les
effets des diverses ondes se renforcent ou se contrarient. Si les diverses ondes simples qui se
croisent en un point ajoutent leurs effets, la vibration résultante sera très intense. Si, au
contraire, ces ondes se contrarient, la vibration résultante sera très faible ou même nulle :
dans ce cas, suivant une formule célèbre, de la lumière ajoutée à de la lumière pourra
engendrer l’obscurité. Ce sont là les phénomènes d’interférences dont la théorie des ondes
est apte à prévoir l’apparition d’une façon détaillée et quantitative dans chaque cas
particulier.

Si donc on adopte l’idée que la lumière est formée d’ondes, on sera amené à prévoir que,
quand des obstacles s’opposeront à la libre progression d’un faisceau de lumière, des
phénomènes d’interférences devront apparaître. Dans la région d’interférences, la répartition
de la lumière sera compliquée : on y observera des franges brillantes et des franges obscures.
Ces prévisions sont tout à fait caractéristiques de la théorie ondulatoire et rien de semblable
ne peut être annoncé par la théorie corpusculaire. Donc, si l’on parvient à mettre en évidence
avec de la lumière des phénomènes d’interférences, on sera, semble-t-il, forcé d’admettre
que la Lumière est formée d’ondes. C’est précisément ce qui arriva à l’époque où Thomas
Young et Augustin Fresnel mirent hors de doute l’existence des interférences.

Illustration : Expérience de Young à deux fentes (« double-slit »), vue en perspective du dispositif. (N.B. : les
schémas reproduits ici ne figurent pas dans l’ouvrage original.)

3
Et maintenant, pour préciser les caractéristiques essentielles de la conception ondulatoire de
la Lumière, nous allons analyser un phénomène d’interférences particulier. Nous n’avons que
l’embarras du choix, car ces phénomènes sont très nombreux et très variés : nous choisirons
un des plus simples, un de ceux précisément qui ont été découverts par Young un peu avant
les travaux de Fresnel. Nous considérerons un écran formé d’une matière opaque, mais percé
d’un certain nombre d’ouvertures, par exemple circulaires et régulièrement distribuées.
(Dans l’expérience classique des trous [ou fentes] d’Young, il y avait seulement deux de ces
ouvertures). Une source de lumière que nous supposerons ponctuelle envoie une onde
lumineuse sur l’une des faces de cet écran. L’onde vient heurter toute la surface de l’écran et
elle est arrêtée par toutes les régions non perforées de l’écran. Au contraire, dans les régions
perforées de l’écran, l’onde incidente fuse en quelque sorte au travers des ouvertures qui lui
sont offertes et pénètre ainsi dans la partie de l’espace postérieure à l’écran. De ce côté de
l’écran, chaque ouverture devient le centre d’une petite onde sphérique et la superposition
de toutes ces ondelettes donne lieu à un phénomène d’interférence conformément au
schéma exposé plus haut. Le calcul de ce phénomène d’interférences peut se faire d’une
façon très précise en tenant compte de la distribution des ouvertures sur l’écran et conduit à
des résultats entièrement vérifiés par l’expérience.

Illustrations : Expérience de Young à deux fentes, formation de franges d’interférences.

4
Il nous faut dégager quelques caractères importants de cette expérience telle que nous
l’interprétons en utilisant l’image ondulatoire de la lumière. L’onde lumineuse émise par la
source se répand uniformément autour de cette source et vient frapper toute la surface
antérieure de l’écran ; elle tâte, pourrait-on dire en langage imagé, toute la surface de cet
écran et c’est ce qui lui rend possible de trouver les ouvertures qui lui permettent de s’infiltrer
dans la région située au delà. En raison de l’homogénéité de l’écran, toutes les ouvertures
jouent un rôle parfaitement symétrique et contribuent toutes symétriquement au
phénomène d’interférences qui se produit derrière l’écran. Le calcul tient compte de ce rôle
identique de toutes les ouvertures. J’insiste sur ces points car c’est là, nous le verrons, ce qui
a rendu si difficile de concilier une structure granulaire de la lumière avec l’existence des
phénomènes d’interférences.

[L’effet photo-électrique et l’hypothèse des quanta de lumière]

[…] La matière contient en son sein un nombre énorme de petites charges électriques
ponctuelles qu’on nomme les électrons. A l’état normal, les électrons ne peuvent pas sortir
de la matière. Pour leur permettre d’en sortir, il faut leur fournir une quantité d’énergie bien
déterminée qui dépend d’ailleur de la nature du corps considéré et de la position occupée par
les électrons dans la structure de ce corps. L’expulsion d’un de ces électrons hors de la matière
est donc précisément l’un de ces mécanismes à déclenchements dont nous avons parlé, qui
exigent pour leur mise en action, l’apport instantané d’une certaine quantité d’énergie. Or
l’expérience a prouvé qu’en éclairant un morceau de matière, on peut dès le début de
l’irradiation déclencher l’expulsion des électrons hors de la matière à condition toutefois que
la fréquence de la lumière utilisée soit suffisamment élevée ; c’est là l’effet photoélectrique.
Mais le point essentiel est le suivant : l’effet photoélectrique est indépendant de l’intensité
de la lumière et, si l’on place le morceau de matière irradié très loin de la source, il y a toujours
des électrons expulsés pourvu que la fréquence soit suffisamment élevée. Plus on sera loin
de la source, moins il y aura d’électrons expulsés de la matière par seconde, mais si loin qu’on
soit, il y aura toujours quelques-un de temps en temps. Donc la lumière, même quand sont
intensité est très faible, reste toujours capable, si sa fréquence est assez élevée, de déclencher
le mécanisme photoélectrique. Comme nous l’avons vu plus haut, cela ne peut s’expliquer
qu’en admettant une structure granulaire de la Lumière et, puisqu’il faut pour déclencher
l’effet photoélectrique que la fréquence ait au moins une certaine valeur minima, on est
ammené à penser que chaque corpuscule de lumière transporte une quantité d’énergie
d’autant plus grande que sa fréquence est plus élevée.

Ces conclusions dérivent en quelque sorte directement de l’expérience mais, en y


réfléchissant, les physiciens se sont aperçus qu’elles se rattachent intimement à des fait déjà
rencontrés dans d’autres domaines de la Physique. En effet, les physiciens ne se sont pas
bornés à étudier la lumière en elle-même : ils ont aussi cherché comment elle est émise et
absorbée par la matière et comment il peut s’établir deséquilibres d’énergie entre la lumière
et la matière. Examinant ces difficiles questions, l’illustre savant Max Planck fut amené vers
1900, pour obtenir des résultats satisfaisant et en accord avec les faits, à énoncer l’hypothèse
suivante : « Si nous désignons suivant l’usage par la lettre grecque n la fréquence d’une
certaine lumière, la matière ne peut émettre et absorber cette lumière que par quantités

5
d’énergie finies et égale à hn ou, comme on dit souvent, par « quanta » d’énergie hn ». Dans
cet énoncé, la lettre h désigne une constante dont M. Planck a suévaluer la valeur numérique
dès le début de ses travaux sur cette question et qu’on nomme aujourd’hui « la constante de
Planck ».

Tous les développements ultérieurs des théories sur l’émission ou l’absorption de la lumière
par la matière ont confirmé la géniale hypothèse de Planck. En 1905, M. Einstein a précisé et
interprété cette hypothèse en admettant que toute lumière de fréquence n est formée de
corpuscules d’énergie hn. Les corpuscules ainsi réintroduits dans la théorie de la Lumière ont
été d’abord appelés « quanta de lumière » et sont généralement aujourd’hui désignés sous
le nom de photons. Ce retour vers une conception corpusculaire de la lumière a permis
d’interpréter avec précision les particularités de l’effet photoélectrique. […]

[Retour sur l’expérience de Young]

La conception classique des corpuscules consiste à se les representer comme de petits objets
se déplaçant dans l’espace en décrivant une trajectoire. Le mouvementdu corpuscule dépend
alors uniquement des circonstances qu’il rencontre le long de sa trajectoire. En langage
imagé, on peut dire que le corpuscule « explore » l’espace seulement le long de la trajectoire
qu’il décrit et ignore ce qui se passe au dehors de cette trajectoire. Si nous appliquons cette
conception du corpuscule aux photons constituant la lumière, nous nous heurtons à de très
graves difficultés pour l’interprétation des interférences. Reprenons en effet le phénomène
d’interférences que nous avons précédemment étudié ; représentons-nous la lumière émise
par une source tombant sur la face antérieure de l’écran percé de trous et cherchons à suivre,
par la pensée la trajectoire d’un des photons de cette lumière. Le photon parti en ligne droite
de la source arrive sur l’écran : en général, il tombera sur une région pleine de l’écran et ne
pourra poursuivre son chemin. Il pourra cependant arriver que le photon parvenant sur
l’écran trouve devant lui un des trous qui y sont perforés et puisse continuer son chemin au
delà de l’écran. Mais il est presque inimaginable que le photon ayant traversé un des trous
percés dans l’écran puisse, en quelque sorte, savoir que d’autres trous sont percés dans cet
écran et subir l’infuence de ces autres trous. Aucune tentative théorique permettant
d’expliquer l’action sur ce photon de la présence des trous par lesquels il n’a pas passé n’a pu
aboutir à un résultat satisfaisant. De ce fait l’interprétation des interférences qui
effectivement se produisent derrière l’écran devient impossible : cette interprétation est
essentiellement fondée, nous l’avons déjà dit, sur une participation symétrique de toutes les
ouvertures percées dans l’écran au phénomène global d’interférences.

Mais ici s’offre en apparence une échappatoire. En effet, les sources de lumière d’intensité
usuelle envoient constamment autour d’elles un nombre énorme de photons. On pourra donc
admettre que toutes les ouvertures percées dans l’écran sont traversées presque
simultanément par des photons. Ne pourrait-on pas imaginer que tous ces photons en
pénétrant simultanément dans la région postérieure à l’écran exercent entre eux des actions
réciproques provoquant une répartition de ces photons correspondant aux phénomènes
d’interférences? En d’autres termes, ces photons ne pourraient-ils pas, par suite de leurs
interactions, se répartir dans l’espace de façon à être nombreux dans les régions oùl’on voit
des franges brillantes et au contraire peu nombreux (ou même absents) dans les régions où

6
se trouvent des franges obscures ? Une telle explication serait certainement très difficile à
préciser d’une façon satisfaisante, mais il est inutile de chercher à le faire car il existe de très
importantes expériences qui s’opposent absolument à l’adoption d’un semblable point de
vue.

Ces expériences sont celles où l’on a obtenu des franges d’interférences avec une source de
lumière extrêmement faible. Quand on veut inscrire d’une façon précise et durable les franges
qui se produisent dans un phénomène d’interférences, on emploie souvent des films
photographiques. L’emploi de la méthode photographique a un avantage important : si la
source de lumière employée est peu intense et si par suite les franges brillantes du
phénomène d’interferences à étudier sont peu lumineuses, il suffira d’attendre suffisamment
longtemps pour que les franges finissent par s’inscrire sur la plaque photographique, la
longueur de la pose compensant la faiblesse de la lumière. Mais alors une question se
présente à l’esprit : si l’on emploie des sources de lumière de plus en plus faibles et
corrélativement des temps de pose de plus en plus long, continuera-t-on indéfiniment à
obtenir des franges d’interférences ? La reponse que la théorie donne à cette question
dépend du point de vue que l’on adopte. Si l’on admet qu’un seul photon arrivant dans
l’appareil peut y produire un phènomène d’interférences, alors on devra obtenir des franges,
si faible que soit la lumière utilisée, puisque les photons bien qu’arrivant les uns après les
autres à des intervalles de temps assez longs provoqueront des interférences. Si, au contraire,
on admet que les phénomènes d’interférences sont dûs à l’interaction de nombreux photons
arrivant simultanément sur l’appareil d’interférences (c’est-à-dire sur l’écran percé de trous
dans notre exemple), alors les interférences devraient disparaître quand la lumière utilisée
devient assez faible pour qu’il ne puisse pas arriver beaucoup de photons à la fois sur
l’appareil. L’expérience a répondu d’une façon nette : les franges d’interférences sont
obtenues quelque faible que soit la lumière utilisée, même quand il ne peut pas y avoir plus
d’un photon à la fois dans l’appareil d’interférences. En nous obligeant à admettre que, même
quand les photons arrivent un à un sur l’appareil, les franges finissent par s’inscrire sur la
plaque photographique ces expériences capitales nous contraignent à rejeter la théorie qui
cherchait à expliquer les interférences par l’interaction de nombreux photons.

Et voici alors la crise de l’Optique portée à son point le plus aigu. D’une part, en effet, il nous
faut admettre que lors de l’arrivée d’un seul photon sur notre écran percé de trous, il se
produit un phénomène d’interférences où tous les trous jouent un rôle symétrique sans qu’on
puisse dire que le photon ait passé par l’un ou par l’autre : tout se passe comme si le photon
avait couvert uniformément toute la surface de l’écran, ce qui conduirait à lui donner des
dimensions inacceptables. D’autre part, l’effet photoélectrique nous montre le photon
apportant toute son énergie dans une très petite région de l’espace et y produisant un effet
tout à fait localisé. Comment sortir de cette impasse et concilier le caractère d’être étendu et
homogène de l’onde lumineuse, sans laquelle on ne peut expliquer les interférences, avec le
caractère ponctuel et localisé des effets, tels que l’effet photoélectrique, oùse manifeste le
photon ? Pour cela, nous l’avons déjà dit, il a fallu introduire des idées très nouvelles et très
hardies.

7
[Reformulation du problème en termes de probabilités]

[…] Nous sommes ainsi conduits à la conclusion suivante : la théorie ondulatoire prévoit d’une
façon exacte la répartition des photons qui sont parvenus dans la région d’interférences, elle
prédit exactement les régions où arriveront beaucoup de photons (franges brillantes) et les
régions où arriveront peu ou pas de photons (franges obscures). Mais les photons, dans notre
expérience à faible intensité, arrivent un par un : à chacun d’eux il faut associer une onde
lumineuse qui interfère et dont on peut calculer l’intensité résultante à l’arrière de l’écran
dans la région des interférences ; et cependant le photon considéré produira un seul effet
ponctuel dans la couche sensible de la plaque photographique. La seule manière de mettre
tous ces faits en accord est d’admettre que la répartition des intensités aux divers points de
l’espace dans l’onde lumineuse associée à un photon détermine la probabilité pour que le
photon se manifeste par une action observable (par exemple un effet photoélectrique) en tel
ou tel point de l’espace. On peut exprimer ceci un peu autrement en disant : là où l’onde
associée au photon possède une forte intensité résultante, il y a une grande probabilité que
le photon manifeste sa présence par un effet observable et là oùl’onde associée au photon
possède une amplitude résultante faible (ou nulle) , il y a peu (ou pas) de chance que le photon
se manifeste par un effet observable. On comprend alors très bien pourquoi au bout d’un
temps très long, un grand nombre de photons auront produit des actions photoélectriques
sur la plaque photographique là où l’amplitude de leurs ondes associées est très grande
(franges brillantes) tandis que peu ou pas de photons auront produit un effet sur la plaque là
où l’amplitude de leurs ondes associées est faible ou nulle (franges obscures). Ainsi en
établissant une relation de probabilité entre chaque photon et son onde associée, on parvient
à comprendre comment la théorie ondulatoire peut prévoir la forme exacte des franges
brillantes ou obscures inscrites à la fin de l’expérience d’interférences sur la plaque
photographique, bien que chaque photon ait produit seulement un effet ponctuel et localisé
dans la couche sensible de la plaque.

[Du mode d’existence des corpuscules : non-localité et indéterminisme]

Mais il faut bien voir maintenant combien l’idée à laquelle nous parvenons ainsi nous conduit
à modifier profondément nos anciennes représentations. Tout d’abord, pendant que le
photon sera en train de se propager entre la source de lumière et la plaque photographique
avant d’avoir produit aucun effet observable, on ne pourra aucunement lui attribuer une
trajectoire et seule la propagation de l’onde lumineuse associée nous permettra de
représenter le déplacement du photon. Nous nous apercevons alors que l’idée de corpuscule,
telle qu’elle était admise traditionnellement, contient deux aspects différents dont l’un peut
être conservé, mais dont l’autre doit être abandonné. Le premier aspect de la notion de
corpuscule est celui d’un agent indécomposable susceptible de produire des effets
observables bien localisés oùse manifeste la totalité de sonénergie (et de sa quantité de
mouvement). Cet aspect correspond bien aux actions de la lumière sur la matière quand on
les analyse d’une manière suffisamment fine, car ils se ramènent alors tous à l’effet
photoélectrique et aux effets analogues. Le deuxième aspect de la notion de corpuscule est
celui d’un petit objet ayant à chaque instant dans l’espace une position et une vitesse bien
déterminées et décrivant par suite une trajectoire linéaire : c’est ce second aspect de l’idée

8
de corpuscule qu’il nous est nécessaire de laisser tomber1. Nous pouvons considérer le
photon comme un corpuscule en ce sens qu’il est susceptible de produire des actions
localisées où se manifeste la totalité de son énergie et de sa quantité de mouvement, mais
en dehors de ces actions nous n’avons aucunement le droit d’une façon générale de le
considérer comme un petit objet décrivant une trajectoire dans l’espace. La question de
savoir, dans l’expérience de l’écran percé de trous, par quel trou a passé le photon n’a aucun
sens parce que le photon ne se manifeste par aucune action qui serait exercée lors de son
passage à travers l’écran et n’exerce finalement une action que sur le dispositif (pla que
photographique) qui enregistre les franges. On pourrait évidemment chercher à mettre en
évidence le passage du photon par l’un des trous, mais alors il faudrait monter un dispositif
sur lequel agirait le photon lors de son passage par le trou en question ; or, si le photon agissait
sur ce dispositif, il deviendrait incapable de participer au phénomène d’interférences. On ne
peut donc obtenir le phénomène d’interférences que quand il est impossible de dire par quel
trou le photon a passé. Ceci permet d’entrevoir comment l’existence d’un effet localisé du
photon dans une frange brillante est conciliable avec le rôle tout à fait symétrique joué par
les trous percés dans l’écran pour la production du phénomène global d’interférences.

Illustration : Expérience de Young à deux fentes, avec détection du point de passage du photon.

1
[Plus bas, de Broglie écrit : […] Nous savons qu’une onde lumineuse est susceptible, à l’approximation de
l’optique géométrique, de se propager à l’intérieur d’un tube très délié qui à notre échelle nous apparaît comme
filiforme et constitue pour nous un rayon de lumière. Avec nos conceptions nouvelles, le photon ne peut pas à
chaque instant être localisé en un point précis de ce tube ; nous savons seulement que, s’il nous manifeste sa
présence par un phénomène observable, ce sera forcément à l’intérieur du tube. Comme le tube nous apparaît
à notre échelle comme une simple ligne de l’espace, nous savons que le photon ne pourra se manifester à nous
qu’en un point de cette ligne : pratiquement, nous pourrons donc admettre que le photon est un corpuscule
conçu à la manière ancienne qui décrit une ligne de l’espace : par suite, pratiquement, le rayon de lumière sera
pour nous la trajectoire au sens classique du corpuscule « photon » et ainsi nous retrouverons toute
l’interprétation corpusculaire ancienne des phénomènes de l’optique géométrique. Mais dès que nous sortirons
du domaine de l’Optique géométrique, dès que nous considérerons des phénomènes d’interférences ou de
diffraction, la notion du rayon lumineux deviendra sans valeur : alors nous nous apercevrons que nous ne
pouvons plus à chaque instant localiser le photon en un point de l’espace bien que ses manifestations
observables soient localisées. »]

9
Nous pouvons encore présenter ces idées délicates sous une autre forme. Pendant la
propagation du photon, son mouvement est représenté par l’onde qui lui est associée, sans
qu’il soit possible de lui attribuer une position déterminée à l’intérieur de cette onde. Il y a en
quelque sorte une « présence potentielle » du corpuscule en tous les points de la région, de
l’espace occupée par l’onde, le corpuscule pouvant manifester sa présence par une action
localisée en un point de cette région avec une probabilité proportionnelle à l’intensité de
l’onde en ce point. Quand l’action localisée du photon se produit, la présence potentielle du
photon dans l’onde disparaît et l’onde s’évanouit. On peut dire que quand le photon
manifeste son aspect corpusculaire en se localisant, son aspect ondulatoire disparaît, tandis
qu’au contraire, quand son aspect ondulatoire s’affirme, toute localisation traduisant sa
nature corpusculaire est impossible. C’est là un des aspects du fameux principe d’incertitude
de M. Heisenberg.

Avec ces conceptions nouvelles appliquées à notre écran percé de trous, on voit que l’onde
lumineuse explore toute la surface antérieure de l’écran et, passant par toutes les ouvertures
qui y sont pratiquées et qui jouent toutes un rôle symétrique, produit à l’arrière de l’écran
des interférences ; mais le photon associé à l’onde ne se localise qu’au moment où se produit
un phénomène observable (une impression photographique élémentaire par exemple) et
cette localisation peut se produire en n’importe quel point du champ d’interférences avec
une probabilité proportionnelle à l’intensité de l’onde en ce point. Alors on ne peut calculer
d’une façon exacte que la propagation de l’onde et ses interférences et ce calcul ne fournira
que des probabilités pour les manifestations observables du photon. Nous sommes donc ainsi
ammenés à abandonner l’idée traditionnelle d’un déterminisme rigoureux des phénomènes
physiques observables pour lui substituer l’idée beaucoup plus souple d’un simple lien de
probabilité entre ces phénomènes. On voit maintenant comment en cherchant à résoudre
l’énigme que leur posait la double nature ondulatoire et corpusculaire de Lumière, les
physiciens ontété amenés, par des raisonnements auxquels il semble qu’on ne puisse
guèreéchapper, non seulement à modifier profondément les conceptions usuelles de la
Physique théorique, mais même à adopter des points de vue nouveaux dont l’importance
philosophique est très grande.

Illustration : Généralisation de la situation à tous les corpuscules. Ici, un canon à électrons.

10
Louis DE BROGLIE
La physique nouvelle et les quanta (1937)
Paris, Flammarion, 1937, p. 226-229

[L’idée de complémentarité selon Niels Bohr]

M. Bohr dont le rôle a été si essentiel dans tout le développement de la physique


contemporaine, a beaucoup contribué par des études, toujours profondes et souvent
subtiles, à éclairer le sens de l’orientation si originale de la nouvelle physique. C’est lui, en
particulier, qui a introduit la notion, si curieuse au point de vue philosophique, de
complémentarité.

Bohr part de cette idée que la description d’une entité comme l’électron doit se faire tantôt
à l’aide de l’image corpusculaire, tantôt à l’aide de l’image ondulatoire et se demande
comment deux images si différentes, si contradictoires pourrait-on dire, peuvent ainsi être
employées concurremment. Il montre que l’on peut le faire parce que les relations
d’incertitude, conséquences de l’existence du quantum d’action, ne permettent pas aux deux
images employées d’entrer en conflit direct. Plus on veut préciser une image par des
observations, plus l’autre devient nécessairement floue. Quand l’électron a une longueur
d’onde assez bien définie pour pouvoir interférer, c’est qu’il n’est pas localisé et ne répond
plus à l’image corpusculaire ; par contre, quand l’électron est bien localisé, ces propriétés
d’interférences disparaissent et il ne répond plus à l’image ondulatoire. Les propriétés
ondulatoires et corpusculaires n’entrent jamais en conflit parce qu’elles n’existent jamais en
même temps. On attend sans cesse la bataille entre l’onde et le corpuscule : elle ne se produit
jamais parce qu’il n’y a jamais qu’un adversaire présent. L’entité électron, ainsi que les autres
entités élémentaires de la physique, a ainsi deux aspects inconciliables et qu’il est cependant
nécessaire d’invoquer tour à tour pour expliquer l’ensemble de ses propriétés. Ce sont
comme les faces d’un objet que l’on ne peut contempler à la fois et qu’il faut cependant
envisager tour à tour pour décrire complètement l’objet. Ces deux aspects, M. Bohr les
nomme « aspects complémentaires », entendant par là que ces aspects d’une part se
contredisent et d’autre part se complètent. Et, dans son esprit, cette notion de
complémentarité paraît avoir pris l’importance d’une véritable doctrine philosophique.

Il n’est en effet nullement évident que nous puissions décrire une entité physique à l’aide
d’une seule image ou d’un seul concept de notre esprit. Nous construisons en effet nos images
et nos concepts en nous inspirant de notre expérience journalière; nous extrayons de cette
expérience certains aspects et, partant de là, nous forgerons par simplification et abstraction
certaines images simples, certains concepts apparemment clairs dont nous cherchons ensuite
à nous servir pour interpréter les phénomènes : tels les concepts de corpuscule bien localisé,
d’onde bien monochromatique. Mais il se peut que ces « idéalisations », comme dit M. Bohr,
produits trop simplifiés et trop rigides de notre raison, ne puissent pas s’appliquer
exactement sur la réalité. Pour décrire la complexité du réel, il pourra donc être nécessaire
d’employer successivement pour une même entité deux (ou plusieurs) de ces idéalisations.
Tantôt l’une, tantôt l’autre sera la plus adéquate : parfois (c’est le cas pur du précédent
paragraphe) l’une des deux s’adaptera exactement à la description de l’entité envisagée, mais

11
ce cas sera très exceptionnel et, en général, on ne pourra se passer de faire intervenir les deux
images idéales.

Telles sont, si nous pénétrons bien la pensée très complexe de l’illustre physicien, quelques-
unes des considérations vraiment originales que la physique quantique a inspirées à M. Bohr.
On peut essayer d’étendre le champ d’application de ces idées philosophiques en dehors du
domaine de la physique. On peut, par exemple, chercher, comme M. Bohr l’a fait lui-même,
si la notion de complémentarité ne peut pas trouver en biologie d’importantes applications
et aider à comprendre le double aspect physico-chimique et proprement vital des
phénomènes de la vie. On pourrait aussi, dans un autre ordre d’idées, examiner si toutes les
« idéalisations » ne sont pas d’autant moins applicables à la réalité qu’elles sont plus parfaites
et, pour peu qu’on ait l’esprit enclin au paradoxe, on pourrait soutenir à l’encontre de
Descartes que rien n’est plus trompeur qu’une idée claire et distincte. Mais il convient de
s’arrêter sur cette pente dangereuse et de revenir à la physique.

[Limites de nos catégories spatio-temporelles]

Ce qui est plus certain, c’est que nos notions habituelles d’espace et de temps, même assez
profondément remaniées par la théorie de relativité, ne sont pas exactement appropriées à
la description des phénomènes atomiques. Nous avons déjà fait remarquer […] que
l’existence du quantum d’action implique une liaison tout à fait imprévue entre le
géométrique et le dynamique : la possibilité de localiser les entités physiques dans le cadre
géométrique de l’espace et du temps se montre n’être pas indépendante de leur état
dynamique. Sans doute la relativité généralisée nous avait appris déjà à considérer les
propriétés locales de l’espace-temps comme dépendant de la distribution de la matière dans
l’univers. Mais la modification que requiert l’intervention des quanta est beaucoup plus
profonde encore et ne permet plus de représenter le mouvement d’une unité physique par
une ligne de l’espace-temps (ligne d’univers) ; elle ne permet plus de définir l’état de
mouvement à partir de la courbe qui représente les localisations successives dans l’espace au
cours du temps et exige que nous considérions l’état dynamique, non plus comme dérivant
des localisations spatiotemporelles, mais comme un aspect indépendant et complémentaire
de la réalité physique.

En vérité, les notions d’espace et de temps tirées de notre expérience quotidienne ne sont
valables que pour les phénomènes à grande échelle. Il faudrait y substituer, comme notions
fondamentales valables en microphysique, d’autres conceptions qui conduiraient à retrouver
asymptotiquement, quand on repasse des phénomènes élémentaires aux phénomènes
observables à notre échelle, les notions habituelles d’espace et de temps. Est-il besoin de dire
que c’est là une tâche bien difficile ? On peut même se demander si elle est possible, si nous
pourrons jamais arriver à éliminer à ce point ce qui constitue le cadre même de notre vie
courante. Mais l’histoire de la science montre l’extrême fertilité de l’esprit humain et il ne
faut pas désespérer.

Cependant, tant que nous ne serons pas parvenus à élargir nos concepts dans le sens indiqué
à l’instant, nous devrons nous évertuer à faire entrer, plus ou moins gauchement, les
phénomènes microscopiques dans le cadre de l’espace et du temps et nous aurons le
sentiment pénible de vouloir enfermer un joyau dans un écrin qui n’est pas fait pour lui.

12

Vous aimerez peut-être aussi