Vous êtes sur la page 1sur 232

Mécanique Quantique

Tome I. Histoires, bases et anciennes théories


I. Introduction
II. Histoire
III. Bases physiques
IV. La théorie de Bohr
V. L'expérience de Young
VI. Principes de base
Tome II. L'équation de Schrödinger
I. Hamiltonien
II. Equation de Schrödinger
III. Applications
IV. Etats liés
V. Théorie des collisions
VI. Formulation matricielle
Annexes
Tome III. Symétries et spin
I. Théorie des groupes
II. Symétries
III. Spin
IV. Particules identiques et spin
V. Physique statistique
VI. Formulation matricielle
Annexes
Tome IV. L'atome d'hydrogène, les atomes et la matière
I. Atomes et molécules
II. Rayonnement
III. Structure hyperfine
IV. Maser et Laser
V. Matière
VI. Le magnétisme
VII. Supraconductivité
Tome V. Mécanique quantique relativiste
I. Vers une équation d'onde relativiste
II. Equation de Dirac
III. Solutions
IV. Hydrogénoïdes
V. Théorie des trous
VI. Propagation et diffusion
Tome VI. Théories à variables cachées, théorèmes et décohérence
I. L'intrication quantique
II. Contextualité
III. Autres théorèmes
IV. Logique quantique
V. Applications
VI. Décohérence
VII. Théorie de Bohm
Tome VII. Interprétation de la mécanique quantique et classicalité
I. Introduction
II. Position du problème
III. Interprétations
IV. Expériences
V. Du quantique au classique
VI. Références
Tome I. Histoires, bases et anciennes théories
I. Introduction
II. Histoire
II.1. Les premières idées
II.1.1. Newton et la lumière
II.1.2. La théorie ondulatoire
II.2. La découverte de l'atome
II.2.1. L'atome de Thomson
II.2.2. L'atome de Rutherford
III. Bases physiques
III.1. Le rayonnement du corps noir
III.2. L'effet photoélectrique
IV. La théorie de Bohr
V. L'expérience de Young
V.1. Expérience avec des corpuscules
V.2. Expérience avec des vagues
V.3. Expérience avec des électrons
V.4. Conséquences
V.4.1. Incertitude et complémentarité
V.4.2. Paquets d'ondes
VI. Principes de base
VI.1. Mesures
VI.2. Niveaux d'énergie
VI.3. Règles d'usage des amplitudes
VI.4. Interférences
Tome I Histoires, bases et anciennes théories

I. Introduction
Bienvenue dans ce cours de mécanique quantique.

La mécanique quantique est la théorie du monde microscopique, des atomes, des particules, de la
lumière… Nous aborderons dans ce cours le développement de la mécanique quantique, ses
applications et son interprétation.

Si nous avons voulu rédiger ce cours c'est suite à un sentiment de manque. Certains livres sont fort
complets et fort techniques mais assez arides, avec fort peu d'explications. D'autres livres, dont
l'archétype est sans nul doute le cours de mécanique quantique de Feynman, sont des merveilles de
clarté et de pédagogie mais au sacrifice de certains développements et prolongements. Le cours de
Feynman est d'ailleurs remarquable et nous en sommes très largement inspirés sur la forme comme
sur le fond. Ne vous étonnez donc pas si vous trouver une similitude plus que de forme avec le
cours de Feynman ! Ce cours est pour une partie une synthèse, espérons le réussie, du cours de
Feynman, du livre très complet de Léonard L. Schiff et du livre de L Couture et R. Zitoun,
complété des travaux de nombreux auteurs repris en bibliographie et de travaux personnels, surtout
dans le dernier tome.

Enfin, un aspect fort important pour comprendre la mécanique quantique est l'interprétation. C'est
un domaine souvent négligé ou cantonné à des articles spécialisés. Ce domaine, qui recouvre
l'analyse de certains phénomènes étranges comme l'intrication, a pourtant des prolongements
modernes tel que la cryptographie quantique.

Il nous a donc semblé important d'opérer une synthèse et d'écrire un cours couvrant entièrement le
sujet. Le revers de la médaille d'un cours qui veut couvrir ces trois aspects est de nécessiter un
volume non négligeable. D'autant qu'à vouloir décrire les différents aspects sous différents angles
on est forcément conduit, à certains moments, à une certaine répétition. D'où l'organisation en sept
tomes distincts.
Comme pré requis à ce cours il faut connaître :
 La mécanique classique.
 L'électromagnétisme.
 La relativité restreinte.
 La statistique de Maxwell-Boltzmann sera un plus.
Et, bien entendu, les outils mathématiques qui vont avec. Peu d'outils mathématiques
supplémentaires sont nécessaires et ils seront présentés en temps voulu.

Ce cours couvre toute la mécanique quantique jusqu'à la mécanique quantique relativiste mais
n'aborde pas la théorie quantique des champs qui nécessiterait à elle seule un ou plusieurs cours.

 Tome I. Histoires, bases et anciennes théories


Nous aborderons plus particulièrement dans ce tome comment les premières idées sont
apparues et quels grands problèmes furent soulevés par le passé. Nous toucherons au vieux
débat de la dualité onde et corpuscule. Nous étudierons quelques expériences de base au cœur
de la mécanique quantique. Et nous poserons les premières briques de base de la théorie.
 Tome II L'équation de Schrödinger
 Tome III Symétries et spin
 Tome IV L'atome d'hydrogène, les atomes et la matière
 Tome V Mécanique quantique relativiste
 Tome VI Théories à variables cachées et théorèmes
 Tome VII Interprétation de la mécanique quantique et classicalité
II. Histoire
Nous n'aborderons pas la naissance de la mécanique quantique sous l'angle historique mais plutôt
d'un point de vue pédagogique. Mais avant d'aborder la mécanique quantique, il est utile de voir les
premières manifestations dans l'histoire de phénomènes qui auraient mérité une analyse par la
mécanique quantique et de voir quelles furent les premières idées. Cela donnera une idée des
problèmes soulevés.

Nous allons commencer par voir comment les anciens ont abordé la nature de la lumière et, en
particulier, Newton. Puis nous verrons la découverte de l'atome et quelles furent les premières
théories tentant de décrire sa structure.
II.1. Les premières idées
Commençons par passer en revue quelques grands problèmes rencontrés avant la naissance de la
mécanique quantique.

Les grands problèmes du passé


A la fin du dix-neuvième siècle, les théories de la mécanique de Newton (plus sa théorie de la
gravitation) et de l'électromagnétisme de Maxwell pouvaient expliquer tous les phénomènes connus
ou presque. Les scientifiques pensaient qu'il n'y avait plus que quelques détails à comprendre et que
tout se réglerait facilement. Ils se trompaient lourdement.

En effet, les problèmes ont rapidement commencé à surgir. Et ce sont ces problèmes qui ont, en
particulier, conduit à la mécanique quantique.

Ces phénomènes étaient ceux qui s'avérèrent très vite défier la physique classique voire la
contredire et que l'on découvrit rapidement comme étant des problèmes rédhibitoires.

Citons en vrac :
 L'invariance de la vitesse de la lumière. Elle a conduit à la relativité restreinte. Mais, en réalité,
elle ne remet pas tout en cause en physique classique (même s'il s'agissait malgré tout d'un
profond bouleversement) car la théorie de l'électromagnétisme était déjà relativiste et les
équations de la mécanique furent aisément adaptées. Il s'agissait avant tout d'une remise en
cause des concepts de temps et d'espace plutôt que d'un changement de paradigme sur la nature
de la matière.
 Le corps noir. Un phénomène physique central, en apparence très simple, mais qui présentait un
comportement incompréhensible. Ce fut une des clefs qui ouvrit les portes de la mécanique
quantique et nous l'étudierons bientôt.
 Certaines propriétés de la lumière en relation avec sa nature un peu mystérieuse, comme l'effet
photoélectrique (celui qui fait fonctionner les cellules photoélectriques qui permettent, par
exemple, d'ouvrir une porte de magasin).
 La structure de l'atome qui commençait à pouvoir être explorée et qui était l'exact opposé de la
structure à laquelle conduisait la physique classique.
 La radioactivité. Phénomène trop énergétique pour trouver une explication simple en physique
classique.

La lumière
Attaquons-nous maintenant à la nature de la lumière. La théorie de l'électromagnétisme a montré
que la lumière était elle-même une onde électromagnétique. Mais tous les mystères ne sont pas
résolus. Tout d'abord, si c'est une onde, quel peut-être le support des "vibrations lumineuses" ? Au
début, on imagina que l'espace était emplit d'un mystérieux fluide appelé "éther luminifère" siège
de ces vibrations. Face à des propriétés physiques de plus en plus contradictoires avec l'avancée des
expériences et face à l'impossibilité de le détecter directement, force fut de constater que ce milieu
était imaginaire. La relativité restreinte tua le peu qui restait de ce concept d'éther en montrant que
l'explication de sa propagation n'avait pas besoin de postuler l'existence d'un tel milieu (en montrant
qu'un "objet", de nature quelconque, mais sans masse, se propage automatiquement à la vitesse c ,
vitesse de la lumière dans le vide).

Donc, la lumière n'est pas une vibration d'un milieu, son comportement ondulatoire est à chercher
ailleurs. C'est simplement un champ électromagnétique qui se propage. Mais même si l'on sait que
la lumière est de nature électromagnétique, nous ne connaissons pas non plus la nature de ces
champs électriques et magnétiques. Est-ce une espèce de fluide ? Autre chose ?

Pour mieux comprendre la situation, faisons un petit retour en arrière dans le temps pour avoir une
meilleure perspective de la situation, sans toutefois remonter aux hypothèses antiques sur la
lumière. Nous commencerons avec le point de vue de Newton.
II.1.1. Newton et la lumière
La nature de la lumière a longtemps été mystérieuse et elle a fait l'objet d'un grand nombre de
théories et d'hypothèses dans l'antiquité rarement fondées sur l'expérimentation.

Mais le débat commence réellement avec Sir Isaac Newton (1642 - 1727). Pour ce grand savant la
lumière était composée de petits corpuscules. Des espèces de petites billes dures microscopiques

Les premiers travaux de Newton sur l'optique datent de 1666. C'est alors qu'il construit un télescope
à réflexions multiples. Pourtant, l'ensemble de ses recherches sur la théorie de la lumière et des
couleurs ne paraîtra en 1704 et elles seront donc influencées par les résultats des études sur
l'attraction gravitationnelle et aussi par les polémiques diverses qu'avaient suscitées ses travaux.

Le 8 février 1672, dans une communication à la Royal Society, Newton avait attribué à la lumière
une nature corpusculaire, se basant sur la complexité de la lumière blanche que manifestent les
phénomènes de dispersion. Les couleurs, pense-t-il, préexistent au sein de la lumière blanche,
substance complexe, et ne sont pas engendrées par l'influence des milieux diaphanes.
Bien sûr, il fallait perdre tout espoir d'observer directement ces corpuscules puisque "voir" implique
de la lumière et donc l'utilisation de ces corpuscules eux même, on tourne en rond. Pour observer la
forme, la taille des corpuscules, il aurait fallu un "senseur" plus petit, plus fin que ces corpuscules.
Mais bien sur, les manifestations de ces corpuscules pouvaient être vues et étudiées.

En tout cas, cette hypothèse semble naturelle car la lumière se propage en ligne droite, comme la
lumière d'un projecteur, comme le montre l'optique géométrique. Si un rayon lumineux était
composé de "petits projectiles" très rapides, cette propriété deviendrait évidente. C'est moins facile
avec des ondes car, lorsqu'on jette une pierre dans l'eau, par exemple, on voit les vagues se
propager en cercles concentriques, non pas comme un faisceau en ligne droite.
Expliquons l'émission et l'absorption de la lumière. Rien de plus facile à expliquer. La matière
chaude, lumineuse, émet un flot de petits corpuscules, et la matière (froide ou non) absorbe
aisément ces corpuscules.

Ensuite, il faut expliquer comment on peut voir les objets non lumineux. Là aussi, c'est facile. Les
corpuscules ne sont pas toujours absorbés, parfois ils rebondissent. Le fait qu'une partie soit
absorbée altère le rayon lumineux et donne une image de l'objet.
Mais il y a aussi le problème de la couleur. Et bien, Newton postula qu'il y avait des corpuscules de
différentes couleurs. Des corpuscules rouges, bleus, verts… Qui nous donnent chacun une
sensation différente lorsqu'ils atteignent notre œil. Si un corps absorbe de préférence tous les
corpuscules sauf les rouges, alors nous le verrons rouge (les seuls qui auront rebondis sur le corps
sans être absorbé).
Enfin, il y a le phénomène de réfraction. Vous avez déjà tous observés ce phénomène dans votre
bain. L'image des objets à travers l'eau est déplacée. Un problème bien connu de ceux qui chassent
au harpon.
Comment expliquer ce phénomène ? L'idée, simple, est que les corpuscules se déplacent moins vite
dans l'eau. Pour être exact et pour respecter l'aspect historique, il faut signaler que Newton pensait
que les corpuscules allaient plus vite dans l'eau. Son explication était simplement différente (basée
sur les lois de la mécanique, le principe de moindre action). Mais nous préférons donner
l'explication qui va suivre car elle est intuitive et plus proche de la réalité. Notre but est de donner
une idée de ce qu'est la lumière, pas de donner un cours d'histoire.

Si l'on imagine que les corpuscules arrivent en rangs serrés à la surface de l'eau (en venant de l'air,
mais dans l'autre sens cela marche aussi) selon un angle légèrement penché, alors les premiers à
toucher l'eau seront ralentis. Les suivants, qui arrivent sur le coté, vont rattraper les premiers et la
trajectoire va s'incurver.
L'expérience est facile à mener. Soit une troupe d'hommes (nos corpuscules) qui marchent en rangs
serrés et qui passent d'un sol dur (notre air) à du sable (notre eau) où ils vont moins vite. S'ils
veulent rester en rangs et sans ralentir exprès avant d'atteindre le sable, alors ils seront obligés de
changer de direction pour compenser le fait que les hommes d'un coté arriveront sur le sable avant
ceux de l'autre coté. C'est exactement ce que l'on voit sur l'image ci-dessus.

Bien entendu, cette explication n'est qu'intuitive et il faudrait expliquer pourquoi les corpuscules
"veulent" rester en rang serré (rien n'interdit a priori un décalage des corpuscules). L'explication de
Newton basée sur la mécanique et le principe de moindre action était plus rigoureuse et conduisait
au résultat que la lumière se déplaçait plus vite dans l'eau (ce qui fut invalidé plus tard par Fizeau
qui put mesurer la vitesse de la lumière dans l'air et dans l'eau).
Ces expériences de réfraction sont à l'origine de presque toute l'optique : les lentilles, les
microscopes, etc. L'explication en terme de corpuscules est donc puissante et utile.

Il reste un dernier problème. On constate que la réfraction est différente selon la couleur. Le bleu
est plus dévié que le rouge. On ne peut pas observer facilement le phénomène à la surface de l'eau
et deux surfaces séparées par de l'eau ne marchent pas, il faut pour cela utiliser un prisme.
Mais là aussi l'explication est très simple : la vitesse des corpuscules dans l'eau (ou dans le verre
par exemple) est différente selon leur couleur. Puisque l'explication de la réfraction ci-dessus et la
déviation qui en résulte dépend du ralentissement dans l'eau, alors une vitesse différente dans l'eau
implique aussi une réfraction différente.

Cette hypothèse des corpuscules à un autre avantage. Elle est mécaniste. Et à l'époque de Newton,
la mécanique (de Newton !) est devenue un outil puissant.

On arrive ainsi à une description satisfaisante de la lumière.

Cette opinion avait entraîné de nombreuses controverses, en particulier les critiques de Hooke et de
Huygens. "Je savais fort bien, conclut Newton, que les propriétés de la lumière peuvent se
comprendre non seulement par l'hypothèse qui m'est attribuée, mais par une infinité d'autres. En
conséquence, j'ai pris le dessein de les éviter toutes."

Newton va donc éviter systématiquement de se prononcer sur la nature de la lumière. Il s'efforcera


de partir d'une définition strictement positive du rayon lumineux, de rattacher la formation
d'anneaux d'interférences (anneaux de Newton) à des dispositions périodiques de facile réflexion ou
de facile transmission. Ces "accès" sont caractérisés par une longueur fondamentale définie
quantitativement par l'expérience. Leur genèse hypothétique n'a donc pas besoin d'être explicitée.

Toutefois, dès 1675, Newton est amené à développer une théorie mixte de la lumière : des
corpuscules spécifiques pourraient exciter les ébranlements de l'éther. Cette idée, selon Newton,
n'est destinée qu'à jouer le rôle des figures au milieu d'un texte obscur. Néanmoins l'introduction
d'un éther semble favoriser l'interprétation des accès.

Sans être hostile à l'introduction d'un éther, Newton reste cependant fidèle à l'interprétation
corpusculaire et n'ira jamais au-delà d'une théorie mixte. Les raisons de cette préférence sont
nombreuses : la nature corpusculaire explique plus intuitivement la propagation rectiligne, elle
permet d'interpréter les phénomènes de diffraction par le bord des fentes et des écrans au moyen
d'une attraction entre une lumière pesante et la matière située en son voisinage. Enfin Hooke,
adversaire déclaré de Newton, est considéré comme le défenseur attitré d'un éther.
Notons d'ailleurs que la formation des accès et la présence d'une périodicité est parfaitement
compatible avec une nature strictement corpusculaire de la lumière. Il suffit de postuler, comme le
fera plus tard Malus, l'existence de particules ellipsoïdales ou "polaires" reproduisant
périodiquement une même configuration. La diversité des couleurs serait due elle-même aux
différences de grosseur et de densité des particules lumineuses spécifiques.

Néanmoins, Newton s'efforce de maintenir une attitude prudente : "Nous sommes certains que la
lumière est une substance, mais il est plus difficile de déterminer ce qu'est cette substance […]. Je
ne veux pas mélanger ce qui est certain avec ce qui est incertain."

Les disciples de Newton ne garderont pas une telle réserve. Après le succès de la théorie de
l'attraction universelle, on essaiera d'introduire des lois de ce type dans tous les domaines.
L'attraction sera le processus destiné à interpréter réflexion, réfraction, diffraction d'une substance
lumière par la matière. Avec l'influence de Voltaire, le développement de la théorie Boscovitch, le
newtonianisme va étendre à l'optique les processus d'attraction. Le corpuscule lumineux, doué
implicitement d'une masse propre, est soumis aux forces de gravitation.

Au cours du XVIIIe siècle, Leonhard Euler revendique pourtant l'héritage de Huygens, critique les
conséquences de la théorie newtonienne (en particulier la proportionnalité entre dispersion
chromatique et déviation par réfraction, ce qui exclurait la possibilité des réaliser des appareils
achromatiques). Il esquisse un retour à une parenté entre lumière et son, mais cet apport reste isolé.

En même temps, et dans l'esprit du XVIIIe siècle, se développent les principes d'économies
naturelles (Leibniz, Maupertuis) qui, au moyen d'erreurs compensatrices, parviennent à faire
bénéficier la lumière d'un traitement applicable aux seuls corpuscules matériels.

Ce n'est qu'au début du XIXe siècle que la théorie ondulatoire prendra le pas sur la théorie
corpusculaire. On peut se demander pourquoi il aura fallu autant de temps, alors que l'on disposait
de nombreux phénomènes manifestement ondulatoires comme les interférences et des travaux
précurseurs de Huygens. Plusieurs raisons ont concourus à cet état de chose :
 L'ingéniosité de Newton à faire de la théorie corpusculaire une théorie efficace et sa notoriété
ont donné à cette interprétation une force contre laquelle il était difficile de se dresser. Celui qui
serait intéressé par la discussion animée entre Newton et ses adversaires sur ce sujet consultera
avec plaisir le livre passionnant d'Einstein et d'Infeld intitulé "L'évolution des idées en
physique" (Paris, Petite Bibliothèque Payot, 1963).
 Mais Newton ne peut être qualifié de responsable, on a vu que des tenants de la théorie
ondulatoire existaient et pas des moindres (comme Euler) et Newton lui-même a souvent adopté
une attitude prudente quant à la nature de la lumière. Les difficultés expérimentales sont aussi
une explication. On ne disposait pas à l'époque des instruments de qualités dont ont pu disposer
plus tard les physiciens et il n'était pas toujours facile d'obtenir une bonne précision des
mesures. Cela rendait difficile une expérimentation qui aurait pu trancher en faveur de l'une ou
l'autre théorie.
 Le caractère ondulatoire de la lumière peut nous sembler évident à notre époque, surtout si l'on
a eut l'occasion d'effectuer quelques expériences en ce sens en laboratoire (par exemple, des
phénomènes d'interférences de Young avec des lasers). Mais à l'époque, toutes les propriétés de
la lumière n'étaient pas connues et, malgré cela, la lumière restait un phénomène fort complexe,
difficile à débroussailler et encore plus à expliquer par quelque théorie que ce soit. Et n'oublions
pas que la propagation rectiligne de la lumière pouvait difficilement être comprise,
intuitivement, d'un point de vue ondulatoire.
 Enfin, une théorie corpusculaire est relativement facile à maîtriser mathématiquement. La
théorie ondulatoire nécessite un arsenal mathématique nettement plus élaboré dont la genèse
était seulement en cours et qui, en outre, n'était pas à la portée de n'importe qui. Les adversaires
de la théorie corpusculaire capables de coucher sur papier des résultats quantitatifs concrets et
précis n'étaient pas légions.
II.1.2. La théorie ondulatoire
Nous n'allons pas donner ici, bien entendu, un cours complet sur la théorie ondulatoire. Celle-ci
étant toutefois importante en mécanique quantique, nous en donnerons un rappel approfondi.

Du temps de Newton, une autre théorie était en gestation, la théorie ondulatoire de la lumière où
celle-ci est considérée comme une onde (à l'époque, vue comme les vibrations mécaniques d'un
milieu inconnu, l'éther).

Bien que la bataille fit rage entre les tenants de la théorie corpusculaire et de la théorie ondulatoire,
cette dernière resta pendant un long moment l'apanage de seulement quelques irréductibles

Notons que la description par les ondes explique tout aussi facilement que la théorie corpusculaire
nombre de phénomènes tel que la réflexion et la réfraction. Vous avez certainement déjà observé ce
phénomène de réflexion des ondes en observant des vagues approcher d'un mur et "rebondir" sur
celui-ci.

Mais il reste une difficulté que nous avons déjà suggérée : les ondes émises à partir d'un point se
propagent sous forme de cercles concentriques et non en ligne droite comme un projectile ou
comme un rayon lumineux. Toutefois, cette difficulté n'est qu'apparente.
Il suffit de "couper" les ondes avec un obstacle (un mur avec une ouverture pour les vagues ci-
dessus) pour obtenir un faisceau d'ondes se propageant de manière rectiligne. Le faisceau est
légèrement divergent mais cela aussi est facile à observer avec le pinceau d'une lampe torche. Ce
n'est qu'avec une source lumineuse très lointaine, comme le soleil, qu'un tel procédé donne un
faisceau pratiquement rectiligne. En outre, le front d'onde se propage parfaitement droit (flèche sur
la figure), ce n'est que le faisceau sur toute sa largeur qui diverge, la flèche peut être considérée
comme un "rayon lumineux", l'onde étant constituée d'un faisceau de tels rayons légèrement
divergents. Enfin, une onde sphérique vue de très près semble plate comme le sol terrestre malgré
la rotondité de la Terre ou avec la petite portion d'onde la plus à droite qui est presque un petit
segment de droite.

A ce stade, nous sommes à peu près à égalité entre les deux théories, mais il y a bien d'autres
choses. En premier lieu, la théorie ondulatoire permet d'expliquer simplement des phénomènes
mystérieux du point de vue corpusculaire, et sans devoir faire les contorsions que Newton fut
parfois obligé de faire pour s'en sortir. Par exemple la diffraction. Si vous percez un petit trou dans
une feuille de papier (avec une épingle) et que vous regardez un rayon lumineux frapper ce trou,
vous constaterez qu'à la sortie le trou "brille". La lumière est dispersée dans tous les sens. C'est
exactement ce qui se passe lorsque des vagues frappent un trou dans une digue.
La théorie ondulatoire explique cela très bien et montre en outre que le phénomène ne se produit
que pour un trou très petit et plus exactement, de l'ordre de la longueur d'onde. Pour un trou plus
grand, les ondes ne sont pas dispersées (diffractées) et se comportent comme dans la première
figure.

La théorie ondulatoire peut aussi expliquer des phénomènes tel que la polarisation ou la
décomposition d'un rayon lumineux par un cristal de calcite (le rayon est séparé en deux, comme si
le cristal provoquait deux réfractions différentes en même temps).

Mais ce n'est pas encore tout. Nous avons dit que la théorie corpusculaire nécessitait une vitesse
variable dans l'eau suivant la couleur. La vitesse de la lumière fut mesurée la première fois par
Armand Hippolyte Louis Fizeau (1819 - 1896). Le résultat était clair. La vitesse de la lumière dans
l'eau était bien inférieure à celle dans l'air (les deux tiers). Contrairement à l'hypothèse de Newton.

La lumière est également sujette aux phénomènes d'interférences. Incompréhensibles avec des
corpuscules, évidents avec des ondes.
En envoyant deux faisceaux d'ondes à travers un jeu de petits trous, on provoque des superpositions
des ondes et des phénomènes d'interférences avec apparition sur l'écran de bandes sombres ou
claires.

C'est Thomas Young (1773 - 1829) qui mit clairement ce phénomène en évidence. Les phénomènes
d'interférences avec la lumière sont fréquents. C'est un des arguments les plus forts pour la théorie
ondulatoire de la lumière car des corpuscules ne sauraient pas se détruire entre eux !

Bien d'autres savants illustres apportèrent leurs contributions. Tel que Augustin Fresnel (1788 -
1827) ou Karl Weierstrass (1815 - 1897).

Notons que Newton était conscient d'une partie des difficultés, telles que les interférences (observés
à l'époque à travers un phénomène appelé "anneaux de Newton") ce qui le conduisit même à
adopter une théorie mixte (éther plus corpuscules).

Mais après sa mort, avec les progrès des expériences et de la théorie ondulatoire, celle-ci s'imposa
progressivement jusqu'à l'arrivée de l'électromagnétisme qui réussit brillamment à fusionner les
théories de l'électricité, du magnétisme et de la lumière. A ce stade, vers la fin du dix-neuvième
siècle, il ne semblait plus y avoir aucun doute. La lumière n'était pas composée de corpuscules mais
était une onde électromagnétique.

Notons qu'à l'époque les ondes lumineuses étaient supposées être les vibrations mécaniques d'un
milieu hypothétique, l'éther. Avec la multiplication des expériences cherchant à mettre en évidence
l'éther ou tout au moins ses propriétés, l'hypothèse de l'éther finit par devenir douteuse jusqu'à
perdre toute substance. La relativité restreinte porta un coup définitif à cette hypothèse en la
rendant inutile. Mais, de ce fait, la nature de la lumière revenait sur le devant de la scène et cela
ouvrait la voie à d'autres hypothèses et recherches. Le terrain était prêt pour la mécanique
quantique.
Ondes
Une onde est un phénomène physique étendu dans l'espace (un champ) et qui se propage.
Habituellement l'onde a une certaine périodicité dans l'espace mais ce n'est pas une obligation, dans
le cas d'une variation quelconque on parle aussi d'ondes.

Des exemples types sont : le son (des vibrations sonores), une ondulation sur une corde qui se
propage (fouet) ou les vagues dans l'eau.

L'amplitude de l'onde est sa grandeur (la hauteur de l'onde ci-dessus). Cette grandeur, qui varie
dans l'espace et le temps, peut être de différente nature : variation de la pression (comme dans le
cas du son), variation de température (onde de chaleur), champ électrique, etc.
Il faut faire attention car on parle généralement de l'amplitude comme de la grandeur maximale de
l'onde mais aussi souvent de "l'amplitude instantanée", c'est-à-dire de la grandeur en un point et
instant donné. Le contexte lève en général toute ambiguïté.

L'onde est donc la variation d'une propriété d'un milieu quelconque. Dans le cas du son, par
exemple, c'est la pression de l'air. Dans ce ca et en général, le milieu en question ne se propage pas
en dehors d'une éventuelle variation (vibration) autour d'une position moyenne. C'est la variation
elle-même, différente en chaque point, qui se propage. Mais ce n'est pas non plus une obligation, on
peut très bien avoir une onde dans un milieu en mouvement.

Ci-dessus, l'onde est représentée comme une variation figée qui se déplace d'un bloc, mais ce n'est
pas non plus une obligation, les ondes sont une classe de phénomène très large. Ainsi, on parle
d'onde stationnaire lorsque la variation spatiale est périodique mais ne se propage pas tandis que
l'amplitude varie dans le temps. Il s'agit alors véritablement d'une vibration, stationnaire, dont
l'intensité varie périodiquement dans l'espace. Un exemple typique est la vibration d'une corde de
guitare. Dans ce cas, les endroits où l'intensité, l'amplitude, est la plus grande sont appelés les
"ventres", tandis que les endroits où l'amplitude de vibration est nulle sont appelés les nœuds.

Comme signalé ci-dessus, la propriété qui varie peut être de plusieurs types. On classe
habituellement le type d'amplitude par le type d'objet mathématique représentant cette amplitude.
Ainsi, on parle d'amplitude scalaire lorsqu'un simple nombre suffit à la représenter, comme dans le
cas d'une pression ou d'une température, on parle aussi d'amplitude vectorielle dans le cas où cette
grandeur est vectorielle, comme un champ électrique ou magnétique, enfin, il y a aussi des ondes
tensorielles comme c'est le cas de la gravitation en relativité générale. Par extension on parle
d'ondes scalaires, vectorielles, tensorielles…

L'amplitude peut aussi avoir une direction, par exemple une vibration peut être orientée dans
plusieurs directions ou une amplitude vectorielle peut aussi être orientée. On verra cela plus loin.

Mais qu'elle que soit le type d'amplitude et son orientation, on a l'habitude de représenter la
grandeur de cette amplitude sous la forme ci-dessus, même si elle n'est pas orientée où s'il ne s'agit
pas d'une vibration (variation de position). Dans ce cas, l'axe des ordonnées ne représente pas
nécessairement une direction spatiale mais simplement la grandeur en question (par exemple la
pression ou la température). Ce type de représentation est assez pratique pour montrer la variation
de la grandeur dans l'espace et le temps.

Une onde peut être caractérisée par plusieurs grandeurs :

Nous avons déjà vu l'amplitude a . La vitesse de propagation est v . La longueur d'onde λ est la
distance séparant deux crêtes, c'est à dire la longueur de périodicité.

On a aussi la fréquence ν qui est la fréquence avec laquelle on voit l'onde varier, lors de sa
propagation, si l'on se place en un point précis. Dans le cas d'une onde stationnaire, c'est facile, c'est
simplement la fréquence de vibration ou, dans ce cas, de "battement".

Il existe une relation évidente entre ces grandeurs :


(1) v = λν

Le nombre d'ondes est k = 2π / λ , la pulsation ω = 2πν . On a aussi le vecteur d'onde k dont la


grandeur est le nombre d'onde et la direction est donnée par la direction de propagation.
L'équation d'une onde sera donnée par une fonction dépendant de la position et du temps ψ (r, t ) . Si
l'onde est périodique, ψ sera aussi une fonction périodique qui peut s'écrire comme
aψ (k ⋅ r − ω t − ϕ) où ϕ est une phase, un décalage de l'onde par rapport à l'origine des
coordonnées, la phase totale étant donnée par ω t + ϕ puisque l'onde se décale au cours du temps.

Le front d'onde est le lieu des points où l'amplitude à la même grandeur. Par exemple, le lieu où se
situe une crête de l'onde.
Lorsque ce lieu est plan, on parle d'ondes planes (comme dans la figure ci-dessus à deux
dimensions, le front d'onde est un droite). Lorsque ce lieu est sphérique on parle d'ondes sphériques
(comme, à deux dimensions, les ronds dans l'eau lorsque l'on y jette une pierre).

Ondes sinusoïdales
On travaille beaucoup avec les ondes sinusoïdales.
Dans ce cas, l'équation de l'onde est particulièrement simple :
(2) a sin (k ⋅ r − ω t − ϕ)

On peut noter qu'une onde sinusoïdale peut être "engendrée" par la rotation d'une barre autour d'un
cercle, la hauteur de la barre représentant l'amplitude de l'onde au cours du temps :
Une onde périodique quelconque peut se représenter comme la somme de plusieurs ondes
sinusoïdales (il suffit d'ajouter les amplitudes en chaque point).

Cette décomposition, toujours possible, se traduit mathématiquement par la décomposition en série


de Fourrier :

a
(3) f ( x ) = 0 + ∑ (a k cos kx + bk sin kx )
2 k =1

Les coefficients a k et bk sont appelés coefficients de Fourrier. Ils sont obtenus aisément comme

f ( x ) cos nxdx
1
π∫
an =
0
(4)

f ( x )sin nxdx
1
π∫
bn =
0

On peut aussi utiliser les nombres complexes :


a − ibn
(5) c n = n
2
avec
1 2π
(6) c n = ∫ f ( x )e −inx dx
2π 0

et
+∞
(7) f ( x ) = ∑c e n
inx

n = −∞

L'avantage de cette représentation est aussi de pouvoir se généraliser facilement en remplaçant la


somme par une intégrale. Dans ce cas, on peut décomposer (presque) toutes les fonctions comme
une intégrale sur des fonctions sinusoïdales. Les nombres complexes sont un outil puissant dans
l'analyse des ondes.

L'avantage de cette décomposition est également de pouvoir se limiter à l'étude des ondes
sinusoïdales, plus simples, en particulier lorsque le comportement des ondes est linéaire (le résultat
de la somme de deux ondes est la somme des résultats de chaque onde).

Polarisation
Revenons à la direction de l'amplitude.

Dans le cas d'une vibration, elle peut se produire soit dans le sens de la propagation (on parle
d'ondes longitudinales), c'est le cas des ondes sonores. On peut aussi représenter cela par un
ensemble de ressorts vibrants attachés ensembles.
La vibration peut aussi se faire perpendiculairement au sens de propagation, comme dans le cas
d'une corde (un fouet) ou d'une vague. On parle d'ondes transversales.

Si l'amplitude n'est pas une vibration mais une grandeur vectorielle quelconque, le vecteur
amplitude peut aussi être longitudinal ou transversal.

Lorsque l'onde est transversale, la direction a encore une certaine liberté puisqu'elle se situe dans un
plan perpendiculaire à la direction de propagation.

On parle de polarisation linéaire lorsque la direction est précise et constante. Par exemple, si la
propagation se fait horizontalement vers l'avant, la direction de l'amplitude peut être vers le haut ou
vers la gauche. La direction de polarisation est représentée par un vecteur unitaire appelé vecteur
polarisation P .

Une onde longitudinale est dite aussi polarisée longitudinalement.

Une onde non polarisée a une amplitude dont la direction n'est pas définie. Pour être exact, il s'agit
en général d'un mélange d'ondes de polarisations linéaires (et éventuellement longitudinale)
variées.
En faisant la somme vectorielle de trois vecteurs polarisation, on peut obtenir n'importe quelle
direction. Ainsi, on dit qu'une onde vectorielle peut avoir jusqu'à trois états de polarisation.

Enfin, citons le cas de la polarisation circulaire. Dans ce cas, le vecteur polarisation est transversal
mais il tourne en même temps que l'onde se propage. On parle ainsi de polarisation circulaire
gauche ou droite selon le sens de rotation.

Equation des ondes


Les ondes étant données par une formule périodique dans l'espace et le temps, elles peuvent se
déduire d'une équation différentielle, dite équation des ondes. Elle s'écrit
1 ∂ 2ψ
(8) ∇ 2ψ − 2 =0
v ∂t 2
ou sous forme développée
∂ 2ψ ∂ 2ψ ∂ 2ψ 1 ∂ 2ψ
(9) + + − =0
∂x 2 ∂y 2 ∂z 2 v 2 ∂t 2
où v est la vitesse de l'onde.

Les formes sinusoïdales, en particulier, sont solutions de cette équation.

Dans le cas des vibrations dans un milieu matériel, on peut utiliser les lois de la mécanique pour
étudier la manière dont ce milieu réagit à une petite perturbation. On obtient alors pour la vitesse de
propagation des vibrations :
 dp 
(10) v =  
 dρ  0
où p est ici la pression et ρ la densité.

On voit ainsi que si le milieu est difficilement compressible, il faudra une très grande variation de
pression pour obtenir une variation de densité. Ainsi le son se propage plus vite dans l'eau que dans
l'air. Dans le cas de l'air sec dans des conditions normales, le calcul (et la mesure) donne une
vitesse de 340 m/s et pour l'eau 1448 m/s.
Un solide élastique est caractérisé par deux constantes d'élasticité (longitudinale et transversale) λ
et µ (ne pas confondre la constante d'élasticité longitudinale avec la longueur d'onde). Dans ce cas,
la vitesse des ondes longitudinales et transversales est donnée par
λ + 2µ
vL =
ρ
(11)
µ
vT =
ρ

On voit ainsi que les ondes longitudinales sont toujours plus rapides. Cette propriété, et le fait
qu'une vibration transversale ne peut pas se propager dans un fluide (à cause du manque de
cohésion, une vibration transversale ne saurait se communiquer au fluide tandis qu'une vibration
longitudinale n'a qu'à "pousser") rend ces relations très utiles dans les études de sismologie pour
étudier la nature du sous-sol (pétrologie, sismologie, géologie).

Propagation de plusieurs ondes


Dans le cas général où la propagation a lieu dans un milieu dispersif, deux ondes de fréquences
différentes se propagent avec des vitesses différentes. Examinons si, dans ce cas, il est possible de
définir une vitesse de propagation qui soit liée à la propagation du phénomène résultant.
Remarquons de suite que ce problème est très important car l'onde produite par un phénomène
vibratoire limité dans le temps n'est jamais rigoureusement sinusoïdale (les ondes sinusoïdales tout
comme les ondes planes sont des idéalisations). Il y a donc lieu d'étudier ce que signifie la vitesse
de propagation dans ce cas.

Soient deux ondes sinusoïdales planes, de périodes différents ν et ν + ∆ν , se propageant


respectivement avec les vitesses v et v + ∆v selon l'axe des x :
 x
ψ 1 = a sin 2π  tν −  = a sin (ωt − kx )
(12)  λ
ψ 2 = a sin[(ω + ∆ω )t − (k + ∆k )x ]
Le phénomène résultant est donné par
 ∆ω ∆k   ∆ω   ∆k  
(13) ψ = ψ 1 + ψ 2 = 2a cos t− x  sin  ω + t −  k + x
 2 2   2   2  

Si ∆ω et ∆k sont petits par rapport à ω et k , on voit que l'amplitude de la vibration résultante


varie lentement dans le temps et l'espace, elle vaut :
 ∆ω ∆k 
(14) A = 2a cos t− x
 2 2 
En un point donné, on a donc un phénomène de battement (comme pour les ondes stationnaires), la
période de battement valant 2π / ∆ω .

A un instant donné, l'amplitude résultante varie périodiquement dans l'espace, avec une périodicité
Λ telle que :
∆k
(15) Λ =π
2
d'où
2π 1 λ (λ + ∆λ )
(16) Λ = = =
∆k 1 1 ∆λ

λ + ∆λ λ
Les ondes qui sont comprises entre deux valeurs nulles consécutives de A forment ce qu'on appelle
un "train" ou un "groupe" d'ondes. On parle aussi de paquet d'ondes. On voit plus clairement cette
forme si l'on considère la somme d'un grand nombre d'ondes de fréquences et de vitesse légèrement
différentes.
On y voit clairement une onde de petite longueur d'onde "enveloppée" dans un "paquet d'ondes". Il
est à noter que la vitesse du paquet peut être différente de la vitesse de l'onde. Par exemple, si
l'onde est plus rapide, les ondulations naissent à gauche du paquet, se déplacent en grandissant puis
diminuant dans le paquet, pour disparaître au bout. Ce phénomène de croissance décroissance de
l'onde étant dû au fait qu'elle est composée de plusieurs ondes de vitesses légèrement différentes
qui s'additionnent.

La possibilité de pouvoir réaliser de tels paquets d'ondes qui se déplacent sans se déformer (des
"solitons") est très utile en communication par fibre optique.

La vitesse de ces paquets d'ondes est obtenue en recherchant la vitesse de déplacement d'une
amplitude donnée. L'amplitude est constante si :
∆ω ∆k
(17) t− x = cst
2 2

Cette relation entre x et t n'est autre que la loi de propagation d'une amplitude donnée et on trouve
immédiatement la vitesse de déplacement de cette amplitude, c'est-à-dire la vitesse de groupe :
dx ∆ω
(18) v g = =
dt ∆k
ou, si les variations sont suffisament petites :
dω dv
(19) v g = =
dk d (1 / λ )
ou encore
v
(20) v g =
ν dv
1−
v dν

De la même façon, on calcule la vitesse de phase du phénomène résultant (la vitesse des
ondulations de courte longueur d'onde dans le paquet). En effet, la phase sera constante si :
 ∆ω   ∆k 
(21)  ω + t −  k +  x = cst
 2   2 

D'où l'on trouve la vitesse de propagation des points de phase donnée, c'est-à-dire la vitesse de
phase :
∆ω
ω+
dx 2
(22) v ph = =
dt ∆k
k+
2

Comme ω / k = v , la vitesse de phase est comprise entre v et v + ∆v . Si ∆v est très petit, la vitesse
de phase est pratiquement égale à celles des ondes composantes.

Dans le vas où dv / dν < 0 , la vitesse de groupe est plus petite que la vitesse de phase et on parle de
dispersion normale. Dans le cas inverse (exceptionnel et toujours dans une bande très étroite de
fréquence) on parle de dispersion anormale.

Quelle est la signification physique de la vitesse de groupe ?

Généralement, un signal consiste en une série d'oscillations qui commencent à un certain instant. A
cause de sa propre limitation dans le temps, ce signal peut être considéré, par application de la
transformation de Fourier, comme la superposition d'ondes monochromatiques (fréquence précise)
plus ou moins groupées autour d'une fréquence moyenne. Ceci est particulièrement bien caractérisé
dans le cas où le signal est formé d'une onde sinusoïdale amortie.

En tout cas, un signal ne peut jamais être considéré comme formé d'une onde sinusoïdale pure.
Celle-ci étant invariable dans le temps, elle ne transmet aucune information, il faut, au minimum
une variation de l'amplitude (modulation d'amplitude, impulsions transmettant des bits
d'informations,…). En conséquence, il y a lieu de se demander quelle est la vitesse de propagation
du signal, telle qu'elle résulterait d'une mesure.

L'image du paquet d'onde montre que le paquet peut transmettre l'information recherchée. Dans le
cas où la dispersion est normale, cette vitesse de propagation du signal coïncide avec la vitesse de
groupe : elle correspond à la vitesse de propagation du premier groupe d'ondes qui est enregistré
par le dispositif expérimental (avant, l'intensité de l'onde est trop faible).

Dans le cas où la dispersion est anormale, on montre que la vitesse de groupe n'est plus égale à la
vitesse de propagation d'un signal et n'a plus cette signification physique. En effet, les vibrations se
déplaçant à la vitesse de phase, le paquet d'ondes ne peut dépasser le front d'ondes (les paquets
d'ondes disparaissent au fur et à mesure qu'ils rattrapent le front d'ondes). Par conséquent,
l'information est transmise par le front d'onde à la vitesse de phase.

Interférences
Les phénomènes d'interférence s'observent dès que l'on additionne deux ondes (de même
fréquence) avec une phase légèrement différente.
On peut mettre joliment en évidence les phénomènes d'interférence à l'aide de l'expérience de
Young qui jouera un rôle important dans nos réflexions sur la mécanique quantique.

L'expérience est ici illustrée avec des vagues mais tout type d'onde convient.

Des vagues arrivent par la gauche et sont dispersées, sous formes d'ondes sphériques, par deux
fentes. Les deux ondes interfèrent et produisent sur un écran une série de franges d'interférences
alternativement intense et peu intense (claires et sombres dans le cas de la lumière).
Calculons la distance entre les franges d'interférence.

Il y aura interférence constructive, donc un maximum, si les ondes sont en phase, c'est-à-dire si
elles arrivent sur l'écran avec un décalage (entre les deux ondes) d'un nombre entier de longueur
d'ondes. Ainsi, au centre, les deux ondes, parcourant le même chemin, ne seront pas décalées, et on
aura un maximum. Le prochain maximum sera obtenu dès qu'il y aura un décalage d'une longueur
d'onde entre les chemins parcourus par les deux rayons lumineux.

Si la longueur du premier rayon lumineux est L1 et le deuxième L2 , la simple application de


Pythagore nous donne :
L1 = L2 + ( x − d / 2 )
2 2

(23) 2
L2 = L2 + ( x + d / 2 )
2

Si la distance d entre les fentes et la longueur d'onde sont très petits par rapport à L (c'est
généralement le cas pour que le phénomène soit observable, les longueurs d'ondes lumineuses étant
très petites), on aura :
L1 ~ L + (l − d / 2 ) / 2 L
2

(24)
L2 ~ L + (l + d / 2 ) / 2 L
2

En effectuant la différence et en égalant à la longueur d'onde, on trouve :


λL
(25) l =
d

Cela fournit un moyen simple et élégant pour mesurer la longueur d'onde mais également pour
mesurer des décalages de parcourt entre des rayons lumineux. Ce dispositif est donc fréquemment
utilisé pour des mesures de précision de distances.

Diffraction
Lorsqu'une onde atteint un trou, celle-ci est diffusée par les bords du trou en une onde sphérique.
On en a l'illustration dans l'expérience de Young et ce phénomène s'observe aisément avec des
vagues.

Une feuille percée d'un trou d'épingle et placée devant une source lumineuse produit aussi une
lumière sous forme d'une espèce d'étoile.

Mais si le trou n'est pas trop petit, chaque bord contribue à produire une onde sphérique différente.
Si le trou n'est pas trop large, ces ondes seront plus importantes que l'onde qui passe par le trou lui-
même et on aura un phénomène d'interférence analogue à celui de l'expérience de Young. Comme
la largeur des franges dépend en plus de la fréquence, ces franges sont colorées. Un petit trou donne
ainsi des cercles colorés.

Effet Doppler
L'effet Doppler ou effet Doppler-Fizeau est le phénomène de changement de fréquence des ondes
émises par des sources en mouvement.

Supposons que la source d'ondes et l'observateur soient animés chacun d'un certain mouvement.
D'autre part, supposons que la vitesse de la source soit inférieure à la vitesse de propagation des
ondes. Si ν S est la fréquence de la source, recherchons la fréquence du phénomène observé par
l'observateur.
Cas des ondes élastiques
Les ondes élastiques se propagent nécessairement sur un support matériel et sont caractérisées par
une vitesse de propagation v par rapport à ce support.

Dans ce cas, prenons un système d'axes liés au support matériel. Supposons que la source et
l'observateur soient animés chacun d'un mouvement rectiligne uniforme sur un même axe x . Soient
VS la grandeur de la vitesse de la source (composante sur l'axe des x ), VP celle de l'observateur et
v la grandeur de la vitesse de propagation des ondes. Choisissons le sens de l'axe de la source vers
l'observateur. La valeur de v est alors positive et la formule que nous obtiendrons sera valable pour
les vitesses VS inférieures à v (y compris toutes les valeurs négatives de VS ).
Envisageons les perturbations émises par la source aux instants 0, T , 2T , 3T , etc. A ces instants,
la source se trouve respectivement en S 0 , S1 , S 2 , S 3 ,… c'est-à-dire aux points d'abscisse 0 , VS T ,
2V S T , 3VS T ,… A un instant t , les fronts d'ondes correspondantes sont en concordance de phase
(par exemple chaque front est une crête de l'onde) et sont représentées par des sphères centrées sur
les points S 0 , S1 , S 2 , S 3 ,… et de rayon vt , v(t − T ) , v(t − 2T ) , v(t − 2T ) ,…

Calculons la longueur d'onde des ondes émises par la source dans la direction de l'observateur.
C'est la distance comptée sur l'axe des x et à un instant donné, entre deux fronts d'ondes successifs
en concordance de phase, cette longueur d'onde vaut :
vt − VS t v − VS
(26) λ = =
ν St νS
ν S étant la fréquence de la source et v − VS la vitesse relative des ondes par rapport à la source.

L'observateur P voit défiler ces ondes et, pour lui, la fréquence apparente ν P de celles-ci est égale
au nombre de périodes qu'il observe par unité de temps, c'est-à-dire :
v − VP
(27) ν P =
λ
En combinant (26) et (27), on trouve :
v − VP
(28) ν P = νS
v − VS

Cette formule permet d'interpréter facilement les phénomènes observés lorsque la source d'ondes et
l'observateur sont animés chacun d'un mouvement uniforme suivant un même axe.

Toutefois, si VP > v , l'onde n'atteint plus l'observateur et la formule n'a plus de sens.

D'autre part, lorsque les mouvements suivant l'axe ne sont plus uniformes, la formule (28) reste
valable pour autant que les vitesses ne varient pratiquement pas pendant quelques périodes. Dans ce
cas, la vitesse VS est celle de la source lors de l'émission des ondes, reçues ensuite par
l'observateur, et la vitesse VP est celle de l'observateur au moment de la réception.
Remarques.
Il faut noter que ce n'est pas la vitesse relative de la source par rapport à l'observateur qui intervient
dans (28) mais chacune des vitesses séparément. Un exemple simple, qui illustre ce fait, est celui
où la vitesse relative VS − V P = −v . Ce cas peut se produire si :
1) VS = −v (la source s'éloigne vers la gauche), VP = 0 . Alors, on a : ν P = ν S / 2
2) VS = 0 , VP = v . Alors, on a : ν P = 0

On voit que les résultats sont complètement différents bien que la vitesse relative reste la même.

Autre expression de l'effet Doppler


On pourrait choisir un système d'axes liés à l'observateur. Soient dans ce cas, v ′ la vitesse de
propagation des ondes par rapport à l'observateur et Vr la vitesse relative de la source par rapport à
l'observateur.

On a les relations (transformations de Galilée) :


v′ = v − VP
Vr = V S − V P

La relation (28) s'écrit alors :


v′
(29) ν P = νS
v ′ − Vr

Cette expression n'a cependant pas beaucoup d'intérêt dans le cas des ondes élastiques car v ′
dépend du mouvement de l'observateur.

Notons enfin, que le mouvement de la source transversalement à la direction de l'axe des x


n'affecte pas le résultat car, dans ce cas, le mouvement n'affecte pas la séparation des fronts d'ondes
sur l'axe des x .
Cas des ondes électromagnétiques
La vitesse des ondes électromagnétiques (dans le vide) est invariante et toujours égale à c par
rapport à l'observateur.

Dans ce cas, puisque la vitesse des ondes par rapport à l'observateur est connue, il est plus aisé
d'utiliser la relation (29). On a donc
c
(30) ν P = νS
c − VR

Dans ce cas, la relation ne dépend que du mouvement relatif de la source et de l'observateur.

Optique géométrique

Postulats
L'optique géométrique est une étude approchée de la propagation de la lumière, qui peut-être faite
sans se préoccuper de la nature physique des radiations lumineuses. Cette étude se base sur
quelques principes induits de l'expérience. Certains de ces principes ne sont qu'approchés et les lois
de l'optique géométrique ne sont valables que dans certaines conditions.

La théorie ondulatoire de la lumière, qui tient compte de la nature physique de celle-ci, donne une
explication plus complète des différents phénomènes lumineux. L'optique géométrique n'est qu'un
cas particulier de cette théorie générale.

Ici, nous allons passer en revue quelques éléments de l'optique géométrique, d'un point de vue
essentiellement qualitatif pour en avoir simplement un aperçu.

L'observation courante montre que, dans un milieu homogène transparent, la lumière semble se
propager suivant une ligne droite. Supposons, par exemple, que nous disposions d'une source de
lumière pratiquement ponctuelle (petit trou circulaire percé dans un écran E, fortement éclairé), et
que nous placions ensuite un écran E' percé d'un trou de diamètre d' et d'un second écran destiné à
recevoir la lumière passant par d'.
Si le diamètre d' n'est pas trop petit (quelques millimètres) et si les écrans E' et E" sont
perpendiculaires au rayon moyen du faisceau, la plage lumineuse qui apparaît sur l'écran E" est
délimitée par un cercle de diamètre d", qui n'est autre que la section par E" du cône de sommet S,
dont les génératrices s'appuient sur la circonférence de diamètre d'. On pourrait faire une expérience
analogue en plaçant sur le trajet circulaire un écran de diamètre d', ou, plus généralement, un écran
ou un diaphragme de forme quelconque.

Ces expériences suggèrent l'hypothèse suivant laquelle la lumière se propagerait en ligne droite. Le
faisceau lumineux émis par une source ponctuelle se composerait de rayons lumineux qui seraient
les trajectoires rectilignes de la lumière émise.

Cependant, cette conclusion cesse d'être valable si le diamètre d' devient suffisament petit. Lorsque
d' diminue, on observe d'abord une diminution correspondante de d", puis les phénomènes changent
: d" augmente, la plage lumineuse n'est plus bien délimitée et il apparaît une série de cercles
concentriques alternativement brillants et obscurs. Ce phénomène, appelé phénomène de
diffraction, ne peut s'expliquer qu'en tenant compte de la nature ondulatoire de la lumière.
L'expérience montre que les franges circulaires s'élargissent lorsque d' diminue.
Ce qui précède montre donc que l'hypothèse de la propagation rectiligne de la lumière n'est valable
que si les faisceaux lumineux ne traversent pas d'ouverture trop petite ou ne rencontrent pas d'écran
trop petit (pratiquement la limite est atteinte, en lumière visible, pour des diamètres de l'ordre du
millimètre).

Le premier postulat mis à la base de l'étude de l'optique géométrique, celui de la propagation


rectiligne, n'est donc qu'approché. Les rayons lumineux n'ont pas d'existence physique réelle car
l'expérience de diffraction prouve qu'il n'est pas possible de délimiter un tel rayon. Les lois de
l'optique géométrique ne seront donc valables, c'est-à-dire vérifiées par l'expérience, que si les
conditions sont telles qu'on puisse admettre la propagation rectiligne et l'existence fictive de rayons
lumineux.

Les autres postulats constituent les règles de la réflexion et de la réfraction (lois de Descartes).

Réflexion
Soit un rayon lumineux rencontrant un miroir.

Dans ce cas, l'angle d'incidence est identique à l'angle de réflexion.

Cette expérience se justifie aisément par une théorie corpusculaire de la lumière mais également
dans le cas d'une théorie ondulatoire.
Réfraction
Considérons maintenant un rayon lumineux qui rentre dans un milieu transparent (eau, verre,…).

L'expérience montre alors que :


sin α
(1) = n 21
sin β

Où n21 est une constante qui dépend des milieux 1 et 2. Cette loi est appelée loi des sinus ou loi de
Snell-Descartes.
Notons que si le rayon se déplace dans l'autre sens, on trouve :
1
(2) n12 =
n 21

Cette constante peut s'exprimer comme le rapport de deux constantes n1 et n2 affecté à chaque
milieu.
n
(3) n21 = 2
n1

Ces constantes sont appelées indice de réfraction. On attribue, par convention, la valeur 1 au vide.

On déduit aisément cette relation de la théorie ondulatoire.

Si la vitesse de la lumière est v1 et v 2 dans chaque milieu, et si l'intervalle de temps séparant deux
fronts d'onde est T , alors la distance entre les fronts d'ondes est v1T et v 2T .

Un peu de trigonométrie donne alors :


sin α v1
(4) =
sin β v 2

C'est-à-dire
v n
(5) 1 = 2
v 2 n1

On peut aussi utiliser la théorie corpusculaire. Si le corpuscule est dévié de la manière indiquée
dans la figure précédente, c'est qu'il subit une force au passage à l'interface entre les deux milieux.

Comme on le voit, cette force doit, dans cet exemple, être dirigée vers le bas et, en la projetant sur
la direction de propagation. La vitesse du corpuscule doit donc augmenter. Mieux, en utilisant les
lois de la mécanique, on montre que l'on retrouve aussi la loi des sinus.
sin α v 2
(6) =
sin β v1

Mais, chose étonnante, la relation pour les vitesses est inversée.


C'est ce test décisif (en mesurant la vitesse de la lumière) qui a permis de trancher définitivement
(si les phénomènes d'interférence ne l'avaient déjà fait) entre les deux théories.

Lentilles

Sans entrer dans les détails, le phénomène de réfraction permet la construction de lentilles
convergentes (convexes) ou divergentes (concaves) qui permettent de manipuler la trajectoire des
rayons lumineux et d'agrandir ou diminuer l'image d'un objet. La combinaison de telles lentilles
avec, éventuellement, des miroirs plans, convexes ou concaves, permet la construction de divers
instruments d'optique tels que les télescopes et les microscopes.

Prismes
On constate expérimentalement que l'indice de réfraction varie avec la couleur de la lumière. On
montre en outre que cette couleur est reliée à la longueur d'onde. Cette variation permet de
construire un dispositif, le prisme, permettant de disperser les couleurs.
Le spectre de la lumière s'étend bien au-delà de la lumière visible.
L'étude des spectres permet aussi d'étudier la lumière émise par les atomes et les molécules. Les
raies lumineuses dans le spectre constituent une véritable empreinte digitale.

Donnons quelques longueurs d'ondes typiques pour se faire une idée des ordres de grandeur.
- Rouge : environ 0.656 micromètre.
- Jaune orangé : environ 0.589 micromètre.
- Bleu vert : environ 0.486 micromètre.

Les infrarouges sont dans le domaine millimétrique. Les ondes radios vont du domaine
centimétrique à des ondes de plusieurs kilomètres de longueur d'onde (virtuellement sans limite).
Les rayons X et les rayons gammas sont dans le domaine nanométrique.

Justification de l'optique géométrique


Les représentations à l'aide d'ondes planes ci-dessus montre bien que les ondes admettent une
représentation géométrique (en identifiant le rayon lumineux avec la normale aux fronts d'ondes).
Toutefois, il faut aussi pouvoir délimiter la largeur des faisceaux, ne fut que parce que les appareils
ont des tailles limitées, en particulier les lentilles.

L'analyse de la théorie ondulatoire et, en particulier, l'analyse de la diffraction permet de voir que
l'approximation géométrique sera valable si les dimensions caractéristiques (largeur d'un faisceau
lumineux, taille des objets) sont très grandes par rapport à la longueur d'onde.

Cette caractéristique des ondes s'observe aussi avec le son. Ainsi, il n'est pas rare qu'une musique
tonitruante mais en partie masquée par des obstacles ne laisse passer que les basses. Les ondes
sonores aiguës (courte longueur d'onde) étant bloquées par les obstacles tandis que les ondes graves
(grande longueur d'onde) contournent les obstacles par diffraction. Il faut aussi, bien entendu, tenir
compte des réflexions et transmissions à travers les parois qui compliquent singulièrement les
choses. Ce sont ces phénomènes des grandes longueurs d'ondes et les réflexions multiples qui sont
responsable du grondement sourd d'un orage, alors qu'à l'origine il résulte d'un claquement sec et
court produit par l'éclair.
II.2 La découverte de l'atome

Description
L'idée des atomes est ancienne et remonte à l'antiquité grecque avec Démocrites. Toutefois, les
atomes tels que nous les connaissons aujourd'hui sont bien différents. Les anciens Grecs ne
voyaient en l'atome qu'une des deux conceptions philosophiques possibles sur la nature de la
matière, continue ou discontinue, et imaginaient les atomes comme étant insécables et sans
structure.

Actuellement, nous savons que les atomes peuvent être cassés et qu'ils ont une structure interne. Ils
sont simplement le plus petit élément possible distinctif d'un type de matière donnée. Par exemple,
le fer est composé d'atomes de fer et le cuivre d'atomes de cuivre. Si l'on casse un atome de fer ou
de cuivre, on trouve des particules plus petites mais communes à la fois au fer et au cuivre.

Composition
Rappelons que l'atome est composé d'électrons, petits, légers et chargés électriquement, de protons,
lourds et chargés électriquement mais avec un signe opposé aux électrons, ils compensent la charge
électrique et permettent à l'atome d'être neutre, et de neutrons, lourds et sans charge électrique.

Exemples :
 L'atome d'hydrogène est le plus simple, avec un seul proton (et un électron).
 Il existe deux isotopes de l'hydrogène, le deutérium avec un proton et un neutron, et le tritium
avec deux neutrons et un proton. L'ajout d'un troisième neutron ne marche pas car le noyau de
l'atome, dans ce cas, ne peut rester lié. Notons que ces deux isotopes ont les mêmes propriétés
chimiques que l'atome d'hydrogène car ce sont les protons qui confèrent les propriétés
chimiques (plus précisément, ces protons fixent le potentiel électrostatique conduisant à la
répartition des électrons autour de l'atome et ce sont ces électrons qui participent aux réactions
chimiques).
 L'hélium à deux protons (et deux électrons) et un ou deux neutrons.
Les atomes peuvent ainsi avoir de un à plus d'une centaine de protons, donnant à chaque fois un
atome différent : l'oxygène, le carbone, le soufre, l'uranium, etc.

Presque tout cela était connu au début du vingtième siècle. Seul le neutron fut découvert plus tard
par Chadwick et la structure de l'atome restait assez mystérieuse. En fait, on connaissait les
éléments principaux, le proton et l'électron, mais le fait qu'ils s'assemblent en petites unités (les
atomes) n'était pas encore une certitude, ils auraient pu former un mélange indifférencié. Ce n'est
que par l'accumulation des preuves expérimentales que le consensus fut atteint.

Mise en évidence des atomes


L'expérience quotidienne semble en contradiction avec la notion d'atome. Quel que soit le plus petit
morceau de matière que l'on prenne, il semble que l'on puisse le découper en de plus petits
morceaux et ainsi de suite indéfiniment. Il semblerait donc que la matière soit une espèce de milieu
continu. En réalité, les atomes pourraient être si petits que l'on ne pourrait pas les distinguer à l'œil
nu et même avec un microscope. En fait, si les atomes sont réellement infimes, un processus de
découpage ne pourrait pas trancher la question, car on arriverait à un moment donné à des
morceaux si petit que l'on serait bien en peine, en pratique, de les découper en morceaux plus petits
encore, si petits que l'on n'arriverait même pas à les voir. D'autant que les instruments de coupe,
eux-mêmes constitués d'atomes, ne pourraient pas avoir un tranchant aussi fin que souhaité. Tout au
plus de tels raisonnements nous donnent une taille maximale pour d'éventuels atomes.

Pourtant un phénomène bien connu jette quelques doutes sur la nature continue de la matière. Il
s'agit de la diffusion. Jetons par exemple une goutte d'encre dans un verre d'eau. On pourrait utiliser
du sucre ou regarder de la vapeur ou de la fumée se diffuser dans l'air, mais l'encre étant fortement
colorée, le processus est plus facile à observer. On constate que l'encre se sépare en filets de plus en
plus fins, en tourbillons, en volutes et en panaches, jusqu'à complètement se mélanger à l'eau.

Dans un milieu continu, parfaitement calme et homogène, à température constante, on s'attendrait


plutôt à une diffusion progressive et également homogène. Alors que si l'on imagine les deux
fluides comme étant composés de petites particules en perpétuelle agitation, cela semble plus
simple à expliquer (imaginez deux foules qui se mélangent). Toutefois cela n'est pas encore
suffisant, car on pourrait imaginer le milieu continu également comme agité à très petite échelle. Et
même si une telle théorie continue expliquerait difficilement les contorsions de l'encre, cela n'est
pas exclu.

C'est à la fin du dix-huitième siècle que des découvertes offrirent de meilleurs indices sur
l'existence des atomes. A l'époque la chimie commençait à obtenir ses lettres de noblesse. Lavoisier
constata que les réactions chimiques se font toujours de manière proportionnelle, sans aucune
exception. Prenons par exemple l'eau. En brûlant de l'hydrogène dans de l'oxygène, on obtient de
l'eau. C'est un exemple simple mais difficile à étudier : ce sont des gaz, et en plus la réaction est
explosive ! Elle fait toutefois intervenir des éléments bien connus, elle suffira à notre propos.
Lavoisier constata que la même proportion d'hydrogène est toujours combinée à la même
proportion d'oxygène. Si vous doublez la quantité d'hydrogène, il se consumera en consommant le
double de quantité d'oxygène et produira le double de quantité d'eau. En outre, en décomposant
l'eau (Lavoisier utilisa un canon de fusil chauffé au rouge dans lequel il faisait circuler de la
vapeur), vous retrouvez les quantités d'hydrogène et d'oxygène initial (pour être exact, l'oxygène se
retrouve sous forme de rouille dans le canon, ce qui peut être constaté par une simple pesée). Ce
faisant, Lavoisier venait de mettre en évidence la première loi de conservation : celle de la matière.
Rien ne se perd, rien ne se crée. Mais ce qui nous importe ici, ce sont les effets proportionnels. Qui
dit proportion, dit discontinu. En effet, qu'est-ce qui empêche de combiner, disons dix pour cent en
plus d'hydrogène avec cinq pour cent en plus d'oxygène pour obtenir quelque chose qui est
"presque" de l'eau ? Pour être précis, il faut par exemple dix litres d'oxygène pour consumer vingt
litres d'hydrogène. Pourquoi pas onze litres ? Pourquoi pas 10,0001 litres ? D'où viennent ces
valeurs précises et discontinues ? En réalité, si l'on imagine la matière composée d'atomes, c'est
beaucoup plus facile. Dans ce cas, on aurait deux atomes d'hydrogène qui se combineraient à un
atome d'oxygène pour fabriquer un atome d'eau (en réalité une molécule d'eau, mais Lavoisier ne
pouvais pas le savoir, l'expression consacrée était plutôt "corps simples" et "corps composés").

En fait, même si cela peut nous sembler évident à notre époque, l'histoire est riche en
rebondissements et la théorie atomique de la matière ne fut pas acceptée si facilement.
Cette théorie atomique des proportions fut largement améliorée et complétée grâce aux travaux de
Dalton, Gay-Lussac, Proust,…

Il existe un autre phénomène qui a le mérite de mettre en évidence les atomes de manière beaucoup
plus directe. Il s'agit du mouvement Brownien. Prenons un fluide au repos (de l'eau par exemple),
parfaitement homogène et à température constante. Plaçons dans ce fluide de petites particules, les
plus petites possibles, par exemple des grains de pollens. Il faut bien sûr un microscope pour les
observer. On constate alors qu'elles ne sont pas immobiles ! Elles sont secouées d'une agitation
frénétique. Plus encore, chaque particule se dirige en ligne droite puis est brusquement déviée
comme si elle était heurtée par "quelque chose". La conclusion est immédiate. Le fluide est
composé d'atomes trop petits pour être vu mais dont les chocs sur nos petites particules sont bel et
bien visibles. Au début du siècle, un physicien bien connu du grand public étudia ce phénomène, il
s'agit d'Albert Einstein. Il s'est intéressé à la distance parcourue par les particules au cours du
temps. La relation qu'il a obtenue à partir du concept atomique correspond parfaitement à
l'observation et est une preuve très convaincante. Ce fut sa première publication (peut de temps
avant l'effet photoélectrique et la relativité).

Cette preuve fut d'ailleurs considérée comme décisive, d'autant qu'elle permettait d'obtenir des
données quantitatives précises sur les atomes, par exemple leur nombre.

L'électron découvert peu de temps avant, dans les "rayons cathodiques", compléta le tableau. On
comprit très vite que l'atome devait être composé d'une masse importante chargée positivement et
de particules plus petites et légères chargées négativement, les électrons.

Par la suite, la théorie atomique a permis d'expliquer toutes les propriétés de la matière des plus
simples aux plus complexes, des plus évidentes aux plus mystérieuses.
La structure de la matière
Les différentes sortes d'atomes sont peu nombreuses, une bonne centaine, on les appelle les
éléments. Tout le reste est composé de molécules. Une molécule est un assemblage précis d'atome.
Par exemple la molécule d'eau est composée de deux atomes d'hydrogène et un d'oxygène
intimement liés. Certaines molécules peuvent être très complexes. En voici une courte liste qui en
donne une petite idée :
• une molécule de sel de cuisine = deux atomes (sodium plus chlore)
• une molécule d'acide sulfurique = sept atomes (souffre, oxygène, hydrogène)
• une molécule de benzène (un solvant) = douze atomes (carbone, hydrogène)
• une molécule de glucose = 45 atomes (carbone, hydrogène, oxygène)
• une protéine : de quelques centaines d'atomes à quelques centaines de millier d'atomes
(carbone, hydrogène, oxygène, azote, soufre).
• une molécule d'ADN (support du code génétique) : typiquement de l'ordre du milliard
d'atomes (ce sont les plus grosses molécules connues).

Dans un gaz, les atomes ou les molécules se déplacent librement, en dehors de quelques collisions
de temps à autre.
Dans un liquide, les atomes ou les molécules sont les uns contre les autres mais ne sont pas
fortement liés, les atomes sont en perpétuel déplacement.

Dans un solide, les atomes sont rigidement liés les uns aux autres. Le passage d'un état à l'autre
peut se faire, par exemple, avec la température. A haute température, l'énergie d'agitation des
molécules est suffisante pour "détacher" les molécules les unes des autres et liquéfier puis vaporiser
la matière. Certains solides ne fondent pas mais brûlent ou se décomposent. Cela se produit si les
molécules se brisent sous l'effet de la température avant d'atteindre la liquéfaction ou l'ébullition.

Les solides peuvent eux-mêmes se présenter sous différentes formes. Le plus simple est l'état
cristallin. Les atomes y sont ordonnés de manière régulière. Chacun est attaché aux autres selon des
liaisons précises et géométriques. Des exemples d'état cristallin sont le diamant, le quartz, la glace,

L'état opposé à l'état cristallin est l'état amorphe. Les atomes y sont disposés de manière aléatoire.
Un exemple classique est le verre. En général l'état amorphe n'est pas l'état le plus stable, les
atomes ont tendances a se disposer selon des liaisons plus régulières. Mais la transformation peut
être très lente. La cristallisation du verre peut prendre plusieurs siècles voire des millénaires (il
devient alors opaque). C'est un problème bien connu pour les vitraux les plus anciens. Notons que
le verre appelé "cristal" n'est en rien dans un état cristallin, son état est amorphe et son nom résulte
seulement de sa composition et ses qualités !

En général, les matériaux sont plus complexes et sont fortement hétérogènes. Ils sont souvent dans
un état cristallin mais avec de petits cristaux disposés de toute sorte de manière. C'est le cas des
métaux et de la plus part des roches. Lors de la solidification des cristaux se forment
indépendamment un peu partout puis se soudent les uns aux autres par contact.
Il existe bien d'autres états : en feuillet, en fibres… Par exemple les polymères comme les
plastiques et les caoutchoucs sont formés de très longues molécules associées en fibres. Parfois des
liaisons perpendiculaires entre les molécules rigidifient l'ensemble constituant ainsi des réseaux très
complexes. La technologie moderne a appris à maîtriser ces différentes formes pour fabriquer
toutes sortes de matériaux comme par exemple les composites, ainsi appelés parce qu'ils consistent
en l'assemblage de matériaux de nature très différente (du carbone, des métaux, des plastiques, des
céramiques, …) par collage, tressage, etc.
Dans les solides, les atomes sont tout près les uns des autres. Dans certains cas les électrons
peuvent alors "sauter" facilement d'un atome à l'autre. Dans ce cas la matière peut conduire le
courant. Dans le cas contraire on a affaire à un isolant.

Pour estimer la taille des atomes, un moyen simple est de prendre un état où les atomes sont pressés
les uns contre les autres, comme un solide, et de compter le nombre d'atomes. Plusieurs moyens
peuvent être utilisés pour compter les atomes, par exemple en utilisant l'électrochimie : une réaction
chimique mettant en jeu l'échange d'électrons à travers un courant électrique. En mesurant
l'intensité du courant, et donc le nombre d'électrons échangés, on peut connaître le nombre d'atomes
ayant réagit chimiquement, et en mesurant la masse de la matière qui a réagit chimiquement (par
exemple pour former un sel, un oxyde comme la rouille ou en déposant du chrome sur un métal
pour en faire de l'inoxydable) on peut aisément compter combien il y a d'atomes dans un gramme
de matière.

Ils sont extrêmement petits. Leur taille est typiquement de l'ordre de l'Angström. Un Angström est
une unité de longueur couramment utilisée en physique atomique et il vaut un dixième de
milliardième de mètre.

Il n'est pas étonnant que les Grecs n'aient jamais pu les voir et que leurs discussions soient restées
au niveau philosophique !

Du fait de leur petite taille, les atomes sont extrêmement nombreux. Surtout dans les solides ou les
liquides où les atomes sont pratiquement les uns contre les autres (dans les gaz, ils peuvent être
beaucoup plus dispersés). Par exemple, un gramme d'hydrogène (qui, à pression ambiante, occupe
22,4 litres) contient 600000 milliards de milliards d'atomes. Un nombre gigantesque (appelé le
nombre d'Avogadro).

La spectroscopie
Chaque atome peut émettre ou absorber de la lumière. Par exemple, si la matière est fortement
chauffée, les atomes entrent en collision avec l'agitation thermique, les atomes sont alors dans un
état excité qui se traduit par l'émission de lumière.

On constate que chaque type d'atome émet seulement certaines longueurs d'ondes (certaines
couleurs). L'ensemble des longueurs d'ondes émises (ou absorbées) par un atome s'appelle son
spectre.

La spectroscopie est donc l'étude du spectre d'un atome.


Il est assez facile d'observer le spectre d'un atome en dispersant les couleurs avec, par exemple, un
prisme.

Chaque spectre est unique. C'est un peu comme une empreinte digitale. Le simple fait de voir le
spectre permet de connaître l'élément qui l'a émit. Ainsi, par exemple, l'observation du spectre
d'une étoile permet de connaître sa composition. C'est de cette manière que l'on sait que notre Soleil
est composé en grande partie d'hydrogène et d'hélium et d'un peu de carbone d'azote et d'oxygène.

C'est d'ailleurs comme cela qu'on découvrit l'hélium la première fois. Son nom vient d'hélios (soleil
en grec).

Tout ceci est vrai également des molécules qui présentent des spectres précis.

L'atmosphère terrestre peut absorber aussi certains rayonnements. Par exemple, la couche d'ozone
troposphérique absorbe les rayonnements ultraviolets les plus énergétiques et très nocifs et
l'humidité de l'air et le gaz carbonique absorbe le rayonnement infrarouge provoquant l'effet de
serre qui garantit à notre planète une température douce et favorable à la vie mais qui est aussi la
cause de bien des soucis en ce début de vingt et unième siècle à cause de l'émission humaine d'une
quantité trop importante de gaz à effets de serres.
Lorsque l'on observe des raies sombres sur un spectre lumineux comme ci-dessus, on parle d'un
spectre d'absorption. Lorsque l'on observe des raies lumineuses sur un font sombre (par exemple un
gaz chauffé) on parle de spectre d'émission. L'un est simplement le négatif de l'autre.

C'est grâce à ces spectres (dans la lumière visible, dans les ondes radios, etc.) que les astronomes
explorent l'univers. Les spectres donnent énormément d'indications sur la nature des corps célestes
observés, en tout premier lieu leur composition chimique.

Notons que l'absorption de certains rayonnements par l'atmosphère constitue aussi une gêne pour
les astronomes qui voudraient observer l'univers dans cette gamme de rayonnement et qui ne
peuvent, dans ce cas, compter que sur les observatoires placés en orbites.

Balmer découvrit que les longueurs d'ondes d'un spectre obéissent à des règles simples : si on a une
raie de fréquence ν 1 suivie d'une raie de fréquence ν 2 , alors on a aussi une raie de fréquence
ν 1 + ν 2 (mais pas une de fréquence 2ν 1 + ν 2 , par exemple, la série ne continue pas, ça ne marche
donc qu'avec certaines raies "proches"). Cette découverte est assez remarquable car le spectre
s'étale largement (depuis les ondes radios jusqu'aux ultraviolets) et Balmer, à son époque, ne
pouvait analyser que les raies en lumière visible, soit une toute petite partie du spectre et seulement
quelques raies par atomes. Il fallait être très malin et très imaginatif pour découvrir ces règles sur
seulement si peu de cas.

Ces règles simples, ces régularités devaient être un voile levé sur les secrets de la structure des
atomes. Encore fallait-il découvrir ces secrets.
II.2.1. L'atome de Thomson
Revenons à la structure d'un atome seul. Comment est-il constitué ?

Des mesures simples permettent de constater qu'un électron est plusieurs milliers de fois plus léger
que le noyau (exactement 1833 fois plus léger qu'un noyau d'atome d'hydrogène). Ces électrons
découverts à travers les rayons cathodiques furent tout de suite identifiés avec l'électricité et les
phénomènes électromagnétiques. Le reste de l'atome, globalement neutre, étant constitué d'une
masse chargée positivement.

Comme le noyau n'a pas une masse quelconque mais est toujours un multiple de la masse du noyau
de l'hydrogène, cela signifie que le noyau contient des particules (1833 fois plus lourdes que
l'électron), chargées d'électricité positive, que l'on appelle des protons. Mais cela ne nous dit pas où
sont les électrons dans l'atome.

Thomson proposa un modèle qui semblait naturel dans la mesure où les charges électriques
négatives et positives s'attirent. Son modèle pourrait s'appeler le pain aux raisins.
Les électrons, petits et légers, "fourrent" une grande masse chargée positivement.

Ce modèle avait plusieurs inconvénients :


 Il n'expliquait pas pourquoi la masse positive se comptait par unités entières. Toutefois, on
pouvait résoudre ce problème en imaginant que la grosse masse positive était en fait constituée
de plusieurs morceaux (les protons) agglomérés. Des espèces de grumeaux de pain dans le pain
au raisin.
 Il est difficile d'extraire des électrons de cette masse. Les charges électriques positives et
négatives s'attirent, et cette attraction est d'autant plus forte que les charges sont proches. Ici
elles sont carrément l'une contre l'autre et à une distance de la taille d'un atome, une taille
infime, et même plus près encore puisque les électrons sont au contact de la masse chargée
positivement. L'attraction doit donc être gigantesque.

Or, il est expérimentalement facile d'arracher des électrons à un atome. Les électrons sont le
vecteur de l'électricité et elle est facile à produire. Plus encore, un simple frottement sur un
morceau d'ébonite, d'ambre (elektron en grec, d'où le nom donné aux électrons), un tissu en
laine ou en peau de chat produit de l'électricité statique, c'est-à-dire arrache des électrons qui
restent fixés sur le bâton ou le tissu. Et ces frottements correspondent à des chocs très faibles
entre atomes. Comment cela pourrait-il arracher des électrons aussi bien ancrés que dans ce
modèle ?
 Enfin, comment expliquer l'émission et l'absorption de lumière par ce modèle ? Il est certain
que la lumière a une nature électromagnétique, ce qui colle bien avec une structure sous forme
de particules chargées. On peut imaginer que les électrons peuvent bouger à l'intérieur de la
masse positive et que ce mouvement entraîne l'émission de lumière ainsi qu'une variation de
l'énergie de l'atome. Toutefois, on comprend mal comment les électrons pourraient bouger sous
une sollicitation extérieure alors qu'ils sont si bien enfouis. C'est à nouveau le problème
précédent. Mais aussi pourquoi l'atome ne peut émettre que certaines fréquences lumineuses
précises, comme le montre la spectroscopie et, encore plus mystérieux, pourquoi ces raies
lumineuses obéissent à la règle de Balmer.

On peut bien sûr imaginer toutes sortes de mécanismes plus ou moins complexes pour essayer de
s'en sortir. Encore faut-il qu'ils marchent.

Thomson imagina des électrons vibrant. Cette théorie développée par Lorentz, à l'aides des outils
de la mécanique et de l'électromagnétisme, permis pour la première fois d'expliquer l'émission et
l'absorption d'ondes électromagnétiques ainsi que la diffusion et la dispersion de la lumière.

Donc, malgré ses imperfections et son incapacité à reproduire fidèlement les résultats
expérimentaux, ce modèle avait au moins le mérite d'exister et d'apporter un petit éclairage sur la
nature de l'atome.

A ce stade les physiciens étaient empêtrés dans des équations extrêmement complexes tentant de
décrire un tel édifice. Equations qui refusaient obstinément de reproduire ce qui était observé.

Ce genre de situation montre la limite d'une "idée". Avoir une idée qui peut sembler simple et
géniale ne suffit pas. Même un modèle construit sur cette idée et décrivant qualitativement tous les
mécanismes recherchés est insuffisant. Il faut aussi le décrire quantitativement et
mathématiquement pour voir s'il correspond à la réalité. Et ce n'est malheureusement pas toujours
le cas.
II.2.2. L'atome de Rutherford
Pour Rutherford, l'atome devait plutôt ressembler à un petit système solaire.

Un noyau très petit, très massif, constitué des protons, se situe au centre. Les électrons, petits et
légers tournent autour. La force d'attraction entre charges électriques permettant à ces électrons de
rester à une distance constante, cette force agissant comme la gravité pour les planètes.

Ce modèle a de nombreux avantages. Tout d'abord, les électrons loin du noyau sont aussi plus
faiblement attirés par le noyau. Il devient aisé de les arracher pour produire un courant électrique.
Ensuite, les électrons sur des orbites différentes ont des énergies différentes et le passage d'une
orbite à l'autre pourrait résulter de l'absorption ou de la libération d'énergie sous forme lumineuse et
sous formes de raies lumineuses avec une fréquence bien précise.

Ensuite, lors de contacts entre atomes, des électrons pourraient être échangés ou mis en communs
ouvrant une voie sur l'explication de la chimie et de la valence des atomes (le nombre de liaisons
que chaque atome peut établir avec ses voisins pour former une molécule).

De plus, ce modèle a une base expérimentale solide. Rutherford envoya sur des atomes un flux de
particules alphas. Les particules alphas sont juste des noyaux d'hélium composés de deux protons et
deux neutrons. Evidemment, on ne connaissait par leur composition à l'époque, on savait juste que
les particules alpha étaient petites, massives (8000 fois la masse d'un électron) et chargées
positivement. Les particules alpha étaient émises par la matière radioactive.
Les électrons, trop légers, n'influencent pas les particules alphas qui se contentent de les bousculer
comme des quilles. Nous n'avons pas dessiné les électrons ci-dessus. Par contre, les noyaux,
beaucoup plus massifs, dévient fortement les particules alphas.

Ce que découvrit Rutherford c'est que les particules alphas sont rarement déviées. La plupart
passent à travers une fine couche de matière sans être affectées.

Grâce à ces expériences très précises, Rutherford put déterminer que l'atome est constitué d'un
noyau positif, très massif et très petit, très compact, dix mille fois plus petit que l'atome. Chaque
noyau est séparé des autres noyaux d'atomes par beaucoup de vide.
Remplir ce vide avec des électrons tournant autour des noyaux était alors tout à fait logique (ne fut
ce que pour expliquer ce qui maintient les noyaux loin les uns des autres, les électrons se
repoussant les uns les autres).

En fait, Rutherford n'a établit son modèle qu'après ses expériences. C'est sur une base
expérimentale qu'il a conçu son modèle. Celui-ci était le meilleur modèle rendant compte de
l'ensemble des mesures effectuées. Une telle approche, lorsqu'elle est possible, garantit que le
modèle conçu correspond effectivement à la réalité ou tout au moins s'en approche au mieux des
connaissances accumulées jusque là.

Le seul problème du noyau de Rutherford c'est qu'il n'est pas stable ! Du moins pour la théorie
classique.

Nous savons qu'une charge électrique qui est accélérée émet un rayonnement électromagnétique.
Or, un corps qui tourne subit une accélération centripète. Donc, des électrons qui tournent émettent
des ondes électromagnétiques.

C'est d'ailleurs sur ce principe que fonctionnent les antennes émettrices : des électrons tournant
dans des boucles de fil électrique émettent une onde radio.

Selon le modèle de Rutherford, les électrons tournent autour du noyau et les atomes devraient donc
émettre un rayonnement électromagnétique continu, ce qui n'est évidemment pas observé.

Plus grave, les électrons, en émettant du rayonnement, devraient perdre de l'énergie et tomber en
spirale sur le noyau. L'atome de Rutherford est instable et devrait se transformer en atome de
Thomson !
Or, force est de constater que la matière est stable. Elle ne s'effondre pas comme dans la figure ci-
dessus.

Cette fois la physique classique est clairement en défaut. L'approche que semble privilégier
l'expérience n'est pas explicable par la physique classique. Il va donc falloir trouver une meilleure
description théorique.

Mais avant de voir comment cela fut traité théoriquement, continuons notre excursion
expérimentale des phénomènes défiant la physique classique.
III. Bases physiques
En l'état actuel de nos connaissances, la mécanique quantique peut être vue comme la théorie
fondamentale des phénomènes atomiques. Les données expérimentales sur lesquelles elle est basée
sont dérivées de phénomènes physiques qui se situent presque entièrement au-delà du domaine de
la perception humaine. Il n'est donc pas surprenant que la théorie implique des concepts physiques
qui sont éloignés de l'expérience de tous les jours. Ces concepts n'apparaissent pas dans le
développement historique de la mécanique quantique avant qu'un formalisme mathématique
complet ne soit développé. La nécessité d'une comparaison quantitative avec l'observation, qui est
le test ultime de toute théorie physique, a d'abord conduit au formalisme et seulement après à son
interprétation en termes physiques.

Il semble souhaitable d'introduire le sujet de la mécanique quantique au départ d'un ordre historique
et de remettre la discussion des concepts physiques à plus tard. Ici, nous allons passer brièvement
en revue l'arrière-plan expérimental et les idées de la vieille théorie quantique avant de discuter des
nouveaux concepts physiques, de l'indétermination et de la complémentarité pour ensuite poser les
pierres de base du formalisme qui sera développé sous une forme plus familière après. Nous ne
tenterons pas de déduire la structure du formalisme des expériences fondamentales mais nous
essayerons plutôt de rendre le développement théorique plausible. La justification de la théorie
restera alors son accord entre les déductions et les expériences ainsi que la simplicité (de principe
plus que de pratique) et la consistance du formalisme.

Les expériences physiques avant 1900 ont démontré l'existence d'une large variété de phénomènes
dont on pensait pour la plupart qu'ils étaient explicables en termes de ce que nous appelons
maintenant la physique théorique classique. Les mouvements des objets mécaniques étaient
discutés avec succès à l'aide des équations de Newton autant sur des échelles célestes que sur des
échelles terrestres. L'application de cette théorie aux mouvements moléculaires a produit des
résultats utiles en théorie cinétique des gaz et la découverte de l'électron par J.J. Thomson en 1897
consista à montrer qu'il se comportait comme un corpuscule newtonien. La nature ondulatoire de la
lumière avait été fortement suggérée par les expériences de diffraction de Young en 1803 et mise
sur un solide piédestal par la découverte en 1864 de Maxwell de la relation entre l'optique et les
phénomènes électriques.
La difficulté dans la compréhension des résultats expérimentaux qui subsistait au début du
vingtième siècle était largement concernée par le développement d'un modèle atomique, comme
nous venons de le voir, et par la découverte des rayons X et de la radioactivité. Cependant, il y avait
aussi des difficultés associées avec des phénomènes qui auraient dû être compris mais qui ne
l'étaient pas. Une telle situation est la distribution spectrale du rayonnement thermique d'un corps
noir, la chaleur spécifique des solides à basse température et l'apparition de seulement cinq degrés
de liberté dans le mouvement d'une molécule diatomique libre à température ordinaire.

Le début de compréhension de la deuxième catégorie de difficultés fut obtenu par Planck en 1900
quand il fut capable d'expliquer le spectre du corps noir en termes de l'émission et l'absorption
supposée du rayonnement électromagnétique sous forme de quanta discrets, chacun consistant en
une quantité d'énergie E qui est égale à la fréquence du rayonnement ν multipliée par une
constante universelle h (appelée la constante de Planck) :
E = hν

Cette idée quantique fut plus tard utilisée par Einstein pour expliquer certaines observations
expérimentales de l'effet photoélectrique. De cette manière, le caractère dual du rayonnement
électromagnétique fut établit. Il se comporte parfois comme un mouvement ondulatoire et parfois
comme un flux de corpuscules.

A ce moment, l'existence de valeurs discrètes dans la mesure de paramètres des systèmes atomiques
(pas seulement du rayonnement électromagnétique) devint apparente à travers les théories
d'Einstein et de Debye de la chaleur spécifique des solides, la classification de Ritz des raies
spectrales, l'expérience de Frank et Hertz sur la perte discrète d'énergie des électrons dans les
collisions avec les atomes et l'expérience (plus tardive) de Stern et Gerlach qui montra que la
composante du moment magnétique d'un atome dans un champ magnétique externe a des valeurs
discrètes.

Nous allons, dans un premier temps, approfondir l'étude du rayonnement du corps noir et de l'effet
photoélectrique avant de voir le premier modèle quantique d'un atome et avant d'explorer à travers
l'expérience de Young combien peut être étrange le comportement quantique.
III.1. Le rayonnement du corps noir
Vous avez tous vu un morceau de métal chauffé au rouge. Lorsqu’un morceau de fer est chauffé
très fortement, il devient lumineux. Plus il est chaud, plus il est lumineux et plus sa couleur tire vers
le blanc.

Tout le monde sait aussi qu’un être vivant (un corps humain fait trente sept degrés) émet du
rayonnement infrarouge. C’est grâce à ce procédé que fonctionnent certains systèmes d’alarmes
équipés de détecteurs infrarouges. De même, certaines lunettes de «vision nocturne » permettent
simplement de voir les infrarouges. Beaucoup d’entre vous ont même sûrement déjà vu le film
Predator avec Arnold Schwarzeneger où l’extraterrestre possède une vision infrarouge, ce qui
permet au héros d’échapper à la créature en s’enduisant d’eau et de boue froide.

Vous avez peut-être déjà eut aussi l'occasion d'observer ces magnifiques photos du ciel prises dans
l'infrarouge par certains satellites équipés de télescopes captant ce rayonnement (comme le satellite
IRAS). On y voit de nombreux objets qui sont invisibles à la lumière visible tel que des nuages de
poussières, trop froids que pour émettre autre chose que du rayonnement infrarouge.

C’est donc un fait. Tout corps chaud émet un rayonnement. Ce rayonnement est d’autant plus
intense et de longueur d’onde courte que la température est élevée. Mais comment étudier ce
rayonnement ? Cela doit certainement être fort compliqué car on comprend aisément que le
rayonnement doit dépendre non seulement de la température du corps mais aussi de sa nature, de sa
composition.

Comment rendre les choses suffisament simples pour les étudier ? Par exemple, pour étudier l'effet
de la température seule. Dans cette optique, on définit un corps « idéal » appelé corps noir.

Un corps noir est un corps possédant deux propriétés :


• Il est en équilibre thermique. C’est à dire qu’il a une température uniforme et constante.
• Il absorbe tous les rayonnements sans exception. C’est à dire qu’il n’est pas réfléchissant.
C’est cette dernière propriété qui lui donne son nom de corps noir, car il absorbe toute la lumière
comme de la couleur noire alors qu'une feuille blanche réfléchit presque toute la lumière qu'elle
reçoit. Un miroir réfléchit aussi toute la lumière avec la propriété supplémentaire qu'il est tellement
lisse que la lumière est toujours réfléchie dans une direction bien précise, ce qui permet de
conserver la forme de l'image et donc d'y voir son reflet.

Comme le corps noir est en équilibre thermique, comme sa température ne varie pas, cela signifie
qu’il reçoit autant d’énergie qu’il en émet. C’est à dire que tout rayonnement absorbé est réémit. Si
ce n'était pas le cas, par exemple s'il absorbait plus d'énergie qu'il n'en émet, cette énergie
accumulée sous forme thermique augmenterait rapidement la température du corps.

Un corps noir a une propriété extraordinaire qui a rapidement été constatée : son rayonnement est
universel. C’est à dire qu’il émet un rayonnement électromagnétique qui ne dépend que de sa
température, pas de sa nature. Qu’il soit en bois, en verre, en papier, peu importe, du moment qu’il
se comporte comme un corps noir, il émet un rayonnement identique aux autres corps noirs.

Bien entendu, s’il émet toujours le même rayonnement et s’il réémet tout ce qu’il absorbe, il y a un
problème. Comment ce qui est émit peut-il rester constant et universel si ce qui est reçu varie ? En
réalité, ce n’est pas grave. Il suffit que le déficit d’énergie soit fournit (ou évacué) par une source
extérieure afin de garder l’équilibre thermique, nous en verrons des exemples.

Bien évidemment, une plaque de métal poli est un très mauvais corps noir car cette plaque
n’absorbe pas tous les rayonnements, c’est un miroir ! Par contre, un objet peint en noir est un bon
corps noir (si la peinture est « noire » également pour d’autres rayonnements que la lumière visible,
c’est à dire si elle absorbe les infrarouges, etc.).

Un morceau de métal chauffé très fortement perd sa capacité de miroir et devient un bon corps noir.

D’une manière plus générale, même si le corps n’est pas parfaitement « noir » parce qu’il reflète un
peu de lumière, ce n’est pas grave. Le rayonnement n’est plus universel mais il ressemble encore à
celui du corps noir (on parle alors de corps gris). On peut aussi avoir un corps qui est un bon corps
noir dans une certaine gamme de rayonnement. Par exemple, le corps humain reflète la lumière
visible. Mais à trente sept degrés Celsius, un corps humain émet surtout des infrarouges et, dans ce
domaine de longueur d’onde, le corps humain absorbe les rayonnements infrarouges.

Un four fermé mais percé d’un petit trou et équipé d’un thermostat est un bon corps noir.

Plus exactement, c’est le trou qui est un corps noir ! La température du four et
Donc la température « vue » à travers le trou est constante et uniforme grâce au thermostat. Le
rayonnement entrant (s’il existe) a peu de chance de ressortir même si les parois intérieures sont
légèrement réfléchissantes, car il va se refléter un grand nombre de fois avant de réussir à repasser
par le petit trou. Il sera donc quasiment absorbé en totalité. Ce dispositif permet d'étudier
facilement un corps noir à une température quelconque dans un laboratoire.
Le soleil est un excellent corps noir ! C’est avec un tel exemple qu’on se rend compte que le nom
est bien mal choisi. Sa température de surface est presque constante et uniforme (environ 6000
degrés) en dehors de quelques endroits (tâches solaires, protubérances solaires, des éruptions de
matière solaire). Le rayonnement qui arrive sur lui est totalement absorbé (le soleil est composé de
gaz qui ne se comporte certainement pas comme un miroir).

Bien entendu, il n’y a pas beaucoup de rayonnement qui lui parvient. C’est lui qui est sensé éclairer
les planètes, pas l’inverse ! Mais le soleil possède sa source d’énergie (un peu comme le four, sauf
que pour le soleil c’est d’origine thermonucléaire) qui permet de maintenir l’équilibre thermique.

Voyons un peu à quoi ressemble ce fameux rayonnement de corps noir.


En bas on a indiqué la longueur d’onde émise. La hauteur de la courbe donne l’intensité du
rayonnement (l’énergie émise par seconde par unité de surface, par exemple en Watt par mètre
carré). On a tracé une courbe pour différentes températures.

On constate immédiatement plusieurs choses :


 L’énergie totale est d’autant plus grande que la température est élevée. Elle est même
proportionnelle à la puissance quatrième de la température (mesurée en Kelvin, c’est à dire à
partir du zéro absolu qui vaut moins -273 degrés Celsius). C’est à dire que si la température
double, l’énergie émise est multipliée par seize. Ainsi, un morceau de métal chauffé à blanc
émet une très grande quantité d’énergie (ça brûle, même sans toucher).
 Le maximum de la courbe, c’est à dire la longueur d’onde pour laquelle le rayonnement est le
plus fort, se déplace vers les courtes longueurs d’ondes lorsque la température augmente. Un
morceau de métal chauffé de plus en plus fort devient rouge, orange, jaune, blanc… A ce stade,
il émet beaucoup de rayonnement bleu, mais comme il émet énormément d’énergie, même dans
les autres couleurs (la courbe ci-dessus devient très haute), alors la couleur nous semble
blanche.

Une lampe à incandescence fonctionne selon ce principe. Le filament est dimensionné de façon
à s'échauffer à une température précise dont le maximum du rayonnement se situe dans la
lumière visible et pour émettre une quantité d'énergie précise, on parle ainsi d'une lampe de 40
Watt, 60 Watt,… Bien entendu, ces lampes émettent aussi beaucoup de rayonnement infrarouge
qui échauffe les parois et une partie de l'énergie est dissipée sous forme de chaleur. Les lampes
dites économiques fonctionnent sur d'autres principes et émettent l'essentiel de leur énergie
dans le domaine visible.

Comment la théorie classique explique-t-elle ce rayonnement ? A ce stade, nous ne pouvons pas


connaître le mécanisme intime qui permet l’émission du rayonnement. Toutefois la théorie
classique nous explique plusieurs choses :
 La température est due, dans un solide, aux vibrations des atomes. Plus c’est chaud, plus ils
vibrent fort. En fait, la température est une mesure directe de cette agitation.
 Le rayonnement est une onde. C’est à dire une vibration électromagnétique qui se propage.
 Les atomes contiennent des particules chargées, les électrons.
 Les vibrations sont le domaine de la mécanique (et de la thermodynamique qui fait le lien avec
la température).
 Le rayonnement est le domaine de la théorie électromagnétique. La théorie de Maxwell montre
qu'une charge qui est accélérée (par exemple, un électron "agité") émet un rayonnement
électromagnétique.

On peut supposer raisonnablement que les vibrations des atomes sont responsables du rayonnement
émit, cela est cohérent avec le fait que l'agitation d'une charge provoque l'émission du rayonnement
et avec le fait que ce rayonnement augmente avec la température (agitation plus grande). On peut
également supposer que les vibrations sont reliées à celles du rayonnement. C’est à dire que la
fréquence de vibration d’un atome correspond à celle de la lumière émise. Ce sont les seules
hypothèses que l’on peut faire et elles sont logiques (et d’ailleurs parfaitement correctes, même
après les problèmes que nous allons découvrir).

Que donne alors la théorie pour les courbes du corps noir ? Reprenons le graphique précédent et
indiquons les courbes prédites par la théorie en bleu lorsqu'on effectue le calcul.
Il est manifeste que la théorie ne correspond pas du tout à la réalité !
Regardons d’abord du coté des grandes longueurs d’ondes. Là, pas de problème. La théorie prédit
exactement ce qui est observé. Et avec une grande précision encore. Notre hypothèse des vibrations
semble donc bien correcte.

Regardons maintenant du coté des courtes longueurs d’ondes. Là, c’est la catastrophe (le problème
fut d’ailleurs appelé catastrophe ultraviolette) ! La théorie prévoit que l’intensité du rayonnement
doit continuer à grimper alors que l’expérience prouve le contraire.

La courbe théorique est même totalement absurde. Si on regarde l’énergie totale émise (la surface
sous la courbe), la théorie dit qu’elle est infinie ! Il y a non seulement un problème mais, pire que
cela, c’est même un très gros problème. La théorie classique, pour les petites longueurs d’ondes est
totalement erronée.

Pourquoi cet écart ? L’hypothèse des vibrations (liens entre vibrations des atomes et vibrations
électromagnétiques) serait-elle fausse ? Mais alors pourquoi ça marche pour les grandes longueurs
d’onde ? Y aurait-il moins de vibrations des atomes aux hautes fréquences ? C'est possible, mais
pourquoi ? Il n’y a aucune raison physique apparente. Et si on calcule (en comparant les courbes
théoriques et réelles) « l’amortissement » nécessaire, c’est à dire la diminution des vibrations
nécessaires, en fonction de la longueur d’onde, c'est-à-dire si on écrit une formule arbitraire, juste
choisie pour qu'elle colle à la courbée observée, on obtient une formule bizarre (formule de Wienn),
totalement inexplicable et qui ne fournit aucune idée sur le mécanisme responsable (pour être
honnête, Wienn trouva sa formule sur base de raisonnements physiques précis mais qui n'éclairent
pas le problème soulevé ici).

Le physicien Max Planck a eut alors une idée curieuse. Il s’est dit : et si l’énergie ne pouvait être
émise que par « paquets » ? Peut-être existe-t-il un mécanisme inconnu dans les atomes qui
empêche les vibrations atomiques de former des vibrations électromagnétiques n’importe comment.
Il supposa que les paquets avaient une valeur très simple. Pour une fréquence de vibration égale à
ν , un paquet aurait exactement une énergie égale à hν . h est une constante appelée constante de
Planck et identique pour toutes les fréquences, toutes les températures,… (cette constante a une
valeur extrêmement petite).
Lorsqu’un atome vibre à la fréquence ν , il émet un rayonnement électromagnétique de fréquence
ν . Mais il émet ce rayonnement par petites « bouffées » ayant une énergie hν .

Pour être exact, Planck a d'abord abordé le calcul d'une manière traditionnelle et a utilisé une
technique habituelle en calcul numérique. Il a découpé l'énergie en tranche pour remplacer les
intégrales par des sommes. C'est en procédant de la sorte qu'il a vu la solution émerger.

Regardons ce que cela change pour les grandes longueurs d’onde. Pour les grandes longueurs
d’onde, la fréquence est petite (rappelez-vous la formule). Donc, la valeur hν est très petite.
Pratiquement n’importe quelle quantité d’énergie peut être émise (il suffit d’avoir la bonne quantité
de petits paquets). Le calcul montre que la courbe est inchangée. C’est déjà ça.

Et pour les grandes fréquences, c’est à dire pour les courtes longueurs d’onde ? Là tout change !
L’énergie d’un paquet hν devient grande. La matière ne sait plus émettre n’importe quelle énergie
car elle est limitée à un nombre entier d’une grosse quantité hν .

Le calcul montre que la courbe théorique est fortement modifiée et elle est exactement égale à la
courbe mesurée. Avec une grande précision et pour toutes les longueurs d’onde et toutes les
températures. Planck avait trouvé.

La formule qu'il a obtenue peut s'écrire :


8πh ν 3
(1) E = 3 hν / kT
c e −1
Où l'on retrouve la constante de Planck ainsi que la constante de Maxwell-Boltzmann k .

Nous aurons l'occasion de déduire cette formule directement des statistiques quantiques.

Planck avait trouvé ou plutôt il avait levé un coin du voile car on ignore tout de l’origine de ce
phénomène. Quelle est le mécanisme qui provoque cette libération d’énergie par paquets ou par
bouffées ? Et des paquets qui dépendent de la fréquence en plus. Mystère total. Mais le voile va
bientôt se déchirer.
III.2. L'effet photoélectrique
L’effet photoélectrique est le phénomène où des électrons sont arrachés d’un métal par de la
lumière. Ce phénomène est actuellement utilisé dans un grand nombre de dispositifs
optoélectroniques mais il était déjà connu au début du vingtième siècle et fut étudié par Einstein (il
obtint le prix Nobel pour cela).

Le phénomène fut découvert par Hertz. Celui-ci, pour étudier les ondes radios, utilisait un éclateur.
C'est un petit dispositif avec deux boules métalliques et un arc électrique entre les deux boules.
Hertz constata, par hasard, que s'il éclairait les boules avec de la lumière ultraviolette, l'arc
électrique se déclenchait un peut plus facilement.

Il faut savoir que l'arc électrique n'est tout simplement qu'un flux d'électrons entre les deux boules,
flux traversant l'air. L'aspect lumineux de l'arc est en fait dû à l'air : les électrons, en heurtant les
molécules d'air, les excitent et leur font émettre de la lumière. Si l'arc à lieu dans le vide, il est
invisible à l'œil nu et il se détecte en mesurant le courant électrique entre les boules. Donc,
manifestement les ultraviolets "aident" les électrons à quitter les boules métalliques.

Hertz nota ce phénomène comme une simple anecdote. Ce qui l'intéressait, c'était les ondes radios.
Pas la lumière, ni les électrons.

Par la suite, l'effet fut étudié plus en profondeur et on constata rapidement qu'il était plutôt
incompréhensible.

Voyons cela d’un peu plus près en utilisant une diode.


Que la diode contienne du gaz ou qu’elle soit sous vide, le courant ne passe pas très facilement.
Habituellement, on utilise un filament pour la cathode, filament chauffé par le passage d'un courant
électrique. L'énergie thermique permet d’arracher plus facilement les électrons. Ici, nous avons
supprimé ce dispositif. Pour que le courant passe, il faut appliquer une tension électrique
considérable pour provoquer un arc électrique (environ 10000 Volts pour une diode de 10
centimètres). Un tel arc, lorsqu'il se déclenche avec une tension aussi élevée, peut même être
destructeur (comme la foudre).

Mais, si l’on éclaire la cathode avec une lumière ultraviolette, tout change. Le courant passe à
nouveau facilement dans la diode car la lumière arrache les électrons de la cathode.

Nous avons dit que la lumière était une onde, mais cela pose un problème. En effet, une onde est
répandue uniformément dans tout l’espace. Si la lumière éclaire uniformément la cathode, l’énergie
qui arrive sur chaque atome est très faible.
Un atome est si petit que la quantité d’énergie qu’il reçoit est vraiment infime. Même avec une
source de lumière très puissante, les électrons ne reçoivent pas assez d’énergie pour être arraché.
L’énergie nécessaire pour arracher un électron est en effet trop élevée (on peut la mesurer par
d’autres méthodes, par exemple en mesurant et en calculant l’énergie thermique fournie lorsque
l’on chauffe la cathode ou en utilisant des processus chimiques avec échanges d'électrons).

Peut-être que l’énergie reçue s’accumule petit à petit ? Dans ce cas, lorsque l’énergie accumulée
serait suffisante, l’électron pourrait être arraché. Le problème dans ce cas est double :
 Le temps d’accumulation serait de plusieurs heures. Or l’effet photoélectrique est immédiat.
Dès qu’on allume la lampe, le courant électrique se met à passer.
 Tous les atomes subiraient ce phénomène et, d’un seul coup, nous aurions un énorme paquet
d’électrons arrachés. Ce phénomène n’est bien entendu pas observé.

Et si l’énergie qui arrive sur une grande surface se concentrait sur une petite surface pour arracher
un électron ? Peut-être. Cela marcherait, effectivement. Mais pourquoi cet électron là ? Si la
lumière arrive sur toute la surface de la cathode, pourquoi l’énergie se concentrerait-elle sur telle
petite portion de surface plutôt que telle autre ? Selon quelle règle ? De plus, s’il existait une telle
règle (par exemple l’énergie se concentre au centre de la surface éclairée) ce serait toujours la
même petite portion de surface qui recevrait l’énergie, c’est à dire que les électrons seraient
toujours émis au même endroit de la cathode (par exemple au centre). Ce n’est pas ce qui se passe,
bien que ce soit difficile à vérifier avec le dispositif ci-dessus, mais il peut aisément se
perfectionner pour vérifier de quel endroit de la cathode les électrons sont arrachés, par exemple en
plaçant des obstacles devant la cathode. Le résultat est que les électrons partent d’un peu partout
sur la cathode, d’une manière apparemment aléatoire.

Avant d’essayer de comprendre ce mystère, nous allons perfectionner le dispositif afin d’effectuer
des mesures plus précises de l’énergie des électrons. En effet, l’énergie nécessaire pour arracher les
électrons n’est pas encore bien connue. Nous avons dit qu’on pouvait la déduire à partir d’autres
phénomènes physiques comme le chauffage de la cathode, mais ces méthodes sont toujours
indirectes. Il reste donc un doute que nous devons lever.

Le dispositif que nous allons utiliser est une triode.


La grille est portée à une tension électrique négative, comme les électrons sont chargés
négativement, ils sont repoussés par la grille. Toutefois, si la tension électrique de la grille est
faible, les électrons seront plus attirés par l’anode et ils arriveront à passer (à travers les trous de la
grille). Il existe donc une tension électrique U à partir de laquelle la grille va empêcher les
électrons de passer.

Supposons qu’un électron d’énergie E quitte la cathode. Que va-t-il se passer ? Les lois sur
l’électricité (et les expériences) nous apprennent que son énergie va varier s’il se déplace dans un
champ électrique (par exemple, entre la grille et la cathode, il y a un champ électrique
proportionnel à la tension électrique de la grille). C'est bien normal puisqu'il subit une force qui le
pousse dans le sens du champ électrique et donc gagne de l'énergie cinétique. L’énergie gagnée ou
perdue par l’électron est tout simplement égale à la tension électrique multipliée par la charge de
l’électron.

Ici, les électrons sont repoussés par la grille. Lorsqu’ils s’approchent d’elle, ils perdent de l’énergie
car ils doivent lutter contre le champ électrique qui les repousse. Cette énergie (que nous avons
noté E ) n’est rien d’autre que l’énergie cinétique des électrons (l’énergie due à leur mouvement).
S’ils perdent trop d’énergie, ils s’arrêtent et le courant ne passe plus (ils font demi tour et retombent
sur la cathode).

Donc, en faisant varier la tension de la grille ( U ) on peut déterminer l’énergie ( E ) perdue par les
électrons pour qu’ils s’arrêtent.

Mais cette énergie, c’est l’énergie des électrons qui ont quitté la cathode. Ce n’est pas l’énergie
reçue par l’électron (grâce à la lumière ultraviolette). Ce n’est pas non plus l’énergie nécessaire
pour l’arracher à l’atome. Quel est le lien ?

Appelons E1 l’énergie reçue par l’atome. Appelons E 2 l’énergie de liaison de l’électron, c’est à
dire l’énergie nécessaire pour l’arracher à l’atome. Si E1 est plus petit que E 2 , l’électron ne pourra
pas être arraché, il n’y a pas assez d’énergie. Si l’énergie E1 est plus grande que E 2 , alors
l’électron peut-être arraché. Une partie de E1 sert à arracher l’électron et l’excès set à propulser
l’électron au loin. On aura donc tout simplement :

E = E1 − E 2

Dans l’expérience, nous pouvons faire varier deux choses et nous pouvons mesurer deux choses.
Nous pouvons mesurer l’énergie E des électrons, comme nous venons de le voir en faisant varier
la tension de la grille, et nous pouvons mesurer l’intensité du courant électrique, c’est à dire le
nombre d’électrons qui passent. Nous pouvons faire varier l’intensité de la lumière ainsi que sa
fréquence (c’est à dire sa longueur d’onde).

Commençons par faire varier l’intensité lumineuse. Si l’on envoie une lumière deux fois plus
intense, nous allons envoyer deux fois plus d’énergie sur la cathode. On s’attend donc à ce que
l’énergie des électrons augmente avec l’intensité de la lumière. Faisons l’expérience et notons les
résultats sous forme d’un graphique avec les deux valeurs mesurées (en noir l’énergie et en bleu le
courant).
Ce n'est pas ce que nous avons supposé. C’est le courant qui varie ! Lorsque l’on double l’intensité
de la lumière, c’est à dire lorsque l’on double l’énergie envoyée, les électrons gardent la même
énergie, par contre, il y a plus d’électrons arrachés. Deux fois plus d’énergie implique deux fois
plus d’électrons.

Voilà qui est assez curieux. Essayons alors de faire varier la fréquence de la lumière. A priori cela
ne devrait rien changer.
On observe pourtant un changement ! Cette fois c’est le courant qui ne varie pas. Et l’énergie des
électrons augmente avec la fréquence de la lumière. Donc l’énergie des électrons dépend de la
fréquence de la lumière, c'est un résultat extrêmement intéressant.

Mais il y a une grosse différence avec le graphique précédent. On voit qu’en dessous d’une certaine
fréquence il n’y a plus de courant du tout car l’énergie des électrons est nulle,. Lorsque la lumière a
exactement la fréquence ν 0 , les électrons ont une énergie exactement nulle, et pour une fréquence
un tout petit peu supérieure, les électrons commencent à avoir un peu d’énergie. Donc, pour la
fréquence ν 0 , on a E1 = E 2 .

Et pour une autre fréquence ? Par exemple, pour ν 1 les électrons ont l’énergie E . quelle est la
relation entre ces valeurs E , ν 0 et ν 1 ? En effectuant l’expérience et en mesurant avec précision
toutes ces valeurs ont constate que :
E = (ν 1 − ν 0 )h
où h est la constante de Planck. C'est simplement la pente de la droite dans le graphique précédent.
Elle est donc facile à obtenir expérimentalement. Revoilà la constante que nous avions trouvé dans
le cas du corps noir ! Ce n’est sûrement pas une coïncidence.

Dans le corps noir nous avions supposé que l’énergie lumineuse ne pouvait être émise que par
paquets ou par bouffées hν . Supposons que la lumière soit réellement composée de paquets
d’énergie hν . C’est à dire que l’on ne suppose pas que ces paquets soient une question d’émission
de la lumière mais que la lumière est réellement composée de petits corpuscules d’énergie hν .
Bien entendu, nous savons que la lumière est une onde. Mais supposons, rien qu’un instant, juste
pour voir, que la lumière n’est pas une onde mais qu’elle est composée de corpuscules. Revoyons
tous les raisonnements précédents à la lumière de cette nouvelle hypothèse. Appelons ces
corpuscules des photons.

 Tout d’abord, revoyons notre problème initial. Nous avons dit que dans le cas d’une onde,
l’énergie n’était pas suffisamment concentrée sur chaque atome pour arracher les électrons. Et
pour des corpuscules ? Là, plus de problème. En effet, les corpuscules sont une concentration
idéale d’énergie. Chacun contient une quantité d’énergie égale à hν , lorsqu’il heurte un
électron, celui-ci reçoit le photon de plein fouet et il est arraché.
 Faisons varier l’intensité de la lumière. Si l’on double l’intensité de la lumière, l’énergie
lumineuse totale double. Mais la fréquence n’a pas changé, donc l’énergie des photons n’a pas
changé. C’est donc le nombre total de photons qui a doublé. L’énergie des photons n’ayant pas
changé, lorsqu’ils arrachent un électron il n’y a aucune raison que l’énergie de l’électron soit
différente. Par contre, comme il y a deux fois plus de photons, il y a deux fois plus d’électrons
arrachés et l’intensité du courant double. Ca explique tout.
 Faisons varier la fréquence. L’énergie reçue par l’électron est celle du photon, c’est à dire que
E1 = hν . Si hν est inférieur à E 2 ( hν < E 2 ), il n’y a pas assez d’énergie pour arracher les
électrons. En dessous d’une certaine fréquence, pas de courant. Ca marche aussi ! Donc,
hν 0 = E 2 .
 L’énergie communiquée à l’électron par un photon de fréquence ν 1 est :
E = E1 − E 2 = hν 1 − hν 0 = h(ν 1 − ν 0 ) . C’est exactement ce qu’on a mesuré. Il n’y a pas de
doute, la lumière est composée de corpuscules ! De plus, cette simple hypothèse explique le
corps noir. Plus besoin d’un mécanisme mystérieux provoquant l’émission de bouffées
d’énergie. Ces bouffées sont tout simplement les photons eux même. Nous ne connaissons
toujours pas ce mécanisme d'émission des photons dans le corps noir, mais le fait qu'ils soient
émis sous forme de paquets n'a plus rien d'étrange : ce sont des paquets ! Conclusion
qu'Einstein n'hésita pas à tirer de ses expériences contrairement à Planck qui fut beaucoup plus
timoré pour oser lancer une telle hypothèse assez iconoclaste.

D'ailleurs, même après les travaux d'Einstein, il subsista encore des réticences. Après tout, tout
comme l'émission, l'absorption pourrait se produire par paquets. Bien que cette hypothèse ne
concorde pas vraiment avec les constatations (pourquoi l'énergie de l'onde se concentre-t-elle en
un point donné). Ce n'est qu'après l'observation de l'effet Compton ou les photons percutent les
électrons comme dans un billard que le caractère corpusculaire de la lumière fut définitivement
établit.
Ondes ou corpuscules ?
La lumière se comporte donc comme des corpuscules. On était persuadé que la lumière était
composée d’ondes ! Mais l’expérience de Young alors ? Elle est pourtant sans appel : la lumière est
une onde et pas des corpuscules. Mais l’effet photoélectrique est impitoyable, il nous dit que la
lumière est composée de corpuscules et pas une onde !

Quel est ce mystère ? Où est le piège ? Où est l’astuce ?

Notons que l'on a rapidement découvert que les électrons avaient aussi des propriétés ondulatoires,
ce qui est également une surprise. En effet, la nature corpusculaire des électrons semblait bien
établie car on a put déterminer que, en particulier, la charge des électrons était toujours un multiple
entier d'une charge élémentaire et qu'ils avaient une masse bien précise. Le comportement dans les
rayons cathodiques, établit par Thomson, était celui d'un corpuscule avec une trajectoire balistique.
Pourtant, il est possible de réaliser également des figures d'interférences avec les électrons, procédé
qui est à la base du microscope électronique où les électrons y jouent exactement le même rôle que
la lumière et où les lentilles en verre sont remplacées par des bobines produisant des champs
magnétiques pour focaliser ou dévier les électrons. Dans un tube cathodique de télévision, ce même
type de système (des bobines magnétiques) sert à envoyer le flux d'électron sur un écran pour y
allumer des points (des pixels), ce qui est une manifestation corpusculaire. On retrouve donc
exactement la même dualité entre corpuscules et ondes.

Nous allons bientôt étudier plus en profondeur ces comportements mais avant, réfléchissons un peu
à cette curieuse "dualité" onde - corpuscule.

Même si beaucoup de choses restent quelque peu mystérieuses, nous avons au moins pu dégager
quelques petites choses.

Tout d’abord. Même si la nature réelle des objets microscopiques, les électrons et les photons,
semble encore nous échapper, la nature « quantique » comme on dirait maintenant, il y a au moins
une chose qui semble claire. En effet, les électrons et les photons ne semblent pas si différent que
cela en fin de compte.
Au début, on était persuadé que les électrons étaient des corpuscules et la lumière des ondes. C’est
à dire des objets fondamentalement différents. Maintenant, on se rend compte que l’un comme
l’autre semblent avoir tous les deux un comportement ambigu. Parfois ils se comportent comme des
ondes, parfois comme des corpuscules.

Le problème est, à ce stade, le suivant. Doit-on dire que ces objets sont à la fois des ondes et des
corpuscules ou bien doit-on dire qu’ils sont des ondes ou des corpuscules selon la situation ?

La distinction entre le "et" et le "ou" est capitale. Dans le cas où le "et" serait la bonne réponse, on
aurait affaire à des objets étranges qui cumuleraient les propriétés des ondes et des particules. Objet
curieux s’il en est étant donné l’incompatibilité des deux concepts (essayez un peu de fabriquer un
boulet de canon avec des vagues ou essayer un peu de faire des interférences avec un unique boulet
de canon).

Si c’est le "ou" qui est la bonne réponse, nous avons alors affaire à un objet dont la nature nous
échappe encore mais qui, selon la situation, se comporte comme un corpuscule ou une onde, mais
pas les deux à la fois. C’est à dire des comportements bien précis et faciles à distinguer.

Dans les deux cas, nous serons confrontés au problème suivant : comment caractériser la nature
réelle de ces objets ?

Nous venons de dire que des objets comme les électrons et les photons n’étaient somme toute pas si
différents. Mais ils constituent tout de même deux choses nettement différentes, au moins en
apparence. Si leur nature fondamentale est semblable, quelles sont réellement les caractéristiques
qui les différentient ?

La première chose, évidente, est la charge électrique. Nous avons vu que les électrons portent une
charge négative. Il n’est pas difficile de voir que la lumière ne transporte aucune charge électrique
(la lumière du soleil n'a jamais électrocuté personne).
Est-ce la seule différence entre les deux ? Est-ce uniquement la charge électrique qui distingue ces
deux types d’objets ? Non. Nous avons dit que l’électron avait une masse qui peut même être
mesurée. Par contre, l’expérience montre que le photon n’a pas de masse.

L’absence de masse du photon explique, selon la relativité restreinte, qu’il se déplace à la vitesse
limite c, évidemment appelée vitesse de la lumière.

Revenons sur cette dualité onde / corpuscule. Toutes les expériences que nous venons d’effectuer
montrent que les particules (électrons ou photons) se trouvent dans le cas onde "ou" corpuscule.
Jamais les deux à la fois. Même dans des expériences où les deux comportements se manifestent, ce
n’est jamais exactement ensemble. Nous approfondirons bientôt ces expériences. Par exemple, nous
avons cité les interférences, se produisant lorsque les ondes se superposent pendant leur
propagation, et l'impact sur la cible qui est toujours ponctuels. Les deux ne se produisent pas au
même moment.

Ce serait d’ailleurs surprenant d’avoir un comportement physique précis et ponctuel qui présente
les deux comportements à la fois. Les concepts d’onde et de corpuscule sont si fondamentalement
différents que cela semble strictement impossible d’avoir un mélange intime entre les deux.

Même les outils pour décrire les deux concepts sont différents. Les méthodes et outils pour décrire
une onde sont adaptés à des objets (les ondes) répartis dans tout l’espace. Comment, avec ce type
d’outil, décrire un objet aussi compact qu’un corpuscule ?

Il semble donc évident que l’on se trouve dans le cas "ou". Un objet quantique se comporte comme
une onde "ou" un corpuscule selon la situation. Il reste à comprendre les règles de ce double
comportement ou, mieux, à comprendre ou décrire la nature exacte de l’objet quantique. Nature
curieuse qui se manifeste tantôt comme une onde, tantôt comme un corpuscule, sans être réellement
l’un ou l’autre.

Malheureusement, nous n’avons aucune idée de ce que peut être cette nature ! Pour le moment,
nous ne connaissons que les ondes et les corpuscules ainsi que les moyens de caractériser ces deux
types d’objets.
Serait-il quand même possible de décrire un corpuscule avec des méthodes adaptées aux ondes ?
Cela semble vraiment improbable. Mais ne nous décourageons pas. Nous essaierons.

Mais avant de nous enfoncer dans les eaux troubles de la mécanique quantique voyons comment
ces idées de quantification de la lumière ont pu déboucher sur le premier modèle quantique de
l'atome.
IV. La théorie de Bohr

Modèle de Bohr
Revenons au modèle de l'atome. Nous savons que l'expérience indique que la structure de l'atome
doit être celle de Rutherford. Mais nous avons maintenant deux problèmes. D'abord comment les
électrons peuvent-ils "tenir" en l'air sans tomber sur le noyau en rayonnant des ondes
électromagnétiques ? Ensuite, pourquoi l'énergie est-elle échangée par des quantités précises,
toujours les mêmes (ce qui donne son spectre unique) ?

Une solution fut apportée par Bohr en 1913. Si les lois physiques connues semblent en
contradiction avec les données expérimentales, alors c'est que ces lois physiques sont incorrectes.
L'expérience dicte la physique, pas l'inverse. En particulier, nous savons, grâce à l'expérience, que
l'atome à bien la structure imaginée par Rutherford. Mais la physique prédit une émission d'ondes
électromagnétiques qui n'est pas observée. Donc, Bohr affirma qu'à l'échelle de l'atome les lois de
l'électromagnétisme ne sont plus valables.

Bohr postula alors trois lois décrivant l'atome de Rutherford.


 Les électrons tournent autour du noyau de manière stable, sans émettre de rayonnement
électromagnétique. On ne donne pas d'explication et on se contente de l'admettre parce que c'est
ce que montre les données expérimentales.
 Les électrons ne peuvent tourner que sur certaines orbites. La règle fait intervenir la vitesse et le
rayon de l'orbite et un nombre entier n . Ce nombre est maintenant appelé nombre quantique
principal et vient du fait que les orbites sont "quantifiées" (ce mot vient de "compter") : il y a
l'orbite 0, l'orbite 1, l'orbite 2, etc. Chaque orbite étant un peu plus grande que la précédente.
Les électrons ne sont que sur ces orbites et jamais entre deux orbites. La région entre deux
orbites est un no mans land.

La règle choisie par Bohr n'est pas aléatoire et a été choisie pour que les résultats correspondent
aux données expérimentales ! Mais la règle ainsi obtenue est simple. Elle dit que le moment
angulaire est un nombre entier de fois une quantité minimale donnée (la constante de Planck
divisée par deux pi).
 Lorsqu'un électron change d'orbite, pour une raison quelconque, l'énergie acquise ou libérée se
fait par l'absorption ou l'émission d'un photon de lumière ayant la même énergie.

C'est ici qu'interviennent les découvertes de Planck et Einstein. Sachant l'énergie émise sous
forme de lumière, on peut en déduire la fréquence de la lumière. Mieux encore, ce modèle fait
le lien entre la nature corpusculaire de la lumière mise en évidence par Einstein et l'émission de
lumière par les atomes par paquets mise en évidence par Planck.

L'énergie d'un électron sur une orbite se calculant selon les lois classiques de la mécanique et de
l'électricité.

Son modèle marchait très bien … au premier abord !


Le modèle de Bohr donne l'énergie des électrons dans un atome. Cette énergie se mesure facilement
en regardant combien d'énergie il faut pour arracher un électron d'un atome.

De plus, du fait que les orbites sont quantifiées, l'émission de la lumière l'est aussi.

Imaginons par exemple que l'on a seulement trois orbites 0, 1 et 2. Les électrons ayant les énergies
E
respectives sur ces orbites de 0 , E1 , E 2 . Alors, en changeant d'orbite, les électrons peuvent
E − E 0 E 2 − E1 E − E0
émettre des photons d'énergie 1 , et 2 . Ce qui correspond à trois ondes
lumineuses de longueur d'onde différente.

Bien entendu, si l'électron passe d'une orbite basse à une orbite haute, il gagne de l'énergie et donc
absorbe un photon. S'il descend sur une orbite plus basse, il émet un photon. Ce qui correspond aux
spectres d'absorption et d'émission.

De plus, on constate avec l'exemple ci-dessus, que l'énergie du premier photon plus l'énergie du
deuxième photon est égale à l'énergie du troisième. C'est une simple conséquence de l'addition
d'énergie en passant d'une orbite à l'autre. Et traduit en fréquence (selon la règle découverte par
Planck et Einstein que l'énergie d'un photon est proportionnelle à sa fréquence), cela redonne la
règle de Balmer.

Grâce à ce modèle, Bohr put calculer le spectre complet de l'hydrogène. Un succès extraordinaire.
On venait enfin de découvrir un de ces fameux secrets de l'atome.

Enfin, puisque les électrons ont une énergie précise, leur échange ou leur interaction entre atomes
permet de calculer certaines règles de la chimie.

Développement du modèle
L'expérience montre que l'atome émet seulement des radiations dont les fréquences sont
déterminées par deux nombres entiers p et q, d'après la formule de Rydberg :
 1 1 
(1) ν = Rc 2 − 2 
p q 
avec p < q. R est la constante de Rydberg : R = 109737 cm −1 .

La règle postulée par Bohr sur le moment angulaire de l'électron s'écrit :


(2) mr = nh
où le "nombre quantique" n vaut 1, 2, 3…, h = h / 2π , m est la masse de l'électron et r le rayon de
l'orbite ("orbites stationnaires").

Lorsque l'électron passe d'une orbite d'énergie E p (correspondant à n égal à p) à une orbite
d'énergie E q , la fréquence du rayonnement émit ou absorbé est donnée par la relation :

(3) ν =
1
(E p − E q )
h
De cette façon, l'énergie du photon émis ou absorbé représente une mesure de la différence entre
l'énergie finale et l'énergie initiale de l'atome.

Ces postulats ont donné lieu à deux résultats importants :


 Les trajectoires des électrons ont des rayons proportionnels au carré des nombres entiers
successifs. Cela est une conséquence de la règle (2) et de l'équation du mouvement de l'électron
sous l'action d'une force centrifuge mv 2 / r et de l'attraction coulombienne exercée par le noyau
Q2 / r 2 :
mv 2 Q 2
(4) = 2
r r
où Q = e / 4πε 0 , e étant la charge de l'électron (il suffit de multiplier par le nombre de
2 2

protons dans le cas des hydrogénoïdes, c'est-à-dire les atomes avec un seul électron autour, les
autres ayant été enlevé).

Le résultat à retenir est que l'atome d'hydrogène dans son état fondamental est caractérisé par
une longueur, typique de sa structure, le rayon de Bohr a :
h2
(5) a = 2
= 0,528 ⋅ 10 −8 cm
mQ
qui représente, dans ce modèle, le rayon de l'orbite la plus petite de l'électron dans l'atome.
 La seconde conséquence importante des postulats de Bohr est la formule qui détermine l'énergie
de l'atome dans un état quantique défini par le nombre quantique n :
mQ 4
(6) E = − 2 2
2n h
Cette relation est déduite des relations (2), (4) et de l'expression de l'énergie totale de l'électron :
mv 2 Q 2
(7) E = −
2 r
L'équation (6) montre que l'énergie de l'atome d'hydrogène ne varie pas d'une façon continue
mais que sa valeur est fixée par le nombre quantique n, puisqu'elle est proportionnelle à 1 / n 2 .
L'énergie de l'atome est quantifiée.

L'équation (6) combinée avec l'équation (3) donne la formule de Rydberg où la constante R est
exprimée par :
mQ 4
(8) R =
4πch 3
La concordance entre la valeur expérimentale de R et cette expression théorique a été un succès
immédiat pour le modèle de Bohr.

Cette description des spectres atomiques a été confirmée par la découverte expérimentale de Frank
et Hertz en 1914. En bombardant les atomes d'un gaz par un faisceau d'électrons, ils ont reconnu
qu'un atome peut absorber tout ou partie de l'énergie cinétique d'un électron si elle est égale à la
différence des niveaux énergétiques de l'atome dans les deux états stationnaires final et initial.

Défauts du modèle
Ils sont très nombreux ! La théorie évolua d'ailleurs tellement vite à cette époque que le modèle de
Bohr fut pratiquement mort avant même d'arriver à maturité ! Mais on le conserve au moins pour sa
simplicité et son caractère pédagogique et intuitif.
On peut classer ses défauts en trois parties :
 Théoriques.
 La théorie ne s'applique que si on a un seul électron. Elle est incapable de prendre en
compte les interactions entre deux électrons. Elle traite donc des atomes appelés
hydrogénoïdes qui sont des atomes dont on a arraché tous les électrons sauf un.

On découvrit rapidement que lorsque l'on a plusieurs électrons, ceux-ci se disposent sur les
orbites selon certaines règles : deux sur la première, six sur la suivante, etc. Ce qui conduit à
la classification de tous les atomes. Mais la raison de cette ségrégation est assez mystérieuse
à ce stade. En outre, les interactions entre électrons et avec le noyau modifie les orbites pour
des atomes plus complexes que l'hydrogène.
 La théorie donne des résultats absurdes pour des hydrogénoïdes dont la charge du noyau
dépasse une certaine valeur et ne peut donc s'appliquer, par exemple, à l'uranium.
 La théorie ne dit rien du noyau. Les protons sont tous chargés positivement. Ils devraient se
repousser fortement. Qu'est-ce qui les maintient ensemble ?
 Expérimentaux.
 Lorsque l'on regarde attentivement le spectre d'un atome, on constate que chaque raie du
spectre est en fait composée de plusieurs raies plus fines. On appelle d'ailleurs cela les
structures fines et hyper fines. Le modèle de Bohr ne l'explique pas.
 Lorsqu'on applique un champ magnétique à l'atome, les raies se dédoublent ou se triplent,…
C'est l'effet Zeeman. Le modèle de Bohr ne peut l'expliquer.
 Lorsqu'on applique un champ électrique à un atome, les raies se multiplient de manière
considérable rendant le spectre très touffu. C'est l'effet Stark. Le modèle de Bohr ne peut
l'expliquer.
 On observe également de nombreuses raies, principalement dans l'infrarouge et les ondes
radios, non prédites par le modèle de Bohr et produites par les molécules.
 Enfin, les raies n'ont pas toutes la même intensité. Certaines sont très brillantes, d'autres
sombres. Certaines sont même parfois manquantes. De toute évidence, certains changement
d'orbites sont plus faciles ou plus probables que d'autres. Le modèle de Bohr n'en dit rien.
 Conceptuels.
 Les lois ont un caractère très artificiel. On impose un certain nombre de règles sans
explications. La loi sur la stabilité, en particulier, est barbare. On ne sait pas pourquoi c'est
stable ? Et bien décrétons que c'est stable, point final ! Et bien, non, on pouvait difficilement
admettre qu'il s'agisse d'un point final.

Il s'agit plus d'un modèle, créé spécialement pour coller aux données expérimentales, plutôt
qu'une théorie de l'atome ou des particules élémentaires.
 Le modèle est semi-classique. Ainsi les électrons qui tournent autour de l'atome sont
"quantifié" et les lois de l'électromagnétisme ne s'appliquent pas. Mais pour calculer
l'énergie d'un électron on utilise ces mêmes lois. Pourquoi dans un cas et pas dans l'autre ?
A partir de quand les lois classiques deviennent-elles applicables ?

Choisir d'appliquer la physique classique, un petit peu au bonheur la chance, quand ça nous
chante, est un procédé assez bancal qui rend difficile toute prédiction nouvelle.

Supposons que nous perfectionnons un peu le modèle en ajoutant un ingrédient quelconque.


Doit-on appliquer les lois de l'électromagnétisme à cet ingrédient ou pas ?
 Lorsqu'un électron change d'orbite : par où passe-t-il puisque la zone entre les deux orbites
est interdite ? Un saut instantané, sans passer par cette zone, outre son caractère bizarre
semble en contradiction avec la relativité qui dit que rien ne peut aller plus vite que la
lumière.
 Quel est le mécanisme d'émission de la lumière ? Le modèle de Bohr ne donnant qu'un bilan
énergétique. Y a-t-il des directions privilégiées pour l'émission des photons ? La
polarisation intervient-elle ? Toutes des questions sans réponse.

Sommerfeld améliora un peu le modèle en utilisant quelques raffinements :


 L'effet de recul : sous l'effet de l'attraction de l'électron, le noyau doit lui-même avoir une légère
rotation (légère car sa masse est beaucoup plus grande).
 La relativité.
 En plus des orbites circulaires, la possibilité (comme pour les planètes) d'avoir des orbites
elliptiques caractérisées par un nouveau nombre entier (toutes les ellipses ne sont pas permises)
l appelé nombre quantique orbital. Cela donna une explication à la structure fine et au spectre
des molécules diatomiques.
En prenant en compte ce nouveau nombre l la règle disant que le nombre d'électrons pouvant se
placer sur une orbite est limité devenait simple. Deux électrons maximums pour un nombre n et un
nombre l donné. Pourquoi deux et pas un (ou trois) ? Mystère. Bien qu'on devine qu'il doit exister
un troisième nombre, lié à un mécanisme inconnu (on verra qu'il s'agit du "spin", équivalent à la
rotation de l'électron sur lui-même, comme une toupie), prenant uniquement deux valeurs.

Avec ces améliorations et cette règle, cela permit quelques améliorations notables mais bien
pauvres au vu de la pléthore de problèmes.

Il convient de souligner toutefois les mérites de ce modèle. Il fut le tout premier modèle décrivant
correctement la structure de l'atome et même le premier modèle utilisant des règles quantiques. En
ce sens, il s'agit d'une avancée considérable. Même éphémère et soulevant plus de questions que de
réponses, ce modèle est une étape extrêmement importante de la physique. Il fut le premier a
réellement expliquer la spectroscopie et il montre combien la découverte de la quantification de
l'énergie des ondes électromagnétiques est fondamentale et générale. La puissance de la découverte
de Planck appliquée à l'atome est réellement considérable.

Exercices
1. Retrouvez la formule de Bohr (6) de la section IV.

Utilisez la formule d'équilibre des forces (4) et la règle de quantification (2) pour obtenir les
vitesses autorisées des électrons et les rayons correspondant.

Calculez l'énergie cinétique et l'énergie potentielle. Il ne reste plus qu'à les additionner.
V. L'expérience de Young
Nous avons déjà présenté l'expérience de Young qui consiste à faire interférer des ondes en
provenance de deux fentes. En fait, cette expérience peut être utilisée de diverses manières et elle
est cruciale pour comprendre différents aspects de la mécanique quantique. Nous allons donc
l'approfondir.

Notons qu'historiquement, l'expérience de Young ne se plaçait pas dans le contexte de la mécanique


quantique mais dans celui de l'optique ondulatoire. Depuis, l'expérience a été réalisée avec bien
d'autres choses que la lumière. Les versions que nous en présentons ici sont quelque peu idéalisées
pour des raisons pédagogiques. Les expériences réelles impliquant des dispositifs plus ou moins
compliqués, même si avec la lumière l'effet est assez facile à produire.

Certains résultats ne seront pas surprenant car on les a déjà vus. Par exemple, le comportement à la
fois onde et corpuscule des particules élémentaires, d'autres résultats seront plus étonnants, par
exemple, quand on essaiera de savoir par où passent les photons ou les électrons.

L'idée est disposer d'une source d'ondes, de particules ou de tout autre chose et faire passer des
"choses" à travers de fentes pour les faire interférer. Mais avant de nous lancer dans cette
expérience, voyons d'abord ce qui se passe avec une seule fente.
On lance à travers la fente une gerbe de particules, par exemple des balles de fusils. A la sortie de la
fente les balles se dispersent, par exemple après avoir rebondit sur les bords de la fente, puis vont
frapper un écran. Qu'observe-t-on ?
Tout d'abord que les particules se comportent bien comme des corpuscules durs et bien isolés les
uns des autres. Chaque balle frappe l'écran en un point unique.

Ensuite les impacts sont plus nombreux face à la fente et plus rares sur les cotés. La distribution du
nombre d'impacts suit une courbe en cloche. Bien entendu, on n'aura une courbe bien continue
qu'après avoir enregistré un très grand nombre d'impacts. En supposant que les balles partent dans
des directions aléatoires à la sortie d'une fente, on calcule aisément la forme de cette courbe, sa
hauteur est simplement inversement proportionnelle à la distance parcourue par les balles
(puisqu'elles se dispersent et deviennent de moins en moins nombreuse sur une petite portion de la
cible au fur et à mesure de cette dispersion).

En toute rigueur, puisque l'expérience ne s'effectue pas dans un plan comme sur le dessin
(forcément plat) mais dans l'espace, il y a deux directions de dispersions : de haut en bas et de
gauche à droite. Cela amplifie la "dilution" du nombre de balles par unité de surface au fur et à
mesure de la dispersion. Le nombre de balles diminue comme le carré de la distance. Mais cette
précision "technique" est peu importante pour les raisonnements qui suivent.

Enfin il est possible d'observer le passage des corpuscules à travers la fente. On peut par exemple
diminuer le débit des corpuscules jusqu'à n'avoir qu'un seul corpuscule qui passe à la fois. Puis on
place une lampe près de la fente de façon à avoir un petit flash lumineux au moment où une balle
de fusil passe. On constate que l'on a bien un petit flash près de la fente chaque fois suivi peu après
d'un impact bien précis sur l'écran.

Tout cela est satisfaisant et évident.

Effectuons maintenant l'expérience avec des ondes.


Nous pouvons par exemple utiliser comme ondes des vagues dans un bassin. Pour la fente, nous
utilisons alors une digue percée d'une ouverture.
Nous ne pouvons, bien sûr, pas utiliser un écran que les ondes viendraient frapper dans ce cas. Il
nous faut autre chose. Par exemple une plage en pente douce sur laquelle les vagues viennent
mourir tout doucement. Lorsque la vague est forte, elle monte loin sur la plage ce qui nous donne
un moyen de mesurer son amplitude : simplement en regardant la longueur de sable humide.

Qu'observe-t-on cette fois ?

Tout d'abord les ondes ne peuvent pas être localisées avec précision. Une vague est répartie sur
toute une surface. Quand la vague passe à travers la fente, elle vient toucher la plage sur toute sa
longueur.

Ensuite, si l'on regarde à nouveau l'intensité sur l'écran (la plage) on remarque que l'onde est la plus
intense en face de la fente, et loin de la fente, les vagues s'étant très atténuées, l'onde est beaucoup
plus faible. On observe ici aussi une courbe en cloche. La forme de cette courbe est identique à
celle obtenue avec les balles car l'intensité d'une vague qui se disperse en cercle diminue aussi
proportionnellement avec la distance (ou comme le carré de la distance, avec les vagues
l'expérience se déroule réellement dans un plan, le plan d'eau, mais si on utilisait, par exemple, des
ondes sonores, la même remarque que pour les balles s'applique, l'expérience à lieu dans l'espace et
pas seulement dans un plan).

Notons qu'on peut aussi observer le passage de la vague à travers la fente, par exemple en plaçant
un bouchon sur l'eau, près de la fente, et en le regardant monter et descendre.
V.1. Expérience avec des corpuscules
Puisqu'une seule fente ne nous permet pas de distinguer la différence entre ondes et particules sur
base de l'intensité mesurée sur l'écran, essayons de compliquer l'expérience en utilisant deux fentes.

Cette fois, une gerbe de balles de fusil sort de chaque fente et vient frapper l'écran. L'expérience est
analogue avec une seule fente. Les balles passent unes à unes et frappent l'écran en des points
précis. La répartition des impacts suit également une courbe en cloche.

Et si nous mettons une lampe pour regarder par où passent les balles de fusil ? Nous voyons alors
que les balles qui passent par une fente viennent frapper l'écran et forment des impacts répartis
selon une courbe en cloche, de même pour les balles passant par l'autre fente et que le résultat final
n'est rien d'autre que la somme des deux courbes en cloche c'est à dire la somme des impacts des
balles passant par chaque fente.

Lorsqu'une des balles passe par la fente 1, nous pouvons mesurer la probabilité qu'elle a d'atteindre
un point donné (ou plutôt dans une petite zone de la cible) en comptant la proportion de balles
passant par la fente 1 et atteignant cet endroit sur le nombre total de balles passant la fente 1. Nous
obtenons une certaine quantité P1 .

De même pour les balles passant par la fente 2 et atteignant cette petite zone, nous trouvons P2 .

Alors, la probabilité qu'une balle atteigne cette zone en passant par l'une ou l'autre fente est
simplement la somme des deux.

P12 = P1 + P2

Cela signifie que les événements "balle atteignant la cible en passant par 1" et "balle atteignant la
cible en passant par 2" sont des événements indépendants. Cela est évident si l'on considère que le
flux de balles n'est pas trop grand (le fusil tirant les balles tire à un rythme raisonnable) afin que des
balles passant par les deux fentes ne puissent se heurter avant d'atteindre la cible.
V.2. Expérience avec des vagues
Effectuons maintenant l'expérience de Young avec des ondes. C'est l'expérience de Young
classique. Ici nous utiliserons notre exemple intuitif des vagues.
Lorsque les vagues sortent des deux fentes dans la digue, elles forment deux fronts d'onde qui vont
interférer. Si les vagues qui sortent d'une fente arrivent en phase avec celles de l'autre fente, alors
les bosses des vagues s'ajoutent et la vague résultante est plus grande. Si elles sont en opposition de
phase, alors les bosses de la vague venant de la première fente arrivent en même temps que les
creux de l'autre vague et le résultat s'annule. Comme ce décalage entre bosses et creux dépend de la
distance parcourue par les vagues, on a alternativement sur la plage (l'écran) des amplifications et
des soustractions. La répartition de l'intensité de l'onde résultante forme une figure typique appelée
figure d'interférence.

Comme on le voit, le résultat n'est pas la simple addition des deux courbes en cloches pour les
fentes séparées (on sait malgré tout calculer précisément cette courbe). On dit que les ondes
interfèrent.

Comme nous l'avons vu en optique ondulatoire, si l'on note l la distance entre deux maximums (la
largeur des franges), L la distance entre les fentes et l'écran et d la distance entre les fentes, alors la
longueur d'onde est donnée par :
ld
(1) λ =
L
Par exemple, avec de la lumière (avec un laser pour avoir une puissance lumineuse suffisante), avec
L égal à 10 m, une séparation des fentes de 1 mm et en observant des franges de 1 mm, cela
correspond à une longueur d'onde d'un dixième de micron, c'est-à-dire dans la lumière visible. Cela
peut donc se réaliser aisément.

L'intensité d'une onde est définie comme le carré de son amplitude. Par exemple, l'intensité de
l'onde émise par la fente 1 peut s'écrire :
2
(2) I 1 = h1
Et de même pour la deuxième fente.

Pour tenir compte de la phase de l'onde, on peut écrire l'amplitude sous forme complexe h1e iωt et de
même pour la deuxième onde.

L'onde résultante est simplement la somme des deux ondes h1 et h2 . Si l'on note δ leur déphasage
en un point donné, l'intensité résultante sera :
(3) I 12 = h1 + h2 = h1 + h2 + 2 h1 h2 cos δ = I 1 + I 2 + 2 I 1 I 2 cos δ
2 2 2

où le troisième terme dans le dernier membre est un terme d'interférence.

Que se passe-t-il si on observe par où passent les vagues ? Il suffit de placer des bouchons près des
fentes. Et lorsqu'une vague se présente, on constate qu'elle passe par les deux fentes avant de se
rencontrer et d'interférer.

Cela reste sommes toutes assez simple. Après tout, les vagues sont des "objets" classiques et faciles
à observer et à comprendre. D'ailleurs, avec un petit bassin, quelques bouchons et quelques
planches trouées plus une planche bien sèche que l'on incline à fleur d'eau en guise de "plage", on
réalise très facilement cette expérience que nous conseillons d'effectuer. Il est rare qu'une
expérience de physique soit aussi simple à réaliser en appartement, et rien de tel que d'expérimenter
soi-même pour voir et comprendre.
V.3. Expérience avec des électrons
Passons maintenant à ce qui nous intéresse : les particules microscopiques, les particules
élémentaires décrites par la mécanique quantique telle que le photon ou l'électron. Pour fixer les
idées nous pouvons prendre des électrons. Nous lançons ces électrons avec un "canon à électrons"
comme celui du tube cathodique d'une télévision. Nous utilisons une plaque métallique percée de
petits trous pour les fentes et une plaque photographique ou un écran fluorescent (comme celui
d'une télévision) pour observer les impacts des électrons sur l'écran.

Par précaution, il convient d'abord d'effectuer l'expérience avec une seule fente. Nous observons
alors sur l'écran une série d'impacts dont la répartition suit une courbe en cloche. Rien d'étonnant à
cela. De plus, comme les impacts sont bien isolés les uns des autres, les électrons semblent bien se
comporter comme des corpuscules durs, comme les balles de fusils. D'ailleurs si on réduit le débit
des électrons, on verra les impacts sur l'écran s'inscrire progressivement, l'un après l'autre. On n'a
jamais deux impacts simultanés ni de "demi impact". Ce type d'expérience s'effectue facilement
avec un tube cathodique et un peu d'électronique associée. Même avec la lumière ont peut atteindre
un débit aussi faible et capter les grains de lumières, les photons, un à un avec un détecteur
suffisament sensible tel qu'une caméra CCD.

Voyons maintenant ce qui se passe avec deux fentes. Puisque les électrons se comportent comme
des corpuscules, nous nous attendons à observer une courbe en cloche comme avec les balles de
fusils.
En fait, nous observons une figure d'interférence ! Comment est-ce possible ? Nous venons de dire
que les électrons étaient des corpuscules et nous savons que ce sont les ondes qui forment ces
figures ! Nous serions nous trompé ? Ainsi les électrons sont peut-être des ondes ou plus
exactement des espèces de petits paquets d'ondes bien localisés (puisque les impacts sont précis et
localisés) mais qui peuvent interférer entre eux. Est-ce le cas ? Les électrons interfèrent-ils entre
eux ? De plus, les électrons étant des particules chargées, ils doivent se repousser ce qui pourrait
influencer le résultat. Pour le savoir nous pouvons réduire le débit jusqu'à n'avoir qu'un seul
électron qui passe à la fois. Dans ce cas, il ne devrait pas pouvoir interférer avec les autres puisqu'il
est seul. On observe alors les impacts se former progressivement sur l'écran, un à la fois, et petit à
petit… la figure d'interférence se dessine. Il ne s'agit donc pas d'une interférence entre électrons
différents.

Comment un électron, corpuscule bien localisé, pourrait-il interférer avec lui-même ? Cela semble
absurde. Peut-être un électron suit-il un chemin compliqué, passant et repassant par les deux fentes.
Regardons la figure d'interférence de plus près.

Si l'électron passe par un seul trou il forme une courbe en cloche (ou plus exactement, c'est la
distribution des impacts qui suit cette courbe). Lorsque l'on ouvre la deuxième fente, la figure
d'interférence se forme et en certains endroits il y a moins d'impacts. De toute évidence, l'ouverture
de la deuxième fente influence ce qui se passe dans la première. Sinon comment expliquer que
l'électron passant par le premier trou frappe moins souvent l'écran en cet endroit de l'écran ? Si
l'électron est un corpuscule, ce que nous confirment les impacts, alors celui-ci doit passer forcément
par les deux trous à la fois ! Soit en se "brisant" (puis en se recollant, puisque l'on n'a jamais de
demi impact ou deux petits impacts dû à un seul électron), soit en suivant un chemin compliqué.
Cela paraît malgré tout étrange. En effet, si l'électron voulait emprunter la deuxième fente en son
absence, il heurterait la paroi et n'arriverait pas jusqu'à la cible. Cela diminuerait fortement le débit
et cela serait aisé à constater. Il n'emprunterait donc ce chemin compliqué que si la deuxième fente
est présente. Mais comment l'électron pourrait-il savoir que l'autre fente est présente ? Cela
implique une action à distance ou une espèce de dispersion de l'électron qui, ma foi, n'est pas plus
étrange que de supposer que l'électron est une onde !

Mais on peut s'attendre à tout. Alors, pour le savoir, mettons une lampe pour observer par quels
trous passent les électrons.
Les électrons étant des particules chargées, ils interagissent facilement avec la lumière, provoquant
un petit flash lumineux à leur passage.

Qu'observe-t-on ? On constate qu'effectivement chaque électron passe par une et une seule fente.
On observe un petit flash lumineux près d'une fente pour chaque électron qui passe mais jamais les
deux fentes à la fois. Cela se passe comme avec les balles de fusil, pas comme avec les vagues. On
peut, de plus, repérer chaque impact et l'associer à la fente par laquelle l'électron est passé. Mais
une catastrophe vient de se produire, la figure d'interférence à disparu ! Les impacts des électrons
forment une courbe en cloche comme avec les balles de fusil. Que s'est il passé ? Coupons la
lumière de la lampe pour voir. La figure d'interférence des électrons réapparaît. Remettons la
lumière : plus d'interférences. Il semble bien qu'en "éclairant" nos électrons pour savoir par où ils
passent, nous les avons perturbés suffisamment pour détruire la figure d'interférence. Pourquoi ?

Nous avons oublié que les électrons sont microscopiques, donc très légers. Leur masse est de un
milliardième de milliardième de milliardième de gramme. Une pichenette même infime doit les
perturber considérablement. D'autre part, nous savons que la lumière c'est aussi de l'énergie. Rien
d'étonnant alors à ce que la lumière bouscule l'électron à un point pareil. Utilisons alors une lumière
moins intense. Nous pouvons toujours diminuer l'intensité de la lumière jusqu'à espérer bousculer
très peu les électrons. Les flashs seront peut-être moins lumineux, mais ce n'est pas grave, on peut
utiliser un amplificateur de lumière à la sortie ou simplement bien ouvrir les yeux !
Que se passe-t-il ? Premièrement nous voyons que la figure d'interférence commence à réapparaître
au fur et à mesure que l'on diminue l'intensité de la lampe. C'est logique puisque nous perturbons
moins les électrons. La figure n'est pas parfaite mais nous pouvons maintenant espérer découvrir
par où passe l'électron pour former cette étrange figure.

Regardons un peu les flashs lumineux. Surprise, les flashs ne sont pas moins intense, ils sont
toujours aussi lumineux qu'avant ! Simplement de temps en temps des électrons passent sans
provoquer de flash. Nous avons oublié que la lumière se comporte aussi comme un corpuscule, les
photons. Si nous diminuons l'intensité de la lampe nous émettons simplement moins de photons.
Lorsqu'il y a très peu de photons émis, de temps en temps les photons "ratent" les électrons et
aucun flash n'est émis. Et lorsqu'un photon heurte un électron, nous observons le flash résultant
avec toujours la même intensité, indépendamment du nombre total de photons qui avait été émis.
Ce phénomène est en fait celui de l'effet photoélectrique : un photon arrache un électron, ici il le
perturbe provoquant un petit éclair de lumière.

C'est très ennuyant. Il va falloir faire le tri. Puisque les électrons passent lentement, nous pouvons
identifier clairement les impacts correspondant. Trions les électrons en trois paquets. Les électrons
qui passent par la première fente. Ceux qui passent par la seconde fente. Et enfin, ceux que nous
n'avons pas réussis à observer. Comment sont distribuées les trois séries d'impacts correspondant ?
Pour les premiers, pas de problème, nous observons une courbe en cloche. Pour les seconds aussi.
La somme de ces deux groupes forme une grosse courbe en cloche analogue à celle des balles de
fusil. Comme pourrait-il en être autrement ? En identifiant clairement par où passent les électrons,
nous pouvons déterminer exactement quel impact sur l'écran correspond à quel électron passé par
quelle fente, comme pour les balles de fusil. Le résultat ne peut être que l'addition des deux courbes
en cloche (en comptant les impacts, on ne fait jamais qu'une telle addition). Et le troisième groupe ?
Il forme une figure d'interférence ! La somme des trois séries d'impact donne la figure finale.
La situation est assez perverse. Chaque fois que nous essayons de les observer, les électrons se
comportent différemment. De toute évidence, ceux-ci gardent bien leurs secrets.

Mais revenons aux photons. Les électrons émettent un flash lorsqu'ils sont heurtés par un photon.
Ce choc, qui perturbe l'électron, est indépendant du nombre de photons émis mais dépend
uniquement de l'énergie du photon qui heurte l'électron. Rappelons nous la formule qui lie la
fréquence d'un photon à son énergie, déduite de l'effet photoélectrique. Elle nous dit que l'énergie
d'un photon est proportionnelle à la fréquence de la lumière. Dans ce cas, au lieu d'utiliser de la
lumière blanche (par exemple) comme ci-dessus, employons de la lumière rouge. S'il le faut nous
pourrons même encore diminuer la fréquence et utiliser des infrarouges ou des ondes radios. Pour
les infrarouges, pour observer le flash lumineux, on pourra toujours utiliser les lunettes infrarouges.
Et pour des ondes radios, une simple antenne suffira. Il arrivera bien un moment où l'énergie du
photon sera suffisamment faible pour ne pas trop perturber l'électron. Nous utilisons, bien sûr, une
source suffisamment intense, c'est à dire avec suffisamment de photons, pour être sur d'observer
tous les électrons. Il n'y a aucun problème puisque l'on sait maintenant que ce n'est pas l'intensité de
la lampe qui pose problème mais la quantité d'énergie transportée par chaque photon.
Allons y. Diminuons tout doucement la fréquence. Que se passe-t-il ? Au début rien de
spectaculaire. Les flashs deviennent de plus en plus rouge et la courbe en cloche due aux électrons
perturbés persiste. Continuons. Et la réussite semble être au bout du chemin. La courbe commence
à montrer des signes de changement, on perçoit une très légère variation de la courbe signe que les
interférences vont apparaître. Mais quelque chose de terrible se produit ! Alors que les flashs
devenaient de plus en plus rouges, nous constatons que ces flashs deviennent également de plus en
plus flou, de plus en plus grand. Voilà que lorsque l'électron passe par un des trous et déclenche le
petit flash, nous n'arrivons plus à voir clairement par quel trou il est passé !

Nous avons oublié quelque chose ! La lumière se comporte comme des corpuscules, les photons,
mais la lumière se comporte aussi comme une onde ! Exactement comme nos électrons. Lorsque
l'on fait varier la fréquence de l'onde, on provoque aussi une variation de la longueur d'onde. Ainsi
en diminuant la fréquence nous augmentons la longueur d'onde. Or pour pouvoir déterminer la
localisation précise du flash, nous devons pouvoir "localiser" l'onde émise. Une onde étant répartie
sur une grande surface, nous avons besoin de quelques "bosses" pour localiser sa présence.
L'optique précise même que l'on peut espérer une précision d'une demi-longueur d'onde (une bosse
ou un creux) mais pas au-delà. C'est un principe connu dans l'utilisation des microscopes ou des
télescopes par exemple. Lorsque la longueur d'onde devient trop grande, plus grande que la
séparation des deux fentes de l'expérience, le flash (l'onde émise par l'interaction électron - lumière)
devient trop imprécis pour pouvoir localiser précisément ce flash. L'onde correspondante se traduit
par des bosses aussi grande que la séparation entre les fentes, aucun espoir de dire de quelle fente
provient l'onde émise.
La figure d'interférence commence à réapparaître exactement au moment où la longueur d'onde
devient trop grande pour localiser les électrons ! De toute évidence il y a un effet pervers qui nous
empêche de comprendre ce qui se passe. Les propriétés ondulatoires et corpusculaires des électrons
et des photons semblent se donner la main pour coordonner le résultat. Toutefois, plutôt que de
qualifier cela de conspiration, il faut admettre que cela montre une belle unité dans la nature de ces
deux particules et, cela au moins, est un résultat fort intéressant. Le photon et l'électron ne sont pas
si différent après tout (à part leur masse et leur charge électrique, bien entendu).

Alors ? L'électron : onde ou corpuscule ? Impossible de le dire ! Tout cela est d'ailleurs
profondément logique. L'électron se comporte apparemment comme une onde avec des figures
d'interférences. Mais dès qu'il interagit avec quelque chose (impacts sur l'écran, chocs avec les
photons), alors il se comporte comme un corpuscule. Si nous forçons ce comportement
corpusculaire en essayant de connaître à tout prix par quelle fente l'électron est passé, alors
l'électron obéit et se comporte effectivement comme un corpuscule sans figure d'interférence ! C'est
inévitable car un simple argument de comptage et une addition, comme plus haut, montre que dans
ce cas on ne peut pas avoir d'interférences.

Mais comment l'électron (et la lumière aussi d'ailleurs) peut-il être à la fois une onde et un
corpuscule ? C'est a priori impossible ! Un corpuscule, comme une balle de tennis, et une onde,
comme une vague, sont deux "objets" de nature profondément incompatible. Ce que confirment
d'ailleurs les expériences précédentes. Lorsque l'on force l'électron à "être" un corpuscule, il cesse
automatiquement d'être une onde. Est-il tantôt une onde, tantôt un corpuscule ? Selon quel critère ?
Une onde est répartie tandis qu'une particule est bien localisée. Si l'électron se comporte comme
une onde, qu'est-ce qui décide de l'endroit où il "devient" un corpuscule (par l'exemple l'endroit de
l'impact sur l'écran) ?

Il semble en réalité que l'on soit obligé de renoncer à cette description en terme de corpuscules et /
ou d'ondes (bien que les analogies puissent être encore parfois utiles dans les raisonnements, mais il
faut être extrêmement prudent). L'électron, la lumière, et tous les objets microscopiques c'est autre
chose. Quelque chose qui se comporte parfois comme une onde et parfois comme un corpuscule,
mais qui n'est ni une onde, ni un corpuscule. Quelque chose de spécial dont nous ne pouvons pas
facilement comprendre la nature car il n'y a pas d'équivalent dans notre monde quotidien fait
d'ondes et de corpuscules bien identifiés.

Mais tentons encore une description uniquement avec des ondes.

Et même avant ça, posons-nous une question capitale. Comment se fait-il que des particules très
petites se comportent d'une manière si bizarre et pas des objets plus gros tels que les balles de fusils
? Où est la frontière entre petit et gros ? Nous analyserons cette problématique de passer du "monde
quantique" au "monde classique" plus tard. Mais nous pouvons déjà en donner un avant goût dans
le cadre de cette expérience.

La largeur des franges d'interférence (effectuée avec de la lumière) est reliée à la longueur d'onde
de la lumière. Voilà qui est clair. Mais, dans le cas des électrons, quelle est la longueur d'onde ? En
fait, on peut utiliser cette expérience pour mesurer la longueur d'onde de quelques particules et on
trouve la relation suivante :
h
(1) λ =
mv

On retrouve la constante de Planck, ce n'est pas très étonnant, mais on a aussi la masse de la
particule ainsi que la vitesse. L'expression semble assez différente de celle du photon. En fait, en
utilisant l'impulsion et la relation reliant énergie, masse et impulsion en relativité, on retrouve la
relation pour le photon. Tout se tient. Cette relation fut d'ailleurs trouvée par Louis de Broglie de
cette manière, par calcul, sans faire l'expérience de Young avec des électrons.

Il a procédé d'une manière plutôt élémentaire. La relation relativiste donne pour le photon :
E = pc . On en déduit :
h
(2) λ =
p
Si l'on suppose que pour une particule massive cette relation est également valable, il suffit de
remplacer l'impulsion par mv (pour une particule ayant une faible vitesse devant celle de la
lumière) pour trouver la relation précédente.
De plus, l'observation des interférences et le calcul ou la mesure de la longueur d'onde permet de
vérifier que ce comportement est exactement le même que celui d'une onde. Les mathématiques
associées aux ondes ne sont pas trop compliquées et cela peut être une aide pour établir un
formalisme adéquat pour décrire ces situations étranges.

Mais cette relation a aussi quelque chose de très important : plus la masse est grande, plus la
longueur d'onde est petite. Pour des électrons, on obtient facilement une longueur d'onde en
centimètres. Mais pour une balle de fusil ? La balle de fusil est des milliards de milliards de
milliards de fois plus lourde que l'électron. La longueur d'onde doit donc être des milliards de
milliards de milliards de fois plus petite. Si la balle de fusil présentait aussi une figure
d'interférence on aurait quelque chose comme ceci
Les franges seraient fines et serrées, avec une forme globale en forme de courbe en cloche. En fait,
nous avons exagéré la largeur des franges sur la figure (rappelez-vous, des milliards de milliards de
milliards de fois plus petit). Ces franges seraient totalement impossibles à mesurer, surtout à coté
de la taille des impacts des balles sur la cible !

Moralité, les particules macroscopiques se comportent peut-être comme des particules


quantiques… mais nous ne pouvons pas le voir !

Cela nous donne une des clefs qui relie les deux "mondes".
V.4. Conséquences
Au vu des comportements qui précèdent, il nous faut malheureusement renoncer temporairement à
comprendre ce qui se passe. Nous disons bien temporairement ! Par où passe l'électron ? On ne sait
pas et la question n'a pas de sens si on ne l'observe pas. C'est la seule chose qui ressort clairement
des expériences.

C'est frustrant et totalement contraire à l'intuition qui voudrait que l'on puisse décrire même ce que
l'on n'observe pas (attitude réaliste qui veut que la réalité n'a pas besoin qu'on l'observe pour
exister) même si c'est plus compliqué que dire "il passe par telle fente". On doit donc se contenter
de décrire uniquement ce qu'on peut réellement constater (attitude positiviste) à l'aide d'un
formalisme adéquat quitte à revenir sur la question plus tard.

Nous allons maintenant résumer les conclusions principales de nos expériences. Nous mettrons
toutefois les résultats sous une forme telle qu'ils seront encore vrais pour une classe plus générale
d'expériences. Nous pouvons écrire ce résumé plus simplement si nous définissons d'abord une
"expérience idéale" dans laquelle il n'y a aucune influence aléatoire externe, telle qu'une agitation,
que nous ne puissions prendre en compte exactement. Nous serions tout à fait précis si nous disions
: "une expérience idéale est une expérience dans laquelle toutes les conditions initiales et finales
sont complètement spécifiées". Ce que nous appellerons événement est, en général, un ensemble
particulier de conditions initiales et finales (par exemple : "un électron quitte le canon à électrons,
arrive au détecteur et rien d'autre ne se passe"). Venons-en maintenant à notre résumé.

Résumé
Ce résumé est essentiellement inspiré du caractère ondulatoire constaté pour les particules et du fait
que les impacts des particules sur la cible ont un caractère aléatoire.

(1) La probabilité d'un événement dans une expérience idéale est donnée par le carré du module
d'un nombre complexe φ qui appelé l'amplitude de probabilité :
P = probabilité
φ = amplitude de probabilité
P=φ
2

(2) Lorsqu'un événement peut se produire suivant l'une ou l'autre de plusieurs voies, l'amplitude de
probabilité pour l'événement est donnée par la somme des amplitudes de probabilité
correspondant à chaque voie, considérée isolément. Il y a interférence :
φ = φ1 + φ 2
P = φ1 + φ 2
2

(3) Si l'on réalise une expérience capable de déterminer la voie suivant laquelle l'événement s'est
effectivement produit, la probabilité de l'événement est la somme des probabilités pour chacune
des voies. L'interférence est détruite :
P = P1 + P2
En effet. Une fois la voie connue par un dispositif quelconque, la règle (2) ne peut plus
s'appliquer puisque l'événement n'a pu se produire que par une seule voie, celle constatée.

Nous avons parlé de la probabilité pour qu'un électron arrive à un certain endroit, dans des
circonstances données. Nous avons implicitement supposé qu'avec notre dispositif expérimental (ou
même avec le meilleur dispositif possible), il est impossible de prédire exactement ce qui va se
produire. Nous pouvons seulement prévoir des probabilités ! Si cela était vrai, cela signifierait que
la physique a renoncé à essayer de prédire exactement ce qui se passe dans des conditions données.
Oui ! La physique a renoncé. Nous ne savons pas comment prédire ce qui arrive dans des
conditions données, et nous croyons en fait que c'est impossible et que la seule chose qui peut être
prédite est la probabilité des différents événements. Il faut admettre que ceci est une restriction à
notre ancien idéal de compréhension de la nature.

Ce résultat est, comme signalé au début, frustrant. Mais c'est l'expérience qui nous y conduit. Nous
n'avons tout simplement pas le choix. Cela ne veut toutefois pas dire que nous ne pouvons pas
essayer de comprendre quels sont les tours et détours que la nature a employé pour nous placer
dans cette curieuse situation. Nous y reviendrons sur la fin.
V.4.1. Incertitude et complémentarité
A l'aide des résultats précédents et de l'analyse de quelques situations expérimentales, nous allons
maintenant dégager quelques résultats importants.

Une expérience de mesure


Imaginons l'expérience suivante.
Nous avons une particule P dont nous aimerions connaître la position, au moins dans la direction x
indiquée sur la figure. Nous partons d'une situation où sa vitesse est bien connue, par exemple la
particule est au repos. L'incertitude sur sa vitesse est donc nulle mais nous ne savons pas du tout où
elle se trouve. On envoie sur la particule des photons lumineux afin de l'observer. Le résultat est un
petit flash lumineux que nous allons focaliser sur un écran (ou tout appareil de mesure) à l'aide
d'une lentille de largeur L .

Toutefois, l'optique nous apprend (ainsi que l'expérience) qu'une lentille ne nous permet pas de
localiser le point lumineux avec une précision absolue. Le mieux que l'on puisse espérer est :
2 dλ
(1) ∆x ~
L
C'est à dire que pour mieux observer la position, nous devons prendre une lentille plus grande (une
des raisons pour laquelle on fabrique des télescopes si énormes, l'autre étant bien sûr de capter un
maximum de lumière) ou bien utiliser une lumière de plus petite longueur d'onde. Relation bien
connue des fabricants d'appareils d'optiques et due aux propriétés ondulatoires de la lumière, nous
en avions déjà parlé avec les flashs qui devenaient trop larges pour voir par où passait l'électron
dans l'expérience de Young. Pour améliorer la précision, il faut rapprocher l'objectif (comme avec
un microscope, placé très près de l'objet), agrandir la lentille (comme on le fait avec des télescopes)
ou utiliser une longueur d'onde plus courte (par exemple des ultraviolets).

Maintenant, le photon qui éclaire notre particule et qui est diffusé dans la lentille a une impulsion
donnée par p = h / λ . Nous avions déjà vu cette relation. Le photon vient de gauche (mais on
pourrait le faire venir du dessous), il bouscule l'électron, mais comme l'impulsion du photon est
connue, le choc communiqué à l'électron est connu. Il change la vitesse de manière précise ou
presque… Si le photon diffusé ne passe pas "tout droit" dans la lentille, c'est à dire s'il a une
certaine vitesse dans la direction x, alors il va également bousculer notre particule dans cette
direction. Dans les expériences de collision, l'impulsion est une quantité qui se conserve. Donc,
cette petite composante de l'impulsion dans le sens x sera communiquée (ou soustraite) à la
particule. Quelle est cette composante ? Tout dépend de la direction du photon ! S'il part un peu
vers la gauche de la lentille, par exemple, alors il aura une petite composante de l'impulsion vers la
gauche (voir la figure).
Malheureusement, il est impossible de savoir par où est passé le photon ! Il peut être passé
n'importe où dans la lentille. Tous les photons arrivant sur l'image sur l'écran peuvent être passés
par n'importe quel endroit de la lentille. Cela entraîne une petite incertitude sur son impulsion dans
le sens x . Si le photon à une impulsion p , un peu de géométrie nous montre que l'impulsion dans
le sens x peut varier de (suivant qu'il passe à l'extrême gauche ou droite de la lentille) :
pL
(2)
2d
(dans cette formule, p est l'impulsion du photon et non pas de la particule).

Cette variation est donc une incertitude induite sur celle de la particule à cause de la collision. En
combinant ces relations, nous trouvons alors pour l'incertitude provoquée sur l'impulsion de la
particule (dans le sens x ) :
hL
(3) ∆p ~
λ 2d
(ici ∆p se rapporte bien à la particule)

En combinant avec l'incertitude sur la position, un petit peu d'arithmétique, et nous obtenons la
meilleure précision que nous puissions espérer avec cette expérience :
(4) ∆p∆x ~ h

On peut imaginer toutes sortes d'expériences, mais l'on est toujours confronté à cette limite. Quelle
que soit l'astuce de l'expérimentateur, comme dans nos expériences avec les interférences de
Young, les propriétés ondulatoires et corpusculaires de l'électron et du photon se marient pour
empêcher une meilleure précision.

On peut faire un tout petit peu mieux que cette expérience, mais la limite théorique extrême est
donnée par
(5) ∆p∆x ≥ h / 2π
(deux pi, environ six fois mieux que la relation précédente).
(le signe ≥ veut dire "plus grand ou égal")
C'est-à-dire que l'on ne peut pas avoir une mesure de la position et de l'impulsion avec une
précision arbitraire. Le produit des incertitudes sera toujours supérieur à une certaine valeur (par
ailleurs fort petite, la constante de Planck étant infime).

Notons qu'il s'agit bien d'une connaissance "simultanée" de la position et de l'impulsion. On


pourrait en effet objecter qu'au départ l'impulsion était bien connue (égale à zéro pour une particule
au repos). Mais après la mesure, il y a une petite incertitude sur l'impulsion de cet électron qui a été
bousculé. Et on souhaite connaître ces valeurs en même temps, c'est-à-dire juste après la mesure.

Notons aussi que la situation initiale respectait ce principe : l'impulsion était parfaitement connue
(particule au repos, ∆p nul ou extrêmement petit) mais la position pas du tout ( ∆x infini ou
extrêmement grand).

C'est important car il serait facile d'imaginer une expérience imaginaire violant ce principe si on
choisit une situation initiale qui viole déjà ce principe (il suffirait de ne rien mesurer du tout) !

Ce principe de précision limitée, donnée par la dernière relation ci-dessus, est appelé "principe
d'incertitude de Heisenberg". Il fut formulé par ce dernier au début de l'élaboration de la physique
quantique à partir de toute une série d'expériences et de raisonnements comme ceux que nous
menons ici, avant que cette relation ne soit rigoureusement prouvée à partir du formalisme de la
physique quantique.

Détermination de l'impulsion
L'expérience précédente suppose que l'impulsion de la particule est connue avec précision avant de
faire la mesure et qu'on mesure ensuite la position. On trouve que la mesure ne donne pas
seulement une détermination imprécise de la position mais qu'elle introduit aussi une incertitude sur
l'impulsion.

Considérons maintenant une expérience différente dans laquelle la position est connue avec
précision au début et où l'impulsion est mesurée. Nous verrons que la mesure ne donne pas
seulement une détermination quelque peu imprécise de l'impulsion mais introduit aussi une
incertitude sur la position. Nous supposons que la particule est un atome dans un état excité qui
donnera un photon de fréquence ν 0 si l'atome est au repos. A cause de l'effet Doppler, le
mouvement de l'atome vers l'observateur avec une vitesse v signifie que la fréquence observée est
donnée approximativement par
 v
(6) ν ≈ ν 0 1 + 
 c
tel que
ν 
(7) v ≈ c − 1
ν 0 
Une mesure précise du moment mv par mesure de la fréquence ν nécessite un temps relativement
long τ . L'erreur minimale dans la mesure de la fréquence est de l'ordre de :
1
(8) ∆ν ~
τ
Cela étant dû au fait qu'en mesurant un nombre entier n de périodes sur cette durée, le nombre
1
exact de périodes sera de n ± , introduisant une imprécision sur la mesure. Précision d'autant
2
meilleure que n est grand. Comme n vaut environ ντ , on a donc une imprécision de l'ordre de (8).

L'instant où le photon est émis est incertain de l'ordre de τ . A cet instant, l'impulsion de l'atome
décroît de hν / c et sa vitesse décroît de hν / mc . Cela rend la position de l'atome incertaine de la
quantité
hντ
(9) ∆x =
mc
car plus tard le photon est émis, plus longtemps l'atome a sa vitesse élevée et plus loin il se déplace.
Cette incertitude sur la position vient entièrement du fait que τ est fini. Si τ était nul et si nous
connaissions le changement de vitesse avec l'émission du photon, nous saurions où l'atome est à
chaque instant. C'est la valeur finie de τ qui nous empêche de connaître quand la vitesse a changé
et donc où est l'atome plus tard.

L'incertitude sur l'impulsion est obtenue avec les équations (7) et (8) :
mc∆ν mc
(10) ∆p = m∆v ≈ ~
ν0 ν 0τ
Dans le cas non relativiste considéré ici, v / c << 1 , et l'équation (6) montre que ν ≈ ν 0 . Alors la
combinaison des équations (9) et (1) conduit à la relation du minimum d'incertitude :
(11) ∆p ⋅ ∆x ≥ h

Ondes et incertitudes
Les expériences précédentes peuvent laisser un goût d'insatisfaction. Ne pourrait-on vraiment pas
trouver un dispositif très ingénieux qui permettrait de franchir cette limite ? Dans le cas de
l'expérience de Young, c'était clair : si on sait par où passe l'électron, alors il se comporte comme
un corpuscule et un simple argument de comptage montre que les interférences ne peuvent pas se
produire. Donc, les propriétés ondulatoires et corpusculaires doivent conspirer pour empêcher à la
fois de savoir par où passe électron et d'avoir des interférences. Mais ici, il ne s'agit pas de détecter
des interférences, simplement d'effectuer des mesures sur une particule isolée.

Cela devient plus clair si on se rappelle que la particule n'est pas un corpuscule dur bien localisé
mais qu'il doit aussi être décrit comme une onde qui est "étalée".

Que nous disent alors les ondes ?

Une onde est un phénomène répartit dans tout l’espace. Nous savons vu qu’il est impossible de
donner un point précis où se situe l’onde, ce qui est évident pour un objet « éparpillé » !

Même dans le cas d’un paquet d’onde, celui-ci est localisé dans une petite zone de l’espace mais il
n’est pas situé en un point ponctuel précis.
De toute évidence, cette précision est liée à la longueur d’onde. Imaginez par exemple un paquet
constitué d’une seule bosse (plutôt bizarre comme paquet) !
Si on avait moins qu’une vibration on n’aurait même plus de paquet ! Ou du moins, avec un
fragment de vibration, déterminer la longueur d’onde serait problématique. Il est évident également
que plus la longueur d’onde est grande plus le paquet est large et donc sa localisation est moins
précise.

Que nous disent les lois sur l’optique ondulatoire exactement ?

L’optique nous enseigne que si un paquet à une largeur environ ∆x , alors la longueur d’onde λ ne
peut pas être connue avec une meilleure précision ∆λ donnée par :
λ
(12) ∆λ =
2π∆x

Notons que cette relation est vraie pour toute onde, pas seulement pour les paquets d'ondes.

D’autre part, si l’on considère l’électron comme une onde, l’expérience de Young permet de
mesurer sa longueur d’onde. Comme nous l’avons vu. Le résultat est :
(13) λ = h / mv
ou
(14) v = h / mλ

où v est la vitesse de l'électron. Alors, si la longueur d’onde est imprécise, la vitesse sera
également imprécise. C'est logique puisque la longueur d'onde correspond à l'impulsion (masse fois
vitesse).

A partir des relations précédentes, on trouve :


λh
(15) ∆v =
m∆x

On peut alors rassembler le tout, en utilisant la relation pour l'impulsion p = mv :


(16) ∆x∆p ≥ h / 2π
Que nous dit cette formule ? Elle dit que pour une particule que l’on représente comme un paquet
d’onde, il est impossible de mesurer avec autant de précision que désirée à la fois la position ( ∆x )
et la vitesse ( ∆v ) car le produit des deux imprécisions est toujours au moins égal à h / 2πm .

Conséquences
La conséquence immédiate du principe d'incertitude est qu'il est impossible de connaître avec une
infinie précision toutes les propriétés d'une particule : position, impulsion,…

Ce principe d'incertitude fut développé par Heisenberg en 1927. Selon ce principe, il est impossible
de spécifier précisément et simultanément les valeurs des deux membres de paires particulières des
variables physiques qui décrivent le comportement d'un système atomique. Les membres de ces
paires de variables sont canoniquement conjuguées au sens hamiltonien : par exemple une
coordonnée x d'une particule et la composante correspondante de l'impulsion p x , une composante
J z du moment angulaire d'une particule et sa position angulaire φ dans le plan perpendiculaire,
l'énergie E d'une particule et le temps t de mesure de cette énergie, etc. De manière plus
quantitative, le principe d'incertitude dit que l'ordre de grandeur du produit des incertitudes sur la
connaissance des deux variables doit être au moins la constante de Planck h divisée par 2π
( h ≡ h / 2π = 1.0545 ⋅ 10 −35 J⋅ s ), c'est-à-dire :
(17) ∆x ⋅ ∆p x ≥ h
(18) ∆φ ⋅ ∆J z ≥ h
(19) ∆t ⋅ ∆E ≥ h
(et des relations analogues pour les autres directions)

La relation (17) signifie qu'une composante de l'impulsion d'une particule ne peut pas être spécifiée
précisément sans perte de connaissance de la composante correspondante de sa position à cet
instant, qu'une particule ne peut pas être localisée précisément dans une direction particulière sans
perte de toute connaissance de sa composante d'impulsion dans cette direction et que dans les cas
intermédiaires le produit des incertitudes des valeurs simultanément mesurables des composantes
correspondantes de la position et de l'impulsion est au moins de l'ordre de grandeur de h . De
même, l'équation (18) signifie, par exemple, que la mesure précise de la position angulaire d'une
particule sur une orbite se traduit par la perte à ce moment de toute connaissance de la composante
du moment angulaire perpendiculaire au plan de l'orbite. L'équation (19) signifie que la
détermination de l'énergie qui a une précision ∆E doit se faire durant un intervalle de temps au
moins égal à ∆t ~ h / ∆E . Donc, si un système reste dans un était particulier de mouvement pendant
un temps au plus égal à ∆t , l'énergie du système dans cet état est incertaine d'au moins la quantité
∆E ~ h / ∆t puisque ∆t est le plus grand intervalle de temps pour la détermination de cette énergie.

Est-ce une lacune ? Certains le pensaient, comme Einstein. Peut-être que la description n'est pas
suffisamment complète et ne permet pas de décrire complètement l'état d'une particule.

Pour le moment, nous admettrons que cette incertitude est une propriété intrinsèque des particules.
Le point de vue ondulatoire que nous avons adopté est d'ailleurs très clair sur ce point. Notons,
toutefois, que ce point de vue ne résout pas tout car il y a quand même une étrangeté : le lien
longueur d'onde - impulsion, c'est-à-dire le lien longueur d'onde - vitesse. Si une particule est dans
un état position bien précis, comment se fait-il que sa vitesse soit incertaine ? Cela montre aussi
bien les limites de l'analogie avec des corpuscules ou avec des ondes. Une particule quantique n'est
pas une onde classique ni un corpuscule classique. Nous n'échapperons pas à l'interprétation de la
mécanique quantique que nous aborderons plus tard quand nous serons suffisament outillés.

Si le principe d'incertitude n'est pas lié à la mesure proprement dite ni à notre ignorance des
propriétés de la particule, l'expression de "principe d'incertitude" est quelque peu trompeuse. Avec
Bohr, nous adopterons à partir d'ici l'expression "principe d'indétermination" qui est plus précis : les
propriétés des particules sont en parties indéterminées.

Reprenons la relation d'indétermination avec la vitesse :


h
(20) ∆x∆v ≥
2πm

On voit que lorsque la masse de la particule (ou de tout objet) est grande, la contrainte sur les
incertitudes diminue. La constante h est déjà très petite, pour une masse m très grande, disons un
gramme, la valeur à droite est infime, tellement petite qu'on ne saurait la mesurer même avec les
meilleurs instruments. Les appareils de mesure ne sont pas parfaits, indépendamment de
l'incertitude fondamentale que constitue le principe d'indétermination, ils ne sont pas infiniment
précis. En fait, la précision des meilleurs appareils est encore trop imparfaite que pour mesurer
cette incertitude fondamentale sur un objet d'un gramme. On peut mesurer la position et la vitesse
d'un objet avec toute la précision voulue car même en faisant au mieux on ne rencontre pas cette
limite. Pour des objets macroscopiques, ceux de la vie de tous les jours, ce principe
d'indétermination n'a donc pas d'impact pratique. Ces effets sont négligeables.

Par contre, pour un objet aussi petit et aussi léger qu'un électron, si on essaie de le localiser sur une
distance aussi petite que la taille d'un atome (notons cette taille a 0 ) la valeur
h
(21) ∆v ≥
2πma 0
devient importante et totalement non négligeable.

Nous en verrons les conséquences.

Complémentarité
Afin de comprendre les implications du principe d'indétermination en des termes plus physiques,
Bohr a introduit le principe de complémentarité en 1928. Ce principe dit que les phénomènes
atomiques ne peuvent pas être décrit avec la complétude demandée par la dynamique classique.
Certains des éléments qui se complètent l'un l'autre dans une description entièrement classique sont
en réalité mutuellement exclusifs et ces éléments complémentaires sont tous nécessaires pour la
description de différents aspects du phénomène.

La relation complémentaire emblématique étant la description en termes d'ondes et de corpuscules.


Bohr lui substitua ensuite une complémentarité "statique - dynamique" dans le sens des variables
conjuguées "positions généralisées - moments conjugués".

Du point de vue de l'expérimentateur, le principe de complémentarité affirme que les appareils


physiques disponibles ont des propriétés telles que des mesures plus précises que celles indiquées
par le principe d'indétermination ne peuvent pas être faites.

Cela ne doit pas être vu comme une déficience de l'expérimentateur ou de ses techniques. C'est
plutôt une loi de la nature qui, si une tentative est faite pour mesurer précisément une des variables
d'une paire canoniques, l'autre est modifiée par une quantité qui ne peut pas être calculée trop
précisément sans interférer avec la tentative primaire. C'est fondamentalement différent de la
situation classique dans laquelle une mesure perturbe aussi le système observé mais la quantité de
perturbation peut être calculée et prise en compte. Donc, le principe de complémentarité décrit les
limitations fondamentales des concepts classiques tel que le comportement des systèmes atomiques
peut être décrit indépendamment du moyen avec lesquels ils sont observés.

Dans le domaine atomique, nous devons choisir entre différents arrangements expérimentaux,
chacun conçus pour mesurer les deux membres d'une paire de variables canoniques avec différents
degrés de précision qui sont compatibles avec les relations d'indétermination. En particulier, il a
deux arrangements extrêmes qui mesurent chacun un membre de la paire avec une grande
précision. Selon la théorie classique, ces arrangements expérimentaux extrêmes sont
complémentaires. Les résultats des deux peuvent être obtenus en une fois et sont nécessaires pour
fournir une description classique complète du système. En réalité, cependant, les expériences
complémentaires extrêmes sont mutuellement exclusives et ne peuvent pas être effectuées
ensembles.

C'est dans ce sens que le concept classique de causalité disparaît dans le domaine atomique. Il y a
causalité en ce qui concerne les lois quantiques qui décrivent le comportement des atomes car elles
sont parfaitement définies. Il n'y a cependant pas de relation causale entre les configurations
successives d'un système atomique quant nous tentons de décrire ces configurations en termes
classiques.

L'expérience de Young
Reprenons le schéma de l'expérience. Nous allons vérifier si le principe d'indétermination explique
la disparition des franges d'interférences lorsque l'on tente d'observer par où passe l'électron.
Si les deux fentes sont séparées de la distance a et que l'on essaie de mesurer la position de
l'électron avec suffisamment de précision pour savoir par quelle fente il est passé, alors nous
provoquons une incertitude sur l'impulsion (verticale) de l'électron égale à
(22) ∆p (sens vertical ) =
h
2π∆x
où l'incertitude sur la position mesurée ∆x est beaucoup plus petite que a (nettement moins que la
moitié en fait, pour savoir où passe l'électron). Nous avons appliqué le principe d'indétermination
en supposant que nous soyons dans la situation idéale (incertitude minimale sur l'impulsion).

Comme l'électron a une petite composante supplémentaire (et incertaine) de l'impulsion dans le
sens vertical, alors l'électron va dévier tout au long de la trajectoire de longueur R d'une distance
verticale (incertaine) d égale à sa vitesse latérale multipliée par le temps mis pour parcourir la
trajectoire. Si l'impulsion horizontale (que l'on suppose très grande pour simplifier les calculs, et
donc environ égale à son impulsion totale) est égale à p , alors ce temps de parcourt est égal à la
distance divisée par sa vitesse, soit Rm / p . Donc, en combinant avec la relation précédente, on
trouve,
Rm ∆p ⋅ Rm hR
(23) d = ∆v = =
p mp 2π∆xp
Maintenant, l'expérience, ainsi que les lois de l'optique pour la lumière, nous apprennent que la
largeur l des franges d'interférences est égale à :
λR
(24) l =
2a
L'expérience montre aussi que les franges d'interférences obéissent à la même règle à condition
d'utiliser la longueur d'onde des électrons que nous avons vue. C'est logique puisque ces lois de
l'optique sont déduites des propriétés ondulatoires et les seuls paramètres important dans les
interférences sont la longueur d'onde et la distance parcourue par les deux ondes qui interfèrent
(décalage de phase entre les deux ondes). La nature de l'onde n'intervient pas.

En utilisant cette longueur d'onde, on trouve :


hR
(25) l =
2ap
Nous voyons alors que la déviation (aléatoire, puisqu'il s'agit d'une incertitude) d de l'électron (23)
ressemble fort à la largeur des franges d'interférences l (26). Si l'électron dévie de trop, la figure
d'interférence sera tellement perturbée qu'elle sera détruite, et cela se produira si d est presque égal
à l . C'est à dire, si ∆x est plus petit que a / π C'est à dire pratiquement ce qui est nécessaire pour
commencer à bien localiser le passage de l'électron à travers les fentes, comme nous l'avons dit plus
haut !

Voilà l'explication, lorsqu'on essaie de localiser avec précision l'électron, l'incertitude provoquée
sur son impulsion (sa vitesse) dévie l'électron suffisamment pour détruire la figure d'interférence.
V.4.2. Paquets d'ondes
A plusieurs reprises, nous avons parlé de paquets d'ondes. Avant de continuer avec le formalisme
de la mécanique quantique, il est intéressant de voir si une interprétation utilisant les paquets
d'ondes peut fonctionner. Ne fut ce que pour constater qu'une interprétation purement ondulatoire
pose des difficultés.

L'idée est de considérer que chaque particule n'est rien d'autre qu'un paquet d'ondes.

Une onde est un phénomène périodique qui se propage avec une certaine vitesse. Mais une onde est
rarement sinusoïdale. Cette onde sinusoïdale parfaitement régulière n’étant qu’une idéalisation très
pratique pour les représenter, effectuer des raisonnements et, également, pour effectuer des
traitements mathématiques sur des ondes quelconques.

En fait, une onde peut être si « irrégulière » qu’elle est concentrée dans une petite région de
l’espace, comme un corpuscule. Voilà qui est intéressant. Une onde concentrée de cette manière est
un « paquet d’ondes ». Voici à quoi ressemble une telle onde :
Le paquet d’ondes ressemble donc à une onde sinusoïdale mais qui décroît à ses extrémités. Le
paquet d’ondes est donc localisé dans une certaine région.

Par conséquent, une de ses premières caractéristiques est sa largeur. Du moins, la région où
l’essentiel de l’onde est concentré (elle pourrait diminuer en intensité indéfiniment sans jamais
totalement s’annuler).

Une autre caractéristique évidente est la vitesse de l’onde. C’est à dire la vitesse à laquelle les
bosses du paquet se propagent. C’est la vitesse habituelle, la vitesse de la vague ou vitesse de
phase.
Et le paquet lui-même ? C’est à dire le groupe de bosses qui remplit la petite zone où se situe le
paquet. Il se déplace à une certaine vitesse appelée « vitesse de groupe ». Cette vitesse est-elle
identique à la vitesse de phase ? Pas nécessairement.

Supposons que la vitesse du paquet est différente de celle de l’onde. Dans ce cas, l’onde, les bosses
de l’onde, se déplacerait au sein du paquet, tout simplement.

Prenons un cas extrême. Le paquet est immobile. Dans ce cas, le paquet dessiné ci-dessus resterait
immobile mais l’onde ou les bosses se déplaceraient vers la droite. Chaque bosse débuterait à
gauche du paquet, minuscule. Puis elle grossirait en se déplaçant, puis diminuerait pour disparaître
à droite.
Mais pourquoi l’onde pourrait-elle avoir une amplitude qui varie comme ça ?

En fait, les mathématiciens ont montré que c’était possible. Il suffit que la vitesse de l’onde (la
vitesse de phase) varie avec la fréquence. Dans ce cas, il est possible, dans certaines circonstances,
que non seulement le paquet ait une forme définie et conservée au cours du temps mais qu’en plus
la vitesse de groupe soit inférieure à la vitesse de phase.

Si l’on assimile le paquet à l’équivalent d’un petit corpuscule, alors la vitesse de groupe n’est rien
d’autre que la vitesse de ce corpuscule ou de cet « équivalent corpuscule ».

Nous n'allons pas entrer dans les détails mathématiques de ces démonstrations qui font partie de la
physique ondulatoire.

On peut donc se poser la question : et si une particule était un petit paquet d’ondes ? Il pourrait
avoir les propriétés requises. Il ressemblerait à un corpuscule : bien concentré dans l’espace, avec
une vitesse (de groupe) précise. Et en même temps il serait une onde. Exactement ce que nous
recherchons.

Malheureusement, rien n’est jamais aussi simple ! Revenons à l’expérience de Young.


Supposons que nos particules sont des petits paquets d’onde. Dans ce cas, pas de problème, chaque
paquet se déplacerait comme un corpuscule et irait frapper la cible à un endroit bien précis.

Malheureusement, ce sont les interférences qui posent problème. Nos paquets ont beau être des
ondes, ils sont très localisés dans l’espace. Les ondes ne peuvent pas interférer tout simplement
parce que ces ondes ne se rencontrent pas !

Et si c’était de « gros » paquets d’onde ?


Là, c’est bon, on peut avoir des interférences. Mais où l’impact d’un paquet se produit-il ? En
particulier s’il y a eu interférence et donc déformation des paquets ? Comment un gros paquet
pourrait-il provoquer un impact aussi précis que ceux que nous avons observés ? Nous en revenons
en fait à notre problème initial : comment concilier les observations d'interactions localisées et le
concept d’onde ?

De plus, les paquets d'ondes ont d'autres défauts. Deux ondes qui se croisent, interfèrent, mais ne
s'altèrent pas. Elles continuent ensuite leur chemin imperturbablement. Alors que des particules
peuvent se heurter. De plus, les quantités telles que l'énergie des photons ou la masse et la charge
des électrons, sont quantifiées, elles ont des valeurs bien précises multiples entiers d'une quantité
minimale. Mais un paquet d'ondes peut avoir n'importe quelle amplitude et taille.
Décrire l’objet comme un paquet d’ondes n’a donc rien résolu ! Considérer la particule comme un
corpuscule ou comme un minuscule paquet d’ondes ne change rien. On retrouve les mêmes
difficultés que le concept unique de corpuscule. De même, considérer l’objet comme une onde ou
comme un gros paquet revient au même. Et si l’on considère des paquets de taille intermédiaire, on
tombe sur les difficultés inhérentes aux deux concepts à la fois.

Les paquets d’ondes ne donnent pas la solution. Nous avons seulement essayé de contourner les
problèmes sans réellement les résoudre. Nous devons affronter ces problèmes de face et sans peur.
Mais nous aurons besoin d’idées, de concepts et de moyens de représentations nouveaux.

Toutefois, tout n'est pas négatif car ce concept de paquet d'ondes réussi quand même à concilier des
aspects corpusculaires et ondulatoires qui s'avèrent ainsi moins incompatible que prévus. Nous
verrons que cette représentation n'est pas totalement dénuée d'intérêt.
VI. Principes de base
Toutes ces expériences et raisonnements nous ont permis de dégager des propriétés importantes des
particules élémentaires. On peut les répertorier :
 Les particules ont des propriétés quantifiées : énergie, charge, masse. Un ensemble de particules
correspond donc à un nombre entier de quantités élémentaires.
 Lorsqu'une particule subit une interaction avec un appareil de mesure (nos flashs pour observer
les particules, les impacts sur une cible), l'interaction est ponctuelle. Toutefois, on ne peut pas
toujours avoir une mesure précise de la position correspondante (grande longueur d'onde dans
les flashs).
 Lorsque les particules se propagent, elles se comportent comme des ondes et peuvent interférer.
 Le hasard semble jouer un rôle important car, par exemple, les impacts sur la cible dans
l'expérience de Young se font au hasard, même si les électrons sont envoyés toujours de la
même manière. Nous avons rencontré cet aspect aussi dans l'effet photoélectrique.
 L'énergie et la masse d'une particule sont reliés par une formule simple et universelle à la
longueur d'onde. En fait, le lien est immédiat et univoque entre longueur d'onde et impulsion
selon la formule : λ = h / p .

Mais nous sommes aussi arrivés à la conclusion que l'on ne pouvait pas concilier les différents
concepts classiques pour arriver à décrire ces objets quantiques que sont les particules élémentaires.
Les particules ne sont ni des corpuscules, ni des ondes, ni les deux à la fois. C'est autre chose.

Mais si aucun concept classique ne permet de décrire les particules, que faut-il utiliser ?

La solution est d'utiliser une représentation formelle, beaucoup plus abstraite et très générale,
capable de prendre en compte tout type de comportement.

Cette approche formelle fut élaborée dans les années vingt et trente au cours du vingtième siècle.
En fait, plusieurs approches furent imaginées avant d'être unifiées, le passage de l'une à l'autre se
faisant avec des correspondances mathématiques simples. Nous commencerons par la
représentation la plus générale pour arriver ensuite à des représentations parfois mieux connues ou
mieux adaptées à certains problèmes.
L'approche formelle se concentre sur le "comment" plutôt que sur le "quoi". C'est-à-dire qu'elle
tente de décrire ce qui se passe, d'une manière cohérente et synthétique, sans essayer de répondre
aux questions sur la nature des particules. En quelque sorte, dans un film, ce serait créer un langage
pour écrire le scénario mais pas pour décrire les acteurs.

Nous reviendrons ensuite plus tard sur le "quoi" en tentant d'interpréter ce formalisme abstrait.
C'est-à-dire que nous essayerons de dire à quoi correspondent physiquement les objets abstraits qui
ont été imaginés. Notons d'ores et déjà que c'est en réalité la partie la plus délicate car l'approche
formelle, en elle-même, ne fait jamais qu'utiliser l'arsenal des mathématiques, ce qui ne pose pas de
difficulté quand on les connaît. C'est d'ailleurs cette interprétation qui, dès le début, posa le plus de
difficulté et entraîna une opposition forte entre Bohr et Einstein. Nous reverrons ces deux
protagonistes poindre le bout de leur nez de ci de là au fur et à mesure de l'exposé. Notons enfin
que c'est un des domaines les plus actifs, encore actuellement. Interpréter la physique quantique
c'est essayer de la comprendre et pas seulement appliquer aveuglément des équations
mathématiques. Curieuse situation ou une théorie extraordinairement précise et puissante fut
élaborée et ou près d'un siècle après nous avons encore du mal à la comprendre !

Nous allons commencer par discuter plus précisément des relations entre les points de vue
ondulatoire et corpusculaire. Nous savons déjà que, ni le point de vue ondulatoire, ni le point de
vue corpusculaire ne sont corrects. Nous voudrions toujours présenter les choses avec précision ou
du moins de façon assez précise pour que nous n'ayons pas à les changer lorsque nous en
apprendrons plus. Nous voudrions ne faire que des extensions mais pas de changements. Mais
lorsque nous essayons de parler des descriptions ondulatoire ou corpusculaire nous n'oublions pas
que toutes deux sont approximatives et seront donc modifiées par la suite. Ainsi ce que nous
apprenons dans ce qui suit ne sera pas, en un certain sens, très précis. Nous allons employer des
arguments semi-intuitifs qui seront rendus plus précis par la suite. Mais certaines choses changeront
un petit peu lorsque nous les interpréterons correctement en mécanique quantique. Nous faisons
cela pour que vous ayez quelques idées qualitatives de certains phénomènes quantiques avant que
nous n'abordions les détails mathématiques de la mécanique quantique. De plus, toutes nos
expériences traitent d'ondes et de particules pour comprendre un peu ce qui se passe dans des
circonstances données avant de connaître toutes les mathématiques des amplitudes quantiques.
Nous essayerons d'indiquer les points faibles au fur et à mesure, mais l'essentiel est presque tout à
fait correct. Il ne s'agit que de questions d'interprétation.

Tout d'abord, nous savons que la nouvelle façon de représenter le monde en mécanique quantique,
ce nouveau canevas, consiste à donner une amplitude pour tout événement possible et, si cet
événement implique la réception d'une particule, alors nous pouvons donner l'amplitude pour
trouver la particule à différents endroits et à différents instants. La probabilité de trouver la
particule est alors proportionnelle au carré du module de l'amplitude. En général, l'amplitude pour
trouver une particule en différents endroits et à différents instants varie avec le lieu et avec le
temps.

Dans quelques cas particuliers l'amplitude peut varier de façon sinusoïdale dans l'espace et dans le
temps comme e i (ω t −k⋅r ) , où r est le vecteur position pris depuis une certaine origine (n'oubliez pas
que ces amplitudes sont des nombres complexes et non des nombres réels). Une telle amplitude
varie suivant une fréquence définie ω et un nombre d'ondes k . Il se trouve alors que cela
correspond à une situation classique limite où nous croirions avoir affaire à une particule dont
l'énergie E serait connue et serait reliée à la fréquence par
(1) E = hω = hν
et dont la quantité de mouvement p serait aussi connue et serait reliée au nombre d'ondes par
(2) p = hk

Cela signifie que l'idée de particule est limitée. L'idée de particule, avec une position, une
impulsion, etc., que nous utilisons si souvent est d'un certain point de vue peu satisfaisante. Par
exemple, si l'amplitude pour trouver une particule à différentes places est donnée par e i (ω t −k⋅r ) , dont
le carré du module est constant, cela veut dire que la probabilité de trouver la particule est la même
partout. Cela signifie que nous ne savons pas où elle est. Elle peut-être n'importe où. Il y a une
grande incertitude sur sa position.

Par contre, si la position d'une particule est plus ou moins connue et si nous pouvons la prédire avec
une précision acceptable, alors la probabilité de trouver la particule en différents endroits doit être
confinée dans une certaine région dont nous appellerons la longueur ∆x . En dehors de cette région,
la probabilité est négligeable ou nulle. Mais cette probabilité est le carré du module d'une amplitude
et si le carré du module est zéro, l'amplitude est aussi zéro, si bien que nous avons un paquet
d'ondes dont la longueur est ∆x et dont la longueur d'onde est ce qui correspond à l'impulsion de la
particule. Voilà le retour du paquet d'ondes à travers le concept d'amplitude. N'oublions pas,
toutefois, que l'onde est ici complexe et non définie à valeurs réelles comme une onde classique.

Nous allons rencontrer maintenant une propriété curieuse des ondes. C'est une chose très simple
qui, en toute rigueur, n'a rien à faire avec la mécanique quantique. C'est une chose connue de
quiconque travaille avec des ondes, même en ne connaissant pas la mécanique quantique : à savoir,
nous ne pouvons pas définir une longueur d'onde unique pour un court paquet d'ondes. Un tel train
d'onde n'a pas de longueur d'onde bien définie. Il y a un manque de définition du nombre d'ondes
qui est relié à la longueur finie du paquet d'ondes et qui entraîne un manque de définition de
l'impulsion.
VI.1. Mesures

Mesures de position et d'impulsion


Nous allons illustrer cette idée par deux exemples, pour voir le pourquoi de cette incertitude sur la
position et/ou l'impulsion, si la mécanique quantique est exacte. Cela complétera nos raisonnements
sur le principe d'indétermination cette fois dans le cadre des ondes d'amplitudes. Nous avons déjà
vu auparavant que si cette incertitude n'existait pas, s'il était possible de mesurer la position et
l'impulsion de tout objet simultanément, l'expérience de Young deviendrait incompréhensible. Il est
heureux que nous ne soyons pas tombé sur un tel paradoxe et le fait qu'une telle incertitude vienne
naturellement de la description ondulatoire montre que tout est bien cohérent.

Voici un exemple qui montre les relations entre la position et l'impulsion dans des circonstances qui
sont faciles à comprendre. Supposons que nous ayons une seule fente et que des particules viennent
de très loin avec une certaine énergie, si bien qu'elles arrivent pratiquement à l'horizontale. Nous
allons nous concentrer sur les composantes verticales de l'impulsion. Toutes ces particules ont une
certaine impulsion horizontale p 0 en termes classiques. Par conséquent, dans le sens classique,
l'impulsion verticale p y est parfaitement connue avant que la particule ne passe par le trou. La
particule ne se déplace ni vers le haut ni vers le bas puisqu'elle vient d'une source placée très loin et
ainsi l'impulsion verticale est bien entendu zéro. Mais supposons maintenant qu'elle passe à travers
un trou dont la largeur est B. Alors, une fois qu'elle est passée par le trou, nous connaissons sa
position verticale, la position y, avec une précision considérable, c'est-à-dire ± B (plus
précisément, l'erreur sur notre connaissance de y est ± B / 2 , mais nous ne nous intéressons
actuellement qu'aux idées générales et nous ne nous inquiéterons pas des facteurs 2). Autrement dit,
l'incertitude sur la position, ∆y , est de l'ordre de B. Maintenant nous pourrions vouloir dire aussi
que ∆p y est zéro, puisque nous savons que l'impulsion est absolument horizontale. Mais ceci est
faux. Nous avons su que l'impulsion était horizontale, mais maintenant nous ne savons plus rien.
Avant que les particules soient passées à travers le trou nous ne connaissions pas leurs positions
verticales. Maintenant que nous avons trouvé leur position verticale en laissant la particule passer à
travers le trou, nous avons perdu notre information sur l'impulsion ! Pourquoi ? Suivant la théorie
ondulatoire il y a étalement ou diffraction des ondes après qu'elles soient passées à travers la fente,
exactement comme pour la lumière. Il y a donc une certaine probabilité pour que les particules
venant de la fente n'en viennent pas exactement en ligne droite. L'effet de la diffraction est d'étaler
toute la figure et l'angle d'étalement que nous pouvons définir comme l'angle du premier minimum
est une mesure de l'incertitude sur l'angle final.

Comment cet étalement se produit-il ? Dire qu'il y a un étalement veut dire qu'il y a quelques
chances pour que la particule se déplace vers le haut ou vers le bas, c'est-à-dire pour que son
impulsion ait une composante vers le haut ou vers le bas. Nous disons chances et particules parce
que nous pouvons détecter cette figure de diffraction avec un compteur de particules et lorsque le
compteur reçoit une particule, disons en C sur la figure, le reçoit la particule tout entière, si bien
qu'en termes classiques la particule a une certaine impulsion verticale de façon à aller de la fente
jusqu'à C.

Pour nous faire une idée grossière de l'étalement en impulsion, l'impulsion verticale p y a une
dispersion qui est égale à p 0 ∆θ , où p 0 est l'impulsion horizontale. Quelle est la valeur de ∆θ
dans le faisceau diffracté ? Nous savons que le premier minimum se produit à un angle ∆θ tel que
les ondes venant d'un bord de la fente aient à parcourir une longueur d'onde de plus que les ondes
venant de l'autre coté, c'est simplement la formule de l'optique sur la diffraction. Par conséquent
∆θ vaut λ / B et ∆p y vaut p 0 λ / B dans cette expérience. Notez que si nous faisons B plus petit et
donc si nous faisons une mesure plus précise de la position de la particule, la figure de diffraction
devient plus large. Et plus la fente est étroite, plus large est la figure de diffraction et plus grande
est la probabilité pour que nous trouvions la particule avec une impulsion latérale. L'incertitude sur
l'impulsion verticale est donc inversement proportionnelle à l'incertitude sur y. En fait, nous voyons
que le produit des deux est égal à p 0 λ . Mais λ est la longueur d'onde et p 0 est l'impulsion, et
suivant la mécanique quantique le produit de la longueur d'onde par l'impulsion est la constante de
Planck h. Nous trouvons donc la règle que le produit des incertitudes sur l'impulsion verticale et sur
la position verticale est de l'ordre de h :
(1) ∆y∆p y ≈ h
Nous ne pouvons pas préparer un système pour lequel nous connaîtrions la position verticale d'une
particule et dont nous pourrions prédire le mouvement vertical avec une incertitude moindre que
celle donnée par (1). Autrement dit, l'incertitude sur l'impulsion verticale doit être plus grande que
h / ∆y , où ∆y est l'incertitude de notre connaissance de la position.

Il y a des gens qui disent quelquefois que la mécanique quantique est complètement fausse. Quand
la particule arrivait de la gauche, son impulsion verticale était zéro. Et maintenant qu'elle est passée
à travers la fente, sa position verticale est connue. Sa position et sa quantité de mouvement
semblent être toutes deux connues avec une précision arbitraire. Il est tout à fait exact que nous
pouvons recevoir une particule et déterminer en la recevant quelle est sa position et quelle
impulsion elle aurait dû avoir pour être venue là où elle est venue. C'est exact, mais ce n'est pas à
cela que se réfère la relation d'indétermination (1). L'équation (1) se réfère à la possibilité de
prédire une situation et non pas à des remarques concernant le passé. Cela n'avance à rien de dire
"je savais ce que l'impulsion était avant que la particule ne passe à travers la fente et maintenant je
connais sa position", car maintenant, la connaissance de l'impulsion est perdue. Le fait qu'elle soit
passée à travers la fente nous interdit de prédire son impulsion verticale. Nous nous intéressons à
une théorie faisant des prédictions et non pas à une description du fait accompli. Nous devons donc
parler de ce que nous pouvons prédire.

Considérons maintenant les choses d'un tout autre point de vue. Prenons un autre exemple du même
phénomène, un peu plus quantitativement. Dans l'exemple précédent nous mesurions l'impulsion
par une méthode classique. Plus précisément, nous considérions la direction, la vitesse et les angles,
etc. et nous obtenions ainsi l'impulsion par une analyse classique. Mais comme l'impulsion est
reliée au nombre d'ondes, la nature nous fournit encore une autre façon de mesurer l'impulsion
d'une particule, photon ou autre, qui n'a pas d'analogue classique, car elle fait usage de l'équation
p = hk . Nous pouvons mesurer la longueur d'onde des ondes. Essayons de mesurer l'impulsion de
cette façon.

Supposons que nous avons un réseau avec un grand nombre de lignes et que nous envoyions un
faisceau de particules sur le réseau. Si les particules ont une longueur d'onde bien définie, nous
obtenons une figure avec un maximum très aigu dans une certaine direction à cause des
interférences. L'incertitude relative sur la longueur d'onde mesurée par un réseau est donnée par les
lois de l'optique et vaut 1 / Nm où N est le nombre de lignes du réseau et m est l'ordre de la figure
de diffraction. C'est-à-dire,
(2) ∆λ / λ = 1 / Nm
Cette formule peut maintenant être réécrite sous la forme
(3) ∆λ / λ2 = 1 / Nmλ = 1 / L
où L est la distance indiquée sur la figure ci-dessus. Cette distance est la différence entre la distance
totale que la particule ou l'onde ou quoi que ce soit doit parcourir lorsqu'elle est réfléchie par le bas
du réseau et la distance qu'elle doit parcourir si elle est réfléchie par le haut du réseau. Autrement
dit, les ondes qui forment la figure d'interférences proviennent de différentes parties du réseau. Les
premières qui arrivent proviennent de l'extrémité inférieure du réseau et du début du paquet
d'ondes, le reste vient de la suite du paquet d'ondes et de différentes parties du réseau jusqu'à celles
qui arrivent les dernières et qui comprennent l'onde venant d'un point situé à une distance L derrière
le premier point. Ainsi pour avoir dans notre spectre une ligne fine correspondant à une impulsion
définie, avec une incertitude donnée par (2), il nous faut avoir un paquet d'ondes de longueur au
moins égale à L. Si le paquet d'ondes est trop court, nous n'utilisons pas le réseau tout entier. Les
ondes qui forment le spectre sont réfléchies par une petite partie seulement du réseau et si le paquet
d'ondes est trop court le réseau ne fonctionnera pas correctement, nous aurons une large dispersion
angulaire. Pour en obtenir une plus étroite, nous devons utiliser le réseau tout entier de façon à ce
que le paquet d'ondes tout entier soit diffusé simultanément par tous les points du réseau, au moins
à un certain instant. Le paquet d'ondes doit alors être de longueur L pour que l'incertitude sur la
longueur d'onde soit moindre que celle donnée par (3).

Incidemment,
(4) ∆λ / λ2 = ∆(1 / λ ) = ∆k / 2π
Par conséquent
(5) ∆k = 2π / L
où L est la longueur du paquet d'ondes.

Cela signifie que si nous avons un paquet d'ondes dont la longueur est plus petite que L,
l'incertitude sur le nombre d'ondes doit être plus grande que 2π / L . Ou bien que l'incertitude sur le
nombre d'ondes multipliées par la longueur du paquet d'ondes, que nous appellerons ∆x pour le
moment, est plus grande que deux pi. Nous l'appellerons ∆x parce que c'est l'incertitude sur la
position de la particule. Si le paquet d'ondes n'existe que pendant une longueur finie, c'est alors
dans cet intervalle que nous pouvons trouver la particule, avec une incertitude ∆x . Mais cette
propriété des ondes, le fait que le produit de la longueur du paquet d'ondes par l'incertitude sur le
nombre d'ondes qui lui est associé est au moins deux pi, est une propriété qui est connue de
quiconque étudie les ondes. Elle n'a rien à faire avec la mécanique quantique. Elle dit simplement
que si nous avons un paquet d'ondes fini, nous ne pouvons pas compter avec une très grande
précision les ondes qu'il contient.

Essayons de trouver une autre façon de voir les raisons de cet effet. Supposons que nous ayons un
paquet d'ondes de longueur finie L. Alors, du fait qu'il doit décroître aux deux extrémités, le
nombre d'ondes dans la longueur L comporte une incertitude de l'ordre ± 1 . Mais le nombre d'ondes
dans L est kL / 2π . Par conséquent, k est incertain et nous obtenons à nouveau le résultat (5) qui est
simplement une propriété des ondes. Tout cela marche aussi bien avec des ondes dans l'espace, k
étant le nombre de radians par centimètre et L la longueur du paquet d'ondes, ou avec des ondes
dans le temps, ω étant alors le nombre d'oscillations par seconde et T la "longueur" dans le temps
que met le paquet à passer. Autrement dit, si nous avons un paquet d'ondes durant seulement un
intervalle de temps fini T, l'incertitude sur la fréquence est donnée par
(6) ∆ω = 2π / T
Nous avons essayé d'insister sur le fait que ce sont là des propriétés des ondes et qu'elles sont bien
connues, dans la théorie du son par exemple.

Le point important est qu'en mécanique quantique nous interprétons le nombre d'ondes comme une
mesure de l'impulsion de la particule, suivant la règle p = hk , si bien que la relation (5) nous dit
que ∆p ≈ h / ∆x . Ceci est alors une limitation à l'idée classique d'impulsion (naturellement, il faut
bien qu'elle soit limitée d'une façon ou d'une autre si nous voulons représenter les particules par des
ondes). Il est bien agréable d'avoir trouvé une règle qui nous donne quelque idée des circonstances
où les idées classiques seront en défaut.

Diffraction par un cristal


Considérons ensuite la réflexion d'ondes corpusculaires sur un cristal. Un cristal est une chose qui a
de l'épaisseur et qui contient toute une foule d'atomes semblables et qui sont disposés suivant un
réseau bien régulier. La question se pose alors de disposer le réseau de façon à obtenir un fort
maximum de réflexion dans une direction donnée pour un faisceau donné, composé disons, de
lumière (rayon X), ou bien d'électrons, de neutrons, ou de tout autre chose. Pour obtenir une
réflexion forte, il faut que les diffusions par tous les atomes soient en phase. Il ne faut pas qu'il y en
ait un nombre égal en phase et en opposition de phase sinon les ondes diffusées s'annuleraient. La
façon d'arranger les choses consiste à chercher les régions de phase égale, comme expliqué dans un
cours d'optique ou de cristallographie. Ce sont les plans qui font des angles égaux avec les
directions initiales et finales.
Si nous considérons deux plans parallèles comme ci-dessus, les ondes diffusées par les deux plans
seront en phase si la différence entre les distances parcourues par leurs fronts d'onde est un nombre
entier de longueurs d'onde. On peut voir que cette différence est 2d sin θ , où d est la distance entre
les deux plans. La condition de réflexion cohérente est alors
(7) 2d sin θ = nλ
avec n un entier positif.

Si, par exemple, le cristal est tel que ses atomes se trouvent sur des plans satisfaisant à la condition
(7) avec n=1, nous aurons alors une forte réflexion. Si, au contraire, il y a d'autres atomes du même
genre (et avec la même densité) à mi-chemin entre les deux plans, alors, les plans intermédiaires
diffuseront aussi fortement et interféreront avec les autres pour produire un effet nul. Ainsi, dans la
figure, d se rapporte à des plans adjacents. On ne peut pas prendre un plan cinq couches plus loin et
appliquer encore cette formule !

A titre de remarque, notez que les cristaux réels n'ont pas, en général, un seul genre d'atomes répété
d'une certaine façon. En fait, si nous considérons un analogue à deux dimensions, ils ressemblent
beaucoup plus à un papier peint sur lequel une certaine figure est constamment répétée. Dans le cas
des atomes, ce que nous entendons par "figure" est un certain arrangement comme un calcium, un
carbone et trois oxygènes pour le carbonate de calcium, etc. Un tel arrangement peut inclure un
nombre relativement grand d'atomes. Mais quelle qu'elle soit, cette figure est répétée de façon
systématique. La figure de base est appelée cellule unité.

La façon dont cette figure est répétée définit ce qu'on appelle le type du réseau. Le type du réseau
peut être déterminé immédiatement en examinant les réflexions et en voyant quelles sont leurs
symétries. En d'autres termes, nous pouvons déterminer le type du réseau dès que nous voyons une
quelconque réflexion, mais il faut tenir compte de l'intensité de la réflexion dans les différentes
directions pour déterminer ce qu'il y a dans chaque élément du réseau. Le type du réseau détermine
les directions dans lesquelles il y a réflexion, mais c'est ce qui est dans chaque cellule élémentaire
qui détermine l'intensité de chaque diffusion. C'est de cette façon que l'on calcule la structure d'un
cristal.

Incidemment, il se passe quelque chose d'intéressant quand l'espacement de deux plans voisins est
plus petit que λ / 2 . Dans ce cas, (7) n'a pas de solution pour n. Par conséquent, si λ est plus grand
que le double de la distance entre les plans adjacents, il n'y a pas de diffraction latérale et la
lumière, ou n'importe quoi, passe à travers la matière sans rebondir ni s'atténuer. Ainsi, la lumière
de longueur d'onde beaucoup plus grande que l'espacement passe évidemment au travers et il n'y a
pas de réflexion par les plans du cristal.
Ce fait a également d'intéressantes conséquences dans le cas des piles qui fabriquent des neutrons
(qui, pour tout le monde, sont manifestement des particules !) Si nous prenons ces neutrons et si
nous les envoyons dans un long bloc de graphite, les neutrons sont diffusés et se frayent leur
chemin. Ils sont diffusés parce qu'ils rebondissent sur les atomes, mais en toute rigueur, d'après la
théorie ondulatoire, ils rebondissent sur les atomes parce qu'ils sont diffractés par les différents
plans du cristal. Il se trouve que, si nous prenons une très longue pièce de graphite, les neutrons qui
sortent de son extrémité ont une grande longueur d'onde ! En fait, si l'on fait un graphe de l'intensité
en fonction de la longueur d'onde, on ne trouve rien sauf pour les longueurs d'onde plus grandes
qu'un certain minimum.

Autrement dit, on peut obtenir des neutrons très lents de cette façon. Seuls les neutrons les plus
lents passent au travers, ils ne sont pas diffractés ou diffusés par les plans des cristaux de graphite,
mais ils continuent à passer au travers comme de la lumière à travers du verre et ne sont pas
diffusés vers les cotés. Ce phénomène est contre intuitif si l'on considère les neutrons comme des
corpuscules. Il y a beaucoup d'autres démonstrations de la réalité des ondes de neutrons et des
ondes d'autres particules.

Ce genre de propriété est même utilisé en physique nucléaire pour construire des "modérateurs"
(composés d'eau lourde ou de graphite) afin de ralentir les neutrons (c'est-à-dire augmenter leur
longueur d'onde) et rendre la fission nucléaire plus efficace (on parle de neutrons thermalisés).

La taille d'un atome


Nous allons considérer maintenant une autre application des relations d'indétermination. Il ne
faudra pas la prendre trop au sérieux. Les idées sont justes mais l'analyse n'est pas très précise. Ces
idées ont affaire avec la détermination de la taille des atomes et le fait que, classiquement, les
électrons rayonneraient de la lumière et tourneraient en spirale jusqu'à ce qu'ils atterrissent sur le
noyau. Ceci ne peut pas être vrai en mécanique quantique car nous saurions alors la position et la
vitesse initiale de chaque électron.

Supposons que nous prenions un atome d'hydrogène et que nous mesurions la position de son
électron. Il ne faut pas que nous puissions prédire exactement où se trouvera l'électron ou alors c'est
que la dispersion en impulsion sera devenue infinie. Chaque fois que nous observons l'électron, il
est bien quelque part mais il a une amplitude pour être ailleurs si bien qu'il a une certaine
probabilité d'être trouvé à différentes places. Ces différentes places ne peuvent pas être toutes près
du noyau. Nous supposerons qu'il y a une dispersion en position de l'ordre de a. C'est-à-dire que la
distance de l'électron au noyau est en général de l'ordre de a. Nous déterminerons a en minimisant
l'énergie totale de l'atome.

Du fait de la relation d'indétermination, la dispersion en amplitude est de l'ordre de h / a , si bien


que si nous essayons de mesurer l'impulsion de l'électron, par exemple en utilisant la diffusion de
rayons X et en mesurant l'effet Doppler dû au mouvement du diffuseur, nous ne nous attendons pas
à obtenir toujours zéro, l'électron n'est pas immobile, mais son impulsion p doit être de l'ordre de
h / a . L'énergie cinétique est approximativement 12 mv 2 = p 2 / 2m = h 2 / 2ma 2 (en un sens, ceci
n'est qu'une sorte d'analyse dimensionnelle pour trouver comment l'énergie cinétique dépend de la
constante de Planck, de la masse de l'électron et de la taille de l'atome. Il ne faut pas croire en notre
réponse à mieux qu'un facteur 2, pi, etc. Nous n'avons même pas défini a très précisément).
Maintenant, l'énergie potentielle est moins e 2 divisée par la distance au centre, soit − e 2 / a , où e 2
est le carré de la charge de l'électron divisé par 4πε 0 . Le point important est alors que l'énergie
potentielle diminue lorsque a diminue, mais plus a est petit et plus grande est l'impulsion
correspondante et, en même temps, du fait du principe d'indétermination, plus grande est l'énergie
cinétique. L'énergie totale est
(8) E = h 2 / 2ma 2 − e 2 / a
Nous ne savons pas ce que vaut a, mais nous savons que l'atome va s'arranger pour faire une sorte
de compromis de façon à ce que son énergie soit aussi petite que possible. Dans le cas contraire,
l'électron pourrait émettre un rayonnement, perdre de l'énergie et tendre vers ce minima. Pour
minimiser E, nous allons différencier par rapport à a, écrire que la dérivée est nulle et résoudre cette
équation en a. La dérivée de E est
(9) dE / da = − h 2 / ma 3 + e 2 / a 2
et, en écrivant dE / da = 0 , on obtient pour a la valeur
a 0 = h 2 / me 2 = 0.528 angström
(10)
= 0.528 × 10 −10 mètre
Cette distance est appelée le rayon de Bohr et nous avons ainsi trouvé que les dimensions
atomiques sont de l'ordre de l'angström, ce qui est juste et conforme à l'ancienne théorie de Bohr.
Ceci est même joliment exact. En fait, c'est surprenant, car nous n'avions jusqu'ici aucune base pour
comprendre la taille des atomes ! Les atomes sont tout à fait impossibles d'un point de vue
classique, puisque les électrons termineraient leur spiralisation dans le noyau.

Si maintenant nous substituons la valeur (10) de a 0 dans (8) pour trouver l'énergie, nous trouvons
(11) E 0 = −e 2 / 2a 0 = − me 4 / 2h 2 = −13.6 eV
Que signifie une énergie négative ? Cela veut dire que l'électron a moins d'énergie lorsqu'il est à
l'intérieur de l'atome que lorsqu'il est libre. Cela veut dire qu'il est lié. Cela veut dire qu'il faut de
l'énergie pour faire sortir l'électron. Il faut une énergie de l'ordre de 13.6 eV pour ioniser un atome
d'hydrogène. Mais nous n'avons aucune raison de penser que cela ne puisse être deux ou trois fois
cette valeur ou la moitié ou 1 / π de cette valeur, du fait que nous avons utilisé des arguments si
grossiers. Mais nous avons juste triché, nous avons utilisé toutes les constantes de façon à ce que ce
résultat soit juste le bon ! Ce nombre, 13.6 eV, est appelé un Rydberg d'énergie. C'est l'énergie
d'ionisation de l'hydrogène.

Nous comprenons maintenant pourquoi nous ne passons pas à travers le plancher. Lorsque nous
marchons, nos chaussures, avec tous leurs atomes, appuient sur le plancher et sur tous ses atomes.
Pour écraser les atomes les uns contre les autres, il faudrait confiner les électrons dans un espace
très petit et, suivant le principe d'indétermination, leurs impulsions devraient être plus grandes que
la moyenne, ce qui implique une grande énergie. La résistance à la compression des atomes est un
effet quantique et non un effet classique. Classiquement, si nous poussions tous les électrons et les
protons les uns contre les autres, nous nous attendrions à ce que l'énergie soit réduire et le meilleur
arrangement de charges positives et négatives en physique classique est obtenu lorsqu'elles sont
toutes les unes contre les autres. Bien entendu, les physiciens de jadis avaient inventé des moyens
de sortir de ces ennuis, comme dans l'ancienne théorie de Bohr, mais ne vous en occupez pas, c'est
nous qui avons, maintenant, la bonne solution !

Incidemment, et quoique nous n'ayons aucun moyen de le comprendre pour le moment, il se trouve
que les électrons essayent de rester loin les uns des autres dans toutes les situations où il y a un
grand nombre d'électrons. Si un électron occupe une certaine place, un autre ne peut pas occuper la
même place. Plus précisément, comme il y a deux cas de spin, deux électrons peuvent être tout près
l'un de l'autre, l'un tournant sur lui-même dans un sens et l'autre dans l'autre sens. Mais après cela,
nous ne pouvons plus en rajouter un autre. Il nous faut les mettre ailleurs et c'est cela la vraie raison
pour laquelle la matière est résistante. Si nous pouvions mettre tous les électrons à la même place,
la matière pourrait se condenser beaucoup plus qu'elle ne le fait. C'est le fait que les électrons ne
peuvent pas se trouver l'un contre l'autre qui fait que les tables et tous les objets sont solides.

Evidemment, pour comprendre les propriétés de la matière, nous devrons donc utiliser la
mécanique quantique et ne pas nous satisfaire de la mécanique classique.
VI.2. Niveaux d'énergie
Nous avons parlé de l'atome dans son état d'énergie le plus bas possible, mais il se trouve que
l'électron peut faire bien d'autres choses. Il peut s'agiter de façon plus énergétique et il y a donc
plusieurs mouvements possibles. Suivant la mécanique quantique, un atome dans un état
stationnaire ne peut avoir qu'une énergie bien définie. Faisons un diagramme sur lequel nous
indiquerons les énergies verticalement et où nous tracerons une ligne horizontale pour chaque
valeur permise de l'énergie.

Lorsque l'électron est libre, c'est-à-dire lorsque son énergie est positive, il peut avoir n'importe
quelle énergie. Il peut se déplacer à n'importe quelle vitesse. Mais les états d'énergie liés ne sont pas
arbitraires, comme nous l'avons déjà noté dans le modèle de Bohr. L'atome ne peut avoir que l'un
ou l'autre d'un ensemble de valeurs permises, telles que celles ci-dessus.

Appelons maintenant E 0 , E1 , E 2 , E 3 , les états d'énergie autorisés. Si un atome est initialement


dans l'un de ces "états excités", E1 , E 2 , etc., il n'y reste pas éternellement. Tôt ou tard il retombe
sur un état inférieur et rayonne de l'énergie sous forme de lumière. La fréquence de la lumière
émise est déterminée par la conservation de l'énergie plus la condition quantique que la fréquence
de la lumière est reliée à l'énergie de la lumière. Par conséquent, la fréquence de la lumière qui est
libérée dans une transition de l'énergie E 3 à l'énergie E1 (par exemple) est
(1) ω 31 = (E 3 − E1 ) / h
Ceci est alors une fréquence caractéristique de l'atome et définit une raie d'émission spectrale. Une
autre transition possible serait de E 3 à E 0 . L'énergie serait alors différente
(2) ω 30 = (E 3 − E 0 ) / h
Une autre possibilité est que, si l'atome est excité dans l'état E1 , il tombe dans l'état fondamental
E 0 en émettant un photon de fréquence
(3) ω10 = (E1 − E 0 ) / h
La raison pour laquelle nous considérons trois transitions est que nous voulons montrer une relation
intéressante. Il est facile de voir à partir de (1), (2) et (3) que
(4) ω 30 = ω 31 + ω 10
En générale, si nous trouvons deux raies spectrales, nous pouvons nous attendre à trouver une autre
raie à la somme des fréquences (ou à la différence des fréquences) et à pouvoir comprendre toutes
les raies en trouvant une série de niveaux telle que chaque raie corresponde à la différence d'énergie
entre une paire de niveaux. Cette remarquable régularité des raies spectrales avait été remarquée
avant que la mécanique quantique ne fût découverte et on l'appelle la loi de combinaison de Ritz
(ou règles de Balmer). Ceci est encore un mystère du point de vue de la mécanique classique. Mais
n'insistons pas continuellement sur le fait que la mécanique classique échoue dans le domaine
atomique. Il semble que nous l'ayons démontré suffisamment bien.

Nous avons déjà parlé de la mécanique quantique comme étant une théorie avec des amplitudes qui
se comportent comme des ondes avec certaines fréquences et certains nombre d'ondes. Voyons
comment on trouve, en employant le point de vue des amplitudes, que l'atome a des états d'énergie
bien définis. C'est là quelque chose que nous ne pouvons pas comprendre avec ce que nous avons
dit jusqu'ici, mais nous sommes familiers avec le fait que des ondes enfermées dans un volume clos
ont des fréquences bien définies. Par exemple, si des ondes sonores sont enfermées dans un tuyau
d'orgue ou dans quelque chose du même genre; elles peuvent vibrer de plusieurs façons et chacune
a une fréquence bien définie. Un objet, dans lequel des ondes sont enfermées, a donc plusieurs
fréquences de résonance. C'est donc une propriété des ondes enfermées dans un espace clos, sujet
que nous discuterons en détail, avec les formules, plus tard, que ces ondes n'existent que pour
certaines fréquences bien définies. Et comme il y a une relation générale entre les fréquences des
amplitudes et l'énergie, nous ne sommes pas surpris de trouver des énergies bien définies associées
aux électrons dans les atomes.
VI.3. Règles d'usage des amplitudes
Le moment est venu de formaliser les amplitudes à travers tout ce que nous avons appris.
Quand Schrödinger découvrit le premier les lois correctes de la mécanique quantique, il écrivit une
équation qui donnait l'amplitude pour trouver une particule en différents endroits. Cette équation
était très similaire à celles qui étaient déjà connues des physiciens de l'époque classique et que
ceux-ci avaient utilisé pour décrire le mouvement de l'air dans une onde sonore, pour la
transmission de la lumière, etc. Si bien que, pendant les débuts de la mécanique quantique, on passa
beaucoup de temps à résoudre cette équation. Mais en même temps, on commençait à comprendre,
avec Born et Dirac en particulier, les idées physiques foncièrement nouvelles de la mécanique
quantique. Tandis que celle-ci continuait à se développer, il apparut qu'il y avait un grand nombre
de choses qui n'étaient pas directement impliquées par l'équation de Schrödinger, telles que le spin
de l'électron et différents phénomènes relativistes. Traditionnellement, tous les cours de mécanique
quantique commencent de la même façon, en retraçant le chemin parcouru au cours de l'évolution
historique du sujet. On apprend tout d'abord beaucoup de choses sur la mécanique classique de
façon à être prêt à comprendre l'équation de Schrödinger. On passe ensuite beaucoup de temps à la
résoudre dans différents cas. C'est seulement après une étude détaillée de cette équation que l'on
aborde le sujet "avancé" du spin de l'électron.

Mais il est en réalité inutile de s'embarquer aussi rapidement dans des calculs compliqués. Ce qui
est appelé habituellement mécanique quantique avancée est en fait tout à fait simple. Les
mathématiques qui sont requises sont particulièrement simples. Elles ne comprennent que de
simples opérations algébriques et pas d'équation différentielle ou, tout au plus, quelques-unes parmi
les plus simples. Le seul problème est que c'est un grand pas à faire que de renoncer à décrire en
détail le comportement des particules dans l'espace Nous allons donc vous parler de ce que l'on
appelle par convention les parties "avancées" de la mécanique quantique. Mais nous pouvons vous
assurer qu'il s'agit là, à tout point de vue, des parties les plus simples aussi bien que les plus
fondamentales.

Bien entendu, la difficulté en la matière vient de ce que le comportement des choses en mécanique
quantique est tout à fait étrange. Personne n'a une expérience quotidienne sur laquelle s'appuyer
pour obtenir une idée grossière et intuitive de ce qui peut se passer. Si bien qu'il y a deux façons de
présenter le sujet : nous pourrions soit faire une description physique, mais assez grossière de ce
qui peut se passer, en vous disant plus ou moins ce qui se passe sans vous donner des lois précises,
soit en vous donnant les lois précises sous leur forme abstraite. Mais, du fait de leur abstraction
vous ne pourriez pas savoir ce qu'elles veulent dire d'un point de vue physique. La dernière
méthode n'est pas satisfaisante parce qu'elle est complètement abstraite et la première laisse un
sentiment d'inconfort parce qu'on ne sait pas exactement ce qui est vrai et ce qui est faux. Nous ne
sommes pas très sûrs de la façon de surmonter cette difficulté. Vous noterez, en fait, que ce
problème était apparent dans ce qui a précédé. Plusieurs des descriptions étaient assez grossières.
Ici nous essayerons de trouver un juste milieu entre ces deux extrêmes.

Lois de combinaison des amplitudes


Nous commencerons par discuter à nouveau la superposition des amplitudes de probabilité. A titre
d'exemple nous nous référons à l'expérience de Young décrite précédemment.
Nous avons une source de particules, disons d'électrons et derrière une paroi avec deux fentes. Au-
delà de cette paroi, il y a un détecteur placé en x. Nous cherchons la probabilité de trouver une
particule en x. Notre premier principe général de la mécanique quantique est que la probabilité
pour que la particule arrive en x après avoir quitté la source S peut être représentée
quantitativement par le carré du module d'un nombre complexe appelé l'amplitude de probabilité,
qui est dans ce cas "l'amplitude pour que la particule aille de S à x". Nous utiliserons de telles
amplitudes si souvent que nous emploierons une notation abrégée, inventée par Dirac et d'un usage
général en mécanique quantique, pour exprimer cette idée. Nous écrivons l'amplitude de probabilité
de la façon suivante :
(1) < Particule arrivant en x | particule quittant S >

En d'autres termes, les deux crochets < > forment un signe équivalent à "l'amplitude pour que ".
L'expression à la droite de la barre verticale donne toujours la condition initiale et celle à gauche la
condition finale. Quelquefois il sera également commode d'abréger encore plus et d'écrire les
conditions initiales et finales comme de simples lettres. Par exemple, il nous arrivera d'écrire
l'amplitude (1) comme
(2) < x | S >

Nous voulons insister sur le fait qu'une telle amplitude n'est rien d'autre qu'un simple nombre, mais
un nombre complexe.

Nous avons déjà vu que lorsque la particule dispose de deux voies pour atteindre le détecteur, la
probabilité n'est pas la somme des probabilités mais doit être écrite comme le module du carré de la
somme des deux amplitudes. Nous avons vu que la probabilité pour qu'un électron atteigne le
détecteur lorsque les deux voies sont ouvertes est
(3) P12 = φ1 + φ 2
2

Nous voulons maintenant exprimer ce résultat avec notre nouvelle notation. Cependant, nous
voulons tout d'abord énoncer notre deuxième principe général de la mécanique quantique : quand
une particule dispose de deux voies pour atteindre un état donné, l'amplitude totale pour le
phénomène est la somme des amplitudes pour les deux voies considérées séparément. Avec notre
nouvelle notation, nous écrivons
(4) x S les deux trous ouverts = x S à travers 1 + x S à travers 2

Incidemment, nous allons supposer que les trous 1 et 2 sont suffisament petits pour que, lorsque
nous disons qu'un électron passe à travers un trou, nous n'avons pas à nous demander par quelle
partie du trou il est passé. Nous pourrions évidemment diviser chaque trou en deux parties avec une
certaine amplitude pour que l'électron passe par le haut du trou et une autre pour qu'il passe par le
bas du trou et ainsi de suite. Nous supposerons que le trou est assez petit pour que nous n'ayons pas
à nous soucier de tels détails. Ceci est lié à notre parti pris de n'être qu'approximatifs. Tout ceci
peut être rendu beaucoup plus précis mais nous ne voulons pas le faire à ce niveau. Cela ne ferait
qu'alourdir la présentation sans apporter de compréhension supplémentaire.

Nous voulons écrire maintenant de façon détaillée ce que nous pouvons dire de l'amplitude pour
que l'électron atteigne le détecteur x en passant par le trou 1. Nous pouvons faire cela en utilisant
notre troisième principe général : quand une particule passe par une voie particulière, l'amplitude
pour cette voie peut être écrite comme le produit de l'amplitude pour une partie du chemin par
l'amplitude pour le reste du chemin. Avec le dispositif considéré, l'amplitude pour aller de S à x en
passant par le trou 1 est égale à l'amplitude pour aller de S à 1 multipliée par l'amplitude pour aller
de 1 à x.
(5) x S via 1 = x 1 1 S

Une fois de plus, ce résultat n'est pas complètement précis. Nous devrions aussi inclure un facteur
pour l'amplitude pour que l'électron passe à travers le trou 1. Mais dans le cas présent nous avons
un simple trou et nous prendrons ce facteur égal à l'unité. Nous pouvons aussi considérer que ce
facteur est inclut dans une des deux amplitudes, par exemple < 1 | S > = "amplitude pour que
l'électron aille de S jusque 1 et passe à travers le trou".

Vous noterez que l'équation (5) semble être écrite à l'envers. Elle doit être lue de la droite vers la
gauche. L'électron va de S à 1 et ensuite de 1 à x. Ce n'est qu'une convention dans la mesure où le
produit des nombres complexes est commutatif. En résumé, si les événements se produisent
successivement, c'est-à-dire, si vous pouvez analyser une des routes suivies par la particule en
disant : elle fait ceci, puis elle fait ceci et ensuite elle fait encore cela, l'amplitude résultante pour
cette route se calcule en multipliant dans l'ordre les amplitudes pour chacun des événements
successifs. En utilisant cette loi, nous pouvons récrire (4) comme
(6) x S à travers les deux trous = x 1 1 S + x 2 2 S

Nous voulons montrer maintenant qu'en utilisant ces seuls principes, nous pouvons résoudre un
problème beaucoup plus compliqué, tel celui qui est décrit ci-dessous.
Nous avons là deux parois, l'une avec deux trous 1 et 2 et l'autre avec trois trous a, b et c. Derrière
la deuxième paroi, il y a un détecteur placé en x et nous voulons connaître l'amplitude pour qu'une
particule arrive en ce point. Et bien, une des façons dont vous pouvez trouver cela consiste à
calculer la superposition ou interférence des différentes ondes transmises. Mais vous pouvez aussi
le faire en disant qu'il y a six routes possibles et en superposant les amplitudes pour chacune d'elles.
L'électron peut passer à travers le trou 1, puis à travers le trou a et ensuite aller en x, ou bien il peut
passer à travers le trou 1, puis passer à travers le trou b, et ensuite aller en x, et ainsi de suite.
D'après notre second principe, les amplitudes pour les différentes routes s'ajoutent, si bien que nous
pouvons écrire l'amplitude pour aller de S en x comme la somme des six amplitudes distinctes. Par
ailleurs, en utilisant le troisième principe, chacune de ces amplitudes peut être écrite comme le
produit de trois amplitudes. Par exemple, l'une d'entre elles est l'amplitude de S à 1 que multiplie
l'amplitude de 1 à a que multiplie l'amplitude de a à x. En utilisant notre notation abrégée, nous
pouvons écrire l'amplitude complète pour aller de S à x comme
(7) x S = x a a 1 1 S + x b b 1 1 S + L + x c c 2 2 S
Nous pouvons gagner de la place en employant pour la sommation la notation
(8) x S = ∑ x α α i i S
i =1, 2
α = a ,b , c

Il est important de vérifier la consistance de ces règles. Mais cela se constate aisément. Par
exemple, si l'on considère l'amplitude pour que la particule arrive en a en passant par une des fentes
1 ou 2, on a comme dans l'expérience de Young classique :
(9) a S = a 1 1 S + a 2 2 S
Maintenant, si on veut connaître l'amplitude pour que la particule arrive en x en passant par a, il
suffit de multiplier les amplitudes :
x S = x a a S = x a(a1 1S + a 2 2 S )
(10)
= x a a1 1S + x a a 2 2 S
Et en employant une formule semblable pour les fentes b et c et en sommant, on retrouve bien la
formule (8).

Pour pouvoir faire un calcul utilisant ces méthodes, il est évidemment nécessaire de connaître
l'amplitude pour aller d'un endroit à un autre. Nous allons donner une idée grossière d'une
amplitude de ce genre. Nous laissons de coté certaines choses comme la polarisation de la lumière
ou le spin de l'électron mais, à part cela, notre description est tout à fait correcte. Nous vous la
donnons de façon que vous puissiez résoudre des problèmes comprenant des combinaisons variées
de fentes. Supposez qu'une particule ayant une énergie définie voyage dans le vide d'une position
r1 à une position r2 . En d'autres mots, c'est une particule libre sur laquelle aucune force ne
s'exerce. A un facteur numérique multiplicatif près, l'amplitude pour aller de r1 à r2 est
e ip⋅r12 / h
(11) r2 r1 =
r12
où r12 = r2 − r1 et p est l'impulsion qui est reliée à l'énergie E par l'équation relativiste
(12) p 2 c 2 = E 2 − m02 c 4
ou bien par l'équation non relativiste
p2
(13) énergie cinétique =
2m

L'équation (11) dit en fait que la particule a des propriétés ondulatoires car l'amplitude se propage
comme une onde avec un nombre d'ondes égal à l'impulsion divisée par h .

Dans le cas le plus général, l'amplitude et la probabilité correspondante dépendent aussi du temps.
Dans la plupart de ces discussions préliminaires, nous supposerons que la source émet toujours des
particules avec une énergie donnée, si bien que nous n'aurons pas à nous soucier du temps. Mais,
d'une façon générale, nous pourrions nous poser d'autres questions. Supposez qu'une certaine
particule soit émise en un certain point P au temps t et supposez que vous vouliez connaître
l'amplitude pour qu'elle atteigne une certaine position, disons r , à un temps ultérieur. Ceci pourrait
être représenté symboliquement comme l'amplitude r, t = t1 P, t = 0 . Ceci dépend clairement à la
fois de r et de t. Vous obtiendrez des résultats différents si vous placez un détecteur dans
différentes positions et si vous faites des mesures à différents moments. En général, cette fonction
de r et de t satisfait une équation différentielle qui est une équation d'onde. Par exemple, dans le
cas non relativiste, c'est l'équation de Schrödinger. On a alors une équation d'onde analogue à celle
des ondes électromagnétiques ou des ondes sonores dans un gaz. Cependant, il faut insister sur le
fait que la fonction d'onde qui satisfait l'équation n'est pas comme une onde classique dans l'espace
: on ne peut à ce stade attribuer aucune sorte de réalité à cette onde comme on le fait pour une onde
sonore. Nous reviendrons sur ce problème de l'interprétation de la nature des objets quantiques.

Bien que l'on puisse être tenté de raisonner en termes "d'ondes corpusculaires" lorsque l'on traite le
cas d'une seule particule, ceci n'est pas une bonne idée car s'il y a, disons, deux particules,
l'amplitude pour trouver l'une en r1 et l'autre en r2 n'est pas une simple onde dans l'espace à trois
dimensions mais dépend de six variables d'espace r1 et r2 . Si par exemple nous traitons deux ou un
plus grand nombre de particules, nous aurons besoin du principe additionnel suivant : à condition
que les deux particules n'interagissent pas, l'amplitude pour qu'une particule fasse quelque chose et
que l'autre fasse autre chose est le produit des amplitudes pour que chacune fasse chaque chose
séparément. Par exemple, si a S est l'amplitude pour que la particule 1 aille de S à a et si b S
est l'amplitude pour que la particule 2 aille de S à b, l'amplitude pour que ces deux choses arrivent à
la fois est
(14) a S1 b S 2
Dans des configurations un peu compliquées, cela peut conduire à des comportements totalement
non classiques et, en particulier, différents de ce que l'on pourrait observer avec deux ondes
classiques.

Il y a un autre point sur lequel nous devons insister. Supposons que nous ne sachions pas d'où les
particules de l'expérience précédente viennent avant d'arriver aux trous 1 et 2 de la première paroi.
Nous pouvons encore faire une prédiction sur ce qui arrivera au-delà de la paroi (par exemple, pour
l'amplitude d'arrivée en x) à la condition que l'on nous donne deux nombres : l'amplitude d'arrivée
en 1 et l'amplitude d'arrivée en 2. En d'autres termes, puisque l'on multiplie les amplitudes pour des
événements successifs, comme le montre l'équation (8), vous n'avez besoin pour continuer l'analyse
que de deux nombres, dans ce cas particulier 1 S et 2 S . Ces deux nombres complexes sont
suffisants pour prédire tout le futur. C'est cela, réellement, qui rend la mécanique quantique facile.
Il se trouve que c'est justement cela que nous allons faire dans la plus part des exemples lorsque
nous spécifierons des conditions initiales en fonction de deux ou quelques nombres. Bien sûr, ces
nombres dépendent de la position de la source et éventuellement d'autres détails de l'appareillage.
Mais étant donné ces deux nombres, nous n'avons nul besoin de connaître ces détails.

Amplitudes pour les processus inverses


Avant de continuer, nous allons maintenant préciser une bonne partie du reste de la machinerie de
la mécanique quantique. Nous aurons l'occasion d'y revenir et de justifier certains points
importants, mais presque tout découle très simplement de ce que nous venons de voir.

Introduisons une règle importante.


Considérons une particule ayant une certaine amplitude pour passer d'un point A à un point B (par
exemple, d'une fente au détecteur dans l'expérience de Young).
(15) a = B A
On voudrait connaître l'amplitude b du processus inverse, c'est-à-dire A B , après avoir renversé
le signe de l'impulsion ou de toute quantité équivalente, ce qui est équivalent à un renversement du
temps ( t → −t ).

Considérons le processus : la particule est en A, arrive en B, puis après renversement du temps,


revient en A. Ce processus sera :
(16) ba
Qui est l'amplitude "Aller de A à A en passant par B".

Quelle est la probabilité de ce processus ? Si la particule arrive effectivement en B, alors le


renversement du temps garantit qu'elle revienne en A. Par exemple, s'il lui fallait une certaine
impulsion pour arriver jusqu'en B, le renversement du signe de cette impulsion garantit son retour
en A.

Par conséquent, la probabilité correspondant à (16) n'est autre que la probabilité que la particule
arrive en B. C'est-à-dire :
2
(17) ba =| a | 2
A une phase près, que l'on peut poser à l'unité (lorsque la particule revient en A elle est exactement
dans le même état que lorsqu'elle en est partie, il n'y a pas de raison d'introduire un facteur
modifiant la phase des amplitudes), on en déduit que :
(18) b = a ∗
C'est-à-dire :

(19) A B = B A

Les amplitudes renversées sont conjuguées (complexes) l'une de l'autre.


Etats
Considérons un système donné. Ce peut-être une particule, un atome ou tout dispositif plus ou
moins complexe. Comment décrire son état physique à un moment donné ? On désignera un tel état
par la notation ψ (appelé un "ket", la notation ψ étant appelée un "bra" et le symbole des
amplitudes < | > "braket" qui signifie tout simplement "crochet" en anglais).

Cet état ψ est supposé encoder toute la structure de l'état (ψ , un symbole générique pour ce
genre d'état, n'est qu'un nom, une étiquette, servant à désigner de quel état on parle).

Dans l'expérience de Young, on pourra ainsi parler de l'état de l'électron lorsqu'il est émis par la
source S , de l'état de l'électron lorsqu'il passe par la fente 1, 1 , de l'état lorsqu'il arrive en x, x ,
ou même de l'état de l'électron lorsqu'il passe par les fentes, sans spécifier spécifiquement l'une ou
l'autre de ces fentes, F . On pourrait aussi spécifier l'état d'un électron doté d'une impulsion p bien
définie, p (et dans ce cas, sa position est totalement indéterminée, comme nous le savons).

Cette notation est extrêmement générale mais nous verrons rapidement à quelles contraintes
doivent obéir les états quantiques.

Bien entendu, ces états peuvent varier dans le temps, ce qu'on notera, par exemple, ψ (t ) pour
indiquer que les différents paramètres ψ décrivant l'état varient avec le temps ψ (t ) .

Amplitude de processus
Il est utile de distinguer deux types d'amplitudes bien qu'elles soient intimement liées.

Prenons deux états possibles pour un système, disons a et b . Le système peut passer d'un état à
l'autre, ce peut-être, par exemple, le déplacement d'une particule d'une position à une autre ou de
l'eau qui passe de l'état liquide à l'état vapeur.
La manière dont le système passe d'un état à l'autre peut être plus ou moins compliquée, mais on
peut faire un bilan et décrire la possibilité que le système a d'atteindre un état en partant d'un autre.
On décrira ce processus, cette possibilité, par l'amplitude que l'on nomme b a , que le système
passe de a en b .

C'est exactement les amplitudes que nous avons vues précédemment et nous avons ainsi un lien
entre états et amplitudes.

Amplitude d'état
Considérons maintenant un système qui peut être dans deux états a et b . Alors, on dira que
l'amplitude que le système dans l'état a soit aussi dans l'état b est b a .

Attention, il ne s'agit pas ici d'un processus. Ce n'est pas le système qui change pour passer d'un état
à l'autre mais la possibilité que le système soit dans les deux états.

Comment est-ce possible ? Comment un système dans un état précis pourrait-il être aussi dans un
autre état ? En fait, cela vient de la généralité de notre représentation et de l'indétermination des
quantités pouvant servir à identifier ces états.

Prenons un électron dans l'état d'impulsion définie p . On spécifie seulement son impulsion, rien
n'est dit sur sa position. Il pourrait se trouver à un endroit ou à un autre. Plus encore, si l'impulsion
est bien définie, sa position est totalement indéterminée. Par conséquent, parler de la possibilité que
cet électron soit en x n'a rien d'étrange. L'amplitude que l'électron soit aussi dans l'état x est donc
x p et cela a une signification évidente.

Le lien entre les deux types d'amplitudes (dont la dénomination n'est pas habituelle, c'est un choix
didactique) est assez simple.
Supposons à nouveau une particule dans l'état p . Ce peut-être une particule émise par une source
S et se dirigeant par une paroi. Plaçons un détecteur sur la paroi en la position x, comme on l'a fait
ci-dessus avec les expériences de type Young. Si le détecteur réagit à la présence de la particule,
alors nous saurons que la particule est effectivement dans l'état x . Son état a, bien entendu,
changé et nous perdons la valeur de l'impulsion. L'amplitude pour passer de S à x sera l'amplitude
x p .

L'amplitude d'état n'est donc rien d'autre qu'une amplitude de processus de mesure approprié. Les
deux types d'amplitude sont en fait juste deux façon différente de voir la même chose.

Principe de superposition
Revenons à la particule passant par deux fentes dans l'expérience de Young. La particule peut
passer par la fente 1, ce qui correspond à l'état 1 . Elle peut aussi passer par la fente 2, ce qui
correspond à l'état 2 . Mais nous savons que cela ne correspond pas à l'état de la particule lorsque
l'on n'observe pas par quelle fente elle passe car, dans ce cas, si elle passe par une fente précise, on
retrouve le comportement corpusculaire sans interférence.

En nous inspirant du lien entre états et amplitudes, on peut écrire l'amplitude que la particule arrive
en x, c'est-à-dire dans l'état x , comme :
(20) x 1 ou 2 = x 1 + x 2 = x ( 1 + 2 )
C'est-à-dire qu'on peut décrire l'état de la particule, lorsqu'elle passe par les fentes, comme :
(21) 1 + 2

D'une manière générale, si un système peut se trouver dans deux états , a ou b , selon les
circonstances, alors on peut imaginer un dispositif expérimental permettant au système de se
trouver dans l'un ou l'autre état et de passer par un état a + b .
Donc, si un système peut prendre deux états donnés, la somme de ces états (à peut-être un
coefficient multiplicateur près pour que le total des probabilités reste égal à un) est également une
solution possible pour cet état. Et même, si l'évolution du système est influencée par un processus
quelconque modifiant son état d'une amplitude de transition, toute combinaison c a + d b est une
solution possible (ou c et d sont deux nombres complexes).

C'est le principe de superposition des états.

Il est à noter que c'est un principe typiquement ondulatoire, comme dans le cas des interférences
entre amplitudes d'où nous avons d'ailleurs déduit ce principe. La somme de deux ondes (ou plutôt
de leur amplitude en chaque point) est encore une onde.

Cela peut donner des situations totalement non classiques comme une particule décrite par un état
avec plusieurs positions. En sommes, par abus de langage, on peut dire que la particule est en
"plusieurs endroit à la fois". Encore une propriété typiquement ondulatoire (une onde n'a pas de
position unique bien définie).

Espace de Hilbert
Le principe de superposition montre que les états obéissent aux axiomes des espaces vectoriels. On
peut donc dire que l'ensemble des états d'un système est un espace vectoriel.

De plus, on peut considérer l'amplitude comme le produit scalaire complexe de deux vecteurs
d'état. Le carré de la norme de ce produit scalaire (probabilité) étant positif.

L'espace vectoriel complexe correspondant est appelé espace de Hilbert.

Plus exactement, c'est un sous-espace vectoriel de l'espace de Hilbert définit en mathématique


comme l'espace des fonctions de carré intégrable. Il n'est pas utile d'entrer dans de tels détails
mathématiques et de montrer l'équivalence avec notre espace vectoriel des états mais le lien entre
fonctions de carré intégrable et la définition du produit scalaire est assez claire.
Le nombre de dimensions de cet espace, pour un système donné, n'est pas fixé a priori et peut être
fini ou bien infini.

Tout espace vectoriel admet une infinité de bases.

Prenons une base quelconque donnée par les états A , B , C , … Dans ce cas, par définition des
vecteurs de base, on aura :
A A =1
(22) B A = 0
L
Cela indique que si le système est dans l'état A, la probabilité de le trouver (par une mesure) dans
l'état A est 1 (ce qui est assez évident), et la probabilité de le trouver dans l'état B (ou autre) est 0.
Les états de base sont mutuellement exclusifs.

Un exemple évident sont les états où une quantité mesurable prend une valeur bien définie.
L'ensemble des valeurs possibles correspond à l'ensemble des possibilités et deux valeurs bien
définies sont mutuellement exclusives.

Par exemple, les états correspondants à des positions bien précises d'une particule x1 , x 2 ,…
correspondent à une base appelée base position (elle se généralise de manière évidente à plusieurs
particules). Les états correspondants à des impulsions précises p1 , p 2 ,… donnent la base
impulsion. On a de même la base énergie et bien d'autres bases possibles. Ces bases se généralisent
aussi de manière évidente si l'on a d'autres quantités tel que la polarisation.

Tout état peut se décomposer sur une base. Par exemple :


(23) ψ = ψ ( x1 ) x1 + ψ ( x 2 ) x 2 + ψ ( x3 ) x3 + L
En prenant le produit scalaire avec les états de base x1 , x 2 ,… on trouve la valeur des
coefficients du développement :
(24) ψ = x1 ψ x1 + x 2 ψ x 2 + x3 ψ x3 + L
On voit aussi tout de suite la signification physique de ces coefficients. Si a est le coefficient de
développement de ψ sur l'état de base A , alors a est la probabilité de trouver le système
2

(dans l'état ψ ) dans l'état A ) lors d'une mesure (par exemple, lors de la mesure d'une position
dans la base position).

Cela montre aussi que les états doivent être normalisés. Si le système est dans un état quelconque
ψ , alors la probabilité de le mesurer dans un état de base doit être un puisque ces états de base
couvrent toutes les possibilités. Par exemple, si l'on mesure la position d'une particule, on va
trouver la particule… quelque part !

On doit donc avoir :


2 2 2 2
(25) ψ A + ψ B + ψ C +L = ψ ψ =1

Les exemples que nous avons pris sont rigoureusement exacts si l'espace de Hilbert a un nombre
fini de dimensions. Les sommes sont alors clairement définies.

Dans le cas d'un nombre infini de dimensions (par exemple si la position peut être absolument
quelconque et pas limitée à deux fentes comme dans l'expérience de Young) il faut être prudent sur
les opérations précédentes. Si l'infini est non dénombrable (comme avec les positions), alors la
normalisation d'un état doit utiliser une fonction delta de Dirac et les sommes sont remplacées par
des intégrales.

Nous n'en dirons pas plus et il n'est pas nécessaire de préciser tout cela. Nous aurons l'occasion de
voir des exemples et de définir tout cela de manière plus précise.

Prenons maintenant quelques exemples très parlants avec la base position et la base impulsion.

Prenons un état d'impulsion bien définie. Dans ce cas, on aura :


(26) p = p( x1 ) x1 + p( x 2 ) x 2 + L
Et inversement, on peut utiliser la base impulsion pour un état de position bien définie et avoir :
(27) x = x( p1 ) p1 + x( p 2 ) p 2 + L

Prenons maintenant l'état correspondant à une particule pouvant tout autant être à la position x1
qu'à la position x 2 . Que donne-t-il dans la base position ? En fait, puisque c'est la somme de deux
états appartenant à la base, la décomposition est évidente :
1 1
(28) x1 + x2
2 2

Les facteurs racines carrées sont là pour normaliser l'état.

On peut aussi décomposer cet état sur la base impulsion (en ignorant les facteurs racines carrées) :
(29) x1 + x 2 = ( p1 x1 + p1 x 2 ) p1 + ( p 2 x1 + p 2 x 2 ) p 2 + L

Les états d'impulsion bien définie sont équivalent à des états ondulatoires de fréquence bien définie,
des ondes sinusoïdales. On voit que cette somme est simplement une superposition d'ondes, avec
une série de coefficient, ce qui donne deux "pics" pour les positions :
Cette opération est simplement une décomposition de Fourier.

C'est un peu comme avec les paquets d'ondes, sauf qu'ici on peut avoir n'importe quelle "forme"
pour l'onde.
Cet état, considéré sous l'angle ondulatoire, est tout de suite moins mystérieux qu'une particule
douée du don d'ubiquité et pouvant se trouver en deux endroits à la fois.

Fonction d'onde
Revenons à la décomposition d'un état quelconque sur la base position.
(30) ψ = ψ ( x1 ) x1 + ψ ( x 2 ) x1 + ψ ( x3 ) x3 + L

ψ ( x1 ) est un nombre, l'amplitude que l'état ψ corresponde à une particule située en x1 (lors d'une
mesure de la position), c'est-à-dire x1 ψ . L'ensemble des nombres, un pour chaque position, peut
donc être écrit comme ψ ( x ) . C'est une fonction qui donne l'amplitude de trouver la particule en
chaque point x . Cette fonction est appelée la "fonction d'onde".

En fait, le nombre d'états de position étant infini non dénombrable, (30) doit prendre la forme d'une
intégrale :
(31) ψ ( x ) = ∫ψ ( x ) x dx

Donc, lorsque l'on parle de fonction d'onde, on privilégie (habituellement) la base position, qui est
très pratique, et on n'utilise que cette fonction pour décrire la particule. La fonction d'onde est une
représentation souvent utilisée.

Donnons quelques exemples :


Etat p (correspond à une longueur d'onde précise)
Etat x1 + x 2

Paquet d'ondes

Onde localisée dans une petite région

C'est donc une représentation très pratique et très intuitive. La grandeur de la fonction d'onde donne
aussi (à peu de chose près) la probabilité de présence de la particule à cet endroit. Mais attention, il
y a quand même une différence importante. Une probabilité est un nombre positif compris entre 0
et 100 %, tandis qu'une amplitude à une grandeur et une phase (nombre complexe). Pour passer à la
probabilité il faut effectuer l'opération ψ ( x ) . Mais elle a l'avantage de préserver les proportions :
2

une grande amplitude est identique à une grande probabilité. Mais la différence transparaît quand
même dans les figures : dans le paquet d'onde, l'amplitude prend alternativement des valeurs
positives et négatives et, bien entendu, on ne représente que la grandeur de la fonction d'onde et pas
sa phase (cela donnerait un dessin compliqué et incompréhensible). Si l'on trace la "fonction de
probabilité" correspondant au paquet d'onde, on obtiendra quelque chose comme ceci :

Les parties négatives deviennent des probabilités négatives de même grandeur.

Dans les représentations ci-dessus de la fonction d'onde, on a représenté l'amplitude de la fonction


d'onde mais pas sa phase (ce serait difficile sur un graphique où en ordonnée on n'a qu'une valeur
possible alors que les nombres complexes ont deux valeurs). A une exception près. Dans la
représentation de l'état p nous avons dessiné une fonction oscillante pour montrer la variation de
la phase alors que la grandeur de la fonction d'onde est constante. C'est la phase que nous avons
montrée et pas l'amplitude ! Mais tracer une simple ligne horizontale n'aurait pas été très parlant.
Les états positions précises, eux, sont clairs, c'est bien l'amplitude de la fonction d'onde que nous
avons tracée.

La fonction d'onde est donc un peu plus générale qu'une onde classique. En effet, dans une onde, il
suffit de tracer la grandeur de l'onde dans l'espace pour avoir la phase : c'est simplement le décalage
par rapport à une position de référence. Tandis qu'ici, en chaque point, la grandeur et la phase
peuvent être quelconques. La fonction d'onde est plus qu'une onde classique et à la fois son
amplitude et sa phase en chaque point ont leur importance. Ceci est bien normal puisqu'une
particule quantique n'est pas un corpuscule mais n'est pas non plus une simple onde classique
(sinon il ne serait même pas nécessaire de développer une théorie pour les décrire).
VI.4. Interférences
Nous allons maintenant revenir à l'expérience de Young que nous avons déjà regardé plusieurs fois.
Cette fois-ci, nous allons utiliser toute la puissance de l'idée d'amplitude pour vous montrer
comment cela marche. Nous reprenons l'expérience mais en ajoutant une source de lumière derrière
les deux fentes afin d'observer par où passe l'électron.

Nous avions découvert le résultat intéressant suivant : lorsque nous regardions derrière la fente 1 et
voyions, venant de là, un photon diffusé, alors la distribution en x obtenue pour les électrons mis en
coïncidence avec ces photons était la même que si la fente 2 était fermée. La distribution totale des
électrons qui avaient été vus soit près de la fente 1, soit près de la fente 2 était la somme des
distributions (dues à chaque fente) et était complètement différente de la distribution obtenue quand
la lumière était éteinte. Ceci était vrai au moins lorsque nous utilisions une lumière de longueur
d'onde suffisament petite. Si nous augmentions la longueur d'onde de telle façon qu'il soit
impossible de savoir avec certitude près de quel trou la diffusion avait lieu, la distribution devenait
de plus en plus semblable à celle obtenue quand la source de lumière était éteinte.

Examinons ce qui se passe en utilisant nos nouvelles notations et les principes de combinaison des
amplitudes. Pour simplifier l'écriture, nous pouvons encore employer φ1 pour l'amplitude pour que
l'électron atteigne x par la fente 1, c'est-à-dire
(1) φ1 = x 1 1 S
De même, φ 2 sera l'amplitude pour que l'électron atteigne le détecteur en passant par la fente 2 :
(2) φ 2 = x 2 2 S

Ces amplitudes correspondent au passage à travers les deux trous et à l'arrivée en x lorsqu'il n'y a
pas de lumière. Maintenant, s'il y a une source de lumière, nous pouvons nous poser la question
"quelle est l'amplitude pour le phénomène au cours duquel l'électron atteint x et le photon est vu
derrière la fente 1 ?" Supposons que nous observions le photon derrière la fente 1 au moyen du
détecteur D1 et supposons aussi que nous utilisions un détecteur semblable D2 pour compter les
photons diffusés derrière la fente 2. Nous aurons une amplitude pour qu'un photon arrive en D1 et
un électron en x et une autre amplitude pour qu'un photon arrive en D2 et un électron en x.
Essayons de les calculer.

Bien que nous n'ayons pas les formules mathématiques correctes pour tous les facteurs qui
interviennent dans le calcul, vous en comprendrez l'esprit dans la discussion suivante. Tout d'abord,
nous avons l'amplitude 1 S pour que l'électron aille de la source à la fente 1. Ensuite, nous
pouvons supposer qu'il y a une certaine amplitude pour que l'électron diffuse un photon vers le
détecteur D1 tandis qu'il est près de la fente 1. Représentons cette amplitude par a. Nous avons
ensuite l'amplitude x 1 pour que l'électron aille de la fente 1 au détecteur d'électrons placé en x.
Notons quelque chose d'important ici. Nous supposons que l'amplitude pour que l'électron aille de
la fente 1 à x est inchangée. Que le photon soit diffusé ou pas, cette amplitude est la même. Nous
pourrions bien sûr supposer que la diffusion a quelque peu altéré le mouvement de l'électron et
affecté l'amplitude pour qu'il atteigne le détecteur. Mais cela ne ferait que compliquer les calculs
sans en changer le résultat de manière significative. Nous pouvons donc supposer que la
perturbation est aussi petite que désirée ce qui montre que les phénomènes observés ne sont pas dus
à une perturbation du mouvement de l'électron mais au simple fait que l'on a détecté le photon
diffusé. Cet élément qui peut sembler très étrange a priori sera fort important dans l'interprétation
de la mécanique quantique.

L'amplitude pour l'électron aille de S à x à travers la fente 1 et pour qu'il diffuse un photon vers D1
est alors
(3) x 1 a 1 S

Soit, dans notre précédente notation, aφ1 .

Il y a également une certaine amplitude pour qu'un électron passant à travers la fente 2 diffuse un
photon vers le compteur D1 . Vous allez dire, "mais c'est impossible ! Comment peut-il diffuser un
photon vers le compteur D1 si celui-ci ne regarde que la fente 1 ?". Si la longueur d'onde est
suffisament grande, il y a des effets de diffraction et cela est certainement possible. Si l'appareil est
bien construit et si nous utilisons des photons de petite longueur d'onde, alors l'amplitude pour
qu'un photon soit diffusé vers le détecteur 1 par un électron situé près de 2 est très petite. Mais,
pour conserver sa généralité à notre discussion, nous tiendrons compte du fait qu'il y a toujours une
telle amplitude que nous appellerons b. Alors l'amplitude pour qu'un électron passe à travers la
fente 2 et diffuse un photon vers D1 est
(4) x 2 b 2 S = bφ 2

L'amplitude pour trouver l'électron en x et le photon en D1 est la somme de deux termes, un pour
chacun des chemins possibles pour l'électron. Chaque terme est en fait composé de deux facteurs.
D'abord celui qui correspond au passage de l'électron à travers une fente et ensuite celui qui
correspond à la diffusion du détecteur 1 par un tel électron. Nous avons donc
électron en x électron quittant S
(5) = aφ1 + bφ 2
photon en D1 photon quittant L

Nous pouvons obtenir une expression similaire lorsque le photon est trouvé dans l'autre détecteur
D2 . Si nous supposons, par simplicité, que le système est symétrique, alors a est aussi l'amplitude
pour qu'il y ait un photon en D2 lorsque l'électron passe à travers la fente 2 et b est l'amplitude pour
qu'il y ait un photon en D2 lorsque l'électron passe à travers la fente 1. L'amplitude totale
correspondante pour un photon en D2 et un électron en x est
électron en x électron quittant S
(6) = aφ 2 + bφ1
photon en D2 photon quittant L

Nous avons maintenant terminé. Nous pouvons facilement calculer la probabilité dans des
situations variées. Supposons que nous voulions connaître avec quelle probabilité nous pouvons
obtenir un coup en D1 et un électron en x. Ce sera la valeur absolue du carré de l'amplitude donnée
par l'équation (5), précisément aφ1 + bφ 2 . Regardons soigneusement cette expression. Tout
2

d'abord si b est nul, ce que nous voudrions obtenir en construisant l'appareil, alors la réponse est
simplement φ1 diminué par le facteur a . Il n'y a pas de terme d'interférence est c'est là la
2 2

distribution de probabilité que vous obtiendriez s'il n'y avait qu'une seule fente, comme on le voit
sur la figure (a) ci-dessous.
Par ailleurs, si la longueur d'onde est très grande, la diffusion de la lumière derrière la fente 2 vers
D1 peut être exactement la même que pour la fente 1. Quoique a et b puissent contenir des phases
différentes, nous pouvons considérer le cas simple dans lequel les deux phases sont égales. Si a est
pratiquement égal à b, la probabilité totale devient φ1 + φ 2 multiplié par a , puisque a peut être
2 2

mis en facteur. Mais ceci n'est autre que ka distribution de probabilité que nous aurions obtenue
sans aucun photon du tout, avec un terme d'interférence. Par conséquent, dans le cas où la longueur
d'onde est très grande et où la détection des photons est inefficace, vous retrouvez la distribution
initiale où les effets d'interférences sont apparents, comme le montre la figure (b) ci-dessus. Dans le
cas où la détection est partiellement efficace, il y a interférence entre "beaucoup de φ1 " et "un peu
de φ 2 " et vous obtenez une distribution intermédiaire telle que celle qui est esquissée sur la figure
(c). Il est inutile de dire que, si nous cherchons une coïncidence entre les photons détectés en D2 et
les électrons en x, nous obtiendrons le même genre de résultat.

Maintenant il y a un point sur lequel nous voudrions insister pour que vous évitiez une erreur
courante. Supposez que vous vouliez seulement l'amplitude pour que l'électron arrive en x, quel que
soit le détecteur D1 ou D2 touché par le photon. Devez-vous ajouter les amplitudes données par les
équations (5) et (6) ? Non ! Vous ne devez jamais ajouter des amplitudes qui correspondent à des
états finaux différents et distincts. Une fois que le photon est détecté par un des compteurs de
photon, nous pouvons toujours déterminer, si nous le voulons, laquelle des deux possibilités s'est
réalisée, sans pour cela perturber le système. Chacune a une probabilité complètement
indépendante de l'autre. Nous répétons : n'ajoutez pas les amplitudes pour des conditions finales
différentes. Par "finales" nous voulons dire : les conditions qui correspondent au moment où nous
voulons obtenir la probabilité, c'est-à-dire quand l'expérience est "terminée". Par contre, vous
ajouterez les amplitudes pour des possibilités différentes et indiscernables au cours d'une même
expérience, c'est-à-dire avant que le phénomène ne soit complètement achevé. A la fin du
phénomène, vous pouvez dire que vous "ne désirez pas regarder les photons". C'est votre affaire,
mais vous n'ajoutez pas pour autant les amplitudes. La nature ne sait pas que vous être en train de
regarder et elle se comporte à sa façon, que vous daigniez ou non prendre note des résultats. Nous
ne devons donc pas ajouter les amplitudes dans ce cas. Nous prenons d'abord le carré des
amplitudes pour tous les différents événements finaux possibles, puis nous en prenons la somme.
Le résultat correct pour un électron en x et un photon soit en D1 , soit en D2 est
2 2
e en x e en S e en x e en S
+ = aφ1 + bφ 2 + aφ 2 + bφ1
2 2
(7)
ph en D1 ph en L ph en D2 ph en L

Notons tout de suite une faille dans le raisonnement ci-dessus qui semble pourtant rigoureux. Nous
avons dit que nous devons éviter d'ajouter les amplitudes quand les photons sont détectés en D1 ou
D2 car il s'agissait d'états finaux distincts. Pourtant, qu'est-ce qui différentie ces détecteurs du reste
du système ? Ce sont des éléments comme les autres, comme les fentes et les photons, et qui
devraient être décrit par la mécanique quantique.

Il y a un moyen de mettre clairement en évidence le problème. Supposons qu'au lieu de détecteurs,


les photons diffusés sont envoyés vers des miroirs de manière, au final, à ce qu'ils soient absorbés
par un et un seul détecteur. Dans ce cas les états finaux ne sont plus distincts. Pourtant, cela ne
change rien aux amplitudes de diffusion, à l'interaction des photons avec les électrons,… Comment
le devenir ultérieur des photons (détectés par D1 ou D2 ou par un autre détecteur commun), peut
être beaucoup plus tard et beaucoup plus loin, bien après la détection de l'électron sur l'écran,
pourrait-il influencer le résultat de l'impact de l'électron sur l'écran ? Cela semble absurde. Même si
la règle peut être appliquée avec rigueur. Cela a d'ailleurs donné lieu à l'étrange expérience dite du
choix différé (ou le choix des détecteurs est fait après détection de l'électron). On a l'impression
que c'est non l'observation des résultats mais la possibilité d'observer un résultat voire de déduire un
résultat à l'aide d'opérations ultérieures (la détection future des photons par des détecteurs) qui
semble guider le comportement des électrons. C'est un résultat totalement contraire à l'intuition et à
la limite de l'absurde (il y a même violation de la causalité puisqu'une action future peut influencer
un résultat).

Nous reviendrons plus tard sur cette difficulté qui est au cœur de l'interprétation de la mécanique
quantique et nous présenterons en détail l'expérience dite du choix différé.

Pour le moment nous n'avons pas besoin de trop nous en préoccuper car tout étrange que cela soit,
la règle établie plus haut est claire et rigoureuse et elle suffit pour apprendre la mécanique
quantique et son usage, ce qui est de toute façon indispensable avant d'en décortiquer certains
aspects subtils. Inutile d'essayer de comprendre une théorie que l'on ne connaît même pas !

Diffusion par un cristal


Notre exemple suivant est un phénomène dans lequel nous avons à analyser l'interférence des
amplitudes de probabilité avec quelque soin. Nous étudions le phénomène de diffusion des neutrons
par un cristal. Un cristal contient un grand nombre d'atomes, chacun ayant en son centre un noyau.
Ces atomes sont disposés de façon périodique. On envoie de très loin un faisceau de neutrons sur le
cristal. Nous pouvons numéroter les différents noyaux dans le cristal par le nombre i, où i prend les
valeurs entières 1, 2, 3,… N, N étant égal au nombre total d'atomes.

Le problème est de calculer la probabilité d'obtenir un neutron dans un compteur avec le dispositif
indiqué dans la figure ci-dessus. Pour un atome donné i, l'amplitude pour qu'un neutron atteigne le
compteur C est l'amplitude pour que le neutron aille de la source S au noyau i, multipliée par
l'amplitude a pour qu'il y soit diffusé, multipliée par l'amplitude pour qu'il aille de i au compteur C.
Ecrivons cela :
(8) neutron en C neutron quittant S par i = C i a i S

En écrivant cette équation nous avons fait l'hypothèse que l'amplitude de diffusion a était la même
pour tous les atomes. Nous avons un grand nombre de routes apparemment indiscernables. Elles
sont indiscernables parce qu'un neutron de basse énergie est diffusé par un noyau sans que l'atome
ne soit bousculé hors de sa place dans le cristal, la diffusion n'est pas "enregistrée". D'après la
discussion précédente, l'amplitude totale pour un neutron en C contient une somme de (8) sur tous
les atomes :
N
(9) neutron en C neutron de S = ∑ C i a i S
i =1

De fait que les amplitudes de diffusion que nous ajoutons progressivement proviennent d'atomes
situés en différents points de l'espace, les amplitudes ont différentes phases et donnent la figure
d'interférence caractéristique que nous avons déjà analysée dans le cas de la diffraction de la
lumière par un réseau.
Bien entendu, dans une telle expérience, on trouve que l'intensité des neutrons en fonction de
l'angle montre souvent de considérables variations, avec des pics d'interférence très pointus et
presque rien entre eux, comme dans la figure (a) ci-dessus. Cependant, pour certaines sortes de
cristaux cela ne se passe pas de cette façon et il y a, en plus des pics d'interférences cités ci-dessus,
un fond de diffusion dans toutes les directions. Il nous faut essayer de comprendre les raisons
apparemment mystérieuses de ce fond. Eh bien, nous n'avons pas encore considéré une propriété
importante du neutron. Il a un spin un demi, si bien qu'il y a deux états dans lequel il peut être : soit
spin "en haut" (disons perpendiculaire au plan de la figure), soit spin "en bas". Nous étudierons
attentivement cette propriété du spin plus tard mais nous pouvons déjà en constater quelques
conséquences. Si les noyaux du cristal n'ont pas de spin, le spin du neutron n'a aucun effet. Mais
quand les noyaux du cristal ont aussi un spin, disons un spin un demi, vous pouvez observer le fond
de diffusion, étalé dans toutes les directions, tel que nous l'avons décrit ci-dessus. L'explication est
la suivante.

Si le neutron a son spin dans une direction et si le noyau atomique a le même spin, alors aucun
changement de spin ne peut avoir lieu au cours du processus de diffusion (ceci est lié à la loi de
conservation du moment angulaire, nous y reviendrons). Si le neutron et le noyau ont des spins
opposés, alors deux processus de diffusion peuvent se produire, l'un dans lequel les spins sont
inchangés et l'autre au cours duquel les directions des spins sont échangées. La règle selon laquelle
il n'y a pas de changement de la somme des spins est analogue à la loi classique de conservation du
moment angulaire dont la version quantique est justement le spin. Nous pouvons commencer à
comprendre le phénomène si nous supposons que tous les noyaux diffuseurs sont disposés avec
leurs spins dans une même direction. Un neutron ayant la même direction sera diffusé suivant la
distribution attendue avec des interférences aiguës. Que se passera-t-il pour un neutron ayant son
spin en direction opposée ? S'il est diffusé sans changement de direction de spin, alors rien n'est
changé par rapport au cas ci-dessus, mais si les deux spins changent de direction au cours de la
diffusion nous pourrions, en principe, trouver à quel noyau est due la diffusion, puisqu'il serait le
seul à avoir son spin retourné. Bien, si nous pouvons dire à quel atome la diffusion est due, en quoi
les autres atomes peuvent-ils intervenir ? En rien, bien sûr. La diffusion est alors exactement la
même que celle par un atome isolé. Pouvoir analyser le cristal et déterminé quel atome a diffusé le
neutron est totalement analogue aux détecteurs permettant de savoir par quelle fente l'électron est
passé.

Pour tenir compte de cet effet, il faut changer la formulation mathématique de l'équation (9)
puisque, dans cette analyse, nous n'avons pas décrit complètement les états. Commençons par le cas
où tous les neutrons de la source ont leurs spins "en haut" et où tous les noyaux du cristal ont leurs
spins "en bas". Tout d'abord, nous aimerions connaître l'amplitude pour qu'un neutron arrivant dans
le compteur ait son spin en haut et pour que tous les spins du cristal soient encore en bas. Ceci n'est
pas différent de ce que nous venons de discuter. Soit a l'amplitude pour une diffusion sans
retournement de spin ou sans spin. L'amplitude de diffusion par le ième atome est bien entendu,
(10) C en haut , cristal en bas S en haut , cristal en bas = C i a i S

Comme tous les spins atomiques sont encore en bas, les différentes possibilités (les différentes
valeurs de i) ne peuvent pas être distinguées. Clairement, il n'y a aucune façon de dire quel est
l'atome qui causa la diffusion. Dans ce processus, toutes les amplitudes interfèrent.

Il y a un autre cas, cependant, où le spin du neutron détecté est en bas bien qu'il ait quitté S avec
son spin en haut. Dans le cristal, l'un des spins doit donc être changé en un spin en haut, disons
celui du kième atome. Nous supposerons que l'amplitude de diffusion avec retournement de spin,
soit b, est la même pour tous les atomes (dans un cristal réel, il y a encore la possibilité désagréable
que ce retournement de spin se propage jusqu'à un autre atome, mais nous prenons le cas d'un
cristal pour lequel cette probabilité est très petite). L'amplitude de diffusion est alors
(11) C en bas , noyau k en haut S en haut , cristal en bas = C k b k S

Si nous cherchons la probabilité de trouver le neutron spin en bas et le kième noyau spin en haut, il
2 2
suffit de prendre le module de cette amplitude, ce qui est simplement b fois C k k S . Le
second facteur est presque indépendant de la position dans le cristal et toutes les phases ont disparu
lorsqu'on a pris le carré du module. La probabilité de diffusion par un noyau quelconque du cristal,
avec retournement de spin est alors
N


2 2
(12) b C k k S
k =1
ce qui correspond à une distribution régulière comme celle de la figure (b) ci-dessus.

Vous pouvez protester : "je ne me soucie pas de savoir quel atome a son spin en haut". C'est
possible, mais la nature, elle, le sait et, de fait, la probabilité est bien ce que nous avons donné ci-
dessus, il n'y a aucune interférence. Par ailleurs, si nous cherchons la probabilité pour que le spin
soit en haut au niveau du détecteur et que tous les atomes aient encore leurs spins en bas, alors nous
devons prendre le module de
N
(13) ∑CiaiS
i

Comme les différents termes de cette somme ont des phases, ils interfèrent, et nous obtenons une
figure d'interférences avec des interférences aiguës. Si nous faisons une expérience dans laquelle
nous n'observons pas le spin du neutron détecté, alors les deux types d'événements peuvent se
produire et les probabilités de chacun s'ajoutent. La probabilité totale (ou le taux de comptage) est
une fonction de l'angle qui a l'allure indiquée sur la figure (c).

Résumons le contenu physique de cette expérience. S'il vous était possible, en principe, de
distinguer les différentes possibilités en tant qu'états finaux (même si vous ne vous souciez pas de le
faire), la probabilité totale de l'état final est obtenue en calculant la probabilité pour chaque état (et
non l'amplitude) et en les ajoutant ensembles. Si vous ne pouvez pas distinguer les états finaux
même en principe, alors les amplitudes de probabilité doivent être ajoutées avant de prendre le
module pour trouver la bonne probabilité. La chose que vous devez noter tout particulièrement est
que si vous essayiez de représenter le neutron par une seule onde, vous obtiendriez le même genre
de distribution pour la diffusion d'un neutron ayant son spin en bas et d'un neutron ayant son spin
en haut. Il vous faudrait dire que "l'onde" provient de tous les atomes et interfère exactement
comme celle qui représente un neutron spin en haut et de même longueur d'onde. Mais vous savez
que cela ne marche pas comme cela. Comme nous l'avons déjà dit précédemment, nous devons
donc faire attention à ne pas attribuer à ces ondes trop de réalité dans l'espace. Elles sont utiles pour
certains problèmes mais pas tous.
Exercices
1. Un jet d'atomes d'argent est produit à partir d'un four à 1200 °C. Si le jet parcourt 1 mètre,
utilisez les relations d'indétermination afin de trouver l'ordre de grandeur du plus petit spot qui
peut être obtenu au détecteur.
2. Un fusil met 0.5 seconde pour atteindre sa cible. En considérant les balles comme des masses
ponctuelles et en négligeant les frottements de l'air et le mouvement de la Terre, trouvez l'ordre
de grandeur de la dispersion des tirs sur la cible sous des conditions optimales de visée et de tir.
3. Une balle de ping-pong parfaitement élastique est lâchée dans le vide d'une hauteur égale à dix
fois son rayon sur une sphère fixe parfaitement élastique de même rayon. En négligeant les
effets dus au mouvement de la terre, estimez le plus grand nombre de rebonds contre la sphère
fixe que la balle peut s'attendre à faire dans des conditions optimales de chute.
4. Un jet d'électrons monoénergétiques est utilisé pour exciter un niveau particulier d'un atome. Si
ce niveau est de courte durée, libérant du rayonnement en revenant à l'état de base, montrez que
les électrons diffusés de manière inélastique qui ont perdu de l'énergie pour produire le niveau
excité ne seront pas tous dans le même état final d'énergie. Si le niveau excité dure environ
10 −16 sec , quel est l'ordre de grandeur de dispersion de l'énergie des électrons, mesurée en
électronvolts ?
5. Discutez de toutes les relations que vous pouvez imaginer entre les différentes relations
d'indétermination.