Académique Documents
Professionnel Documents
Culture Documents
MECANIQUE QUANTIQUE
PHY315
Cours de Licence de Physique
2 Déterminants 32
2.1 Le groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.1.1 Structure de Sn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.1.2 Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.1.3 Cycles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2 Applications multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2.2 Applications multilinéaires alternées . . . . . . . . . . . . . . . . . . . . . 39
2.3 Déterminant d’une famille de n vecteurs dans une base d’un ev de dimension n . . 41
2.3.1 Espace Λn (E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.4 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.5 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.6 Développement par rapport à une rangée . . . . . . . . . . . . . . . . . . . . . . . 49
2.6.1 Cofacteurs et mineurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
ii
TABLE DES MATIÈRES TABLE DES MATIÈRES
2.6.2 Comatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.7 Calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.7.1 Déterminant d’une matrice triangulaire . . . . . . . . . . . . . . . . . . . 56
2.7.2 Manipulation des lignes et des colonnes . . . . . . . . . . . . . . . . . . . 56
2.7.3 Cas n = 2, n = 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.7.4 Déterminant d’une matrice triangulaire par blocs . . . . . . . . . . . . . . 58
2.8 Système affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.8.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.8.2 Résolution dans le cas d’un système de Cramer . . . . . . . . . . . . . . . 60
iii
TABLE DES MATIÈRES TABLE DES MATIÈRES
iv
TABLE DES MATIÈRES TABLE DES MATIÈRES
v
TABLE DES MATIÈRES TABLE DES MATIÈRES
vi
TABLE DES FIGURES
5.1 Codage quantique. Le qubit |ψi = α|0i + β |1i (avec α = cos θ2 , β = ei ϕ sin θ2 et
|α|2 + |β |2 = 1), offre une description différente des systèmes physiques. Les états
binaires classiques sont aux pôles de la sphère. Il opère dans un univers multidi-
mensionnel, ses états propres correspondent à la surface de la sphère, alors que les
états logiques classiques correspondent aux pôles de cette sphère. . . . . . . . . . 94
5.2 Qubit représenté par deux états électroniques d’un atome. . . . . . . . . . . . . . . 95
5.3 Dispositif des fentes de Young et interférence lumineuse. . . . . . . . . . . . . . . 96
5.4 Figures d’interférence obtenues avec des électrons uniques. Le nombre d’électrons
sur le détecteur augmente au cours du temps. Le temps d’exposition entre la figure
(a) et la figure (d) est multiplié par 20. (a) 8 électrons ; (b) 270 électrons ; (c) 2000
électrons ; (d) 6000 électrons. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.5 Expériences de Mach Zehnder 1 et 2. . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.6 Expériences de Mach Zehnder 3 et 4. . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.7 Le chat de Schrödinger dans la boîte d’acier. Tant que la boîte reste fermée, le chat
est dans un état superposé mort et vivant. . . . . . . . . . . . . . . . . . . . . . . . 102
vii
LISTE DES TABLEAUX
viii
CHAPITRE 1
Sommaire
1.1 Espace vectoriel, sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . 1
1.2 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 Cas particulier : F = K (Formes linéaires et dualité) . . . . . . . . . . . 7
1.3 Notion de Matrice. Matrice d’une application linéaire . . . . . . . . . . . . . 14
1.3.1 Notion de Matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.2 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . 17
1.3.3 Opération sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3.4 Calcul Matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1
Chapitre 1. Espaces vectoriels et Matrices 1.1. Espace vectoriel, sous-espaces vectoriels
K
2. ∀(λ , µ) ∈ 2 , ∀x ∈ E, λ ⊥(µ⊥x) = (λ ⊥µ)⊥x et e⊥x = x ; e étant l’élément
K
neutre de ( , ⊥)
1. (E, +) est un groupe commutatif (OE est l’élément neutre et le symétrique d’un élé-
ment est son opposé).
2.
3.
Tous les ensembles vectoriels que l’on utilise sont des sous-espaces vectoriels d’un en-
semble vectoriel, c’est-à-dire qu’ils sont des sous-ensembles sur lesquels on applique
localement les opérations de l’espace entier.
Démonstration
Parmi les 8 propriétés de la définition 1.1, celles qui ne font intervenir que le quantificateur ∀
(associativités, commutativité, distributivités), puisqu’elles sont vraies dans E, restent vraies
dans F à cause de 1.7. Il suffit donc de vérifier les 2 propriétés impliquant une existence
(élément neutre et opposé). Nous devons démontrer que F contient le vecteur nul, ainsi
que l’opposé de tout vecteur de F. Le vecteur nul OE s’écrit O.u pour tout vecteur u de F.
Comme F est non vide, le vecteur nul est donc dans F. De même si u est un vecteur de F,
alors son opposé, qui s’écrit (−1)u est aussi dans F.
∑ λi ai = 0 (1.8)
i∈I
Autrement dit, s’il existe une combinaison linéaire "non triviale" des {ai }i∈I qui est nulle ; Une
telle relation est une relation de dépendance linéaire entre les vecteurs. On dit aussi que les vecteurs
{ai }i∈I sont linéairement dépendants.
Dans le cas où il n’existe pas de relation de dépendance linéaire, on dit que la famille {ai }i∈I est
libre ou linéairement dépendante ou encore que les vecteurs a1 , . . . , ai , . . . forment un système
libre. On dit alors aussi que les vecteurs sont linéairement indépendants.
Lemme 1.1
La famille {ai }i∈I est libre si et seulement si pour toute famille finie de scalaire {λ j } j∈J⊂I ,
on a :
∑ λ j a j = 0 ⇒ ∀ j ∈ J, λ j = 0. (1.9)
j∈J
Remarque 1.2
Lemme 1.2
La famille de vecteurs {ai }i∈I est liée si et seulement l’un des vecteurs ai peut s’écrire
comme combinaison linéaire des autres.
Lemme 1.3
Si la famille {ai }i∈I est liée, ∀ω ∈ E, la famille {ai }i∈I ∪ {ω} est liée. En particulier, toute
famille qui contient le vecteur nul est liée.
Soit {ai }i∈J une famille de vecteurs de E. {ai }i∈J est une famille génératrice de E si et
seulement si :
∀x ∈ E, ∃{λ j } j∈J / x = ∑ λ j a j (1.10)
j∈J
On dit alors que la famille {ai }i∈J engendre E ou est un système générateur de E. Alors on
écrit E = Vect(a1 , a2 , . . . , ai , . . . )
Proposition 1.1
Si un espace vectoriel E est engendré par un système de n vecteurs, alors tout système de
n + 1 vecteurs de E est lié.
Théorème 1.2
Si E admet une base formée de n vecteurs, alors toute base de E sera de n vecteurs.
Définition 1.5
On dit qu’un espace vectoriel E 6= {0} est de dimension finie s’il admet au moins une famille
génératrice finie.
Proposition 1.2
Un ev de dimension finie admet une base finie.
Remarque 1.3
Lorsque l’on parle de famille de vecteurs libres ou liées, l’ordre des vecteurs n’a pas d’im-
portance. Par contre s’agissant de bases, on considérera que deux systèmes constitués de
mêmes vecteurs, écrits dans un ordre différent, sont deux bases distinctes. C’est pourquoi,
on préférera noter une base sous la forme (ai )i∈I plutôt que {ai }i∈I .
∀u ∈ E, ∃ !(λi )i∈I ∈ K/ u = ∑ λi ei
i∈I
u = ∑ λi ei = ∑ µi ei
i∈I i∈I
⇒ ∑ (λi − µi) ei = 0
i∈[I]
⇒ λi = µi , ∀i ∈ I car B est libre.
Proposition 1.3
Soit E un K-ev de dimension finie n.
• Si L est un système libre de n vecteurs de E, alors L constitue une base de E.
Définition 1.7
Soient E et F deux espaces vectoriels sur K. Une application f : E 7−→ F est linéaire
si :
2. ∀a ∈ K, ∀u ∈ E, f (a.u) = a. f (u)
Remarque 1.4
(1) et (2) peuvent être regroupées en une seule :
(ii) f (0) = 0 ;
K,
n n
(iii) ∀u1 , . . . , un ∈ E, λ1 , . . . , λn ∈ f ( ∑ λi ui ) = ∑ λi f (ui )
i=1 i=1
Exemple 1.1
Vocabulaire
. Une application linéaire d’un espace vectoriel dans lui-même est appelé endomorphisme.
Remarque 1.5
L’ensemble L (E, F) de toutes les applications linéaires du K-ev E vers le K-ev F peut-être
muni d’une structure d’espace vectoriel sur par K
. addition : f + g : E 7−→ F, ( f + g)(u) = f (u) + g(u), ∀u ∈ E
Proposition 1.4
Si B = (ei )i∈[n] est une base de E, alors les applications "coordonnéees" pri : E 7−→ R
définies par pri (x1 e1 + · · · + xn en ) = xi sont linéaires.
Proposition 1.5
Si B = (ei )i∈[n] est une base de E, alors toute forme linéaire sur le K.ev E, f : E 7−→ K, est
définie par :
n n
f ( ∑ xi ei ) = ∑ xi f (ei ).
i=1 i=1
Proposition 1.6
Toute application linéaire est définie par ses valeurs sur une base.
Démonstration
Qu’est ce que celà signifie ? Considérons f : E 7−→ F une application linéaire et B =
(e1 , . . . , en ) une base de E. Nous prétendons qu’il suffit de connaître les seules images des
n
éléments de la base pour déterminer entièrement f . En effet, soit x = ∑ xi ei un vecteur
i=1
n n
quelconque de E. Soient ∀i ∈ [n], bi = f (ei ) ∈ F. Alors : f (x) = f ( ∑ xi ei ) = ∑ xi f (ei ) .
i=1 i=1
Autrement dit, lorsque l’on connaît les images f (ei ) des ei , on connaît l’image par f de tout
vecteur x ∈ E.
Remarque 1.6
0
Les f (ei ) sont des vecteurs de F, par conséquent, en choississant une base B = (g1 , . . . , gm )
m
de F, on peut aussi écrire les f (ei ) dans cette base : f (ei ) = ∑ α ji g j . A f est donc aussi
j=1
associée une "matrice" à m lignes et n colonnes qui détermine f de manière unique.
Rappelons que si f : E 7−→ F et g : F 7−→ G sont deux applications, on peut les composer
pour faire une application, notée g ◦ f de E dans G définie ainsi :
g ◦ f : E 7−→ F
x 7−→ (g ◦ f )(x) = g( f (x))
Lemme 1.4
La composée g ◦ f de deux applications linéaires f : E 7−→ F et g : F 7−→ G est une appli-
cation linéaire de E 7−→ G
Proposition 1.7
Si f : E 7−→ F est une application linéaire bijective, il existe une application linéaire
g : F 7−→ E telle que g ◦ f = IdE et f ◦ g = IdF . L’application g ainsi définie est appelée
application réciproque de f et notée f −1
Espace dual
K K
L’espace dual d’un -ev E est l’ensemble L (E, ) des formes linéaires sur E. L’espace
K K
dual du -ev E est donc un -ev. Il est noté E ∗ . Si E est de dimension finie, E et E ∗ sont
isomorphes.
Base duale
dimE = n
Proposition 1.8
Soit B = (e1 , . . . , en ) une base de E. On note (e∗1 , . . . , e∗n ) les formes linéaires coordonnées
dans la base E . Auterment dit, on a he∗i , e∗j i = δi j . Alors B ∗ = (e∗1 , . . . , e∗n ) est une base de
E ∗.
∀ j ∈ [n], e∗i (e j ) = δi j
Démonstration
D’abord, les e∗i (1 ≤ i ≤ n) sont bien des éléments de E ∗ . Soient ϕ ∈ E ∗ , (λ1 , . . . , λn ) ∈ Kn ,
on a :
n n
∑ λi e∗i = ϕ ⇔ (∀ j ∈ {1, . . . , n}, ( ∑ λi e∗i ) j = ϕ(e j ))
i=1
i=1
⇔ (∀ j ∈ [n], λ j = ϕ(e j ))
n
ϕ = ∑ ϕ(ei )e∗i
i=1
n
si l ∈ E ∗, alors l = ∑ hl, ei i e∗i
i=1
Formes bilinéaires
K
Dans ce qui suit, = R donc E est un R − ev de dimension finie.
Soit f une application de E × E dans R ( f ∈ L (E × E R )) et par Q l’application de E dans R
définie par Q(x) = f (x, x).
Définition 1.11 Forme bilinéaire
L’application f est appelée forme bilinéaire si et seulement si pour tout y fixé dans E,
l’application qui à y associe f (x, y) est linéaire, et si, pour tout x fixé dans E, l’application
qui à y associe f (x, y) et linéaire.
Autrement dit :
∀x, x0 , y, y0 ∈ E, ∀λ , µ ∈ R,
Remarque 1.7
Si f est bilinéaire, on a : ∀x, y ∈ E, ∀y ∈ R,
Définition 1.13
Deux vecteurs x et y sont dits orthogonaux pour f si
f (x, y) = 0
A⊥ = {x ∈ E/ f (x, y) = 0, ∀y ∈ A}
Théorème 1.5
L’orthogonal de A est un ev sur R.
Démonstration
En effet, si x et x0 sont dans A⊥ et si λ et µ ∈ R, ∀y ∈ A
et donc
λ x + µx0 ∈ A⊥
Définition 1.18
Une forme bilinéaire symétrique f est dite non dégénérée si le noyau de f est réduit à OE .
Définition 1.19
Une forme bilinéaire symétrique de f est dite positive si,
∀x ∈ E, Q(x) ≥ 0
Proposition 1.9
Une forme bilinéaire symétrique est non dégénérée, si et seulement si Q(x) est nul unique-
ment si x est nul.
Si f est dégénérée, le sous-espace E ⊥ n’est pas réduit à zéro et ses éléments sont des vecteurs
isotropes. Il existe donc x non nul, tel que Q(x) soit nul.
Réciproquement, si f n’est pas dégénérée, soit x un vecteur isotrope. On a alors, ∀y ∈ E, λ ∈
R,
0 ≤ Q(λ x + y) = λ 2 Q(x) + 2λ f (x, y) + Q(y) = 2λ f (x, y) + Q(y),
et cette inégalité n’est vraie ∀λ que si f (x, y) est nul. Donc, ∀y, le nombre f (x, y) est nul, ce
qui prouve que x ∈ E ⊥ = {0}. Donc x est nul.
Produit scalaire
Définition 1.20
• On appelle produit scalaire sur E, une forme bilinéaire symétrique positive et non
dégénérée sur E ou définie positive.
définie : f (x, y) = 0 ⇒ x = 0 ; positive : ∀x ∈ E, f (x, y) ≥ 0
Définition 1.21
Une forme sesquilinéaire sur un ev complexe E est une une application de E × E dans C,
linéaire selon l’une des variables et semi-linéaire (anti-linéaire) par rapport à l’autre variable.
Conventionnellement, on choisit qu’elle soit anti-linéaire par rapport à la première variable
et linéaire par rapport à la deuxième variable. ie
∀x, x0 , y, y0 ∈ E, ∀ λ , µ ∈ C, on a :
Définition 1.22
On dira que la forme sesquilinéaire est hermitienne, si
(iv) hx, xi ∈ R+
(v) hx, xi = 0 ⇒ x = 0
Ainsi
n n
hx|yi = ∑ ∑ xi y j hei|e j i
i=1 j=1
n
Si la base B est orthonormée, alors hei |e j i = δi j et hx|yi = ∑ xi yi
i=1
n
• On a aussi x = ∑ hx|ei iei
i=1
n
En effet, hx|e j i = ∑ xi hei |e j i = x j
i
• Ainsi, |xi |2 = xi∗ xi peut être interprété comme la probabilité de réalisation du vecteur x
dans la direction ei .
L’image de (i, j) sera notée ai j et la matrice M : (i, j) 7−→ ai j sera notée M = (ai j ) i∈I ≡ [ai j ] i∈I
j∈J j∈J
Dans la pratique on supposera I = Nn et J = N p , et on parlera de matrice de type (n,p). On
représentera alors une matrice M = [ai j ] i∈Nn par un tableau rectangulaire :
j∈N p
a11 a12 · · · a1p
· · · a2p
a21 a22
.
. .. .. .. ,
. . . .
an1 an2 · · · anp
en convenant que l’image du couple (i, j) ∈ Nn × N p est l’élément situé à l’intersection de la i-ième
ligne et de la j-ième colonne.
Plus généralement, si I et J sont des ensembles totalement ordonnés, on peut représenter la
matrice par un tableau en rangeant les i ∈ I dans l’ordre croissant de haut en bas et les j ∈ J dans
l’ordre croissant de gauche à droite.
Notation : L’ensemble des matrices de types (n, p) à coefficients dans E sera noté Mn,p (E). S’il
n’y a pas d’ambiguïté, on peut se dispenser d’écrire le K-ev E. On dira (n, p) matrice ou, matrice
(n × p) pour matrice de type (n, p) ; E-matrice ou matrice sur E, pour matrice à éléments dans E.
Définition 1.25 Sous-matrices
Soit M une E-matrice de type I × J, on appelle sous-matrice de M (ou matrice extraite de
0 0 0 0 0 0
M) toute restriction de M à I × J avec I ⊂ I et J ⊂ J; (I 6= 0,
/ J 6= 0)
/
a11 a12 · · · a1p a11
a22 · · · a2p a21 a22 O
. , . .
... . . .. . . .
. .
O anp an1 an2 · · · anp
∀(i, j) ∈ N2n i 6= j ⇒ ai j = 0
a11 O
a22
...
O ann
Définition 1.30
On appelle matrice scalaire, toute matrice diagonale dont les éléments diagonaux sont
La matrice unité est donc une matrice diagonale dont les éléments sont tous égaux à 1.
C’est donc une matrice scalaire particulière.
K
Soient E et F deux ev sur un même corps , de dimensions finies respectives p et n (p > 0 et
n < 0), munis des bases BE = (e1 , . . . , e p ) et BF = ( f1 , . . . , f p ) .
∀x ∈ E, ∃!(αi )i∈[p] / x= ∑ αj ej
j∈[p]
∀y ∈ F, ∃!(β j ) j∈[n] / y= ∑ βi fi
i∈[n]
⇒ u(x) = ∑ ( ∑ ai j α j ) f i
i∈[n] i∈[p]
∀i ∈ Nn , βi = ∑ ai j α j (1.11)
j=[p]
∀ j ∈ N p, u(e j ) = ∑ ai j fi.
i∈[n]
Dans la pratique, on retiendra que les éléments de la j-ième colonne de la matrice sont les
composantes, dans la base BF , de l’image par u du j-ième vecteur de la base BE , selon le schéma :
(1.13)
Théorème 1.6
K
Les bases BE et BF des -ev E et F étant choisies, l’application qui à u 7−→
Mat(u; BE , BF ) est une bijection de LK (E, F) sur tel que M(n,p) ( ). K
Démonstration
K
Étant donné la matrice M = (ai j ) ∈ M(n,p) ( ), cherchons u ∈ LK (E, F) tel que M =
Mat(u; BE , BF ), ie tel que :
Np
n
∀j ∈ u(e j ) = ∑ ai j fi
i=1
On sait qu’une application linéaire est déterminée de manière unique par la donnée des
images des vecteurs d’une base de l’espace de départ : on obtient donc une, et une seule ap-
plication u. On notera que, dépendant du choix des bases, cette bijection n’est pas canonique.
K K
Cependant, dans le cas particulier où E = p , F = n , nous qualifions de bijection cano-
K K K
nique de L ( p , n ) sur M(n,p) ( ) l’application qui à u associe la matrice qui représente u
K K
dans les bases canoniques de p et de n , et nous dirons que u et M sont canoniquement
associées.
A = Mat(u; BE , BF ) et B = Mat(v; BE , BF ),
(
A + B = Mat(u + v; BE , BF )
(1.14)
λ A = Mat(λ u; BE , BF )
Or nous avons,
∀ j ∈ N p, u(e j ) = ∑ ai j f i et v(e j ) = ∑ bi j fi
i∈[n] i∈[n]
(u + v)(e j ) = u(e j ) + v(e j ) = ∑ (ai j + bi j ) fi
i∈[n]
⇒
(λ u(e j ) = λ u (e j ) = ∑ λ ai j fi
i∈[n]
K
Ce qui prouve que A + B et λ A sont les matrices de M(n,p) ( ) définies par :
Définition 1.32 Opérations sur les matrices
(
A + B = [ai j + bi j ]
(1.15)
λ A = (λ ai j )
K K
Ainsi, muni des lois définies par 1.14, M(n,p) ( ) est un -ev isomorphe à LK (E, F), et
donc de dimension np. En fait, les mêmes lois pouvant être définies par 1.15, la structure
d’espace vectoriel est ainsi indépendante du choix des espaces E et F, et des bases BE et
BF . Elle est donc canoniquement isomorphe à la structure d’ev de LF ( p , n ), dans la K K
K K
mesure où on convient de rapporter p et n à leurs bases canoniques.
K
n n
∀M ∈ M(n,p) ( ), avec M = ai j : M=∑ ∑ ai j Mi j
i=1 j=1
n n
D’autre part, ∑ ∑ ai j Mi j n’est égal à On,p que si et seulement si tous les ai j sont nuls.
K
i=1 j=1
(Mi j )i∈[n], j∈[p] constitue donc une base de M(n,p) ( ) que nous appelons la base canonique
K K
de M(n,p) ( ). C’est en fait la base canonique de l’espace vectoriel I×J , ou encore l’image par
l’isomorphisme canonique de la base canonique de LF ( p , n ). K K
Produit de matrices
Proposition 1.10
K
Soient E, F et G des .ev de dimensions finies non nulles p, n, m munis des bases
BE , BF , BG , et soient deux applications linéaires u : E 7−→ F et v : F 7−→ G on pose :
Alors la matrice Mat(v ◦ u; BE , BG ) que nous noterons C = (Cik ) est donnée par :
n
∀(i, k) ∈ Nn × N p , cik = ∑ bi j a jk
j=1
Démonstration
On notera que i, j, k parcourent respectivement Nm , Nn , N p . Les Cik sont données par les
relations :
n
(v ◦ u)(ek ) = ∑ cik gi
i=1
n
En utilisant u(ek ) = ∑ a jk f j , on a :
j=1
n
(v ◦ u)(ek ) = ∑ a jk v( f j )
j=1
n m
= ∑ a jk ( ∑ bi j ) gi
j=1 i=1
m n
= ∑ ( ∑ bi j a jk )gi)
i=1 j=1
On note
C = BA
• Il est facile de voir que le produit matriciel n’est pas commutatif, c’est-à-dire
AB 6= BA. (1.17)
B : n lignes q colonnes
b11 ... b1 j ... b1q
.. ... .. .. ..
. . . .
bk1 ... bk j ... bkq
.. .. .. .. ..
. . . . .
bn1 ... bn j ... bnq
.. ... .. .. .. .
... .. .. ..
..
. . . . . . .
ik × b+
n
a
i1 ... aik ... ain ci1
... ci j ... ciq
ain
i1
.. .. .. .. . .. .. ..
... .. ...
. . . .
. . .
a
m1 ... amk ... amn c
m1 ... cmk ... cmq
1
a1
b2
×
2
a1
a11 × b
12
+
b21 b22 b21 b22 b21 b22 ×+ b21 b22
×
+ a 21
21
b 22
1
×b
a2
×
a 22
2
a2
a11 a12 c11 c12 a11 a12 c11 c12 a11 a12 c11 c12 a11 a12 c11 c12
a a22 c c22 a a22 ; c21 c22 a a22 c c22 a a22 c c22
21 21 21 21 21 21 21
C11 = a11 b11 + a12 b21 C12 = a11 b12 + a12 b22 C21 = a21 b11 + a22 b21 C22 = a21 b12 + a22 b22
on a
! ! !
1 2 5 6 19 22
AB = = , (1.18b)
3 4 7 8 43 50
! ! !
5 6 1 2 23 34
BA = . (1.18c)
7 8 3 4 31 46
a) Associativité
K K K
Soient les matrices C ∈ Ml,m ( ), B ∈ Mm,n ( ), A ∈ Mn,p ( ). On peut ainsi définir les ma-
trices C(BA) et (CB)A ; ces matrices sont égales.
K K
b) Bilinéarité de l’application (B, A) 7−→ BA de Mm,n ( )× ∈ Mn,p ( ) dans Mm,p ( ). On a : K
(B1 + B2 ) A = B1 A + B2 A
B (A1 + A2 ) = BA1 + BA2
λ (BC) = (λ B)C = B(λC)
Ces propriétés sont des conséquences des propriétés analogues des applications linéaires.
Mat(u; BE , BF ) = M avec M = ai j .
L’application s’écrit :
p n p
u
x= ∑ α j e j 7−→ y = ∑ βi fi; βi = ∑ ai j α j , 1≤i≤n
j=1 i=1 j=1
∀(x, y) ∈ E × F y = u(x) ⇔ Y = MX
Trace
Proposition 1.11
1. L’application
K
tr : Mn ( ) 7−→ K est une forme linéaire.
A 7−→ tr(A)
C’est-à-dire :
K
2. ∀A ∈ Mn,p ( ), ∀B ∈ M p,n ( ), K tr (AB) = tr (BA)
Démonstration
n n n
tr (α A + B) = ∑ (α aii + bii ) = α ∑ aii + ∑ bii = α tr (A) + tr (B)
i=1 i=1 i=n
3. D’après 1
tr P−1 AP) = tr (P−1 (AP) = tr ((AP)P−1 ) = tr (A)
On verra plus loin que cette proposition signifie que la trace d’une matrice ne dépend
pas de la représentation (base) choisie. C’est donc une propriété caractéristique ou
intrinsèque à une application linéaire.
K
Soient E un -ev de dimension finie, f ∈ L (E). On appelle trace de f , et on note tr ( f ),
la trace de n’importe quelle matrice carrée représentant l’endomorphisme f .
∀α ∈ K, ∀ f , g ∈ L (E), tr (α f + g) = α tr ( f ) + tr (g)
Blocs
Décomposition en blocs
• n0 = p0 = 0
k
• σk = ∑ ni , pour k ∈ {0, . . . , s}
i=0
l
• τl = ∑ p j , pour l ∈ {0, . . . ,t}
j=0
aσk−1 +1τl−1 +1 · · · aσk−1 +1τl
.. ..
Bk,l =
. .
aσk τl−1 +1 ··· aσk τl
K
de Mnk ,pl ( ) est appelée le (k, l)-ième bloc dans la décomposition de A en blocs suivant le
découpage (n1 , . . . , ns ) pour les lignes et (p1 , · · · , pt ) pour les colonnes :
K K K
X,Y ∈ Mn,p+q ( ), pour X ∈ Mn,p ( ), Y ∈ Mn,q ( ).
•
!
A B
C D
K
∈ Mn+p ( ), pour A ∈ Mn ( ), K K
B ∈ Mn,p ( ), K
C ∈ M p,n ( ), D ∈ Mp ( ) K
•
!
a L
C B
K
∈ Mn+1 ( ), pour a∈ K, K
L ∈ M1,n ( ), K
C ∈ M1,n ( ), K
B ∈ Mn ( ).
Remarque 1.8
1. Si A est une matrice carrée, nous n’utiliserons, sauf exception, que des décompositions
en blocs pour lesquelles s = t et (n1 · · · ns ) = (p1 · · · ps )
!
B11 · · · B1s
A=
Bs1 · · · Bss
Dans ce cas, les blocs Bkk (k ∈ {1, · · · , s}) sont appelés les blocs diagonaux de la
décomposition de A en blocs.
K K
Soient λ ∈ , A, B ∈ Mn,p ( ). Si A et B sont décomposées en blocs avec le même décou-
page, alors λ A + B admet la décomposition en blocs (avec le même découpage) obtenue en
combinant les blocs situés aux mêmes places :
A11 · · · A1t B11 · · · B1t λ A11 + B11 · · · λ A1t + B1t
. .
. . ... + ... . . . ... = .. ... ..
λ .. . .
As1 · · · Ast Bs1 · · · Bst λ As1 + Bs1 · · · λ Ast + Bst
Exemple 1.3
K
Soient A ∈ Mn,p ( ), B ∈ M p,q ( ) K
A11 · · · A1t BB11 · · · B1t 0
. .
. . ... , ... ... ..
A= .. .
As1 · · · Ast Bs0 1 · · · Bs0t 0
des décompositions en blocs de A et B telles que :
0 0 0
s = t, (n1 , . . . , ns0 ) = (p1 , . . . , pt )
Démonstration
0 0 0
Soient (i, j ) ∈ {1, . . . , n} × {1, . . . , q}. Il existe (k, l ) ∈ {1, . . . , s} × {1, . . . ,t } unique tel
que :
p p1 p1 +p2 p
∑ ai j b j j0 = ∑ ai j b j j0 + ∑ ai j b j j 0 + · · · + ∑ ai j b j j0
j=1 j=1 j=p1 +1 j=p1 +···+pt−1 +1
p1 p2
Mais, ∑ ai j b j j0 , ∑ ai j b j j 0 , . . . , ∑ ai j b j j0 sont respectivement les éléments
j=1 j=p1 +1 j=p1 +···+pt−1 +1
de Akl B1l , Ak2 B2l 0 , . . . , Aks0 Bs0 l 0 situés à la (i−(n0 +· · ·+nk−1 ), ( j0 −(p00 +· · ·+ p0l 0 −1 ))-ième
place.
Exemple 1.4
•
!
K
b
a L = a b + LV ∈ M1 ( )
V
•
! !
b ba bL
K
a L = ∈ Mn+1 ( )
V aV V L
•
! ! !
A B
C D
V
W
=
AV BW
CV DW
∈ M2n,1 ( )K
•
! ! !
A B
c D
A0 B0
C0 D0
=
A A0 + BC0 A B0 + B D0
C A0 + DC0 C B0 + D D0
∈ M2n ( ) K
Exemple 1.5
1. • Une matrice carrée A est dite triangulaire supérieure par blocs si et seulement
2. Une matrice carrée A est dite diagonale par blocs si et seulement si elle admet une
composition en blocs :
A11 . . . O
.. ..
A= . .
O Ass
(
− A11 , . . . , Ass sont des matrices carrées
telle que
− les blocs non diagonaux sont tous nuls
On peut alors noter : A = diag (A11 , . . . , Ass ).
On montre que :
Proposition 1.14
1. L’ensemble des matrices de Mn (K) triangulaires supérieures par blocs (avec le même
découpage) est une sous-algèbre unitaire de l’algèbre unitaire Mn ( ). K
De plus, les blocs diagonaux du produit de deux matrices triangulaires supérieures
par blocs (avec le même découpage) sont les produits des blocs diagonaux situés à la
même place :
A11 . . . B11 . . . A11 B11 . . .
.. .. .. .. .. ..
. .
. . =
. .
O Ass O Ass O Ass Bss
De plus, dans, ce cas, A−1 est triangulaire supérieure par blocs, et les blocs diagonaux
de A−1 sont les inverses des blocs diagonaux de A :
A−1
11 ...
−1
.. ..
A =
. .
O A−1
ss
3. L’ensemble des matrice de Mn (K) diagonales par blocs (avec le même découpage) est
sous-algèbre unitaire (non seulement commutative) de l’algèbre unitaire Mn (K). De
plus :
A11 . . . O B11 . . . O A11 B11 . . . O
.. .. .. .. . .. ..
. .
. . =
.
O Ass O Ass O Ass Bss
A11 O
A= ...
O Ass
DÉTERMINANTS
Sommaire
2.1 Le groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.1.1 Structure de Sn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.1.2 Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.1.3 Cycles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2 Applications multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2.2 Applications multilinéaires alternées . . . . . . . . . . . . . . . . . . . . 39
2.3 Déterminant d’une famille de n vecteurs dans une base d’un ev de dimension n 41
2.3.1 Espace Λn (E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.4 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . 44
2.5 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . 46
2.6 Développement par rapport à une rangée . . . . . . . . . . . . . . . . . . . . 49
2.6.1 Cofacteurs et mineurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.6.2 Comatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.7 Calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.7.1 Déterminant d’une matrice triangulaire . . . . . . . . . . . . . . . . . . 56
2.7.2 Manipulation des lignes et des colonnes . . . . . . . . . . . . . . . . . . 56
2.7.3 Cas n = 2, n = 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.7.4 Déterminant d’une matrice triangulaire par blocs . . . . . . . . . . . . . 58
32
Chapitre 2. Déterminants 2.1. Le groupe symétrique
2.1.1 Structure de Sn
Proposition 2.1
Sn est un groupe pour la loi ◦, appelé groupe symétrique.
Démonstration
2. ◦ est associative.
3. Id{1,··· ,n} ∈ Sn .
4. ∀σ ∈ Sn , σ est bijective et σ −1 ∈ Sn .
Par commodité, nous noterons e l’identité de {1, · · · , n}. Une permutation σ de Sn sera
notée : !
1 2 ··· n−1 n
(2.1)
σ (1) σ (2) · · · σ (n − 1) σ (n)
2.1.2 Transposition
On suppose ici n ≥ 2
Définition 2.1
∀ i, j ∈ {1, · · · , n} /i < j, on appelle transposition échangeant i et j, et on note τi j , la permu-
tation de {1, · · · , n} définie par : τi j (i) = j, τi j ( j) = i, τi j (k) = k ∀k ∈ {1, · · · , n} − {i, j}
!
1 2 3 4 5
Pour n = 5, τ24 = (2, 4) =
1 4 3 2 5
Remarque 2.1
Théorème 2.1
Les transpositions de {1, · · · , n} engendrent le groupe Sn . Autrement dit, toute permutation
de {1, · · · , n} est décomposable (d’au moins une façon) en un produit de (plusieurs) trans-
positions.
Démonstration
Récurrence sur n.
S2 = {e, τ12 } et e = τ12 2 , donc τ engendre S . Soit n ∈ N/n ≥ 2. Supposons que les trans-
12 2
positions de {1, · · · , n} engendre Sn et soit σ ∈ Sn+1 .
1er Cas : σ (n + 1) = n + 1
Comme σ est bijective, {1, · · · , n} est alors stable par σ et l’application induite
σ 0 = {1, · · · , n} −→ {1, · · · , n}
k −→ σ (k)
σ 0 = t10 ◦ · · · ◦ tN0 .
2eme Cas σ (n + 1) 6= n + 1
Considérons ρ = τn+1,σ (n+1) ◦ σ .
On a
ρ ∈ Sn+1 et ρ(n + 1) = τn+1,σ (n+1) (σ (n + 1)) = n + 1.
σ = τn+1,σ (n+1) ◦ t1 ◦ · · · ◦ tN
!
1 2 3 4 5 6 7 8
σ =
6 3 7 4 8 1 5 2
1 2 3 4 5 6 7 8
6 3 7 4 8 1 5 2
6 3 7 4 2 1 5 8
6 3 5 4 2 1 7 8
1 3 5 4 2 6 7 8
1 3 2 4 5 6 7 8
1 2 3 4 5 6 7 8
Dans chaque ligne, on a mis en gras les deux éléments qui vont être échangés pour obtenir la
ligne suivante. On a donc τ23 ◦ τ25 ◦ τ16 ◦ τ57 ◦ τ28 ◦ σ = e ⇒ σ = τ28 ◦ τ57 ◦ τ16 ◦ τ15 ◦ τ23 .
Remarque 2.2
L’algorithme montre que toute permutation de {1, · · · , n} est décomposable, d’au moins une
façon, en un produit d’au plus n transpositions.
Soit σ ∈ Sn . On dit qu’un couple (σ (i), σ ( j)) présente une inversion pour σ (ou une
inversion de σ ) si et seulement si i < j et σ (i) > σ ( j). On note I(σ ) le nombre d’inversions
de σ et on appelle signature de σ , le nombre noté ε(σ ), défini par :
On dit que σ est paire (resp. impaire) si et seulement si ε(σ ) = 1 (resp. ε(σ ) = −1).
Démonstration
σ2 : B2 (n) −→ B2 (n)
(2.4)
{i, j} −→ {σ (i), σ ( j)}
ce qui montre :
σ ( j) − σ (i)
= 1. (2.6)
∏
(i, j)∈B (n)
j − i
2
σ ( j) − σ (i)
2. Le nombre de paires {i, j} de {1, · · · , n} telles que < 0 est I(σ ), donc
j−i
σ ( j) − σ (i)
∏ est du même signe que ε(σ ).
{i, j}∈B2 (n) j−i
Remarque 2.3
On a aussi :
σ ( j) − σ (i)
ε(σ ) = ∏ . (2.7)
1≤i< j≤n j−i
Théorème 2.2
L’application signature ε : Sn −→ {−1, 1} est un morphisme du groupe (Sn , ◦) sur le groupe
multiplicatif ({−1, 1}, .).
Démonstration
Soient ρ, σ ∈ Sn , on a :
σ ◦ ρ( j) − σ ◦ ρ(i)
ε(σ ◦ ρ) = ∏ (2.8)
{i, j}∈B2 (n)
j−i
σ (ρ( j)) − σ (ρ(i)) ρ( j) − ρ(i)
= ∏ . ∏ (2.9)
{i, j}∈B2 (n)
ρ( j) − ρ(i) (i, j)∈B (n)
j−i
2
L’application {i, j} 7−→ {ρ(i), ρ( j)} étant une permutation de B2 (n), on obtient :
D’autre part, il est clair que {−1, 1} est un groupe pour la multiplication.
Proposition 2.3
Démonstration
Soit (i, j) ∈ {1, · · · , n}2 tel que i < j. Puisque
!
1 ··· i−1 i i+1 ··· j −1 j j +1 ··· n
τi j = (2.11)
1 ··· i−1 i i+1 ··· j −1 i j +1 ··· n
les couples présentant une inversion (sur la 2-ième ligne) sont : ( j, i + 1), ( j, i +
2), · · · , ( j, j − 1), ( j, i), (i + 1, i), (i + 2, i), · · · , ( j − 1, i), qui sont au nombre de 2 ( j − 1) − 1.
Donc I(τi j ) est impair, ε(τi j ) = −1, τi j impaire.
Corollaire 2.1
Soient σ ∈ Sn , N ∈ N∗ , t1 , · · · ,tN des transpositions de {1, · · · , n} telles que σ = t1 ◦ · · · ◦ tN .
On a :
ε(σ ) = (−1)N . (2.12)
2.1.3 Cycles
On suppose ici n ≥ 2
L’ensemble {x1 , · · · , x p } (qui est à l’évidence unique pour un p-cycle donné) est appelé le
support de σ , et on note σ = (x1 , · · · , x p ). Une permutation σ de {1, · · · , n} est appelé cycle
si et seulement s’il existe p ∈ {2, · · · , n} tel que σ soit un p-cycle.
Exemple 2.1
!
1 2 3 4 5
est le 3-cycle (2, 5, 3).
1 5 2 4 3
Remarque 2.4
Exercice 2.1
2. Soit !
1 2 3 4 5 6 7 8 9 10 11 12
σ=
7 1 5 12 6 3 9 4 2 11 8 10
Proposition 2.4
Démonstration
Il est clair que L p (E1 , · · · , E p ; F) est un sev de F E1 ×···×E p .
Soient E un K − ev, et p ∈ N∗ .
Définition 2.5 Application linéaire alternée
xi = x j =⇒ ϕ(x1 , · · · , x p ) = 0. (2.15)
Remarque 2.5
L’ensemble des applications p-linéaires alternées de E p dans F est un sev de
L p (E, · · · , E; F).
Proposition 2.5
Une application p-linéaire ϕ : E p −→ F est alternée si et seulement si
Démonstration
ϕ(x1 , · · · , xi , · · · , xi , · · · , x p ) + ϕ(x1 , · · · , xi , · · · , x j , · · · , x p )
+ ϕ(x1 , · · · , x j , · · · , xi , · · · , x p ) + ϕ(x1 , · · · , x j , · · · , x j , · · · , x p ) = 0 (2.18)
et donc
ϕ(x1 , · · · , x j , · · · , xi , · · · , x p ) = −ϕ(x1 , · · · , xi , · · · , x j , · · · , x p ) (2.19)
2. Cas général
Soit σ ∈ Sn . D’après le Théorème , σ est décomposable en un produit de transposi-
tions ; ∃N ∈ N∗ et des transpositions σ1 , · · · , σN telles que σ = σ1 ◦ · · · ◦ σN ; de plus,
ε(σ ) = (−1)N . EN appliquant de façon itérée le résultat de 1, on obtient :
ϕ xσ (1) , · · · , xσ (p) = − ϕ xσ2 ◦···σN (1) , · · · , xσ2 ◦···σN (p) (2.21)
N
= · · · = (−1) ϕ(x1 , · · · , x p ) = ε(σ )ϕ(x1 , · · · , x p ). (2.22)
Proposition 2.6
Démonstration
Supposons (x1 , · · · , x p ) liée ; l’un au moins des x1 , · · · , x p s’exprime donc comme combi-
naison linéaire des autres. D’après la proposition précédente, on peut se ramener au cas où
p−1
∃(α1 , · · · , α p−1 ) ∈ K p−1 /x p = ∑ αi xi . Alors :
i=1
p−1
ϕ(x1 , · · · , x p ) = ∑ αi ϕ(x1, · · · , x p−1, xi) = 0 (2.23)
i=1
Comme ϕ est alternée, ϕ(ei1 , · · · , ein ) est nul dès que i1 , · · · , in ne sont pas deux à deux
distincts. Il ne reste donc, dans la somme multiple précédente, que les termes correspondant
aux cas où (1, · · · , n) 7−→ (i1 , · · · , in ) est une permutation de {1, · · · , n}. D’où
n
∀ j ∈ {1, · · · , n}, Vj = ∑ ai j j ei j (2.32)
i j =1
• ψ est n-linéaire car, ∀i ∈ {1, · · · , n}, ∀α ∈ K, ∀V1 , · · · ,Vi−1 ,Vi ,Vi0 ,Vi+1 , · · · ,Vn ∈ E, on
a, en notant a0ki 1≤k≤n les composantes de Vi0 dans B :
ψ(V1 , · · · , αVi +Vi0 , · · · ,Vn ) = λ ∑ ε(σ )aσ (1)1 · · · αaσ (i)i + a0σ (i)i · · · aσ (n)n
σ ∈Sn
(2.33)
=αλ ∑ ε(σ )aσ (1)1 · · · aσ (n)n + λ ∑ ε(σ )aσ (1)1 · · · a0σ (i)i · · · aσ (n)n (2.34)
σ ∈Sn σ ∈Sn
• ψ est alternée car, ∀i, j ∈ {1, · · · , n}/i < j et ∀V1 , · · · ,Vn ∈ E/Vi = V j , on a, en effec-
tuant le changement d’indice σ 0 = σ ◦ τi j dans la sommation :
puisque Vi = V j . D’où
n
ej = ∑ δi j j ei j , (2.40)
i j =1
Résumons l’étude :
Théorème-Définition 2.0 Déterminant d’une famille de vecteurs
L’ensemble Λn (E) des formes n-linéaires alternées sur un K-ev de dimension n (n ≥ 1) est
un K-ev de dimension 1. Pour toute base B = (e1 , · · · , en ) de E, on note detB : E n −→ K
l’application définie par,
∀(V1 , · · · ,Vn ) ∈ E n : detB (V1 , · · · ,Vn ) = ∑ ε(σ )aσ (1)1 · · · aσ (n)n , (2.42)
σ ∈Sn
n
Vj = ∑ ai j j ei j . (2.43)
i j =1
L’élément detB (V1 , · · · ,Vn ) (de K) est appelé le déterminant de (V1 , · · · ,Vn ) dans la base
B. Pour toute base B de E, (detB ) est une base de Λn (E).
Autrement dit, pour toute base B de E les éléments de Λn (E) sont proportionnel à detB .
Remarque : On a vu plus haut que, pour toute base B de E : detB (B) = 1.
2.3.2 Propriétés
Démonstration
Soient ϕ ∈ Λn (E), B ∈ B(E). Puisque detB engendre Λn (E), ∃α ∈ K/ϕ = α detB . En
particulier :
ϕ(B) = αdetB (B) = α =⇒ ϕ = ϕ(B)detB (2.44)
c’est-à-dire :
∀S ∈ E n , ϕ(S) = ϕ(B)detB (S). (2.45)
Corollaire 2.2
∀B, B 0 ∈ B(E), ∀S ∈ E n , detB0 (S) = detB0 (B) detB (S).
2. En particulier, en prenant B 00 = B on a :
∀B, B 0 ∈ B(E), detB0 (B) 6= 0 et detB (B 0 ) = (detB0 (B))−1 (2.46)
Proposition 2.8
Démonstration
Si S est liée alors detB (S) = 0, puisque detB est n-linéaire et alternée.
ϕ ◦ ( f × · · · × f ) = (λ ϕ) ◦ ( f × · · · × f ) = λ (ϕ ◦ ( f × · · · × f )) (2.48)
= λ (αϕ) = α(λ ϕ) = αψ. (2.49)
Résumons l’étude :
Proposition-Définition 2.2
On a ainsi :
Proposition 2.10
1. det(IdE ) = 1
Démonstration
Le K-ev admet au moins une base B = (e1 , · · · , en ).
2.
minant d’ordre n. Pour rappeler l’ordre n, on peut noter [n] en bas à droite :
a11 · · · a1n
.. ..
det(A) = . . .
(2.58)
an1 · · · ann
[n]
Exemple 2.2
a b
1. ∀(a, b, c, d) ∈ K4 ,
= ad − bc, puisque S2 = Id{1,2} , τ12 .
c d
2. Soit
a11 a12 · · · a1n
... ..
.
A= ∈ Tn,s (K). (2.59)
. . . an−1n
0 ann
Proposition 2.12
1. det(In ) = 1
Démonstration
Les propriétés 1 à 5 se déduisent de la proposition 2.5 et des propriétés du déterminant d’un
endomorphisme. En notant A = (ai j )i j ∈ Mn (K), on a :
Sn −→ Sn
Enfin, comme est une bijection conservant la signature (i.e. ∀σ ∈
σ 7−→ σ −1
Sn , ε(σ −1 ) = ε(σ )), on obtient :
Remarque 2.7
d’où det(A) = 0.
Par définition :
det(A) = ∑ ε(σ )aσ (1)1 aσ (2)2 aσ (3)3 . (2.69)
σ ∈S3
! !
1 2 3 1 2 3
Comme S3 = {Id, τ12 , τ13 , τ23 , c, c0 } où c = et c0 = , on obtient :
2 3 1 3 1 2
det(A) = a11 a22 a33 − a21 a12 a33 − a31 a22 a13 − a11 a32 a23 + a21 a32 a13 + a31 a12 a23 .
(2.70)
On peut grouper, par exemple, ainsi :
det(A) = a11 (a22 a33 − a32 a23 ) + a21 (−a12 a33 + a32 a13 ) + a31 (a12 a23 − a22 a13 ) (2.71)
a
22 a23 a12 a13 a12 a13
= a11 − a21 + a31 , (2.72)
a32 a33 a32 a33 a22 a23
1 0 0
0
1
0
..
e1 = 0 , e2 = 0 , · · · , en = (2.73)
.
.. ..
.
.
0
0 0 1
et
a11 a1n
. ..
C1 = ..
, · · · ,Cn =
.
(2.74)
an1 ann
les colonnes de A. Soit j ∈ {1, · · · , n}.
En développant par linéarité par rapport à la j-ième colonne, on a :
n n
det(A) = detB (C1 , · · · ,C j−1 , ∑ ai j ei ,C j+1 , · · · ,Cn ) = ∑ ai j Ai j , (2.75)
i=1 i=1
en notant
bn1 · · · bnn−1 1
Par définition : det(B0 ) = ∑ ε(σ )b0σ (1)1 · · · b0σ (n)n ∀σ ∈ Sn /σ (n) 6= n, on a b0σ (n)n = 0.
σ ∈Sn
Comme b0nn = 1, on a donc :
{σ ∈ Sn ; σ (n) = n} −→ Sn−1
Il est clair que l’application , où ρ est définie par :
σ 7−→ ρ
∀k ∈ {1, · · · , n − 1}, ρ(k) = σ (k), est une bijection et qu’elle conserve la signature.
D’où :
1. ∀i, j ∈ {1, · · · , n}, on appelle mineur de la place (i, j) dans A (ou, par abus :
mineur de ai j dans A) le déterminant ∆i j d’ordre n − 1 obtenu en supprimant
dans A la i-ième ligne et la j-ième colonne :
a11 ··· a1 j−1 a1 j+1 ··· a1n
.. .. .. ..
. . . .
ai−11 · · · ai−1 j−1 ai−1 j+1 · · · ai−1n
∆i j = (2.86)
ai+11 · · · ai+1 j−1 ai+1 j+1 · · · ai+1n
.. .. .. ..
. . . .
an1 · · · an j−1 an j+1 · · · ann
2. ∀i, j ∈ {1, · · · , n}, on appelle cofacteur de la place (i, j) dans A (ou, par abus :
cofacteur de ai j dans A), et on note Ai j défini par :
Ai j = (−1)i+ j ∆i j (2.87)
On appelle rangée d’une matrice ou d’un déterminant toute ligne ou colonne de cette matrice
ou de ce déterminant.
Démonstration
La deuxième proposition ci-dessus se déduit de la première appliquée à t A au lieu de
A.
2.6.2 Comatrice
Soit n ∈ N∗ .
Définition 2.8 Comatrice
Soit A = (ai j )i j ∈ Mn (K). On appelle comatrice de A, la matrice carrée d’ordre n, notée
Com(A), définie par :
A11 · · · A1n
. ..
Com(A) = (Ai j )i j = ..
,
. (2.92)
An1 · · · Ann
n
Nous avons vu que : ∀ j ∈ {1, · · · , n}, ∑ ai j Ai j = det(A). Intéressons-nous à ∑ni=1 ai j Aik ∀ j, k ∈
i=1
{1, · · · , n} fixé tel que j 6= k. Considérons la matrice B = (bip )ip obtenue à partir de A en rempla-
çant, dans A, la k-ième colonne par la j-ième colonne de A :
a11 · · · a1 j · · · a1k−1 a1 j a1k+1 · · · a1n
. .. .. .. .. ..
B= .. . . . . . (2.93)
an1 · · · an j · · · ank−1 an j ank+1 · · · ann
D’une part, det(B) = 0, puisque B a deux colonnes égales. D’autre part, en développant det(B) par
rapport à la k-ième colonne, on a :
n n
det(B) = ∑ bik Bik = ∑ ai j Aik , (2.94)
i=1 i=1
puisque les cofacteurs des éléments de la k-ième colonne sont les mêmes dans B que dans A. Ainsi,
n
∑ ai j Aik = 0. On a donc prouvé :
i=1
(
n det(A) si j = k
∀ j, k ∈ {1, · · · , n}, ∑ ai j Aik = (2.95)
i=1 0 si j 6= k
n
Mais, pour ( j, k) ∈ {1, · · · , n}2 , ∑ ai j Aik est le ( j, k)-ième terme du produit de t A par Com(A),
i=1
d’où !
t det(A) 0
A.Com(A) = = det(A)In . (2.96)
0 det(A)
En appliquant ce résultat à t A au lieu de A, et en remarquant que Com(t A) =t Com(A) et det(t A) =
det(A), on obtient :
A.t Com(A) = det(A)In , (2.97)
t
Com(A).A = det(A)In . (2.98)
Corollaire 2.3
1 t
∀A ∈ GLn (K), A−1 = Com(A).
det(A)
Exemple 2.3
!
a b
Pour n = 2, si ad − bc 6= 0, alors A = est inversible, et
c d
!
1 d −b
A−1 = (2.99)
ad − bc −c a
Exercice 2.2
1. Soient n ∈ N∗ , M ∈ Mn (K),
O ··· O
.
A= .. M ∈ Mn+1 (K). (2.100)
0
Calculer Com(A).
A p = In =⇒ (Com(A)) p = In . (2.101)
3. Soit n ∈ N∗ . Montrer :
( )
Com(A) ∈ GLn (K)
∀A ∈ GLn (K), . (2.102)
(Com(A))−1 = Com(A−1 )
Démonstration
Récurrence sur n. La propriété est évidente pour n = 1. Supposons-la vraie ∀n ∈ N∗ et soit
a11 · · · a1n+1
... ..
A=
. ∈ Tn+1,s (K). (2.104)
0 an+1n+1
Remarque 2.8
En particulier, le déterminant d’une matrice diagonale est égal au produit des éléments dia-
gonaux.
Remplacement d’une colonne par la somme de celle-ci et d’une combinaison linéaire des autres.
Soient A = (ai j )i j ∈ Mn (K), C1 , · · · ,Cn les colonnes de A, j ∈ {1, · · · , n}, (αk )k6= j ∈ Kn−1 .
Considérons la matrice B obtenue à partir de A en remplaçant C j par C j + ∑ αkCk .
k6= j
= detB (C1 , · · · ,C j , · · · ,Cn ) + ∑ αk detB (C1 , · · · ,C j−1 ,Ck ,C j+1 , · · · ,Cn ) (2.107)
k6= j
= det(A) (2.108)
Proposition 2.15
On ne change pas la valeur d’un déterminant en remplaçant une colonne par la somme
de celle-ci et d’une combinaison linéaire des autres colonnes. Résultats analogues sur
les lignes.
En notant
1
α21 1
T = 31
α α 32 1 O ,
(2.114)
. .. . . .
.. . . ..
αn1 αn1 · · · αnn−1 1
on a : B = AT , d’où
Proposition 2.16
On ne change pas la valeur d’un déterminant en remplaçant (simultanément) chaque
colonne par la somme de celle-ci et d’une combinaison linéaire des colonnes sui-
vantes. Résultats analogue sur les lignes.
De même, en utilisant la post-multiplication de A par une matrice triangulaire supé-
rieure.
Proposition 2.17
On ne change pas la valeur d’un déterminant en remplaçant(simultanément) chaque
colonne par la somme de celle-ci et d’une combinaison linéaire des colonnes précé-
dentes. Résultat analogue sur les lignes.
Exemple 2.4
∀a, b ∈ K et n ≥ 2, calculer
2.7.3 Cas n = 2, n = 3
a
11 a12
• n=2: = a11 a22 − a21 a12 .
a21 a22
a11 a12 a13
• n = 3 : a21 a22 a23 = a11 a22 a33 −a21 a12 a33 −a31 a22 a13 −a11 a32 a23 +a21 a32 a13 +a31 a12 a23
a31 a32 a33
On peut retrouver le déterminant d’ordre 3 en appliquant la règle de Sarrus.
Proposition 2.18
Démonstration
On remarque que ! ! !
A B In O A B
= (2.117)
O C O C O Ip
d’où ! ! !
A B In O A B
det = det .det (2.118)
O C O C O Ip
!
In O
En développant par rapport à la première ligne, de façon itérée, on obtient :
O C
!
In O
det = det(C). (2.119)
O C
!
A B
De même, en développant par rapport à la dernière ligne, de façon itérée, on
O Ip
obtient : !
A B
det = det(A). (2.120)
O Ip
Proposition 2.19
Le déterminant d’une famille triangulaire par blocs est égal au produit des déterminants des
blocs diagonaux :
A11 · · · s
det
..
= ∏ det (Akk ) . (2.121)
.
k=1
O Ass
Démonstration
Récurrence immédiate sur s en utilisant la proposition 2.7.4.
d’inconnue (x1 , · · · , xn ) ∈ K p , appelé système affine. En notant S l’ensemble des solutions de (S)
dans K p , il s’agit de savoir si (S) est vide ou non, et, lorsque S 6= ∅, d’expliciter les éléments de
(S).
x1
.
.
Interprétation matricielle En notant X = . ∈ M p,1 (K), (x1 , · · · , x p ) est solution de (S) dans
xp
p
K si et seulement si : AX = B. Ainsi, la résolution de (S) se ramène à celle de l’équation
matricielle AX = B, d’inconnue X ∈ M p,1 (K).
Gardons les notations précédentes, et notons r = rg(A). Le système (S) est dit de Cramer si et
seulement si A est carrée et inversible, ie n = p = r.
Nous supposons ici cette condition réalisée. On a alors :
AX = B ⇐⇒ X = A−1 B. (2.124)
a1 j
.
Notons, pour 1 ≤ j ≤ n, C j = .
. la j-ième colonne de A. Puisque A est inversible, la famille
an j
F = (C1 , · · · ,Cn ) est une base de Mn,1 (K). Il existe donc (x1 , · · · , x p ) ∈ K p unique tel que B =
n
∑ x j C j , et (S) admet donc une solution et une seule, qui est (x1 , · · · , xn ).
j=1
Soit k ∈ {1, · · · , n}. On a :
n
detF (C1 , · · · ,Ck−1 , B,Ck+1 , · · · ,Cn ) = detF (C1 , · · · , ∑ x jC j , · · · ,Cn ) (2.125)
j=1
n
= ∑ x j detF (C1, · · · ,C j , · · · ,Cn) (2.126)
j=1
= xk detF (F ) = xk , (2.127)
On a prouvé :
Proposition 2.20 Formules de Cramer
Sommaire
3.1 Eléments propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.2 Sommes- Sommes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.4 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
• Soit λ ∈ K. On dit que λ est une valeur propre (vp) de (ou : pour) f si et
seulement si :
∃x ∈ E, (x 6= 0 et f (x) = λ x). (3.1)
2. Soient n ∈ N∗ , A ∈ Mn (K).
62
Chapitre 3. Réd. des endo et des matrices 3.1. Eléments propres
• Soit λ ∈ K. On dit que λ est une valeur propre de (ou : pour) A si et seulement
si :
∃X ∈ Mn,1 (K), (X 6= 0 et AX = λ X). (3.3)
Les valeurs propres et vecteurs propres sont globalement appelés éléments propres.
NB : Par définition, un vecteur propre n’est jamais nul. La proposition suivante est immé-
diate.
Proposition 3.1
2. Soient n ∈ N∗ , A ∈ Mn (K), λ ∈ K ; on a :
λ ∈ S pK ⇐⇒ Ker(A − λ In ) 6= {0} ⇐⇒ A − λ In ∈
/ GLn (K)
⇐⇒ rg(A − λ In ) < n
2. Soient n ∈ N∗ , A ∈ Mn (K).
X 6= 0 et AX = λ X. (3.6)
Soient I un ensemble fini, (Ei )i∈I une famille de seV de E. On appelle somme de (Ei )i∈I , et
on note ∑ Ei , l’ensemble des sommes ∑ xi lorsque (xi )i∈I décrit ∏ Ei :
i∈I i∈I i∈I
( )
∑ Ei = ∑ xi; ∀ i ∈ I, xi ∈ Ei . (3.8)
i∈I i∈I
L
On note alors Ei au lieu de ∑ Ei .
i∈I i∈I
Proposition 3.2
Soient E un K-eV de dimension finie et Ei une famille finie de seV de E telle que la somme
∑ Ei soit directe. On a alors :
i∈I
!
M
dim Ei = ∑ dim (Ei ) (3.10)
i∈I i∈I
Proposition 3.3
Soient E un K-eV de dimension finie et (Ei )i∈I une famille finie de seV de E telle que la
somme ∑ Ei soit directe. On a alors :
i∈I
M
E= Ei ⇐⇒ dim (E) = ∑ dim (Ei ). (3.11)
i∈I i∈I
Proposition 3.4
Soient f ∈ L (E), λ1 , · · · , λN des valeurs propres de f (deux à deux distinctes). Alors les
sous-espaces propres de f associés à λn , · · · , λN sont en somme directe.
Démonstration
Récurrence sur n. La propriété est triviale pour N = 1. Supposons-la vraie pour N ∈ N∗ et
soient λ1 , · · · , λN+1 des valeurs propres de f deux à deux distinctes. Soit (xi )1≤i≤N+1 ∈ E N+1
tel que :
N+1
∀i ∈ {1, · · · , N + 1}, xi = SEP( f , λi ), ∑ xi = 0 (3.12)
i=1
N+1 N+1
En appliquant f : 0 = ∑ f (xi ) = ∑ λi xi . Ainsi,
i=1 i=1
(
x1 + · · · + xN + xN+1 = 0
(3.13)
λ1 x1 + · · · + λN xN + λN+1 xN+1 = 0
d’où
(λN+1 − λ1 )x1 + · · · + (λN+1 − λN )xN = 0 (3.14)
Mais λ1 , · · · , λN+1 sont deux à deux distincts, d’où : ∀i ∈ {1, · · · , N}, xi = 0, et enfin :
N
xN+1 = − ∑ xi = 0. (3.16)
i=1
K −→ K
1. Soit A ∈ Mn (K). L’application est un polynôme, appelé po-
λ 7−→ det(A − λ In )
lynôme caractéristique de A, et noté χA .
K −→ K
2. Soit f ∈ L (E). L’application est le polynôme caractéris-
λ −→ det( f − λ e)
tique de f , noté χ f .
Proposition 3.5
Démonstration
Notons A = (ai j )i j . Soient λ ∈ K et, ∀i, j ∈ {1, · · · , n} :
(
ai j − λ si i= j
αi j = (3.18)
ai j si i 6= j
α
11 · · · α
1n
. ..
χA (λ ) = .. . = ∑ ε(σ )ασ (1)1 · · · ασ (n)n . (3.19)
σ ∈Sn
αn1 · · · αnn
∀σ ∈ Sn − {Id{1,··· ,n} }, le terme ε(σ )ασ (1)1 · · · αα(n)n est un polynôme (en λ ) de degré ≤
n − 2. D’autre part :
Ceci montre que χA est de degré n et que les termes en λ n et λ n−1 sont respectivement
(−1)n λ n et (−1)n−1tr(A)λ n−1 . Enfin, comme det(A) = χA (0), le terme constant de χA est
det(A).
Remarque 3.1
n n n
Si χA est scindé sur K, χA = (−1)n ∏ (λ − λi ), alors ∑ λi = tr(A) et ∏ λi = det(A).
i=1 i=1 i=1
Exemple 3.1
8 12 10
Calculer les vp et les vp de A = −9 −22 −22 ∈ M3 (R).
9 18 17
8 − λ 12 10
χA (λ ) = −9 −22 − λ −22 = −(λ + 1)(λ − 2)2 , (3.22)
9 18 17 − λ
Donc SEP(A, −1) est la droite vectorielle engendré par (2, −4, 3). De même, SEP(A, 2) est
la droite vectorielle engendrée par (4, −7, 6).
Définition 3.4
Soient f ∈ L (E) (resp. A ∈ Mn (K)), λ0 une valeur propre de f (resp. de A). On appelle
ordre de multiplicité de λ0 l’ordre de multiplicité de λ0 en tant que zéro du polynôme
caractéristique χ f (resp. χA ).
Exemple 3.2
Dans l’exemple précédent, les vp sont -1 (simple) et 2 (double).
Proposition 3.6
Démonstration
2. SEP( f , λ0 ) admet au moins une base (e1 , · · · , ed0 ) et, d’après le théorème de la base
incomplète, il existe ed0 +1 , · · · , en ∈ E tels que B = (e1 , · · · , en ) soit une base de E. Il
existe C ∈ Md0 ,n−d0 (K), B ∈ Mn−d0 (K) telles que :
!
λ0 Id0 C
MatB ( f ) = , (3.25)
O B
d’où ∀λ ∈ K, !
(λ0 − λ )Id0 C
χ f (λ ) = det
O B − λ In−d0
(3.26)
= (λ0 − λ )d0 det(B − λ In−d0 )
= (λ0 − λ )d0 χB (λ )
Corollaire 3.1
3.4 Diagonalisation
Définition 3.5
1. Soit f ∈ L (E). On dit que f est diagonalisable si et seulement s’il existe une base
B de E telle que MatB ( f ) soit diagonale.
2. Soit A ∈ Mn (K). On dit que A est diagonalisable si et seulement s’il existe une matrice
diagonale D de Mn (K) telle que A soit semblable à D.
Si A ∈ Mn (K) est diagonalisable, diagonaliser A c’est déterminer P, D, (et P−1 ) telles que :
Remarque 3.2
Proposition 3.7
1. f est diagonalisable
Démonstration
1 . =⇒ 2. Supposons f diagonalisable. Il existe une B = (e1 , · · · , en ) de E telle que
MatB ( f ) soit diagonale ; il existe donc (λ1 , · · · , λn ) ∈ Kn tel que :
n n
∑ Ker( f − λ e) ⊃ ∑ Ker( f − λ e) = ∑ Ker( f − λi e) ⊃ ∑ Kei = E, (3.31)
λ ∈S pK ( f ) λ ∈Λ i=1 i=1
∑ Ker( f − λ e) = E (3.32)
λ ∈S pK ( f )
3. =⇒ 4. Supposons que la somme des SEP de f soit égale à E. Comme cette somme est
directe, on a alors :
M
∑ dim(SEP( f , λ )) = dim SEP( f , λ ) = dim(E). (3.33)
λ ∈S pK ( f ) λ ∈S pK ( f )
4. =⇒ 1. Supposons que la somme des dimensions des SEP de f soit égale à dim(E). No-
tons k = Card(S pK ( f )), µ1 , · · · , µk les éléments de S pK ( f ). Chaque SEP( f , µ j )(1 ≤
k
j ≤ k) admet au moins une base B j , notons B = B j . Comme les SEP( f , µ j )(1 ≤
S
j=1
j ≤ k) sont en somme directe, et que chaque B j est libre, B est libre.
D’autre part :
k k
Card(B) = ∑ Card(B j ) = ∑ dim(SEP( f , µ j )) = dim(E). (3.34)
j=1 j=1
Ainsi, B est une base de E, et la matrice de f dans B est diagonale, puisque les
éléments de B sont des vp de f :
µ1 Id1 · · · O
.. .. ..
MatB ( f ) =
. . . (3.35)
O · · · µk Idk
où d j = Card(B j ), 1 ≤ j ≤ K.
Remarque 3.3
D’après la preuve précédente, si f ∈ L (E) est diagonalisable, alors les éléments diago-
naux d’une matrice diagonale représentant f sont les valeurs propres de f , écrites sur cette
diagonale autant de fois que l’indiquent leurs ordres de multiplicité.
Démonstration
• Supposons f diagonalisable. On a :
λ1 · · · O
. . .
MatB ( f ) = .. . . .. . (3.37)
O · · · λn
On a donc ∀λ ∈ K,
n
χ f (λ ) = det (MatB ( f ) − λ In ) = ∏(λi − λ ). (3.38)
i=1
Exemple 3.3
Montrer que
2 0 1
A = 1 1 1 ∈ M3 (R) (3.39)
−2 0 −1
est diagonalisable et diagonaliser A.
2 − λ 0 1
2 − λ 1
χA (λ ) = 1 1−λ 1 = (1 − λ ) = (λ )(λ − 1)2 (3.40)
−2 −1 − λ
−2 0 −1 − λ
•
x 2x + z = 0
(
z = −2x
X = y ∈ SEP(A, 0) ⇐⇒ x + y + z = 0 ⇐⇒ (3.41)
y=x
z −2x − z = 0
1
Donc SEP(A, 0) est de dimension 1 et admet pour base (V1 ) où V1 = 1 .
−2
•
x
X = y ∈ SEP(A, 1) ⇐⇒ x + z = 0 (3.42)
z
0
Donc SEP(A, 1) est de dimension 2 et admet pour base (V1 ,V3 ) où V2 = 1, V3 =
0
1
0 , par exemple.
−1
Puisque χA est scindé sur R et que, pour chaque vp de A, la dimension du SEP est égale
à l’ordre de multiplicité de la vp, d’après le théorème précédent, A est diagonalisable.
En notant B0 la base canonique de M3,1 (R), B = (V1 ,V2 ,V3 ), P = Pass(B0 , B)
1 0 1 0 0 0
P = 1 1 0 , D = 0 1 0 (3.43)
−2 0 −1 0 0 1
On a : A = PDP−1 .
−1 0 −1
P−1 = 1 1 1 (3.44)
2 0 1
1. Soit f ∈ L (E). Si f admet n valeurs propres deux à deux distinctes (où n = dim(E)),
alors f est diagonalisable.
2. Soit A ∈ Mn (K). Si A admet n valeurs propres deux à deux distinctes, alors A est
diagonalisable.
Exemple 3.4
1 0 ··· 0
0
. . . . . . ..
0
. . . .
.. .. ..
Soient n ∈ N − {0, 1}, A = 0 . . . 0 ∈ Mn (C. Montrer que A est diagonali-
.. .. ..
0 . . . 1
1 0 0 0 0
sable.
−λ 1 0 ··· 0 −λ 1 0 ··· 0
0 ... ... ... ..
... ... ... ..
.
0
.
χA (λ ) = 0
... ... ...
= −λ 0
... ... ...
0 0
.. .. .. .. .. ..
0 . . . 1 0 . . . 1
1 0 0 0 −λ
[n]
1 0 0 0 −λ [n−1]
1
0 0 · · · 0
−λ . . . . . . . . . ...
+ (−1)n+1 0 . . . . . . . . . 0
... ... ...
0 0
1 0 0 −λ 1[n−1]
Il est clair que χA est scindé sur C et à zéros simples (les racines n-ième de 1 dans C) ;
d’après le corollaire précédent, A est diagonalisable dans Mn (C).
Généralité
Soit P = a0 + a1 X + · · · + aN X N ∈ K[X]
P(A) = a0 In + a1 A + · · · + aN AN
Remarque 3.4
Proposition 3.8
(αP + Q)( f ) = αP( f ) + Q( f )
∀α ∈ K, ∀P, Q ∈ K[X], (PQ)( f ) = P( f ) ◦ Q( f )
1( f ) = e
(αP + Q)(A) = α p(A) + Q(A)
∀α ∈ K, ∀P, Q ∈ K[X], (PQ)(A) = P(A) ◦ Q(A)
1(A) = In
Démonstration
N N
1. Notons P = ∑ ak X k , Q = ∑ bk X k
k=0 k=0
•
!
N
(αP + Q)( f ) = ∑ (αak + bk )X k (f)
k=0
N N N
= ∑ (αak + bk ) f k = α ∑ ak f k + ∑ bk f k
k=0 k=0 k=0
= ∑ αP( f ) + Q( f )
2N k
(PQ)( f ) = ( ∑ ( ∑ ai bk−i )X k )( f )
k=0 i=0
2N k N N
= ∑ ∑ aibk−i f k = ( ∑ ai f i) ◦ ( ∑ b j f j )
k=0 i=0 i=0 j=0
= P( f ) ◦ Q( f )
Proposition 3.9
Démonstration
gk+1 ◦ f = g ◦ (gk ◦ f ) = g ◦ ( f ◦ gk ) = (g ◦ f ) ◦ gk = ( f ◦ g) ◦ gk
= f ◦ gk+1
Proposition 3.10
Démonstration
• Montrons, par récurrence : ∀k ∈ N, f k (x) = λ k x. La propriété est triviale pour k = 0
(car f 0 = e et λ 0 = 1), et vraie pour k = 1 par hypothèse. Si elle est vraie pour un k
de N, alors :
N
• On a alors, pour tout P = ∑ ak X k de K ∈ [X],
k=0
N N
k
(P( f ))(x) = ( ∑ ak f )(x) = ∑ ak f k (x)
k=0 k=0
N
= ∑ ak λ k x = P(λ )x
k=0
Sommaire
4.1 Formes bilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.2 matrice d’une fbs dans une base . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.3 Changement de base pour une fbs . . . . . . . . . . . . . . . . . . . . . . . . 81
4.4 Formes sesquilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.4.1 Transconjugaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.4.2 Matrices hermitiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.5 la notion de produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.5.1 Diverses caractérisations d’une base orthonormale . . . . . . . . . . . . 91
78
Chapitre 4. Formes bilinéaires symétriques et formes sesquilinéaires 4.2. matrice d’une fbs dans une base
Démonstration
On a par récurrence immédiatement sur n :
n n
∀Y ∈ E, ϕ( ∑ αi xi ,Y ) = ∑ αi ϕ(xi ,Y ), d’où
i=1 i=1
!
n p n p
ϕ ∑ αixi, ∑ β j y j = ∑ αi ϕ(xi , ∑ βi y j )
i=1 j=1 i=1 j=1
!
n p n p
∑ αi ∑ β j ϕ(xi, y j ) =∑ ∑ αiβ j ϕ(xi, y j )
i=1 j=1 i=1 j=1
Exemple 4.1
ϕ : R3 × R3 7−→ R
((x1 , x2 ), (y1 , y2 )) 7−→ αx1 y1 + β (x1 y2 + x2 y1 ) + γx2 y2
On a alors
ϕ(x, y) = t XAY (4.2)
Démonstration
x1 y1
. .
En notant B = (e1 , · · · , en ), A = (ai j )i j , X = . .
. , Y = . On a
xn yn
!
n n
ϕ(x, y) = ϕ ∑ xi ei , ∑ y j e j = ∑ xi y j ϕ(ei , e j )
i=1 j=1 i∈[n], j∈[n]
! (4.3)
n n
= ∑ xi ∑ ai j y j .
i=1 j=1
D’autre part :
n
∑ a1 j y j
j=1
t ..
X = (x1 , · · · , xn ), AY = , (4.4)
n .
∑ an j y j
j=1
!
n n
Donc ∑ xi ∑ ai j y j =t XAY (4.5)
i=1 j=1
Proposition 4.3
A0 = t PAP (4.6)
Démonstration
Soient x, y ∈ E, X = MatB (x), Y = MatB (y),
0 0
X = MatB (x),Y = MatB (y),
on a alors :
0 0
X = PX et Y = PY .
0 0 0
D’une part ϕ(x, y) = t X A Y
D’autre part :
t 0 0
ϕ = X AY = t t (P ) A(PY )
t 0 0
= X t P A PY
0 0
Par unicité de la matrice ϕ dans B et puisque t P A P ∈ Sn (K), on conclut : t P AP = A
Proposition 4.4
n
∀x ∈ E, x = ∑ hei |xiei
i=1
Proposition 4.5
hx|yi = t XY
Notons S(E) l’ensemble des endomorphismes symétriques de E. Il est clair que S (E) est
un sev de L (E).
Proposition 4.6
f ∈ S (E) ⇐⇒ A ∈ Sn (R)
Démonstration
On a :
∀x, y ∈ E, h f (x)|yi = hx| f (y)i
Proposition 4.7
On a :
1. ∀ f , g ∈ S (E), (g ◦ f ∈ S (E) ⇐⇒ g ◦ f = f ◦ g ;
2. ∀ f ∈ S (E), ∀k ∈ N, f k ∈ S (E) ;
Démonstration
1. Soit f , g ∈ S (E). On a :
f o = IdE ∈ S (E).
= hx| f −1 (y)i.
Donc f −1 ∈ S (E)
∀k ∈ Z, f k = ( f −1 )−1 ∈ S (E).
Proposition-Définition 4.1
∀ f ∈ L (E), ∃!g ∈ L (E)/∀x, y ∈ E, h f (x)|yi = hx|g(y)i. Cet élément g de L (E) est appelé
l’adjoint de f et notée f ∗ . Pour toute base orthonormale B de E, on a :
MatB ( f ∗ ) = t (MatB ( f ))
Démonstration
Soient B une b.o.n de E, f , g ∈ L (E). Notons A = MatB ( f ), B = MatB (g). On a :
Proposition 4.8
Soient α ∈ R, f , g ∈ L (E). On a :
1. (α f + g)∗ = α f ∗ + g∗
2. (IdE )∗ = IdE
3. (g ◦ f )∗ = f ∗ ◦ g∗
4. ( f ∗ )∗ = f
5. f ∈ G L (E) ⇐⇒ f ∗ ∈ G L (E)
6. ∀ f ∈ G L (E), ( f ∗ )−1 = ( f −1 )∗
Démonstration
1ère méthode : Utiliser les matrices dans une b.o.n
2ème méthode :
1. ∀(x, y) ∈ E 2 :
(α f + g)∗ = α f ∗ + g∗
Donc : f = ( f ∗ )∗
5. et 6. Soit f ∈ L (E).
Proposition 4.9
hx|yi = 0
Démonstration
Soient λ , µ ∈ S p ( f )/ λ 6= µ, x ∈ SEP( f , λ ), y ∈ SEP( f , µ). On a donc :
D’où :
hλ x|yi = h f (x)|yi = hx| f (y)i = hx|µyi
=⇒ (λ − µ)hx|yi = 0 =⇒ hx|yi = 0
n p
ϕ( ∑ αk xk , ∑ β j x j ) = ∑ ∑ α k β j ϕ(xk , x j )
k=1 j=1 i≤k≤n 1≤ j≤p
ou encore : ϕ(x, y) =t X AY
Démonstration
Exercice
4.4.1 Transconjugaison
Dans ce paragraphe, n, p ∈ N† .
Définition 4.3
Soit A ∈ Mn,p (C). On appelle transconjuguée ou adjoint de A , et on note A† , la matrice
de M p,n (C) définie par :
A† = t A
Exemple 4.2
! 1 2−i
1 i 0
Si A = alors A† = −i 3
2+i 3 1−i
†0 1 + i
Exemple 4.3
Dans ce paragraphe n ∈ N∗
Définition 4.4
• Une matrice A de Mn (C) est dite hermitienne ssi :
A† = A
Remarque 4.1
2. A est hermitienne si et seulement si les éléments diagonaux de A sont réels et les élé-
ments extradiagonaux symétriques par rapport à la première diagonale sont conjugués
deux à deux.
Exemple 4.4
• ! !
1 0 2 1+i
, sont hermitiennes
0 −3 1 − i −5
• !
1 0
n’est pas hermitienne
0 i
Proposition 4.13
Hn est un R-ev.
Démonstration
Montrons que Hn est un sev du R-ev Mn (C)
• Si A, B ∈ Hn et α ∈ R alors :
Donc
αA + B ∈ Hn
Proposition 4.14
1. ∀A, B ∈ Hn , AB ∈ Hn ⇐⇒ AB = BA
2. ∀H ∈ Hn ∩ GLn (C), H −1 ∈ Hn
Démonstration
AB ∈ Hn ⇐⇒ (AB)† = AB
1. ⇐⇒ B† A† = AB
⇐⇒ BA = AB
2. (H −1 )† = (H † )−1 = H −1
Proposition 4.15
Soient E un evh (espace vectoriel hermitien) et f un endomorphisme auto-adjoint de E ie
un endomorphisme hermitien, A une matrice représentative de f . Alors :
2. Les sous-espaces propres de f sont deux à deux orthogonaux ( f possède une base
propre orthonormée) ; Les sous-espaces propres de A sont deux à deux orthogonaux
(A possède une base propre orthonormée)
3. Toutes les valeurs propres de f sont réelles. Toutes les valeurs propres de A sont
réelles.
On appelle espace préhilbertien complexe tout couple (E, ϕ) où E est un C-ev et ϕ un pro-
duit scalaire hermitien (psh) sur E. On appelle espace hermitien tout espace préhilbertien
complexe de dimension finie.
Définition 4.6
Produit scalaire usuel sur Rn , n ∈ N∗
L’application ϕ : Rn × Rn −→ R définie par :
n
ϕ((x1 , . . . , xn ), (y1 , . . . , yn )) = ∑ xk yk =t X Y (4.7)
k=1
est un produit scalaire sur Rn , appelé produit scalaire usuel (ou canonique) sur Rn .
k.k : E −→ R+
1 (4.8)
x 7−→ (Q(x)) 2
est une norme sur E, appelé norme euclidienne associée à ϕ. Pour la norme hermitienne,
Q est la forme hermitienne associée à ϕ.
Définition 4.8
Produit scalaire canonique sur Mn,p (R)
L’application
ϕ : Mn,p (R) × Mn,p (R) −→ R
t
(4.9)
(AB) 7−→ tr( AB)
est un produit scalaire sur Mn,p (R), appelé produit scalaire canonique sur Mn,p (R). Le pro-
duit scalaire canonique sur Mn,1 (R) (ou M1,n (R)) est, à la notation près, le produit scalaire
usuel sur Rn .
Définition 4.9
Produit scalaire hermitien sur Cn
L’application
ϕ: Cn × Cn −→ Cn
n (4.10)
((x1 , . . . , xn ), (y1 , . . . , yn )) 7−→ ∑ xk yk =t X̄ Y
k=1
est une fsh (produit scalaire hermitien canonique sur Cn ) et la fh associée est :
Cn −→ C
n (4.11)
(x1 , . . . , xn ) 7−→ ∑ |xk |2
k=1
Définition 4.10
Produit scalaire hermitien canonique sur Mn,p (C), n, p ∈ N∗
L’application
ϕ : Mn,p (C) × Mn,p (C) −→ C
(4.12)
(A, B) 7−→ tr(A† B)
est un produit scalaire hermitien sur Mn,p (C), appelé produit scalaire hermitien canonique
sur Mn,p (C). Le psh canonique sur Mn,1 (C) (ou M1,n (C) est, à la notation près, le psh usuel
sur C.
Définition 4.11
Produit scalaire hermitien canonique sur E, le C-ev des applications continues de [a; b]
dans C
Soient (a, b) ∈ R2 , tel que a < b, E = C0 ([a; b], C), le C-ev des applications continues de
[a; b] dans C. L’application
E 2 −→ C (4.13)
Z b
( f , g) 7−→ fg (4.14)
b
Propriété 4.1
Sommaire
5.1 Qubit ou bit quantique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.2 Phenomènes quantiques : interférences à une particule . . . . . . . . . . . . 96
5.2.1 Fentes d’Young . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.2.2 Interférométrie de Mach Zehnder . . . . . . . . . . . . . . . . . . . . . 98
5.2.3 Chat Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
Dans ce chapitre, nous présentons le cadre général de la théorie quantique en utilisant la puis-
sante et élégante algèbre de Dirac. Nous initions les étudiants à la découverte de l’étrange monde
quantique à travers quelques expériences d’interférences à une particule. Ces expériences montrent
que l’intuition et le bon sens hérités de la physique classique sont inadaptés dans le monde quan-
tique du fait de la nature fondamentalement probabiliste ou indéterministe des phénomènes
quantiques.
93
Chapitre 5. Qubits et états quantiques 5.1. Qubit ou bit quantique
La Figure 5.1 donne une représentation du qubit sur une sphère de Bloch. Tant qu’on effectue
F IGURE 5.1. Codage quantique. Le qubit |ψi = α|0i + β |1i (avec α = cos θ2 , β = ei ϕ sin θ2 et |α|2 + |β |2 = 1),
offre une description différente des systèmes physiques. Les états binaires classiques sont aux pôles de la sphère. Il
opère dans un univers multidimensionnel, ses états propres correspondent à la surface de la sphère, alors que les états
logiques classiques correspondent aux pôles de cette sphère.
aucune mesure ou alors tant que le qubit est isolé du monde extérieur, il reste dans cet état super-
posé. Dès qu’une mesure est effectuée où dès que le qubit est en contact avec son environnement, il
adopte un comportement classique en prenant soit l’état |0i, soit l’état |1i. Et les lois de la théorie
quantique nous disent que :
Principe 5.1 Probabilité de l’état d’un qubit
N−1 N−1
|ψi = ∑ αi |ii, ∑ |αi|2 = 1
i=0 i=0
La dichotomie qu’il y a entre le comportement du qubit quand il n’est pas observé (ou Lorsqu’il
est isolé) et Lorsqu’il est observé (ou en contact avec l’environnement), est au coeur même de la
théorie quantique. malgré son comportement étrange, le qubit existe réellement. En effet, nombre
de systèmes physiques peuvent être utilisés pour réaliser un qubit. C’est le cas par exemple des
deux états d’un électron orbitant autour du noyau d’un atome qu’illustre la Figure 5.2. Dans le
modèle de l’atome, un électron est soit dans un état fondamental soit dans un état excité, que l’on
peut représenter respectivement par |0i ou |1i. Lorsqu’on envoie un rayonnement électromagné-
tique avec une énergie appropriée, il est possible de déplacer l’électron de l’état |0i vers l’état |1i
et vice-versa. Mais il est encore plus intéressant d’éclairer l’atome avec un rayonnement ayant une
énergie telle que, l’électron initialement dans l’état |0i se trouve à mi-chemin entre |0i et |1i, dans
l’état
1
|ψi = √ (|0i + |1i)
2
.
F IGURE 5.2. Qubit représenté par deux états électroniques d’un atome.
Exercice 5.1
For each of the following qubits, if a measurement is made, what is the probality to find the
qubit in the state |0i ? What is the probality to find it in the state |1i ?
r
1 2
• |ψi = √ |0i + |1i
3 3
√
i 3
• |ψi = |0i + |1i
2 2
1+i i
• |ψi = √ |0i − √ |1i.
3 3
(a) Dispositif des fentes de Young (b) Interférence lumineuse lorsque les
deux fentes sont ouvertes. On a une alter-
nance de franges brillantes et de franges
sombres.
la position x alignée horizontalement sur la fente F1 . Lorsqu’on éloigne le détecteur de cette posi-
tion x, l’intensité diminue progressivement et devient nulle. cependant, lorsque les deux fentes sont
ouvertes, la figure des intensités n’est pas la somme des deux figures d’intensité des fentes indivi-
duelles ouvertes, mais plutôt une figure d’interférence : on observe au détecteur une alternance
de franges brillantes et de franges sombres (voir Fig.5.3(b)). Il y a donc interférence entre les
faisceaux lumineux provenant des deux fentes.
Utilisons maintenant un Dispositif spécial dont la source S ne produit que des électrons uniques
qui sont dirigés vers les fentes F1 et F2 . L’électron a une charge bien déterminée et la proposition :
un seul électron est bien passé soit par F1 , soit par F2 est bien décidable (deux chemins pos-
sibles). Chaque électron est capté en un point bien précis du détecteur comme on peut le voir sur
la Fig.5.4(a). Ces points d’impact sont cependant aléatoires : les différents électrons indépendants
préparés dans les mêmes conditions ont des impacts différents. Ce qui est en contradiction avec le
déterminisme classique qui veut qu’à des conditions initiales identiques, correspondent des condi-
tions finales identiques. Au bout d’un temps suffisamment long, on observe avec surprise que les
impacts des électrons forment une figure d’interférence comme illustrée à la Fig.5.4(d). Ce résultat
est surprenant en ce sens que l’électron est un corpuscule. Or nous savons qu’une onde remplit tout
l’espace ! Les électrons sont nus et indivisibles, donc il n’y a pas de fragmentation d’un quantum
d’énergie hν. D’après Paul Dirac, chaque électron interfère avec lui-même comme une onde.
1 Il y a donc antinomie : les concepts classiques d’onde et de corpuscules semblent ne plus être
F IGURE 5.4. Figures d’interférence obtenues avec des électrons uniques. Le nombre d’électrons sur le détecteur
augmente au cours du temps. Le temps d’exposition entre la figure (a) et la figure (d) est multiplié par 20. (a) 8
électrons ; (b) 270 électrons ; (c) 2000 électrons ; (d) 6000 électrons.
Lorsqu’on réalise une autre expérience où le chemin emprunté par l’électron est discernable,
F1 ouvert seul ou F2 ouvert seul, on n’observe pas de figure d’interférence, mais plutôt des impacts
distribués autour des sorties F1 ou F2 . La somme de ces deux distributions distinctes ne ressemble
en rien à la figure obtenue quand les deux fentes sont ouvertes. On ne peut donc analyser le phéno-
mènes d’interférence des électrons uniques en termes de probabilités classiques : lorsqu’à la même
issue correspondent des processus indépendants différents, la probabilité de cette issue n’est pas la
somme des probabilités individuelles.
1 En fait, avant la mesure, l’électron est dans une superposition d’états, et c’est chaque de ces états qui a interféré
avec les autres.
Afin de mieux analyser le comportement des objets quantiques, examinons les expériences qui
mènent à l’Interférométrie de Mach Zehnder. On considère :
• une source qui envoie des objets quantiques isolés, un à un, l’un après l’autre ;
Expérience MZ1
Les objets quantiques arrivent individuellement sur le séparateur et on compte combien d’entre eux
sont réfléchis (R), et combien sont transmis (T) Figure MZ1. Après le passage d’un grand nombre
d’objets quantiques, on fait les deux observations suivantes :
1. Les deux détecteurs ne s’activent jamais au même instant, donc l’objet est indivisible, il est
soit réfléchi, soit transmis (deux chemins possibles) ;
2. La moitié des objets quantiques est réfléchie et l’autre moitié est transmise et les deux pro-
babilités sont 50%.
Expérience MZ2
Il y a lieu de se poser la question de savoir si en sortant de la source, chaque objet n’a pas une
instruction lui permettant, chaque fois qu’il rencontre un séparateur, d’être soit seulement réfléchi,
soit seulement transmis ?
Afin d’élucider cela, à chaque sortie du premier séparateur, on place un autre séparateur et on
obtient quatre chemins possibles (Fig. 5.5(b)) : l’objet quantique peut être réfléchi deux fois (RR),
réfléchi puis transmis (RT), transmis puis réfléchi (TR) ou transmis deux fois (TT).
Si chaque objet avait une instruction lui permettant, chaque fois qu’il rencontre un séparateur,
d’être soit seulement réfléchi, soit seulement transmis, alors après le passage d’un grand nombre
d’objets quantiques, on observerait 50% des objets en RR et 50% des objets en TT, et rien en RT
ou TR. Mais on observe qu’on a 25% d’objets à chaque sortie.
Expéreince de MZ3
(a) Expérience MZ3 : Interféromètre de Mach (b) Expérience MZ4 : Interféromètre de Mach
Zehnder équilibré. Les chemins sont indiscer- Zehnder déséquilibré. Les chemins sont discer-
nables. nables et l’objet quantique explore tous les che-
mins possibles.
Dans la configuration de notre expérience MZ3, A2 est toujours vraie alors que A1 peut être vraie
ou fausse.
Si on modifie l’expérience en insérant des détecteurs aux chemins R et T après le premier sé-
parateur, de sorte à avoir exactement la valeur de vérité de A1 , alors la valeur de vérité de A2 est
modifiée. Seule la moitié des objets quantique conduiront à une valeur de vérité vraie, conformé-
ment à l’expérience MZ1. Donc si l’objet quantique laisse une trace de son passage, on observe
pas d’interférence.
Conclusion 5.2 trajectoire d’un objet quantique
Il est donc impossible de savoir par quel chemin est passé l’objet quantique et observer les
interférences. C’est le paradoxe connu sous le non du chat de Schrödinger.
Expérience MZ4
On modifie la longueur des chemins RT ou TR, en y introduisant par exemple une longueur sup-
plémentaire ∆l. On constate que les probabilité de détection des objets quantiques aux sorties (RT
ϕ ϕ
ou TR) et (RR ou TT) sont respectivement cos2 et sin2 , ϕ = 2π∆l/λ
2 2
• ∆l = λ (lame d’onde), tous les objets quantiques sont détectés à la sortie RT ou TR ;
λ
• ∆l = (lame demi-d’onde), tous les objets quantiques sont détectés à la sortie RR ou TT ;
2
λ
• ∆l = (lame quart-d’onde), une moitié à la sortie RT ou TR.
4
Donc,lorsqu’on modifie un seul des deux chemins, on modifie le comportement de tous les
objets quantiques.
Résumé 5.1
En résumé :
2. Dans les expériences MZ1 et MZ2, il y a un seul chemin qui conduit à chaque détec-
teur, chaque objet quantique détecté a emprunté un chemin connu : c’est la situation
de discernabilité, il n’y a pas d’interférence.
3. Dans les expériences MZ3 et MZ4, on ne peut dire quel chemin chaque objet quan-
tique détecté a emprunté, puisque deux chemins sont possibles. Ces deux chemins
sont indiscernables et les effets d’interférence sont présents. On peut donc énoncer le
principe suivant :
On peut dire que le comportement d’un objet quantique dépend de toutes les possibi-
lités indiscernables. Donc avant la mesure, le système quantique est dans une super-
position d’états possibles (états propres).
4. Chaque objet quantique explore tous les chemins possibles (délocalisation) comme
une onde, cependant elle est indivisible à la détection. Si cette exploration de tous les
chemins n’était pas possible, tous les objets quantique ne seraient pas influencés par
le changement de longueur d’un seul chemin. un objet quantique n’a donc pas une
trajectoire bien définie.
5. Dans l’expérience MZ3, lorsqu’on cherche à savoir par quel chemin est passé l’objet
quantique, on n’observe plus de figure d’interférence. On dit alors que : la mesure
perturbe le système. L’interposition d’un instrument de mesure modifie le chemin
emprunté et la discernabilité apparaît.
Ce phénomène est d’ailleurs à la base de la crytographie quantique car toute tenta-
tive d’espionnage est immédiatement détectée par la perturbation qu’elle introduit.
Dans la suite, on désignera par quanton tout objet quantique (photons, neutrons,
atomes, molécules . . .) pouvant présenter l’un ou l’autre des deux aspects particuliers
(particules, ondes).
Remarque 5.1
Quand on dit que le quanton interfère avec lui-même, il s’agit en fait d’interférences d’am-
plitudes de probabilité.
Dans les années 1930, le célèbre physicien autrichien Schrödinger avait, en pensée, enfermé un
chat dans une boîte en acier contenant un bol de lait empoisonné. Le chat meurt s’il boit de ce lait
et il est vivant sinon. Cependant, tant qu’aucune mesure n’est effectuée (la boîte reste fermée), le
chat est dans un état superposé à la fois mort et vivant ! Attention, le chat n’est pas mort-vivant,
il est soit mort, soit vivant, mais tant que la boîte n’est pas ouverte, notre information sur son
état est nécessairement constituée de ces deux possibilités. C’est en l’observant que l’on constate
que le chat est mort ou vivant. Donc, on réduit le paquet d’ondes, en transformant le chat de l’état
1
superposé √ (|vivanti + |morti) à l’état |vivanti ou |morti.
2
F IGURE 5.7. Le chat de Schrödinger dans la boîte d’acier. Tant que la boîte reste fermée, le chat est dans un état
superposé mort et vivant.
Achevons ce chapitre, porte d’entrée dans le merveilleux monde quantique, en notant que clas-
siquement, on est habitué à un déterminisme rigide et à la relation de causalité : quand on connaît
les conditions initiales, on sait parfaitement ce qui va se passer.
En théorie quantique, ces certitudes sont remises en question. La possibilité de prévoir le com-
portement d’un système quantique n’est qu’une prédictibilité probabiliste (un seul événement) et
statique (grand nombre d’événements). L’objet quantique est en quelque sorte une juxtaposition
de possibles : on parle d’indéterminisme. On dit aussi que Dieu joue aux dés en théorie quan-
tique.
Conclusion 5.3 Etat du chat avant et après la mesure
Tant que la mesure sur un système quantique n’est pas effectuée, ce dernier est dans une
superposition d’états possibles (états propres) et donc, l’état du système n’est pas défini. Par
contre, dès qu’on effectue la mesure, on détruit la superposition quantique (perturbation du
système) et le système est alors dans l’un de ses états possibles.
Sommaire
6.1 Espace des états quantiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
6.1.1 Vecteur d’état et observable . . . . . . . . . . . . . . . . . . . . . . . . 104
6.1.2 Commutateur de deux opérateurs . . . . . . . . . . . . . . . . . . . . . 105
6.1.3 Opérateurs hermitien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.1.4 Opérateurs de projection . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6.2 ECOC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.2.1 Observables qui commutent . . . . . . . . . . . . . . . . . . . . . . . . 108
6.2.2 ECOC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.2.3 Mesures expérimentales et ECOC . . . . . . . . . . . . . . . . . . . . . 112
6.3 Postulats de la mécanique quantique . . . . . . . . . . . . . . . . . . . . . . . 112
6.3.1 Postulats fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.3.2 Opérateur correspondant à une grandeur physique . . . . . . . . . . . . . 112
6.3.3 Probabilité d’obtention d’une valeur propre lors d’une mesure . . . . . . 113
6.3.4 Valeurs moyennes d’une observable . . . . . . . . . . . . . . . . . . . . 116
6.4 Propriétés des observables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6.4.1 Évolution de la valeur moyenne d’une observable . . . . . . . . . . . . . 116
6.4.2 Constante du mouvement . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.5 Mesure de grandeurs physiques . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.6 Opérateurs d’évolution et états stationnaires . . . . . . . . . . . . . . . . . . 119
6.6.1 Cas des systèmes conservatifs . . . . . . . . . . . . . . . . . . . . . . . 120
103
Chapitre 6. Formalisme de la mécanique quantique 6.1. Espace des états quantiques
Jusqu’ici, nous avons vu la fonction d’onde comme une solution de l’équation de Schrödinger,
permettant de décrire un système physique. Cependant, cette fonction d’onde est exprimée dans
une représentation particulière, on introduit le vecteur d’état qu’on caractérisera par le symbole
| i
Définition 6.1 Vecteur d’état
On appelle vecteur d’état tout vecteur de l’espace de Hilbert permettant de décrire l’état
quantique d’un système indépendamment de la représentation choisie. Un tel vecteur est un
ket du point de vue de Dirac.
Exemple : |ni, |ψi sont deux vecteurs d’états décrivant des systèmes donnés.
Définition 6.2 Espace dual
Soit E, un C-ev, à tout élément |ψi de E, on peut toujours lui associer un élément de l’espace
dual de E (E ∗ ) qu’on notera hψ| et qu’on lira bras de ψ.
On appelle espace de Banach tout espace vectoriel normé et complet. Un espace vectoriel
est dit normé lorsqu’il est muni d’une norme. Un espace vectoriel normé E est dit complet
lorsque toute suite de Cauchy de E converge dans E. Enfin, on appelle espace de Hilbert
tout espace de Banach muni d’un produit scalaire. La norme ici étant la norme associée au
produit scalaire.
• En théorie quantique, on appellera opérateur toute application d’un ev vers un autre. Ainsi,
un opérateur linéaire est un f ∈ L (E, F).
• Conventionnellement, on utilisera les lettres majuscules surmonter d’un chapeau pour dési-
gner un opérateur en théorie quantique.
Ainsi, on pourra avoir Â, B̂, Ĉ, . . . comme opérateurs linéaires. Les matrices associées à ces
opérateurs linéaires pourront être notées A, B,C, . . . , respectivement. Ceci par abus de langage,
on confondra les opérateurs à leurs représentations respectives. Ainsi, toutes les propriétés vues
pour les applications linéaires sont valables pour les opérateurs linéaires. Dans tout ce cours, les
opérateurs que nous considérerons sont linéaires.
Définition 6.4 Opérateur hermitien
L’opérateur  est dit hermitien si sa matrice representative A dans une base donnée est
hermitienne
Une propriété importante distingue le produit des nombres de celui des opérateurs.
Comme nous l’avons vu pour les matrices, en général, AB 6= BA.
Définition 6.6 Commutateur de deux opérateurs
[A, B] = AB − BA
Soient A et B deux opérateurs qui commutent. Si |ψi est un vecteur propre de A, alors B|ψi
en est un autre associé à la même valeur propre.
Démonstration
Corollaire 6.1
Si λ est une valeur propre non dégénérée, les deux vecteurs propres |ψi et B|ψi sont
propositionnels. Soit B|ψi = α|ψi. Donc |ψi est également vecteur propre de B.
Corollaire 6.2
Si λ est une valeur propre dégénérée, nous avons vu que toute combinaison linéaire des
vecteurs propres associés à λ forme encore un vecteur propre (En effet, toute combinaison
linéaire α|ψi + β |ψi de vecteurs propres de A associés à une même valeur propre λ est
encore un vecteur propre de A associée à la même valeur propre λ . L’ensemble Eλ des
vecteurs propres de A forme donc un sev de l’ev EA formé par tous les vecteurs propres de
A. Eλ = SEP(A, λ ); dim Eλ = gλ . On peut donc seulement dire que B|ψi appartient au sous-
espace propre Eλ formé par les vecteurs propres de A associés à λ . On dit que le sous-espace
est stable sous l’action de B.
Théorème 6.1
Toutes les valeurs propres d’un opérateur hermitien sont réels.
Démonstration
Théorème 6.2
Deux vecteurs propres d’un opérateur hermitien, correspondant à des valeurs propres dis-
tinctes, sont orthogonaux entre-eux.
Démonstration
Théorème 6.3
Soient A et B deux opérateurs hermitiens tels que [A, B] = 0 (A et B sont des observables
compatibles). Soient |ψ1 i et |ψ2 i deux vecteurs propres de A associés respectivement à des
vecteurs propres différents , α1 et α2 . Ces vecteurs propres sont orthogonaux entre-eux et
peuvent faire partir d’une base propre. Alors l’élément de matrice hψ1 |Bψ2 i est nul :
hψ1 |B|ψ2 i = 0
Démonstration
En effet, puisque [A, B] = 0, B|ψ2 i ∈ SEP(A, α2 ) = E2 . Si |ψ1 i est un élément d’une base
propre, il est orthogonal aux vecteurs de E2 et par suite, B|ψ2 i est orthogonal à |ψ1 i ⇒
hψ1 |B|ψ2 i = 0
Pφ = |φ ihφ | (6.1)
Soient |ψ1 i, |ψ2 i, . . . , |ψ p i; p vecteurs formant un sous-espace E p de l’espace E des vecteurs d’état.
Montrons que l’opérateur Pp défini par :
p
Pp = ∑ |ψi ihψi | (6.3)
i=1
p
∀|φ i ∈ E Pp |φ i = ∑ |ψi ihψi |φ i (6.4)
i=1
On obtient une combinaison linéaire des vecteurs |ψi i et le vecteur Pp |φ i appartient donc à l’espace
E p ; les kets hψi |φ i|ψi i sont les projections de |φ i sur les divers kets |ψi i. L’opérateur Pp est donc
bien une projection sur le sous-espace E p .
Relation de fermeture
|φ i = ∑ c j |ψ j i (6.5)
j
La relation de fermeture exprime que l’ensemble {|ψi i} forme une base orthonormée de E.
Théorème 6.4
Si deux observables commutent, elles possèdent un système de vecteurs propres communs
formant une base de l’espace des vecteurs d’état.
Démonstration
hors programme
Observables compatibles
Soient A et B deux observables qui commutent et soient a j et bk des valeurs propres respectives
de A et B. Notons |a j , bk , li les vecteurs formant une base commune de l’espace des états ; l’indice
l spécifie les différents vecteurs correspondant à un même couple (a j , bk ). L’état |a j , bk , li étant
associé à la valeur propre a j de A, il existe au moins un état pour lequel une mesure de A permettra
d’obtenir la valeur a j . Pour ce même état, une mesure de B permettra d’obtenir la valeur bk . Si l’on
effectue simultanément une mesure de A et B, on peut, dans ce cas, obtenir des valeurs parfaitement
déterminées. Lorsqu’il en est ainsi, on dit que ces observables sont compatibles
Lorsque deux observables ne commutent pas, elles ne pourront pas avoir de base commune et
un état ne pourra pas être un vecteur propre simultané de ces deux observables, sauf éventuellement
pour quelques vecteurs particuliers. On dira que ces observables sont incompatibles.
6.2.2 ECOC
La notion d’ECOC est importante en mécanique quantique car elle correspond à l’idée que, pour
un système donné, on a trouvé un ensemble d’observables dont les valeurs et les vecteurs propres
spécifient toutes les grandeurs expérimentales mesurables, pour une technique de mesure donnée.
Principe 6.1
• Considérons une observable A agissant dans E et une base propre de A. Lorsque au-
cune des vecteurs propres de A n’est dégénérée, cette base propre est unique. On dit
alors que l’observable A constitue , à elle seule, un ECOC.
• Supposons à présent que l’observable A ait un spectre dont l’une au moins des vecteurs
propres soit dégénérée. Notons a cette valeur propre dégénérée et Ea = SEP(A, a). On
peut choisir à l’intérieur de Ea une base quelconque et la base propre de A n’est plus
unique.
Soit alors B une autre observable qui commute avec A. On peut former une b.o.n de
vecteurs propre communs à A et B puisque nous en avons démontré l’existence. Si
cette base est unique, c’est-à-dire si à chacun des couples des valeurs propres (a j , bk )
il correspond un seul vecteur de base de E, on dit alors que les observables A et B
forment un ECOC.
Principe 6.2
De manière générale, des observables A, B, . . . , M forment un ECOC si et seulement si :
Remarquons que pour un système physique donné, on peut choisir plusieurs ECOC différents.
En particulier, on peut ajouter d’autres observables qui commutent avec ceux d’un ECOC ; on ob-
tient alors un autre ECOC. On utilisera généralement le nombre minimal d’observables permettant
de former un ECOC.
Exemple 6.1 ECOC
On considère un système physique dont l’espace des états, qui est à trois dimensions, est
rapporté à la base orthonormée formée par les trois kets |ϕ1 i, |ϕ2 i, |ϕ3 i. Dans la base B =
(|ϕ1 i, |ϕ2 i, |ϕ3 i), les opérateurs H et B sont définis par :
1 0 0 1 0 0
H = h̄ωo 0 −1 0 , B = b 0 0 1
0 0 −1 0 1 0
où ωo et b sont des constantes réelles.
1. H et B sont-ils hermitiques ?
3. Parmi les ensembles d’opérateurs :{H}, {B}, {H, B}, {H 2 , B}, lesquels forment un
ECOC ?
Solution
! !
−1 0 0 1
H2 = , B2 =
0 −1 1 0
Les vecteurs propres normés de B2 sont :
1
|p2 i = √ (|ϕ2 i + |ϕ3 i) (valeur propre + b)
2
1
|p3 i = √ (|ϕ2 i − |ϕ3 i) (valeur propre − b)
2
Ces vecteurs sont systématiquement les vecteurs propres de H, puisque E2 est un sous-
espace propre de H correspondant à la valeur propre −h̄ω0 . En résumé, les vecteurs
propres communs à H et B sont donnés par
Vecteurs propres valeurs propres de H valeurs propres de B
|p1 i = |ϕ1 i h̄ω0 b
1
|p2 i = √ (|ϕ2 i + |ϕ3 i) −h̄ω0 b
2
1
|p3 i = √ (|ϕ2 i − |ϕ3 i) −h̄ω0 −b
2
3. On voit sur le tableau que H a une valeur propre dégénérée deux fois ; ce n’est donc
pas un ECOC. De même, B a aussi une valeur propre dégénérée deux fois, et n’est
donc pas un ECOC : un vecteur propre de B de valeur propre b peut être aussi bien
1 1 1
|p1 i, ou |p2 i, ou encore √ (|ϕ1 i + √ |ϕ2 i − √ |ϕ3 i) par exemple. Par contre, l’en-
3 3 3
semble des deux opérateurs H et B constitue, lui, un ECOC. En effet, dans le tableau
écrit plus haut, il n y a pas deux vecteurs |p j i qui aient les mêmes valeurs propres,
à la fois pour H et B. C’est pourquoi, comme cela a déjà été signalé, le système
de vecteurs propres normés communs à H et B est unique (à des facteurs de phase
près). Remarquons que, à l’intérieur du sous-espace propre E2 de H associé à la va-
leur propre −h̄ω0 , les valeurs propres de B sont distinctes (b et −b) : de même, dans
le sous-espace propre de B engendré par |p1 i et |p2 i, les valeurs propres de H sont
distinctes (h̄ω0 et −h̄ω0 ).
H 2 admet |p1 i, |p2 i, et |p3 i comme vecteurs propres, avec la valeur propre h̄2 ω02 , on
voit aisément que H 2 et B ne constituent pas un ECOC, puisqu’au couple de valeurs
propres {h̄2 ω02 , b} correspondent deux vecteurs propres linéairement, indépendants,
|p1 i et |p2 i.
Les grandeurs physiques représentées par les observables d’un ECOC peuvent être toutes mesurées
simultanément avec précision et forment un ensemble complet de grandeurs compatibles. Le
vecteur d’état du système est un vecteur propre des observables A, B, . . . , M correspondant aux
valeurs propres a, b, . . . , m, trouvées lors de l’opération de mesure. Comme il n’existe qu’un seul
vecteur propre possédant cette propriété, la donnée de ces mesures définit complètement de vecteur
d’état du système physique.
L’état quantique d’une particule peut être caractérisé par un vecteur d’état |ψi du C-ev E. On
postule qu’il en est de même pour tout système quantique.
Postulat 6.1
A tout instant t, l’état d’un système quantique est décrit par un vecteur d’état |ψ(t)i appar-
tenant au C-ev des états quantiques.
Outre l’énergie des particules qui figure dans l’équation de Schrödinger, des grandeurs physiques
comme l’impulsion, le moment cinétique, ... peuvent être définies en mécanique quantique. Nous
avons vu, par exemple, qu’à l’impulsion classique p, on fait correspondre −ih̄∇, à l’énergie, l’opé-
rateur hamiltonien. Cette règle de correspondance se généralise.
Postulat 6.2
A toute grandeur physique mesurable A , on peut faire correspondre un opérateur A qui agit
sur les vecteurs d’états de l’espace E, cet opérateur est une observable.
L’équation de Schrödinger H|ψi = E|ψi est une équation dont les énergies E sont les valeurs
propres de l’opérateur H. De même, toutes les grandeurs physiques mesurables vont être des vec-
teurs propres de l’opérateur correspondant. La mesure d’une grandeur physique étant nécessaire-
ment un nombre réel, l’opérateur correspondant doit être hermitien.
Ainsi, une observable est tout opérateur hermitique (hermitien) associé à une grandeur phy-
sique mesurable.
Postulat 6.3
Les valeurs propres de l’observable A, correspondant à une grandeur physique, sont les
seules valeurs mesurables.
Postulat 6.4
L’opérateur hamiltonien H(t) d’un système est une observable associée à l’énergie totale de
ce système. L’évolution dans le temps du vecteur d’état |ψ(t)i est régie par l’équation de
Schrödinger :
d
H(t)|ψ(t)i = ih̄ |ψ(t)i (6.8)
dt
Construction de l’opérateur hamiltonien Dans le cas d’une particule de masse m dans un po-
tentiel scalaire, l’hamiltonien classique s’écrit :
p2
H= +V (r). (6.9)
2m
L’hamiltonien correspondant agissant dans l’espace des vecteurs d’état s’écrit alors :
P2
H= +V (R) (6.10)
2m
Mesure de l’énergie
Considérons un système qui se trouve dans un état quelconque décrit par le vecteur |ψi normé.
Notons les vecteurs propres orthonormés de l’hamiltonien du système, correspondant aux états
stationnaires de celui-ci, associés aux valeurs propres En , non dégénérées. Le vecteur |ψi peut
s’écrire sur la base (|un i)n :
|ψi = ∑ cn |un i (6.11)
n
Dans un état stationnaire, l’énergie En du système est donnée par l’élément matriciel suivant de
H:
En = hun |H|un i (6.12)
Cherchons à présent le sens physique qu’il faut attribuer à un élément du même type pour un
système dans un état non stationnaire, c’est-à-dire :
W = hψ|H|ψi (6.13)
W = h∑ cn un |H| ∑ cm um i = ∑ ∑ c∗n cm hun |um i (6.14)
n m n m
= ∑ |cn|2En (6.15)
n
Selon le postulat 1.3, les seules valeurs mesurables sont les valeurs En . Or si l’on effectue un grand
nombre N de mesures de l’énergie sur un système dans un état quelconque |ψi, on obtiendra un
certain nombre de fois , n j , la valeur E j . Lorsque N → ∞, le rapport n j /N tend vers la probabilité
théorique P(E j ) d’obtenir la valeur E j lors d’une mesure, soit :
nj
P(E j ) ' (6.16)
N
Or, la valeur moyenne, hWexp i, des valeurs obtenus à partir de ces nombres est la somme des valeurs
expérimentales divisée par N, soit
1
hWexp i = n j En ' ∑ P(E j )E j (6.17)
N∑j j
On voit donc que W peut être interprété comme une valeur moyenne de l’énergie en considérant
|2
|cn comme la probabilité d’obtenir pour résultat En lors d’une mesure. Cette interprétation est
confortée par le fait que la somme des probabilités est bien égale à l’unité, puisque :
L’interprétation précédente des quantités |cn |2 peut être étendue à toutes les observables. Considé-
rons une observable A dont le spectre ne comporte que de valeurs propres an non dégénérées et
soit |un i le vecteur propre normé associé à an . L’ensemble des vecteurs d’état |un i forme une base
orthonormée du C-ev E. Ainsi,
Comme on l’a fait pour l’énergie, on postule que |cn |2 représente la probabilité, notée P(an ), d’ob-
tenir la valeur propre an comme résultat d’une mesure de la grandeur physique A à laquelle cor-
respond l’observable A.
Postulat 6.5
Soit A une grandeur physique d’un système quantique et A l’observable correspondante
dont le spectre ne comporte que de valeurs propres non dégénérées an associées aux vecteurs
propres orthonormés |un i. Lorsqu’on mesure A sur le système dans l’état quelconque |ψi
de norme unité, la probabilité P(an ) d’obtenir comme résultat de mesure an est donnée par :
Dans le cas d’un système d’un spectre comportant des vecteurs propres an dégénérées gn fois, il
correspond à chaque valeur propre gn vecteurs propres orthonormés |ukn i, k = 1, 2, . . . , gn . Ainsi,
|ψi ∈ E peut être développé sur la base orthonormée (|ukn i)n,k sous la forme :
gn
|ψi = ∑ ∑ ckn |ukn i (6.21)
n k=1
gn
P(an ) = ∑ |ckn|2 (6.22)
k=1
Postulat 6.6
Soit A une grandeur physique d’un système et A l’observable correspondante ; soit an une
vecteur propre de A dégénérée gn fois et associée aux vecteurs propres orthonormés |ukn i.
Lorsqu’on mesure A sur le système dans l’état |ψi de norme unité, la probabilité P(an )
d’obtenir comme résultat de mesure an est donnée par :
gn
P(an ) = ∑ |hukn|ψi|2 (6.23)
k=1
Les postulats 1.5 et 1.6 ont été obtenus en généralisant le raisonnement effectué sur la valeur
moyenne de l’énergie donnée par 6.15. Réciproquement, partant des postulats 5 et 6, on doit re-
trouver, pour une observable quelconque A, une expression analogue à 6.15 pour la valeur moyenne
de A.
Définition 6.7 Valeur moyenne d’une observable
Considérons un système quantique dans un état quelconque normé |ψi. La valeur moyenne,
notée hAiψ , d’une observable A dans l’état |ψi est donnée par :
gn gn
=⇒ hAiψ = ∑ ∑ |hukn|ψ|2an = ∑ ∑ hψ|anuknihukn|ψi
n k=1 n k=1
gn
= ∑ ∑ hψ|A|uknihukn|ψi
n k=1
!
gn
= hψ|A ∑ ∑ |uknihukn| |ψi
n k=1
Donc
hAiψ = hψ|A|ψi (6.25)
Considérons un système dans un état |ψ(t)i, dont la norme est unité à l’instant t = 0, c’est-à-dire :
hψ(0)|ψ(0)i = 1 (6.26)
et soit A(t) une observable associée à une grandeur physique A (t), soit :
supposons que la valeur moyenne hAi dépende du temps, ce qu’on note hAi(t) ; on a :
cette valeur moyenne dépend du temps parce que le vecteur |ψ(t)i en dépend mais aussi éventuel-
lement l’opérateur A(t). Dérivons l’expression 6.28 par rapport à t ; il vient :
d d ∂A d
hAi(t) = hψ| A|ψi + hψ| |ψi + hψ|A |ψi (6.29)
dt dt ∂t dt
d i i
Or |ψi = − H(t)|ψi = − |H(t)ψi (6.30)
dt h̄ h̄
d i
=⇒ hψ| = hψ|H(t) (6.31)
dt h̄
d i ∂A
hAi(t) = − hψ|(AH − HA)|ψi + |ψi hψ| (6.32)
dt h̄ ∂t
d i ∂A
Donc hAi(t) = − h[A(t), H(t)]i + h i(t) (6.33)
dt h̄ ∂t
Ainsi, pour A = I, on a :
d i i
hψ(t)|ψ(t)i = hψ(t)|H|ψ(t)i − hψ(t)|H|ψ(t)i = 0 (6.34)
dt h̄ h̄
Conclusion 6.1
On en déduit que la norme de l’état du système reste indépendante du temps. Cela signifie
que, lorsqu’à l’instant zéro le vecteur d’état |ψi du système est normalisé à l’unité, son état
|ψ(t)i conserve à tout instant sa norme, justifiant ainsi la conservation de la probabilité de
présence totale.
∂A
h i(t) = 0, h[A(t), H(t)]i = 0 (6.36)
∂t
d
=⇒ hAi(t) = 0 (6.37)
dt
Dans ce cas, quelque soit l’état |ψi du système, la valeur moyenne de A dans cet état n’évo-
lue pas au cours du temps. Lorsqu’il en est ainsi, on dit que l’observable A est une constante
du mouvement.
avec an une valeur propre de A ou valeur résultant d’une mesure idéale faite sur A .
Si la mesure d’une grandeur physique A sur le système dans l’état |ψi donne le résultat an ,
l’état du système immédiatement après la mesure est |ϕn i défini par :
Pn |ψi Pn |ψi
|ϕn i = =p (6.39)
||Pn |ψi|| hψ|Pn |ψi
|ϕn i est donc la projection normée de |ψi sur le sous-espace propre associé à an . Donc la
mesure est une projection orthogonale.
Exercice 6.1
A system is in the state
1 √
|ψi = √ 2|u1 i + 2|u2 i + |u3 i + 2|u4 i + 6|u5 i (6.40)
19
where {|un i}n=1−5 are a complete and orthogonal set of vectors. Each |un i is an eigenstate of
the system’s Hamiltonian corresponding to the possible measurement result H|un i = n ε|un i
d
H −→ ih̄ (6.41)
dt
Nous supposons pour simplifier, le spectre de H discret. τ désigne l’ensemble des indices autres
que n qui sont nécessaires, pour caractériser un vecteur |ϕn,τ i unique (ces indices repéreront au
général les valeurs propres d’opérateurs formant avec H un ECOC) comme par hypothèse H ne
dépend pas explicitement du temps, t n’intervient ni dans la valeur propre En , ni dans le ket propre
|ϕn i.
Nous allons montrer tout d’abord que la connaissance des En et des |ϕn,τ i permet de résoudre
très simplement l’équation de Schrödinger, c’est-à-dire de déterminer l’évolution au cours du
temps d’un état quelconque. En effet, les |ϕn,τ i formant une base (H est une observable) de l’es-
pace des états du système, on peut toujours, pour chaque valeur de t, développer un état |ψ(t)i
quelconque du système sur les |ϕn,τ i :
d
ih̄ hϕn,τ |ψ(t)i = hϕn,τ |H|ψ(t)i (6.44)
dt
d
=⇒ ih̄ cn,τ (t) = En cn,τ (t) (6.45)
dt
Pour trouver |ψ(t)i, connaissant |ψ(t0 )i, on procède donc comme suit :
Principe 6.4 Détermination de l’évolution d’un état quantique au cours du temps
|ψ(t0 )i = ∑ ∑ cn,τ (t0 )|ϕn,τ i, cn,τ (t0 ) = hϕn,τ |ψ(t0 )i; (6.47)
n τ
2. On obtient alors |ψ(t)i, pour t quelconque, en multipliant chaque coefficient cn,τ (t0 )
du développement précédent par e−iEn (t−t0 )/h̄ . En étant la valeur propre de H associée
à l’état |ϕn,τ i :
|ψ(t)i = ∑ ∑ cn,τ (t0 )e−i En (t−t0 )/h̄ |ϕn,τ i. (6.48)
n τ
Etats stationnaires
un cas particulier important est celui où |ψ(t0 )i lui-même est état propre de H :
|ψ(t)i et |ψ(t0 )i ne différent donc l’un de l’autre que par le facteur de phase e−iEn (t−t0 )/h̄ . Ces
deux états sont physiquement indiscernables.
Conclusion 6.2 Les États propres de H sont des états stationnaires
Nous en concluons que toutes les propriétés physiques d’un système qui se trouve dans
un état propre de H ne varient pas au cours du temps, les états propres de H sont ainsi
appelés états stationnaires.
hAiψ(t) = heiEn (t−t0 )/h̄ ψ(t0 )|A|e−iEn (t−t0 )/h̄ ψ(t0 )i (6.53)
= hψ(t0 )|A|ψ(t0 )i = hAiψ(t0 ) (6.54)
Nous avons vu qu’on appelle constante du mouvement, une observable A qui ne dépend pas
explicitement du temps et qui commute avec H :
∂A
= 0
∂t (6.55)
[A, H] = 0
d d
• On a : hAi = hψ(t)|A|ψ(t)i = 0
dt dt
Quel que soit l’état |ψ(t)i du système physique, la valeur moyenne de A dans cet état n’évo-
lue pas au cours du temps (d’où l’appellation "constante du mouvement") .
• Comme A et H sont deux observables qui commutent, on peut toujours leur trouver un sys-
tème de vecteurs propres communs, que nous désignerons par (|ϕn,p,τ i) :
Nous supposons pour simplifier les spectres de H et A discrets, l’indice τ repère les valeurs
propres d’observables qui forment un ECOC avec H et A. Les états |ϕn,p,τ i étant états propres
de H, sont des états stationnaires. Si le système est, à l’instant initial, dans l’état |ϕn,p,τ i, il
y demeurera donc indéfiniment (à un facteur de phase global près). Mais l’état |ϕn,p,τ i est
également état propre de A ; lorsque A est une constante du mouvement, il existe donc des
états stationnaires du système physique (les états|ϕn,p,τ i) qui demeurent toujours, quelque
soit t, états propres de A avec la même valeur propre (a p ). Les valeurs propres de A sont
appelées pour cette raison de bons nombres quantiques.
Proposition 6.2
Montrons enfin que, pour un état |ψ(t)i quelconque, la probabilité de trouver la valeur
propre a p , lorsqu’on mesure la constante du mouvement A, ne dépend pas du temps.
Démonstration
En effet, on peut toujours développer |ψ(t0 )i sur la base (|ϕn,p,τ i) introduite plus haut :
De même
P(a p ,t) = ∑ ∑ |cn,p,τ (t)|2 = P(a p ,t0 ) (6.62)
n τ
Remarque 6.1
Pour déterminer l’état |ψ(t)i d’un système à un instant t ultérieur, connaissant son état
|ψ(t0 )i à l’instant t0 , on peut définir l’opérateur d’évolution par
Puis on écrit : |ψ(t)i = U(t − t0 )|ψ(t0 )i. Ainsi, il serait plus aisée de décomposer |ψ(t0 )i
dans la base propre du Hamiltonien H afin de faire agir U simplement. En effet, si H|ϕn i =
En |ϕn i, on peut trouver les cn ∈ C/ |ψ(t0 )i = ∑n cn |ϕn i
=⇒ |ψ(t − t0 )i = ∑ cn e−iEn (t−t0 )/h̄ |ϕn i
n
Remarque 6.2
L’opérateur d’évolution est un opérateur unitaire. Donc |ψ(t)i et |ψ(t0 )i ont la même
norme.
Il existe donc des dispersions ou écarts quadratiques moyens des mesures effectuées à partir d’un
état initial |ψi arbitraire :
q q
Mψ A = hA2 iψ − hAi2ψ = h(A − hAiψ I)2 iψ . (6.65)
Nous Considérons que nous pouvons écrire : [A, B] = iC avec C† = C. Considérons les opéra-
teurs hermitiens P et Q de valeur moyenne nulle, définis par :
1
4ψ A.4ψ B ≥ |hCiψ |, (6.70)
2
qui est l’inégalité de Heisenberg. ou encore (s’il n’y a aucune ambiguïté sur L’état du
système),
1
4A.4B ≥ |hCi|. (6.71)
2
REPRÉSENTATIONS PARTICULIÈRES
Sommaire
7.1 Distribution de Dirac et fonction δ . . . . . . . . . . . . . . . . . . . . . . . . 127
7.1.1 Fonctions tendant vers une fonction δ . . . . . . . . . . . . . . . . . . . 128
7.2 Transformation de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
7.2.1 Propriétés de la transformation de Fourier . . . . . . . . . . . . . . . . . 132
7.2.2 Convolution et transformation de Fourier . . . . . . . . . . . . . . . . . 133
7.2.3 Forme intégrale de la fonction δ . . . . . . . . . . . . . . . . . . . . . . 133
7.3 représentation |αi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
7.3.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
7.3.2 Fonction d’onde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
7.3.3 Autres écritures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
7.3.4 Condition de normalisation et probabilité . . . . . . . . . . . . . . . . . 137
7.4 Représentation |xi et représentation |pi . . . . . . . . . . . . . . . . . . . . . 138
7.4.1 Représentation |xi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
7.4.2 Représentation |pi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
7.4.3 Autres propriétés des opérateurs X et P . . . . . . . . . . . . . . . . . . 139
7.5 Opérateur potentiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
7.5.1 Equation de Schrödinger en représentation |xi, |ri . . . . . . . . . . . . 143
7.6 Evolution d’un quanton dans un puits plat infini . . . . . . . . . . . . . . . . 143
126
Chapitre 7. Représentations particulières 7.1. Distribution de Dirac et fonction δ
Dans le chapitre précédent, nous avons étudié le vecteurs d’état qui permet de caractériser un
système physique indépendamment de la base (représentation) choisie. De même, nous avons éta-
bli les postulats fondamentaux de la mécanique quantique indépendamment d’une représentation
donnée. Ceci montre que les résultats issus du chapitre précédent sont indépendants de la repré-
sentation choisie et sont généraux. Dans ce chapitre, on se propose de réécrire quelques postulats
et d’établir quelques résultats dans des représentations particulières. parlant de représentation, on
considérera :
• la représentation α
• la représentation r
• la représentation p
Pour que les choses soient très claires, nous Rappellerons la transformation de Fourier en pas-
sant par les fonctions tendant vers la fonction δ
Z+∞
• F(x)δ (x − x0 ) dx = F(x0 )
−∞
Z+∞
• F(x)δ (x) dx = F(0)
−∞
• δ (x) = δ (−x)
Z
• F(r) δ (r − r0 ) dr = F(r0 )
V
• δ ∗ (x) = δ (x)
On se propose de montrer que gε tend vers une fonction δ lorsque ε → 0. Pour cela, on montera
R∞
que : lim −∞ F(x)gε (x) dx = F(0)
ε→0
En effet,
1 1
Z ∞ Z ε/2 Z ε/2
I = lim F(x)gε (x)dx = lim F(x) dx = lim F(x)dx
ε→0 −∞ ε→0 −ε/2 ε ε→0 ε −ε/2
En posant x = εu, on a :
Z 1/2 Z 1/2
I = lim F(εu)du = F(0) = du = F(0)
u→0 −1/2 −1/2
1 2 2
gσ (x) = √ e−x /2σ (7.1)
σ 2π
On a :
1
Z ∞ Z ∞
u=x/σ 2 /2
I = lim F(x)gσ (x)dx = √ f (σ u)e−u du (7.2)
ε→0 −∞ 2π −∞
1
Z ∞
2 /2
= √ f (0) e−u du = f (0) (7.3)
2π −∞
Ainsi, la transformée de Fourier inverse notée F −1 appliquée à fˆ, permet (sous conditions
appropriées) de retrouver f à partir des données fréquentielles :
1
Z ∞
−1
f (x) = F fˆ(x) = fˆ(ξ )eiξ x dx. (7.5)
2π −∞
Ainsi, pour des raisons de symétries, les physiciens préfèrent noter F et F −1 avec le même
1
facteur multiplicatif √ . En prenant ξ = k ≡module d’un vecteur d’onde, on a : les définitions
2π
suivantes que nous adoptons en physique.
Définition 7.6 Transformation de Fourier entre espace des positions et espace des vecteurs
d’ondes
1 ∞ Z
F ( f )(k) = √ f (x) e−ikx dx = fˆ(k) (7.6)
2π −∞
1
Z ∞
−1
F ( f )(x) = √ fˆ(k) eikx dk = f (x) (7.7)
2π −∞
Définition 7.7 Transformation de Fourier entre espace des positions et espace des vecteurs
d’ondes
1
·
Z
fˆ(k) = 3/2
f (r)e−ik r d 3 r (7.8)
(2π) V
1
·
Z
f (r) = 3/2
fˆ(k)eik r d 3 k (7.9)
(2π) Ω
Exemple 7.1
1 2 2
Soit f (x) = √ e−x /2σ , calculons fˆ(k).
σ 2π
1
Z ∞
fˆ(k) = √ f (x)e−i k x dx (7.10)
2π −∞
x2
1 1 − −i k x
Z ∞
= √ √ e 2σ 2 dx (7.11)
2π −∞ σ 2π
1 2 2
= √ e−k σ /2 (7.12)
2π
Conclusion 7.1
Donc la transformée de Fourier d’une gaussienne de dispersion σ est une gaussienne
de dispersion inverse (1/σ ).
Z ∞ − u+i pσ
2
Calcul de I = e h̄ du
−∞
Z R − x+i pσ
2
I = lim e h̄ dx (7.13)
R→+∞ −R
Z
2
= lim e−z dz car sur Γ3 , z = x + ipσ /h̄, avec x variant de R à − R(7.14)
R→+∞ Γ3
Z ∞ −(x+i pσ )2 Z Z +∞
−z2 −x2 2
e h̄ dx = lim e dz = lim e dx = e−x dx = I
−∞ R→+∞ Γ1 R→+∞ −∞
Z +∞ Z +∞ Z Z +∞ Z 2π Z ∞
−x2 −y2 −x2 −y2 2
2
I = e dx e dy = e dxdy = re−r dr = π
−∞ −∞ −∞ 0 0
Z +∞
2 √
=⇒ I = e−x dx = π
−∞
1 2 2 1 2 2 2
ψ(x) = √ e−x /2σ ⇐⇒ ψ(p) = √ e−p σ /2h̄ (7.15)
σ 2π 2π h̄
Démonstration
Z ∞
ˆf1 ∗ (k) fˆ2 (k)dk = √1
Z ∞ Z ∞
ˆf1 ∗ (k) f2 (x)e−ikx
dx dk (7.17)
−∞ 2π −∞ −∞
1
Z ∞ Z ∞
∗
= √ f2 (x)dx fˆ1 (k)e−ikx dk (7.18)
2π −∞ −∞
Z ∞
= f2 (x) f1∗ (x)dx (7.19)
−∞
Corollaire 7.1
=⇒ h fˆ1 | fˆ2 i = h f1 | f2 i
=⇒ || f || = || fˆ||
Conclusion 7.2
On dira que la transformée de Fourier conserve le produit scalaire et la norme : c’est donc
une isométrie
• Par définition, x et ξ ont des dimensions inverses. En physique, lorsque x représente la posi-
tion (longueur), ξ = k et représente la norme d’un vecteur d’onde dont la dimension est bien
inverse à celle d’une longueur. Lorsque x = t, ξ = ω qui a bien les dimensions de l’inverse
d’un temps.
• autres exemples
a 1
f (x) = , a>0
π x2 + a2
Sa transformée de Fourier est une fonction "en toile de tente" (non dérivable en k = 0) :
1
fˆ(k) = √ e−a|k|
2π
Z ∞Z ∞
F [ f ∗ g] = e−ikx f (u)g(x − u) dx du
Z−∞ −∞
∞ Z ∞
= e−ik(u+v) f (u)g(v) du dv
Z−∞
∞
−∞
Z ∞
−iku
= e f (u) du e−ikv f (v) dv
−∞ −∞
⇒ F [ f ∗ g] = F [ f ]F [g] (7.21)
Bien entendu, dans cette démonstration, nous avons utilisé la définition intrinsèque de la transfor-
mée de Fourier.
1 ∞ 1
Z
2 2
δ (x) = lim √ √ e−k σ /2 eikx dk (7.22)
σ →0 2π −∞ 2π
1 ∞ ikx
Z
= e dk (7.23)
2π −∞
Propriété 7.4
1 ∞ ikx
Z
δ (x) = e dk (7.24)
2π −∞
1 ∞ ik(x−x0 )
Z
δ (x − x0 ) = e dk (7.25)
2π −∞
1
·
Z
δ (r − r0 ) = 3
ei k (r−0 ) d 3 k (7.26)
(2π) Vk
1
·
Z
δ (r) = 3
ei k r d 3 k (7.27)
(2π) Vk
δ (r − r0 ) = δ (x − x0 ) δ (y − y0 ) δ (z − z0 ) (7.28)
Cas où ξ = p
Dans le cas où l’espace réciproque est l’espace des impulsions, on a : p = h̄k. D’après ce qui
précède, on a :
1 ∞ Z
ψ(x) = √ eikx ψ̂(k)dk (7.29)
2π −∞
1 p
Z ∞
= √ eipx/h̄ ψ̂( )d p (7.30)
h̄ 2π −∞ h̄
1 ∞
Z
ψ(x) = √ eipx/h̄ ϕ(p) d p (7.32)
2π h̄ −∞
1
Z ∞
ϕ(p) = √ e−ipx/h̄ ψ(x) dx (7.33)
2π h̄ −∞
1
Z
ψ(r) = eip.r/h̄ ϕ(p) d 3 p (7.34)
(2π h̄)3/2 Vp
1
Z
ϕ(p) = e−ip.r/h̄ ψ(p) d 3 r (7.35)
(2π h̄)3/2 V
En dimension n quelconque, on a :
1
Z
ψ(r) = eip.r/h̄ ψ(p) d n p (7.36)
(2π h̄)n/2 v
1
Z
ψ(p) = e−ip.r/h̄ ψ(p) d n r (7.37)
(2π h̄)n/2 V
r = (r1 , . . . , rn ); p = (p1 , . . . , pn )
hα|β i = δ (α − β ) (7.38)
Remarquons que cette basse n’est pas normée, puisque hα|αi n’est pas définie ;
Z
• |ψi = ∑ |ui i ⇐⇒ |ψi = c(α)|αidα
i
Ainsi, on a :
Z
|ψi = hα|ψi|αidα (7.39)
Z
= |αihα|ψidα (7.40)
Z
=⇒ |αihα|dα = In (Relation de fermeture pour une base continue) (7.41)
Z
|ψi = dαc(α)|αi (7.42)
Z
|ϕi = dαb(α)|αi (7.43)
Z Z
∗
⇒ hψ|ϕi = dαc (α)hα| dβ b(beta)|β i (7.44)
Z Z
= dαdβ c∗ (α)bβ hα|β i (7.45)
Z Z
= dαdβ c∗ (α)bβ δ (α − β ) (7.46)
Z
= dαc∗ (α) [bβ δ (α − β )] (7.47)
| {z }
=b(α) par de f inition de δ
Z
= dαc∗ (α) (7.48)
Z
hψ|ϕi = dαc∗ (α)b(α) (7.49)
Ce résultat était bel et bien prévisible. On aurait aussi pu le retrouver en utilisant la relation de
fermeture. En effet,
Z Z
hψ|ϕi = hψ| dα|αihα|ψi = dαhψ|αihα|ϕi (7.50)
Z Z
= hα|ψi∗ hα|ϕidα = dαc∗ (α)b(α) (7.51)
Par définition, la fonction d’onde est la projection du vecteur d’état dans une représentation (base)
donnée. Ainsi, la notion de vecteur d’état est beaucoup plus générale que celle de fonction d’onde.
La fonction d’onde en représentation |αi et associée au vecteur d’état |ψi est donc hα|ψi on
pose alors : ψ(α) = hα|ψi
ψ(α) est la fonction d’onde en représentation |αi. C’est donc la représentation du vecteur |ψi
|xi ou |ri dans la base α.
Donc Z Z
∗
hψ|ϕi = ψ (r)ϕ(r)d (r) ≡ 3
ψ ∗ (p)ϕ(p)d3 p (7.60)
hri, nous avons |ψ(r)|2 dτ ≡ volume élémentaire dans lequel se trouve le quanton.
R
dP =|ψ(r)|2 dτ (7.62)
dP
=|ψ(r)|2 (7.63)
dτ
Ces fonctions peuvent être généralisées aisément dans le cas à n particules indépendantes.
• Les kets |xi sont appelés états propres de l’opérateur position X, i.e
Comme propriété, on a :
1
Z ∞
0 0
hx|xi = δ (x − x ) = eik(x−x ) dk (7.65)
2π −∞
Z
|xihx|dx = I (7.66)
Propriétés
1
Z ∞
0 0 0
hp|p i = δ (p − p ) = eik(p−p ) dk (7.68)
2π h̄ −∞
Z
|pihp|d p = I (7.69)
Z
hp|P|ψi = hp|P |p0 ihp0 |ψid p0 (7.70)
Z
= hp|P|p0 ihp0 |ψid p0 (7.71)
Z
= p0 hp|p0 iϕ(p0 )d p0 (7.72)
Z
= p0 ϕ(p0 )δ (p − p0 )d p0 (7.73)
= pϕ(p) (7.74)
= php|ψi (7.75)
Tout se passe donc comme si hp|P = php|. Sachant que P|pi = p|pi, on peut conclure que P est
hermitique. On fait de même pour X.
Conclusion : Les opérateurs P et X sont hermitiques
Propriétés
1
Z ∞
0 0 0
hp|p i = δ (p − p ) = eik(p−p ) dk (7.76)
2π h̄ −∞
1
Z
0 0 0
hp|p i = δ (p − p ) = eik(p−p ) d3 k (7.77)
(2π h̄)3 Vk
Z
|pihp|d p = I (7.78)
h̄ ∂
Montrons qu’en représentation |xi, P agit comme
i ∂x
Z
hx|P|ψi = hx|P |pihp|ψid p (7.79)
Z
= hx|p|piϕ(p)d p (7.80)
Z
= phx|piϕ(p)d p (7.81)
Par ailleurs,
1
Z ∞
ψ(x) ϕ(p)eipx/h̄ d p (7.82)
(2π h̄)1/2 −∞
(7.82) et (7.83)
1 +ipx/h̄
⇒ hx|pi = e ≡ v p (x) (7.85)
(2π h̄)
Z
⇒ hx|P|i = phx|piϕ(p)d p (7.86)
1 1/2
Z
= pψ(p)eipx/h̄ d p (7.87)
2π h̄
∂ ∂
= F (pϕ(p)) = ih̄ ψ(x) = −ih̄ hx|ψi (7.88)
∂x ∂x
h̄ ∂
Donc, hx|P|ψi = hx|ψi
i ∂x
h̄ ∂
⇒ P −→ (7.89)
i ∂x
h̄
P −→ ∇ (7.90)
i
On a alors :
h̄ ∂
P|xi = |xi (7.91)
i ∂x
Puisque P est hermitique De même,
h̄
P|ri = ∇|xi (7.92)
i
∂
* Montrons qu’en représentation |pi, X agit comme ih̄
∂p
Z
hp|X|ψi = hp|X dx|xihx|ψi (7.93)
Z
= xhp|xiψ(x)dx (7.94)
1
Z
= xψ(x)e−ipx/h̄ dx (7.95)
(2π h̄)1/2
= F −∞ [xψ(x)] (7.96)
∂ ∂
= ih̄ = ih̄ hp|ψi (7.97)
∂p ∂p
(7.98)
∂
⇒ hp|X = ih̄ hp| (7.99)
∂p
∞ ∞
⇒ F(A)|ϕa i = ∑ cnAn|ϕai = ∑ cnan|ϕai (7.105)
n=0 n=0
!
∞
n
= ∑ cna |ϕa i = F(a)|ϕa i (7.106)
n=0
V (X)|xi =? (7.107)
Nous savons que |xi = x|xi. Ainsi, |xi est aussi vecteur propre avec la valeur propre V (x). Donc :
Donc
h|V (X)|ψi = V (x)ψ(x) (7.111)
Propriétés
∂ ∂
= nX n−1 + X n (7.112)
∂X ∂X
[X, P] = ih̄I (7.113)
[A, B +C] = [A, B] + [A,C]; [A, BC] = [A, B]C + B[A,C]; [A, B]† = [B† , A† ] (7.114)
Si [A,C] = [B,C] = 0 avec C = [A, B], alors [A, F(B)] = [A, B]F 0 (B) (7.118)
Démonstration
(7.112) Soit ψ une fonction,
∂ ∂ ∂ ∂ψ
(X n ψ) = X n ψ +ψ (X n ) = X n + nψX n−1 (7.119)
∂X ∂X ∂X ∂X
∂ ∂
⇒ (X n ψ) = X n ψ + nψX n−1 (7.120)
∂X ∂X
∂ n ∂
⇒ X = Xn + nX n−1 (7.121)
∂X ∂X
(7.113)
(7.115)
h̄ ∂ h̄ ∂
[P, X n ] = [ , X n] = [ , X n ] = −ih̄nX n−1 (7.128)
i ∂X i ∂X
On aurait aussi pu utiliser la propriété (7.118).
Soit |ψi un vecteur d’état définissant un quanton d’énergie E et dont l’hamiltonien est H, l’équa-
tion de Schrödinger pour le quanton s’écrit :
P2
⇒ +V (X) |ψi = E|Ei (7.130)
2m
P2
hx| |ψi + hx|V (X)|ψi = Ehx|ψi (7.131)
2m
h̄ ∂ 2
1
hx| |ψi +V (x)hx|ψi = Ehx|ψi (7.132)
2m i ∂x
h̄2 ∂ 2
− ψ(x) +V (x)ψ(x) = Eψ(x) (7.133)
2m ∂ x2
h̄2
− ∇ψ(r) + V(r)ψ(r) = Eψ(r) (7.134)
2m
Les solutions de l’équation de Schrödinger d’un quanton piégé dans un tel puits sont telles que :
r
2 (n + 1)π
ϕn (x) = sin x , n≥0 (7.136)
a a
h̄2 π 2
En = , n≥0 (7.137)
2m a
Z a
ϕ ∗ (x)ϕn0 (x)dx = δnn0 (7.138)
0
La propriété (7.138) émane de la proposition 4.9(p.85) qui est encore reprise par le théorème
6.2(P105). L’étudiant peut aussi vérifier (établir) la relation (7.138) en calculant simplement.
Ainsi,
(n − n0 )π (n + n0 + 2)π
Z a
ϕ ∗ (x)ϕn dx = sin − sin (7.139)
0 (n − n0 )π (n + n0 + 2)π
(
0 si n 6= n0
= (7.140)
1 n = n0
Nos savons que la connaissance complète des états stationnaires (i.e de leurs énergies et fonctions
d’état associées) permet de déterminer l’évolution ultérieur du quanton. En effet,
Exemple 1
16 πx
On donne ψ(x, 0) = √ sin5 . Pour un potentiel piégé dans un puits plat infini de longueur
3 7a a
a. Déterminer l’évolution ultérieur de cette particule.
Il suffit de déterminer ψ(x,t)
5 5 1
sin5 θ = sinθ − sin3θ + sin5θ (7.149)
8 16 16
16 5 πx 5 3πx 1 5πx
⇒ ψ(x,t) = √ sin( ) − sin( ) + sin( ) (7.150)
3 7a 8 a 16 a 16 a
r r r
16 5 a 5 a 1 a
= √ ϕ0 (x) − ϕ2 (x) + ϕ4 (x) (7.151)
3 7a 8 2 16 2 16 2
r
2 (n + 1)π
Avec ϕn (x) = sin x , n∈N
a a
1
⇒ ψ(x, 0) = √ [10ϕ0 (x) − 5ϕ2 (x) + ϕ4 (x)] (7.152)
3 14
1 h i
⇒ ψ(x,t) = √ 10ϕ0 (x)e−iE0t/h̄ − 5ϕ2 (x)e−iE2t/h̄ + ϕ4 (x)e−iE4t/h̄ (7.153)
3 14
Exemple 2
Déterminons ψ(x,t)
ψ(x, 0) = ∑ cn ϕn (x) (7.155)
n
Z
cn = hϕn |ψ(0)i = hϕn | |xihx|ψ(0)idx (7.156)
Z
= ϕn∗ (x)ψ(x, 0)dx (7.157)
r r Z a
2 4 4 (n + 1)π
= × sin x dx (7.158)
a a 0 a
√
2 2 n+1
⇒ cn = 1 − cos π (7.159)
(n + 1)π 4
⇒ ψ(x,t) = ∑ cn e−iEnt/h̄ ϕn (x) (7.160)
n
h̄2 π 2
Avec En = (n + 1)2
2m a
L’OSCILLATEUR HARMONIQUE
Sommaire
8.1 Approximation harmonique . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
8.1.1 L’oscillateur harmonique en physique . . . . . . . . . . . . . . . . . . . 147
8.1.2 Petites oscillations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
8.1.3 Equation de Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . . 148
8.2 Niveau d’énergie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
8.2.1 Opérateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
8.2.2 Vecteurs propres de N . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
8.2.3 Spectre des valeurs propres . . . . . . . . . . . . . . . . . . . . . . . . . 152
8.2.4 Opérateurs de création et d’annihilation . . . . . . . . . . . . . . . . . . 154
8.3 Vecteur d’état . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
8.3.1 Réalisation - |ni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
8.3.2 Matrice des opérateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
8.4 Fonction d’onde d’un oscillateur harmonique . . . . . . . . . . . . . . . . . . 155
8.4.1 État fondamental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
8.4.2 Fonctions propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
8.5 EXERCICES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
8.5.1 Oscillateur harmonique tridimensionnel isotrope . . . . . . . . . . . . . 157
8.5.2 Charge oscillante soumise à un champ électrique . . . . . . . . . . . . . 157
8.5.3 États quasi-classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
146
Chapitre 8. L’OSCILLATEUR HARMONIQUE 8.1. Approximation harmonique
L’exemple le plus classique d’un oscillateur harmonique est celui d’une masse m qui se déplace le
long d’une droite Ox, sous l’action d’une force de rappel F = −kx, au voisinage d’une position
d’équilibre stable qu’on peut prendre comme origine. Cette masse a pour énergie potentiel :
1
V (x) = kx2 (8.1)
2
De manière générale, considérons un potentiel V (x) qui présente un minimum en un point qu’on
prend pour origine des déplacements. Le développement de V (x) en série de Taylor au voisinage
de x = 0 se réduit, au second ordre, à :
d 2V
1 k
V (x) = V (0) + x2 + · · · = V (0) + x2 + · · · (8.2)
2 d2x x=0 2
dV
Puisque = 0. La force qui dérive du potentiel est donnée, dans l’approximation harmo-
dx x=0
nique, par :
F(x) = −kx (F = −gradV) (8.3)
Comme V (x) possède un minimum en x = 0, le coefficient k est positif. Par suite, x et F(x) sont
de signe contraire et la force est toujours dirigée vers le point d’équilibre, ce qui correspond à une
position d’équilibre stable.
Lorsque les déplacements autour du point d’équilibre sont suffisamment petits, on peut négliger
les termes d’ordre supérieure à deux, dans le développement (8.2). Le potentiel V (x) peut être
considéré comme nul au point d’équilibre. On obtient alors un potentiel correspondant à celui d’un
oscillateur harmonique donné par (8.1).
Exemple schema
L’équation de Schrödinger des états stationnaires d’un oscillateur harmonique à une dimension
s’écrit, en représentation coordonnées :
h̄2 d 2
1 2
− + kx Ψ(x) = EΨ(x) (8.4)
2m dx2 2
où m est la masse de la particule oscillante. C’est une équation aux valeurs propres où l’hamiltonien
H a pour expression :
h̄2 d 2 1
H =− 2
+ kX 2 (8.5)
2m dX 2
Le problème consiste à déterminer les valeurs propres et fonctions propres de H. À partir des
considérations générales, on peut prévoir quelques propriétés des solutions cherchées :
• La particule oscillante devant rester au voisinage de son point d’équilibre, on a des états liés
et, par conséquent, un spectre discret des valeurs propres.
• L’énergie potentiel étant positive ou nulle en tout point où se trouve la particule, les valeurs
propres de H ne peuvent être que positives. En effet, la valeur E = 0 est exclu par suite de
h̄
l’inégalité de Heisenberg : ∆x∆px ≥ ; si l’énergie nulle était autorisée, la particule serait
2
immobile au fond du puits de potentiel, et, par conséquent sa position et son impulsion
seraient bien déterminées, ce qui est contraire à l’inégalité de Heisenberg.
• L’énergie potentiel étant paire : V (x) = V (−x), les fonctions d’onde ont une parité définie :
elles sont paires ou impaires, car les valeurs propres de H ne sont pas dégénérées.
Nous allons chercher les valeurs propres de l’hamiltonien H en utilisant le formalisme des vecteurs
d’état. En termes d’opérateurs Px et X, H peut encore s’écrire :
Px2 1 2
H= + kX (8.6)
2m 2
p
Afin de simplifier l’expression de H, posons : ω = k/m où ω est la pulsation des oscillations
sinusoïdales. D’autre part, introduisons les opérateurs sans dimension suivants :
r
mω Px H
Q= X; P = √ ; H1 = (8.7)
h̄ mh̄ω h̄ω
1 2 E
P + Q2 |Ψi =
H1 |Ψi = |Ψi (8.8)
2 h̄ω
On obtient une équation qui est sans dimension. La recherche du spectre du H conduit à définir
deux nouveaux opérateurs qui facilitent cette recherche, soit :
1 1
A = √ (Q + iP) et A† = √ (Q + iP) (8.9)
2 2
1 2 i 1
⇒ A† A = P + Q2 + [Q, P] = H1 − I (8.10)
2 2 2
Posons N = A† A ; N est hermitien. On a alors
1
H1 = N + I (8.11)
2
La relation (8.11) montre que N et H ont les mêmes vecteurs propres, avec les valeurs propres
1
correspondes différentes de . Ainsi, on pourra simplement chercher le spectre et les vecteurs
2
propres de N.
Puisque le spectre de H est discret, désignons par ν les valeurs propres de N et notons |νi ses
vecteurs propres orthonormés ; on a ainsi :
Par ailleurs,
[A, A† ] = I ⇒ [N, A† ] = A† et [N, A] = −A (8.13)
Proposition 8.1 L
es valeurs propres ν de N sont positives ou nulles.
Démonstration
Par ailleurs,
h|ν|N|νi = νhν|νi = ν (8.15)
⇒ ν = kA|νik2 ≥ 0 (8.16)
Démonstration
Nous allons d’abord montrer que le vecteur A|νi est un vecteur propre de N pour la valeur propre
(ν − 1). En effet, (8.13)
D’où le résultat.
Par ailleurs, en notant |ν − 1i le vecteur propre de N relatif à la valeur propre (ν − 1), on peut dire
que |ν − 1i est proportionnel à A|νi ; puisque le spectre de H1 et donc de N n’est pas dégénéré et
l’équation (8.18) montre que A|νi est un vecteur propre de N associé à la valeur propre ν − 1. Soit
alors
A|νi = α|ν − 1i, α ∈ C∗ (8.19)
Puisque les vecteurs d’état sont définis à un facteur de phase près, on peut choisir ce facteur de
sorte que α ∈ R∗ , d’où
√
A|νi = ν|ν − 1i (8.22)
Proposition 8.3 [
Action de A† sur les vecteurs propres de N] L’action de A† sur les vecteurs propres de N est
√
définie telle que A† |νi = ν + 1|ν + 1i.
Démonstration
Donc A† |νi est un vecteur propre de N associé à la valeur propre (ν + 1). Par ailleurs, |ν + 1i est
aussi un vecteur propre de N associé à la valeur propre (ν + 1). Le spectre de N étant non dégénéré,
les kets |ν + 1i et A† |νi sont donc proportionnels. Ainsi,
Conclusion 8.2 D
es applications successives de A† à un vecteur propre de N permettent d’obtenir une suite de
vecteurs propres de N associés à des valeurs propres qui augmentent d’une unité à chaque
application de A† . A† sera ainsi appelé opérateur de création. Autrement dit, A et A† sont
des opérateurs d’échelle.
La relation (8.18) est vérifiée lorsque A|νi est un vecteur propre de N mais également lorsque
A|νi = 0E , où 0E est le vecteur nul de l’espace des états quantiques E de l’oscillateur.
√
Compte tenu de (8.16), kA|νik = ν. Ainsi, si le vecteur A|νi est nul, sa norme est néces-
sairement nulle et on a : ν = 0. Cette valeur est la valeur propre minimale puisque, selon (8.16),
ν ≥ 0. En notant |0i le vecteur propre de N, associé à la valeur propre zéro, on a :
A|0i = 0E (8.27)
Par application successives de l’opérateur A† au vecteur |0i, on obtient tous les vecteurs propres
|νi de l’opérateur N. Puisque les valeurs propres augmentent d’une unité, à partir de zéro, à chaque
application de A† , les valeurs propres de N sont donc les entiers successifs :
n = 0, 1, 2, 3 · · · (8.28)
Implicitement, nous avons supposé que le vecteur |0i existe, mais nous verrons que cette hypothèse
est réaliste puisque nous obtiendrons aisément la représentation |ri du vecteur d’état |0i.
Action de l’opérateur A†
Montrons que les vecteurs A† |ni sont toujours différents de zéro quelque soit n.
kA† |nik2 = hA† n|A† ni = hn|AA† |ni = hn|A† A|ni + hn|ni = kA|nik2 + k|nik2 > 0 (8.29)
A† |ni > 0, ∀|ni 6= 0. Ainsi, si |0i existe, il en est de même pour tous les vecteurs A† |ni
Spectre de H
1
Puisque H1 = N + I, les vecteurs propres de N sont également ceux de H1 et les valeurs propres
2
1
de H1 sont égales à n + . D’autre part, H = h̄ωH1 ; les valeurs propres de H, c’est-à-dire les
2
niveaux d’énergie de l’oscillateur harmonique, sont donnés par :
1
En = h̄ω n + , n∈N (8.30)
2
Le nombre n est appelé nombre quantique de l’oscillateur harmonique. Ainsi que prévu, on ob-
tient un spectre discret et les niveaux d’énergie sont positifs. Le niveau le plus bas, ou niveau
fondamental, est égal à :
h̄ω
E0 = (8.31)
2
On remarque que même dans son état de plus basse énergie, l’oscillateur harmonique est animé
d’une certaine vibration. On retrouve la prévision faite précédemment que l’énergie ne peut être
nulle ainsi qu’il en résulte de l’inégalité d’Heisenberg : On dit qu’il n’y a pas de repos dans la
nature. C’est ainsi l’irréductibilité des fluctuations quantiques.
Conclusion 8.3 T
andis que l’oscillateur harmonique classique admet toutes les valeurs réelles et positives de
l’énergie, l’oscillateur harmonique quantique n’admet que des valeurs discrètes de l’éner-
gie : c’est la quantification de l’énergie d’un oscillateur harmonique. De plus, l’écart entre
deux niveaux d’énergie consécutifs est constant et vaut ∆E = h̄ω = En+1 − En .
schéma
E0 est appelé énergie du point zéro, soit zero-point energy en anglais.
Pour une molécule à N atomes, on a 3N − 6 ou 3N − 5 modes de vibrations indépendantes.
3N − 6 si elle est non linéaire, et 3N − 5 sinon. En effet, une molécule à N atomes a 3N degrés
de liberté puisque chaque atomes en a 3 dans les 3 directions de l’espace physique. De plus, une
molécule a 3 degrés de liberté de translation dans les 3 directions de l’espace physique. Elle a aussi
3 degrés de liberté de rotation (angles d’Euler) si elle est non linéaire et 2, sinon. Ainsi, le nombre
de degré de liberté d’une molécule à N atomes est :
(
3N − 6 si molécule linéaire
ϕ(N) = (8.32)
3N − 5 si molécule pas linéaire
Ainsi, l’énergie du point zéro d’une molécule dans l’approximation harmonique se calcule comme :
h̄ ϕ(N)
ZPE = ∑ ωi (8.33)
2 i=1
On peut donner une interprétation physique des opérateurs A et A† , en étudiant le résultat de l’ac-
tion de ces opérateurs sur les niveaux d’énergie de l’oscillateur.
L’application de A† sur un état |ni d’énergie En le fait passer sur l’état n + 1 d’énergie En+1 . On
peut dire que l’opérateur A† «crée» une quantité d’énergie h̄ω = En+1 − En , d’où son appellation
d’opérateur de création.
L’opérateur A fait au contraire passer le système d’un état En à un état En−1 et «détruit» ainsi
un quantum d’énergie h̄ω ; A est ainsi appelé opérateur d’annihilation.
On peut tout aussi remarquer que ces opérateurs A† et A permettent respectivement de grimper
ou de descendre les niveaux d’énergie du système. Ils sont ainsi aussi appelés opérateurs d’échelle.
Ces opérateurs jouent un rôle extrêmement important en théorie quantique des champs, per-
mettant de décrire la création ou l’annihilation de particule, ce qu’on observe expérimentalement
pour divers systèmes quantiques.
Soit Ex l’espace des états de l’oscillateur harmonique, Ex est un espace de Hilbert. Soit |ni un
vecteur d’état normé, (|ni)n est une base orthonormée de Ex . Par définition, les états |ni sont les
vecteurs propres de l’opérateur hamiltonien H. L’hamiltonien H est donc une observable et, comme
son spectre n’est pas dégénéré, H forme à lui seul un ECOC.
√
(8.26) ⇒ A† |n + 1i = n|ni (8.34)
1
⇒ |ni = √ (A† )n |0i (8.35)
n!
On peut donc obtenir tous les états propre de l’oscillateur harmonique à partir de l’état fondamental
|0i.
r
h̄ √ √
⇒ x pn = hp|X|ni = n + 1δ p,n+1 + nδ p,n−1 (8.39)
2mω
r
mh̄ω √ √
p pn = hp|Pn |ni = i n + 1δ p,n+1 − nδ p,n−1 (8.40)
2
On peut aisément vérifier que les matrices représentatives de X et Px sont bel et bien hermitiennes
puisque nous savons que X et Px sont hermitiens.
Pour déterminer explicitement les états propres de l’oscillateur harmonique, plaçons-nous dans la
représentation |xi. C’est-à-dire cherchons les fonctions d’onde Ψ(x) du système.
mω 1/2 mω
Ψ0 (x) = exp − x2 (8.46)
π h̄ 2h̄
(fonction d’onde représentant l’état fondamental de l’oscillateur harmonique)
La densité de probabilité |Ψ0 (x)|2 donne l’extension spatiale des oscillations.
Afin de déterminer les fonctions d’onde des états propres de l’oscillateur, utilisons la variable Q,
définie par (8.7), permettant d’obtenir des expressions plus simples qu’avec la variable x.
d
(8.43) ⇒ + Q Ψ0 (Q) = 0 (8.47)
dQ
Q2
−1/4
⇒ Ψ0 (Q) = π exp − (8.48)
2
Par ailleurs, A† a pour expression en fonction de la variable Q :
† 1 d
A = √ Q− (8.49)
2 dQ
Ainsi, on a :
1 † n
Ψn (Q) = √ A Ψ0 (Q) (8.50)
n!
1/2
d n
1 Q
⇒ Ψn (Q) = √ n Q− exp − (8.51)
π2 n! dQ 2
Utilisons l’identité suivante entre opérateurs :
2
Q2
d Q d
Q− = − exp exp − (8.52)
dQ 2 dQ 2
√ n −1/2 Q2
Ψn (Q) = π2 n! exp − Hn (Q) (8.53)
2
dn
Hn (Q) = (−1)n exp Q2 exp −Q2
n
(8.54)
dQ
8.5 EXERCICES
8.5.1 Oscillateur harmonique tridimensionnel isotrope
Un oscillateur harmonique est formé d’une particule de masse m pouvant se déplacer dans l’espace
à trois dimensions supposé isotrope. Cette masse est soumise à une force centrale de rappel F =
−kx, r étant le rayon vecteur indiquant la position de la particule.
2. Écrire l’opérateur hamiltonien du système sous la forme d’une somme de trois opérateurs
indépendants
3. Déterminer les valeurs propres et les vecteurs d’état de l’oscillateur. En déduire, en repré-
sentant −|ri, les fonctions d’onde associées.
Une particule de charge q et de masse m soumise à une force de rappel F = −kx constitue un os-
cillateur harmonique linéaire. Celui-ci est plongé dans un champ électrique uniforme E, parallèle
à la direction Ox des oscillations.
−|α|2 /2 αn
|αi = e √
∑ n! |ni (8.56)
n
3. Calculer les valeurs moyennes des opérateurs H, Q et P, lorsque le système se trouve dans
un état |αi.
5. Soit En l’énergie d’un état stationnaire de l’oscillateur harmonique et |ni son état initial
correspondant. Déterminer l’expression du vecteur d’état Ψn (t).
6. À l’instant initial t = 0, le système est préparé dans l’état Ψ(0) = |αi. Écrire le développe-
ment de |Ψ(t)i sur la base (|ni)
159
CHAPITRE 10
160
CHAPITRE 11
EXERCICES ET PROBLÈMES
Sommaire
11.1 Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
11.1.1 Chat de Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
11.1.2 Représentation matricielle . . . . . . . . . . . . . . . . . . . . . . . . . 163
11.1.3 Formule de Baker-Campbell-Hausdorff . . . . . . . . . . . . . . . . . . 163
11.1.4 Opérateur de Hausdorff . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
11.1.5 ECOC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
11.1.6 Propriétés des matrices de Pauli . . . . . . . . . . . . . . . . . . . . . . 165
11.1.7 Porte logique quantique élémentaire . . . . . . . . . . . . . . . . . . . . 166
11.1.8 Délocalisation et recombinaison d’un spin 1/2 . . . . . . . . . . . . . . . 166
11.1.9 Moment magnétique du deutéron . . . . . . . . . . . . . . . . . . . . . 167
11.1.10 Précession de Larmor . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
11.1.11 Détection des électrons . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
11.1.12 Réalisation expérimentale d’une porte logique 1-qubit . . . . . . . . . . 169
11.1.13 Molécules et d’éthylène . . . . . . . . . . . . . . . . . . . . . . . . . . 171
11.1.14 Électrons libres dans un parallélépipède . . . . . . . . . . . . . . . . . . 172
11.1.15 État lié d’un quantom dans un puits delta . . . . . . . . . . . . . . . . . 173
11.1.16 Paquet d’onde libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
11.1.17 Oscillateurs harmoniques . . . . . . . . . . . . . . . . . . . . . . . . . . 175
11.1.18 Fonction d’état et information . . . . . . . . . . . . . . . . . . . . . . . 177
11.1.19 Principe d’incertitude d’Heisenberg . . . . . . . . . . . . . . . . . . . . 177
161
Chapitre 11. Exercices et problèmes 11.1. Exercices et problèmes
Nous reprenons dans cette exercice, la célèbre expérience de pensée de Schrödinger en considérant
un chat enfermé dans une boîte avec un poison (substance radioactive) qui va déclencher la mort
du chat à un moment ou un autre. Classiquement, le chat est soit mort, soit vivant. Quantiquement,
on dit que le chat est dans une superposition d’états mort ou vivant.
1. Quelle base conceptuelle de la physique classique se trouve remise en cause par cette expé-
rience ?
2. On se place dans la situation quantique. On désigne l’état mort et l’état vivant par les kets
respectifs |mi et |vi.
(a) Exprimer dans la base {|mi, |vi} un état quelconque |ψi du chat.
(b) Quelle condition doit être remplie pour que cet état traduise une onde de probabilité ?
(c) Quels sont les deux états limites ? Quand les obtient-on ?
(d) Soit t1 le temps au bout duquel le chat a une chance sur deux d’être vivant et t2 celui au
bout duquel il a une chance sur quatre d’être vivant. Exprimer les états |ψ1 i et |ψ2 i du
chat correspondant à ces instants.
1. L’espace des états d’un certain système physique est à trois dimensions. Soit {|ϕ1 i, |u2 i, |ϕ3 i},
une base orthonormée de cet espace. On définit les kets |ψ0 i et |ψ1 i par
1 i 1 1
|ψ0 i = √ |ϕ1 i + |ϕ2 i + |ϕ3 i, |ψ1 i = √ (|ϕ1 i + i|ϕ3 i). (11.1)
2 2 2 3
Ces kets sont-il normés ? Calculer les matrices P0 et P1 représentant dans la base {|ϕi i} les
projecteurs sur les états |ψ0 i et |ψ1 i respectivement. Vérifier que ces matrices sont hermi-
tiennes.
2. Dans un espace à deux dimensions, on considère l’opérateur dont la matrice dans une base
orthonormée {|ϕ1 i, |u2 i} s’écrit !
0 −i
Y= . (11.2)
i 0
La matrice Y est-elle hermitienne ? Calculer ses valeurs propres et ses vecteurs propres. Cal-
culer les matrices représentant les projecteurs sur ces vecteurs propres. Vérifier que celles-ci
satisfont à des relations d’orthogonalité et de fermeture.
Soient A et B deux opérateurs qui commutent avec leur commutateur [A, B]. On définit l’opérateur
F(t) par la fonction de la variable t, F(t) = eAt eBt .
dF
1. Démontrer que dt = (A + B + t[A, B])F(t).
1
eA eB = eA+B e 2 [A,B] . (11.3)
On considère l’opérateur
f (t) = etA Be−tA , (11.4)
1. Montrer que
d f (t) d 2 f (t)
= [A, f (t)], = [A, [A, f (t)]]. (11.5)
dt dt 2
2. En déduire
t t2
eA Be−A = B + [A, B] + [A, [A, B]] + . . . (11.6)
1! 2!
11.1.5 ECOC
Dans la base orthonormée {|u1 i, {|u2 i, |u3 i}, la matrice représentant le hamiltonien en eV est
√ √
2 −3 2 3 2
√
H = −3 2 −1 −3 (11.7)
√
3 2 −3 −1
3. A t = 0, le système est dans l’état |ψ(t = 0)i = |u1 i. Quel est l’état du système à un instant
ultérieur t ?
2. Montrer que si A et B sont deux vecteurs dont les composantes sont des nombres ou des
opérateurs qui commutent avec σi , alors
En déduire (σ · P )2 et (σ · π)2 .
3
M = ∑ λi σi . (11.15)
i=0
Montrer que
1
λi =
tr(Mσi ). (11.16)
2
A quelle condition doivent obéir les coefficients λi lorsque la matrice M est hermitienne ?
Une porte quantique logique U, |ψe i@C = 1em@R = .7emU|ψs i est un dispositif expérimental
agissant de manière linéaire sur un 1-qubit d’entrée |ψe i, en fournissant un 1-qubit de sortie |ψs i =
U|ψe i, où U est pour une matrice carrée.
On rappelle que la relation duale de |ψs i = U|ψe i s’écrit hψs = hψe U† , où hψe = α ∗ h0 + β ∗ h1.
Les matrices de Pauli définies dans la base {|0i, |1i}, par
1. Pour |ψe i = α|0i + β |1i, donner l’expression des sorties |ψsx i = X|ψe i, |ψsy i = Y|ψe i et
|ψsz i = Z|ψe i.
2. Montrer que la normalisation simultanée de |ψe i et de |ψs i impose que U soit, en toute
généralité, une matrice unitaire, i.e., telle que U† U = I. Tout dispositif expérimental implé-
mentant une porte quantique logique devra respecter cette condition dite d’unitarité.
3. Vérifier, en utilisant la forme vectorielle (11.17), que les opérateurs X, Y, Z sont unitaires.
2. Expliquer clairement pourquoi on obtient deux faisceaux à la sortie de SG1, en donnant l’état
du spin en A et B et les probabilités de détection PA et PB .
4. On place un absorbeur en A, c’est-à-dire que SG1 agit comme un filtre qui ne laisse passer
que le faisceau B.
Quel est l’état de spin des quantons détectés en D et E et quelles sont les probabilités PD et
PE ? Considérer en particulier le cas de θ = π2 .
5. Quelles commentaires pouvez-vous faire par rapport aux probabilités obtenues aux questions
3. et 4. ?
Un noyau de deutérium plongé dans un champ magnétique B possède trois états |+i, |0i, |−i
d’énergie +E0 , 0, −E0 respectivement, avec E0 = h̄ω. Ce noyau a un moment magnétique et on
suppose que l’opérateur M associé à la projection de ce moment sur une direction fixe perpendicu-
laire au champ B a la forme M = µ0 A, avec µ0 > 0 et A défini par
1 1 1
A|+i = √ |0i, A|0i = √ (|+i + |−i), A|−i = √ |0i. (11.18)
2 2 2
1. Écrire la matrice représentant A dans la base {|+i, |0i, |−i}. A est-il hermitien ?
3. On suppose qu’à l’instant t = 0, le noyau est dans l’état |ψ(0)i = |m1 i. Calculer E et ∆E
dans cet état.
On considère un quanton de spin 12 dont les états propres de Sz sont notés |+iz et |−iz . On considère
un état de spin quelconque |ψi caractérisé par les amplitudes de transition α =z h+|ψi et β =z
h−|ψi.
1. Quelle sont les probabilités des transitions |+iz ←− |ψi et |−iz ←− |ψi ? Quelle relation
doit lier ces deux quantités ?
2. On suppose que le quanton possède un moment magnétique µ et qu’il est placé dans un
champ magnétique B = (0, 0, B). Le hamiltonien étant H = −µ · B = ωSz avec ω = −γB,
quels sont les états stationnaires de ce quanton ? Préciser les énergies associées à ces états.
3. Si à l’instant t = 0 le quanton est dans un état de spin qui soit état propre d’une composante
de S orthogonale à B, par exemple Sx . Notons |+ix cet état.
(c) Quelle est la probabilité P+ (t) = |x h+|ϕ(t)i|2 pour que, à l’instant t > 0, le quanton
se retrouve dans son état initial |+ix ? Même question pour P− (t) = |x h−|ϕ(t)i|2 .
4. Les variations temporelles de ces probabilités sont le plus souvent interprétées par référence
à l’évolution des valeurs moyennes des composantes du spin. Calculer ces valeurs moyennes
dans l’état |ϕ(t)i et conclure.
5. Le quanton est un neutron de longueur d’onde λ = 1.55 Å et masse mc2 = 939.566 MeV. On
rappelle que h̄c = 1 973 eVÅ.
F IGURE 11.2. Précession de Larmor des neutrons. Variation de hSx i|ψ(t)i en fonction de la distance (c’est-à-dire du
temps de parcours).
Des électrons polarisés, avec des spins 12 polarisés (+) dans la direction Oz pénètrent dans une
région où règne un champ magnétique statique B = (B0 , 0, 0). Les électrons se déplacent dans la
direction Oy. Après un temps T , les électrons atteignent un appareil de Stern-Gerlach où le gradient
de champ est orienté suivant Oz.
1. Écrire, dans la base qui diagonalise la matrice de Pauli σz , la matrice du hamiltonien d’in-
teraction H0 dans la région où règne le champ B = (B0 , 0, 0). On posera ω0 = −γB0 .
2. Sur un détecteur D placé après l’appareil de Stern-Gerlach, on ne peut détecter que les élec-
trons de spin (−) dans la direction Oz. Trouver les valeurs de B0 qui permettent à tous les
électrons d’atteindre le détecteur D.
3. Pour la valeur minimale de B0 , de la question 2, quel est le pourcentage des électrons qui
atteignent D si le temps de parcours dans la région où règne B0 est T2 et non T ?
θ θ
Ru (θ ) = e−iθ σu /2 = (cos )I − i(sin )σu . (11.19)
2 2
2. Le vecteur d’état du spin, |ψ(t)i se décompose dans la base des états propres de Sz sous la
forme
|ψ(t)i = α0 (t)|0i + α1 (t)|1i. (11.20)
(a) En résolvant matriciellement l’équation de Schrödinger, ih̄ dtd |ψ(t)i = H(t)|ψ(t)i, don-
ner les expressions de α0,1 (t), en fonction de α0,1 (0) et Rz (θ ). On précisera l’expression
de θ .
(b) Combien de temps faut-il laisser agir le champ magnétique statique B0 sur le spin de
l’électron pour réaliser, à un facteur de phase globale près sur α0,1 (t), une porte q-
logique Z, |ki@C = 1em@R = .7emZ(−1)k |ki ? Pourquoi ce facteur de phase globale
est-il non-significatif du point de vue de la mesure ?
3. Afin de réaliser une porte q-logique X, |ki@C = 1em@R = .7emX|1 − ki, on ajoute au champ
statique B0 un champ B1 (t) situé dans le plan xOy tournant dans le sens trigonométrique
avec la vitesse angulaire ω,
(a) Écrire la nouvelle matrice du hamiltonien H(t) du système dans la base où Sz est diago-
nale, puis le système d’équations différentielles auquel obéissent α0,1 (t).
(b) Pour résoudre ce système, on se place dans le référentiel tournant avec le champ en
posant
4. Lorsque δ = 0, combien de temps faut-il laisser agir le champ tournant pour réaliser, à un
facteur de phase globale près, une porte qu-logique X ?
(a) Quelle est la probabilité P1←0 (t) de trouver au temps t le spin dans l’état |1i ?
(b) À quel instant cette probabilité est-elle maximale ? Montrer que la porte q-logique X
consiste à faire basculer le spin de l’état |0i à |1i et vice-versa. Quel est l’équivalent
classique de cette opération logique quantique ?
F IGURE 11.3. Les états |Gi (atome à gauche) et |Di (atome à droite) d’un électron π de l’éthylène
• et une liason π dans laquelle deux électrons délocalisés π peuvent sauter d’un atome de
carbone à un autre.
Supposons qu’on ait qu’un seul électron π, localisé au vosinage de l’atome de carbone gauche
(ou droit). Le système quantique est alors dans l’état |Gi (|Di) d’énergie E0 (voir Figure 4.3.1).
δE
L’énergie pour passer d’un carbone à un autre est (δ E > 0).
2
1. Donner la forme générale du hamiltionien H du système dans la base {|Gi; |Di}, les états
stationnaires |ψ±i et les valeurs propres associées. Quelle est l’état fondamental de cet
électron π. Représenter sur un graphe simple le spectre d’énergie de H.
2. si |xi est un vecteur propre de l’opérateur position, que représente les quantités hx|Gi et
hx|Di ? Représenter qualitativement sur une figure hx|Gi, hx|Di et hx|ψ±i. Quelle observa-
tion peut-on faire par rapport à l’état fondamental ?
3. Afin de placer le second électron π, on fait l’approximation des électrons indépendants, i.e.,
qu’on ignore les interactions entre cet électron et le premier. Dans quel état faut-il placer le
deuxième électron afin d’obtenir l’état fondamental de la liason π et quelle est alors l’énergie
de cet état ? Quelle est l’énergie de délocalisation des électrons ?
On considère un électron de masse m soumis à une énergie nulle à l’intérieur d’un parallélépipède
rectangule de cotés a, b, c et ayant un de ses sommets en O et un autre au point M de coordonnées
a, b, c (voir Figure 4.3.2). La fonction d’onde est infinie à l’extérieur de la boîte rectangulaire.
2. On cherche à resoudre cette équation par des solutions à variables séparées du type φ (x, y, z) =
φx (x)φy (y)φz (z). Montrer que l’équation de la question 1 se met sous la forme :
1 ∂ φx 1 ∂ φy 1 ∂ φz 2m
+ + = 2E (11.24)
φx ∂ x2 φy ∂ y2 φz ∂ z2 h̄
d 2 φx d 2 φy d 2 φz
+ Kx φx = 0, + Ky φy = 0, + Kz φz = 0,
dx2 dy2 dz2
2m
avec Kx2 + Ky2 + Kz2 = E
h̄2
3. Intégrer les équations différentielles précédentes .
4. Monter que les conditions aux limites sur les parois de la cavité imposent des solutions du
type
(nx + 1)π
φx (x) = A(sin x). (11.25)
a
(ny + 1)π
φy (y) = B(sin y). (11.26)
a
(nz + 1)π
φz (z) = C(sin z). (11.27)
a
dans lesquelles les nombres quantiques nx , ny , nz sont des entiers positifs ou nuls. En déduire
l’expression complète de la fonction d’onde résultante.
• Trouver toutes les fonctions d’ondes pour les trois premiers niveaux d’énergie dis-
tincts ;
• Donner l’expression de l’énergie pour chaque niveau ;
• Exprimer la dégénérescence de chaque niveau i.e., le nombre de fonction d’ondes in-
dépendantes ayant la même énergie. On ne prendra pas compte du spin.
h̄2 d 2
H =− − αδ (X) (11.28)
2m dX 2
1. Intégrer l’équation aux valeurs propres de H entre −ε et +ε, en faisant tendre ε vers O,
montrer que la dérivée de la fonction propre ψ(x) subit en x = 0 une discontinuité que l’on
calculera en fonction de α, m, et ψ(0)
2. On supposera que l’énergie du quanton est négative (état lié) ; peut alors s’écrire
0
(
ψ(x) = A1 ekx + A1 e−kx , x < 0
0
ψ(x) = A2 ekx + A2 e−kx , x > 0
(a) En utilisant les résultats de la question précedente, calculer la matrice M définie par
! !
A2 A1
0 =M 0
A2 A1
(b) Écrire alors que ψ(x) est de carré sommable et en déduire les valeurs possibles de
l’énergie.
(c) Calculer les fonctions d’ondes normées correspondantes et donner un ordre de grandeur
de leur largeur 4x
3. Quelle est la probabilité dP pour qu’une mesure de l’impulsion de la quanton dans un états
stationnaires normés calculés plus haut, donne un résultats compris entre p et p + d p ?
4. Pour quelle valeur de p cette probabilité est-elle maximale et dans quel domaine, de dimen-
sion 4p, prend-t-elle des valeurs notables ?
On se propose d’étudier l’évolution dans le temps d’un paquet d’ondes libre à une dimension
particulière, pour lequel φ (p) est une guassienne
(p − p0 )2
2 2 −1/4
φ (p) = (πσ h̄ ) exp −
2σ 2 h̄2
Z
1. Vérifier que −∞ + |φ (p)|2 d p = 1 et calculer la fonction d’onde à l’instant t = 0 ;
∞
2. Calculer hXi, hX 2 i, hPi, hP2 i et en déduire que l’inégalité de Heisenberg 4x4p est saturée
pour une guassienne.
On peut définir comme oscillateur, tout système physique susceptible d’être le siège de phénomenes
physiques se produisant au cours du temps au voisinage d’un état d’équilibre stable.
Approche quantique
L’équation de Schrödinger de ce système quantique s’écrit en représentation −x,
mω0 2mE
ψ ” (x) + (ε − α 2 x2 )ψ(x) = 0 où α = et ε = 2
h̄ h̄
Les fonctions propres de cette équation sont
α 1 2 √
ψn (x) = ( )1/4 √ e−αx /2 Hn ( αx)
π 2n n!
dn
Hn (y) = (−1) exp(y ) n exp(−y2 )
n 2
dy
1
En = (n + )h̄ω0 .
2
1
1. Justifier brièvement pourquoi l’énergie la plus base est E0 = h̄ω0 et non zéro.
2
d d
2. Déduire de l’action de y et de sur Hn (y) que celle des opérateurs x et sur ψn (x) est
dy dX
√ √ √
2αXψn (x) = n + 1ψn+1 (x) + nψn−1 (x)
r
2 d √ √
ψn (x) = − n + 1ψn+1 (x) + nψn−1 (x)
α dX
3. Calculer dans un état d’énergie En , hXi, hX 2 i, hPi, hP2 i. En déduire que l’énergie du point
1
zéro , En = h̄ω0 est nécessaire pour préserver les relations d’incertitudes.
2
h̄
4. Vérifier que pour l’état fondamental n = 0, 4X4P = . Ce résultat aurait-il pu être obtenu
2
autrement ?
5. Jusqu’ici le temps n’est pas intervenu explicitement. On arrive donc à cette constatation que
l’oscillateur quantique qui ne semble pas osciller est stationnaire.
Superposer à poids égaux ψ0 (x,t) et ψ1 (x,t) et vérifier que le paquet d’ondes ψ(x,t) obtenu
qui n’est pas fonction propre de H, oscille dans un potentiel harmonique et que le carré
|ψ(x,t)|2 dépend explicitement du temps.
1. Chercher les variations des niveaux énergétiques et les fonctions d’onde d’états stationnaires
ψn (x) d’un oscillateur chargé soumis à un champ électrique homogène orienté suivant l’axe
Ox des oscillations
1
V (x) = mω02 x2 − qεx
2
où ε est un champ constant.
2. Chercher le spectre énergétique et les fonctions d’onde normées d’états stationnaires d’un
oscillateur harmonique non perturbé en représentation d’implusion à partir de l’équation de
Schrödinger dans la même représentation.
F IGURE 11.5. (a) Amplitude de probabilité de localisation. (b) Densité de probabilité de localisation
1. (a) Utiliser l’égalité spectrale temporelle d’Heisenberg pour expliquer l’effet tunnel.
(b) Justifier aussi pourquoi lorsque la largeur du puits est négligeable, le spectre d’énergie
devient pratiquement continu.
2. Un de vos camarades dit ceci : " Si un quanton est dans un état propre d’un puits carré
plat fini de largeur a, alors on connait son énergie exactement. Nous savons également que
l’énergie dans ce puits est purement cinétique. Par conséquent, l’implusion est aussi connue
exactement, ce qui contredit le principe d’indétermination d’Heisenberg puisque le quanton
a une position finie (4x = a)."
Trouver l’érreur dans l’argumentation de votre camarade.
On sait que le champ électrique à l’intérieur d’un conducteur est nul. Les électrons de conduction
sont alors libres (V = 0) à l’intérieur du volume métallique et strictement confinés dans l’intervalle
[0, L] de l’axe Ox lorsqu’on ne considère que cette dimension du conducteur.
4. Déterminer pour un état quantique n quelconque, les valeurs moyennes des grandeurs x, x2 , px , p2x .
En déduire les écarts quadratiques 4x et 4px .
5. Quelle est la valeur du produit 4x4px pour l’état fondamental ? L’inégalité d’Heisenberg
est-elle satisfaite ?
11.1.21 Hétérojonction
Une double hétérojonction est formée entre deux semi-conducteurs B (comme barrière) et P (comme
puits) de la manière suivante : une tranche d’épaisseur L du semi-conducteur P es insérée dans une
matrice de semi-conducteur B (figure 5.5.8). Les progrès de l’épitaxie, ou croissance par plans
atomiques succesifs, autorise des interfaces entre les deux matériaux parfaitement planes.
1. quelle est l’énergie minimale d’un électron de masse effective m = 0.07m confiné dans un
puits P infini de largeur L = 100Å ?
3. En comparant cette température à la température ordinaire, que peut-on conclure par rapport
à l’occupation de niveaux ?
4. On rappelle que dans un modèle d’électrons libres le vecteur d’onde de Fermi kF et la densité
électronique n sont reliés par la relation
kF3
n=
3π 2
16E(V0 −V ) −2qa/h̄ p
τ= 2
e , q = 2m(V0 − E)
V0
1. Des électrons ayant pour énergie cinétique 0.1eV vers 900K, énergie due à leur agitation
thermique, sont retenus sur la cathode par des forces de liasons créant une énergie potentielle
de l’ordre de 10eV . Toutefois, certains d’eux peuvent s’échapper de la cathode par l’éffet
tunnel. Quelle est l’épaisseur de la barrière de potentiel à franchir pour que 1% des électrons
puissent s’échapper ? Commenter le résultat.
2. On considère un cycliste de 70kg arrivant à 36km/h devant une colline de 20m de haut et
de 50m de large. Quelle est la probabilité qu’il franchisse cette colline par effet tunnel, sans
donner un coup de pédale ? Commenter ce résultat.
3. Calculer la variation de courant à travers la pointe d’un microscope à effet tunnel (STM)
lorsque la distance varie de 0.1nm (avec V0 = 6eV, a = 1nm et E = 1eV ). Conclusion sur la
précision de la technique.
Soit un quanton de masse m mobile dans un puits de potentiel infini à une dimension. Les parois
du puits se trouvent aux abscisses x = ±L/2
L L
1. On suppose que l’énergie potentielle du quanton a la valeur V (x) = 0 pour − < x < et
2 2
L L
V (x) = ∞ pour x > et x < .
2 2
(a) Déterminer les fonctions d’états stationnaires donner leurs valeurs aux limites du puits.
(b) Montrer qu’à l’intérieur du puits, l’hamiltionien est invariant dans l’opération de re-
flexion qui transforme x en −x. Il faut donc ranger les fonctions d’état en deux catégo-
ries, paires ou symétriques et impaires ou antisymétriques.
(c) Déterminer pour chaque catégorie, le spectre d’énergie et nommer les fonctions d’état.
2. Comparer les valeurs des niveaux d’énergie à celles obtenues dans le cas du puits de potentiel
infini dont les parois se trouvent aux abscisses x = 0 et x = L.
(a) dans le cas d’un électron en prenant L = 1Å, soit sensiblement le diamètre de l’atome
d’hydrogène ;
(b) dans le cas d’un proton avec L = 10−4 Å, grandeur sensiblement comparable au dai-
mètre des noyaux atomiques
5. Comparer ces valeurs avec les énergies mises en jeu dans les laisons chimiques habituelles
(∼ 100kcal/mol).
6. Peut-on mettre en évidence la quantification de l’énergie dans le cas d’un quanton de masse
m = 1g mobile sur un segment de longeur 1m ?
1. Un quanton de masse m dans un puits de potentiel plat infini de largeur a possède une am-
plitude de probabilité à l’instant t = 0
πx
ψ(x, 0) = Nsin3 ( )
a
(a) Calculer la constante de normalisation N.
3 1
(b) Sachant que sin3 x = sinx − sin3x,
4 4
développer ψ(x, 0) sur les fonctions d’états stationnaires ψn (x) et en déduire la fonction
d’onde ψ(x,t) à l’instant t .
(c) Expliquer pourquoi le paquet d’onde |ψ(x,t)|2 évolue au cours du temps. Quelle est le
temps τ au bout duquel on retrouve la foncton d’onde initiale ?
2. On considère un quanton de masse m à l’intéressant d’un puits quantique plat carré infini
défini par V (x) = 0 lorsque 0 ≤ x ≤ a et V (x) = ∞, ailleurs. Nous voulons déterminer l’évo-
lution temporelle de son amplitude de probabilité défini à l’instant initial par
π
ψ(x,t = 0) = C(2sinKx + 3sin2Kx + sin3kx), k =
a
Certaines pigments sont constitués d’ions moléculaires de formule brute (Cn Hn+2 )− dérivant, par
enlèvement d’un groupe (CH)+ , de molécules de polythylène à nombre pair d’atomes de carbone
comme l’hexatrième, les laisons se réarrangent pour conduire à une strucuture linéaire du type
2. A cause du principe de Pauli, les n + 1 électrons ne peuvent pas se ranger à plus de deux par
niveau d’énergie. Quelles sont, l’énergie E0 de l’état fondamental (état de plus faible énergie)
On considère un segment de longueur L le long duquel les électrons sont suceptibles de se mou-
voir librement (V = 0). A l’extérieur de ce segment leur énergie potentielle V est infinie (V =
∞ pour x ≥ L et x ≤ 0 ).
1. Quelle est la forme générale des fonctions d’onde ? On tiendra compte des conditions de
raccordement.
2. En déduire la quantification des niveaux d’énergie autorisés. Quelle est l’expression littérale
des trois premiers niveaux d’énergie distincts, E0 , E1 , E2 ?
6. Quel remarque peut-on faire concernant le passage de l’atome au cristal ? Combien de ni-
veaux d“énergie N occupés dans l’état fondamental.
On modélise les électrons d’un métal unidimensionnel comme un ensemble d’ondes planes dont
les niveaux d’énergie sont également espacés par 4 = hvF , où vF est la vitesse de Fermi des
électrons. Tous les états en dessous d’une énergie µ sont occupés par un seul électron et tous les
états au dessus de l’énergie µ sont vide est l’énergie de Fermi, ou potentiel chimique du métal.
On considère deux métaux unidimensionnels séparés par une barrière de potentiel V µ1 , µ2 ,
à travers laquelle les électrons ont une amplitude de transmission t. Une tension U appliquée entre
les deux métaux décale les potentiels chimiques µ1 − µ2 = eU (voir Figure 5.6.3).
2. Quelle est par niveau d’énergie, la densité de courant qui traverse la jonction dont l’amplitude
de transmission est t ?
e2 2
J=2 |t| U = GU.
h̄
C’est la formule de Landauer qui montre qu’une telle jonction se comporte comme une
e2 1
résistance. ' est le quantum de conductance de la jonction.
h 25000Ω
4. La conductance G d’un conducteur parfait est-elle finie ou infinie ?
Le modèle précédent décrit assez bien le courant tunnel entre une pointe métallique et la
surface d’un métal. Comme le coefficient de transmission |t|2 , dépend exponentiellement de
la distance, le courant tunnel ne sera pas le même suivant que la pointe se trouve au dessus
d’un atome ou entre deux atomes. C’est le principe du microscope à effet tunnel, où l’image
atomique d’une surface est obtenue en balayant une pointe sur cette surface et en enregistrant
le courant tunnel en fonction de la position pointe.
Il est aussi à noter que la formule très simple (5.6.8), se généralise facilement à des situations
où plusieurs cannaux de conduction existent.Ceux-ci peuvent correspondre aux différents
modes de propagation du conducteur pour un nanofil, mais aussi à des orbitales molécu-
laires, lorsqu’on souhaite décrire la conduction d’un atome ou d’une molécule. Pour cette
raison, la formule de Landauer est la base conceptuelle du transport à l’échelle nanomé-
trique, mais aussi à des orbitales moléculaires, lorsqu’on souhaite décrire la conduction d’un
atome ou d’une molécule. Pour cette raison, la formule de Landauer est la base concep-
tuelle du transport à l’échelle nanométrique et donc des HEMT (High Electron Mobility
Transistor) utilisés en téléphonie mobile.