Vous êtes sur la page 1sur 85

Cours d’algèbre linéaire

MIAS2, deuxième semestre

Raphaël Danchin

Année 2004-2005
2
Table des matières

1 Réduction des endomorphismes 5


1.1 Rappels et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Valeurs propres, vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Le cas des endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Le cas des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5 Endomorphismes diagonalisables . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.1 Résultats théoriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.2 Méthode pratique de diagonalisation . . . . . . . . . . . . . . . . . . . . . 18
1.6 Endomorphismes trigonalisables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.7 Polynômes d’endomorphismes et de matrices . . . . . . . . . . . . . . . . . . . . 21
1.8 Polynôme minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.9 Sous-espaces caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2 Espaces euclidiens et endomorphismes symétriques 37


2.1 Formes bilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.1.2 Formes bilinéaires symétriques . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2 Espaces euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2.2 Projections orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.3 Adjoint d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.4 Réduction des endomorphismes symétriques . . . . . . . . . . . . . . . . . . . . . 51
2.5 Réduction des endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . 54
2.5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.5.2 Étude de O2 (R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.5.3 Réduction des endomorphismes orthogonaux . . . . . . . . . . . . . . . . 57
2.5.4 Endomorphismes orthogonaux en dimension 3 . . . . . . . . . . . . . . . . 59

3 Équations différentielles linéaires 63


3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.2 Le cas homogène à coefficients constants . . . . . . . . . . . . . . . . . . . . . . . 64
3.2.1 Exponentielles de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.2.2 Calcul pratique de l’exponentielle d’une matrice . . . . . . . . . . . . . . 65
3.2.3 Systèmes différentiels homogènes à coefficients constants . . . . . . . . . . 67
3.2.4 Équations scalaires linéaires homogènes à coefficients constants . . . . . . 71
3.3 Équations différentielles linéaires générales . . . . . . . . . . . . . . . . . . . . . . 73
3.3.1 Équations différentielles linéaires scalaires d’ordre 1 . . . . . . . . . . . . 73
3.3.2 Systèmes différentiels linéaires . . . . . . . . . . . . . . . . . . . . . . . . 74

3
4 TABLE DES MATIÈRES

3.3.3 La méthode de variation des constantes . . . . . . . . . . . . . . . . . . . 77


3.3.4 Équations différentielles scalaires d’ordre quelconque . . . . . . . . . . . . 78
3.3.5 Application au cas des coefficients constants . . . . . . . . . . . . . . . . . 79
3.3.6 Utilisation des développements en série entière . . . . . . . . . . . . . . . 81

Bibliographie 83
Chapitre 1

Réduction des endomorphismes

Motivation
Point de vue matriciel
Transformer une matrice carrée A en une matrice semblable B la “plus simple possible”.
Dans la situation idéale, la matrice B sera diagonale, et on dira alors que A est diagonalisable.
Dans les cas moins favorables, on pourra seulement transformer A en une matrice B trian-
gulaire (et on dira que A est trigonalisable) voire triangulaire par blocs.

Point de vue endomorphisme


Décomposer un endomorphisme u en une somme finie u = pi=1 ui d’endomorphismes ui
P
“plus simples”.
Dans les cas les plus favorables, les ui seront, à un facteur multiplicatif près, des projections
sur un sous-espace vectoriel de E.

1.1 Rappels et notations


Dans tout ce qui suit, K désigne R ou C, et E est un K-espace vectoriel de dimension finie
n ≥ 1.
Si u ∈ End(E), on note u0 = Id où Id est l’application identité, u1 = u, u2 = u ◦ u puis,
up+1 = u ◦ up = up ◦ u.
Si u et v sont deux éléments de E, on notera souvent uv au lieu de u ◦ v l’endomorphisme
composé.
On notera diag(λ1 , · · · , λn ) la matrice carrée diagonale de taille n suivante :
 
λ1 0 · · · 0
. 
 0 λ2 . . . .. 

diag(λ1 , · · · , λn ) =  . .
 .
 .. .. ... 0  
0 · · · 0 λn

Sommes de sous-espaces vectoriels : Considérons deux sous-espaces vectoriels1 F et G de


E. On définit un troisième sous-espace vectoriel F + G par
déf
F + G = {x ∈ E | ∃(y, z) ∈ F × G, x = y + z}.
1
ou s.e.v. en abrégé

5
6 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

On dit que F et G sont en somme directe si F ∩ G = {0}. On note alors F ⊕ G la somme


F + G, et tout élément x de F ⊕ G se décompose de façon unique en x = y + z avec y ∈ F et
z ∈ G.
Homothéties : Soit λ ∈ K. L’application

E −→ E
x 7−→ λx

est un endomorphisme sur E appelé homothétie de rapport λ.


L’homothétie de rapport 1 est appelée identité et notée Id.
Projecteurs : Soient F et G deux s.e.v. de E tels que E = F ⊕ G. Tout x ∈ E se décompose
alors de manière unique en x = y + z avec avec y ∈ F et z ∈ G. On appelle projecteur sur F
parallèlement à G l’endomorphisme définit par p(x) = y. On rappelle que p2 = p, Im p = F et
Ker p = G.
Réciproquement, tout endomorphisme p tel que p2 = p est le projecteur sur Im p pa-
rallèlement à ker p.
Symétries : Soient F et G deux s.e.v. de E tels que E = F ⊕ G. Pour x ∈ E se décomposant
en x = y + z, on pose s(x) = y − z. L’endomorphisme s obtenu est appelé symétrie par rapport
à F parallèlement à G, et vérifie s2 = Id. On dit que s est une involution.
Réciproquement, toute involution est une symétrie.
Matrice d’un endomorphisme : Notons B = (e1 , · · · , en ) une base de E. Soit u un endomor-
phisme de End(E). Alors il existe des scalaires aij de K tels que
n
X
∀j ∈ {1, · · · , n}, u(ej ) = aij ei .
i=1

La matrice A = (aij )1≤i,j≤n est appelée matrice de u par rapport à la base B.


Exemple : La matrice d’une homothétie de rapport λ est
 
λ 0 ··· 0
.. .
. .. 

0 λ
A=  .. .. ..
.

. . . 0
0 ··· 0 λ

Dans le cas λ = 1 cette matrice est notée In , et appelée matrice identité.


0
Matrice dePnpassage : Soient B = (e1 , · · · , en ) et B = (f1 , · · · , fn ) deux bases de E. Supposons
que fj = i=1 pij ei . La matrice P = (pij )1≤i,j≤n est appelée matrice de passage de la base B
vers la base B 0 . Une telle matrice est toujours inversible.
Effet d’un changement de base : Soient B = (e1 , · · · , en ) et B 0 = (f1 , · · · , fn ) deux bases de
E, et P la matrice de passage correspondante. Soit u un endomorphisme de End(E) de matrice
A par rapport à la base B et de matrice B par rapport à la base B 0 . Alors on a la formule

B = P −1 AP.

On dit que les matrices A et B sont semblables, et l’on note A ∼ B.


Matrices par blocs : Il est souvent pratique de décomposer une matrice M de Mn (K) en blocs
plus petits : par exemple
 
A B
M= avec A ∈ Mp (K), B ∈ Mp,n−p (K), C ∈ Mn−p,p (K) et D ∈ Mn−p (K).
C D
1.2. SOUS-ESPACES STABLES 7

Pour faire le produit de matrices par blocs, on procède comme pour faire un produit habituel :
 0
A B0 AA0 + BC 0 AB 0 + BD0
   
A B
= .
C D C 0 D0 CA0 + DC 0 CB 0 + DD0
Tout ceci se généralise sans difficultés à des matrices comportant plus de blocs.
Attention : Les produits ci-dessus sont des produits de matrices. Il est interdit de permuter
l’ordre des termes.
Calcul du déterminant :
• Si A ∈ Mn (K) et B ∈ Mn (K), alors det AB = det A det B.
• Si A ∈ Mn (K) et B ∈ Mn (K) sont semblables alors det A = det B.
• Si A ∈ Mp (K), B ∈ Mp,n−p (K) et C ∈ Mn−p (K), on a
 
A B
det = det A det C.
0 C

1.2 Sous-espaces stables


Définition 1.2.1 Soit u ∈ End(E) et F un s.e.v de E. On dit que F est un sous-espace
stable de u si u(F ) ⊂ F .
Remarque : Les sous-espaces {0} et E sont stables par tout endomorphisme. De même, Im u
et Ker u est toujours stable par u.
Définition 1.2.2 Soit u ∈ End(E) et F stable par u. On appelle endomorphisme induit par
u sur F l’élément uF de End(F ) défini pour tout x de F par uF (x) = u(x).
Lorsque l’on parvient à trouver deux sous-espaces stables par u, F et G tels que E = F ⊕ G,
alors il existe une base de E par rapport à laquelle la matrice de E est diagonale par blocs. Avant
d’énoncer le résultat précis, donnons la définition de base adaptée :
Définition 1.2.3 Soit F et G deux s.e.v de E tels que E = F ⊕ G. On dit que (e1 , · · · , en )
est une base de E adaptée à la décomposition E = F ⊕ G si (e1 , · · · , em ) est une base de F et
(em+1 , · · · , en ) est une base de G.
Proposition 1.2.4 Soit F , G, deux s.e.v de E tels que E = F ⊕ G, et u ∈ End(E). Soit
déf
B = (e1 , · · · , en ) une base de E adaptée à la décomposition E = F ⊕ G. Alors on a l’équivalence
entre les deux énoncés suivants :
i) Les s.e.v F et G sont stables par u,
ii) La matrice de u par rapport à la base B est de la forme
 
A 0
matB f = ,
0 B
avec A ∈ Mm (K) et B ∈ Mn−m (K).
Preuve : Pour le sens direct, on utilise simplement que u(ei ) ∈ F = Vect(e1 , · · · , em ) pour
i ∈ {1, · · · , m} et que u(ei ) ∈ G = Vect(em+1 , · · · , en ) pour i ∈ {m + 1, · · · , n}.
Réciproquement, si la matrice de f par rapport à la base B est donnée par
 
A 0
matB f = ,
0 B
alors u(ei ) ∈ F pour tout i ∈ {1, · · · , m} et u(ei ) ∈ G pour i ∈ {m + 1, · · · , n}. Comme
F = Vect(e1 , · · · , em ) et G = Vect(em+1 , · · · , en ), on en déduit la stabilité de F et de G
par u.
8 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Remarque : Généralisation au cas de E = E1 ⊕ · · · ⊕ Ep .


Considérons une base B adaptée à la décomposition ci-dessus. Alors u ∈ End(E) laisse tous
les sous-espaces Ei invariants si et seulement si sa matrice est diagonale par blocs :
 
A1 0 · · · 0
 0 A2 · · · 0 
matB f =  . . ,
 
. . . .
 . . . 0
0 0 · · · Ap

où le k-ième bloc diagonal est une matrice carrée de taille dim Ek .
Exemples : Considérons F et G de dimension respective m et n − m, et tels que E = F ⊕ G.
Soit B une base adaptée à la décomposition E = F ⊕ G.
1. Soit p le projecteur sur F parallèlement à G. Alors
 
Im 0
matB p = .
0 0

2. Soit s la symétrie par rapport à F parallèlement à G. Alors


 
Im 0
matB s = .
0 −In−m

1.3 Valeurs propres, vecteurs propres


1.3.1 Le cas des endomorphismes
Définition 1.3.1 Soit u ∈ End(E). On dit que λ ∈ K est valeur propre de u s’il existe un
élément x non nul de E tel que
u(x) = λx.
Si λ est une valeur propre de u, tout élément x de E vérifiant la relation ci-dessus est appelé
vecteur propre de u associé à la valeur propre λ.
L’ensemble des valeurs propres de u est appelé spectre de u, et noté Sp(u). C’est un sous-
ensemble (éventuellement vide) de K.

Définition 1.3.2 Si λ est une valeur propre de l’endomorphisme u de End(E), on appelle sous-
espace propre associé à λ l’ensemble des vecteurs propres de u pour λ. Ce sous-espace se note
Eλ (u) (ou simplement Eλ en l’absence d’ambiguı̈té).

Proposition 1.3.3 Si λ est une valeur propre de u, l’ensemble Eλ est un sous-espace vectoriel
de E non réduit à {0}, et l’on a
Eλ = Ker (u − λId).

Remarque : En particulier, 0 est valeur propre de u si et seulement si Ker u n’est pas réduit
à 0, c’est-à-dire si et seulement si u n’est pas injectif. Dans ce cas E0 n’est autre que Ker u.
Proposition 1.3.4 On a les propriétés suivantes :
i) Si λ est une valeur propre de u alors Eλ est stable par u. L’endomorphisme uEλ induit par
u sur Eλ est égal à λ IdEλ .
ii) Si λ et µ sont deux valeurs propres distinctes de u, alors Eλ et Eµ sont en somme directe.
iii) Soit (x1 , · · · , xp ) une famille de p vecteurs propres non nuls de E associés à des valeurs
propres λ1 , · · · , λp deux à deux distinctes. Alors (x1 , · · · , xp ) est une famille libre.
1.3. VALEURS PROPRES, VECTEURS PROPRES 9

Preuve : Prouvons i). Soit x ∈ Eλ . On a u(u(x)) = u(λx) = λu(x) par linéarité de u. Par
conséquent, u(x) ∈ Eλ , et Eλ est donc stable par u. On peut donc parler d’endomorphisme
induit par u sur Eλ , et il est trivial que uEλ = λ IdEλ .
Si maintenant x est vecteur propre pour λ et pour µ, on a u(x) = λx = µx, donc (λ−µ)x =
0. On en déduit que λ = µ ou x = 0, ce qui prouve ii).
Pour prouver iii), considérons un p-uplet (α1 , · · · , αp ) de Kp tel que
p
X
αi xi = 0.
i=1

En appliquant successivement u, u2, · · · , up à l’égalité ci-dessus, on obtient le système


suivant :


 α1 x1 + α2 x2 + · · · + αp xp = 0
 λ α x
1 1 1 + λ2 α2 x2 + · · · + λp αp xp = 0
(S) :

 .............. ........... ............. ........... .... ..
 p−1
λ1 α1 x1 + λp−1 2 α2 x2 + · · · + λp αp xp = 0.
p−1

Si l’on considère (α1 x1 , · · · , αp xp ) comme les inconnues du système, la matrice de (S)


n’est autre que la matrice de Vandermonde associée au p-uplet (λ1 , · · · , λp ). Comme les
λi sont deux à deux distincts, on en déduit que (S) est de Cramer. Son unique solution
est clairement
α1 x1 = α2 x2 = · · · = αp xp = 0.
Comme tous les xi sont distincts de 0, on conclut que tous les αi sont nuls.

Proposition 1.3.5 Si u et v sont deux endomorphismes de End(E) qui commutent 2 alors tout
sous-espace propre de u est stable par v. De même Im u est stable par v.

Preuve : Soit λ une valeur propre de u, et x un vecteur propre associé. On a u(v(x)) =


v(u(x)) = v(λx) = λv(x), donc v(x) ∈ Eλ .
Si maintenant y ∈ Im u, alors il existe x ∈ E tel que y = u(x). Par conséquent, v(y) =
v(u(x)) = u(v(x)) ∈ Im u.

Proposition 1.3.6 Soit u ∈ End(E), et F un sous-espace stable par u. Notons v l’endomor-


phisme induit par u sur F . Alors toute valeur propre de v est valeur propre de u, et l’on a
Eλ (v) = Eλ (u) ∩ F .
Réciproquement, si Eλ (u) ∩ F n’est pas réduit à {0}, alors λ est valeur propre de v.

Preuve : Il suffit de prouver Eλ (v) = Eλ (u) ∩ F . L’inclusion Eλ (v) ⊂ Eλ (u) découle de la


définition de v. Et bien sûr, on doit avoir Eλ (v) ⊂ F puisque v est défini sur F !
Réciproquement, si x ∈ Eλ (u) ∩ F , alors v(x) est bien défini puisque x ∈ F , et vaut
u(x) = λx puisque x ∈ Eλ (u).
Exemples :
1. Projecteurs :
Supposons que E = F ⊕ G avec F et G non réduits à {0}. Soit p le projecteur sur F
parallèlement à G. Alors

Sp(p) = {0, 1}, E0 = Ker p = G et E1 = Im p = F.


2
c’est-à-dire que uv = vu
10 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

2. Symétries :
Si l’on considère maintenant la symétrie s par rapport à F parallèlement à G, alors on a

Sp(s) = {−1, 1}, E−1 = G et E1 = F.

3. Endomorphismes nilpotents :
Définition 1.3.7 On dit que u ∈ End(E) est un endomorphisme nilpotent s’il existe
un p ∈ N tel que up = 0. Le plus petit p vérifiant cette propriété est appelé indice de
nilpotence de u.
Proposition 1.3.8 Si u est un endomorphisme nilpotent alors Sp(u) = {0}.
Preuve : Si Sp(u) ne contenait pas 0, alors Ker u serait réduit à {0}. Soit maintenant
x ∈ E arbitraire. Alors up (x) = 0 donc u(up−1 (x)) = 0 d’où up−1 (x) = 0. Une
récurrence élémentaire permet de montrer que up (x) = up−1 (x) = · · · = u(x) = x = 0,
ce qui est absurde puisque E n’est pas réduit à {0} ! Donc Sp(u) ⊃ {0}.
Montrons Sp(u) ⊂ {0}. Soit λ ∈ Sp(u) et x un vecteur propre (non nul) associé. On
établit aisément que uk (x) = λk x pour tout k ≥ 1. En particulier up (x) = λp x = 0.
Donc λp = 0, d’où λ = 0.
4. Deux exemples “pathologiques” en dimension infinie : Considérons l’espace vec-
déf
toriel réel E = C ∞ (R; R) et 
E −→ E
u :
f 7−→ f 0 .
Alors tout λ ∈ R est valeur propre de u avec pour vecteur propre associé la fonction
fλ : x 7→ eλx . On conclut que Sp(u) = R.
Prenons maintenant E = K[X] et

E −→ E
u :
P 7−→ XP.

Dire que u(P ) = λP signifie que (X − λ)P = 0. Comme X − λ n’est pas le polynôme nul,
l’intégrité de K[X] entraı̂ne que P = 0. Donc Sp(u) = ∅.
Ces quelques exemples montrent que le spectre de u peut prendre des formes très diverses lorsque
E est un espace vectoriel quelconque.
Nous supposons désormais que E est un espace vectoriel de dimension finie n ≥ 1. Nous
allons alors établir que Sp(u) contient au plus n éléments. Lorsque K = C, nous verrons que
Sp(u) ne peut pas être vide.

1.3.2 Le cas des matrices


Définition 1.3.9 Soit A ∈ Mn (K). On dit que λ ∈ K est valeur propre de A si la matrice
A − λIn n’est pas inversible. L’ensemble des valeurs propres de A est appelé spectre de A, et
noté Sp(A).

Proposition 1.3.10 Soit A ∈ Mn (K). Les propriétés suivantes sont équivalentes :


i) λ ∈ Sp(A),
ii) rg (A − λIn ) < n,
iii) il existe un vecteur colonne non nul X de Kn tel que AX = λX.
1.4. POLYNÔME CARACTÉRISTIQUE 11

Preuve : i) ⇒ ii) : Comme λ ∈ Sp(A), la matrice A − λIn n’est pas inversible. Son rang est
donc strictement inférieur à n.
ii) ⇒ iii) : Soit u l’endomorphisme de matrice A par rapport à la base canonique
(1 , · · · , n ) de Kn . On a donc rg (u − λ Id) < n. Donc, d’après le théorème du rang,
Ker (u − λ Id) n’est pas réduit à {0} et l’on peut trouver x = x1 1 + · · · + xn n tel que
u(x) = λx. Le vecteur colonne de composantes (x1 , · · · , xn ) répond à la question.
iii) ⇒ i) : Si u désigne l’endomorphisme défini ci-dessus, et x = x1 1 + · · · + xn n où les
xi sont les composantes de X, alors x ∈ Ker (u − λ Id). Donc u − λIn n’est pas inversible,
et la matrice (par rapport à la base canonique) correspondante A − λIn non plus.

Définition 1.3.11 Si λ est valeur propre de A, tout vecteur colonne X tel que AX = λX est
appelé vecteur propre de A.

Proposition 1.3.12 Si A et B sont deux matrices semblables, alors Sp(A) = Sp(B)

Preuve : Il suffit de remarquer que si A et B sont semblables, alors A − λIn et B − λIn


également. Par conséquent A − λIn et B − λIn sont inversibles simultanément.

Proposition 1.3.13 Soit u ∈ End(E), B = (e1 , · · · , en ) une base de E et A la matrice de


u parPrapport à B. Alors Sp(A) = Sp(u). De plus, si λ est valeur propre de A ou u alors
n
x = i=1 xi ei est vecteur propre de u pour la valeur propre λ si et seulement si le vecteur
déf
colonne X = t (x1 , · · · , xn ) est vecteur propre de A pour λ.

Preuve : La définition de Sp(A) et Sp(u) entraı̂ne que Sp(A) = Sp(u). Par ailleurs, si l’on
utilise les notations de la proposition, l’égalité u(x) = λx est équivalente à AX = λX.

Définition 1.3.14 On dit que A ∈ Mn (K) est une matrice nilpotente s’il existe un p ∈ N
tel que Ap = 0. Le plus petit p vérifiant cette propriété est appelé indice de nilpotence de A.

Exemple : Toute matrice triangulaire supérieure avec des 0 sur la diagonale est nilpotente.
Proposition 1.3.15 Une matrice A est nilpotente si et seulement si l’endomorphisme u ∈
End(Kn ) de matrice A par rapport à la base canonique est nilpotent.
 k
Preuve : On utilise simplement la formule matB (uk ) = matB (u) vraie pour tout k ∈ N.

Proposition 1.3.16 Si A est une matrice nilpotente alors Sp(A) = {0}.

Preuve : On considère l’endormorphisme u ∈ End(Kn ) de matrice A par rapport à la base


canonique, et on applique la proposition 1.3.8.

1.4 Polynôme caractéristique


Le calcul du polynôme caractéristique (défini dans la proposition qui suit) va nous permettre
de déterminer les valeurs propres d’une matrice ou d’un endomorphisme.
Proposition 1.4.1 Soit A ∈ Mn (K). La fonction
déf
λ 7→ χA (λ) = det(A − λIn )
coı̈ncide avec un polynôme de degré n et de coefficient dominant (−1)n , noté χA . Ce polynôme
est appelé polynôme caractéristique de A. De plus, on a

χA = (−1)n X n + (−1)n−1 X n−1 tr A + · · · + det A.


12 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Preuve : On développe l’expression suivante



a11 − λ a12 ··· a1n

a21 a22 − λ · ·· a2n
det(A − λIn ) = .

··· . ..
··· ···

an1 an2 ··· ann − λ

Exemples :
1. Dans le cas n = 2, on a χA = X 2 − X tr A + det A.
2. Si χA est scindé avec χA = ni=1 (λi − X), alors tr A = ni=1 λi et det A = ni=1 λi .
Q P Q

Donnons quelques propriétés importantes des polynômes caractéristiques :

Proposition 1.4.2 Soient A et B deux matrices de Mn (K). On a :


i) χA = χt A ,
ii) si A et B sont semblables alors χA = χB ,
iii) χAB = χBA .

Preuve : La preuve de i) résulte de l’identité suivante valable pour tout λ ∈ K :

det(A − λIn ) = det t (A − λIn ) = det(t A − λIn ).




Considérons deux matrices semblables A et B. Alors il existe P ∈ GLn (K) telle que
B = P −1 AP . On a visiblement

B − λIn = P −1 AP − λIn = P −1 (A − λIn )P.

Donc B − λIn et A − λIn sont semblables, et leur déterminant est donc égal.
La façon la plus élémentaire de prouver iii) consiste à passer dans M2n (K). On remarque
alors que     
λIn A −In 0 AB − λIn A
= ,
B In B In 0 In
    
λIn A In A λIn 0
= .
B In 0 −λIn B BA − λIn
Par conséquent
   
n λIn A n λIn A
(−1) det = det(AB − λIn ) et (−λ) det = λn det(BA − λIn ).
B In B In
 
λIn A
La fonction λ 7→ det est visiblement une fonction polynôme de terme dominant
B In
λn , donc non nulle. Grâce à la relation ci-dessus, on peut donc conclure que det(AB −
λIn ) = det(BA − λIn ) pour tout λ ∈ K. D’où χAB = χBA .
Voici maintenant un résultat fondamental :

Théorème 1.4.3 Soit A ∈ Mn (K). Alors λ ∈ Sp(A) si et seulement si χA (λ) = 0.

Preuve : D’après la proposition 1.3.10, λ ∈ Sp(A) si et seulement si (A − λIn ) n’est pas


inversible, donc si et seulement si det(A − λIn ) = 0.
1.4. POLYNÔME CARACTÉRISTIQUE 13

Corollaire 1.4.4 i) Si A ∈ Mn (K) avec K = R ou C, alors Sp(A) a au plus n éléments.


ii) Si A ∈ Mn (C), alors Sp(A) n’est pas vide.
iii) Si A ∈ Mn (R) alors le spectre de A dans R est inclus dans le spectre de A dans C.
Preuve : Pour i), on utilise le fait qu’un polynôme de degré n a au plus n racines.
La propriété ii) résulte du théorème fondamental de l’algèbre.
Comme l’ensemble des racines réelles d’un polynôme est inclus dans l’ensemble de ses
racines complexes, on obtient iii).
Exemples :
 
0 1
1. Soit A = .
−1 0
On a χA = X 2 + 1. Donc d’après le théorème 1.4.3, le spectre de A dans C est {−i, i}.
Mais comme χA n’a pas de racine réelle, le même théorème montre que A n’a pas de valeur
propre dans R.
2. Matrices triangulaires : Le polynôme caractéristique d’une matrice triangulaire supé-
rieure A de termes diagonaux λ1 , · · · , λn est

λ1 −X ? ··· ?

. . .
. Y n
0 λ2 −X . .
χA =
.. .. .. =
(λi − X).
. . . ? i=1

0 ··· 0 λn −X
Résultat identique pour une matrice triangulaire inférieure.
3. Matrice de Frobenius (ou matrice compagnon) : C’est le nom que l’on donne a une
matrice A ∈ Mn (K) du type
 
0 0 · · · 0 a0
1 0 · · · 0 a1 
 
A = 0 1 · · · 0 a2  .
 
 .. . . .. . .. 
. . . .. . 
0 ··· 0 1 an−1
Par définition de χA , on a

−X 0 ··· 0 a0

1
−X ··· 0 a1

..
χA = 0 1 . 0 a2 .

.. . .. . .. .. ..
.
. .

0 ··· 0 1 an−1 −X
Notons (Li ) la i-ème ligne de ce déterminant. Changer (L1 ) en (L1 ) + X(L2 ) + · · · +
X n−1 (Ln ) ne modifie pas le déterminant. Par conséquent,
· · · 0 −X n + n−1

i
P

0 0 i=0 ai X



1 −X · · · 0 a1

..
χA = 0 1 . 0 a2 .

.. . . .. .. ..

. . . . .

0 ··· 0 1 an−1 −X
En faisant un
 développement de Laplace par rapport à la première ligne, on conclut que
n n
Pn−1 k
χA = (−1) X − k=0 ak X .
14 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

De même, à tout endomorphisme défini sur un espace vectoriel E de dimension finie n, on


peut associer un polynôme caractéristique :
Définition 1.4.5 Soit u ∈ End(E) avec E de dimension finie, B une base de E, et A la matrice
déf
de u par rapport à B. On appelle polynôme caractéristique de u, le polynôme χu = χA .
Remarque : D’après la proposition 1.4.2, deux matrices semblables ont même polynôme ca-
ractéristique. La définition ci-dessus ne dépend donc pas de la base B choisie.
On dispose bien sûr du résultat fondamental suivant :
Théorème 1.4.6 Soit u ∈ End(E). Alors λ ∈ Sp(u) si et seulement si χu (λ) = 0.
Exemples :
1. Projecteurs
Supposons que E = F ⊕G avec dim F = m et dim G = n−m, et considérons p le projecteur
sur F parallèlement à G. On sait que l’on peut trouver une base B par rapport à laquelle
la matrice de p est  
Im 0
matB (p) = .
0 0
 
(1 − X)Im 0
Donc χp = det = (−1)n (X − 1)m X n−m .
0 −XIn−m
2. Symétries
Soit s la symétrie par rapport à F parallèlement à G. On peut trouver une base B par
rapport à laquelle la matrice de s est
 
Im 0
matB (s) = .
0 −In−m
 
(1 − X)Im 0
Donc χs = det = (−1)n (X − 1)m (X + 1)n−m .
0 (−1 − X)In−m
3. Endomorphismes nilpotents
On a vu que le spectre d’un endomorphisme nilpotent u était réduit à {0}. Par conséquent
χu est un polynôme de degré n et de coefficient dominant (−1)n ayant pour unique racine
0 dans C. Comme tout polynôme (non constant) est scindé sur C, on en déduit que
χu = (−X)n .

Proposition 1.4.7 Soit u un endomorphisme de End(E).


i) Soit F un sous-espace stable pour u. Notons uF l’endomorphisme induit par u sur F . Alors
χuF divise χu .
ii) Supposons que E = F ⊕ G avec F et G stables par u. Alors χu = χuF χuG .

Preuve : Pour i), considérons une base (e1 , · · · , em ) de F que l’on complète en une base
B = (e1 , · · · , en ) soit une base de E. Alors
 
A C
(1.1) matB (u) = .
0 B

Remarquons que A est la matrice de uF par rapport à la base (e1 , · · · , em ). Donc χuF =
det(A − XIm ). Or, d’après (1.1), on a

A − XIm C
χu = .
0 B − XIn−m
1.5. ENDOMORPHISMES DIAGONALISABLES 15

Le déterminant à calculer est triangulaire par blocs. Donc


χu = det(A − XIm ) det(B − XIn−m ) = χuF det(B − XIn−m ).
Pour prouver ii), on choisit une base B = (e1 , · · · , en ) adaptée à la décomposition E =
F ⊕ G de telle sorte que  
A 0
matB (u) = .
0 B
Or, A (resp. B) est la matrice de uF (resp. uG ) par rapport à la base (e1 , · · · , em ) (resp.
(em+1 , · · · , en )). En procédant comme précédemment, on trouve donc
χu = det(A − XIm ) det(B − XIn−m ) = χuF χuG .

Corollaire 1.4.8 Si λ est racine de χu de multiplicité α alors 1 ≤ dim Eλ ≤ α. Le nombre


entier α est appelé multiplicité de la valeur propre λ. En particulier, si λ est racine simple
alors dim Eλ = 1. Résultat identique pour les matrices.

Preuve : Si λ est racine de χu alors λ est valeur propre de u (cf th. 1.4.6) et donc Eλ n’est
déf
pas réduit à {0}, d’où β = dim Eλ ≥ 1.
De plus, d’après la proposition 1.3.4, l’endomorphisme induit par u sur Eλ coı̈ncide avec
λIdEλ . Son polynôme caractéristique est donc (λ−X)β . D’après la proposition précédente,
(λ − X)β divise donc χu , ce qui montre (cf. théorème de Gauss) que β ≤ α.
Attention : En général dim Eλ = 1 n’implique pas que λ est racine simple de χu . En effet,
considérons un espace vectoriel E de dimension 2, et soit (e1 , e2 ) une base de E. On définit
u ∈ End(E) par
u(e1 ) = 0 et u(e2 ) = e1 .
Alors E0 = Ker u = Ke1 donc est de dimension 1. Mais comme u est nilpotent, on a χu = X 2
donc 0 est valeur propre de multiplicité 1 bien que 0 soit racine double de χu .

1.5 Endomorphismes diagonalisables


1.5.1 Résultats théoriques
Dans toute cette section, E est un K-espace vectoriel de dimension finie n.
Définition 1.5.1 On dit que u ∈ End(E) est diagonalisable si u admet une famille de vecteurs
propres (x1 , · · · , xn ) qui est une base de E.

Définition 1.5.2 On dit que A ∈ Mn (K) est diagonalisable si A est semblable à une matrice
B diagonale.

La proposition suivante fait le lien entre les deux définitions.


Proposition 1.5.3 i) Un endomorphisme u ∈ End(E) est diagonalisable si et seulement si il
existe une base B de E par rapport à laquelle matB (u) est une matrice diagonale.
ii) Une matrice A est diagonalisable si et seulement si l’endomorphisme u de matrice A par
rapport à la base canonique de Kn est diagonalisable. Dans ce cas, si (e1 , · · · , en ) est une
base de vecteurs propres de u, et (λ1 , · · · , λn ) les valeurs propres associées, on a
A = P diag(λ1 , · · · , λn )P −1
où P est la matrice de passage de la base canonique à la base (e1 , · · · , en ).
16 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Preuve : Si u est diagonalisable, alors sa matrice dans une base de vecteurs propres est
diagonale. Réciproquement, si dans une base B = (e1 , · · · , en ) donnée la matrice de u est
diagonale, alors tous les ei sont vecteurs propres pour u. On a donc prouvé i).
Pour prouver ii), il suffit de remarquer que si A = P diag(λ1 , · · · , λn )P −1 et si l’on note
(1 , · · · , n ) la base canonique de Kn , on a

AP i = P diag(λ1 , · · · , λn )i = λi P i .

Par conséquent dire que A est diagonalisable équivaut à dire que l’endomorphisme u de
matrice A par rapport à la base canonique admet (P 1 , · · · , P n ) comme base de vecteurs
propres.
Exemples :
1. Projecteurs : Soit p le projecteur sur F parallèlement à G. Alors n’importe quelle base
(e1 , · · · , en ) adaptée à la décomposition E = F ⊕ G est une base de vecteurs propres pour
p. Plus précisément, si dim F = m, ei est associé à la valeur propre 1 si 1 ≤ i ≤ m, et à la
valeur propre 0 si m + 1 ≤ i ≤ n.
En conclusion, tout projecteur est diagonalisable.
2. Symétries : Soit s la symétrie par rapport à F parallèlement à G. Alors n’importe quelle
base (e1 , · · · , en ) adaptée à la décomposition E = F ⊕ G est une base de vecteurs propres
pour s. Plus précisément, si dim F = m, ei est associé à la valeur propre 1 si 1 ≤ i ≤ m,
et à la valeur propre −1 si m + 1 ≤ i ≤ n.
En conclusion, toute symétrie est diagonalisable.
3. Endomorphismes nilpotents : Soit u un endomorphisme nilpotent. On sait que Sp(u) =
{0}. Par conséquent, dire que E admet une base de vecteurs propres pour u revient à dire
qu’il existe une base (e1 , · · · , en ) de E telle que u(ei ) = 0 pour tout i ∈ {1, · · · , n}. Donc
u est nul.
En conclusion, un endomorphisme nilpotent est diagonalisable si et seulement si il est nul.

Proposition 1.5.4 Considérons p sous-espaces propres (Eλi )1≤i≤p de u associés à des valeurs
propres deux à deux distinctes. Alors les (Eλi )1≤i≤p sont en somme directe.

Preuve : Il s’agit de de prouver que tout x ∈ Eλ1 + · · · + Eλp se décompose de façon unique
en x = x1 + · · · + xp avec xi ∈ Ei .
Supposons qu’il existe deux décompositions de ce type

x = x1 + · · · + xp = y1 + · · · + yp .

Alors pi=1 (xi − yi ) = 0 ce qui signifie qu’il existe une relation de dépendance linéaire
P
entre les p vecteurs propres x1 − y1 , · · · xp − yp . En vertu de la proposition 1.3.4, l’un de
ces vecteurs doit être nul. Par récurrence descendante, on conclut qu’ils sont tous nuls.

Théorème 1.5.5 Soit u ∈ End(E). Notons Sp(u) = {λ1 , · · · , λp }. Les quatre propriétés sui-
vantes sont équivalentes :
i) u est diagonalisable,
ii) E = pi=1 Eλi .
L

iii) dim E = pi=1 dim Eλi .


P
1.5. ENDOMORPHISMES DIAGONALISABLES 17

iv) Il existe p entiers non nuls γ1 , · · · , γp tels que γ1 + · · · + γp = n, et une base B de E par
rapport à laquelle la matrice de u est
 
λ1 Iγ1 0 ··· 0
 0 λ2 Iγ2 ··· 0 
matB (u) =  . .
 
.. .. ..
 .. . . . 
0 0 ··· λp Iγp

Preuve : Sachant que les Eλi sont en somme directe et inclus dans E, on a ii) ⇐⇒ iii).
i) ⇒ iii) : Soit u diagonalisable. On considère une base (e1 , · · · , en ) de vecteurs propres
de u que l’on ordonne de telle sorte que les γ1 premiers P
vecteurs soient associés à λ1 , les
γ2 suivants à λ2 . On a bien évidemment dim Eλ1 = γi et pi=1 γi = n, ce qui entraı̂ne iii).
ii) ⇒ iv) : Supposons que E = pi=1 Eλi . La matrice de u par rapport à une base adaptée
L
à cette décomposition est clairement du type voulu.
iv) ⇒ i) : Immédiat.

Corollaire 1.5.6 Si u a n valeurs propres deux à deux distinctes, λ1 , · · · , λn alors u est dia-
gonalisable et tous ses sous-espaces propres sont de dimension 1. De plus, la matrice de u dans
une base de vecteurs propres (x1 , · · · , xn ) associés à λ1 , · · · , λn est

matB (u) = diag(λ1 , · · · , λn ).

Preuve : Comme les Eλi sont en somme directe et tous de dimension au moins 1, on a
n
M n
X
dim Eλi = dim Eλi ≥ n
i=1 i=1

avec égalité L
si et seulement si tous les sous-espaces propres sont de dimension 1. Mais
n
par ailleurs
Lp i=1 Eλi est inclus dans E donc est de dimension au plus n. On conclut que
E = i=1 Eλi , et donc u est diagonalisable en vertu du théorème 1.5.5.

Théorème 1.5.7 Un endomorphisme u ∈ End(E) est diagonalisable si et seulement si


χu est scindé dans K[X] et la dimension γi de chaque sous-espace propre Eλi de u est
égale à la multiplicité αi de λi dans χu . Dans ce cas, on a
p
Y
χu = (−1)n (X − λi )γi où Sp(u) = {λ1 , · · · , λp }.
i=1

Preuve : Grâce au corollaireP 1.4.8, on sait déjà que pour tout i ∈ {1, · · · , p}, on a γi ≤ αi .
Puisque deg χu = n, on a pi=1 αi = n.
Supposons u diagonalisable. Alors d’après le théorème 1.5.5, on a pi=1 γi = n, et donc
P
nécessairement αi = γi pour tout i.
Réciproquement, si γi = αi pour tout i, alors pi=1 γi = n, et donc u est diagonalisable
P
d’après le théorème 1.5.5.

Attention : L’hypothèse χu scindé n’entraı̂ne pas toujours u diagonalisable. On a vu par


exemple que le polynôme caractéristique d’un endomorphisme nilpotent était scindé : χu =
(−X)n . Mais si u est nilpotent non nul alors u n’est pas diagonalisable.
18 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

1.5.2 Méthode pratique de diagonalisation


Pour les endomorphismes : Soit u ∈ End(E) avec E de dimension n. On donne une méthode
systématique permettant de déterminer les valeurs propres et les sous-espaces propres de u.
1. Calcul de χu .
2. Calcul des racines λ1 , · · · , λp de χu .
Si χu a n racines deux à deux distinctes (i.e p = n), on peut tout de suite conclure que u
est diagonalisable.
3. On détermine les sous-espaces propres de u.
Le sous-espace propre Eλi est l’ensemble des vecteurs x de E tels que

(1.2) u(x) − λi x = 0.

Si on note (x1 , · · · , xn ) les coordonnées de x par rapport à une base donnée, résoudre
(1.2) revient à résoudre un système homogène de n équations dont les n inconnues sont
les coordonnées de x. La dimension γi de Eλi est le nombre d’inconnues non principales
de ce système linéaire. La résolution du système linéaire permet de trouver γi vecteurs
indépendants x1i , · · · , xγi i de Eλi .
4. Conclusion.
L’endomorphisme u est diagonalisable si et seulement si γi est égal à la multiplicité αi de
γ
λi pour tout i. Dans ce cas, la famille (x11 , · · · , xγ11 , x12 , · · · , xγ22 , · · · , x1p , · · · , xpp ) est une
base de vecteurs propres pour u.
Pour les matrices : Soit A ∈ Mn (K). Donnons une méthode systématique permettant de
déterminer valeurs propres et vecteurs propres de A.
1. Calcul de χA .
2. Calcul des racines λ1 , · · · , λp de χA . Si χu a n racines deux à deux distinctes (i.e p = n),
on peut tout de suite conclure que u est diagonalisable.
3. Pour chaque λi , on résout le système linéaire homogène (A − λi In )X = 0. L’ensemble de
ses solutions est Eλi . La dimension γi de Eλi est le nombre d’inconnues non principales.
On peut extraire γi vecteurs colonnes Xi1 , · · · , Xiγi formant une base de Eλi .
4. Conclusion.
La matrice A est diagonalisable si et seulement si γi est égal à la multiplicité αi de λi pour
tout i. Dans ce cas, on a
 
Iγ1 0 · · · 0
.. 
 0 Iγ2 . . .

. 
 P −1 ,
A=P . 
. .
 .. .. .. 0  
0 · · · 0 Iγp
γ
où P est la matrice de colonnes (X11 , · · · , X1γ1 , X21 , · · · , X2γ2 , · · · , Xp1 , · · · , Xp p ).

1.6 Endomorphismes trigonalisables


Définition 1.6.1 On dit que u ∈ End(E) est trigonalisable s’il existe une base B de E
par rapport à laquelle matB (u) est triangulaire supérieure.
On dit que A ∈ Mn (K) est trigonalisable s’il existe B ∈ Mn (K) triangulaire supérieure
telle que A ∼ B.
1.6. ENDOMORPHISMES TRIGONALISABLES 19

Théorème 1.6.2 Un endomorphisme u est trigonalisable si et seulement si son polynôme


caractéristique χuQest scindé.
De plus, si χu = ni=1 (λi − X) alors on peut trouver une base B de E telle que
 
λ1 ? · · · ?
.
 0 λ2 . . . .. 

(1.3) matB (u) =  . .

.
.
. . . . . 
. ?
0 · · · 0 λn

De même, uneQmatrice A ∈ Mn (K) est trigonalisable si et seulement si χA est scindé. De


plus, si χA = ni=1 (λi − X), alors A est semblable à une matrice triangulaire supérieure
du type (1.3).

Preuve : Traitons le cas d’un endomorphisme. Si u est trigonalisable, alors la matrice


Qn T de u
dans une base bien choisie est triangulaire supérieure. Par conséquent χu = i=1 (tii − X),
et donc χu est scindé.
La preuve de la réciproque se fait par récurrence sur n = dim E. On considère la propriété
(Pn ) suivante :
∀E t. q. dim E = n, ∀u ∈ End(E),
 n
Y   
χu = (λi − X) ⇒ ∃B base t.q. matB (u) est du type (1.3) .
i=1

• Cas n = 1. Il n’y a rien à prouver. Un endomorphisme de polynôme caractéristique


λ1 − X dans un e.v. de dimension 1 est forcément l’homothétie de rapport λ1 .
• Supposons (Pn ) vraie et montrons (Pn+1 ). Considérons un e.v. E de dimension n + 1 et
n+1
Y
u ∈ End(E) tel que χu = (λi − X).
i=1
Soit e1 un vecteur propre non nul de u pour la valeur propre λ1 . On complète (e1 ) en
une base B 0 = (e1 , e02 , · · · , e0n+1 ) de E. Clairement, il existe A0 ∈ Mn (K) telle que
 
λ1 ?
matB0 (u) = .
0 A0
déf
Soit p le projecteur sur F = Vect(e02 , · · · , e0n+1 ) parallèlement à Ke1 . On définit u0 ∈
End(F ) en posant u0 (x) = p(u(x)) pour x ∈ F . On constate que A0 est la matrice de u0
par rapport à la base (e02 , · · · , e0n+1 ) de F . On a donc
χu = (λ1 − X) det(A0 − XIn ) = (λ1 − X)χu0 .
n+1
Y
Donc χu0 = (λi − X).
i=2
On peut donc appliquer (Pn ) à l’espace F et à l’endomorphisme u0 et trouver une base
(e2 , · · · , en+1 ) de F par rapport à laquelle la matrice de u0 est
 
λ2 ? ··· ? ?
 .. 
 0 λ3
 . ? ? 
T =  ... . . .
0 .. .. ..  .

. . . 
 ..
 
.. 
. . λn ? 
0 · · · · · · 0 λn+1
20 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

déf
Si l’on choisit B = (e1 , e2 , · · · , en+1 ), on trouve
 
λ1 ?
matB (u) = ,
0 T0
donc matB (u) est du type voulu.

Corollaire 1.6.3 Toute matrice est trigonalisable dans C. De même, si E est un C-espace
vectoriel de dimension finie, tout élément de End(E) est trigonalisable.

Preuve : Conséquence immédiate du théorème de d’Alembert-Gauss.

Corollaire 1.6.4 Les quatre assertions suivantes sont équivalentes :


i) u est nilpotent,
ii) Sp(u) = {0},
iii) χu = (−1)n X n ,
iv) Il existe une base B par rapport à laquelle la matrice de u est du type
 
0 ? ··· ?
.. 
0 0 . . .

.
matB (u) =   .. . . ..
.

. . . ?
0 ··· 0 0

Preuve : On a déjà vu dans la proposition 1.3.8 que i) ⇒ ii), puis que ii) ⇒ iii).
iii) ⇒ iv) : Supposons que χu = (−X)n . D’après le théorème 1.6.2, on peut trouver une
base par rapport à laquelle la matrice de u est triangulaire supérieure avec des 0 sur la
diagonale.
iv) ⇒ i) : Si la matrice de u par rapport à une base donnée est triangulaire supérieure
avec des 0 sur la diagonale, alors elle nilpotente. Donc u est nilpotent.

Corollaire 1.6.5 Si F est stable par u alors u trigonalisable entraı̂ne uF trigonalisable.

Preuve : En vertu de la proposition 1.4.7, χuF divise χu . Donc χuF est également scindé ce
qui, grâce au théorème 1.6.2 montre que uF est trigonalisable.
Méthode pratique de trigonalisation des matrices :
1. Calcul de χA
2. Détermination des racines de χA .
3. On détermine les sous-espaces propres de A en résolvant AX = λX pour λ ∈ Sp(A).
On obtient ainsi p vecteurs colonnes propres linéairement indépendants (X1 , · · · , Xp ). Si
p = n, A est en fait diagonalisable, et on conclut comme dans le paragraphe précédent.
Sinon, on complète (X1 , · · · , Xp ) en une base (X1 , · · · , Xn ) de Kn . Soit P la matrice de
colonnes (X1 , · · · , Xn ). On a
  
λ1 0
 ..  ?

.


 
A=P 0 λp  −1
P .

 
 
 
0 B
1.7. POLYNÔMES D’ENDOMORPHISMES ET DE MATRICES 21

Si l’on note u l’endomorphisme de matrice A par rapport à la base canonique de Kn , et π le


déf
projecteur sur F = Vect(Xp+1 , · · · , Xn ), la matrice B est la matrice de l’endomorphisme
u0 : x 7→ π(u(x)) de End(F ) par rapport à la base (Xp+1 , · · · , Xn ).
L’étape suivante consiste à trigonaliser B (qui est une matrice carrée de taille n − p seule-
ment). Comme χB est scindé (car divise χA qui est scindé), la matrice B est trigonali-
sable. Donc on peut trouver q vecteurs propres Y1 , · · · , Yq de B linéairement indépendants
et associés à q valeurs propres µ1 , · · · , µq de B. On complète cette famille en une base
(Y1 , · · · , Yn−p ) de Kn−p . Si l’on note R la matrice de colonnes (Y1 , · · · , Yn−p ), on a
  
µ1 0
 ..  ?

.


 
B = R 0 µq  −1
R .

 
 
 
0 C

On peut aisément revenir à la matrice initiale A en interprétant la matrice par blocs


 
I 0
Q= p
0 R

comme la matrice de passage de (X1 , · · · , Xn ) à (X1 , · · · , Xp , Y1 , · · · , Yn−p ). Finalement,


on a donc
  
λ1 0
 .. 
? ?
 .  
 
 0 λ p 
 
   
Ip 0     Ip 0 −1
A=P  µ1 0  0 R−1 P .

0 R  ..
0  ?
   


 . 

 0 µq 

 
0 0 C

A ce stade, si C est triangulaire supérieure, le processus de trigonalisation est terminé,


sinon, on applique la méthode précédente à C qui est de taille n − p − q.
Remarque : Si l’on excepte le cas où A est la matrice d’une homothétie, une matrice trigona-
lisable (resp. diagonalisable) est semblable à plusieurs matrices triangulaires (resp. diagonales)
différentes.

1.7 Polynômes d’endomorphismes et de matrices


Pour tout endomorphisme u ∈ End(E), on sait définir les puissances entières de u. Les
combinaisons linéaires de ces puissances sont encore des éléments de End(E). Cela motive la
définition suivante :

Définition 1.7.1 Soit P = ap X p + · · · + a0 un polynôme et u un endomorphisme. On note P (u)


l’endomorphisme obtenu en remplaçant X par u dans l’expression de P avec la convention que
le terme constant a0 est remplacé par a0 Id. On dit que P (u) est un polynôme d’endomor-
phisme.
22 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Attention : Un polynôme d’endomorphisme est un endormorphisme.


Exemple : Soit P = X 2 − X + 1 et u ∈ End(E). L’endomorphisme P (u) est par définition égal
à u2 − u + Id.
On dispose du résultat fondamental suivant (dont la preuve est immédiate) :
Proposition 1.7.2 Pour u ∈ End(E), l’application

K[X] −→ End(E)
Φ :
P 7−→ P (u),

(où K[X] désigne l’ensemble des polynômes à coefficients dans K) vérifie


1. ∀P ∈ K[X], ∀Q ∈ K[X], Φ(P + Q) = Φ(P ) + Φ(Q),
2. ∀P ∈ K[X], ∀λ ∈ K, Φ(λP ) = λΦ(P ),
3. ∀P ∈ K[X], ∀Q ∈ K[X], Φ(P Q) = Φ(P )Φ(Q),
4. Φ(1) = Id.
On dit que Φ est un morphisme d’algèbre.
De même, pour toute matrice carrée A ∈ Mn (K) et tout polynôme P = ap X p + · · · + a0 de
K[X], on peut définir la matrice P (A) = ap Ap + · · · + a0 In . On a bien sûr la
Proposition 1.7.3 Pour A ∈ Mn (C), l’application

K[X] −→ Mn (K)
Ψ :
P 7−→ P (A),

est un morphisme d’algèbre.


Exemple : Soit A une matrice triangulaire supérieure :
 
λ1 ? ··· ?
 .. .. 
0 λ2 . . 
A=  .. .. ..
.

. . . ?
0 ··· 0 λn

Alors pour tout P ∈ K[X], on a


 
P (λ1 ) ? ··· ?
. ..
P (λ2 ) . .
 
 0 . 
P (A) = 
 .. .. ..
.

 . . . ? 
0 ··· 0 P (λn )

Il y a un rapport étroit entre polynômes d’endomorphismes et polynômes de matrices :


Proposition 1.7.4 Soit E e.v de dimension n, B base de E et u ∈ End(E). Notons A =
matB (u). Alors, pour tout polynôme P , on a

matB (P (u)) = P (A).

En plus d’être des morphismes d’algèbre, les applications Φ et Ψ ont d’autres propriétés utiles :
Proposition 1.7.5 Soit u ∈ End(E) et A ∈ Mn (K). On a pour tout P ∈ K[X] et Q ∈ K[X],
t
P (u)Q(u) = Q(u)P (u) = (P Q)(u), P (A)Q(A) = Q(A)P (A) = (P Q)(A) et [P (A)] = P (t A).
1.7. POLYNÔMES D’ENDOMORPHISMES ET DE MATRICES 23

Preuve : Résulte d’une part de la commutativité de K[X], d’autre part de la formule t (A2 ) =
t At A = (t A)2 qui s’étend en t (Ap ) = (t A)p pour tout p ∈ N.

Proposition 1.7.6 Si u ∈ End(E) et P ∈ K[X] alors Im P (u) et Ker P (u) sont stables par u.

Preuve : Comme u et P (u) commutent, le résultat découle de la proposition 1.3.5.

Proposition 1.7.7 Soit P ∈ K[X]. Soit u ∈ End(E) tel que χu soit scindé. Alors χP (u) est
également scindé.
Plus précisément, si χu = ni=1 (λi − X), alors on a χP (u) = ni=1 (P (λi ) − X). Résultat
Q Q
analogue pour les matrices.
Qn
Preuve : Si χu = i=1 (λi − X), le théorème 1.6.2 assure l’existence d’une base B de E telle
que  
λ1 ? ··· ?
 .. .. 
0 λ2 . . 
matB (u) = 
 .. .. ..
.

. . . ?
0 ··· 0 λn
De ce fait,  
P (λ1 ) ? ··· ?
. ..
P (λ2 ) . .
 
 0 . 
matB (P (u)) = 
 .. .. ..
.

 . . . ? 
0 ··· 0 P (λn )
Qn
Il est donc immédiat que χP (u) = i=1 (P (λi ) − X).

Corollaire 1.7.8 Pour u ∈ End(E) et P ∈ K[X], on a toujours P (Sp(u)) ⊂ Sp(P (u)). Si de


plus χu est scindé alors P (Sp(u)) = Sp(P (u)). En particulier, si E est un espace vectoriel de
dimension finie sur C, on a P (Sp(u)) = Sp(P (u)).

Preuve : Soit λ ∈ Sp(u) et x un vecteur propre non nul de u associé à λ. Alors u(x) = λx,
puis par récurrence, uk (x) = λk x pour tout k ∈ N. On en déduit que

P (u)(x) = P (λ)x,

ce qui permet de conclure que P (λ) ∈ Sp(P (u)). D’où P (Sp(u)) ⊂ Sp(P (u)).
que χu soit scindé. D’après la proposition 1.7.7, si χu = ni=1 (λi − X),
Q
Supposons de plus Q
alors on a χP (u) = ni=1 (P (λi ) − X). On en déduit que µ ∈ Sp(P (u)) si et seulement si il
existe λ ∈ Sp(u) tel que P (λ) = µ, ce qui est exactement le résultat voulu.
Pour les matrices, on a le résultat suivant :

Corollaire 1.7.9 Soit A ∈ Mn (K) trigonalisable et P ∈ K[X]. Alors P (Sp(A)) = Sp(P (A)). En
particulier, pour toute matrice A ∈ Mn (C) et P ∈ C[X], on a P (Sp(A)) = Sp(P (A)).

Définition 1.7.10 Soit u ∈ End(E) (resp. A ∈ Mn (K)). On appelle polynôme annulateur


de u (resp. de A) tout polynôme P tel que P (u) = 0 (resp. P (A) = 0).

Proposition 1.7.11 Soit A et B, deux matrices semblables, et R ∈ K[X]. Alors R(A) ∼ R(B).
En particulier R(A) = 0 si et seulement si R(B) = 0.
24 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Preuve : Soit P ∈ GLn (K) telle que B = P −1 AP . On a donc B 2 = P −1 AP P −1 AP =


P −1 A2 P , puis par une récurrence élémentaire,
(1.4) ∀k ∈ N, B k = P −1 Ak P.
En faisant des combinaisons linéaires d’expressions du type ci-dessus, on obtient
(1.5) ∀R ∈ K[X], R(B) = P −1 R(A)P.
Comme P est inversible, on en déduit que R(A) = 0 si et seulement si R(B) = 0.
La recherche de polynômes annulateur est d’une importance capitale dans le processus de
réduction des matrices ou des endomorphismes. On dispose du résultat fondamental suivant :
Théorème 1.7.12 (Cayley-Hamilton) Soit u un endomorphisme sur un espace vectoriel E
de dimension finie. Alors χu (u) = 0. De même, si A ∈ Mn (K) alors χA (A) = 0.
Preuve :
1. Cas d’une matrice de Frobenius
On veut montrer que χA est un polynôme annulateur de A dans le cas où A est une
matrice de Frobenius. Soit donc
 
0 · · · · · · 0 a0

1 0 .. 
 . a1  
A = 0 . . . . . . ... ..  .

. 
 .. . . .
 
.. .. 
. . . 0 
0 · · · 0 1 an−1
Notons Ei le vecteur colonne dont la i-ème composante vaut 1 et dont les autres
composantes sont nulles. On a clairement
∀i ∈ {1, · · · , n−1}, AEi = Ai E1 = Ei+1 et AEn = An E1 = a0 E1 + · · · + an−1 En .
On a par ailleurs établi que
n−1
X
χA = (−1)n (X n − ai X i )
i=0

donc, d’après les relations ci-dessus,


 n−1
X   n−1
X 
n n i n
χA (A)E1 = (−1) A E1 − ai A E1 = (−1) AEn − ai Ei = 0.
i=0 i=0

puis, pour i ∈ {2, · · · , n},


χA (A)Ei = χA (A)Ai−1 E1 = Ai−1 χA (A)E1 = 0,
ce qui montre que χA (A) = 0.
2. Plus petit sous-espace stable contenant un élément donné.
Soit x ∈ E non nul. On cherche à déterminer le plus petit sous espace stable F de
u qui contient x. Un tel espace doit contenir aussi u(x), puis u2 (x), etc. On pose
donc F = Vect(x, u(x), · · · , uk (x), · · · ). C’est clairement un sous-espace stable de
u. De plus, comme F est un sous-espace de E qui est de dimension n, la famille
x, u(x), · · · , up (x) est forcément liée dès que p ≥ n. On en déduit aisément le lemme
suivant :
1.8. POLYNÔME MINIMAL 25

Lemme 1.7.13 Il existe un entier p ≤ n unique tel que  x, u(x), · · · , up−1 (x) soit


une famille libre et la famille x, u(x), · · · , up−1 (x), up (x) soit liée. On a alors

F = Vect(x, u(x), · · · , up−1 (x)).

En particulier, F est de dimension p.


déf déf
Notons v l’endomorphisme induit par u sur F , ei = ui−1 (x) et B = (e1 , · · · , ep ). On
a u(ei ) = ei+1 pour i < p. De plus la famille x, u(x), · · · , up (x) étant liée, il existe
p coefficients a0 , · · · , ap−1 tels que

u(ep ) = up (x) = a0 x + · · · + ap−1 up−1 (x) = a0 e1 + · · · + ap−1 ep .

On en déduit que la matrice de v dans la base B est une matrice de Frobenius. En


particulier, d’après la première étape, χv (v) = 0.
3. Preuve dans le cas général
Soit x ∈ E. On cherche à montrer que χu (u)(x) = 0. Si x = 0, c’est évident. Sinon,
on considère le plus petit sous-espace stable F contenant x, et l’endomorphisme v
induit par u sur F .
On sait d’une part que χv (v) = 0 (et donc χv (v)(x) = χv (u)(x) = 0 puisque x ∈ F ),
d’autre part que χv divise χu (cf prop. 1.4.7). Donc χu (u)(x) = 0.

1.8 Polynôme minimal


Nous avons vu dans la section précédente que tout endomorphisme u admettait au moins
un polynôme annulateur non nul : χu . On peut se demander s’il en existe d’autres et si certains
polynômes annulateurs sont d’un intérêt particulier. Pour répondre à ces questions, il convient
d’abord de rappeler ce qu’est un idéal 3 de K[X].

Définition 1.8.1 On dit que A est un idéal de K[X] si les propriétés suivantes sont vérifiées :
1. A est un sous-groupe de (K[X], +),
2. A est stable par multiplication (i.e ∀P ∈ A, ∀Q ∈ K[X], P Q ∈ A).

On dispose alors du résultat fondamental suivant :

Théorème 1.8.2 Pour tout idéal A de K[X] non réduit à {0}, il existe un unique polynôme
unitaire4 I tel que A = IK[X]. Ce polynôme I est appelé générateur de l’idéal A et on dit que
K[X] est un anneau principal.

Mais revenons aux polynômes annulateurs. On a le

Théorème 1.8.3 Soit u ∈ End(E). Alors l’ensemble des polynômes annulateurs de u est Ker Φ
(où Φ a été définie à la proposition 1.7.2). Cet ensemble est un idéal de K[X] non réduit à {0}.
Son générateur est appelé polynôme minimal de u et noté mu .

Preuve : Il est clair que l’ensemble des polynômes annulateurs de u est ker Φ. Cet ensemble
est stable par combinaison linéaire et par produit. C’est donc un idéal de K[X]. De plus
il contient χu (cf th. de Cayley-Hamilton) qui n’est pas nul, donc ker Φ n’est pas réduit à
{0}. Le théorème 1.8.2 assure l’existence de mu .
3
Pour plus de détails, consulter un cours de 1ère année, par exemple [3].
4
C’est-à-dire à coefficient dominant égal à 1
26 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

La proposition suivante qui découle facilement de la définition du générateur d’un idéal, permet
de caractériser le polynôme minimal.
Proposition 1.8.4 Soit u ∈ End(E) et P un polynôme unitaire. Les propriétés suivantes sont
équivalentes :
i) P = mu ,
   
ii) P (u) = 0 et Q(u) = 0 ⇒ P | Q ,
   
iii) P (u) = 0 et Q(u) = 0 avec Q 6= 0 ⇒ deg P ≤ deg Q .

De façon analogue, pour toute matrice carrée A, ker Ψ est l’ensemble des polynômes annula-
teurs de A. C’est un idéal non trivial de K[X], ce qui permet de définir le polynôme minimal
mA de A. Il y a bien sûr une correspondance étroite entre polynôme minimal de matrices et
d’endomorphismes :
Proposition 1.8.5 Soit u ∈ End(E) de matrice A par rapport à une base B donnée. Alors
mu = mA .
D’après le théorème de Cayley-Hamilton, le polynôme caractéristique est un polynôme annula-
teur. De la proposition précédente, on déduit la
Proposition 1.8.6 Le polynôme minimal divise le polynôme caractéristique. En particulier,

1 ≤ deg mu ≤ n.

De plus, si χu (resp. χA ) est scindé alors mu (resp. mA ) aussi.


Voilà quelques propriétés élémentaires satisfaites par le polynôme minimal :
Proposition 1.8.7 Soit u ∈ End(E) et A ∈ Mn (K). On a
i) mA = m tA ,
ii) Si A est semblable à B ∈ Mn (K) alors mA = mB .
Preuve : La preuve de i) découle de la formule P (t A) = t (P (A)).
Si A et B sont semblables, alors elles ont les mêmes polynômes annulateurs (cf. prop.
1.7.11), ce qui donne iii).
Comme pour le calcul du polynôme caractéristique (cf. prop. 1.4.7), connaı̂tre des sous-
espaces stables donne des renseignements sur le polynôme minimal :
Proposition 1.8.8 Soit u ∈ End(E).
i) Si F est un sous-espace stable de u alors muF divise mu .
ii) Si E = F ⊕ G avec F et G sous-espaces stables de u alors mu = P P CM (muF , muG ).
Preuve : Soit F un sous-espace stable de u et soit P un polynôme annulateur de u. On a
P (u)(x) = 0 pour tout x ∈ E, donc a fortiori pour tout x ∈ F . Donc P (uF ) = 0. Donc
muF divise P . En particulier, muF divise mu , ce qui prouve i).
Si u possède deux sous-espaces stables F et G tels que E = F ⊕ G, on sait déjà d’après i)
déf
que muF et muG divisent mu . Donc M = P P CM (muF , muG ) divise mu .
Pour montrer l’égalité, considérons x ∈ E que l’on décompose en x = y + z avec y ∈ F
et z ∈ G. Le polynôme M est un multiple de muF (resp. muG ) donc est un polynôme
annulateur de uF (resp. uG ). En conséquence M (uF )(y) = M (u)(y) = 0 et M (uG )(z) =
M (u)(z) = 0, d’où M (u)(x) = 0.
1.8. POLYNÔME MINIMAL 27

Proposition 1.8.9 Soit u ∈ End(E) et λ ∈ K. Les propriétés suivantes sont équivalentes :


i) λ est valeur propre de u,
ii) λ est racine de χu ,
iii) λ est racine de mu .
Résultat analogue pour les matrices.

Preuve : i) ⇐⇒ ii) a déjà été prouvé (cf. th. 1.4.6).


i) ⇒ iii) : Soit λ une valeur propre de u et x un vecteur propre non nul associé à λ. On a

0 = mu (u)(x) = mu (λ)x.

Donc mu (λ) = 0.
iii) ⇒ i) : Soit λ une racine de mu . Alors mu peut être factorisé par (X − λ) : il existe
Q ∈ K[X] tel que mu = (X − λ)Q. Or Q ne peut pas être un polynôme annulateur de u.
Donc il existe x ∈ E tel que Q(u)(x) 6= 0.
Par ailleurs,
0 = mu (u)(x) = (u − λ Id)[Q(u)(x)].
Donc ker(u − λ Id) contient un vecteur non nul, ce qui montre que λ est valeur propre de
u.
Exemples :
1. Homothéties
Si u ∈ End(E) est l’homothétie de rapport λ alors mu = X − λ.
En effet, par définition même de u, le polynôme X − λ est un polynôme annulateur de u.
Mais comme deg mu ≥ 1, on en déduit que mu = X − λ.
2. Projections
On suppose que E = F ⊕ G (avec F et G non réduits à {0}). Soit p le projecteur sur F
parallèlement à G. On sait que Sp(p) = {0, 1} donc 0 et 1 doivent être racines de mp . Donc
X 2 − X doit diviser mp . Mais tout projecteur vérifie p2 − p = 0. Donc

mp = X 2 − X.

3. Symétries
On suppose que E = F ⊕ G (avec F et G non réduits à {0}). Soit s la symétrie par rapport
à F parallèlement à G. On sait que Sp(s) = {−1, 1} donc X 2 − 1 doit diviser ms . Mais
toute symétrie vérifie s2 − Id = 0. Donc

ms = X 2 − 1.

4. Endomorphismes nilpotents
Soit u nilpotent d’indice p. Par définition même de p, on sait que X p est un polynôme
annulateur de u, et que X p−1 ne l’est pas. Donc mu doit diviser X p mais pas X p−1 . Cela
entraı̂ne
mu = X p .

Remarque : Comme mu doit diviser χu = (−1)n X n , on a montré au passage que l’indice


de nilpotence d’un endomorphisme nilpotent sur E est inférieur ou égal à la dimension de
E.
28 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

5. Matrice de Frobenius
Soit A une matrice de Frobenius de taille n. On a vu dans la preuve du théorème de
Cayley-Hamilton que
∀i ∈ {1, · · · , n − 1}, Ai E1 = Ei+1 .
Donc les vecteurs colonnes (E1 , AE1 , · · · , An−1 E1 ) sont linéairement indépendants. On en
déduit qu’il n’existe pas de polynôme P non nul de degré strictement inférieur à n et tel
que P (A)E1 = 0. Mais on sait que χA (qui est de degré n) annule A. Donc,
n−1
X
n n
mA = (−1) χA = X − ai X i .
i=0

Lemme 1.8.10 (Lemme des noyaux) Soit P et Q deux polynômes premiers entre eux. Alors
ker(P Q)(u) = ker P (u) ⊕ ker Q(u).
Preuve : D’après le théorème de Bezout 5 , il existe deux polynômes U et V tels que
(1.6) P U + QV = 1.
Soit x ∈ Ker P (u) ∩ Ker Q(u). D’après (1.6), on a
x = U (u)[P (u)(x)] + V (u)[Q(u)(x)] = 0
| {z } | {z }
y z

puisque P (u)(x) = Q(u)(x) = 0. Donc Ker P (u) ∩ Ker Q(u) = {0}.


Si maintenant x ∈ Ker (P Q)(u) alors, la décomposition x = y + z ci-dessus donne
Q(u)(y) = (QU P )(u)(x) = (U P Q)(u)(x) = U (u)[(P Q)(u)](x) = 0,
donc y ∈ Ker Q(u).
De même, on montre que z ∈ Ker P (u), d’où
Ker (P Q)(u) ⊂ ker P (u) ⊕ ker Q(u).
Il est par ailleurs clair que ker P (u) ⊂ ker(P Q)(u) et que ker Q(u) ⊂ ker(P Q)(u), d’où le
résultat voulu.
Remarque : Si P Q est un polynôme annulateur de u, alors le lemme des noyaux donne une
décomposition de E en somme de deux sous-espaces stables de u.
Remarque 1.8.11 Une récurrence élémentaire permet de prouver la généralisation suivante du
lemme des noyaux. Soit Q1 , · · · , Qk k polynômes premiers entre eux dans leur ensemble. Alors
on a
Yk M k
ker( Qi )(u) = ker Qi (u).
i=1 i=1

Théorème 1.8.12 Soit u ∈ End(E) de spectre Sp(u) = {λ1 , · · · , λp }. Les propriétés


suivantes sont équivalentes.
i) u est diagonalisable,
Yp
ii) mu = (X − λi ),
i=1
iii) mu est scindé à racines simples,
iv) u admet un polynôme annulateur scindé à racines simples.
Résultat analogue pour les matrices.
5
Voir le cours de 1ère année [3].
1.8. POLYNÔME MINIMAL 29

Preuve : i) ⇒ ii) : D’après la proposition 1.8.9, les racines de mu sont les valeurs propres de
p
déf
Y
u. Donc le polynôme M = (X − λi ) divise mu .
i=1
Si xi est un vecteur propre associé à λi , alors il est clair que (u − λi Id)(xi ) = 0, et donc
Y 
(1.7) M (u)(xi ) = (λj Id −u) (λi Id −u)(xi ) = 0.
j6=i

Si u est diagonalisable alors en vertu du théorème 1.5.5, E = pi=1 Eλi . Donc tout x ∈ E
L
se décompose en x = x1 + · · · + xp avec xi ∈ Eλi puis, grâce à (1.7),
p
X
M (u)(x) = M (u)(xi ) = 0.
i=1

ii) ⇒ iii) et iii) ⇒ iv) : Trivial.


iv) ⇒ i) : Soit P un polynôme annulateur de u scindé à racines simples (que l’on peut
toujours supposer unitaire) :
q
Y
P = (X − µi ) avec les µi deux à deux distincts.
i=1

Comme les polynômes X −µi sont premiers entre eux dans leur ensemble, on peut appliquer
le lemme des noyaux généralisé (remarque 1.8.11), ce qui donne
q
M
E = ker P (u) = ker(u − µi Id).
i=1

Si, dans cette décomposition, on ne garde que les µi tels que ker(u − µi Id) ne soit pas
réduit à {0}, on a obtenu une décomposition de E en somme de sous-espaces propres de
u. Donc u est diagonalisable.

Corollaire 1.8.13 Soit u un endomorphisme diagonalisable et F un sous-espace stable de u.


Alors l’endomorphisme uF induit par u sur F est diagonalisable.

Preuve : Si u est diagonalisable, alors, d’après le théorème 1.8.12, il existe P ∈ K[X] scindé à
racines simples tel que P (u) = 0. On a bien sûr aussi P (uF ) = 0. Donc, à nouveau d’après
le théorème 1.8.12, uF est diagonalisable.

Théorème 1.8.14 (Réduction simultanée) Soit u et v deux endomorphismes diagonalisa-


bles de E qui commutent. Alors il existe une base de diagonalisation commune pour u et v.
De même, si A et B sont deux matrices diagonalisables qui commutent, alors il existe P ∈
GLn (K) et deux matrices diagonales D et D0 telles que

A = P DP −1 et B = P D0 P −1 .

Preuve : Traitons le cas des endomorphismes. Soit donc u et v diagonalisables qui commutent.
En vertu du théorème 1.5.5, on peut écrire
p
M
(1.8) E= Eλi (u).
i=1
30 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Comme u et v commutent, chaque Eλi (u) est stable par v, et on peut donc définir l’en-
domorphisme vi induit par v sur Eλi (u). D’après le corollaire 1.8.13, vi est diagonalisable.
Donc on peut trouver une base (ei1 , · · · , eiγi ) de Eλi (u) qui est une base de vecteurs propres
pour vi . Bien sûr, chaque eik est également vecteur propre de u pour λi .
En rassemblant les bases obtenues pour chaque Eλi (u), on obtient une base de E (grâce à
(1.8)) qui est une base commune de vecteurs propres pour u et v.
Remarque : Ce théorème de réduction simultanée s’étend sans difficulté majeure au cas de p
endomorphismes diagonalisables qui commutent.

1.9 Sous-espaces caractéristiques


Lemme 1.9.1 Soit u ∈ End(E) et λ une valeur propre de u. Notons β la multiplicité de λ dans
mu . Alors la suite de sous-espaces vectoriels {ker(u − λ Id)m }m∈N est croissante (au sens de
l’inclusion) et stationnaire à partir du rang β.

déf
Preuve : Notons v = u − λ Id. Il est clair que v m (x) = 0 entraı̂ne v m+1 (x) = 0. On a donc
bien ker v m ⊂ ker v m+1 . De plus, il n’est pas difficile de vérifier que
   
ker v m = ker v m+1 ⇒ ker v m+1 = ker v m+2 .
 
Par conséquent la suite dim(kerv m ) est une suite croissante d’entiers qui devient
m∈N
stationnaire dès que deux termes consécutifs sont égaux. Comme elle est visiblement ma-
jorée par n = dim E, on conclut qu’il existe un p ≤ n tel que (ker v m )m∈N soit strictement
croissante pour m ≤ p − 1 et stationnaire à partir du rang p.
Le polynôme minimal mu de u peut se décomposer en

mu = Q(X − λ)β .

avec Q et (X − λ)β premiers entre eux. A fortiori Q et X −λ sont premiers entre eux, et
donc, d’après le lemme des noyaux,

(1.9) ker Q(u) ∩ ker(u − λ Id) = {0}.

déf
Par définition de p, il existe x ∈ ker(u − λ Id)p tel que y = (u − λ Id)p−1 (x) 6= 0. Comme
de plus y ∈ ker(u − λ Id), la relation (1.9) assure que y 6∈ Ker Q(u). Donc

Q(u)(y) = Q(u)(u − λ Id)p−1 (x) 6= 0.

On conclut que Q(X − λ)p−1 n’est pas un polynôme annulateur de u, et donc p ≤ β.


A ce point, on peut affirmer que ker(u − λ Id)β = ker(u − λ Id)p . Appliquons le lemme des
noyaux :
E = ker Q(u) ⊕ ker(u − λ Id)β = ker Q(u) ⊕ ker(u − λ Id)p .

On conclut que Q(X − λ)p est un polynôme annulateur de u, d’où β ≤ p.

Définition 1.9.2 Soit u ∈ End(E) et λ une valeur propre de u de multiplicité β dans mu .


déf
L’espace Eλ0 (u) = ker(u − λ Id)β (noté simplement Eλ0 en l’absence d’ambiguı̈té) est appelé sous-
espace caractéristique de u associé à la valeur propre λ.
1.9. SOUS-ESPACES CARACTÉRISTIQUES 31

Remarque : Si λ est valeur propre de u, on a toujours Eλ ⊂ Eλ0 . De plus, si l’on note α la


multiplicité de λ dans χu , on a β ≤ α ≤ n et de ce fait,

Eλ0 = ker(u − λ Id)β = ker(u − λ Id)α = ker(u − λ Id)n .

Exemples :
1. Endomorphismes diagonalisables : Si u est diagonalisable, pour chaque valeur propre
λ de u, on a Eλ = Eλ0 .
2. Endomorphismes nilpotents : Si u est nilpotent alors u a un seul sous-espace ca-
ractéristique : E00 = E.

Théorème 1.9.3 Soit λ une valeur propre de u de multiplicité α dans χu et β dans mu . Alors
Eλ0 est un sous-espace stable de u de dimension α. De plus, l’endomorphisme vλ induit par
u − λ Id sur Eλ0 est nilpotent d’indice β.

Preuve : La stabilité découle de la proposition 1.7.6.


Notons uλ (resp. vλ ) l’endomorphisme induit par u (resp. u − λ Id) sur Eλ0 .
D’après le lemme 1.9.1, vλβ = 0 et vλβ−1 6= 0. Donc vλ est nilpotent d’indice β. D’après la
proposition 1.4.7, χuλ divise χu , et en revenant à la définition du polynôme caractéristique,
on montre facilement que

∀x ∈ K, χuλ (x) = χvλ (x − λ).

Mais χvλ = (−X)p avec p = dim Eλ0 (cf corollaire 1.6.4), donc χuλ = (λ − X)p .
Par ailleurs, il existe un polynôme Q premier avec (X − λ)α et tel que χu = Q(X − λ)α .
D’après le lemme des noyaux, on a

(1.10) E = ker Q(u) ⊕ ker(u − λ Id)α ,

et l’on sait que ker Q(u) est stable par u (cf prop. 1.7.6), et que ker(u − λ Id)α = Eλ0
(puisque β ≤ α). Soit w l’endomorphisme induit par u sur ker Q(u). Remarquons tout de
suite que λ n’est pas valeur propre de w (cela contredirait (1.10)). Par ailleurs, d’après la
proposition 1.4.7, on a

χu = χuλ χw = (λ − X)p χw = Q(X − λ)α .

Les polynômes (λ−X)p et χw (resp. Q et (X −λ)α ) sont premiers entre eux. En appliquant
le théorème de Gauss, on conclut que α = p.

Théorème 1.9.4 Soit u ∈ End(E) à polynôme caractéristique scindé et de spectre Sp(u) =


{λ1 , · · · , λp }. Notons αi la multiplicité de λi dans χu . Alors on a
p
M
E= Eλ0 i
i=1

et il existe une base B de E telle que


 
T1 0 ··· 0
 .. .. 
0 T2 . .
matB (u) = 
 .. .. ..
,

. . . 0
0 ··· 0 Tp
où Tk est une matrice triangulaire supérieure de taille αk avec des λk sur la diagonale.
32 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

Preuve : Comme χu est scindé, on a


p
Y
χu = (−1)n (X − λi )αi .
i=1

Les polynômes (X −λi )αisont premiers entre eux dans leur ensemble. Le lemme des noyaux
généralisé assure donc que les sous-espaces caractéristiques sont en somme directe. Mais
on sait grâce au théorème précédent que dim Eλ0 i = αi . Donc
p
X p
X
dim Eλ0 i = αi = n,
i=1 i=1
Lp
d’où E = i=1 Eλ0 i .
Grâce au théorème précédent, l’endomorphisme ui induit par u sur Eλ0 i peut s’écrire

ui = λi IdEλ0 + vi avec vi nilpotent,


i

et donc χui = (λi − X)αi . Le théorème 1.6.2 assure l’existence d’une base Bi par rapport
à laquelle la matrice Ti de ui est triangulaire supérieure de taille αi avec des λi sur la
diagonale.
En prenant la réunion de toutes ces bases Bi pour i décrivant {1, · · · , p}, on obtient une
base B de E par rapport à laquelle la matrice de u est du type voulu.

Théorème 1.9.5 (Décomposition de Dunford) Soit u ∈ End(E) à polynôme ca-


ractéristique scindé. Alors il existe un endomorphisme d diagonalisable et un endomor-
phisme ν nilpotent tels que
u = d + ν et dν = νd.
Cette décomposition est unique.

Preuve : Notons Sp(u) = {λ1 , · · · , λp }.


Existence de la décomposition : Soit pi le projecteur sur Eλ0 i parallèlement à i6=j Eλ0 j .
L
Posons
Xp
d= λi pi et ν = u − d.
i=1
Remarquons que, par construction, chaque Eλ0 i est stable par d, u et ν.
De plus, il est clair que d(x)
L= λi x pour tout x ∈ Eλ0 i . On en déduit que toute base adaptée
p 0
à la décomposition E = i=1 Eλi est une base de vecteurs propres pour d. Donc d est
diagonalisable.
Par ailleurs, l’endomorphisme induit par u − d sur Eλ0 i n’est autre que uEλ0 − λi IdEλ0 qui
i i
est nilpotent (cf th. 1.9.3). En utilisant une fois de plus que E = pi=1 Eλ0 i , il est alors aisé
L
déf
d’établir que ν = u − d est nilpotent.
Reste à vérifier que ν et d commutent. Soit x ∈ E. On peut décomposer x de façon unique
en
Xp
x= xi avec x1 ∈ Eλ0 1 , · · · , xp ∈ Eλ0 p .
i=1
Comme d(xi ) = λi xi , on a
p
X  Xp p
X
νd(x) = (νd) xi = ν(d(xi )) = λi ν(xi ).
i=1 i=1 i=1
1.9. SOUS-ESPACES CARACTÉRISTIQUES 33

Mais comme chaque ν(xi ) est dans Eλ0 i , on a également d(ν(xi )) = λi ν(xi ), d’où
p
X p
X p
X 
λi ν(xi ) = d(ν(xi )) = (dν) xi = dν(x).
i=1 i=1 i=1

Unicité de la décomposition : Supposons que l’on puisse trouver un deuxième couple


(d0 , ν 0 ) tel que u = d0 + ν 0 avec d0 diagonalisable, ν 0 nilpotent et d0 ν 0 = ν 0 d0 .
On constate que

ud0 = (d0 + ν 0 )d0 = (d0 )2 + ν 0 d0 = (d0 )2 + d0 ν 0 = d0 (d0 + ν 0 ) = d0 u.

De même u et ν 0 commutent. De ce fait, d0 et ν 0 commutent avec tout polynôme en u,


donc en particulier avec tous les (u − λi Id)βi . En appliquant la proposition 1.7.6, on en
déduit que tous les Eλ0 i sont stables par d0 et ν 0 .
Dès lors, les arguments qui ont servi à prouver que dν = νd permettent également de
montrer que dd0 = d0 d et dν 0 = ν 0 d. Comme ν = u−d, on en déduit que d0 et ν 0 commutent
aussi avec ν.
Le théorème de réduction simultanée assure que d et d0 admettent une base commune de
vecteurs propres. Donc d − d0 est diagonalisable. Par ailleurs, comme ν et ν 0 commutent,
on peut appliquer la formule du binôme de Newton pour calculer (ν − ν 0 )p :
p
X
0 p
(ν − ν ) = Cpk ν k (−1)p−k (ν 0 )p−k .
k=0

Pour p ≥ 2n et k ∈ {0, · · · , p}, l’un des deux entiers k et p − k est forcément supérieur
ou égal à n, donc le produit ν k (−1)p−k (ν 0 )p−k est nul. Donc (ν − ν 0 )p est nul et ν − ν 0 est
nilpotent.
Mais ν 0 − ν = d − d0 donc ν 0 − ν est à la fois nilpotent et diagonalisable. C’est donc
l’endomorphisme nul. Cela entraı̂ne évidemment que d0 = d.
Voici la version matricielle de la décomposition de Dunford :

Théorème 1.9.6 Soit A ∈ Mn (K) telle que χA soit scindé. Alors il existe une matrice
D diagonalisable, et une matrice N nilpotente telles que

A=D+N et DN = N D.

Cette décomposition est unique.

Remarque : En particulier toute matrice A de Mn (C) admet une décomposition de Dunford


dans Mn (C).
Attention : Dans la section 1.6, on a vu une méthode de trigonalisation des matrices. La
matrice triangulaire supérieure obtenue peut bien sûr se décomposer en D + N avec D diagonale
et N triangulaire supérieure avec des 0 sur la diagonale, donc nilpotente. Mais il n’y a aucune
raison pour que D et N commutent.
Trouver la décomposition de Dunford d’une matrice de Mn (C) :
On note u l’endomorphisme de matrice A par rapport à la base canonique de Cn . Voilà
comment procéder pour trouver la décomposition de Dunford de A.
1. Calcul de χA
2. Détermination des racines (λ1 , · · · , λp ) de χA et de leur multiplicité α1 , · · · , αp .
34 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES

L 0
3. Détermination d’une base particulière adaptée à la décomposition E = Eλi .
Soit ui l’endomorphisme induit par u sur Eλ0 i . On sait déjà que ui = λi IdEλ0 +νi avec νi
i
nilpotent d’indice βi (multiplicité de λi dans le polynôme minimal de A).
On veut trouver une base de Eλ0 i par rapport à laquelle la matrice de νi est triangulaire
supérieure avec des 0 sur la diagonale. Pour cela, on détermine une base (ei1 , · · · , eip1 ) de
ker(u − λi Id), que l’on complète en une base (ei1 , · · · , eip1 +p2 ) de ker(u − λi Id)2 , que l’on
complète ensuite en base de ker(u − λi Id)3 , etc, jusqu’à obtention d’une base (ei1 , · · · , eiαi )
de ker(u − λi Id)βi tout entier. Il est facile de vérifier que la matrice de νi par rapport à
(ei1 , · · · , eiαi ) est triangulaire supérieure avec des 0 sur la diagonale.
La base de Cn cherchée est la réunion de toutes les bases (ei1 , · · · , eiαi ) déterminées précé-
demment.
Remarque : Il n’est pas toujours évident de connaı̂tre βi d’avance. En pratique, on trouve
cet indice au cours de la procédure de recherche d’une base de Eλ0 i comme ci-dessus : c’est
le plus petit indice vérifiant ker(u − λi Id)βi = (u − λi Id)βi +1 .
4. Décomposition de Dunford
On forme la matrice P dont les colonnes sont les vecteurs de la base obtenue à l’étape
précédente. On calcule T = P −1 AP . Cette matrice T est triangulaire supérieure. On la
décompose en T = ∆ + Θ où ∆ est la matrice diagonale dont les termes diagonaux sont
ceux de T . Il ne reste plus qu’à poser

D = P ∆P −1 et N = P ΘP −1 .

Application : Calcul des puissances d’une matrice


1. Cas diagonalisable : Dans ce cas, il existe P ∈ GLn (C) et D diagonale telles que A =
P DP −1 . On constate que A2 = P DP −1 P DP −1 = P D2 P −1 . Une récurrence élémentaire
donne
∀k ∈ N, Ak = P Dk P −1 .
Or, Dk se calcule très facilement :

D = diag(λ1 , · · · , λn ) =⇒ Dk = diag(λk1 , · · · , λkn ).

Finalement, dans le cas A diagonalisable, le calcul de Ak est immédiat pourvu que l’on
connaisse les valeurs propres de A et la matrice de passage de la base canonique de Kn
vers une base de vecteurs propres.
Remarque : Si A est diagonalisable dans C mais pas dans R, rien n’empêche de diago-
naliser dans Mn (C). Le résultat final doit bien sûr être réel !
2. Cas non diagonalisable : Quitte à travailler dans C, on peut toujours supposer que A
est trigonalisable. C’est alors que la décomposition de Dunford va s’avérer particulièrement
utile.
En effet, on peut écrire A = D + N avec D diagonalisable, N nilpotente, et DN = N D.
Comme D et N commutent, on peut appliquer la formule du binôme de Newton :
k
Ckj N j Dk−j .
X
k
A =
j=0

En fait, comme N est nilpotente, on a N j = 0 pour j ≥ p avec p indice de nilpotence de


N . La somme ci-dessus comporte donc au plus p termes6 même si k est très grand.
6
et l’on sait de plus que p ≤ n.
1.9. SOUS-ESPACES CARACTÉRISTIQUES 35

Pour effectuer le calcul le plus simplement possible, on peut utiliser les matrices ∆, Θ et P
obtenues au cours du processus de détermination de la décomposition de Dunford. Comme
par construction ∆ et Θ commutent, on a
k
X 
Ak = (D + N )k = P (∆ + Θ)k P −1 = P Ckj Θj ∆k−j P −1 .
j=0

Les puissances de ∆ sont immédiates à calculer puisque ∆ est diagonale. Par ailleurs Θ
est nilpotente donc Θj = 0 pour j ≥ n. Donc au pire, il faudra calculer les n − 1 premières
puissances de Θ.
36 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
Chapitre 2

Espaces euclidiens et
endomorphismes symétriques

2.1 Formes bilinéaires


2.1.1 Généralités
Dans toute cette partie, E et F sont des espaces vectoriels sur R.

Définition 2.1.1 On dit qu’une application b est une forme bilinéaire sur E × F si b est une
application de E × F à valeurs dans R qui est linéaire par rapport à chacune de ses variables :

∀(x, x0 , y) ∈ E ×E ×F, ∀(λ, λ0 ) ∈ R2 , b(λx+λ0 x0 , y) = λb(x, y) + λ0 b(x0 , y),


∀(x, y, y 0 ) ∈ E ×F ×F, ∀(µ, µ0 ) ∈ R2 , b(x, µy+µ0 y 0 ) = µb(x, y) + µ0 b(x, y 0 ).

On note L2 (E × F ; R) l’ensemble des formes bilinéaires sur E × F .

Exemples :
1. Multiplication dans R : 
R×R −→ R
b :
(x, y) 7−→ xy.
déf
2. Intégration d’un produit de fonctions de E = C([0, 1]; R) :

 E ×E −→ ZR
1
b :
 (u, v) 7−→ u(x)v(x) dx.
0

3. Produit scalaire de deux vecteurs de R2 :


 2
R ×R2 −→ R
b :
(u, v) 7−→ u1 v1 + u2 v2 .

4. Déterminant de deux vecteurs de R2 :


 2
R ×R2 −→ R
b :
(u, v) 7−→ det(u, v).

On supposera désormais que E et F sont de dimension finie : dim E = n et dim F = p.

37
38 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYMÉTRIQUES

Proposition 2.1.2 Soit b une forme bilinéaire sur E × F , BE = (e1 , · · · , en ), une base de E et
BF = (f1 , · · · , fp ) une base de F . Alors b est déterminée de façon unique par sa valeur sur les
déf
vecteurs de base. La matrice A ∈ Mn,p (R) dont les coefficients sont aij = b(ei , fj ) est appelée
matrice de la forme bilinéaire b.
Preuve : Soit (x, y) ∈ E × F . Alors il existe un n-uplet (x1 , · · · , xn ) et un p-uplet (y1 , · · · , yp )
tels que
Xn Xp
x= xi ei et y = yj fj .
i=1 j=1
En utilisant la bilinéarité de b, on trouve donc
p
n X
X
(2.1) b(x, y) = xi yj b(ei , fj ).
i=1 j=1

Clairement, la donnée des b(ei , fj ) permet de déterminer entièrement b.


Corollaire 2.1.3 L2 (E × F ; R) est un R-espace vectoriel isomorphe à Mn,p (R). En particulier,
il est de dimension np.
La formule (2.1) nous permet de calculer b(x, y) à l’aide du calcul matriciel :
Proposition 2.1.4 Soit b ∈ L2 (E × F ; R). Soit BE = (e1 , · · · , en ) une base de E et BF =
(f1 , · · · , fp ) une base de F . Notons A la matrice de b par rapport aux bases BE et BF . Soit x ∈ E
de coordonnées (x1 , · · · , xn ) par rapport à la base BE et y ∈ F de coordonnées (y1 , · · · , yp ) par
rapport à la base BF .
   
x1 y1
 ..   .. 
Notons X =  .  et Y =  . . Alors on a b(x, y) = t XAY.
xn yp
Remarque : Il convient de se rappeler que t XAY est en fait un scalaire, donc est égal à sa
transposée. Ainsi, l’on a
b(x, y) = t XAY = t Y tAX.
Proposition 2.1.5 Soit b ∈ L(E × F ; R). On considère deux bases BE = (e1 , · · · , en ) et BE 0 =

(e01 , · · · , e0n ) de E, et deux bases BF = (f1 , · · · , fp ) et BF0 = (f10 , · · · , fp0 ) de F .


Notons A (resp. A0 ) la matrice de b par rapport aux bases BE et BF (resp. BE 0 et B 0 ). Soit
F
0 0
P (resp. Q) la matrice de passage de BE à BE (resp. BF à BF ). Alors on a la formule
B = t P AQ.
Preuve : Soit x ∈ E et y ∈ F . Notons (x1 , · · · , xn ) (resp. (y1 , · · · , yp )) les coordonnées de x
(resp. y) par rapport à BE (resp. BF ) et X (resp. Y ) le vecteur colonne correspondant.
On définit de même les vecteurs colonnes X 0 et Y 0 relatifs aux coordonnées de x et y par
rapport aux bases BE 0 et B 0 . Par définition de P et Q, et on a X = P X 0 et Y = QY 0 . En
F
appliquant la formule de la proposition 2.1.4, il vient donc
b(x, y) = tXAY = t(P X 0 )A(QY 0 ) = tX 0 (tP AQ)Y 0 .
Mais par définition de B, le dernier terme vaut aussi t X 0tBY 0 , d’où le résultat.
Remarque : Si A et B sont les matrices d’une même forme bilinéaire (mais par rapport à des
bases éventuellement différentes) alors elles sont équivalentes. Elles sont donc de même rang.
Cela va nous permettre de définir le rang d’une forme bilinéaire.
Définition 2.1.6 Soit b une forme bilinéaire sur E × F . On appelle rang de b (noté rg b) le
rang d’une quelconque matrice de b.
2.1. FORMES BILINÉAIRES 39

2.1.2 Formes bilinéaires symétriques


Dans toute la suite, on supposera que F = E.

Définition 2.1.7 On dit que b ∈ L2 (E × E; R) est une forme bilinéaire symétrique si

∀(x, y) ∈ E × E, b(x, y) = b(y, x).

On note S 2 (E; R) l’ensemble des formes bilinéaires symétriques sur R.

Définition 2.1.8 Si b ∈ S 2 (E; R), on pose

∀x ∈ E, q(x) = b(x, x).

L’application q est appelée forme quadratique associée à b. L’application bilinéaire symétrique


b est appelée forme polaire de q.

Remarque : La connaissance de q permet de retrouver b. On a les formules suivantes :


1  1 
∀(x, y) ∈ E ×E, b(x, y) = q(x + y) − q(x) − q(y) = q(x + y) − q(x − y) .
2 4
Dans toute la suite, E est supposé de dimension finie n.

Proposition 2.1.9 Soit b une forme bilinéaire sur E et B = (e1 , · · · , en ) une base de E. Notons
A la matrice de b par rapport à la base B. Alors b est symétrique si et seulement si A est
symétrique (i.e A = t A).

Preuve : Supposons b bilinéaire symétrique. Alors pour tout (i, j) ∈ {1, · · · , n}2 , on a

aij = b(ei , ej ) = b(ej , ei ) = aji

donc A est symétrique.


Réciproquement, supposons A symétrique. Soit (x, y) ∈ E 2 , et notons X (resp. Y ) le
vecteur colonne dont les composantes sont les coordonnées de x (resp. y) par rapport à la
base B. Alors, d’après la proposition 2.1.4, la remarque qui suit, et la symétrie de A, on a

b(x, y) = t XAY = t X t AY = t (t Y AX) = t Y AX = b(y, x).

Corollaire 2.1.10 L’ensemble des formes bilinéaires symétriques est un sous-espace vectoriel
de L2 (E × E;  à l’ensemble Sn (R) des matrices symétriques réelles de taille n. On
 R) isomorphe
2
a donc dim L (E × E; R) = n(n + 1)/2.

Proposition 2.1.11 Soit B et B 0 deux bases de E, et P la matrice de passage de B à B 0 .


Soit b une forme bilinéaire sur E. Soit A (resp. B) la matrice de b par rapport à B (resp.
B 0 ). Alors on a
B = t P AP,

Preuve : C’est un cas particulier de la proposition 2.1.5.


Remarque : Soit A et B deux matrices symétriques. S’il existe P ∈ GLn (R) telle que B =
t P AP, on dit que les matrices A et B sont congrues. En particulier elles sont équivalentes, et

ont donc même rang.


40 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYMÉTRIQUES

Attention : Ne pas confondre semblable et congru ! Il n’y a pas de relation d’implication entre
les deux notions.
Définition 2.1.12 Soit b une forme bilinéaire symétrique sur E, et F un sous-espace vectoriel
de E. On appelle restriction de b au s.e.v F la forme bilinéaire symétrique bF sur F définie par
∀(x, y) ∈ F 2 , bF (x, y) = b(x, y).
Remarque : Soit F un sous-espace vectoriel de E de dimension p. Soit (e1 , · · · , en ) une base
de E telle que (e1 , · · · , ep ) soit base de F . Considérons enfin b une forme bilinéaire symétrique
sur E, de matrice A par rapport à (e1 , · · · , en ). Alors on a
 
B C
A= t ,
C D
avec B ∈ Mp (R) matrice de bF par rapport à la base (e1 , · · · , ep ).
Définition 2.1.13 Soit b une forme bilinéaire symétrique sur E, et (x, y) ∈ E 2 . On dit que x
est orthogonal à y si b(x, y) = 0. On note x⊥y.
Définition 2.1.14 Soit b une forme bilinéaire symétrique sur E. Pour tout x ∈ E, on définit
l’orthogonal de x par rapport à b par la formule
déf
x⊥ = {y ∈ E | b(x, y) = 0}.
Plus généralement, pour tout sous-ensemble A non vide de E, on définit l’orthogonal de A par
déf
A⊥ = {y ∈ E | ∀x ∈ A, b(x, y) = 0}.
Proposition 2.1.15 Pour tout A ⊂ E non vide, l’orthogonal de A par rapport à la forme
bilinéaire symétrique b est un sous-espace vectoriel de E.
Preuve : Clairement A⊥ contient 0. Il suffit donc de vérifier que A⊥ est stable par combinai-
sons linéaires. C’est une conséquence immédiate de la linéarité de b par rapport à chaque
variable.
Proposition 2.1.16 Soit b bilinéaire symétrique sur E. L’ensemble E ⊥ est appelé noyau de b,
et noté ker b. On a alors la formule suivante :
rg b + dim(Ker b) = dim E.
Preuve : Notons p = dim(Ker b). On considère une base (e1 , · · · , ep ) de ker b que l’on complète
en une base (e1 , · · · , en ) de E. Dans cette base, la matrice A de b est de la forme :
 
0 0
A= ,
0 B
avec B ∈ Sn−p (R). Il est donc clair que rg A ≤ n − p.
Supposons par l’absurde qu’il existe une relation de dépendance linéaire entre les colonnes
de B. Quitte à changer l’ordre des n − p derniers vecteurs de base, on peut toujours
supposer que la dernière colonne de B (ou de A) est combinaison linéaire des n − p − 1
précédentes. Il existe donc (λ1 , · · · , λn−p−1 ) ∈ Rn−p−1 tel que
n−p−1
X
∀i ∈ {1, · · · , n}, b(ei , en ) = λj b(ei , ej+p ).
j=1

On en déduit que en − n−p−1


P
j=1 λj ej+p appartient à ker b. Ce vecteur n’appartient visible-
ment pas à Vect(e1 , · · · , ep ), ce qui contredit l’hypothèse dim ker b = p.
On a donc rg B = rg A = n − p d’où la proposition.
2.1. FORMES BILINÉAIRES 41

Définition 2.1.17 Une forme bilinéaire symétrique b est dite :


– Non dégénérée si ker b = E ⊥ = {0},
– Positive si pour tout x ∈ E, on a b(x, x) ≥ 0,
– Négative si pour tout x ∈ E, on a b(x, x) ≤ 0,
– Définie positive si elle est positive et non dégénérée,
– Définie négative si elle est négative et non dégénérée.

Grâce à la proposition 2.1.16, on a immédiatement :


Proposition 2.1.18 Une forme bilinéaire symétrique sur E est non dégénérée si et seulement
si elle est de rang n.

Définition 2.1.19 Soit A ∈ Sn (R). On dit que A est


– Non dégénérée si rg A = n,
– Positive si pour tout X ∈ Mn,1 (R), on a tXAX ≥ 0,
– Négative si pour tout X ∈ Mn,1 (R), on a tXAX ≤ 0,
– Définie positive si elle est positive et non dégénérée,
– Définie négative si elle est négative et non dégénérée.

Remarque : Si A est la matrice d’une forme bilinéaire b par rapport à une base B de E alors b
est non dégénérée si et seulement si A est non dégénérée, b est positive si et seulement si A est
positive, etc.
Proposition 2.1.20 (Inégalité de Cauchy-Schwarz) Soit b une forme bilinéaire symétrique
positive sur E. Alors on a
p
∀(x, y) ∈ E 2 , |b(x, y)| ≤ b(x, x)b(y, y).

Preuve : Pour λ ∈ R, posons f (λ) = b(x + λy, x + λy). Un calcul immédiat donne

(2.2) f (λ) = λ2 b(y, y) + 2λb(x, y) + b(x, x).

La positivité de b entraı̂ne la positivité de la fonction f sur R entier.


1er cas : b(y, y) = 0 : La fonction f est alors une fonction affine positive sur R entier.
Donc nécessairement le coefficient b(x, y) doit être nul. L’inégalité de Cauchy-Schwarz
est donc bien vérifiée.
2ème cas : b(y, y) 6= 0 : La fonction f est un polynôme de degré 2 en λ qui reste positif
pour tout λ ∈ R. Son discriminant ∆ = 4|b(x, y)|2 − 4b(x, x)b(y, y) est donc négatif,
ce qui montre l’inégalité voulue.

Corollaire 2.1.21 Une forme bilinéaire symétrique est définie positive si et seulement si pour
tout x non nul, on a b(x, x) > 0.
Résultat analogue pour les matrices.

Preuve : Soit donc b une forme bilinéaire symétrique définie positive. Par définition b(x, x) ≥ 0
pour tout x ∈ E et E ⊥ = {0}.
Considérons un x ∈ E tel que b(x, x) = 0. D’après l’inégalité de Cauchy-Schwarz, on a
b(x, y) = 0 pour tout y ∈ E. Donc x ∈ E ⊥ , d’où x = 0.
Réciproquement si b bilinéaire symétrique vérifie b(x, x) > 0 pour tout x non nul, elle est
clairement positive. De plus tout x ∈ E ⊥ vérifie b(x, x) = 0, donc son noyau est réduit à
{0}.
42 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYMÉTRIQUES

2.2 Espaces euclidiens


Dans toute cette partie, E est un espace vectoriel réel de dimension finie n.

2.2.1 Généralités
Définition 2.2.1 Soit b une forme bilinéaire symétrique sur E. On dit que b est un produit
scalaire sur E si b est définie positive. L’espace E muni du produit scalaire b est alors appelé
espace euclidien.

Notation : Désormais, pour (E, b) espace euclidien, nous noterons (· | ·) le produit scalaire1 :
déf
∀(x, y) ∈ E 2 , (x | y) = b(x, y).

Exemple : On peut munir Rn d’une structure d’espace euclidien en définissant le produit


scalaire suivant appelé produit scalaire canonique de Rn :
n
X
n n
∀(x, y) ∈ R × R , (x|y) = xi yi .
i=1

Notation : Pour tout x ∈ E, on pose


déf
p
kxk = (x | x).

En vertu de la bilinéarité du produit scalaire, on a donc

(2.3) ∀(c, d) ∈ E 2 , kc + dk2 = kck2 + 2(c | d) + kdk2 .

Cela permet de prouver l’identité du parallélogramme :


Proposition 2.2.2 (Identité du parallélogramme)

∀(x, y) ∈ E 2 , kx + yk2 + kx − yk2 = 2kxk2 + 2kyk2 .

Preuve : En appliquant (2.3) à c = x, d = y, puis à c = x et d = −y, on trouve

kx + yk2 = kxk2 + 2(x | y) + kyk2 et kx − yk2 = kxk2 − 2(x | y) + kyk2 .

Il ne reste plus qu’à sommer les deux égalités.

Proposition 2.2.3 (Inégalité de Cauchy-Schwarz) Soit E un espace euclidien. Alors


on a
∀(x, y) ∈ E 2 , |(x | y)| ≤ kxkkyk,
avec égalité si et seulement si x et y sont colinéaires.

Preuve : L’inégalité a déjà été prouvée dans la section précédente. Concentrons-nous sur les
cas d’égalité. Si x et y sont colinéaires, il est clair que |(x | y)| = kxkkyk.
Réciproquement, supposons qu’il y ait égalité et que y 6= 0 (sinon, il n’y a rien à prouver).
Introduisons à nouveau la fonction f : λ 7→ kx + λyk2 .
Alors |(x | y)| = kxkkyk signifie que le discriminant associé à f est nul, c’est-à-dire que
f a une racine double λ0 . On a donc kx + λ0 yk2 = 0, donc, d’après le corollaire 2.1.21,
x + λ0 y = 0, donc x et y sont colinéaires.
1
Dans certains ouvrages, les notations < · | · > ou (·, ·) sont utilisées.
2.2. ESPACES EUCLIDIENS 43

Proposition 2.2.4 Soit E un espace euclidien. Alors on a les inégalités suivantes :

∀(x, y) ∈ E 2 , kx
+ yk ≤ kxk
+ kyk (première inégalité triangulaire),
2
∀(x, y) ∈ E , kxk − kyk ≤ kx − yk (deuxième inégalité triangulaire).

E −→ R+

En particulier, l’application vérifie
x 7−→ kxk

i) ∀x ∈ E, kxk ≥ 0 et kxk = 0 si et seulement si x = 0,


ii) ∀x ∈ E, ∀λ ∈ R, kλxk = |λ|kxk,
iii) ∀(x, y) ∈ E 2 , kx + yk ≤ kxk + kyk.
On dit que c’est une norme.

Preuve : Pour prouver la première inégalité triangulaire, on calcule

kx + yk2 = kxk2 + 2(x | y) + kyk2 .

Par l’inégalité de Cauchy-Schwarz, on a |(x | y)| ≤ kxkkyk. Donc

kx + yk2 ≤ kxk2 + 2kxkkyk + kyk2 = (kxk + kyk)2 .

D’où le résultat en prenant la racine carrée.


Appliquons la première inégalité triangulaire à x et y − x. Il vient

kyk = kx + (y − x)k ≤ kxk + ky − xk,

d’où kyk − kxk ≤ ky − xk. En échangeant les rôles de x et de y, on obtient également


kxk − kyk ≤ kx − yk d’où la deuxième inégalité.

Définition 2.2.5 On dit que (x1 , · · · , xp ) est une famille orthogonale si les vecteurs de cette
famille sont orthogonaux deux à deux. On dit que (x1 , · · · , xp ) est une famille orthonormale
si de plus kxi k = 1 pour tout i ∈ {1, · · · , p}. Enfin, on dit que (x1 , · · · , xp ) est une base
orthonormale de E si c’est à la fois une base de E (ce qui entraı̂ne p = n), et une famille
orthonormale.

Remarque : Pour une famille orthonormale (x1 , · · · , xp ), on a donc (xi | xj ) = δij où δij est le
symbole de Kronecker défini par δij = 0 si i 6= j et δii = 1.
Théorème 2.2.6 (de Pythagore) Soit (x1 , · · · , xp ) une famille orthogonale. On a

kx1 + · · · + xp k2 = kx1 k2 + · · · + kxp k2 .

Preuve : Considérons le cas de 2 vecteurs orthogonaux x1 et x2 . Le résultat découle alors


directement de (2.3) compte tenu de (x1 | x2 ) = 0.
Supposons le résultat vrai pour toute famille de p − 1 vecteurs orthogonaux.
En exploitant la linéarité du produit scalaire par rapport à la deuxième variable (par
exemple), on constate que xp est orthogonal à (x1 + · · · + xp−1 ). Appliquons le théorème
de Pythagore aux vecteurs xp et (x1 + · · · + xp−1 ) :

kx1 + · · · + xp k2 = k(x1 + · · · xp−1 ) + xp k2 = kx1 + · · · + xp−1 k2 + kxp k2 .

Mais on sait déjà que kx1 + · · · + xp−1 k2 = kx1 k2 + · · · + kxp−1 k2 , d’où le résultat pour p
vecteurs.
44 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYMÉTRIQUES

Proposition 2.2.7 Soit (x1 , · · · , xp ) une famille orthogonale constituée de vecteurs tous non
nuls. Alors cette famille est libre.

Preuve : Supposons donc que pi=1 λi xi = 0. En prenant le produit scalaire de cette égalité
P
avec xj , tous les termes disparaissent, sauf celui correspondant à i = j. On obtient donc
λj kxj k2 = 0. Mais comme xj 6= 0, on conclut que λj = 0. Donc finalement tous les λi sont
nuls, ce qui donne le résultat voulu.

Proposition 2.2.8 Soit (e1 , · · · , ep ) une famille orthonormale de E et x ∈ Vect(e1 , · · · , ep ).


Alors on a
p
X
(2.4) x= (x | ei )ei .
i=1

Si de plus y ∈ Vect(e1 , · · · , ep ) alors on a la formule


n
X
(2.5) (x | y) = (x | ei )(y | ei ).
i=1

Pp
Preuve : On note (x1 , · · · , xp ) un p-uplet de réels tels que x = i=1 xi ei . On a donc pour
tout j ∈ {1, · · · , n},
p
X p
X
(x | ej ) = ( xi ei | ej ) = xi (ei | ej ) = xj .
i=1 i=1

On a de même
p
X
y= (y | ei )ei ,
i=1

donc, par bilinéarité du produit scalaire,


n
X
(x | y) = (x | ei )(y | ej )(ei | ej ).
i,j=1

Le fait que (ei | ej ) = δij assure le résultat voulu.

Corollaire 2.2.9 La matrice A d’un endomorphisme u de End(E) par rapport à une base
(e1 , · · · , en ) orthonormale a pour coefficients

aij = (u(ej ) | ei ).
Pn
Preuve : On écrit que u(ej ) = i=1 aij ei et on applique la proposition 2.4 pour calculer aij .

Théorème 2.2.10 (Orthonormalisation de Gram–Schmidt) Soit (a1 , · · · , ap ) une fa-


mille libre de E. Alors il existe une unique famille orthonormale (e1 , · · · , ep ) telle que
i) ∀j ∈ {1, · · · , p}, Vect(e1 , · · · , ej ) = Vect(a1 , · · · , aj ),
ii) ∀j ∈ {1, · · · , p}, (ej | aj ) > 0.
2.2. ESPACES EUCLIDIENS 45

Preuve : La preuve consiste à construire explicitement (e1 , · · · , ep ) à l’aide d’une récurrence


limitée.
On pose e1 = a1 /ka1 k. Ce vecteur est clairement de norme 1, son produit scalaire avec
a1 vaut ka1 k donc est strictement positif, et bien sûr e1 et a1 engendrent la même droite
vectorielle.
Supposons que l’on ait construit une famille orthonormale (e1 , · · · , ek ) vérifiant i) et ii)
pour j ∈ {1, · · · , k}. Si k = p, la preuve est terminée. Sinon, on cherche ek+1 sous la forme
k
X
ek+1 = λ(ak+1 + αi ei ).
i=1

Prenons le produit scalaire de cette égalité avec ej (pour j ∈ {1, · · · , k}). Comme on veut
que ek+1 soit orthogonal à e1 , · · · , ek , on obtient (ak+1 | ej ) + αj = 0. Donc
k
X
ek+1 = λ(ak+1 − (ak+1 | ei )ei ).
i=1

Comme la famille (a1 , · · · , ak+1 ) est libre et Vect(e1 , · · · , ek ) = Vect(a1 , · · · , ak ), on a


ak+1 6∈ Vect(e1 , · · · , ek ). Donc le terme entre parenthèses n’est pasP nul. La seule façon de
rendre ek+1 de norme 1 consiste donc à choisir λ tel que |λ|kak+1 − ki=1 (ak+1 | ei )ei k = 1.
Donc
ak+1 − ki=1 (ak+1 | ei )ei
P
ek+1 = ± .
kak+1 − ki=1 (ak+1 | ei )ei k
P

En utilisant le corollaire 2.5, on obtient de plus


|(ak+1 | ek+1 )|2
(ek+1 | ak+1 ) = ± .
kak+1 − ki=1 (ak+1 | ei )ei k
P

Pour assurer (ek+1 | ak+1 ) > 0, il faut choisir λ = +1/(kak+1 − ki=1 (ak+1 | ei )ei k). Ceci
P
achève la preuve de l’existence.
L’unicité se démontre en reprenant la construction précédente et en vérifiant qu’à chaque
étape il n’y a pas d’autre choix possible que celui que l’on a fait ci-dessus.
Corollaire 2.2.11 Tout espace euclidien admet une base orthonormale.
Preuve : On part d’une base quelconque de E, et on applique le procédé d’orthonormalisation
de Gram–Schmidt.
Exemples :
1. La base canonique de Rn muni du produit scalaire canonique est orthonormale.
2. Considérons R2 muni du produit scalaire canonique. Soit e1 = (a, b) un vecteur de norme
1 (i.e a2 + b2 = 1). Alors il y a deux façons de compléter e1 en une base orthonormale
(e1 , e2 ) de R2 : on peut poser e2 = (−b, a) ou bien e2 = (b, −a).
Le premier choix donne une base orthonormale (e1 , e2 ) directe.
3. Produit vectoriel dans R3 . Considérons R3 muni du produit scalaire canonique, et (e1 , e2 )
une famille orthonormale de R3 . Alors il y a deux façons de compléter (e1 , e2 ) en une base
orthonormale (e1 , e2 , e3 ) de R3 : on peut poser e3 = e1 ∧ e2 ou bien e3 = e2 ∧ e1 . Le premier
choix donne une base orthonormale (e1 , e2 , e3 ) directe. On rappelle que
     
x1 y1 x2 y3 − x3 y2
x2  ∧ y2  = x3 y1 − x1 y3  .
x3 y3 x1 y2 − x2 y1
46 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYMÉTRIQUES

déf
Proposition 2.2.12 Soit B = (e1 , · · · , en ) une base de E. Alors B est orthonormale si et
seulement si la matrice du produit scalaire par rapport à cette base est l’identité.
De plus, si B est une base orthonormale, et X (resp. Y ) est le vecteur colonne formé par les
coordonnées de x (resp. y) par rapport à cette base, alors on a
n
X
(x | y) = xi yi = tXY = tY X.
i=1

Preuve : La matrice A du produit scalaire par rapport à B a pour coefficients aij = (ei | ej ).
On a donc A = In si et seulement si (ei | ej ) = δij , donc si et seulement si B est une base
orthonormale. La formule ci-dessus découle alors de la proposition 2.1.4.

2.2.2 Projections orthogonales


Proposition 2.2.13 Soient F et G deux sous-espaces vectoriels de l’espace euclidien E. On a
les identités suivantes :
i) F ⊕ F ⊥ = E,
ii) dim F + dim F ⊥ = dim E.
iii) (F ⊥ )⊥ = F,
iv) F ⊂ G si et seulement si G⊥ ⊂ F ⊥ ,
v) F = G si et seulement si F ⊥ = G⊥ .

Preuve : On sait déjà que F ⊥ est un s.e.v de E (cf prop. 2.1.15).


Soit x ∈ F ∩ F ⊥ . Alors on a (x | x) = 0. Donc x est nul et la somme F + F ⊥ est bien
directe.
Supposons par l’absurde que F + F ⊥ 6= E. Alors il existe un vecteur x (forcément non
nul) de E n’appartenant pas à F + F ⊥ . Considérons une base (a1 , · · · , ap ) de F + F ⊥ .
Alors (a1 , · · · , ap , x) est une famille libre. Le procédé d’orthonormalisation de Gram–
Schmidt donne une famille orthonormale (e1 , · · · , ep+1 ) telle que Vect(e1 , · · · , ep , x) =
Vect(e1 , · · · , ep , ep+1 ) et F + F ⊥ = Vect(e1 , · · · , ep ). Le vecteur ep+1 est donc à la fois
orthogonal à F et à F ⊥ . Il est donc dans F ⊥ ∩ (F ⊥ )⊥ dont l’intersection est réduite
à {0}. Donc ep+1 = 0, d’où la contradiction. Finalement, on a donc F ∩ F ⊥ = {0} et
E = F + F ⊥ = E, ce qui achève la preuve du i).
La propriété ii) est une conséquence immédiate de i).
Pour prouver iii), montrons déjà que F ⊂ (F ⊥ )⊥ . Soit donc x ∈ F . Par définition de F ⊥ ,
on sait que
∀y ∈ F ⊥ , (x | y) = 0.
Donc x est orthogonal à F ⊥ . Donc x ∈ (F ⊥ )⊥ .
Mais, d’après ii) appliqué à F puis F ⊥ , on a également

dim F + dim F ⊥ = dim E = dim F ⊥ + dim(F ⊥ )⊥ .

Donc dim F = dim(F ⊥ )⊥ . Comme de plus F ⊂ (F ⊥ )⊥ , les deux sous-espaces vectoriels


coı̈ncident.
Supposons F ⊂ G et soit x ∈ G⊥ . Alors (x | y) = 0 pour tout y ∈ G donc a fortiori pour
tout y ∈ F . Donc x ∈ F ⊥ . La réciproque se montre en échangeant les rôles de F et G⊥
(resp. G et F ⊥ ) et en utilisant (F ⊥ )⊥ = F et (G⊥ )⊥ = G.
La propriété v) est une conséquence immédiate de iv).
2.2. ESPACES EUCLIDIENS 47

Remarque : Si F est un sous-espace vectoriel, la somme F ⊕ F ⊥ est non seulement directe


mais également orthogonale (i.e si on prend x ∈ F et y ∈ F ⊥ , on a toujours (x | y) = 0). On

utilisera la notation F ⊕ F ⊥ pour préciser l’orthogonalité.
Définition 2.2.14 Soit F un sous-espace vectoriel de E. On appelle projecteur orthogonal
sur F le projecteur sur F parallèlement à F ⊥ .

Proposition 2.2.15 Soit F , s.e.v de E. Notons p le projecteur orthogonal sur F et q le projec-


teur orthogonal sur F ⊥ . Alors on a Id = p + q. En particulier,
∀x ∈ E, x − p(x) ∈ F ⊥ .

Preuve : Comme E = F ⊕ F ⊥ , tout x ∈ E se décompose en x = y + z avec y ∈ F et
z ∈ F ⊥ . Par définition même de p, on a y = p(x). Par ailleurs, comme (F ⊥ )⊥ = F ,
q est en fait le projecteur sur F ⊥ parallèlement à F . Donc q(x) = z. On a donc bien
x = y + z = p(x) + q(x), et z = x − p(x) ∈ F ⊥ .

Proposition 2.2.16 Soit p le projecteur orthogonal sur le s.e.v F , et x ∈ E. Alors


∀y ∈ F, kx − yk ≥ kx − p(x)k,
avec égalité si et seulement si y = p(x). Autrement dit, le minimum de kx − yk pour y ∈ F est
atteint en y = p(x). On dit que p(x) minimise la distance de x à F , et que la distance de x à
F , notée d(x, F ) vaut kx − p(x)k.

Preuve : Soit donc x ∈ E et y ∈ F . D’après la proposition précédente, on a (x − p(x)) ∈ F ⊥ .


Comme (p(x) − y) ∈ F , le théorème de Pythagore donne
kx − yk2 = k(x − p(x)) + (p(x) − y)k2 = kx − p(x)k2 + kp(x) − yk2 ≥ kx − p(x)k2 .
Clairement, il y a égalité si et seulement si kp(x) − yk = 0, d’où le résultat.

Proposition 2.2.17 Soit p le projecteur orthogonal sur F . Supposons connue une base
orthonormale (e1 , · · · , em ) de F . Alors on a
m
X
(2.6) ∀x ∈ E, p(x) = (x | ei )ei .
i=1

Si de plus (em+1 , · · · , en ) est une base orthonormale de F ⊥ alors on a


v
u n
u X
(2.7) d(x, F ) = kx − p(x)k = t |(x | ei )|2 .
i=m+1

Preuve : Soit x ∈ E. Alors on peut Pm écrire x = y + z avec y ∈ F et z ∈ F ⊥ . Grâce à la


proposition 2.4, on a p(x) = y = i=1 (y | ei )ei . Mais y = x − z et z est orthogonal à tous
les ei pour i ∈ {1, · · · , m}. Donc finalement (y | ei ) = (x | ei ) d’où (2.6).
Pour prouver (2.7), on utilise encore la décomposition x = y + z ci-dessus. Notons que
z = x−p(x). Comme (em+1 , · · · , en ) est une base orthonormale de F ⊥ , on a, en raisonnant
comme ci-dessus :
X n
z= (x | ei )ei .
i=m+1
Il ne reste plus qu’à appliquer le corollaire 2.5 pour conclure.
48 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYMÉTRIQUES

2.3 Adjoint d’un endomorphisme


Dans toute cette section E est un espace euclidien de dimension n. On rappelle qu’une forme
linéaire sur E est une application linéaire de E dans R. L’ensemble des formes linéaires sur E
est noté E ? , et appelé dual de E. C’est un R-espace vectoriel de dimension n.
On a le résultat fondamental suivant :

Théorème 2.3.1 Pour tout a ∈ E, l’application



E −→ R
fa :
x 7−→ (x | a),

est une forme linéaire sur E.


Réciproquement, si φ est une forme linéaire sur E alors il existe un unique a ∈ E tel que
φ = fa .

Preuve : La linéarité du produit scalaire par rapport à la première variable entraı̂ne visible-
ment la linéarité de l’application fa .
déf
Notons A = {fa | a ∈ E}. On vérifie facilement que, pour tout (a, b) ∈ E 2 , et λ ∈ R, on a
fa+b = fa + fb et fλa = λfa . Donc A est un sous-espace vectoriel de E ? .
Par ailleurs, si (e1 , · · · , en ) est une base orthonormale de E alors (fe1 , · · · , fen ) est une
famille libre de A. En effet, supposons que λ1 fe1 + · · · + λn fen = 0. Alors
n
X
∀x ∈ E, λj (x | ej ) = 0.
j=1

En choisissant x = ei , on trouve donc λi = 0. On conclut que dim A ≥ n = dim E ? . Donc


A = E?.
L’unicité découle du fait que fa = 0 si et seulement si a ∈ E ⊥ . Or E ⊥ = {0}.

Proposition 2.3.2 Soit u ∈ End(E). Alors il existe une unique application u? telle que

∀(x, y) ∈ E 2 , (u(x) | y) = (x | u? (y)).

Cette application u? est un endormorphisme de E et est appelée endomorphisme adjoint de


u.

Preuve : A y fixé, l’application 


E −→ R
x 7−→ (u(x) | y)
est une forme linéaire sur E.
La proposition 2.3.1 donne donc l’existence d’un unique élément u? (y) de E vérifiant
l’égalité voulue. Reste à montrer la linéarité de u? .
Soit y ∈ E, y 0 ∈ E et λ ∈ R. On a pour tout x ∈ E :
       
x | u? (y+λy 0 ) = u(x) | y+λy 0 = u(x) | y + λ u(x) | y 0
     
= x | u? (y) + λ x | u? (y 0 ) = x | u? (y) + λu? (y 0 ) .

Donc u? (y + λy 0 ) = u? (y) + λu? (y 0 ).

Proposition 2.3.3 Soit u et v deux endomorphismes de E. Alors on a (uv)? = v ? u? .


2.3. ADJOINT D’UN ENDOMORPHISME 49

Preuve : On a pour tout (x, y) ∈ E 2 ,


       
x | (uv)? y = uv(x) | y = v(x) | u? (y) = x | v ? (u? (y)) ,

d’où le résultat.
Proposition 2.3.4 Soit u ∈ End(E). Alors on a
i) (u? )? = u,
ii) ker u? = (Im u)⊥ ,
iii) Im u? = (ker u)⊥ .
Preuve : i) : Par définition de (u? )? et de u? , on a
 
∀(x, y) ∈ E 2 , (u? )? (x) | y = (x | u? (y)) = (u(x) | y).

Donc (u? )? (x) − u(x) ∈ E ⊥ , d’où (u? )? (x) = u(x).


ii) : Soit x ∈ Ker u? . Alors on a (u? (x) | y) = 0 pour tout y ∈ E. Or (u? (x) | y) = (x | u(y))
donc x est orthogonal à Im u.
Réciproquement, si x ∈ (Im u)⊥ , alors on a (u? (x) | y) = (x | u(y)) = 0 pour tout y ∈ E,
donc u? (x) = 0 car E ⊥ = {0}.
iii) : D’après la proposition 2.2.13, Im u? = (ker u)⊥ si et seulement si (Im u? )⊥ = ker u.
Il suffit donc d’appliquer ii) à u? en se souvenant que (u? )? = u.
Corollaire 2.3.5 u et u? ont même rang. En particulier u est inversible si et seulement si u?
l’est.
Preuve : D’après ce qui précède, la proposition 2.2.13 et le théorème du rang, on a
rg u? = dim Ker u⊥ = n − dim Ker u = rg u,


d’où le résultat.
La notion d’adjoint va nous permettre de définir plusieurs classes d’endomorphismes. Nous
laissons au lecteur le soin de vérifier les deux propositions suivantes :
Proposition 2.3.6 Soit u ∈ End(E). Les deux propriétés suivantes sont équivalentes :
i) u? = u,
ii) ∀(x, y) ∈ E 2 , (u(x) | y) = (x | u(y)).
On dit alors que u est un endomorphisme symétrique.
Proposition 2.3.7 Soit u ∈ End(E). Les deux propriétés suivantes sont équivalentes :
i) u? = −u,
ii) ∀(x, y) ∈ E 2 , (u(x) | y) = −(x | u(y)).
On dit alors que u est un endomorphisme antisymétrique.

Proposition 2.3.8 Soit u ∈ End(E). Les propriétés suivantes sont équivalentes.


i) u? u = uu? = Id,
ii) ∀(x, y) ∈ E 2 , (u(x) | u(y)) = (x | y), (i.e u conserve le produit scalaire),
iii) ∀x ∈ E, ku(x)k = kxk, (i.e u conserve la norme),
iv) u transforme toute base orthonormale en une base orthonormale,
v) u transforme une base orthonormale en une base orthonormale,
On dit alors que u est un endomorphisme orthogonal. On note O(E) l’ensemble des
endomorphismes orthogonaux.
50 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYMÉTRIQUES

Preuve : i) ⇐⇒ ii) résulte des définitions de l’adjoint et de l’inverse d’un automorphisme.


ii) ⇒ iii) : On choisit y = x puis on prend la racine carrée.
iii) ⇒ ii) : Remarquons que

4(x | y) = kx + yk2 − kx − yk2 et 4(u(x) | u(y)) = ku(x + y)k2 − ku(x − y)k2 .

Le résultat est alors clair puisque les membres de droite sont égaux.
 
ii) ⇒ iv) : Soit (e1 , · · · , en ) une base orthonormale de E. Alors on a u(ei ) | u(ej ) =
 
ei | ej = δij , donc (u(e1 ), · · · , u(en )) est une base orthonormale.
iv) ⇒ v) : Trivial.
v) ⇒ ii) : Soit (e1 , · · · , en ) une base orthonormale de E dont l’image par u est une base
orthonormale. Soit (x, y) ∈ E 2 . D’après le corollaire 2.5, on a
p
X p
X
(2.8) (x | y) = (x | ei )(y | ei ) et (u(x) | u(y)) = (u(x) | u(ei ))(u(y) | u(ei )).
i=1 i=1

Mais x = ni=1 (x | ei )ei , donc u(x) = ni=1 (x | ei )u(ei ). Grâce au caractère orthonormal
P P
de (u(e1 ), · · · , u(en )), on conclut que (u(x) | u(ei )) = (x | ei ), et de même (u(y) | u(ei )) =
(y | ei ), d’où (x | y) = (u(x) | u(y)) grâce à (2.8).
Remarque : Du fait qu’ils conservent la norme (donc la distance), les endomorphismes ortho-
gonaux sont aussi appelé isométries.
Proposition 2.3.9 Soit B = (e1 , · · · , en ) une base orthonormale de E, u ∈ End(E), et A la
matrice de u par rapport à B. Alors tA est la matrice de l’endomorphisme adjoint u? par rapport
à B.
Preuve : D’après le corollaire 2.2.9, la matrice B de u? a pour coefficients bij = (u? (ej ) | ei ).
Par définition de l’adjoint, on a donc

bij = (ej | u(ei )) = (u(ei ) | ej ) = aji ,

d’où B = tA.
On en déduit facilement le résultat suivant :
Proposition 2.3.10 Soit u ∈ End(E), B une base orthonormale de E et A la matrice de
u par rapport à B. Alors u est un endomorphisme
• symétrique si et seulement si t A = A (on dit que la matrice A est symétrique),
• antisymétrique si et seulement si t A = −A (on dit que la matrice A est antisymétrique),
• orthogonal si et seulement si t AA = In (on dit que la matrice A est orthogonale),

Notation : L’ensemble des matrices symétriques de Mn (R) est noté Sn (R). L’ensemble
des matrices orthogonales de Mn (R) est noté On (R).

Donnons une caractérisation de On (R) :

Proposition 2.3.11 Soit A ∈ Mn (R). Les propriétés suivantes sont équivalentes :


i) A ∈ On (R),
ii) Les colonnes de A constituent une base orthonormale de Rn muni du produit scalaire
canonique.
iii) Les lignes de A constituent une base orthonormale de Rn muni du produit scalaire
canonique.
2.4. RÉDUCTION DES ENDOMORPHISMES SYMÉTRIQUES 51

Preuve : On munit Rn de son produit scalaire canonique, et on considère l’endomorphisme u


de matrice A par rapport à la base canonique de Rn . Comme cette base est orthonormale
pour le produit scalaire canonique de Rn , l’endormorphisme u est orthogonal si et seule-
ment si il transforme la base canonique en base orthonormale (cf prop. 2.3.8). On a donc
bien i) ⇐⇒ ii).
Comme de plus u? a pour matrice tA, et u et son adjoint sont simultanément orthogonaux,
on en déduit également que ii) ⇐⇒ iii).

2.4 Réduction des endomorphismes symétriques


Dans toute cette partie, E désigne un espace euclidien de dimension n.
Lemme 2.4.1 Soit u un endomorphisme quelconque de End(E), et F un sous-espace vectoriel
de E. Alors les propriétés suivantes sont équivalentes :
i) F est stable par u,
ii) F ⊥ est stable par u∗ .
Preuve : Montrons que i) ⇒ ii). Soit donc F un sous-espace stable de u.

∀x ∈ F ⊥ , ∀y ∈ F, (u? (x) | y) = (x | u(y)).

Pour y ∈ F , on a u(y) ∈ F . Donc le dernier terme est nul. On conclut que u? (x) est
orthogonal à F .
Pour montrer la réciproque, on applique l’implication ci-dessus à u? et F ⊥ compte tenu
des relations (u? )? = u et (F ⊥ )⊥ = F .

Proposition 2.4.2 Soit u symétrique. Alors χu est scindé dans R[X]. En particulier, toutes
les valeurs propres de u sont réelles.

Preuve : Soit B une base orthonormale de E. Notons A = matB (u). On a A ∈ Sn (R) et


χA = χu .
On sait que χA est scindé dans C[X]. Pour prouver la proposition, il suffit donc de montrer
que toutes les racines de χA sont réelles.
Soit donc λ ∈ C une racine de χA . Alors λ est une valeur propre de A. Donc il existe un
vecteur colonne X = t(x1 , · · · , xn ) non nul et à composantes complexes tel que AX = λX.
Comme A est symétrique réelle, on a
   
t
XAX = t X t AX = t t XAX = t tXAX = t XAX.

Mais AX = λX. Donc l’égalité ci-dessus donne

λt XX = t (λt XX) = λt XX.


Pn
Comme t XX = i=1 |xi |
2 est non nul, on conclut que λ = λ donc λ est réelle.

Lemme 2.4.3 Soit x1 et x2 deux vecteurs propres de u symétrique associés à des valeurs propres
λ1 et λ2 distinctes. Alors (x1 | x2 ) = 0.

Preuve : On calcule

λ1 (x1 | x2 ) = (λ1 x1 | x2 ) = (u(x1 ) | x2 ) = (x1 | u(x2 )) = (x1 | λ2 x2 ) = λ2 (x1 | x2 ).

Comme λ1 6= λ2 , on doit avoir (x1 | x2 ) = 0.


52 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYMÉTRIQUES

Corollaire 2.4.4 Les sous-espaces propres d’un endomorphisme symétrique sont en somme di-
recte orthogonale.

Preuve : Notons Sp u = {λ1 , · · · , λp }. Soit x ∈ Eλ1 + · · · + Eλp . Supposons que l’on ait
p
X p
X
x= xi = x0i avec xi ∈ Eλi et x0i ∈ Eλi .
i=1 i=1

Alors (xi −x0i )i∈{1,··· ,p} est une famille de vecteurs orthogonaux 2 à 2 (d’après la proposition
précédente) vérifiant
Xp
(xi − x0i ) = 0.
i=1

La proposition 2.2.7 permet de conclure que xi − x0i = 0 pour tout i ∈ {1, · · · , p}. La
somme est donc directe. Elle est bien sûr orthogonale grâce à la proposition précédente.

Théorème 2.4.5 Soit u un endomorphisme symétrique de spectre Sp(u) = {λ1 , · · · , λp }.


Alors on a
⊥ ⊥
E = Eλ1 ⊕ · · · ⊕ Eλp ,
et u est diagonalisable dans une base orthonormale de E.

⊥ ⊥
Preuve : Notons F = Eλ1 ⊕ · · · ⊕ Eλp . Il s’agit de montrer que F = E ou, de façon
équivalente, que F ⊥ = {0}.
Supposons par l’absurde que F ⊥ ne soit pas réduit à {0}. Le s.e.v F est stable par u
comme somme de sous-espaces stables. Comme u = u? , le lemme 2.4.1 assure que l’espace
F ⊥ est également un sous-espace stable de u. De plus, l’endomorphisme v induit par u sur
F ⊥ est clairement symétrique. Il admet donc une valeur propre λ dans R (cf. prop. 2.4.2).
Soit x un vecteur propre non nul associé à λ.
Vu la définition de v, λ est dans le spectre de u. Donc x est dans un des sous-espaces
propres, donc dans F . Contradiction !
⊥ ⊥
Le fait que E = Eλ1 ⊕ · · · ⊕ Eλp assure que u est diagonalisable. Choisissons une base
orthonormale (ei1 , · · · , eiγi ) pour chaque Eλi . La famille obtenue par réunion de toute ces
bases est bien une base orthonormale de vecteurs propres pour u.
Considérons maintenant une matrice symétrique A. L’endomorphisme u ∈ End(Rn ) de matrice
A par rapport à la base canonique de Rn est symétrique au sens du produit scalaire canonique
de Rn . D’après le théorème précédent, il existe donc une base orthonormale (e1 , · · · , en ) de Rn
qui est une base de vecteurs propres pour u. La matrice de passage de la base canonique à
(e1 , · · · , en ) transforme une base orthonormale en une base orthonormale. Elle appartient donc
à On (R). On a finalement obtenu le théorème de réduction suivant :

Théorème 2.4.6 Soit A ∈ Sn (R). Alors A est diagonalisable dans Mn (R). Plus
précisément, il existe P ∈ On (R) et D diagonale réelle telles que

D = t P AP = P −1 AP.

Attention : Ce résultat est faux pour les matrices symétriques à coefficients complexes (i.e non
tous réels). La bonne notion dans ce cadre là est celle de matrice hermitienne (voir le cours de
licence).
2.4. RÉDUCTION DES ENDOMORPHISMES SYMÉTRIQUES 53

Voyons maintenant quelques applications du théorème de réduction des endormorphismes et


matrices symétriques :
Proposition 2.4.7 Soit A ∈ Sn (R). Alors
i) A est positive si et seulement si toutes ses valeurs propres sont positives. De plus, rg A est
égal au nombre de valeurs propres non nulles comptées avec leur multiplicité.
ii) A est définie positive si et seulement si toutes ses valeurs propres sont strictement positives.
Preuve : Notons u l’endomorphisme de matrice A dans la base canonique de Rn . On munit
Rn du produit scalaire canonique. Avec ce choix de produit scalaire, l’endomorphisme
u est symétrique. Par ailleurs, si l’on note x = (x1 , · · · , xn ), et X le vecteur colonne
correspondant, on a u(x) = AX.
D’après le théorème précédent, u est diagonalisable dans R, et on peut trouver une base
de vecteurs propres (e1 , · · · , en ) qui est orthonormale dans Rn .
En notant (λ1 , · · · , λn ) les valeurs propres associées à (e1 , · · · , en ), on trouve que pour tout
x ∈ E, on a
n
X  n
X n
X
u(x) = u (x | ei )ei = (x | ei )u(ei ) = λi (x | ei )ei .
i=1 i=1 i=1

Donc
  Xn
∀x ∈ E, tXAX = u(x) | x = λi (x | ei )2 .
i=1
Il est maintenant clair que le produit scalaire ci-dessus est positif pour tout x si et seulement
si tous les λi sont positifs.
Enfin, comme A est diagonalisable, le rang de A est égal au nombre de valeurs propres
non nulles. En particulier A est définie positive si et seulement si toutes les valeurs propres
sont strictement positives.
Les deux résultats qui suivent sont hors-programme.
Théorème 2.4.8 (de réduction simultanée) Soit f une forme bilinéaire symétrique. Alors
il existe une base orthonormale (e1 , · · · , en ) de E qui est orthogonale pour f (i.e. f (ei , ej ) = 0
dès que i 6= j).
Preuve : À x fixé, l’application 
E −→ R
y 7→ f (x, y),
est une forme linéaire sur E. En vertu du théorème 2.3.1, il existe donc un élément u(x)
de E tel que  
∀y ∈ E, f (x, y) = u(x) | y .
Il est aisé de vérifier que l’application u de E dans E ainsi obtenue est un endomorphisme
sur E. De plus, grâce à la symétrie de f , on a
     
∀(x, y) ∈ E 2 , u(x) | y = f (x, y) = f (y, x) = u(y) | x = x | u(y) .

Donc u est un endormorphisme symétrique. Le théorème 2.4.5 donne une base (e1 , · · · , en )
orthonormale de vecteurs propres pour u. Si l’on note λi la valeur propre correspondant à
ei , on a donc    
f (ei , ej ) = u(ei ) | ej = λi ei | ej = λi δij ,
d’où le résultat.
54 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYMÉTRIQUES

Donnons maintenant la version matricielle de ce théorème de réduction simultanée :


Théorème 2.4.9 Soit A ∈ Sn (R) définie positive et B ∈ Sn (R). Alors il existe P ∈ GLn (R) et
D diagonale telles que
t
P AP = In et t P BP = D.
Preuve : On note b (resp. f ) la forme bilinéaire de matrice A (resp. B) par rapport à la
base canonique de Rn . Comme A est symétrique définie positive, la forme b est également
symétrique définie positive. C’est donc un produit scalaire sur Rn . De même, comme B
est symétrique, f est une forme bilinéaire symétrique. D’après le théorème de réduction
simultanée, il existe donc une base orthonormale B = (e1 , · · · , en ) pour le produit scalaire
b qui est orthogonale pour f . En notant P la matrice de passage de la base canonique à
la base B, on obtient les deux égalités voulues.
Attention : La matrice P n’a aucune raison d’être orthogonale.

2.5 Réduction des endomorphismes orthogonaux


Dans toute cette partie, E est un espace euclidien de dimension n.

2.5.1 Généralités
Proposition 2.5.1 On (R) (resp. O(E)) est un groupe pour la multiplication des matrices (resp.
la composition des endomorphismes).

Preuve : Il est clair que Id ∈ O(E). Soit u et v deux éléments de O(E). On a

(uv)? (uv) = (v ? u? )(uv) = v ? (u? u)v = v ? v = Id .

Donc uv est bien dans O(E).


Enfin, si u ∈ O(E), u? qui est l’inverse de u est clairement dans O(E).

Proposition 2.5.2 Les éléments de On (R) sont de déterminant ±1. De plus, si λ est valeur
propre (réelle), alors λ ∈ {−1, 1}. Même résultat pour O(E).

Preuve : Si A ∈ On (R), alors on a tAA = In . Donc det tA det A = 1, d’où (det A)2 = 1.
Soit x vecteur propre non nul pour λ. L’endomorphisme u de matrice A par rapport à la
base canonique de Rn conserve la norme. Donc u(x) = λx entraı̂ne |λ|kxk = kxk, d’où
|λ| = 1.

Définition 2.5.3 On dit que u ∈ O(E) est une rotation si det u = 1. L’ensemble des rotations
est noté SO(E).
On dit que A ∈ On (R) est une matrice de rotation si det A = 1. L’ensemble des matrices
de rotation est noté SOn (R).

Proposition 2.5.4 L’ensemble SO(E) est un sous-groupe de O(E), distinct de O(E). De


même, l’ensemble SOn (R) est un sous-groupe de On (R), distinct de On (R).

Preuve : Le produit de deux endomorphismes de déterminant 1 est encore de déterminant 1,


et l’inverse d’un endomorphisme de déterminant 1 est de déterminant 1. Donc SO(E) est
bien un sous-groupe de O(E).
Donnons maintenant un exemple d’endomorphisme orthogonal ne se trouvant pas dans
O(E). Pour cela, on considère une base orthonormale (e1 , · · · , en ) de E et on définit u par
2.5. RÉDUCTION DES ENDOMORPHISMES ORTHOGONAUX 55

u(ei ) = ei si 1 ≤ i ≤ n − 1, et u(en ) = −en . C’est un endomorphisme de déterminant


−1 qui transforme une base orthonormale en une base orthonormale. Donc u est dans
O(E)\SO(E). Nous allons voir par la suite que u est en fait une symétrie orthogonale par
rapport à un hyperplan.

Définition 2.5.5 Soit F un sous-espace vectoriel de E. On appelle symétrie orthogonale


par rapport à F la symétrie par rapport à F parallèlement à F ⊥ .

Exemples :
1. Symétrie orthogonale par rapport à un hyperplan (aussi appelée réflexion).
Si dim F = n − 1 et s est la symétrie orthogonale par rapport à F , on dit que s est une
symétrie orthogonale par rapport à un hyperplan. Les symétries orthogonales par rapport
à un hyperplan sont de déterminant −1. Si n = 3 (resp. n = 2), on parle de symétrie
orthogonale par rapport à un plan (resp. une droite).
2. Symétrie orthogonale par rapport à un s.e.v quelconque.
Soit F de dimension m et s la symétrie orthogonale par rapport à F . Alors s est de
déterminant (−1)n−m . C’est une rotation si et seulement si n − m est pair.
3. Symétrie orthogonale par rapport à une droite.
Elle est de déterminant (−1)n−1 . C’est donc une rotation si et seulement si n est impair
(en particulier en dimension n = 3).

2.5.2 Étude de O2 (R)


Comme les matrices de O1 (R) sont de déterminant 1 ou −1, le groupe O1 (R) ne comporte
que deux éléments : I1 et −I1 . Son étude ne présente donc guère d’intérêt. Dans cette section,
nous allons donner une description complète de O2 (R) qui, lui, a une infinité d’éléments.

Proposition 2.5.6 Soit A ∈ M2 (R) et u l’endomorphisme de matrice A par rapport à la


base canonique de R2 . On munit R2 du produit scalaire canonique.
La matrice A appartient à O2 (R) si et seulement si il existe θ ∈ R tel que
   
cos θ − sin θ cos θ sin θ
A= ou A = .
sin θ cos θ sin θ − cos θ

Dans le premier cas, A ∈ SO2 (R), et u est la rotation d’angle θ ; dans le deuxième cas, A
est de déterminant −1, et u est la symétrie orthogonale par rapport à la droite dirigée par
(cos( 2θ ), sin( 2θ )).
 
a b
Preuve : Notons A = . Comme les colonnes de A constituent une base orthonormale
c d
de R2 (muni du produit scalaire canonique), on a

a2 + c2 = 1, b2 + d2 = 1 et ab + cd = 0.

Des deux premières relations, on déduit l’existence de deux réels θ et ϕ tels que a = cos θ,
c = sin θ, b = sin ϕ et d = cos ϕ. La troisième relation entraı̂ne

sin(θ + ϕ) = cos θ sin ϕ + sin θ cos ϕ = 0.

Donc ϕ ≡ −θ [2π], ce qui donne le premier type de matrice, ou bien ϕ ≡ π − θ [2π], ce qui
donne le deuxième type de matrice.
56 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYMÉTRIQUES

Réciproquement, un calcul facile montre que les matrices A proposées vérifient tAA = In .
Elles sont donc bien orthogonales.
Le premier type de matrice est visiblement de déterminant 1. L’endomorphisme u associé
est donc bien une rotation. De plus,
∀(x1 , x2 ) ∈ R2 , u(x1 , x2 ) = (x1 cos θ − x2 sin θ, x1 sin θ + x2 cos θ),
c’est donc la rotation d’angle θ.
Le second type est de déterminant −1 et de trace nulle. Le polynôme caractéristique
correspondant est donc χA = X 2 −1, et on en déduit immédiatement que Sp(A) = {−1, 1}.

Comme A est une matrice symétrique, on a R2 = E−1 ⊕ E1 (cf th. 2.4.5). Comme
dim R2 = 2, on conclut que E−1 et E1 sont deux droites orthogonales. Donc A est la
matrice de la symétrie orthogonale par rapport à la droite E1 .
Pour déterminer E1 , on cherche un vecteur colonne non nul t (x1 , x2 ) tel que
x1 cos θ − x2 sin θ = x1 .
 
Le couple cos( 2θ ), sin( 2θ ) est visiblement solution.

Définition 2.5.7 Soit A ∈ M2 (R) et u l’endomorphisme de matrice A par rapport à la base


canonique de R2 . On dit que A est la rotation d’angle θ si u est la rotation d’angle θ, et que
A est la symétrie orthogonale par rapport à la droite D si u est la symétrie orthogonale
par rapport à la droite D.
Remarque : Dans R2 , un endomorphisme orthogonal de déterminant −1 est en fait une symétrie
orthogonale par rapport à une droite, et est donc diagonalisable dans R. En revanche, seules les
rotations d’angle 0 et π sont diagonalisables dans R. En effet, le polynôme caractéristique d’une
rotation u d’angle θ est X 2 − 2 cos θ + 1. Donc Sp(u) = {e−iθ , eiθ }. Donc, si θ 6∈ {0, π}, u est
diagonalisable dans C mais pas dans R.
Proposition 2.5.8 SO2 (R). est un sous-groupe abélien (i.e commutatif ) de O2 (R).
Preuve : Un calcul immédiat reposant sur les formules trigonométriques montre que le produit
de la rotation d’angle θ par la rotation d’angle ϕ coı̈ncide avec le produit de la rotation
d’angle ϕ par la rotation d’angle θ. Dans les deux cas, on obtient la rotation d’angle θ + ϕ.

Attention : Le caractère abélien est spécial à la dimension n = 2. Il est faux en dimension


n ≥ 3.
Proposition 2.5.9 Toute rotation de R2 se décompose d’une infinité de manières en produit
de deux symétries orthogonales par rapport à une droite.
Preuve : Il suffit de prouver le résultat pour les matrices. Soit donc R la rotation d’angle ψ.
Considérons deux symétries orthogonales par rapport à une droite, A et B. Alors il existe
deux réels θ et ϕ tels que
   
cos θ sin θ cos ϕ sin ϕ
A= et B = .
sin θ − cos θ sin ϕ − cos ϕ
Donc AB est la matrice
   
cos θ cos ϕ + sin θ sin ϕ cos θ sin ϕ − sin θ cos ϕ cos(θ−ϕ) − sin(θ−ϕ)
= ,
sin θ cos ϕ − cos θ sin ϕ sin θ sin ϕ + cos θ cos ϕ sin(θ−ϕ) cos(θ−ϕ)
c’est-à-dire la rotation d’angle θ − ϕ.
Par conséquent C = AB si et seulement si ψ = θ − ϕ. Il y a une infinité de couples (θ, ϕ)
satisfaisant cette relation.
2.5. RÉDUCTION DES ENDOMORPHISMES ORTHOGONAUX 57

Remarque : Le produit de deux symétries n’est pas commutatif en général. En effet, le calcul
ci-dessus montre que AB est la rotation d’angle θ − ϕ, alors que BA est la rotation d’angle ϕ − θ.

2.5.3 Réduction des endomorphismes orthogonaux


Le théorème de réduction que nous allons démontrer repose sur les trois lemmes suivants :
Lemme 2.5.10 Soit u ∈ O(E). Alors u admet au moins un sous-espace stable F de dimension
1 ou 2.
Preuve :
1er cas : u admet une valeur propre réelle λ. Soit x un vecteur propre non nul as-
socié à λ. La droite Rx est un sous-espace stable de u de dimension 1.
déf
2ème cas : u n’a pas de valeur propre réelle. Considérons v = u + u? . C’est un en-
domorphisme symétrique donc diagonalisable. Soit x un vecteur propre non nul de v
pour la valeur propre λ, et F = Vect(x, u(x)). Le sous-espace F est de dimension 2
(car s’il était de dimension 1, u(x) et x seraient colinéaires, donc x serait un vecteur
propre pour u, ce que l’on a justement exclu). De plus, comme uu? = Id, on a
u(u(x)) = uv(x) − uu? (x) = λu(x) − x ∈ F.
Donc F est stable par u.

Lemme 2.5.11 Soit u ∈ O(E) et F stable par u. Alors l’endomorphisme uF induit par u sur
F est dans O(F ).

Preuve : Considérons (e1 , · · · , ep ) une base orthonormale de F . Alors


   
uF (e1 ), · · · , uF (ep ) = u(e1 ), · · · , u(ep )

est encore une famille orthonormale puisque u conserve le produit scalaire. Comme chaque
u(ei ) se trouve dans F par hypothèse, il s’agit d’une base orthonormale de F . On conclut
que uF transforme une base orthonormale de F en une base orthonormale de F . C’est
donc un élément de O(F ).

Lemme 2.5.12 Soit u ∈ O(E) et F stable par u. Alors F ⊥ est stable par u.

Preuve : Soit y ∈ F ⊥ . Puisque u conserve le produit scalaire, on a


∀x ∈ F, (u(x) | u(y)) = (x | y) = 0.
Mais F est stable par u, donc uF ∈ O(F ). En particulier uF est inversible, et donc
u(F ) = F . La relation ci-dessus exprime donc que u(y) ∈ F ⊥ .

Théorème 2.5.13 (Réduction) Soit u ∈ O(E). Il existe trois entiers (p, q, r) tels que
p + q + 2r = n, et une base orthonormale de E par rapport à laquelle la matrice A de u
est du type
 
Ip 0 0 ··· 0

 0 −Iq 0 .. 
.   
cos θi − sin θi
 
A = 0
 . . .
. 
avec Ri = et θi 6≡ 0[π].
0 R1 . .  sin θi cos θi
 ..
 
.. .. 
. . . 0 
0 · · · · · · 0 Rr
58 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYMÉTRIQUES

Preuve : Le théorème se prouve par récurrence sur la dimension de E.


Il est clairement vrai pour n = 1 puisque O(E) est réduit à {− Id, Id}.
Lorsque n = 2, il y a deux cas à envisager.
• 1er cas : u est une rotation.
La proposition 2.5.6 assure alors l’existence d’une base orthonormale par rapport à
laquelle la matrice de u est du type
 
cos θ − sin θ
.
sin θ cos θ

Si θ ≡ 0[2π] (resp. θ ≡ π[2π] , cette matrice est en fait I2 (resp. −I2 ).


• 2ème cas : u est une symétrie orthogonale par rapport à une droite.
On
 peutalors trouver une base orthonormale par rapport à laquelle la matrice de u est
1 0
.
0 −1
Considérons maintenant un entier n ≥ 2, et supposons le théorème vrai pour tout espace
vectoriel euclidien de dimension p ≤ n. Soit E euclidien de dimension n + 1 et u ∈ O(E).
D’après le lemme 2.5.10, u admet un sous-espace stable F de dimension 1 ou 2. On le
choisit de dimension minimale.
• Cas où dim F = 1.
Alors F ⊥ est un sous-espace stable de u (cf lemme 2.5.12) de dimension n (voir prop.
2.2.13), et l’endomorphisme induit uF ⊥ par u sur F ⊥ est dans O(F ⊥ ) (voir lemme
2.5.12). En appliquant l’hypothèse de récurrence, on en déduit l’existence d’une base
orthonormale (f2 , · · · , fn+1 ) de E par rapport à laquelle la matrice de uF ⊥ est du type
décrit ci-dessus.
La droite F est engendrée par un vecteur propre x non nul pour la valeur propre 1
ou −1 (cf prop. 2.5.2). Si x est vecteur propre pour 1, on pose f1 = x/kxk, et la
base orthonormale (f1 , · · · , fn+1 ) fait l’affaire. Si x est vecteur propre pour −1, on pose
ei = fi+1 pour 1 ≤ i ≤ p, ep+1 = x/kxk, et ei = fi pour p + 2 ≤ i ≤ n + 1.
• Cas où dim F = 2. Alors F ⊥ est un sous-espace stable de u de dimension n − 1. L’hy-
pothèse de récurrence fournit une base orthonormale (e1 , · · · , en−1 ) de E par rapport à
laquelle la matrice de uF ⊥ est du type décrit dans l’énoncé.
Comme F est un sous-espace stable de u (non trivial) de dimension minimale, on en
déduit que u n’a pas de valeur propre réelle. Donc uF est une rotation d’angle θr+1 6≡ 0[π]
et il existe une base orthonormale (en , en+1 ) de F par rapport à laquelle la matrice de
u s’écrit
 
cos θr+1 − sin θr+1
.
sin θr+1 cos θr+1

Dans la base (e1 , · · · , en+1 ), la matrice de u est du type voulu.

Théorème 2.5.14 Soit A ∈ On (R). Alors il existe P ∈ On (R) telle que tP AP soit du
type décrit dans le théorème 2.5.13

Preuve : Il suffit d’appliquer le résultat précédent à l’endomorphisme de matrice A par


rapport à la base canonique de Rn .
2.5. RÉDUCTION DES ENDOMORPHISMES ORTHOGONAUX 59

Remarque : Un calcul facile montre que le polynôme caractéristique de la matrice


 
Ip 0 0 ··· 0

 0 −Iq 0 .. 
.   
cos θi − sin θi
 
A = 0
 . . .
. 
avec Ri = et θi 6≡ 0[π],
0 R1 . .  sin θi cos θi
 ..
 
.. .. 
. . . 0 
0 ··· ··· 0 Rr

est
r
Y
χA = (1 − X)p (1 + X)q (X 2 − 2 cos θi X + 1).
i=1

En particulier, le triplet (p, q, r) défini dans le théorème 2.5.13 est indépendant de la base choisie :
p (resp. q) est la multiplicité de la racine 1 (resp. −1) dans le polynôme caractéristique, et
2r = n − p − q (ce qui prouve que n − p − q doit être pair). On remarque au passage que tout
élément de On (R) est diagonalisable dans C, mais pas dans R !

Corollaire 2.5.15 Tout endormorphisme orthogonal u peut s’écrire comme la composée d’un
nombre fini m de symétries par rapport à des hyperplans. Ce nombre m peut être choisi inférieur
ou égal à n. Il est toujours pair si u est une rotation, toujours impair si det u = −1.

Preuve : Fixons une base orthonormale B par rapport à laquelle la matrice de u est du type
 
Ip 0 ··· ··· 0
 0 −Iq . . .
 .. 
.   
cos θi − sin θi
 
A = 0
 . .. .
..  avec Ri =

et θi 6≡ 0[π].
0 R1 sin θi cos θi
 ..
 
.. .. 
. . . 0 
0 ··· ··· 0 Rr

Posons    
Ip 0 0 Ip+q+2i−2 0 0
déf déf
D =  0 −Iq 0  et Ri =  0 Ri 0 .
0 0 I2r 0 0 I2r−2i
r
Y
En faisant des produits par blocs, on constate que A peut s’écrire A = D Ri .
i=1
Notons ri l’endomorphisme de matrice Ri par rapport à B. L’endomorphisme induit par
déf
ri sur Fi = Vect(ep+q+2i−1 , ep+q+2i ) est une rotation du plan d’angle θi . Il peut donc
s’écrire comme le produit de deux symétries du plan Fi par rapport à une droite. En
prolongeant ces deux symétries orthogonales par l’identité sur le supplémentaire orthogonal
de Fi , on conclut que ri est le produit de deux symétries par rapport à un hyperplan.
Enfin, D est le produit des q symétries par rapport à l’hyperplan orthogonal à ej avec
j ∈ {p + 1, · · · , p + q}. Au total, u est donc le produit de m = q+2r symétries orthogonales
par rapport à des hyperplans.
Enfin, comme le déterminant d’une telle symétrie est −1, on conclut que m doit être pair
si u est une rotation, et impair si det u = −1.

2.5.4 Endomorphismes orthogonaux en dimension 3


On suppose dans toute cette section que E est un espace euclidien de dimension 3.
60 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYMÉTRIQUES

Proposition 2.5.16 Soit u ∈ SO(E). Alors il existe θ ∈ [0, π], et une base orthonormale
(e1 , e2 , e3 ) par rapport à laquelle la matrice de u s’écrit
 
1 0 0
0 cos θ − sin θ .
0 sin θ cos θ

Le réel θ ne dépend pas de la base choisie, et s’appelle angle (non orienté) ou mesure
de la rotation. C’est l’unique solution dans [0, π] de l’équationa

1 + 2 cos θ = tr u.

Si θ 6= 0, le sous-espace propre E1 de u pour la valeur propre 1 est de dimension 1. On dit


que E1 est l’axe de la rotation.
a
On rappelle que tr u est la trace de la matrice de u dans une base quelconque.

Preuve : L’application du théorème 2.5.13 fournit une base orthonormale (e1 , e2 , e3 ) par
rapport à laquelle la matrice de u est du type suivant (avec θ ∈] − π, π]) :
   
1 0 0 −1 0 0
0 cos θ − sin θ ou bien  0 cos θ − sin θ .
0 sin θ cos θ 0 sin θ cos θ

La seconde matrice est exclue car est de déterminant −1.


On constate de plus que changer e3 en −e3 revient à changer θ en −θ. Comme les bases
(e1 , e2 , e3 ) et (e1 , e2 , −e3 ) son simultanément orthonormales, on peut donc toujours se
ramener au cas θ ∈ [0, π].
Enfin, la matrice ci-dessus a pour trace 1+2 cos θ. Donc θ ne dépend pas de la base choisie :
c’est l’unique solution dans [0, π] de l’équation 1 + 2 cos θ = tr u.

Proposition 2.5.17 Toute rotation u de O(E) s’écrit comme la composée de deux symétries
orthogonales par rapport à un plan. Si u n’est pas l’identité, l’axe de la rotation est l’intersection
des deux plans de symétrie.
Tout élément u ∈ O(E) de déterminant −1 s’écrit comme la composée de − Id avec une
rotation, et comme la composée de trois symétries orthogonales par rapport à un plan.

Preuve : La proposition 2.5.15 assure que toute rotation sur E (resp. élément de O(E) \
SO(E)) est composée d’au plus deux (resp. trois) symétries orthogonales par rapport à
un plan. Il est par ailleurs clair que la composée de − Id avec une antirotation est une
rotation.
Enfin, si la rotation u s’écrit u = s1 s2 avec s1 (resp. s2 ) symétrie orthogonale par rapport
au plan F1 (resp. F2 ), il est clair que F1 ∩ F2 est un sous-espace vectoriel de dimension au
moins 1 inclus dans E1 (u). Dans le cas où u 6= Id, on a dim E1 (u) = 1. Donc F1 6= F2 , et
F1 ∩ F2 est l’axe de la rotation.

Proposition 2.5.18 Les éléments de O(E) sont de trois types :


• les rotations,
• les réflexions (i.e symétries orthogonales) par rapport à un plan,
• les produits (commutatifs) d’une symétrie orthogonale s par rapport à un plan F avec une
rotation r 6= Id d’axe F ⊥ . Dans ce dernier cas, si u 6= − Id, alors F ⊥ est le sous-espace
propre de u pour la valeur propre −1.
2.5. RÉDUCTION DES ENDOMORPHISMES ORTHOGONAUX 61

Preuve : Soit u un élément de O(E) de déterminant −1 qui n’est pas une réflexion. Alors
d’après le théorème 2.5.13, il existe un réel θ 6≡ 0[2π], et une base orthonormale (e1 , e2 , e3 )
par rapport à laquelle la matrice A de u est
 
−1 0 0
A =  0 cos θ − sin θ .
0 sin θ cos θ

Si θ 6≡ π[2π] alors A 6= −I3 . On en déduit que E−1 = Re1 . De plus, pour n’importe quelle
valeur de θ, un calcul aisé montre que
     
−1 0 0 1 0 0 1 0 0 −1 0 0
A =  0 1 0 0 cos θ − sin θ = 0 cos θ − sin θ  0 1 0 .
0 0 1 0 sin θ cos θ 0 sin θ cos θ 0 0 1
| {z }| {z }
B C

B est la matrice de la réflexion par rapport au plan Vect(e2 , e3 ), alors que C est la matrice
de la rotation d’angle θ et d’axe Re1 , d’où le résultat.
62 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYMÉTRIQUES
Chapitre 3

Équations différentielles linéaires

3.1 Généralités
On se donne une fois pour toutes un intervalle I ouvert de R (c’est-à-dire que I est du type
]a, b[, ]a, +∞[, ] − ∞, b[ ou R).
00
On notera f 0 , f , · · · , f (k) les dérivées successives d’une fonction de I dans R.
On dira qu’une fonction de I dans C est dérivable si ses parties réelles et imaginaires le
sont. Idem pour les dérivées d’ordre supérieur. Enfin, une fonction de I dans Kn (avec comme
d’habitude K = R ou C) sera dite dérivable si ses composantes le sont.

Définition 3.1.1 Soit Ω un ouvert de Kn . Soit F = F (t, X) (avec X = (x1 , · · · , xn )) une


fonction continue de I × Ω dans Rn . L’expression

X 0 = F (t, X) (S)

est appelée équation différentielle (ou système différentiel) associé(e) à F . On dit que
la fonction φ définie sur I et à valeurs dans Kn est solution de l’équation différentielle associée
à F si elle est dérivable sur I et vérifie

∀t ∈ I, φ(t) ∈ Ω et φ0 (t) = F (t, φ(t)).

Définition 3.1.2 Soit Ω ouvert de Kn , et f fonction continue de I × Ω à valeurs dans R.


L’expression
x(n) = f (t, x, x0 , · · · , xn−1 ) (E)
est appelée équation différentielle scalaire d’ordre n associée à f . On dit que la fonction
ϕ définie sur I et à valeurs dans Kn est solution de l’équation différentielle scalaire associée à
f si elle est n fois dérivable sur I et vérifie

∀t ∈ I, (ϕ(t), ϕ0 (t), · · · , ϕn−1 (t)) ∈ Ω et ϕ(n) (t) = f (t, ϕ(t), ϕ0 (t), · · · , ϕ(n−1) (t).

Remarque 3.1.3 Toute équation différentielle scalaire d’ordre n peut être interprétée comme
un système de n équations différentielles. En effet, en posant y0 = x, on constate que résoudre
(E) est équivalent à résoudre
 0  
y0 y1
 ..   .. 
 .  .
 = .
 

yn−2   yn−1 
yn−1 f (t, y0 , y1 , · · · , yn−1 )

63
64 CHAPITRE 3. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES

Définition 3.1.4 On dit que le système différentiel (S) est un système linéaire si Ω = Kn
et si la fonction F est affine, c’est-à-dire s’il existe une fonction b ∈ C(I; Kn ) et une fonction
A ∈ C(I; Mn (K)) telles que

∀(t, X) ∈ I × Kn , F (t, X) = b(t) + A(t)X.

On dit que ce système linéaire est homogène si la fonction b est identiquement nulle. Le système

X 0 = A(t)X (S 0 )

est appelé système homogène associé à

X 0 = A(t)X + b(t). (S)

Définition 3.1.5 On dit que (E) est une équation différentielle linéaire scalaire d’ordre n s’il
existe une fonction b ∈ C(I; K) et n fonctions c1 , · · · , cn de C(I; K) telles que

∀(t, x1 , · · · , xn ) ∈ I × Kn , f (t, x1 , · · · , xn ) = b(t) + c1 (t)x1 + · · · + cn (t)xn .

On dit que ce système linéaire est homogène si la fonction b est identiquement nulle, et l’on
définit comme précédemment l’équation différentielle homogène (E 0 ) associée à (E).

Proposition 3.1.6 Soit (S) un système différentiel linéaire, et (S 0 ) le système homogène


associé. Soit φ0 une solution de (S). Alors φ est solution de (S) si et seulement si φ − φ0
est solution de (S 0 ).

Preuve : Si φ et φ0 vérifient (S), il est clair que la différence φ − φ0 vérifie (S 0 ).


Réciproquement, si φ − φ0 vérifie (φ − φ0 )0 = A(t)(φ − φ0 ) et φ0 vérifie φ00 = A(t)φ0 + B(t),
on a bien φ0 = A(t)φ + B(t).
Remarque : Autrement dit, la solution générale d’un système linéaire (S) s’écrit comme somme
des solutions générales du système homogène associé et d’une solution particulière.
Définition 3.1.7 On dit que (S) est un système différentiel linéaire à coefficients constants
s’il est de la forme
X 0 = AX + b(t)
avec A ∈ Mn (K) et b fonction continue à valeurs dans Kn .
On dit que (E) est une équation différentielle scalaire d’ordre n linéaire à coefficients
constants si elle est de la forme

x(n) + cn−1 x(n−1) + · · · + c0 x = b(t)

avec b fonction continue à valeurs dans Kn et (c0 , · · · , cn−1 ) ∈ Kn .

3.2 Le cas homogène à coefficients constants


3.2.1 Exponentielles de matrices
Proposition 3.2.1 Soit A ∈ Mn (K). Alors la série

X Ak
k!
k=0

converge dans Mn (K) et est appelée exponentielle de la matrice A. On note exp A ou


eA la somme de cette série.
3.2. LE CAS HOMOGÈNE À COEFFICIENTS CONSTANTS 65

Preuve : On munit l’espace vectoriel Mn (K) d’une norme N . Comme Mn (K) est de dimension
finie, la convergence de la série ne dépend pas du choix de N . Pour simplifier les calculs,
on supposera que N vérifie

(3.1) ∀(A, B) ∈ Mn (K) × Mn (K), N (AB) ≤ N (A)N (B).


déf
La norme N (A) = n maxi,j |aij | vérifie cette propriété.
L’espace vectoriel normé (Mn (K), N ) est complet puisqu’il est de dimension finie. Pour
prouver la convergence de la série ci-dessus, il suffit donc d’établir qu’elle est absolument
convergente, c’est-à-dire que
∞  k
X A
N < +∞.
k!
k=0

A partir de (3.1), une récurrence élémentaire permet de vérifier

∀k ∈ N, N (Ak ) ≤ (N (A))k .

De ce fait,
K K
Ak N (A)k
X   X
∀K ∈ N, N ≤ ≤ eN (A) ,
k! k!
k=0 k=0
d’où la convergence de la série.
Remarques :
1. Dans le cas n = 1 et K = R, on retrouve bien la définition de l’exponentielle d’un nombre
réel.
2. L’exponentielle de la matrice nulle est l’identité.

Proposition 3.2.2 Soit A ∈ Mn (K). Alors det eA = etr A . En particulier, eA est toujours
inversible.

Preuve : Quitte à travailler dans Mn (C), on peut supposer que A est trigonalisable. Notons
λ1 , · · · , λn les racines de χA comptées avec leur ordre de multiplicité. Alors d’après le
théorème 1.6.2, A est semblable à une matrice triangulaire supérieure avec λ1 , · · · , λn sur
la diagonale. Un calcul aisé montre que pour tout k ∈ N, Ak est semblable à une matrice
triangulaire supérieure avec λk1 , · · · , λkn sur la diagonale, puis que eA est semblable à une
matrice triangulaire supérieure avec eλ1 , · · · , eλn sur la diagonale. Donc
n
Y n
X 
A λi
det e = e = exp λi = etr A .
i=1 i=1

3.2.2 Calcul pratique de l’exponentielle d’une matrice


Il est en général basé sur la proposition suivante :

Proposition 3.2.3 Soit A et B deux matrices de Mn (K) qui commutent. Alors

eA+B = eA eB = eB eA .

Preuve : On renvoie à la section suivante.


Attention : Dans le cas général, il n’y a aucune raison pour que eA+B = eA eB = eB eA .
66 CHAPITRE 3. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES

Corollaire 3.2.4 Soit A ∈ Mn (K). La matrice eA est inversible et a pour inverse e−A .
Preuve : On applique la proposition précédente à B = −A, sachant que A et −A commutent
et que exp(0) = In .
Donnons maintenant des méthodes de calcul de eA .
1. Cas diagonal par blocs : Supposons que
 
T1 0 · · · 0
.. 
 0 T2 . . .

.
A=  .. . . ..
,

. . . 0
0 ··· 0 Tp
avec Ti matrice carrée de taille ni triangulaire supérieure, et n1 + · · · + np = n. Une
récurrence élémentaire permet de montrer que
 k 
T1 0 ··· 0
.. 
 0 T2k . . .

k . 
A = .

. .
.
 .. . . . . 0

0 · · · 0 Tpk
Donc 
eT1

0 ··· 0
.. .. 
eT2

A
 0 . . 
e =
 .. .. ..
.

 . . . 0 
0 ··· 0 eTp
2. Cas diagonalisable : Supposons A diagonalisable dans Mn (K). Alors il existe une ma-
trice D diagonale, et P ∈ GLn (K) telles que A = P DP −1 . On a donc pour tout k ∈ N,
Ak = P Dk P −1 d’où

X Dk  −1
eA = P P = P eD P −1 .
k!
k=0
Or le calcul de eD est immédiat :
D = diag(λ1 , · · · , λn ) =⇒ eD = diag(eλ1 , · · · , eλn ).
Remarque : Si A ∈ Mn (R) est diagonalisable dans Mn (C) mais pas dans Mn (R), on
peut toujours considérer A comme une matrice de Mn (C) pour calculer l’exponentielle de
A. Même si les calculs intermédiaires peuvent faire intervenir des nombres complexes, on
sait que le résultat final eA est une matrice à coefficients réels.
 
0 −a
Exemple : La matrice A = (avec a > 0) a pour spectre {ia, −ia}. En diagona-
a 0
lisant dans Mn (C), on montre alors que
 
A cos a − sin a
e = .
sin a cos a
3. Cas nilpotent :
Soit A matrice nilpotente d’indice p. Par définition de p, on a Ak = 0 pour k ≥ p. Donc
p−1 k
X A
eA = .
k!
k=0

Comme p ≤ n, la série définissant eA comporte au plus n termes non nuls.


3.2. LE CAS HOMOGÈNE À COEFFICIENTS CONSTANTS 67

4. Cas général :
On peut toujours considérer A comme une matrice de Mn (C) auquel cas A admet une
décomposition de Dunford : A = D+N avec D diagonalisable, N nilpotente et DN = N D.
En vertu de la proposition 3.2.3, on a donc

eA = eD+N = eD eN = eN eD .

Or eD et eN peuvent se calculer facilement grâce aux deux points précédents.

3.2.3 Systèmes différentiels homogènes à coefficients constants


Dans cette partie, on s’intéresse aux systèmes différentiels à coefficients constants :

X 0 = AX (S 0 )

avec A ∈ Mn (K).
Nous allons voir que la résolution de tels systèmes revient à calculer des exponentielles de
matrice.
Proposition 3.2.5 Soit A ∈ Mn (K). Alors l’application

R −→ Mn (K)
φ :
t 7−→ etA

est de classe C 1 et vérifie


∀t ∈ R, φ0 (t) = AetA = etA A.
Preuve : D’après la proposition 3.2.1, la fonction φ est la somme de la série de fonctions de
terme général φk (t) = tk Ak /k!. Chaque φk est de classe C 1 sur R, et

Ak
∀t ∈ R, φ00 (t) = 0 et φ0k (t) = tk−1 si k ≥ 1.
(k − 1)!
Fixons T > 0 et choisissons une norme N sur Mn (K) vérifiant (3.1). Alors on a
 k−1
∀t ∈ [−T, T ], ∀k ∈ N? , N (φ0k (t)) ≤ N (A) T N (A) /(k−1)!

donc la série k∈N φ0k est normalement convergente sur [−T, T ]. Comme la série k∈N φk
P P
converge vers φ sur [−T, T ], on en déduit que φ est de classe C 1 sur [−T, T ], et que
∞ ∞ ∞
Ak Ak−1 Ak−1
X X X 
φ0 (t) = tk−1 =A tk−1 = tk−1 A.
(k−1)! (k−1)! (k−1)!
k=1 k=1 k=1

Le réel T étant arbitraire, on obtient bien

φ0 = Aφ = φA.

Théorème 3.2.6 Soit A ∈ Mn (K) et X0 ∈ Kn . Alors le système différentiel homogène

X 0 = AX (S 0 )

admet une unique solution φ telle que φ(0) = X0 . Cette solution est définie par

∀t ∈ R, φ(t) = etA X0 .
68 CHAPITRE 3. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES

Preuve : Soit φ définie par la formule ci-dessus. Il est clair que φ(0) = X0 . De plus, en vertu
de la proposition 3.2.5, on a

φ0 (t) = AetA X0 = Aφ(t),

donc φ est solution de (S 0 ).


e = X0 . Posons θ = φe − φ et ψ(t) = e−tA θ(t).
Soit φe une autre solution de (S) telle que φ(0)
La formule de Leibniz combinée avec la proposition 3.2.5 donne
 
ψ 0 (t) = −e−tA Aθ(t)X0 + e−tA θ0 (t)X0 = e−tA θ0 (t) − Aθ(t) X0 = 0.

De plus, ψ(0) = 0. Donc ψ est la fonction nulle. Comme e−tA est une matrice inversible
e − φ(t) = 0 pour tout t ∈ R.
(cf. prop. 3.2.2), on en déduit que φ(t)

Corollaire 3.2.7 Soit A ∈ Mn (K), t0 ∈ R et X0 ∈ Kn . Alors ψ(t) = e(t−t0 )A X0 est l’unique


solution du système différentiel (S 0 ) telle que ψ(t0 ) = X0 .

Preuve : Si l’on pose φ(t) = ψ(t+t0 ) alors on constate que ψ est une solution de (S 0 ) vérifiant
ψ(t0 ) = X0 si et seulement si φ est une solution de (S) vérifiant φ(0) = X0 . Le théorème
3.2.6 assure donc le résultat.
Le théorème 3.2.6 va nous permettre de prouver la proposition 3.2.3.
Preuve de la proposition 3.2.3 : Soit donc A et B deux matrices qui commutent et
X0 ∈ Kn arbitraire. Posons φ(t) = eAt eBt X0 et ψ(t) = e(A+B)t X0 . D’après le théorème
3.2.6, ψ est l’unique solution du système
 0
X = (A + B)X,
(Σ)
X(0) = X0 .

Par ailleurs,
∀t ∈ R, φ0 (t) = AeAt eBt X0 + eAt BeBt X0 .
Comme B commute avec A, on établit facilement que B commute également avec les
puissances de tA puis avec etA . En conséquence, on a

∀t ∈ R, φ0 (t) = (A + B)eAt eBt X0 = (A + B)φ(t).

Comme φ(0) = X0 , on en déduit que φ est également solution de (Σ). Par unicité, on a
donc φ(t) = ψ(t) pour tout t ∈ R. En prenant t = 1, on conclut que eA+B = eA eB . Un
raisonnement analogue permet de montrer que eA+B = eB eA .

Définition 3.2.8 Soit (φ1 , · · · , φn ) une famille de n solutions du système différentiel (S 0 ). La


matrice de colonnes (φ1 (t), · · · , φn (t)) est appelée matrice wronskienne associée à la famille
(φ1 , · · · , φn ). Le déterminant de cette matrice, noté W (t) est appelé wronskien de la famille
(φ1 , · · · , φn ).

Lemme 3.2.9 Soit (φ1 , · · · , φn ) une famille de n solutions de (S 0 ). On a la formule

∀(t0 , t) ∈ R2 , W (t) = e(t−t0 ) tr A W (t0 ).

En particulier, la famille (φ1 (t), · · · , φn (t)) est libre pour tout t ∈ R si et seulement si il existe
t0 ∈ R tel que (φ1 (t0 ), · · · , φn (t0 )) soit libre.
3.2. LE CAS HOMOGÈNE À COEFFICIENTS CONSTANTS 69

Preuve : D’après le corollaire 3.2.7, on a φj (t) = e(t−t0 )A φj (t0 ). Donc, en utilisant la propo-
sition 3.2.2, on obtient
 
∀(t0 , t) ∈ R2 , W (t) = det e(t−t0 )A φ1 (t0 ), · · · , e(t−t0 )A φn (t0 ) ,
 
= det e(t−t0 )A (φ1 (t0 ), · · · , φn (t0 )) ,
= det(e(t−t0 )A ) det(φ1 (t0 ), · · · , φn (t0 )),
= e(t−t0 ) tr A W (t0 ).

Théorème 3.2.10 Soit A ∈ Mn (K). L’ensemble E 0 des solutions du système différentiel


(S 0 ) est un sous-espace vectoriel de dimension n de C 1 (R; Kn ).
De plus, si (X1 , · · · , Xn ) est une base de Kn et si

φi : t 7−→ etA Xi

alors la famille de fonctions (φ1 , · · · , φn ) est une base de E 0 .

Preuve : Il est clair que toute combinaison linéaire de solutions dans C 1 (R; Kn ) de X 0 = AX
est encore solution. Donc E 0 est un sous-espace vectoriel de C 1 (R; Kn ).
Soit (X1 , · · · , Xn ) une base de Kn et (φ1 , · · · , φn ) définie comme dans l’énoncé.
Comme par hypothèse, (φ1 (0), · · · , φn (0)) = (X1 , · · · , Xn ) est libre, le lemme 3.2.9 assure
que (φ1 , · · · , φn ) est libre. Donc E 0 est au moins de dimension n.
Soit ψ une solution arbitraire de (S 0 ). Il existe (α1 , · · · , αn ) ∈ Kn tel que ψ(0) = ni=1 αi Xi .
P
Par unicité de la solution de (S 0 ) valant ψ(0) en 0, on en déduit que
n
X n
X
∀t ∈ R, ψ(t) = αi etA Xi = αi φi (t).
i=1 i=1

Donc (φ1 , · · · , φn ) est génératrice et E 0 est bien de dimension n.

Proposition 3.2.11 (Solutions de (S 0 ) dans le cas complexe) Soit A ∈ Mn (C) de spectre


Sp(A) = {λ1 , · · · , λp }. Notons αi la multiplicité de la valeur propre λi . Alors les solutions de
(S 0 ) sont des fonctions du type

R −→ Cn

Pp Pαi −1 β λi t
t 7−→ i=1 β=0 ci,β t e ,

où les ci,β sont des éléments de Cn .

Preuve :  
λ ? ?···
 .. 
..
0 λ . .
1ère étape : Cas où A =  . .

..
.
. . . . ?

.
0 ··· 0 λ
Dans ce cas Sp(A) = {λ} et λ est de multiplicité n. On a A = λIn + N avec N
nilpotente (d’indice au plus n puisque N est de taille n). Comme N commute avec
λIn , on peut appliquer la proposition 3.2.3 et on trouve

etA = etλIn etN = etλ etN .


70 CHAPITRE 3. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES

Enfin, comme N est nilpotente, on a


n−1
X
etN = tβ N β /β!,
β=0

donc les coefficients de etA sont des combinaisons linéaires de termes de type tβ eλt
avec β ∈ {0, · · · , n − 1}. Il en est donc de même de la solution générale t 7→ etA X0
de (S 0 ).
 
T1 0 · · · 0
.
 0 T2 . . . .. 

2ème étape : Cas où A =   .. . . ..
 , avec Ti triangulaire supérieure de taille

. . . 0
0 · · · 0 Tp
αi ayant des λi sur la diagonale.
On a vu que, dans ce cas,
 tT 
e 1 0 ··· 0
.. 
 0 etT2 . . .

tA . 
e =  .. .. ..
.

 . . . 0 
0 ··· 0 etTp

Grâce à la première étape, on conclut que la solution générale de (S 0 ) est une combi-
naison linéaire de termes tβ eλi t avec β ∈ {0, · · · , αi − 1}.
3ème étape : Cas général.
Soit A ∈ Mn (C) de spectre Sp(A) = {λ1 , · · · , λp } avec λi de multiplicité αi . D’après
la proposition 1.9.4, il existe une matrice de changement de base P et une matrice
triangulaire T du type décrit dans l’étape précédente telles que T = P −1 AP .
Soit φ une solution de (S 0 ). Posons ψ = P −1 φ. Alors on a

ψ 0 = P −1 φ0 = P −1 Aφ = P −1 AP ψ = T ψ.

Donc ψ est solution du système homogène Y 0 = T Y étudié dans l’étape précédente.


On en déduit que les composantes de ψ(t) sont des combinaisons linéaires de termes
tβ eλi t avec β ∈ {0, · · · , αi − 1}. Comme φ(t) = P ψ(t), il en est de même des coeffi-
cients de ψ(t).

Proposition 3.2.12 (Solutions de (S 0 ) dans le cas réel) Soit A ∈ Mn (R) et {λ1 , · · · , λp }


les valeurs propres réelles de A et

{µ1 + iν1 , µ1 − iν1 , · · · , µq + iνq , µq − iνq }

ses valeurs propres complexes non réelles. Soit αj la multiplicité de λj et βk la multiplicité


(commune) de µk + iνk et µk − iνk . Alors les solutions réelles de (S 0 ) sont des fonctions du type

R −→ Rn
(
Pp Pαj −1 α eλj t +
Pq Pβk β µ t  
t 7−→ j=1 c
α=0 j,α t k=1 β=0 t e k d k,β cos(ν k t) + ek,β sin(νk t) ,

où les cj,α , les dk,β et les ek,β appartiennent à Rn .


3.2. LE CAS HOMOGÈNE À COEFFICIENTS CONSTANTS 71

Preuve : D’après la proposition 3.2.12, les solutions complexes de (S 0 ) sont du type


j −1
p αX q X
βk  
X X
φ(t) = α λj t
bj,α t e + tβ gk,β e(µk +iνk )t + hk,β e(µk −iνk )t .
j=1 α=0 k=1 β=0

Comme φ est réelle, on a φ = (φ + φ)/2. Donc l’égalité ci-dessus entraı̂ne que


j −1
p αX  q X
βk  
X bj,α +bj,α α λj t
X
β µk t g k,β +hk,β

iνk t
h
k,β +gk,β

−iνk t
φ(t) = t e + t e e + e .
2 2 2
j=1 α=0 k=1 β=0

Il est immédiat que


   
gk,β +hk,β iνk t hk,β + gk,β −iνk t
e + e = Re (gk,β +hk,β ) cos νk t+Im (hk,β −gk,β ) sin νk t.
2 2

Il ne reste plus qu’à poser

cj,α = Re bj,α , dk,β = Re (gk,β + hk,β ) et ek,β = Im (hk,β − gk,β )

et la proposition est prouvée.


Attention : La réciproque des propositions 3.2.11 et 3.2.12 est fausse en général. Une fonction
du type décrit ci-dessus n’est pas nécessairement solution de (S 0 ).

3.2.4 Équations scalaires linéaires homogènes à coefficients constants


Ce sont des équations différentielles de la forme

x(n) + cn−1 x(n−1) + · · · + c0 x = 0 (E 0 )

avec (c0 , · · · , cn−1 ) ∈ Kn .


La proposition suivante permet de ramener (E 0 ) à un système différentiel.
déf
Proposition 3.2.13 La fonction ϕ ∈ C n (R; K) est solution de (E) si et seulement si Φ =
(ϕ, ϕ0 , · · · , ϕ(n−1) ) est solution du système différentiel d’ordre n
 
0 1 0 ··· 0
 .. .. 
 0 0 1 . . 
0 .. ..
 
(3.2) X = AX avec A =  .. .. .
 . . . . 0 
 
 0 ··· ··· 0 1 
−c0 −c1 · · · −cn−2 −cn−1
déf
Preuve : Soit ϕ une solution de (E). Posons Φ = (φ, φ0 , · · · , φ(n−1) ). On a bien

∀j ∈ {0, · · · , n − 2}, Φ0j+1 = (ϕ(j) )0 = ϕ(j+1) = Φj+2 ,


n−1
X n−1
X
Φ0n = (ϕ (n−1) 0
) =ϕ (n)
=− ci ϕ (i)
=− ci Φi+1 ,
i=0 i=0

d’où le résultat.
Remarque : La matrice A n’est autre que la transposée de la matrice de Frobenius introduite
dans le chapitre 1.
72 CHAPITRE 3. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES

L’identification de (E 0 ) à un système différentiel homogène permet d’étendre la notion de


wronskien au cas des équations différentielles scalaires d’ordre n :

Définition 3.2.14 Soit (ϕ1 , · · · , ϕn ) une famille de n fonctions n − 1 fois dérivables sur R et
valeurs dans K. La matrice wronskienne associée à cette famille est

···
 
ϕ1 (t) ϕn (t)
 ϕ01 (t) ··· ϕ0n (t) 
.. .. .
 

 . . 
(n−1) (n−1)
ϕ1 (t) · · · ϕn (t)

Le wronskien correspondant est le déterminant W de cette matrice.

Comme pour les systèmes différentiels, on prouve aisément le résultat suivant.

Lemme 3.2.15 Si (ϕ1 , · · · , ϕn ) est une famille de solutions de (E 0 ) sur I alors le wronskien
associé W s’annule sur I si et seulement si il s’annule en un point de I. Dans le cas où il ne
s’annule pas, on dit que la famille (ϕ1 , · · · , ϕn ) est libre.

Théorème 3.2.16 1. L’ensemble des solutions de (E 0 ) est un sous-espace vectoriel de di-


mension n de C n (R; Kn ).
2. Si t0 ∈ R et (x0 , · · · , xn−1 ) ∈ Kn alors (E 0 ) admet une unique solution ϕ telle que

∀i ∈ {0, · · · , n − 1}, ϕ(i) (t0 ) = xi .

Preuve : Les deux résultats sont des conséquences immédiates du théorème 3.2.6 et de
l’équivalence entre équations différentielles scalaires d’ordre n et systèmes différentiels
d’ordre n donnée dans la proposition 3.2.13.

Définition 3.2.17 On appelle équation caractéristique associé à (E 0 ) l’équation

rn + cn−1 rn−1 + · · · + c0 = 0.

Remarque : Au signe près, la fonction r 7→ rn + cn−1 rn−1 + · · · + c0 n’est autre que le polynôme
caractéristique de la matrice définie en (3.2).

Proposition 3.2.18 (Base de solutions de (E 0 ) : cas complexe) Soit {λ1 , · · · , λp }


l’ensemble des racines complexes de l’équation caractéristique associée à (E 0 ). Notons αi
la multiplicité de la racine λi . Alors la famille de fonctions

φi,β : t 7−→ tβ eλi t avec i ∈ {1, · · · , p} et β ∈ {0, · · · , αi − 1},

est une base de l’ensemble E 0 des solutions complexes de (E 0 ).

Preuve : En considérant le système différentiel homogène associé à (E 0 ), on établit que E 0


est un sous-espace vectoriel de dimension n de C n (I; C). De plus, d’après la proposition
3.2.11, toutes les solutions de (E 0 ) sont des combinaisons linéaires des φi,β . Ces fonctions
sont au nombre de n. Elles constituent donc une base de E 0 .
3.3. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES GÉNÉRALES 73

Proposition 3.2.19 (Base de solutions de (E 0 ) : cas réel) Notons

{λ1 , · · · , λp , µ1 +iν1 , µ1 −iν1 , · · · , µq +iνq , µq −iνq } avec λi ∈ R, µi ∈ R, νi ∈ R∗

l’ensemble des racines réelles et complexes de l’équation caractéristique associée à (E 0 ).


Soit αj la multiplicité de la racine λj , et βk la multiplicité commune des racines µk + iνk
et µk − iνk . Alors la famille de fonctions constituée de

t 7−→ tpj eλj t , t 7−→ tqk eµk t cos(νk t) et t 7−→ tqk eµk t sin(νk t),

avec j ∈ {1, · · · , p}, k ∈ {1, · · · , q}, pk ∈ {0, · · · , αk − 1} et qk ∈ {0, · · · , βk − 1} est une


base de l’ensemble E 0 des solutions réelles de (E 0 ).

Preuve : On suit la même démarche que dans le cas complexe mais on utilise cette fois-ci la
proposition 3.2.12.
Exemple : Équations différentielles scalaires d’ordre 2 à coefficients réels constants.
Soit (b, c) ∈ R2 . On cherche les solutions réelles de

x00 + bx0 + cx = 0. (E 0 )

Pour cela, on va appliquer la proposition ci-dessus.


L’équation caractéristique associée à (E 0 ) est r2 + br + c = 0. C’est une équation du second
déf déf p
degré de discriminant ∆ = b2 − 4c. Notons δ = |∆|.
Cas ∆ > 0 : L’équation caractéristique a deux racines réelles distinctes

−b − δ −b + δ
λ1 = et λ2 = ,
2 2

et la solution générale de (E 0 ) s’écrit ϕ(t) = Aeλ1 t + Beλ2 t avec (A, B) ∈ R2 .


Cas ∆ = 0 : L’équation caractéristique a pour racine double λ = −b/2 et la solution générale
de (E 0 ) s’écrit ϕ(t) = (A + Bt)eλt avec (A, B) ∈ R2 .
Cas ∆ < 0 : L’équation caractéristique a deux racines complexes conjuguées distinctes

−b − iδ −b + iδ
λ− = et λ+ = ,
2 2
b
 
et la solution générale s’écrit ϕ(t) = e− 2 t A cos( 2δ t) + B sin( 2δ t) avec (A, B) ∈ R2 .

3.3 Équations différentielles linéaires générales


3.3.1 Équations différentielles linéaires scalaires d’ordre 1
Théorème 3.3.1 Soit a une fonction numérique continue sur un intervalle ouvert I de
R, et soit t0 ∈ I. L’ensemble des solutions de l’équation différentielle scalaire homogène

x0 = a(t)x (E 0 )

est le sous-espace vectoriel de dimension 1 de C(I; R) engendré par la fonction


Rt
a(τ ) dτ
t 7→ e t0 .
74 CHAPITRE 3. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES

Preuve : Soit ϕ une fonction dérivable sur I. Posons


Rt
déf − a(τ ) dτ
ψ(t) = ϕ(t)e t0 .
Rt
− a(τ ) dτ
Un calcul immédiat donne ψ 0 (t) = e t0 (ϕ0 (t) − a(t)ϕ(t)). Donc ϕ est solution de
(E 0 ) si et seulement si ψ 0 est la fonction nulle, c’est-à-dire ψ constante, ce qui donne le
résultat voulu.
Remarque : On observe que si ϕ solution de (E 0 ) n’est pas la fonction nulle, alors elle ne
s’annule jamais. De ce fait, elle est alors solution de x0 /x = a(t), qui peut s’intégrer “à vue”
puisque x0 /x est la dérivée de log |x|.
Théorème 3.3.2 Soit a et b deux fonctions numériques continues sur un intervalle ouvert I de
R, t0 ∈ I et x0 ∈ R. Alors l’équation différentielle scalaire d’ordre 1

x0 = a(t)x + b(t) (E)

admet une unique solution prenant la valeur x0 en t0 . Il s’agit de la fonction



 I −→ R  Z t Rτ 
ϕ :
Rt
t0 a(τ ) dτ − t a(τ 0 ) dτ 0
 t −
7 → e x0 + e 0 b(τ ) dτ .
t0

Preuve : Soit ϕ une fonction dérivable sur I. Observons que


 
d − t a(τ ) dτ
R
− t a(τ ) dτ
R  
ϕ(t)e t0 = e t0 ϕ0 (t) − a(t)ϕ(t) .
dt
Donc ϕ est solution de (E) si et seulement si
 
d − t a(τ ) dτ
R
− t a(τ ) dτ
R
ϕ(t)e t0 = e t0 b(t).
dt
Cette égalité s’intègre en
Rt Z t Rτ
− a(τ ) dτ − a(τ 0 ) dτ 0
ϕ(t)e t0 =K+ e t0 b(τ ) dτ.
t0

La condition ϕ(t0 ) = x0 est donc vérifiée si et seulement si K = x0 .

3.3.2 Systèmes différentiels linéaires


Cette section est consacrée à l’étude des systèmes différentiels linéaires d’ordre n généraux :

X 0 = A(t)X + B(t), (S)

où les coefficients de A et de B sont des fonctions continues. Nous allons d’abord prouver que
tout système de ce type admet des solutions. Pour prouver l’unicité de la solution prenant une
valeur donnée en t0 , nous utiliserons le lemme suivant :

Lemme 3.3.3 (de Gronwall) Soit a et ϕ deux fonctions continues et positives sur l’intervalle
I de R, t0 ∈ I et x0 ∈ R+ . Supposons que
Z t

(3.3) ∀t ∈ I, ϕ(t) ≤ x0 + a(τ )ϕ(τ ) dτ .

t0

Alors on a Rt
| a(τ ) dτ |
∀t ∈ I, ϕ(t) ≤ x0 e t0 .
3.3. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES GÉNÉRALES 75

Preuve : Soit t ∈ I. Quitte à échanger le rôle de t0 et de t, on peut supposer que t0 ≤ t.


Posons Z t
ψ(t) = a(τ )ϕ(τ ) dτ.
t0

On a ψ 0 (t) = a(t)ϕ(t) ≤ a(t)x0 + a(t)ψ(t). Posons


Rt
− a(τ ) dτ
Ψ(t) = e t0 ψ(t).

D’après l’inégalité ci-dessus, on a


Rt
− t a(τ ) dτ
  R
− a(τ ) dτ
Ψ0 (t) = e t0 ψ 0 (t) − a(t)ψ(t) ≤ a(t)e t0 x0 .

Comme Ψ(t0 ) = 0, intégrer cette inégalité entre t0 et t donne


 
− tt a(τ ) dτ
R
Ψ(t) ≤ x0 1 − e 0 ,

Rt
a(τ ) dτ
puis, après multiplication par e t0 ,
Z t  R
t

a(τ ) dτ
ψ(t) = a(τ )ϕ(τ ) dτ ≤ x0 e t0 −1 .
t0

En injectant cette inégalité dans (3.3), on trouve le résultat souhaité.


Nous sommes maintenant en mesure de prouver le théorème de Cauchy-Lipschitz.

Théorème 3.3.4 (de Cauchy-Lipschitz) Soit I un intervalle ouvert de R, t0 ∈ I et X0 ∈ Kn .


Soit A une fonction continue de I à valeurs dans Mn (K) et B une fonction continue de I à
valeurs dans Kn . Alors le système différentiel (S) admet une unique solution φ de classe C 1 telle
que φ(t0 ) = x0 .

Preuve : Munissons Kn d’une norme k · k et définissons sur Mn (K) la norme suivante :


déf
|kA|k = sup kAXk.
{X∈Kn , kXk=1}

déf
1. Unicité. Considérons deux solutions φ et ψ de (S). Alors θ = φ − ψ est solution du
système homogène associé à (S), et θ(t0 ) = 0. De ce fait, on a
Z t
θ(t) = A(τ )θ(τ ) dτ,
t0

déf
donc a(t) = kθ(t)k vérifie
Z t

a(t) ≤ |kA(τ )|ka(τ ) dτ .

t0

Le lemme de Gronwall assure donc que a ≡ 0 sur I, c’est-à-dire φ ≡ ψ.


2. Existence. On va montrer l’existence d’une fonction φ continue sur I telle que
Z t 
(3.4) ∀t ∈ I, φ(t) = x0 + A(τ )φ(τ ) + B(τ ) dτ.
t0
76 CHAPITRE 3. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES

Il est alors clair que φ est de classe C 1 (car le second membre l’est), vérifie (E) et
φ(t0 ) = x0 .
Pour résoudre (3.4), on va construireR par récurrence une suite (φn )n∈N de solutions
t
approchées. On choisit φ0 (t) = x0 + t0 B(τ ) dτ , puis une fois φn construite, on pose
Z t 
(3.5) ∀t ∈ I, φn+1 (t) = x0 + A(τ )φn (τ ) + B(τ ) dτ.
t0

On obtient ainsi une suite de fonctions continues sur I. Pour montrer la convergence
de cette suite, on borne la différence entre deux termes consécutifs. On a pour tout
n ∈ N? ,
Z t  
∀t ∈ I, (φn+1 − φn )(t) = A(τ ) φn (τ ) − φn−1 (τ ) dτ.
t0

Donc Z t

kφn+1 (t) − φn (t)k ≤ |kA(τ )|k kφn (τ ) − φn−1 (τ )k dτ .
t0

Plaçons-nous sur un intervalle fermé borné [a, b] ⊂ I arbitraire. Il existe alors un


M ≥ 0 tel que |kA(τ )|k ≤ M pour tout τ ∈ [a, b]. En conséquence, l’inégalité ci-
dessus entraı̂ne
Z t

∀t ∈ [a, b], kφn+1 (t) − φn (t)k ≤ M kφn (τ ) − φn−1 (τ )k dτ .
t0

Soit K = supt∈[a,b] kφ1 (t) − φ0 (t)k. Une récurrence facile permet d’établir que

(M |t−t0 |)n
∀t ∈ [a, b], kφn+1 (t) − φn (t)k ≤ K .
n!

On en déduit que la suite (φn )n∈N vérifie le critère de Cauchy uniforme sur [a, b].
Elle converge donc vers une fonction φ continue sur [a, b]. Comme [a, b] était un
intervalle arbitraire inclus dans I, on conclut que (φn )n∈N converge simplement vers
une fonction φ continue sur I tout entier.
En faisant tendre n vers l’infini dans (3.5), on constate que φ vérifie (3.4).

Remarque : La donnée d’une équation différentielle et d’une contrainte en t0 du type X(t0 ) =


X0 (appelée donnée ou condition initiale en t0 ) s’appelle problème de Cauchy. Le théorème ci-
dessus établit donc l’existence et unicité d’une solution au problème de Cauchy pour les équations
différentielles linéaires. On peut prouver un résultat similaire pour des équations différentielles
beaucoup plus générales (voir le cours de licence).

La notion de wronskien s’étend sans difficulté aux systèmes linéaires à coefficients variables,
et permet de caractériser les familles libres :

Proposition 3.3.5 Soit (φ1 , · · · , φn ) une famille de n solutions du système différentiel X 0 =


A(t)X. La matrice de colonnes (φ1 (t), · · · , φn (t)) est appelée matrice wronskienne associée
à (φ1 , · · · , φn ) et son déterminant W (t) est appelé wronskien de la famille (φ1 , · · · , φn ).
La famille (φ1 (t), · · · , φn (t)) est libre pour tout t ∈ I si et seulement si il existe t0 ∈ I tel
que W (t0 ) 6= 0.
3.3. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES GÉNÉRALES 77

Preuve : Supposons (φ1 (t), · · · , φn (t)) libre pour tout t ∈ I. Alors le déterminant de cette
famille qui n’est autre que W ne s’annule jamais. Réciproquement, supposons W (t0 ) 6= 0
et considérons t1 ∈ I et (λ1 , · · · , λn ) ∈ Kn tels que
n
X
λi φi (t1 ) = 0.
i=1
Pn
Notons Ψ = i=1 λi φi . Alors Ψ est solution de X 0 = A(t)X et vérifie Ψ(t1 ) = 0. La fonc-
tion nulle satisfait ces deux conditions. Par unicité des solutions des systèmes différentiels
linéaires (voir th. 3.3.4), on conclut que Ψ ≡ 0 sur I entier. En particulier
n
X
λi φi (t0 ) = 0,
i=1

et donc tout les λi sont nuls puisque det(φ1 (t0 ), · · · , φn (t0 )) 6= 0 par hypothèse.

Théorème 3.3.6 Sous les hypothèses du théorème précédent, l’ensemble E 0 des solutions du
système homogène
X 0 = A(t)X (S 0 )
est un sous-espace vectoriel de dimension n de C 1 (I; Kn ). De plus, si (X1 , · · · , Xn ) est une base
de Kn , t0 ∈ I et φi , l’unique solution de (S 0 ) telle que φi (t0 ) = Xi , alors (φ1 , · · · , φn ) est une
base de E 0 .

Preuve : Elle est identique à celle du théorème 3.2.10. Il suffit d’utiliser le lemme 3.3.5 au
lieu du lemme 3.2.9.

3.3.3 La méthode de variation des constantes


Intéressons-nous maintenant à la résolution des systèmes différentiels linéaires (S) non ho-
mogènes. On sait déjà que la solution générale d’un tel système s’obtient comme somme d’une
solution particulière et de la solution générale du système homogène (S 0 ) associé.
Si l’on dispose d’une base (φ1 , · · · , φn ) de l’ensemble des solutions de (S 0 ), la méthode de
variation des constantes va nous permettre de déterminer une solution particulière.
Lemme 3.3.7 Soit (φ1 , · · · , φn ) une famille de fonctions de C 1 (I; Kn ) telle que, pour tout t ∈ I,
(φ1 (t), · · · , φn (t)) soit une famille libre. Soit f ∈ C 1 (I; Kn ). Alors il existe un unique n-uplet de
fonctions (u1 , · · · , un ) de C 1 (I; K) tel que
n
X
∀t ∈ I, f (t) = ui (t)φi (t).
i=1

Preuve : Pour tout t ∈ I, la famille (φ1 (t), · · · , φn (t)) est une base de Kn . Donc il existe un
unique n-uplet (u1 (t), · · · , un (t)) d’éléments de K tel que
n
X
f (t) = ui (t)φi (t).
i=1

Notons M (t) la matrice de colonnes (φ1 (t), · · · , φn (t)). Les fonctions φi sont de classe C 1
donc l’application ∆ = det M (qui est un polynôme par rapport aux coefficients des φi ) est
aussi C 1 . Par hypothèse, cette application ne s’annule pas sur I. En utilisant la formule

[M (t)]−1 = t Com(M (t))/∆(t),


78 CHAPITRE 3. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES

on conclut que t 7→ [M (t)]−1 est C 1 sur I. Comme


   
u1 (t) f1 (t)
 ..  −1  . 
 .  = [M (t)]  ..  ,
un (t) fn (t)

les fonctions ui sont bien de classe C 1 .

Théorème 3.3.8 Soit (φ1 , · · · , φn ) une base de solutions de (S 0 ) etPf ∈ C 1 (I; Kn ). Notons
n
(u1 , · · · , un ) la famille de fonctions de C 1 (I; K) telle que f = i=1 ui φi . Alors f est
solution de (S) si et seulement si
n
X
∀t ∈ I, u0j (t)φj (t) = B(t).
j=1

Preuve
Pn : Soit donc f ∈ C 1 (I; Kn ) et (u1 , · · · , un ) la famille de fonctions telle que f =
j=1 uj φj donnée par le lemme précédent. Alors f est solution de (S) si et seulement si

n
X 0 n
X 
uj φj =A uj φj + B.
j=1 j=1

En utilisant la formule de Leibniz, on voit que l’égalité ci-dessus se récrit


n
X n
X n
X  
u0j φj + uj φ0j = uj Aφj + B.
j=1 j=1 j=1

Or par hypothèse φ0j = Aφj donc f est solution de (S) si et seulement si


n
X
u0j φj = B.
j=1

Remarque : La connaissance d’une base de solutions de (S 0 ) permet donc de résoudre (S)


pourvu que l’on sache intégrer les u0j . On dit que la méthode de variation de la constante permet
de résoudre les systèmes linéaires à quadrature près.

3.3.4 Équations différentielles scalaires d’ordre quelconque


Il s’agit d’équations différentielles du type

x(n) + cn−1 (t)x(n−1) + · · · + c0 (t)x = b(t), (E)

avec c0 , c1 , · · · , cn−1 et b fonctions continues sur I et à valeurs dans K.


La proposition 3.2.13 se généralise aisément à des équations différentielles linéaires à coeffi-
cients variables. On en déduit le résultat fondamental suivant :

Théorème 3.3.9 Soit t0 ∈ I et (x0 , · · · , xn−1 ) un n-uplet de Kn . L’équation différentielle (E)


admet une unique solution ϕ telle que ϕ(i) (t0 ) = xi pour tout i ∈ {0, · · · , n − 1}.
De plus, l’ensemble E 0 des solutions de l’équation différentielle homogène (E 0 ) associée à (E)
est un sous-espace vectoriel de dimension n de C n (I; K).
3.3. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES GÉNÉRALES 79

Preuve : On utilise l’équivalence équation différentielle/système différentiel, et on applique


le théorème de Cauchy-Lipschitz et le théorème 3.3.6.
Donnons maintenant la définition de wronskien associé à une famille de solutions d’une équation
différentielle scalaire homogène (E 0 ).
Proposition 3.3.10 Soit (ϕ1 , · · · , ϕn ) une famille de n solutions de l’équation différentielle
(E 0 ). La matrice
···
 
ϕ1 (t) ϕ2 (t) ϕn (t)
 ϕ01 (t) ϕ02 (t) ··· ϕ0n (t) 
.. .. .. ..
 
 
 . . . . 
(n−1) (n−1) (n−1)
ϕ1 (t) ϕ2 (t) · · · ϕn (t)
est appelée matrice wronskienne associée à (ϕ1 , · · · , ϕn ). Le déterminant de cette matrice,
noté W (t) est appelé wronskien de la famille (ϕ1 , · · · , ϕn ). Le wronskien s’annule sur I tout
entier si et seulement si il s’annule en un point de I. S’il ne s’annule pas, (ϕ1 , · · · , ϕn ) est une
base de l’ensemble des solutions.
Preuve : Résulte encore de l’équivalence équation différentielle/système différentiel.
Comme dans le cas des systèmes, la connaissance d’une base de solutions (ϕ1 , · · · , ϕn ) de
l’équation différentielle homogène (E 0 ) associée à (E) permet de résoudre (E) (à n quadratures
près). Pour cela, on utilise la méthode de variation des constantes.
D’après le lemme 3.3.7, si f ∈ C n (I; K), il existe n fonctions ui de C 1 (I; K) telles que

 f = u 1 ϕ1 + u 2 ϕ2 + · · · + u n ϕn ,
 f0 = u1 ϕ01 + u2 ϕ02 + · · · + un ϕ0n ,


.. .. .. ..

 . . . .
(n−1) (n−1) (n−1)

 (n−1)
f = u 1 ϕ1 + u 2 ϕ2 + · · · + u n ϕn .

On en déduit alors la proposition suivante :

Théorème 3.3.11 Soit (ϕ1 , · · · , ϕn ) une base de solutions de (E 0 ) et f ∈ C n (I; K). Alors
et seulement si il existe une famille (u1 , · · · , un ) de n fonctions de
f est solution de (E) si P
C (I; K) telles que f = nj=1 uj ϕj et vérifiant pour tout t ∈ I le système linéaire suivant
1

 Pn
0

 j=1 uj (t)ϕj (t) = 0,
n
u0 (t)ϕ0 (t) = 0,

 P
j=1 j j

 ..........................
 Pn u0 (t)ϕ(n−1) (t) = b(t).

j=1 j j

3.3.5 Application au cas des coefficients constants


Dans le cas particulier où le système différentiel considéré est à coefficients constants, on
dispose d’une formule explicite donnant toutes les solutions :
Proposition 3.3.12 Soit t0 ∈ I, X0 ∈ Kn et B ∈ C(I; Kn ). Alors le système différentiel

X 0 = AX + B(t) (S)

admet une unique solution φ valant X0 en t0 :


Z t
(3.6) ∀t ∈ I, φ(t) = e(t−t0 )A X0 + e(t−s)A B(s) ds.
t0
80 CHAPITRE 3. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES

Preuve : D’après le théorème 3.3.4, le système (S) admet une unique solution définie sur
I entier. Pour déterminer cette solution φ, on utilise la méthode de variation de la
constante. Sachant que les solutions de (S 0 ) sont du type t 7→ etA Y0 avec Y0 ∈ Kn , on
écrit
φ(t) = etA Y (t).

Comme l’application t 7→ etA ainsi que son inverse t 7→ e−tA sont de classe C 1 , Y et φ sont
simultanément de classe C 1 . De plus

φ0 (t) − Aφ(t) = AetA Y (t) + etA Y 0 (t) − AetA Y (t) = etA Y 0 (t),

donc φ est solution de S si et seulement si

∀t ∈ I, Y 0 (t) = e−tA B(t),

donc si et seulement si il existe Y0 ∈ Kn tel que


Z t
∀t ∈ I, Y (t) = Y0 + e−sA B(s) ds.
t0

Comme de plus Y0 = Y (t0 ) = e−t0 A φ(t0 ) = e−t0 A X0 , on en déduit la formule (3.6).


A titre d’exemple, donnons une méthode de résolution des systèmes différentiels dont le second
membre est une “exponentielle-polynôme”.

Proposition 3.3.13 Considérons un système différentiel

X 0 = AX + R(t)eρt (S)

tel que les composantes de R soient des polynômes. Soit d le degré maximal des Ri .
Alors (E) admet une solution du type φ(t) = P (t)eρt où P est un polynôme tel que
• deg P = d si ρ n’est pas valeur propre de A,
• deg P = d + α si ρ est valeur propre de multiplicité α de A.

Preuve : D’après la proposition 3.2.11, les composantes des solutions du système homogène
associé à (S) sont des combinaisons linéaires des fonctions t 7→ tβ eλi t avec λi valeur propre
de A de multiplicité αi , et β ≤ αi − 1.
Comme les colonnes de etA sont elles-mêmes des solutions de (S 0 ), les coefficients de etA
sont aussi des sommes de fonctions 7→ tβ eλi t avec β ≤ αi − 1. La formule (3.6) avec t0 = 0
R t t(t−s)A
et X0 = 0 nous assure que t 7→ 0 e R(s)eρs ds est une solution particulière de (S).
Les coefficients de e(t−s)A R(s) sont des combinaisons linéaires d’expressions du type (t −
s)β eλi (t−s) eρs sk avec k ≤ d. En développant, on trouve une somme de termes du type

tγ sk+β−γ eλi t e(ρ−λi )s avec γ ≤ β.

Intégrer cette expression sur [0, t] donne des termes du type

tk+β+1 eρt

avec k ≤ d, β ≤ αi − 1, ce qui achève la preuve du résultat.


Remarque : Pour déterminer les coefficients du polynôme P , on procède par identification.
3.3. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES GÉNÉRALES 81

Pour les équations différentielles d’ordre n, on a :

Proposition 3.3.14 Considérons une équation différentielle du type suivant :

x(n) + cn−1 x(n−1) + · · · + c0 x = R(t)eρt (E)

avec R polynôme. Alors (E) admet une solution du type ϕ(t) = P (t)eρt avec P polynôme tel que
• deg P = deg R si ρ n’est pas racine de l’équation caractéristique associée à (E),
• deg P = deg R + α si ρ est racine de multiplicité α de l’équation caractéristique.

Remarque importante : Bien que l’on dispose d’une formule explicite donnant la solution
générale des systèmes différentiels à coefficients constants, il est souvent plus rapide d’utiliser
la méthode de variation de la constante donnée par le théorème 3.3.8 pour déterminer une
solution particulière. En effet, calculer une exponentielle de matrice est rarement immédiat !
Cette remarque est également valable pour les équations différentielles à coefficients constants.

3.3.6 Utilisation des développements en série entière


Rappels : Soit (an )n∈N une suite réelle ou complexe. La série de terme général an tn avec t réel
est appelée série entière associée à la suite (an )n∈N .
Si s et t sont tels que |s| ≤ |t| alors
• P∞
P n
P∞ n
n=0 an t converge entraı̂neP n=0 an s converge,
∞ n ∞ n
• n=0 an s diverge entraı̂ne n=0 an t diverge.
La borne supérieure R de l’ensemble des |t| avec t tel que la série ∞ n
P
n=0 an t converge est appelé
rayon de convergence de la série. C’est un élément de R+ ∪ {+∞}.
Si R > 0, la somme de la série, c’est-à-dire la fonction f définie sur ] − R, R[ par

X
f (t) = an tn ,
n=0

est alors de classe C ∞ (i.e indéfiniment dérivable) et vérifie



X
(k)
(3.7) ∀k ∈ N, ∀t ∈]R, R[, f (t) = n(n − 1) · · · (n − k + 1)an tn−k .
n=k

Réciproquement, on dit qu’une P fonction f d’une variable réelle est développable en série entière
s’il existe une série entière an tn de rayon de convergence non nul dont f est la somme.

L’utilisation des développements en série entière peut permettre de trouver des solutions
particulières des équations différentielles du type

cn (t)x(n) + cn−1 (t)x(n−1) + · · · + c0 (t)x = b(t) (E)

lorsque les fonctions ci et b sont elles-mêmes développables en série entière. En pratique, il vaut
mieux que ces fonctions soient des polynômes.
On cherche alors une solution particulière f de (E) sous la forme d’une série entière

X
f (t) = an tn
n=0

qu’on injecte dans (E) en utilisant les formules de dérivation (3.7).


82 CHAPITRE 3. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES

En regroupant tous les termes de même puissance, on se retrouve alors avec une relation du
type

X
bn tn = 0,
n=0

où chaque bn est combinaison linéaire de coefficients ap .


Par unicité du développement en série entière, la suite (bn )n∈N est nulle. Cela donne des
relations entre les coefficients an et permet, dans les cas favorables, de les
Pcalculer explicitement.
Bien sûr la démarche n’est valable que si le rayon de convergence de n
an t n’est pas nul. Il
convient donc, une fois connue la suite (an )n∈N , de vérifier que le rayon de convergence est bien
strictement positif.
Attention : En général, cette méthode ne donne pas toutes les solutions de (E). Elle ne
fournit que celles qui sont développables en série entière.
Bibliographie

[1] J.-M. Arnaudiès et H. Fraysse : Cours de mathématiques 1, Algèbre, Dunod.


[2] G. Christol, P. Pilibossian et S. Yammine : Algèbre 2, Ellipses.
[3] R. Danchin : Cours d’algèbre linéaire, MIAS1.
http ://www.univ-paris12.fr/www/cmup/labos/mias/mias.html.
[4] J. Dixmier : Cours de mathématiques du premier cycle, Gauthier-Villars.
[5] B. Dupont : Algèbre pour les sciences économiques, U-Flash, Armand Colin.
[6] F. Liret et D. Martinais : Mathématiques pour le DEUG, Algèbre et géométrie, 2ème année,
Dunod.

83
Index

Adjoint, 48 quadratique, 39

Base Gram–Schmidt, 44
adaptée, 7
orthonormale, 43 Homogène, 64
Homothétie, 6
Changement de base, 6
Idéal, 25
Décomposition Identité, 6
de Dunford, 32 Identité du parallélogramme, 42
Diagonalisable, 15 Indice de nilpotence, 10, 11
Distance, 47 Inégalité
Dual, 48 de Cauchy-Schwarz, 41, 42
triangulaire, 43
Endomorphisme
Involution, 6
adjoint, 48
Isométrie, 50
antisymétrique, 49
diagonalisable, 15 Kronecker, 43
induit, 7
nilpotent, 10 Lemme
orthogonal, 49 de Gronwall, 74
symétrique, 49 des noyaux, 28
trigonalisable, 18
Équation Matrice
caractéristique, 72 antisymétrique, 50
différentielle, 63 compagnon, 13
linéaire, 64 d’un endomorphisme, 6
scalaire, 63 d’une forme bilinéaire, 38
Espace définie négative, 41
euclidien, 42 définie positive, 41
Exponentielle de matrice, 64 de Frobenius, 13
de passage, 6
Famille de rotation, 54
orthogonale, 43 diagonale, 5
orthonormale, 43 diagonalisable, 15
Forme identité, 6
bilinéaire, 37 négative, 41
définie négative, 41 nilpotente, 11
définie positive, 41 non dégénérée, 41
négative, 41 orthogonale, 50
non dégénérée, 41 par blocs, 6
positive, 41 positive, 41
symétrique, 39 symétrique, 39, 50
polaire, 39 trigonalisable, 18

84
INDEX 85

wronskienne, 68, 72, 76 de réduction simultanée, 29


Matrices
congrues, 39 Valeur
semblables, 6 propre, 8, 10
Morphisme Variation des constantes, 77
d’algèbre, 22 Vecteur
Multiplicité, 15 propre, 8, 11

Nilpotent, 10 Wronskien, 68, 72, 76


Norme, 43

Orthogonal, 40
Orthonormalisation, 44

Polynôme
annulateur, 23
caractéristique, 11
d’endomorphisme, 21
de matrice, 22
minimal, 25
unitaire, 25
Produit
scalaire, 42
canonique, 42
Projecteur, 6
orthogonal, 47
Pythagore, 43

Rang d’une forme bilinéaire, 38


Rayon de convergence, 81
Réflexion, 55
Rotation, 54
d’angle θ, 56

Série entière, 81
Somme
directe, 6
Sous-espace
caractéristique, 30
propre, 8
stable, 7
Spectre, 8, 10
Symétrie, 6
orthogonale, 55
Système différentiel, 63
linéaire, 64

Théorème
de réduction simultanée, 53
de Cauchy-Lipschitz, 75
de Cayley-Hamilton, 24
de Pythagore, 43