Vous êtes sur la page 1sur 85

Cours dalg`ebre lineaire

MIAS2, deuxi`eme semestre


Raphael Danchin
Annee 2004-2005
2
Table des mati`eres
1 Reduction des endomorphismes 5
1.1 Rappels et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Valeurs propres, vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Le cas des endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Le cas des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Polynome caracteristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5 Endomorphismes diagonalisables . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.1 Resultats theoriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.2 Methode pratique de diagonalisation . . . . . . . . . . . . . . . . . . . . . 18
1.6 Endomorphismes trigonalisables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.7 Polynomes dendomorphismes et de matrices . . . . . . . . . . . . . . . . . . . . 21
1.8 Polynome minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.9 Sous-espaces caracteristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2 Espaces euclidiens et endomorphismes symetriques 37
2.1 Formes bilineaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.1.1 Generalites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.1.2 Formes bilineaires symetriques . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2 Espaces euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2.1 Generalites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2.2 Projections orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.3 Adjoint dun endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.4 Reduction des endomorphismes symetriques . . . . . . . . . . . . . . . . . . . . . 51
2.5 Reduction des endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . 54
2.5.1 Generalites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.5.2

Etude de O
2
(R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.5.3 Reduction des endomorphismes orthogonaux . . . . . . . . . . . . . . . . 57
2.5.4 Endomorphismes orthogonaux en dimension 3 . . . . . . . . . . . . . . . . 59
3

Equations dierentielles lineaires 63
3.1 Generalites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.2 Le cas homog`ene `a coecients constants . . . . . . . . . . . . . . . . . . . . . . . 64
3.2.1 Exponentielles de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.2.2 Calcul pratique de lexponentielle dune matrice . . . . . . . . . . . . . . 65
3.2.3 Syst`emes dierentiels homog`enes `a coecients constants . . . . . . . . . . 67
3.2.4

Equations scalaires lineaires homog`enes `a coecients constants . . . . . . 71
3.3

Equations dierentielles lineaires generales . . . . . . . . . . . . . . . . . . . . . . 73
3.3.1

Equations dierentielles lineaires scalaires dordre 1 . . . . . . . . . . . . 73
3.3.2 Syst`emes dierentiels lineaires . . . . . . . . . . . . . . . . . . . . . . . . 74
3
4 TABLE DES MATI
`
ERES
3.3.3 La methode de variation des constantes . . . . . . . . . . . . . . . . . . . 77
3.3.4

Equations dierentielles scalaires dordre quelconque . . . . . . . . . . . . 78
3.3.5 Application au cas des coecients constants . . . . . . . . . . . . . . . . . 79
3.3.6 Utilisation des developpements en serie enti`ere . . . . . . . . . . . . . . . 81
Bibliographie 83
Chapitre 1
Reduction des endomorphismes
Motivation
Point de vue matriciel
Transformer une matrice carree A en une matrice semblable B la plus simple possible.
Dans la situation ideale, la matrice B sera diagonale, et on dira alors que A est diagonalisable.
Dans les cas moins favorables, on pourra seulement transformer A en une matrice B trian-
gulaire (et on dira que A est trigonalisable) voire triangulaire par blocs.
Point de vue endomorphisme
Decomposer un endomorphisme u en une somme nie u =

p
i=1
u
i
dendomorphismes u
i
plus simples.
Dans les cas les plus favorables, les u
i
seront, `a un facteur multiplicatif pr`es, des projections
sur un sous-espace vectoriel de E.
1.1 Rappels et notations
Dans tout ce qui suit, K designe R ou C, et E est un K-espace vectoriel de dimension nie
n 1.
Si u End(E), on note u
0
= Id o` u Id est lapplication identite, u
1
= u, u
2
= u u puis,
u
p+1
= u u
p
= u
p
u.
Si u et v sont deux elements de E, on notera souvent uv au lieu de u v lendomorphisme
compose.
On notera diag(
1
, ,
n
) la matrice carree diagonale de taille n suivante :
diag(
1
, ,
n
) =

1
0 0
0
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0
n

.
Sommes de sous-espaces vectoriels : Considerons deux sous-espaces vectoriels
1
F et G de
E. On denit un troisi`eme sous-espace vectoriel F +G par
F +G
def
= x E [ (y, z) F G, x = y +z.
1
ou s.e.v. en abrege
5
6 CHAPITRE 1. R

EDUCTION DES ENDOMORPHISMES


On dit que F et G sont en somme directe si F G = 0. On note alors F G la somme
F + G, et tout element x de F G se decompose de fa con unique en x = y + z avec y F et
z G.
Homotheties : Soit K. Lapplication

E E
x x
est un endomorphisme sur E appele homothetie de rapport .
Lhomothetie de rapport 1 est appelee identite et notee Id.
Projecteurs : Soient F et G deux s.e.v. de E tels que E = F G. Tout x E se decompose
alors de mani`ere unique en x = y + z avec avec y F et z G. On appelle projecteur sur F
parall`element `a G lendomorphisme denit par p(x) = y. On rappelle que p
2
= p, Im p = F et
Ker p = G.
Reciproquement, tout endomorphisme p tel que p
2
= p est le projecteur sur Im p pa-
rall`element `a ker p.
Symetries : Soient F et G deux s.e.v. de E tels que E = F G. Pour x E se decomposant
en x = y +z, on pose s(x) = y z. Lendomorphisme s obtenu est appele symetrie par rapport
`a F parall`element `a G, et verie s
2
= Id. On dit que s est une involution.
Reciproquement, toute involution est une symetrie.
Matrice dun endomorphisme : Notons B = (e
1
, , e
n
) une base de E. Soit u un endomor-
phisme de End(E). Alors il existe des scalaires a
ij
de K tels que
j 1, , n, u(e
j
) =
n

i=1
a
ij
e
i
.
La matrice A = (a
ij
)
1i,jn
est appelee matrice de u par rapport `a la base B.
Exemple : La matrice dune homothetie de rapport est
A =

0 0
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0

.
Dans le cas = 1 cette matrice est notee I
n
, et appelee matrice identite.
Matrice de passage : Soient B = (e
1
, , e
n
) et B

= (f
1
, , f
n
) deux bases de E. Supposons
que f
j
=

n
i=1
p
ij
e
i
. La matrice P = (p
ij
)
1i,jn
est appelee matrice de passage de la base B
vers la base B

. Une telle matrice est toujours inversible.


Eet dun changement de base : Soient B = (e
1
, , e
n
) et B

= (f
1
, , f
n
) deux bases de
E, et P la matrice de passage correspondante. Soit u un endomorphisme de End(E) de matrice
A par rapport `a la base B et de matrice B par rapport `a la base B

. Alors on a la formule
B = P
1
AP.
On dit que les matrices A et B sont semblables, et lon note A B.
Matrices par blocs : Il est souvent pratique de decomposer une matrice M de
n
(K) en blocs
plus petits : par exemple
M =

A B
C D

avec A
p
(K), B
p,np
(K), C
np,p
(K) et D
np
(K).
1.2. SOUS-ESPACES STABLES 7
Pour faire le produit de matrices par blocs, on proc`ede comme pour faire un produit habituel :

A B
C D

AA

+BC

AB

+BD

CA

+DC

CB

+DD

.
Tout ceci se generalise sans dicultes `a des matrices comportant plus de blocs.
Attention : Les produits ci-dessus sont des produits de matrices. Il est interdit de permuter
lordre des termes.
Calcul du determinant :
Si A
n
(K) et B
n
(K), alors det AB = det Adet B.
Si A
n
(K) et B
n
(K) sont semblables alors det A = det B.
Si A
p
(K), B
p,np
(K) et C
np
(K), on a
det

A B
0 C

= det A det C.
1.2 Sous-espaces stables
Denition 1.2.1 Soit u End(E) et F un s.e.v de E. On dit que F est un sous-espace
stable de u si u(F) F.
Remarque : Les sous-espaces 0 et E sont stables par tout endomorphisme. De meme, Im u
et Ker u est toujours stable par u.
Denition 1.2.2 Soit u End(E) et F stable par u. On appelle endomorphisme induit par
u sur F lelement u
F
de End(F) deni pour tout x de F par u
F
(x) = u(x).
Lorsque lon parvient `a trouver deux sous-espaces stables par u, F et G tels que E = F G,
alors il existe une base de E par rapport `a laquelle la matrice de E est diagonale par blocs. Avant
denoncer le resultat precis, donnons la denition de base adaptee :
Denition 1.2.3 Soit F et G deux s.e.v de E tels que E = F G. On dit que (e
1
, , e
n
)
est une base de E adaptee ` a la decomposition E = F G si (e
1
, , e
m
) est une base de F et
(e
m+1
, , e
n
) est une base de G.
Proposition 1.2.4 Soit F, G, deux s.e.v de E tels que E = F G, et u End(E). Soit
B
def
= (e
1
, , e
n
) une base de E adaptee ` a la decomposition E = F G. Alors on a lequivalence
entre les deux enonces suivants :
i) Les s.e.v F et G sont stables par u,
ii) La matrice de u par rapport ` a la base B est de la forme
mat
B
f =

A 0
0 B

,
avec A
m
(K) et B
nm
(K).
Preuve : Pour le sens direct, on utilise simplement que u(e
i
) F = Vect(e
1
, , e
m
) pour
i 1, , m et que u(e
i
) G = Vect(e
m+1
, , e
n
) pour i m + 1, , n.
Reciproquement, si la matrice de f par rapport `a la base B est donnee par
mat
B
f =

A 0
0 B

,
alors u(e
i
) F pour tout i 1, , m et u(e
i
) G pour i m+ 1, , n. Comme
F = Vect(e
1
, , e
m
) et G = Vect(e
m+1
, , e
n
), on en deduit la stabilite de F et de G
par u.
8 CHAPITRE 1. R

EDUCTION DES ENDOMORPHISMES


Remarque : Generalisation au cas de E = E
1
E
p
.
Considerons une base B adaptee `a la decomposition ci-dessus. Alors u End(E) laisse tous
les sous-espaces E
i
invariants si et seulement si sa matrice est diagonale par blocs :
mat
B
f =

A
1
0 0
0 A
2
0
.
.
.
.
.
.
.
.
. 0
0 0 A
p

,
o` u le k-i`eme bloc diagonal est une matrice carree de taille dimE
k
.
Exemples : Considerons F et G de dimension respective m et n m, et tels que E = F G.
Soit B une base adaptee `a la decomposition E = F G.
1. Soit p le projecteur sur F parall`element `a G. Alors
mat
B
p =

I
m
0
0 0

.
2. Soit s la symetrie par rapport `a F parall`element `a G. Alors
mat
B
s =

I
m
0
0 I
nm

.
1.3 Valeurs propres, vecteurs propres
1.3.1 Le cas des endomorphismes
Denition 1.3.1 Soit u End(E). On dit que K est valeur propre de u sil existe un
element x non nul de E tel que
u(x) = x.
Si est une valeur propre de u, tout element x de E veriant la relation ci-dessus est appele
vecteur propre de u associe ` a la valeur propre .
Lensemble des valeurs propres de u est appele spectre de u, et note Sp(u). Cest un sous-
ensemble (eventuellement vide) de K.
Denition 1.3.2 Si est une valeur propre de lendomorphisme u de End(E), on appelle sous-
espace propre associe ` a lensemble des vecteurs propres de u pour . Ce sous-espace se note
E

(u) (ou simplement E

en labsence dambigute).
Proposition 1.3.3 Si est une valeur propre de u, lensemble E

est un sous-espace vectoriel


de E non reduit ` a 0, et lon a
E

= Ker (u Id).
Remarque : En particulier, 0 est valeur propre de u si et seulement si Ker u nest pas reduit
`a 0, cest-` a-dire si et seulement si u nest pas injectif. Dans ce cas E
0
nest autre que Ker u.
Proposition 1.3.4 On a les proprietes suivantes :
i) Si est une valeur propre de u alors E

est stable par u. Lendomorphisme u


E

induit par
u sur E

est egal ` a Id
E

.
ii) Si et sont deux valeurs propres distinctes de u, alors E

et E

sont en somme directe.


iii) Soit (x
1
, , x
p
) une famille de p vecteurs propres non nuls de E associes ` a des valeurs
propres
1
, ,
p
deux ` a deux distinctes. Alors (x
1
, , x
p
) est une famille libre.
1.3. VALEURS PROPRES, VECTEURS PROPRES 9
Preuve : Prouvons i). Soit x E

. On a u(u(x)) = u(x) = u(x) par linearite de u. Par


consequent, u(x) E

, et E

est donc stable par u. On peut donc parler dendomorphisme


induit par u sur E

, et il est trivial que u


E

= Id
E

.
Si maintenant x est vecteur propre pour et pour , on a u(x) = x = x, donc ()x =
0. On en deduit que = ou x = 0, ce qui prouve ii).
Pour prouver iii), considerons un p-uplet (
1
, ,
p
) de K
p
tel que
p

i=1

i
x
i
= 0.
En appliquant successivement u, u
2
, , u
p
`a legalite ci-dessus, on obtient le syst`eme
suivant :
(S) :

1
x
1
+
2
x
2
+ +
p
x
p
= 0

1
x
1
+
2

2
x
2
+ +
p

p
x
p
= 0
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

p1
1

1
x
1
+
p1
2

2
x
2
+ +
p1
p

p
x
p
= 0.
Si lon consid`ere (
1
x
1
, ,
p
x
p
) comme les inconnues du syst`eme, la matrice de (S)
nest autre que la matrice de Vandermonde associee au p-uplet (
1
, ,
p
). Comme les

i
sont deux `a deux distincts, on en deduit que (S) est de Cramer. Son unique solution
est clairement

1
x
1
=
2
x
2
= =
p
x
p
= 0.
Comme tous les x
i
sont distincts de 0, on conclut que tous les
i
sont nuls.
Proposition 1.3.5 Si u et v sont deux endomorphismes de End(E) qui commutent
2
alors tout
sous-espace propre de u est stable par v. De meme Im u est stable par v.
Preuve : Soit une valeur propre de u, et x un vecteur propre associe. On a u(v(x)) =
v(u(x)) = v(x) = v(x), donc v(x) E

.
Si maintenant y Im u, alors il existe x E tel que y = u(x). Par consequent, v(y) =
v(u(x)) = u(v(x)) Im u.
Proposition 1.3.6 Soit u End(E), et F un sous-espace stable par u. Notons v lendomor-
phisme induit par u sur F. Alors toute valeur propre de v est valeur propre de u, et lon a
E

(v) = E

(u) F.
Reciproquement, si E

(u) F nest pas reduit ` a 0, alors est valeur propre de v.


Preuve : Il sut de prouver E

(v) = E

(u) F. Linclusion E

(v) E

(u) decoule de la
denition de v. Et bien s ur, on doit avoir E

(v) F puisque v est deni sur F !


Reciproquement, si x E

(u) F, alors v(x) est bien deni puisque x F, et vaut


u(x) = x puisque x E

(u).
Exemples :
1. Projecteurs :
Supposons que E = F G avec F et G non reduits `a 0. Soit p le projecteur sur F
parall`element `a G. Alors
Sp(p) = 0, 1, E
0
= Ker p = G et E
1
= Im p = F.
2
cest-`a-dire que uv = vu
10 CHAPITRE 1. R

EDUCTION DES ENDOMORPHISMES


2. Symetries :
Si lon consid`ere maintenant la symetrie s par rapport `a F parall`element `a G, alors on a
Sp(s) = 1, 1, E
1
= G et E
1
= F.
3. Endomorphismes nilpotents :
Denition 1.3.7 On dit que u End(E) est un endomorphisme nilpotent sil existe
un p N tel que u
p
= 0. Le plus petit p veriant cette propriete est appele indice de
nilpotence de u.
Proposition 1.3.8 Si u est un endomorphisme nilpotent alors Sp(u) = 0.
Preuve : Si Sp(u) ne contenait pas 0, alors Ker u serait reduit `a 0. Soit maintenant
x E arbitraire. Alors u
p
(x) = 0 donc u(u
p1
(x)) = 0 do` u u
p1
(x) = 0. Une
recurrence elementaire permet de montrer que u
p
(x) = u
p1
(x) = = u(x) = x = 0,
ce qui est absurde puisque E nest pas reduit `a 0 ! Donc Sp(u) 0.
Montrons Sp(u) 0. Soit Sp(u) et x un vecteur propre (non nul) associe. On
etablit aisement que u
k
(x) =
k
x pour tout k 1. En particulier u
p
(x) =
p
x = 0.
Donc
p
= 0, do` u = 0.
4. Deux exemples pathologiques en dimension innie : Considerons lespace vec-
toriel reel E
def
= C

(R; R) et
u :

E E
f f

.
Alors tout R est valeur propre de u avec pour vecteur propre associe la fonction
f

: x e
x
. On conclut que Sp(u) = R.
Prenons maintenant E = K[X] et
u :

E E
P XP.
Dire que u(P) = P signie que (X )P = 0. Comme X nest pas le polynome nul,
lintegrite de K[X] entrane que P = 0. Donc Sp(u) = .
Ces quelques exemples montrent que le spectre de u peut prendre des formes tr`es diverses lorsque
E est un espace vectoriel quelconque.
Nous supposons desormais que E est un espace vectoriel de dimension nie n 1. Nous
allons alors etablir que Sp(u) contient au plus n elements. Lorsque K = C, nous verrons que
Sp(u) ne peut pas etre vide.
1.3.2 Le cas des matrices
Denition 1.3.9 Soit A
n
(K). On dit que K est valeur propre de A si la matrice
A I
n
nest pas inversible. Lensemble des valeurs propres de A est appele spectre de A, et
note Sp(A).
Proposition 1.3.10 Soit A
n
(K). Les proprietes suivantes sont equivalentes :
i) Sp(A),
ii) rg (A I
n
) < n,
iii) il existe un vecteur colonne non nul X de K
n
tel que AX = X.
1.4. POLYN

OME CARACT

ERISTIQUE 11
Preuve : i) ii) : Comme Sp(A), la matrice A I
n
nest pas inversible. Son rang est
donc strictement inferieur `a n.
ii) iii) : Soit u lendomorphisme de matrice A par rapport `a la base canonique
(
1
, ,
n
) de K
n
. On a donc rg (u Id) < n. Donc, dapr`es le theor`eme du rang,
Ker (u Id) nest pas reduit `a 0 et lon peut trouver x = x
1

1
+ + x
n

n
tel que
u(x) = x. Le vecteur colonne de composantes (x
1
, , x
n
) repond `a la question.
iii) i) : Si u designe lendomorphisme deni ci-dessus, et x = x
1

1
+ + x
n

n
o` u les
x
i
sont les composantes de X, alors x Ker (u Id). Donc u I
n
nest pas inversible,
et la matrice (par rapport `a la base canonique) correspondante AI
n
non plus.
Denition 1.3.11 Si est valeur propre de A, tout vecteur colonne X tel que AX = X est
appele vecteur propre de A.
Proposition 1.3.12 Si A et B sont deux matrices semblables, alors Sp(A) = Sp(B)
Preuve : Il sut de remarquer que si A et B sont semblables, alors A I
n
et B I
n
egalement. Par consequent AI
n
et B I
n
sont inversibles simultanement.
Proposition 1.3.13 Soit u End(E), B = (e
1
, , e
n
) une base de E et A la matrice de
u par rapport ` a B. Alors Sp(A) = Sp(u). De plus, si est valeur propre de A ou u alors
x =

n
i=1
x
i
e
i
est vecteur propre de u pour la valeur propre si et seulement si le vecteur
colonne X
def
=
t
(x
1
, , x
n
) est vecteur propre de A pour .
Preuve : La denition de Sp(A) et Sp(u) entrane que Sp(A) = Sp(u). Par ailleurs, si lon
utilise les notations de la proposition, legalite u(x) = x est equivalente `a AX = X.
Denition 1.3.14 On dit que A
n
(K) est une matrice nilpotente sil existe un p N
tel que A
p
= 0. Le plus petit p veriant cette propriete est appele indice de nilpotence de A.
Exemple : Toute matrice triangulaire superieure avec des 0 sur la diagonale est nilpotente.
Proposition 1.3.15 Une matrice A est nilpotente si et seulement si lendomorphisme u
End(K
n
) de matrice A par rapport ` a la base canonique est nilpotent.
Preuve : On utilise simplement la formule mat
B
(u
k
) =

mat
B
(u)

k
vraie pour tout k N.
Proposition 1.3.16 Si A est une matrice nilpotente alors Sp(A) = 0.
Preuve : On consid`ere lendormorphisme u End(K
n
) de matrice A par rapport `a la base
canonique, et on applique la proposition 1.3.8.
1.4 Polynome caracteristique
Le calcul du polynome caracteristique (deni dans la proposition qui suit) va nous permettre
de determiner les valeurs propres dune matrice ou dun endomorphisme.
Proposition 1.4.1 Soit A
n
(K). La fonction

A
()
def
= det(A I
n
)
concide avec un polyn ome de degre n et de coecient dominant (1)
n
, note
A
. Ce polyn ome
est appele polynome caracteristique de A. De plus, on a

A
= (1)
n
X
n
+ (1)
n1
X
n1
tr A+ + det A.
12 CHAPITRE 1. R

EDUCTION DES ENDOMORPHISMES


Preuve : On developpe lexpression suivante
det(AI
n
) =

a
11
a
12
a
1n
a
21
a
22
a
2n

.
.
.
a
n1
a
n2
a
nn

.
Exemples :
1. Dans le cas n = 2, on a
A
= X
2
X tr A+ det A.
2. Si
A
est scinde avec
A
=

n
i=1
(
i
X), alors tr A =

n
i=1

i
et det A =

n
i=1

i
.
Donnons quelques proprietes importantes des polynomes caracteristiques :
Proposition 1.4.2 Soient A et B deux matrices de
n
(K). On a :
i)
A
= t
A
,
ii) si A et B sont semblables alors
A
=
B
,
iii)
AB
=
BA
.
Preuve : La preuve de i) resulte de lidentite suivante valable pour tout K :
det(A I
n
) = det

t
(AI
n
)

= det(
t
AI
n
).
Considerons deux matrices semblables A et B. Alors il existe P GL
n
(K) telle que
B = P
1
AP. On a visiblement
B I
n
= P
1
AP I
n
= P
1
(A I
n
)P.
Donc B I
n
et AI
n
sont semblables, et leur determinant est donc egal.
La fa con la plus elementaire de prouver iii) consiste `a passer dans
2n
(K). On remarque
alors que

I
n
A
B I
n

I
n
0
B I
n

AB I
n
A
0 I
n

I
n
A
B I
n

I
n
A
0 I
n

I
n
0
B BAI
n

.
Par consequent
(1)
n
det

I
n
A
B I
n

= det(AB I
n
) et ()
n
det

I
n
A
B I
n

=
n
det(BAI
n
).
La fonction det

I
n
A
B I
n

est visiblement une fonction polynome de terme dominant

n
, donc non nulle. Gr ace `a la relation ci-dessus, on peut donc conclure que det(AB
I
n
) = det(BAI
n
) pour tout K. Do` u
AB
=
BA
.
Voici maintenant un resultat fondamental :
Theor`eme 1.4.3 Soit A
n
(K). Alors Sp(A) si et seulement si
A
() = 0.
Preuve : Dapr`es la proposition 1.3.10, Sp(A) si et seulement si (A I
n
) nest pas
inversible, donc si et seulement si det(A I
n
) = 0.
1.4. POLYN

OME CARACT

ERISTIQUE 13
Corollaire 1.4.4 i) Si A
n
(K) avec K = R ou C, alors Sp(A) a au plus n elements.
ii) Si A
n
(C), alors Sp(A) nest pas vide.
iii) Si A
n
(R) alors le spectre de A dans R est inclus dans le spectre de A dans C.
Preuve : Pour i), on utilise le fait quun polynome de degre n a au plus n racines.
La propriete ii) resulte du theor`eme fondamental de lalg`ebre.
Comme lensemble des racines reelles dun polynome est inclus dans lensemble de ses
racines complexes, on obtient iii).
Exemples :
1. Soit A =

0 1
1 0

.
On a
A
= X
2
+ 1. Donc dapr`es le theor`eme 1.4.3, le spectre de A dans C est i, i.
Mais comme
A
na pas de racine reelle, le meme theor`eme montre que A na pas de valeur
propre dans R.
2. Matrices triangulaires : Le polynome caracteristique dune matrice triangulaire supe-
rieure A de termes diagonaux
1
, ,
n
est

A
=

1
X
0
2
X
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
X

=
n

i=1
(
i
X).
Resultat identique pour une matrice triangulaire inferieure.
3. Matrice de Frobenius (ou matrice compagnon) : Cest le nom que lon donne a une
matrice A
n
(K) du type
A =

0 0 0 a
0
1 0 0 a
1
0 1 0 a
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 a
n1

.
Par denition de
A
, on a

A
=

X 0 0 a
0
1 X 0 a
1
0 1
.
.
. 0 a
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 a
n1
X

.
Notons (L
i
) la i-`eme ligne de ce determinant. Changer (L
1
) en (L
1
) + X(L
2
) + +
X
n1
(L
n
) ne modie pas le determinant. Par consequent,

A
=

0 0 0 X
n
+

n1
i=0
a
i
X
i
1 X 0 a
1
0 1
.
.
. 0 a
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 a
n1
X

.
En faisant un developpement de Laplace par rapport `a la premi`ere ligne, on conclut que

A
= (1)
n

X
n

n1
k=0
a
k
X
k

.
14 CHAPITRE 1. R

EDUCTION DES ENDOMORPHISMES


De meme, `a tout endomorphisme deni sur un espace vectoriel E de dimension nie n, on
peut associer un polynome caracteristique :
Denition 1.4.5 Soit u End(E) avec E de dimension nie, B une base de E, et A la matrice
de u par rapport ` a B. On appelle polyn ome caracteristique de u, le polyn ome
u
def
=
A
.
Remarque : Dapr`es la proposition 1.4.2, deux matrices semblables ont meme polynome ca-
racteristique. La denition ci-dessus ne depend donc pas de la base B choisie.
On dispose bien s ur du resultat fondamental suivant :
Theor`eme 1.4.6 Soit u End(E). Alors Sp(u) si et seulement si
u
() = 0.
Exemples :
1. Projecteurs
Supposons que E = F G avec dimF = m et dimG = nm, et considerons p le projecteur
sur F parall`element `a G. On sait que lon peut trouver une base B par rapport `a laquelle
la matrice de p est
mat
B
(p) =

I
m
0
0 0

.
Donc
p
= det

(1 X)I
m
0
0 XI
nm

= (1)
n
(X 1)
m
X
nm
.
2. Symetries
Soit s la symetrie par rapport `a F parall`element `a G. On peut trouver une base B par
rapport `a laquelle la matrice de s est
mat
B
(s) =

I
m
0
0 I
nm

.
Donc
s
= det

(1 X)I
m
0
0 (1 X)I
nm

= (1)
n
(X 1)
m
(X + 1)
nm
.
3. Endomorphismes nilpotents
On a vu que le spectre dun endomorphisme nilpotent u etait reduit `a 0. Par consequent

u
est un polynome de degre n et de coecient dominant (1)
n
ayant pour unique racine
0 dans C. Comme tout polynome (non constant) est scinde sur C, on en deduit que

u
= (X)
n
.
Proposition 1.4.7 Soit u un endomorphisme de End(E).
i) Soit F un sous-espace stable pour u. Notons u
F
lendomorphisme induit par u sur F. Alors

u
F
divise
u
.
ii) Supposons que E = F G avec F et G stables par u. Alors
u
=
u
F

u
G
.
Preuve : Pour i), considerons une base (e
1
, , e
m
) de F que lon compl`ete en une base
B = (e
1
, , e
n
) soit une base de E. Alors
(1.1) mat
B
(u) =

A C
0 B

.
Remarquons que A est la matrice de u
F
par rapport `a la base (e
1
, , e
m
). Donc
u
F
=
det(A XI
m
). Or, dapr`es (1.1), on a

u
=

A XI
m
C
0 B XI
nm

.
1.5. ENDOMORPHISMES DIAGONALISABLES 15
Le determinant `a calculer est triangulaire par blocs. Donc

u
= det(A XI
m
) det(B XI
nm
) =
u
F
det(B XI
nm
).
Pour prouver ii), on choisit une base B = (e
1
, , e
n
) adaptee `a la decomposition E =
F G de telle sorte que
mat
B
(u) =

A 0
0 B

.
Or, A (resp. B) est la matrice de u
F
(resp. u
G
) par rapport `a la base (e
1
, , e
m
) (resp.
(e
m+1
, , e
n
)). En procedant comme precedemment, on trouve donc

u
= det(A XI
m
) det(B XI
nm
) =
u
F

u
G
.
Corollaire 1.4.8 Si est racine de
u
de multiplicite alors 1 dimE

. Le nombre
entier est appele multiplicite de la valeur propre . En particulier, si est racine simple
alors dimE

= 1. Resultat identique pour les matrices.


Preuve : Si est racine de
u
alors est valeur propre de u (cf th. 1.4.6) et donc E

nest
pas reduit `a 0, do` u
def
= dimE

1.
De plus, dapr`es la proposition 1.3.4, lendomorphisme induit par u sur E

concide avec
Id
E

. Son polynome caracteristique est donc (X)

. Dapr`es la proposition precedente,


( X)

divise donc
u
, ce qui montre (cf. theor`eme de Gauss) que .
Attention : En general dimE

= 1 nimplique pas que est racine simple de


u
. En eet,
considerons un espace vectoriel E de dimension 2, et soit (e
1
, e
2
) une base de E. On denit
u End(E) par
u(e
1
) = 0 et u(e
2
) = e
1
.
Alors E
0
= Ker u = Ke
1
donc est de dimension 1. Mais comme u est nilpotent, on a
u
= X
2
donc 0 est valeur propre de multiplicite 1 bien que 0 soit racine double de
u
.
1.5 Endomorphismes diagonalisables
1.5.1 Resultats theoriques
Dans toute cette section, E est un K-espace vectoriel de dimension nie n.
Denition 1.5.1 On dit que u End(E) est diagonalisable si u admet une famille de vecteurs
propres (x
1
, , x
n
) qui est une base de E.
Denition 1.5.2 On dit que A
n
(K) est diagonalisable si A est semblable ` a une matrice
B diagonale.
La proposition suivante fait le lien entre les deux denitions.
Proposition 1.5.3 i) Un endomorphisme u End(E) est diagonalisable si et seulement si il
existe une base B de E par rapport ` a laquelle mat
B
(u) est une matrice diagonale.
ii) Une matrice A est diagonalisable si et seulement si lendomorphisme u de matrice A par
rapport ` a la base canonique de K
n
est diagonalisable. Dans ce cas, si (e
1
, , e
n
) est une
base de vecteurs propres de u, et (
1
, ,
n
) les valeurs propres associees, on a
A = P diag(
1
, ,
n
)P
1
o` u P est la matrice de passage de la base canonique ` a la base (e
1
, , e
n
).
16 CHAPITRE 1. R

EDUCTION DES ENDOMORPHISMES


Preuve : Si u est diagonalisable, alors sa matrice dans une base de vecteurs propres est
diagonale. Reciproquement, si dans une base B = (e
1
, , e
n
) donnee la matrice de u est
diagonale, alors tous les e
i
sont vecteurs propres pour u. On a donc prouve i).
Pour prouver ii), il sut de remarquer que si A = P diag(
1
, ,
n
)P
1
et si lon note
(
1
, ,
n
) la base canonique de K
n
, on a
AP
i
= P diag(
1
, ,
n
)
i
=
i
P
i
.
Par consequent dire que A est diagonalisable equivaut `a dire que lendomorphisme u de
matrice A par rapport `a la base canonique admet (P
1
, , P
n
) comme base de vecteurs
propres.
Exemples :
1. Projecteurs : Soit p le projecteur sur F parall`element `a G. Alors nimporte quelle base
(e
1
, , e
n
) adaptee `a la decomposition E = F G est une base de vecteurs propres pour
p. Plus precisement, si dimF = m, e
i
est associe `a la valeur propre 1 si 1 i m, et `a la
valeur propre 0 si m+ 1 i n.
En conclusion, tout projecteur est diagonalisable.
2. Symetries : Soit s la symetrie par rapport `a F parall`element `a G. Alors nimporte quelle
base (e
1
, , e
n
) adaptee `a la decomposition E = F G est une base de vecteurs propres
pour s. Plus precisement, si dimF = m, e
i
est associe `a la valeur propre 1 si 1 i m,
et `a la valeur propre 1 si m+ 1 i n.
En conclusion, toute symetrie est diagonalisable.
3. Endomorphismes nilpotents : Soit u un endomorphisme nilpotent. On sait que Sp(u) =
0. Par consequent, dire que E admet une base de vecteurs propres pour u revient `a dire
quil existe une base (e
1
, , e
n
) de E telle que u(e
i
) = 0 pour tout i 1, , n. Donc
u est nul.
En conclusion, un endomorphisme nilpotent est diagonalisable si et seulement si il est nul.
Proposition 1.5.4 Considerons p sous-espaces propres (E

i
)
1ip
de u associes ` a des valeurs
propres deux ` a deux distinctes. Alors les (E

i
)
1ip
sont en somme directe.
Preuve : Il sagit de de prouver que tout x E

1
+ +E
p
se decompose de fa con unique
en x = x
1
+ +x
p
avec x
i
E
i
.
Supposons quil existe deux decompositions de ce type
x = x
1
+ +x
p
= y
1
+ +y
p
.
Alors

p
i=1
(x
i
y
i
) = 0 ce qui signie quil existe une relation de dependance lineaire
entre les p vecteurs propres x
1
y
1
, x
p
y
p
. En vertu de la proposition 1.3.4, lun de
ces vecteurs doit etre nul. Par recurrence descendante, on conclut quils sont tous nuls.
Theor`eme 1.5.5 Soit u End(E). Notons Sp(u) =
1
, ,
p
. Les quatre proprietes sui-
vantes sont equivalentes :
i) u est diagonalisable,
ii) E =

p
i=1
E

i
.
iii) dimE =

p
i=1
dimE

i
.
1.5. ENDOMORPHISMES DIAGONALISABLES 17
iv) Il existe p entiers non nuls
1
, ,
p
tels que
1
+ +
p
= n, et une base B de E par
rapport ` a laquelle la matrice de u est
mat
B
(u) =

1
I

1
0 0
0
2
I

2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
p
I
p

.
Preuve : Sachant que les E

i
sont en somme directe et inclus dans E, on a ii) iii).
i) iii) : Soit u diagonalisable. On consid`ere une base (e
1
, , e
n
) de vecteurs propres
de u que lon ordonne de telle sorte que les
1
premiers vecteurs soient associes `a
1
, les

2
suivants `a
2
. On a bien evidemment dimE

1
=
i
et

p
i=1

i
= n, ce qui entrane iii).
ii) iv) : Supposons que E =

p
i=1
E

i
. La matrice de u par rapport `a une base adaptee
`a cette decomposition est clairement du type voulu.
iv) i) : Immediat.
Corollaire 1.5.6 Si u a n valeurs propres deux ` a deux distinctes,
1
, ,
n
alors u est dia-
gonalisable et tous ses sous-espaces propres sont de dimension 1. De plus, la matrice de u dans
une base de vecteurs propres (x
1
, , x
n
) associes ` a
1
, ,
n
est
mat
B
(u) = diag(
1
, ,
n
).
Preuve : Comme les E

i
sont en somme directe et tous de dimension au moins 1, on a
dim
n

i=1
E

i
=
n

i=1
dimE

i
n
avec egalite si et seulement si tous les sous-espaces propres sont de dimension 1. Mais
par ailleurs

n
i=1
E

i
est inclus dans E donc est de dimension au plus n. On conclut que
E =

p
i=1
E

i
, et donc u est diagonalisable en vertu du theor`eme 1.5.5.
Theor`eme 1.5.7 Un endomorphisme u End(E) est diagonalisable si et seulement si

u
est scinde dans K[X] et la dimension
i
de chaque sous-espace propre E

i
de u est
egale ` a la multiplicite
i
de
i
dans
u
. Dans ce cas, on a

u
= (1)
n
p

i=1
(X
i
)

i
o` u Sp(u) =
1
, ,
p
.
Preuve : Gr ace au corollaire 1.4.8, on sait dej`a que pour tout i 1, , p, on a
i

i
.
Puisque deg
u
= n, on a

p
i=1

i
= n.
Supposons u diagonalisable. Alors dapr`es le theor`eme 1.5.5, on a

p
i=1

i
= n, et donc
necessairement
i
=
i
pour tout i.
Reciproquement, si
i
=
i
pour tout i, alors

p
i=1

i
= n, et donc u est diagonalisable
dapr`es le theor`eme 1.5.5.
Attention : Lhypoth`ese
u
scinde nentrane pas toujours u diagonalisable. On a vu par
exemple que le polynome caracteristique dun endomorphisme nilpotent etait scinde :
u
=
(X)
n
. Mais si u est nilpotent non nul alors u nest pas diagonalisable.
18 CHAPITRE 1. R

EDUCTION DES ENDOMORPHISMES


1.5.2 Methode pratique de diagonalisation
Pour les endomorphismes : Soit u End(E) avec E de dimension n. On donne une methode
systematique permettant de determiner les valeurs propres et les sous-espaces propres de u.
1. Calcul de
u
.
2. Calcul des racines
1
, ,
p
de
u
.
Si
u
a n racines deux `a deux distinctes (i.e p = n), on peut tout de suite conclure que u
est diagonalisable.
3. On determine les sous-espaces propres de u.
Le sous-espace propre E

i
est lensemble des vecteurs x de E tels que
(1.2) u(x)
i
x = 0.
Si on note (x
1
, , x
n
) les coordonnees de x par rapport `a une base donnee, resoudre
(1.2) revient `a resoudre un syst`eme homog`ene de n equations dont les n inconnues sont
les coordonnees de x. La dimension
i
de E

i
est le nombre dinconnues non principales
de ce syst`eme lineaire. La resolution du syst`eme lineaire permet de trouver
i
vecteurs
independants x
1
i
, , x

i
i
de E

i
.
4. Conclusion.
Lendomorphisme u est diagonalisable si et seulement si
i
est egal `a la multiplicite
i
de

i
pour tout i. Dans ce cas, la famille (x
1
1
, , x

1
1
, x
1
2
, , x

2
2
, , x
1
p
, , x
p
p
) est une
base de vecteurs propres pour u.
Pour les matrices : Soit A
n
(K). Donnons une methode systematique permettant de
determiner valeurs propres et vecteurs propres de A.
1. Calcul de
A
.
2. Calcul des racines
1
, ,
p
de
A
. Si
u
a n racines deux `a deux distinctes (i.e p = n),
on peut tout de suite conclure que u est diagonalisable.
3. Pour chaque
i
, on resout le syst`eme lineaire homog`ene (A
i
I
n
)X = 0. Lensemble de
ses solutions est E

i
. La dimension
i
de E

i
est le nombre dinconnues non principales.
On peut extraire
i
vecteurs colonnes X
1
i
, , X

i
i
formant une base de E

i
.
4. Conclusion.
La matrice A est diagonalisable si et seulement si
i
est egal `a la multiplicite
i
de
i
pour
tout i. Dans ce cas, on a
A = P

1
0 0
0 I

2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 I
p

P
1
,
o` u P est la matrice de colonnes (X
1
1
, , X

1
1
, X
1
2
, , X

2
2
, , X
1
p
, , X
p
p
).
1.6 Endomorphismes trigonalisables
Denition 1.6.1 On dit que u End(E) est trigonalisable sil existe une base B de E
par rapport ` a laquelle mat
B
(u) est triangulaire superieure.
On dit que A
n
(K) est trigonalisable sil existe B
n
(K) triangulaire superieure
telle que A B.
1.6. ENDOMORPHISMES TRIGONALISABLES 19
Theor`eme 1.6.2 Un endomorphisme u est trigonalisable si et seulement si son polyn ome
caracteristique
u
est scinde.
De plus, si
u
=

n
i=1
(
i
X) alors on peut trouver une base B de E telle que
(1.3) mat
B
(u) =

1

0
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n

.
De meme, une matrice A
n
(K) est trigonalisable si et seulement si
A
est scinde. De
plus, si
A
=

n
i=1
(
i
X), alors A est semblable ` a une matrice triangulaire superieure
du type (1.3).
Preuve : Traitons le cas dun endomorphisme. Si u est trigonalisable, alors la matrice T de u
dans une base bien choisie est triangulaire superieure. Par consequent
u
=

n
i=1
(t
ii
X),
et donc
u
est scinde.
La preuve de la reciproque se fait par recurrence sur n = dimE. On consid`ere la propriete
({
n
) suivante :
E t. q. dimE = n, u End(E),

u
=
n

i=1
(
i
X)

B base t.q. mat


B
(u) est du type (1.3)

.
Cas n = 1. Il ny a rien `a prouver. Un endomorphisme de polynome caracteristique

1
X dans un e.v. de dimension 1 est forcement lhomothetie de rapport
1
.
Supposons ({
n
) vraie et montrons ({
n+1
). Considerons un e.v. E de dimension n+1 et
u End(E) tel que
u
=
n+1

i=1
(
i
X).
Soit e
1
un vecteur propre non nul de u pour la valeur propre
1
. On compl`ete (e
1
) en
une base B

= (e
1
, e

2
, , e

n+1
) de E. Clairement, il existe A


n
(K) telle que
mat
B
(u) =

1

0 A

.
Soit p le projecteur sur F
def
= Vect(e

2
, , e

n+1
) parall`element `a Ke
1
. On denit u

End(F) en posant u

(x) = p(u(x)) pour x F. On constate que A

est la matrice de u

par rapport `a la base (e

2
, , e

n+1
) de F. On a donc

u
= (
1
X) det(A

XI
n
) = (
1
X)
u
.
Donc
u
=
n+1

i=2
(
i
X).
On peut donc appliquer ({
n
) `a lespace F et `a lendomorphisme u

et trouver une base


(e
2
, , e
n+1
) de F par rapport `a laquelle la matrice de u

est
T

2

0
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
n

0 0
n+1

.
20 CHAPITRE 1. R

EDUCTION DES ENDOMORPHISMES


Si lon choisit B
def
= (e
1
, e
2
, , e
n+1
), on trouve
mat
B
(u) =

1

0 T

,
donc mat
B
(u) est du type voulu.
Corollaire 1.6.3 Toute matrice est trigonalisable dans C. De meme, si E est un C-espace
vectoriel de dimension nie, tout element de End(E) est trigonalisable.
Preuve : Consequence immediate du theor`eme de dAlembert-Gauss.
Corollaire 1.6.4 Les quatre assertions suivantes sont equivalentes :
i) u est nilpotent,
ii) Sp(u) = 0,
iii)
u
= (1)
n
X
n
,
iv) Il existe une base B par rapport ` a laquelle la matrice de u est du type
mat
B
(u) =

0
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0

.
Preuve : On a dej`a vu dans la proposition 1.3.8 que i) ii), puis que ii) iii).
iii) iv) : Supposons que
u
= (X)
n
. Dapr`es le theor`eme 1.6.2, on peut trouver une
base par rapport `a laquelle la matrice de u est triangulaire superieure avec des 0 sur la
diagonale.
iv) i) : Si la matrice de u par rapport `a une base donnee est triangulaire superieure
avec des 0 sur la diagonale, alors elle nilpotente. Donc u est nilpotent.
Corollaire 1.6.5 Si F est stable par u alors u trigonalisable entrane u
F
trigonalisable.
Preuve : En vertu de la proposition 1.4.7,
u
F
divise
u
. Donc
u
F
est egalement scinde ce
qui, gr ace au theor`eme 1.6.2 montre que u
F
est trigonalisable.
Methode pratique de trigonalisation des matrices :
1. Calcul de
A
2. Determination des racines de
A
.
3. On determine les sous-espaces propres de A en resolvant AX = X pour Sp(A).
On obtient ainsi p vecteurs colonnes propres lineairement independants (X
1
, , X
p
). Si
p = n, A est en fait diagonalisable, et on conclut comme dans le paragraphe precedent.
Sinon, on compl`ete (X
1
, , X
p
) en une base (X
1
, , X
n
) de K
n
. Soit P la matrice de
colonnes (X
1
, , X
n
). On a
A = P

1
0
.
.
.
0
p


0 B

P
1
.
1.7. POLYN

OMES DENDOMORPHISMES ET DE MATRICES 21


Si lon note u lendomorphisme de matrice A par rapport `a la base canonique de K
n
, et le
projecteur sur F
def
= Vect(X
p+1
, , X
n
), la matrice B est la matrice de lendomorphisme
u

: x (u(x)) de End(F) par rapport `a la base (X


p+1
, , X
n
).
Letape suivante consiste `a trigonaliser B (qui est une matrice carree de taille n p seule-
ment). Comme
B
est scinde (car divise
A
qui est scinde), la matrice B est trigonali-
sable. Donc on peut trouver q vecteurs propres Y
1
, , Y
q
de B lineairement independants
et associes `a q valeurs propres
1
, ,
q
de B. On compl`ete cette famille en une base
(Y
1
, , Y
np
) de K
np
. Si lon note R la matrice de colonnes (Y
1
, , Y
np
), on a
B = R

1
0
.
.
.
0
q


0 C

R
1
.
On peut aisement revenir `a la matrice initiale A en interpretant la matrice par blocs
Q =

I
p
0
0 R

comme la matrice de passage de (X


1
, , X
n
) `a (X
1
, , X
p
, Y
1
, , Y
np
). Finalement,
on a donc
A = P

I
p
0
0 R

1
0
.
.
.
0
p

1
0
.
.
.
0
q


0 0 C

I
p
0
0 R
1

P
1
.
A ce stade, si C est triangulaire superieure, le processus de trigonalisation est termine,
sinon, on applique la methode precedente `a C qui est de taille n p q.
Remarque : Si lon excepte le cas o` u A est la matrice dune homothetie, une matrice trigona-
lisable (resp. diagonalisable) est semblable `a plusieurs matrices triangulaires (resp. diagonales)
dierentes.
1.7 Polynomes dendomorphismes et de matrices
Pour tout endomorphisme u End(E), on sait denir les puissances enti`eres de u. Les
combinaisons lineaires de ces puissances sont encore des elements de End(E). Cela motive la
denition suivante :
Denition 1.7.1 Soit P = a
p
X
p
+ +a
0
un polyn ome et u un endomorphisme. On note P(u)
lendomorphisme obtenu en rempla cant X par u dans lexpression de P avec la convention que
le terme constant a
0
est remplace par a
0
Id. On dit que P(u) est un polynome dendomor-
phisme.
22 CHAPITRE 1. R

EDUCTION DES ENDOMORPHISMES


Attention : Un polynome dendomorphisme est un endormorphisme.
Exemple : Soit P = X
2
X +1 et u End(E). Lendomorphisme P(u) est par denition egal
`a u
2
u + Id.
On dispose du resultat fondamental suivant (dont la preuve est immediate) :
Proposition 1.7.2 Pour u End(E), lapplication
:

K[X] End(E)
P P(u),
(o` u K[X] designe lensemble des polyn omes ` a coecients dans K) verie
1. P K[X], Q K[X], (P +Q) = (P) + (Q),
2. P K[X], K, (P) = (P),
3. P K[X], Q K[X], (PQ) = (P)(Q),
4. (1) = Id.
On dit que est un morphisme dalg`ebre.
De meme, pour toute matrice carree A
n
(K) et tout polynome P = a
p
X
p
+ + a
0
de
K[X], on peut denir la matrice P(A) = a
p
A
p
+ +a
0
I
n
. On a bien s ur la
Proposition 1.7.3 Pour A
n
(C), lapplication
:

K[X]
n
(K)
P P(A),
est un morphisme dalg`ebre.
Exemple : Soit A une matrice triangulaire superieure :
A =

1

0
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n

.
Alors pour tout P K[X], on a
P(A) =

P(
1
)
0 P(
2
)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 P(
n
)

.
Il y a un rapport etroit entre polynomes dendomorphismes et polynomes de matrices :
Proposition 1.7.4 Soit E e.v de dimension n, B base de E et u End(E). Notons A =
mat
B
(u). Alors, pour tout polyn ome P, on a
mat
B
(P(u)) = P(A).
En plus detre des morphismes dalg`ebre, les applications et ont dautres proprietes utiles :
Proposition 1.7.5 Soit u End(E) et A
n
(K). On a pour tout P K[X] et Q K[X],
P(u)Q(u) = Q(u)P(u) = (PQ)(u), P(A)Q(A) = Q(A)P(A) = (PQ)(A) et
t
[P(A)] =P(
t
A).
1.7. POLYN

OMES DENDOMORPHISMES ET DE MATRICES 23


Preuve : Resulte dune part de la commutativite de K[X], dautre part de la formule
t
(A
2
) =
t
A
t
A = (
t
A)
2
qui setend en
t
(A
p
) = (
t
A)
p
pour tout p N.
Proposition 1.7.6 Si u End(E) et P K[X] alors Im P(u) et Ker P(u) sont stables par u.
Preuve : Comme u et P(u) commutent, le resultat decoule de la proposition 1.3.5.
Proposition 1.7.7 Soit P K[X]. Soit u End(E) tel que
u
soit scinde. Alors
P(u)
est
egalement scinde.
Plus precisement, si
u
=

n
i=1
(
i
X), alors on a
P(u)
=

n
i=1
(P(
i
) X). Resultat
analogue pour les matrices.
Preuve : Si
u
=

n
i=1
(
i
X), le theor`eme 1.6.2 assure lexistence dune base B de E telle
que
mat
B
(u) =

1

0
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n

.
De ce fait,
mat
B
(P(u)) =

P(
1
)
0 P(
2
)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 P(
n
)

.
Il est donc immediat que
P(u)
=

n
i=1
(P(
i
) X).
Corollaire 1.7.8 Pour u End(E) et P K[X], on a toujours P(Sp(u)) Sp(P(u)). Si de
plus
u
est scinde alors P(Sp(u)) = Sp(P(u)). En particulier, si E est un espace vectoriel de
dimension nie sur C, on a P(Sp(u)) = Sp(P(u)).
Preuve : Soit Sp(u) et x un vecteur propre non nul de u associe `a . Alors u(x) = x,
puis par recurrence, u
k
(x) =
k
x pour tout k N. On en deduit que
P(u)(x) = P()x,
ce qui permet de conclure que P() Sp(P(u)). Do` u P(Sp(u)) Sp(P(u)).
Supposons de plus que
u
soit scinde. Dapr`es la proposition 1.7.7, si
u
=

n
i=1
(
i
X),
alors on a
P(u)
=

n
i=1
(P(
i
) X). On en deduit que Sp(P(u)) si et seulement si il
existe Sp(u) tel que P() = , ce qui est exactement le resultat voulu.
Pour les matrices, on a le resultat suivant :
Corollaire 1.7.9 Soit A
n
(K) trigonalisable et P K[X]. Alors P(Sp(A)) =Sp(P(A)). En
particulier, pour toute matrice A
n
(C) et P C[X], on a P(Sp(A)) = Sp(P(A)).
Denition 1.7.10 Soit u End(E) (resp. A
n
(K)). On appelle polynome annulateur
de u (resp. de A) tout polyn ome P tel que P(u) = 0 (resp. P(A) = 0).
Proposition 1.7.11 Soit A et B, deux matrices semblables, et R K[X]. Alors R(A) R(B).
En particulier R(A) = 0 si et seulement si R(B) = 0.
24 CHAPITRE 1. R

EDUCTION DES ENDOMORPHISMES


Preuve : Soit P GL
n
(K) telle que B = P
1
AP. On a donc B
2
= P
1
APP
1
AP =
P
1
A
2
P, puis par une recurrence elementaire,
(1.4) k N, B
k
= P
1
A
k
P.
En faisant des combinaisons lineaires dexpressions du type ci-dessus, on obtient
(1.5) R K[X], R(B) = P
1
R(A)P.
Comme P est inversible, on en deduit que R(A) = 0 si et seulement si R(B) = 0.
La recherche de polyn omes annulateur est dune importance capitale dans le processus de
reduction des matrices ou des endomorphismes. On dispose du resultat fondamental suivant :
Theor`eme 1.7.12 (Cayley-Hamilton) Soit u un endomorphisme sur un espace vectoriel E
de dimension nie. Alors
u
(u) = 0. De meme, si A
n
(K) alors
A
(A) = 0.
Preuve :
1. Cas dune matrice de Frobenius
On veut montrer que
A
est un polynome annulateur de A dans le cas o` u A est une
matrice de Frobenius. Soit donc
A =

0 0 a
0
1 0
.
.
. a
1
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
.
.
.
0 0 1 a
n1

.
Notons c
i
le vecteur colonne dont la i-`eme composante vaut 1 et dont les autres
composantes sont nulles. On a clairement
i 1, , n1, Ac
i
= A
i
c
1
= c
i+1
et Ac
n
= A
n
c
1
= a
0
c
1
+ +a
n1
c
n
.
On a par ailleurs etabli que

A
= (1)
n
(X
n

n1

i=0
a
i
X
i
)
donc, dapr`es les relations ci-dessus,

A
(A)c
1
= (1)
n

A
n
c
1

n1

i=0
a
i
A
i
c
1

= (1)
n

Ac
n

n1

i=0
a
i
c
i

= 0.
puis, pour i 2, , n,

A
(A)c
i
=
A
(A)A
i1
c
1
= A
i1

A
(A)c
1
= 0,
ce qui montre que
A
(A) = 0.
2. Plus petit sous-espace stable contenant un element donne.
Soit x E non nul. On cherche `a determiner le plus petit sous espace stable F de
u qui contient x. Un tel espace doit contenir aussi u(x), puis u
2
(x), etc. On pose
donc F = Vect(x, u(x), , u
k
(x), ). Cest clairement un sous-espace stable de
u. De plus, comme F est un sous-espace de E qui est de dimension n, la famille

x, u(x), , u
p
(x)

est forcement liee d`es que p n. On en deduit aisement le lemme


suivant :
1.8. POLYN

OME MINIMAL 25
Lemme 1.7.13 Il existe un entier p n unique tel que

x, u(x), , u
p1
(x)

soit
une famille libre et la famille

x, u(x), , u
p1
(x), u
p
(x)

soit liee. On a alors


F = Vect(x, u(x), , u
p1
(x)).
En particulier, F est de dimension p.
Notons v lendomorphisme induit par u sur F, e
i
def
= u
i1
(x) et B
def
= (e
1
, , e
p
). On
a u(e
i
) = e
i+1
pour i < p. De plus la famille

x, u(x), , u
p
(x)

etant liee, il existe


p coecients a
0
, , a
p1
tels que
u(e
p
) = u
p
(x) = a
0
x + +a
p1
u
p1
(x) = a
0
e
1
+ +a
p1
e
p
.
On en deduit que la matrice de v dans la base B est une matrice de Frobenius. En
particulier, dapr`es la premi`ere etape,
v
(v) = 0.
3. Preuve dans le cas general
Soit x E. On cherche `a montrer que
u
(u)(x) = 0. Si x = 0, cest evident. Sinon,
on consid`ere le plus petit sous-espace stable F contenant x, et lendomorphisme v
induit par u sur F.
On sait dune part que
v
(v) = 0 (et donc
v
(v)(x) =
v
(u)(x) = 0 puisque x F),
dautre part que
v
divise
u
(cf prop. 1.4.7). Donc
u
(u)(x) = 0.
1.8 Polynome minimal
Nous avons vu dans la section precedente que tout endomorphisme u admettait au moins
un polynome annulateur non nul :
u
. On peut se demander sil en existe dautres et si certains
polynomes annulateurs sont dun interet particulier. Pour repondre `a ces questions, il convient
dabord de rappeler ce quest un ideal
3
de K[X].
Denition 1.8.1 On dit que A est un ideal de K[X] si les proprietes suivantes sont veriees :
1. A est un sous-groupe de (K[X], +),
2. A est stable par multiplication (i.e P A, Q K[X], PQ A).
On dispose alors du resultat fondamental suivant :
Theor`eme 1.8.2 Pour tout ideal A de K[X] non reduit ` a 0, il existe un unique polyn ome
unitaire
4
I tel que A = IK[X]. Ce polyn ome I est appele generateur de lideal A et on dit que
K[X] est un anneau principal.
Mais revenons aux polynomes annulateurs. On a le
Theor`eme 1.8.3 Soit u End(E). Alors lensemble des polyn omes annulateurs de u est Ker
(o` u a ete denie ` a la proposition 1.7.2). Cet ensemble est un ideal de K[X] non reduit ` a 0.
Son generateur est appele polynome minimal de u et note m
u
.
Preuve : Il est clair que lensemble des polynomes annulateurs de u est ker . Cet ensemble
est stable par combinaison lineaire et par produit. Cest donc un ideal de K[X]. De plus
il contient
u
(cf th. de Cayley-Hamilton) qui nest pas nul, donc ker nest pas reduit `a
0. Le theor`eme 1.8.2 assure lexistence de m
u
.
3
Pour plus de details, consulter un cours de 1`ere annee, par exemple [3].
4
Cest-`a-dire `a coecient dominant egal `a 1
26 CHAPITRE 1. R

EDUCTION DES ENDOMORPHISMES


La proposition suivante qui decoule facilement de la denition du generateur dun ideal, permet
de caracteriser le polynome minimal.
Proposition 1.8.4 Soit u End(E) et P un polyn ome unitaire. Les proprietes suivantes sont
equivalentes :
i) P = m
u
,
ii) P(u) = 0 et

Q(u) = 0

P [ Q

,
iii) P(u) = 0 et

Q(u) = 0 avec Q = 0

deg P deg Q

.
De fa con analogue, pour toute matrice carree A, ker est lensemble des polynomes annula-
teurs de A. Cest un ideal non trivial de K[X], ce qui permet de denir le polynome minimal
m
A
de A. Il y a bien s ur une correspondance etroite entre polynome minimal de matrices et
dendomorphismes :
Proposition 1.8.5 Soit u End(E) de matrice A par rapport ` a une base B donnee. Alors
m
u
= m
A
.
Dapr`es le theor`eme de Cayley-Hamilton, le polynome caracteristique est un polynome annula-
teur. De la proposition precedente, on deduit la
Proposition 1.8.6 Le polyn ome minimal divise le polyn ome caracteristique. En particulier,
1 deg m
u
n.
De plus, si
u
(resp.
A
) est scinde alors m
u
(resp. m
A
) aussi.
Voil`a quelques proprietes elementaires satisfaites par le polynome minimal :
Proposition 1.8.7 Soit u End(E) et A
n
(K). On a
i) m
A
= mt
A
,
ii) Si A est semblable ` a B
n
(K) alors m
A
= m
B
.
Preuve : La preuve de i) decoule de la formule P(
t
A) =
t
(P(A)).
Si A et B sont semblables, alors elles ont les memes polynomes annulateurs (cf. prop.
1.7.11), ce qui donne iii).
Comme pour le calcul du polynome caracteristique (cf. prop. 1.4.7), connatre des sous-
espaces stables donne des renseignements sur le polynome minimal :
Proposition 1.8.8 Soit u End(E).
i) Si F est un sous-espace stable de u alors m
u
F
divise m
u
.
ii) Si E = F G avec F et G sous-espaces stables de u alors m
u
= PPCM(m
u
F
, m
u
G
).
Preuve : Soit F un sous-espace stable de u et soit P un polynome annulateur de u. On a
P(u)(x) = 0 pour tout x E, donc a fortiori pour tout x F. Donc P(u
F
) = 0. Donc
m
u
F
divise P. En particulier, m
u
F
divise m
u
, ce qui prouve i).
Si u poss`ede deux sous-espaces stables F et G tels que E = F G, on sait dej`a dapr`es i)
que m
u
F
et m
u
G
divisent m
u
. Donc M
def
= PPCM(m
u
F
, m
u
G
) divise m
u
.
Pour montrer legalite, considerons x E que lon decompose en x = y + z avec y F
et z G. Le polynome M est un multiple de m
u
F
(resp. m
u
G
) donc est un polynome
annulateur de u
F
(resp. u
G
). En consequence M(u
F
)(y) = M(u)(y) = 0 et M(u
G
)(z) =
M(u)(z) = 0, do` u M(u)(x) = 0.
1.8. POLYN

OME MINIMAL 27
Proposition 1.8.9 Soit u End(E) et K. Les proprietes suivantes sont equivalentes :
i) est valeur propre de u,
ii) est racine de
u
,
iii) est racine de m
u
.
Resultat analogue pour les matrices.
Preuve : i) ii) a dej`a ete prouve (cf. th. 1.4.6).
i) iii) : Soit une valeur propre de u et x un vecteur propre non nul associe `a . On a
0 = m
u
(u)(x) = m
u
()x.
Donc m
u
() = 0.
iii) i) : Soit une racine de m
u
. Alors m
u
peut etre factorise par (X ) : il existe
Q K[X] tel que m
u
= (X )Q. Or Q ne peut pas etre un polynome annulateur de u.
Donc il existe x E tel que Q(u)(x) = 0.
Par ailleurs,
0 = m
u
(u)(x) = (u Id)[Q(u)(x)].
Donc ker(u Id) contient un vecteur non nul, ce qui montre que est valeur propre de
u.
Exemples :
1. Homotheties
Si u End(E) est lhomothetie de rapport alors m
u
= X .
En eet, par denition meme de u, le polynome X est un polynome annulateur de u.
Mais comme deg m
u
1, on en deduit que m
u
= X .
2. Projections
On suppose que E = F G (avec F et G non reduits `a 0). Soit p le projecteur sur F
parall`element `a G. On sait que Sp(p) = 0, 1 donc 0 et 1 doivent etre racines de m
p
. Donc
X
2
X doit diviser m
p
. Mais tout projecteur verie p
2
p = 0. Donc
m
p
= X
2
X.
3. Symetries
On suppose que E = F G (avec F et G non reduits `a 0). Soit s la symetrie par rapport
`a F parall`element `a G. On sait que Sp(s) = 1, 1 donc X
2
1 doit diviser m
s
. Mais
toute symetrie verie s
2
Id = 0. Donc
m
s
= X
2
1.
4. Endomorphismes nilpotents
Soit u nilpotent dindice p. Par denition meme de p, on sait que X
p
est un polynome
annulateur de u, et que X
p1
ne lest pas. Donc m
u
doit diviser X
p
mais pas X
p1
. Cela
entrane
m
u
= X
p
.
Remarque : Comme m
u
doit diviser
u
= (1)
n
X
n
, on a montre au passage que lindice
de nilpotence dun endomorphisme nilpotent sur E est inferieur ou egal `a la dimension de
E.
28 CHAPITRE 1. R

EDUCTION DES ENDOMORPHISMES


5. Matrice de Frobenius
Soit A une matrice de Frobenius de taille n. On a vu dans la preuve du theor`eme de
Cayley-Hamilton que
i 1, , n 1, A
i
c
1
= c
i+1
.
Donc les vecteurs colonnes (c
1
, Ac
1
, , A
n1
c
1
) sont lineairement independants. On en
deduit quil nexiste pas de polynome P non nul de degre strictement inferieur `a n et tel
que P(A)c
1
= 0. Mais on sait que
A
(qui est de degre n) annule A. Donc,
m
A
= (1)
n

A
= X
n

n1

i=0
a
i
X
i
.
Lemme 1.8.10 (Lemme des noyaux) Soit P et Q deux polyn omes premiers entre eux. Alors
ker(PQ)(u) = ker P(u) ker Q(u).
Preuve : Dapr`es le theor`eme de Bezout
5
, il existe deux polynomes U et V tels que
(1.6) PU +QV = 1.
Soit x Ker P(u) Ker Q(u). Dapr`es (1.6), on a
x = U(u)[P(u)(x)]
. .. .
y
+V (u)[Q(u)(x)]
. .. .
z
= 0
puisque P(u)(x) = Q(u)(x) = 0. Donc Ker P(u) Ker Q(u) = 0.
Si maintenant x Ker (PQ)(u) alors, la decomposition x = y +z ci-dessus donne
Q(u)(y) = (QUP)(u)(x) = (UPQ)(u)(x) = U(u)[(PQ)(u)](x) = 0,
donc y Ker Q(u).
De meme, on montre que z Ker P(u), do` u
Ker (PQ)(u) ker P(u) ker Q(u).
Il est par ailleurs clair que ker P(u) ker(PQ)(u) et que ker Q(u) ker(PQ)(u), do` u le
resultat voulu.
Remarque : Si PQ est un polynome annulateur de u, alors le lemme des noyaux donne une
decomposition de E en somme de deux sous-espaces stables de u.
Remarque 1.8.11 Une recurrence elementaire permet de prouver la generalisation suivante du
lemme des noyaux. Soit Q
1
, , Q
k
k polyn omes premiers entre eux dans leur ensemble. Alors
on a
ker(
k

i=1
Q
i
)(u) =
k

i=1
ker Q
i
(u).
Theor`eme 1.8.12 Soit u End(E) de spectre Sp(u) =
1
, ,
p
. Les proprietes
suivantes sont equivalentes.
i) u est diagonalisable,
ii) m
u
=
p

i=1
(X
i
),
iii) m
u
est scinde ` a racines simples,
iv) u admet un polyn ome annulateur scinde ` a racines simples.
Resultat analogue pour les matrices.
5
Voir le cours de 1`ere annee [3].
1.8. POLYN

OME MINIMAL 29
Preuve : i) ii) : Dapr`es la proposition 1.8.9, les racines de m
u
sont les valeurs propres de
u. Donc le polynome M
def
=
p

i=1
(X
i
) divise m
u
.
Si x
i
est un vecteur propre associe `a
i
, alors il est clair que (u
i
Id)(x
i
) = 0, et donc
(1.7) M(u)(x
i
) =

j=i
(
j
Idu)

(
i
Id u)(x
i
) = 0.
Si u est diagonalisable alors en vertu du theor`eme 1.5.5, E =

p
i=1
E

i
. Donc tout x E
se decompose en x = x
1
+ +x
p
avec x
i
E

i
puis, gr ace `a (1.7),
M(u)(x) =
p

i=1
M(u)(x
i
) = 0.
ii) iii) et iii) iv) : Trivial.
iv) i) : Soit P un polynome annulateur de u scinde `a racines simples (que lon peut
toujours supposer unitaire) :
P =
q

i=1
(X
i
) avec les
i
deux `a deux distincts.
Comme les polynomes X
i
sont premiers entre eux dans leur ensemble, on peut appliquer
le lemme des noyaux generalise (remarque 1.8.11), ce qui donne
E = ker P(u) =
q

i=1
ker(u
i
Id).
Si, dans cette decomposition, on ne garde que les
i
tels que ker(u
i
Id) ne soit pas
reduit `a 0, on a obtenu une decomposition de E en somme de sous-espaces propres de
u. Donc u est diagonalisable.
Corollaire 1.8.13 Soit u un endomorphisme diagonalisable et F un sous-espace stable de u.
Alors lendomorphisme u
F
induit par u sur F est diagonalisable.
Preuve : Si u est diagonalisable, alors, dapr`es le theor`eme 1.8.12, il existe P K[X] scinde `a
racines simples tel que P(u) = 0. On a bien s ur aussi P(u
F
) = 0. Donc, `a nouveau dapr`es
le theor`eme 1.8.12, u
F
est diagonalisable.
Theor`eme 1.8.14 (Reduction simultanee) Soit u et v deux endomorphismes diagonalisa-
bles de E qui commutent. Alors il existe une base de diagonalisation commune pour u et v.
De meme, si A et B sont deux matrices diagonalisables qui commutent, alors il existe P
GL
n
(K) et deux matrices diagonales D et D

telles que
A = PDP
1
et B = PD

P
1
.
Preuve : Traitons le cas des endomorphismes. Soit donc u et v diagonalisables qui commutent.
En vertu du theor`eme 1.5.5, on peut ecrire
(1.8) E =
p

i=1
E

i
(u).
30 CHAPITRE 1. R

EDUCTION DES ENDOMORPHISMES


Comme u et v commutent, chaque E

i
(u) est stable par v, et on peut donc denir len-
domorphisme v
i
induit par v sur E

i
(u). Dapr`es le corollaire 1.8.13, v
i
est diagonalisable.
Donc on peut trouver une base (e
i
1
, , e
i

i
) de E

i
(u) qui est une base de vecteurs propres
pour v
i
. Bien s ur, chaque e
i
k
est egalement vecteur propre de u pour
i
.
En rassemblant les bases obtenues pour chaque E

i
(u), on obtient une base de E (gr ace `a
(1.8)) qui est une base commune de vecteurs propres pour u et v.
Remarque : Ce theor`eme de reduction simultanee setend sans diculte majeure au cas de p
endomorphismes diagonalisables qui commutent.
1.9 Sous-espaces caracteristiques
Lemme 1.9.1 Soit u End(E) et une valeur propre de u. Notons la multiplicite de dans
m
u
. Alors la suite de sous-espaces vectoriels ker(u Id)
m

mN
est croissante (au sens de
linclusion) et stationnaire ` a partir du rang .
Preuve : Notons v
def
= u Id. Il est clair que v
m
(x) = 0 entrane v
m+1
(x) = 0. On a donc
bien ker v
m
ker v
m+1
. De plus, il nest pas dicile de verier que

ker v
m
= ker v
m+1

ker v
m+1
= ker v
m+2

.
Par consequent la suite

dim(kerv
m
)

mN
est une suite croissante dentiers qui devient
stationnaire d`es que deux termes consecutifs sont egaux. Comme elle est visiblement ma-
joree par n = dimE, on conclut quil existe un p n tel que (ker v
m
)
mN
soit strictement
croissante pour m p 1 et stationnaire `a partir du rang p.
Le polynome minimal m
u
de u peut se decomposer en
m
u
= Q(X )

.
avec Q et (X )

premiers entre eux. A fortiori Q et X sont premiers entre eux, et


donc, dapr`es le lemme des noyaux,
(1.9) ker Q(u) ker(u Id) = 0.
Par denition de p, il existe x ker(u Id)
p
tel que y
def
= (u Id)
p1
(x) = 0. Comme
de plus y ker(u Id), la relation (1.9) assure que y Ker Q(u). Donc
Q(u)(y) = Q(u)(u Id)
p1
(x) = 0.
On conclut que Q(X )
p1
nest pas un polynome annulateur de u, et donc p .
A ce point, on peut armer que ker(u Id)

= ker(u Id)
p
. Appliquons le lemme des
noyaux :
E = ker Q(u) ker(u Id)

= ker Q(u) ker(u Id)


p
.
On conclut que Q(X )
p
est un polynome annulateur de u, do` u p.
Denition 1.9.2 Soit u End(E) et une valeur propre de u de multiplicite dans m
u
.
Lespace E

(u)
def
= ker(u Id)

(note simplement E

en labsence dambigute) est appele sous-


espace caracteristique de u associe ` a la valeur propre .
1.9. SOUS-ESPACES CARACT

ERISTIQUES 31
Remarque : Si est valeur propre de u, on a toujours E

. De plus, si lon note la


multiplicite de dans
u
, on a n et de ce fait,
E

= ker(u Id)

= ker(u Id)

= ker(u Id)
n
.
Exemples :
1. Endomorphismes diagonalisables : Si u est diagonalisable, pour chaque valeur propre
de u, on a E

= E

.
2. Endomorphismes nilpotents : Si u est nilpotent alors u a un seul sous-espace ca-
racteristique : E

0
= E.
Theor`eme 1.9.3 Soit une valeur propre de u de multiplicite dans
u
et dans m
u
. Alors
E

est un sous-espace stable de u de dimension . De plus, lendomorphisme v

induit par
u Id sur E

est nilpotent dindice .


Preuve : La stabilite decoule de la proposition 1.7.6.
Notons u

(resp. v

) lendomorphisme induit par u (resp. u Id) sur E

.
Dapr`es le lemme 1.9.1, v

= 0 et v
1

= 0. Donc v

est nilpotent dindice . Dapr`es la


proposition 1.4.7,
u

divise
u
, et en revenant `a la denition du polynome caracteristique,
on montre facilement que
x K,
u

(x) =
v

(x ).
Mais
v

= (X)
p
avec p = dimE

(cf corollaire 1.6.4), donc


u

= ( X)
p
.
Par ailleurs, il existe un polynome Q premier avec (X )

et tel que
u
= Q(X )

.
Dapr`es le lemme des noyaux, on a
(1.10) E = ker Q(u) ker(u Id)

,
et lon sait que ker Q(u) est stable par u (cf prop. 1.7.6), et que ker(u Id)

= E

(puisque ). Soit w lendomorphisme induit par u sur ker Q(u). Remarquons tout de
suite que nest pas valeur propre de w (cela contredirait (1.10)). Par ailleurs, dapr`es la
proposition 1.4.7, on a

u
=
u

w
= ( X)
p

w
= Q(X )

.
Les polynomes (X)
p
et
w
(resp. Q et (X)

) sont premiers entre eux. En appliquant


le theor`eme de Gauss, on conclut que = p.
Theor`eme 1.9.4 Soit u End(E) ` a polyn ome caracteristique scinde et de spectre Sp(u) =

1
, ,
p
. Notons
i
la multiplicite de
i
dans
u
. Alors on a
E =
p

i=1
E

i
et il existe une base B de E telle que
mat
B
(u) =

T
1
0 0
0 T
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 T
p

,
o` u T
k
est une matrice triangulaire superieure de taille
k
avec des
k
sur la diagonale.
32 CHAPITRE 1. R

EDUCTION DES ENDOMORPHISMES


Preuve : Comme
u
est scinde, on a

u
= (1)
n
p

i=1
(X
i
)

i
.
Les polynomes (X
i
)

i
sont premiers entre eux dans leur ensemble. Le lemme des noyaux
generalise assure donc que les sous-espaces caracteristiques sont en somme directe. Mais
on sait gr ace au theor`eme precedent que dimE

i
=
i
. Donc
p

i=1
dimE

i
=
p

i=1

i
= n,
do` u E =

p
i=1
E

i
.
Gr ace au theor`eme precedent, lendomorphisme u
i
induit par u sur E

i
peut secrire
u
i
=
i
Id
E

i
+v
i
avec v
i
nilpotent,
et donc
u
i
= (
i
X)

i
. Le theor`eme 1.6.2 assure lexistence dune base B
i
par rapport
`a laquelle la matrice T
i
de u
i
est triangulaire superieure de taille
i
avec des
i
sur la
diagonale.
En prenant la reunion de toutes ces bases B
i
pour i decrivant 1, , p, on obtient une
base B de E par rapport `a laquelle la matrice de u est du type voulu.
Theor`eme 1.9.5 (Decomposition de Dunford) Soit u End(E) ` a polyn ome ca-
racteristique scinde. Alors il existe un endomorphisme d diagonalisable et un endomor-
phisme nilpotent tels que
u = d + et d = d.
Cette decomposition est unique.
Preuve : Notons Sp(u) =
1
, ,
p
.
Existence de la decomposition : Soit p
i
le projecteur sur E

i
parall`element `a

i=j
E

j
.
Posons
d =
p

i=1

i
p
i
et = u d.
Remarquons que, par construction, chaque E

i
est stable par d, u et .
De plus, il est clair que d(x) =
i
x pour tout x E

i
. On en deduit que toute base adaptee
`a la decomposition E =

p
i=1
E

i
est une base de vecteurs propres pour d. Donc d est
diagonalisable.
Par ailleurs, lendomorphisme induit par u d sur E

i
nest autre que u
E

i
Id
E

i
qui
est nilpotent (cf th. 1.9.3). En utilisant une fois de plus que E =

p
i=1
E

i
, il est alors aise
detablir que
def
= u d est nilpotent.
Reste `a verier que et d commutent. Soit x E. On peut decomposer x de fa con unique
en
x =
p

i=1
x
i
avec x
1
E

1
, , x
p
E

p
.
Comme d(x
i
) =
i
x
i
, on a
d(x) = (d)

i=1
x
i

=
p

i=1
(d(x
i
)) =
p

i=1

i
(x
i
).
1.9. SOUS-ESPACES CARACT

ERISTIQUES 33
Mais comme chaque (x
i
) est dans E

i
, on a egalement d((x
i
)) =
i
(x
i
), do` u
p

i=1

i
(x
i
) =
p

i=1
d((x
i
)) = (d)

i=1
x
i

= d(x).
Unicite de la decomposition : Supposons que lon puisse trouver un deuxi`eme couple
(d

) tel que u = d

avec d

diagonalisable,

nilpotent et d

.
On constate que
ud

= (d

)d

= (d

)
2
+

= (d

)
2
+d

= d

(d

) = d

u.
De meme u et

commutent. De ce fait, d

et

commutent avec tout polynome en u,


donc en particulier avec tous les (u
i
Id)

i
. En appliquant la proposition 1.7.6, on en
deduit que tous les E

i
sont stables par d

et

.
D`es lors, les arguments qui ont servi `a prouver que d = d permettent egalement de
montrer que dd

= d

d et d

d. Comme = ud, on en deduit que d

et

commutent
aussi avec .
Le theor`eme de reduction simultanee assure que d et d

admettent une base commune de


vecteurs propres. Donc d d

est diagonalisable. Par ailleurs, comme et

commutent,
on peut appliquer la formule du bin ome de Newton pour calculer (

)
p
:
(

)
p
=
p

k=0
C
k
p

k
(1)
pk
(

)
pk
.
Pour p 2n et k 0, , p, lun des deux entiers k et p k est forcement superieur
ou egal `a n, donc le produit
k
(1)
pk
(

)
pk
est nul. Donc (

)
p
est nul et

est
nilpotent.
Mais

= d d

donc

est `a la fois nilpotent et diagonalisable. Cest donc


lendomorphisme nul. Cela entrane evidemment que d

= d.
Voici la version matricielle de la decomposition de Dunford :
Theor`eme 1.9.6 Soit A
n
(K) telle que
A
soit scinde. Alors il existe une matrice
D diagonalisable, et une matrice N nilpotente telles que
A = D +N et DN = ND.
Cette decomposition est unique.
Remarque : En particulier toute matrice A de
n
(C) admet une decomposition de Dunford
dans
n
(C).
Attention : Dans la section 1.6, on a vu une methode de trigonalisation des matrices. La
matrice triangulaire superieure obtenue peut bien s ur se decomposer en D+N avec D diagonale
et N triangulaire superieure avec des 0 sur la diagonale, donc nilpotente. Mais il ny a aucune
raison pour que D et N commutent.
Trouver la decomposition de Dunford dune matrice de
n
(C) :
On note u lendomorphisme de matrice A par rapport `a la base canonique de C
n
. Voil`a
comment proceder pour trouver la decomposition de Dunford de A.
1. Calcul de
A
2. Determination des racines (
1
, ,
p
) de
A
et de leur multiplicite
1
, ,
p
.
34 CHAPITRE 1. R

EDUCTION DES ENDOMORPHISMES


3. Determination dune base particuli`ere adaptee `a la decomposition E =

i
.
Soit u
i
lendomorphisme induit par u sur E

i
. On sait dej`a que u
i
=
i
Id
E

i
+
i
avec
i
nilpotent dindice
i
(multiplicite de
i
dans le polynome minimal de A).
On veut trouver une base de E

i
par rapport `a laquelle la matrice de
i
est triangulaire
superieure avec des 0 sur la diagonale. Pour cela, on determine une base (e
i
1
, , e
i
p
1
) de
ker(u
i
Id), que lon compl`ete en une base (e
i
1
, , e
i
p
1
+p
2
) de ker(u
i
Id)
2
, que lon
compl`ete ensuite en base de ker(u
i
Id)
3
, etc, jusqu`a obtention dune base (e
i
1
, , e
i

i
)
de ker(u
i
Id)

i
tout entier. Il est facile de verier que la matrice de
i
par rapport `a
(e
i
1
, , e
i

i
) est triangulaire superieure avec des 0 sur la diagonale.
La base de C
n
cherchee est la reunion de toutes les bases (e
i
1
, , e
i

i
) determinees prece-
demment.
Remarque : Il nest pas toujours evident de connatre
i
davance. En pratique, on trouve
cet indice au cours de la procedure de recherche dune base de E

i
comme ci-dessus : cest
le plus petit indice veriant ker(u
i
Id)

i
= (u
i
Id)

i
+1
.
4. Decomposition de Dunford
On forme la matrice P dont les colonnes sont les vecteurs de la base obtenue `a letape
precedente. On calcule T = P
1
AP. Cette matrice T est triangulaire superieure. On la
decompose en T = + o` u est la matrice diagonale dont les termes diagonaux sont
ceux de T. Il ne reste plus qu`a poser
D = PP
1
et N = PP
1
.
Application : Calcul des puissances dune matrice
1. Cas diagonalisable : Dans ce cas, il existe P GL
n
(C) et D diagonale telles que A =
PDP
1
. On constate que A
2
= PDP
1
PDP
1
= PD
2
P
1
. Une recurrence elementaire
donne
k N, A
k
= PD
k
P
1
.
Or, D
k
se calcule tr`es facilement :
D = diag(
1
, ,
n
) = D
k
= diag(
k
1
, ,
k
n
).
Finalement, dans le cas A diagonalisable, le calcul de A
k
est immediat pourvu que lon
connaisse les valeurs propres de A et la matrice de passage de la base canonique de K
n
vers une base de vecteurs propres.
Remarque : Si A est diagonalisable dans C mais pas dans R, rien nempeche de diago-
naliser dans
n
(C). Le resultat nal doit bien s ur etre reel !
2. Cas non diagonalisable : Quitte `a travailler dans C, on peut toujours supposer que A
est trigonalisable. Cest alors que la decomposition de Dunford va saverer particuli`erement
utile.
En eet, on peut ecrire A = D + N avec D diagonalisable, N nilpotente, et DN = ND.
Comme D et N commutent, on peut appliquer la formule du bin ome de Newton :
A
k
=
k

j=0
C
j
k
N
j
D
kj
.
En fait, comme N est nilpotente, on a N
j
= 0 pour j p avec p indice de nilpotence de
N. La somme ci-dessus comporte donc au plus p termes
6
meme si k est tr`es grand.
6
et lon sait de plus que p n.
1.9. SOUS-ESPACES CARACT

ERISTIQUES 35
Pour eectuer le calcul le plus simplement possible, on peut utiliser les matrices , et P
obtenues au cours du processus de determination de la decomposition de Dunford. Comme
par construction et commutent, on a
A
k
= (D +N)
k
= P( + )
k
P
1
= P

j=0
C
j
k

kj

P
1
.
Les puissances de sont immediates `a calculer puisque est diagonale. Par ailleurs
est nilpotente donc
j
= 0 pour j n. Donc au pire, il faudra calculer les n1 premi`eres
puissances de .
36 CHAPITRE 1. R

EDUCTION DES ENDOMORPHISMES


Chapitre 2
Espaces euclidiens et
endomorphismes symetriques
2.1 Formes bilineaires
2.1.1 Generalites
Dans toute cette partie, E et F sont des espaces vectoriels sur R.
Denition 2.1.1 On dit quune application b est une forme bilineaire sur EF si b est une
application de E F ` a valeurs dans R qui est lineaire par rapport ` a chacune de ses variables :
(x, x

, y) EEF, (,

) R
2
, b(x+

, y) = b(x, y) +

b(x

, y),
(x, y, y

) EF F, (,

) R
2
, b(x, y+

) = b(x, y) +

b(x, y

).
On note L
2
(E F; R) lensemble des formes bilineaires sur E F.
Exemples :
1. Multiplication dans R :
b :

RR R
(x, y) xy.
2. Integration dun produit de fonctions de E
def
= C([0, 1]; R) :
b :

EE R
(u, v)

1
0
u(x)v(x) dx.
3. Produit scalaire de deux vecteurs de R
2
:
b :

R
2
R
2
R
(u, v) u
1
v
1
+u
2
v
2
.
4. Determinant de deux vecteurs de R
2
:
b :

R
2
R
2
R
(u, v) det(u, v).
On supposera desormais que E et F sont de dimension nie : dimE = n et dimF = p.
37
38 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYM

ETRIQUES
Proposition 2.1.2 Soit b une forme bilineaire sur E F, B
E
= (e
1
, , e
n
), une base de E et
B
F
= (f
1
, , f
p
) une base de F. Alors b est determinee de facon unique par sa valeur sur les
vecteurs de base. La matrice A
n,p
(R) dont les coecients sont a
ij
def
= b(e
i
, f
j
) est appelee
matrice de la forme bilineaire b.
Preuve : Soit (x, y) EF. Alors il existe un n-uplet (x
1
, , x
n
) et un p-uplet (y
1
, , y
p
)
tels que
x =
n

i=1
x
i
e
i
et y =
p

j=1
y
j
f
j
.
En utilisant la bilinearite de b, on trouve donc
(2.1) b(x, y) =
n

i=1
p

j=1
x
i
y
j
b(e
i
, f
j
).
Clairement, la donnee des b(e
i
, f
j
) permet de determiner enti`erement b.
Corollaire 2.1.3 L
2
(EF; R) est un R-espace vectoriel isomorphe ` a
n,p
(R). En particulier,
il est de dimension np.
La formule (2.1) nous permet de calculer b(x, y) `a laide du calcul matriciel :
Proposition 2.1.4 Soit b L
2
(E F; R). Soit B
E
= (e
1
, , e
n
) une base de E et B
F
=
(f
1
, , f
p
) une base de F. Notons A la matrice de b par rapport aux bases B
E
et B
F
. Soit x E
de coordonnees (x
1
, , x
n
) par rapport ` a la base B
E
et y F de coordonnees (y
1
, , y
p
) par
rapport ` a la base B
F
.
Notons X =

x
1
.
.
.
x
n

et Y =

y
1
.
.
.
y
p

. Alors on a b(x, y) =
t
XAY.
Remarque : Il convient de se rappeler que
t
XAY est en fait un scalaire, donc est egal `a sa
transposee. Ainsi, lon a
b(x, y) =
t
XAY =
t
Y
t
AX.
Proposition 2.1.5 Soit b L(E F; R). On consid`ere deux bases B
E
= (e
1
, , e
n
) et B

E
=
(e

1
, , e

n
) de E, et deux bases B
F
= (f
1
, , f
p
) et B

F
= (f

1
, , f

p
) de F.
Notons A (resp. A

) la matrice de b par rapport aux bases B


E
et B
F
(resp. B

E
et B

F
). Soit
P (resp. Q) la matrice de passage de B
E
` a B

E
(resp. B
F
` a B

F
). Alors on a la formule
B =
t
PAQ.
Preuve : Soit x E et y F. Notons (x
1
, , x
n
) (resp. (y
1
, , y
p
)) les coordonnees de x
(resp. y) par rapport `a B
E
(resp. B
F
) et X (resp. Y ) le vecteur colonne correspondant.
On denit de meme les vecteurs colonnes X

et Y

relatifs aux coordonnees de x et y par


rapport aux bases B

E
et B

F
. Par denition de P et Q, et on a X = PX

et Y = QY

. En
appliquant la formule de la proposition 2.1.4, il vient donc
b(x, y) =
t
XAY =
t
(PX

)A(QY

) =
t
X

(
t
PAQ)Y

.
Mais par denition de B, le dernier terme vaut aussi
t
X
t
BY

, do` u le resultat.
Remarque : Si A et B sont les matrices dune meme forme bilineaire (mais par rapport `a des
bases eventuellement dierentes) alors elles sont equivalentes. Elles sont donc de meme rang.
Cela va nous permettre de denir le rang dune forme bilineaire.
Denition 2.1.6 Soit b une forme bilineaire sur E F. On appelle rang de b (note rg b) le
rang dune quelconque matrice de b.
2.1. FORMES BILIN

EAIRES 39
2.1.2 Formes bilineaires symetriques
Dans toute la suite, on supposera que F = E.
Denition 2.1.7 On dit que b L
2
(E E; R) est une forme bilineaire symetrique si
(x, y) E E, b(x, y) = b(y, x).
On note o
2
(E; R) lensemble des formes bilineaires symetriques sur R.
Denition 2.1.8 Si b o
2
(E; R), on pose
x E, q(x) = b(x, x).
Lapplication q est appelee forme quadratique associee ` a b. Lapplication bilineaire symetrique
b est appelee forme polaire de q.
Remarque : La connaissance de q permet de retrouver b. On a les formules suivantes :
(x, y) EE, b(x, y) =
1
2

q(x +y) q(x) q(y)

=
1
4

q(x +y) q(x y)

.
Dans toute la suite, E est suppose de dimension nie n.
Proposition 2.1.9 Soit b une forme bilineaire sur E et B = (e
1
, , e
n
) une base de E. Notons
A la matrice de b par rapport ` a la base B. Alors b est symetrique si et seulement si A est
symetrique (i.e A =
t
A).
Preuve : Supposons b bilineaire symetrique. Alors pour tout (i, j) 1, , n
2
, on a
a
ij
= b(e
i
, e
j
) = b(e
j
, e
i
) = a
ji
donc A est symetrique.
Reciproquement, supposons A symetrique. Soit (x, y) E
2
, et notons X (resp. Y ) le
vecteur colonne dont les composantes sont les coordonnees de x (resp. y) par rapport `a la
base B. Alors, dapr`es la proposition 2.1.4, la remarque qui suit, et la symetrie de A, on a
b(x, y) =
t
XAY =
t
X
t
AY =
t
(
t
Y AX) =
t
Y AX = b(y, x).
Corollaire 2.1.10 Lensemble des formes bilineaires symetriques est un sous-espace vectoriel
de L
2
(E E; R) isomorphe ` a lensemble o
n
(R) des matrices symetriques reelles de taille n. On
a donc dim

L
2
(E E; R)

= n(n + 1)/2.
Proposition 2.1.11 Soit B et B

deux bases de E, et P la matrice de passage de B ` a B

.
Soit b une forme bilineaire sur E. Soit A (resp. B) la matrice de b par rapport ` a B (resp.
B

). Alors on a
B =
t
PAP,
Preuve : Cest un cas particulier de la proposition 2.1.5.
Remarque : Soit A et B deux matrices symetriques. Sil existe P GL
n
(R) telle que B =
t
PAP, on dit que les matrices A et B sont congrues. En particulier elles sont equivalentes, et
ont donc meme rang.
40 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYM

ETRIQUES
Attention : Ne pas confondre semblable et congru ! Il ny a pas de relation dimplication entre
les deux notions.
Denition 2.1.12 Soit b une forme bilineaire symetrique sur E, et F un sous-espace vectoriel
de E. On appelle restriction de b au s.e.v F la forme bilineaire symetrique b
F
sur F denie par
(x, y) F
2
, b
F
(x, y) = b(x, y).
Remarque : Soit F un sous-espace vectoriel de E de dimension p. Soit (e
1
, , e
n
) une base
de E telle que (e
1
, , e
p
) soit base de F. Considerons enn b une forme bilineaire symetrique
sur E, de matrice A par rapport `a (e
1
, , e
n
). Alors on a
A =

B C
t
C D

,
avec B
p
(R) matrice de b
F
par rapport `a la base (e
1
, , e
p
).
Denition 2.1.13 Soit b une forme bilineaire symetrique sur E, et (x, y) E
2
. On dit que x
est orthogonal `a y si b(x, y) = 0. On note xy.
Denition 2.1.14 Soit b une forme bilineaire symetrique sur E. Pour tout x E, on denit
lorthogonal de x par rapport ` a b par la formule
x

def
= y E [ b(x, y) = 0.
Plus generalement, pour tout sous-ensemble A non vide de E, on denit lorthogonal de A par
A

def
= y E [ x A, b(x, y) = 0.
Proposition 2.1.15 Pour tout A E non vide, lorthogonal de A par rapport ` a la forme
bilineaire symetrique b est un sous-espace vectoriel de E.
Preuve : Clairement A

contient 0. Il sut donc de verier que A

est stable par combinai-


sons lineaires. Cest une consequence immediate de la linearite de b par rapport `a chaque
variable.
Proposition 2.1.16 Soit b bilineaire symetrique sur E. Lensemble E

est appele noyau de b,


et note ker b. On a alors la formule suivante :
rg b + dim(Ker b) = dimE.
Preuve : Notons p = dim(Ker b). On consid`ere une base (e
1
, , e
p
) de ker b que lon compl`ete
en une base (e
1
, , e
n
) de E. Dans cette base, la matrice A de b est de la forme :
A =

0 0
0 B

,
avec B o
np
(R). Il est donc clair que rg A n p.
Supposons par labsurde quil existe une relation de dependance lineaire entre les colonnes
de B. Quitte `a changer lordre des n p derniers vecteurs de base, on peut toujours
supposer que la derni`ere colonne de B (ou de A) est combinaison lineaire des n p 1
precedentes. Il existe donc (
1
, ,
np1
) R
np1
tel que
i 1, , n, b(e
i
, e
n
) =
np1

j=1

j
b(e
i
, e
j+p
).
On en deduit que e
n

np1
j=1

j
e
j+p
appartient `a ker b. Ce vecteur nappartient visible-
ment pas `a Vect(e
1
, , e
p
), ce qui contredit lhypoth`ese dimker b = p.
On a donc rg B = rg A = n p do` u la proposition.
2.1. FORMES BILIN

EAIRES 41
Denition 2.1.17 Une forme bilineaire symetrique b est dite :
Non degeneree si ker b = E

= 0,
Positive si pour tout x E, on a b(x, x) 0,
Negative si pour tout x E, on a b(x, x) 0,
Denie positive si elle est positive et non degeneree,
Denie negative si elle est negative et non degeneree.
Gr ace `a la proposition 2.1.16, on a immediatement :
Proposition 2.1.18 Une forme bilineaire symetrique sur E est non degeneree si et seulement
si elle est de rang n.
Denition 2.1.19 Soit A o
n
(R). On dit que A est
Non degeneree si rg A = n,
Positive si pour tout X
n,1
(R), on a
t
XAX 0,
Negative si pour tout X
n,1
(R), on a
t
XAX 0,
Denie positive si elle est positive et non degeneree,
Denie negative si elle est negative et non degeneree.
Remarque : Si A est la matrice dune forme bilineaire b par rapport `a une base B de E alors b
est non degeneree si et seulement si A est non degeneree, b est positive si et seulement si A est
positive, etc.
Proposition 2.1.20 (Inegalite de Cauchy-Schwarz) Soit b une forme bilineaire symetrique
positive sur E. Alors on a
(x, y) E
2
, [b(x, y)[

b(x, x)b(y, y).


Preuve : Pour R, posons f() = b(x +y, x +y). Un calcul immediat donne
(2.2) f() =
2
b(y, y) + 2b(x, y) +b(x, x).
La positivite de b entrane la positivite de la fonction f sur R entier.
1er cas : b(y, y) = 0 : La fonction f est alors une fonction ane positive sur R entier.
Donc necessairement le coecient b(x, y) doit etre nul. Linegalite de Cauchy-Schwarz
est donc bien veriee.
2`eme cas : b(y, y) = 0 : La fonction f est un polynome de degre 2 en qui reste positif
pour tout R. Son discriminant = 4[b(x, y)[
2
4b(x, x)b(y, y) est donc negatif,
ce qui montre linegalite voulue.
Corollaire 2.1.21 Une forme bilineaire symetrique est denie positive si et seulement si pour
tout x non nul, on a b(x, x) > 0.
Resultat analogue pour les matrices.
Preuve : Soit donc b une forme bilineaire symetrique denie positive. Par denition b(x, x) 0
pour tout x E et E

= 0.
Considerons un x E tel que b(x, x) = 0. Dapr`es linegalite de Cauchy-Schwarz, on a
b(x, y) = 0 pour tout y E. Donc x E

, do` u x = 0.
Reciproquement si b bilineaire symetrique verie b(x, x) > 0 pour tout x non nul, elle est
clairement positive. De plus tout x E

verie b(x, x) = 0, donc son noyau est reduit `a


0.
42 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYM

ETRIQUES
2.2 Espaces euclidiens
Dans toute cette partie, E est un espace vectoriel reel de dimension nie n.
2.2.1 Generalites
Denition 2.2.1 Soit b une forme bilineaire symetrique sur E. On dit que b est un produit
scalaire sur E si b est denie positive. Lespace E muni du produit scalaire b est alors appele
espace euclidien.
Notation : Desormais, pour (E, b) espace euclidien, nous noterons ( [ ) le produit scalaire
1
:
(x, y) E
2
, (x [ y)
def
= b(x, y).
Exemple : On peut munir R
n
dune structure despace euclidien en denissant le produit
scalaire suivant appele produit scalaire canonique de R
n
:
(x, y) R
n
R
n
, (x[y) =
n

i=1
x
i
y
i
.
Notation : Pour tout x E, on pose
|x|
def
=

(x [ x).
En vertu de la bilinearite du produit scalaire, on a donc
(2.3) (c, d) E
2
, |c +d|
2
= |c|
2
+ 2(c [ d) +|d|
2
.
Cela permet de prouver lidentite du parallelogramme :
Proposition 2.2.2 (Identite du parallelogramme)
(x, y) E
2
, |x +y|
2
+|x y|
2
= 2|x|
2
+ 2|y|
2
.
Preuve : En appliquant (2.3) `a c = x, d = y, puis `a c = x et d = y, on trouve
|x +y|
2
= |x|
2
+ 2(x [ y) +|y|
2
et |x y|
2
= |x|
2
2(x [ y) +|y|
2
.
Il ne reste plus qu`a sommer les deux egalites.
Proposition 2.2.3 (Inegalite de Cauchy-Schwarz) Soit E un espace euclidien. Alors
on a
(x, y) E
2
, [(x [ y)[ |x||y|,
avec egalite si et seulement si x et y sont colineaires.
Preuve : Linegalite a dej`a ete prouvee dans la section precedente. Concentrons-nous sur les
cas degalite. Si x et y sont colineaires, il est clair que [(x [ y)[ = |x||y|.
Reciproquement, supposons quil y ait egalite et que y = 0 (sinon, il ny a rien `a prouver).
Introduisons `a nouveau la fonction f : |x +y|
2
.
Alors [(x [ y)[ = |x||y| signie que le discriminant associe `a f est nul, cest-` a-dire que
f a une racine double
0
. On a donc |x +
0
y|
2
= 0, donc, dapr`es le corollaire 2.1.21,
x +
0
y = 0, donc x et y sont colineaires.
1
Dans certains ouvrages, les notations < | > ou (, ) sont utilisees.
2.2. ESPACES EUCLIDIENS 43
Proposition 2.2.4 Soit E un espace euclidien. Alors on a les inegalites suivantes :
(x, y) E
2
, |x +y| |x| +|y| (premi`ere inegalite triangulaire),
(x, y) E
2
,

|x| |y|

|x y| (deuxi`eme inegalite triangulaire).


En particulier, lapplication

E R
+
x |x|
verie
i) x E, |x| 0 et |x| = 0 si et seulement si x = 0,
ii) x E, R, |x| = [[|x|,
iii) (x, y) E
2
, |x +y| |x| +|y|.
On dit que cest une norme.
Preuve : Pour prouver la premi`ere inegalite triangulaire, on calcule
|x +y|
2
= |x|
2
+ 2(x [ y) +|y|
2
.
Par linegalite de Cauchy-Schwarz, on a [(x [ y)[ |x||y|. Donc
|x +y|
2
|x|
2
+ 2|x||y| +|y|
2
= (|x| +|y|)
2
.
Do` u le resultat en prenant la racine carree.
Appliquons la premi`ere inegalite triangulaire `a x et y x. Il vient
|y| = |x + (y x)| |x| +|y x|,
do` u |y| |x| |y x|. En echangeant les r oles de x et de y, on obtient egalement
|x| |y| |x y| do` u la deuxi`eme inegalite.
Denition 2.2.5 On dit que (x
1
, , x
p
) est une famille orthogonale si les vecteurs de cette
famille sont orthogonaux deux ` a deux. On dit que (x
1
, , x
p
) est une famille orthonormale
si de plus |x
i
| = 1 pour tout i 1, , p. Enn, on dit que (x
1
, , x
p
) est une base
orthonormale de E si cest ` a la fois une base de E (ce qui entrane p = n), et une famille
orthonormale.
Remarque : Pour une famille orthonormale (x
1
, , x
p
), on a donc (x
i
[ x
j
) =
ij
o` u
ij
est le
symbole de Kronecker deni par
ij
= 0 si i = j et
ii
= 1.
Theor`eme 2.2.6 (de Pythagore) Soit (x
1
, , x
p
) une famille orthogonale. On a
|x
1
+ +x
p
|
2
= |x
1
|
2
+ +|x
p
|
2
.
Preuve : Considerons le cas de 2 vecteurs orthogonaux x
1
et x
2
. Le resultat decoule alors
directement de (2.3) compte tenu de (x
1
[ x
2
) = 0.
Supposons le resultat vrai pour toute famille de p 1 vecteurs orthogonaux.
En exploitant la linearite du produit scalaire par rapport `a la deuxi`eme variable (par
exemple), on constate que x
p
est orthogonal `a (x
1
+ + x
p1
). Appliquons le theor`eme
de Pythagore aux vecteurs x
p
et (x
1
+ +x
p1
) :
|x
1
+ +x
p
|
2
= |(x
1
+ x
p1
) +x
p
|
2
= |x
1
+ +x
p1
|
2
+|x
p
|
2
.
Mais on sait dej`a que |x
1
+ +x
p1
|
2
= |x
1
|
2
+ +|x
p1
|
2
, do` u le resultat pour p
vecteurs.
44 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYM

ETRIQUES
Proposition 2.2.7 Soit (x
1
, , x
p
) une famille orthogonale constituee de vecteurs tous non
nuls. Alors cette famille est libre.
Preuve : Supposons donc que

p
i=1

i
x
i
= 0. En prenant le produit scalaire de cette egalite
avec x
j
, tous les termes disparaissent, sauf celui correspondant ` a i = j. On obtient donc

j
|x
j
|
2
= 0. Mais comme x
j
= 0, on conclut que
j
= 0. Donc nalement tous les
i
sont
nuls, ce qui donne le resultat voulu.
Proposition 2.2.8 Soit (e
1
, , e
p
) une famille orthonormale de E et x Vect(e
1
, , e
p
).
Alors on a
(2.4) x =
p

i=1
(x [ e
i
)e
i
.
Si de plus y Vect(e
1
, , e
p
) alors on a la formule
(2.5) (x [ y) =
n

i=1
(x [ e
i
)(y [ e
i
).
Preuve : On note (x
1
, , x
p
) un p-uplet de reels tels que x =

p
i=1
x
i
e
i
. On a donc pour
tout j 1, , n,
(x [ e
j
) = (
p

i=1
x
i
e
i
[ e
j
) =
p

i=1
x
i
(e
i
[ e
j
) = x
j
.
On a de meme
y =
p

i=1
(y [ e
i
)e
i
,
donc, par bilinearite du produit scalaire,
(x [ y) =
n

i,j=1
(x [ e
i
)(y [ e
j
)(e
i
[ e
j
).
Le fait que (e
i
[ e
j
) =
ij
assure le resultat voulu.
Corollaire 2.2.9 La matrice A dun endomorphisme u de End(E) par rapport ` a une base
(e
1
, , e
n
) orthonormale a pour coecients
a
ij
= (u(e
j
) [ e
i
).
Preuve : On ecrit que u(e
j
) =

n
i=1
a
ij
e
i
et on applique la proposition 2.4 pour calculer a
ij
.
Theor`eme 2.2.10 (Orthonormalisation de GramSchmidt) Soit (a
1
, , a
p
) une fa-
mille libre de E. Alors il existe une unique famille orthonormale (e
1
, , e
p
) telle que
i) j 1, , p, Vect(e
1
, , e
j
) = Vect(a
1
, , a
j
),
ii) j 1, , p, (e
j
[ a
j
) > 0.
2.2. ESPACES EUCLIDIENS 45
Preuve : La preuve consiste `a construire explicitement (e
1
, , e
p
) `a laide dune recurrence
limitee.
On pose e
1
= a
1
/|a
1
|. Ce vecteur est clairement de norme 1, son produit scalaire avec
a
1
vaut |a
1
| donc est strictement positif, et bien s ur e
1
et a
1
engendrent la meme droite
vectorielle.
Supposons que lon ait construit une famille orthonormale (e
1
, , e
k
) veriant i) et ii)
pour j 1, , k. Si k = p, la preuve est terminee. Sinon, on cherche e
k+1
sous la forme
e
k+1
= (a
k+1
+
k

i=1

i
e
i
).
Prenons le produit scalaire de cette egalite avec e
j
(pour j 1, , k). Comme on veut
que e
k+1
soit orthogonal `a e
1
, , e
k
, on obtient (a
k+1
[ e
j
) +
j
= 0. Donc
e
k+1
= (a
k+1

i=1
(a
k+1
[ e
i
)e
i
).
Comme la famille (a
1
, , a
k+1
) est libre et Vect(e
1
, , e
k
) = Vect(a
1
, , a
k
), on a
a
k+1
Vect(e
1
, , e
k
). Donc le terme entre parenth`eses nest pas nul. La seule fa con de
rendre e
k+1
de norme 1 consiste donc `a choisir tel que [[|a
k+1

k
i=1
(a
k+1
[ e
i
)e
i
| = 1.
Donc
e
k+1
=
a
k+1

k
i=1
(a
k+1
[ e
i
)e
i
|a
k+1

k
i=1
(a
k+1
[ e
i
)e
i
|
.
En utilisant le corollaire 2.5, on obtient de plus
(e
k+1
[ a
k+1
) =
[(a
k+1
[ e
k+1
)[
2
|a
k+1

k
i=1
(a
k+1
[ e
i
)e
i
|
.
Pour assurer (e
k+1
[ a
k+1
) > 0, il faut choisir = +1/(|a
k+1

k
i=1
(a
k+1
[ e
i
)e
i
|). Ceci
ach`eve la preuve de lexistence.
Lunicite se demontre en reprenant la construction precedente et en veriant qu`a chaque
etape il ny a pas dautre choix possible que celui que lon a fait ci-dessus.
Corollaire 2.2.11 Tout espace euclidien admet une base orthonormale.
Preuve : On part dune base quelconque de E, et on applique le procede dorthonormalisation
de GramSchmidt.
Exemples :
1. La base canonique de R
n
muni du produit scalaire canonique est orthonormale.
2. Considerons R
2
muni du produit scalaire canonique. Soit e
1
= (a, b) un vecteur de norme
1 (i.e a
2
+ b
2
= 1). Alors il y a deux fa cons de completer e
1
en une base orthonormale
(e
1
, e
2
) de R
2
: on peut poser e
2
= (b, a) ou bien e
2
= (b, a).
Le premier choix donne une base orthonormale (e
1
, e
2
) directe.
3. Produit vectoriel dans R
3
. Considerons R
3
muni du produit scalaire canonique, et (e
1
, e
2
)
une famille orthonormale de R
3
. Alors il y a deux fa cons de completer (e
1
, e
2
) en une base
orthonormale (e
1
, e
2
, e
3
) de R
3
: on peut poser e
3
= e
1
e
2
ou bien e
3
= e
2
e
1
. Le premier
choix donne une base orthonormale (e
1
, e
2
, e
3
) directe. On rappelle que

x
1
x
2
x
3

y
1
y
2
y
3

x
2
y
3
x
3
y
2
x
3
y
1
x
1
y
3
x
1
y
2
x
2
y
1

.
46 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYM

ETRIQUES
Proposition 2.2.12 Soit B
def
= (e
1
, , e
n
) une base de E. Alors B est orthonormale si et
seulement si la matrice du produit scalaire par rapport ` a cette base est lidentite.
De plus, si B est une base orthonormale, et X (resp. Y ) est le vecteur colonne forme par les
coordonnees de x (resp. y) par rapport ` a cette base, alors on a
(x [ y) =
n

i=1
x
i
y
i
=
t
XY =
t
Y X.
Preuve : La matrice A du produit scalaire par rapport `a B a pour coecients a
ij
= (e
i
[ e
j
).
On a donc A = I
n
si et seulement si (e
i
[ e
j
) =
ij
, donc si et seulement si B est une base
orthonormale. La formule ci-dessus decoule alors de la proposition 2.1.4.
2.2.2 Projections orthogonales
Proposition 2.2.13 Soient F et G deux sous-espaces vectoriels de lespace euclidien E. On a
les identites suivantes :
i) F F

= E,
ii) dimF + dimF

= dimE.
iii) (F

= F,
iv) F G si et seulement si G

,
v) F = G si et seulement si F

= G

.
Preuve : On sait dej`a que F

est un s.e.v de E (cf prop. 2.1.15).


Soit x F F

. Alors on a (x [ x) = 0. Donc x est nul et la somme F + F

est bien
directe.
Supposons par labsurde que F + F

= E. Alors il existe un vecteur x (forcement non


nul) de E nappartenant pas `a F + F

. Considerons une base (a


1
, , a
p
) de F + F

.
Alors (a
1
, , a
p
, x) est une famille libre. Le procede dorthonormalisation de Gram
Schmidt donne une famille orthonormale (e
1
, , e
p+1
) telle que Vect(e
1
, , e
p
, x) =
Vect(e
1
, , e
p
, e
p+1
) et F +F

= Vect(e
1
, , e
p
). Le vecteur e
p+1
est donc `a la fois
orthogonal `a F et `a F

. Il est donc dans F

(F

dont lintersection est reduite


`a 0. Donc e
p+1
= 0, do` u la contradiction. Finalement, on a donc F F

= 0 et
E = F +F

= E, ce qui ach`eve la preuve du i).


La propriete ii) est une consequence immediate de i).
Pour prouver iii), montrons dej`a que F (F

. Soit donc x F. Par denition de F

,
on sait que
y F

, (x [ y) = 0.
Donc x est orthogonal `a F

. Donc x (F

.
Mais, dapr`es ii) applique `a F puis F

, on a egalement
dimF + dimF

= dimE = dimF

+ dim(F

.
Donc dimF = dim(F

. Comme de plus F (F

, les deux sous-espaces vectoriels


concident.
Supposons F G et soit x G

. Alors (x [ y) = 0 pour tout y G donc a fortiori pour


tout y F. Donc x F

. La reciproque se montre en echangeant les r oles de F et G

(resp. G et F

) et en utilisant (F

= F et (G

= G.
La propriete v) est une consequence immediate de iv).
2.2. ESPACES EUCLIDIENS 47
Remarque : Si F est un sous-espace vectoriel, la somme F F

est non seulement directe


mais egalement orthogonale (i.e si on prend x F et y F

, on a toujours (x [ y) = 0). On
utilisera la notation F

pour preciser lorthogonalite.


Denition 2.2.14 Soit F un sous-espace vectoriel de E. On appelle projecteur orthogonal
sur F le projecteur sur F parall`element ` a F

.
Proposition 2.2.15 Soit F, s.e.v de E. Notons p le projecteur orthogonal sur F et q le projec-
teur orthogonal sur F

. Alors on a Id = p +q. En particulier,


x E, x p(x) F

.
Preuve : Comme E = F

, tout x E se decompose en x = y + z avec y F et


z F

. Par denition meme de p, on a y = p(x). Par ailleurs, comme (F

= F,
q est en fait le projecteur sur F

parall`element `a F. Donc q(x) = z. On a donc bien


x = y +z = p(x) +q(x), et z = x p(x) F

.
Proposition 2.2.16 Soit p le projecteur orthogonal sur le s.e.v F, et x E. Alors
y F, |x y| |x p(x)|,
avec egalite si et seulement si y = p(x). Autrement dit, le minimum de |x y| pour y F est
atteint en y = p(x). On dit que p(x) minimise la distance de x ` a F, et que la distance de x ` a
F, notee d(x, F) vaut |x p(x)|.
Preuve : Soit donc x E et y F. Dapr`es la proposition precedente, on a (x p(x)) F

.
Comme (p(x) y) F, le theor`eme de Pythagore donne
|x y|
2
= |(x p(x)) + (p(x) y)|
2
= |x p(x)|
2
+|p(x) y|
2
|x p(x)|
2
.
Clairement, il y a egalite si et seulement si |p(x) y| = 0, do` u le resultat.
Proposition 2.2.17 Soit p le projecteur orthogonal sur F. Supposons connue une base
orthonormale (e
1
, , e
m
) de F. Alors on a
(2.6) x E, p(x) =
m

i=1
(x [ e
i
)e
i
.
Si de plus (e
m+1
, , e
n
) est une base orthonormale de F

alors on a
(2.7) d(x, F) = |x p(x)| =

i=m+1
[(x [ e
i
)[
2
.
Preuve : Soit x E. Alors on peut ecrire x = y + z avec y F et z F

. Gr ace `a la
proposition 2.4, on a p(x) = y =

m
i=1
(y [ e
i
)e
i
. Mais y = x z et z est orthogonal `a tous
les e
i
pour i 1, , m. Donc nalement (y [ e
i
) = (x [ e
i
) do` u (2.6).
Pour prouver (2.7), on utilise encore la decomposition x = y + z ci-dessus. Notons que
z = xp(x). Comme (e
m+1
, , e
n
) est une base orthonormale de F

, on a, en raisonnant
comme ci-dessus :
z =
n

i=m+1
(x [ e
i
)e
i
.
Il ne reste plus qu`a appliquer le corollaire 2.5 pour conclure.
48 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYM

ETRIQUES
2.3 Adjoint dun endomorphisme
Dans toute cette section E est un espace euclidien de dimension n. On rappelle quune forme
lineaire sur E est une application lineaire de E dans R. Lensemble des formes lineaires sur E
est note E

, et appele dual de E. Cest un R-espace vectoriel de dimension n.


On a le resultat fondamental suivant :
Theor`eme 2.3.1 Pour tout a E, lapplication
f
a
:

E R
x (x [ a),
est une forme lineaire sur E.
Reciproquement, si est une forme lineaire sur E alors il existe un unique a E tel que
= f
a
.
Preuve : La linearite du produit scalaire par rapport `a la premi`ere variable entrane visible-
ment la linearite de lapplication f
a
.
Notons A
def
= f
a
[ a E. On verie facilement que, pour tout (a, b) E
2
, et R, on a
f
a+b
= f
a
+f
b
et f
a
= f
a
. Donc A est un sous-espace vectoriel de E

.
Par ailleurs, si (e
1
, , e
n
) est une base orthonormale de E alors (f
e
1
, , f
en
) est une
famille libre de A. En eet, supposons que
1
f
e
1
+ +
n
f
en
= 0. Alors
x E,
n

j=1

j
(x [ e
j
) = 0.
En choisissant x = e
i
, on trouve donc
i
= 0. On conclut que dimA n = dimE

. Donc
A = E

.
Lunicite decoule du fait que f
a
= 0 si et seulement si a E

. Or E

= 0.
Proposition 2.3.2 Soit u End(E). Alors il existe une unique application u

telle que
(x, y) E
2
, (u(x) [ y) = (x [ u

(y)).
Cette application u

est un endormorphisme de E et est appelee endomorphisme adjoint de


u.
Preuve : A y xe, lapplication

E R
x (u(x) [ y)
est une forme lineaire sur E.
La proposition 2.3.1 donne donc lexistence dun unique element u

(y) de E veriant
legalite voulue. Reste `a montrer la linearite de u

.
Soit y E, y

E et R. On a pour tout x E :

x [ u

(y+y

u(x) [ y+y

u(x) [ y

u(x) [ y

x [ u

(y)

x [ u

(y

x [ u

(y) +u

(y

.
Donc u

(y +y

) = u

(y) +u

(y

).
Proposition 2.3.3 Soit u et v deux endomorphismes de E. Alors on a (uv)

= v

.
2.3. ADJOINT DUN ENDOMORPHISME 49
Preuve : On a pour tout (x, y) E
2
,

x [ (uv)

uv(x) [ y

v(x) [ u

(y)

x [ v

(u

(y))

,
do` u le resultat.
Proposition 2.3.4 Soit u End(E). Alors on a
i) (u

= u,
ii) ker u

= (Im u)

,
iii) Im u

= (ker u)

.
Preuve : i) : Par denition de (u

et de u

, on a
(x, y) E
2
,

(u

(x) [ y

= (x [ u

(y)) = (u(x) [ y).


Donc (u

(x) u(x) E

, do` u (u

(x) = u(x).
ii) : Soit x Ker u

. Alors on a (u

(x) [ y) = 0 pour tout y E. Or (u

(x) [ y) = (x [ u(y))
donc x est orthogonal `a Im u.
Reciproquement, si x (Im u)

, alors on a (u

(x) [ y) = (x [ u(y)) = 0 pour tout y E,


donc u

(x) = 0 car E

= 0.
iii) : Dapr`es la proposition 2.2.13, Im u

= (ker u)

si et seulement si (Im u

= ker u.
Il sut donc dappliquer ii) `a u

en se souvenant que (u

= u.
Corollaire 2.3.5 u et u

ont meme rang. En particulier u est inversible si et seulement si u

lest.
Preuve : Dapr`es ce qui prec`ede, la proposition 2.2.13 et le theor`eme du rang, on a
rg u

= dim

Ker u

= n dimKer u = rg u,
do` u le resultat.
La notion dadjoint va nous permettre de denir plusieurs classes dendomorphismes. Nous
laissons au lecteur le soin de verier les deux propositions suivantes :
Proposition 2.3.6 Soit u End(E). Les deux proprietes suivantes sont equivalentes :
i) u

= u,
ii) (x, y) E
2
, (u(x) [ y) = (x [ u(y)).
On dit alors que u est un endomorphisme symetrique.
Proposition 2.3.7 Soit u End(E). Les deux proprietes suivantes sont equivalentes :
i) u

= u,
ii) (x, y) E
2
, (u(x) [ y) = (x [ u(y)).
On dit alors que u est un endomorphisme antisymetrique.
Proposition 2.3.8 Soit u End(E). Les proprietes suivantes sont equivalentes.
i) u

u = uu

= Id,
ii) (x, y) E
2
, (u(x) [ u(y)) = (x [ y), (i.e u conserve le produit scalaire),
iii) x E, |u(x)| = |x|, (i.e u conserve la norme),
iv) u transforme toute base orthonormale en une base orthonormale,
v) u transforme une base orthonormale en une base orthonormale,
On dit alors que u est un endomorphisme orthogonal. On note O(E) lensemble des
endomorphismes orthogonaux.
50 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYM

ETRIQUES
Preuve : i) ii) resulte des denitions de ladjoint et de linverse dun automorphisme.
ii) iii) : On choisit y = x puis on prend la racine carree.
iii) ii) : Remarquons que
4(x [ y) = |x +y|
2
|x y|
2
et 4(u(x) [ u(y)) = |u(x +y)|
2
|u(x y)|
2
.
Le resultat est alors clair puisque les membres de droite sont egaux.
ii) iv) : Soit (e
1
, , e
n
) une base orthonormale de E. Alors on a

u(e
i
) [ u(e
j
)

e
i
[ e
j

=
ij
, donc (u(e
1
), , u(e
n
)) est une base orthonormale.
iv) v) : Trivial.
v) ii) : Soit (e
1
, , e
n
) une base orthonormale de E dont limage par u est une base
orthonormale. Soit (x, y) E
2
. Dapr`es le corollaire 2.5, on a
(2.8) (x[ y) =
p

i=1
(x[ e
i
)(y [ e
i
) et (u(x) [ u(y)) =
p

i=1
(u(x) [ u(e
i
))(u(y) [ u(e
i
)).
Mais x =

n
i=1
(x [ e
i
)e
i
, donc u(x) =

n
i=1
(x [ e
i
)u(e
i
). Gr ace au caract`ere orthonormal
de (u(e
1
), , u(e
n
)), on conclut que (u(x) [ u(e
i
)) = (x [ e
i
), et de meme (u(y) [ u(e
i
)) =
(y [ e
i
), do` u (x [ y) = (u(x) [ u(y)) gr ace `a (2.8).
Remarque : Du fait quils conservent la norme (donc la distance), les endomorphismes ortho-
gonaux sont aussi appele isometries.
Proposition 2.3.9 Soit B = (e
1
, , e
n
) une base orthonormale de E, u End(E), et A la
matrice de u par rapport ` a B. Alors
t
A est la matrice de lendomorphisme adjoint u

par rapport
` a B.
Preuve : Dapr`es le corollaire 2.2.9, la matrice B de u

a pour coecients b
ij
= (u

(e
j
) [ e
i
).
Par denition de ladjoint, on a donc
b
ij
= (e
j
[ u(e
i
)) = (u(e
i
) [ e
j
) = a
ji
,
do` u B =
t
A.
On en deduit facilement le resultat suivant :
Proposition 2.3.10 Soit u End(E), B une base orthonormale de E et A la matrice de
u par rapport ` a B. Alors u est un endomorphisme
symetrique si et seulement si
t
A = A (on dit que la matrice A est symetrique),
antisymetrique si et seulement si
t
A = A (on dit que la matrice A est antisymetrique),
orthogonal si et seulement si
t
AA = I
n
(on dit que la matrice A est orthogonale),
Notation : Lensemble des matrices symetriques de
n
(R) est note o
n
(R). Lensemble
des matrices orthogonales de
n
(R) est note O
n
(R).
Donnons une caracterisation de O
n
(R) :
Proposition 2.3.11 Soit A
n
(R). Les proprietes suivantes sont equivalentes :
i) A O
n
(R),
ii) Les colonnes de A constituent une base orthonormale de R
n
muni du produit scalaire
canonique.
iii) Les lignes de A constituent une base orthonormale de R
n
muni du produit scalaire
canonique.
2.4. R

EDUCTION DES ENDOMORPHISMES SYM

ETRIQUES 51
Preuve : On munit R
n
de son produit scalaire canonique, et on consid`ere lendomorphisme u
de matrice A par rapport `a la base canonique de R
n
. Comme cette base est orthonormale
pour le produit scalaire canonique de R
n
, lendormorphisme u est orthogonal si et seule-
ment si il transforme la base canonique en base orthonormale (cf prop. 2.3.8). On a donc
bien i) ii).
Comme de plus u

a pour matrice
t
A, et u et son adjoint sont simultanement orthogonaux,
on en deduit egalement que ii) iii).
2.4 Reduction des endomorphismes symetriques
Dans toute cette partie, E designe un espace euclidien de dimension n.
Lemme 2.4.1 Soit u un endomorphisme quelconque de End(E), et F un sous-espace vectoriel
de E. Alors les proprietes suivantes sont equivalentes :
i) F est stable par u,
ii) F

est stable par u

.
Preuve : Montrons que i) ii). Soit donc F un sous-espace stable de u.
x F

, y F, (u

(x) [ y) = (x [ u(y)).
Pour y F, on a u(y) F. Donc le dernier terme est nul. On conclut que u

(x) est
orthogonal `a F.
Pour montrer la reciproque, on applique limplication ci-dessus `a u

et F

compte tenu
des relations (u

= u et (F

= F.
Proposition 2.4.2 Soit u symetrique. Alors
u
est scinde dans R[X]. En particulier, toutes
les valeurs propres de u sont reelles.
Preuve : Soit B une base orthonormale de E. Notons A = mat
B
(u). On a A o
n
(R) et

A
=
u
.
On sait que
A
est scinde dans C[X]. Pour prouver la proposition, il sut donc de montrer
que toutes les racines de
A
sont reelles.
Soit donc C une racine de
A
. Alors est une valeur propre de A. Donc il existe un
vecteur colonne X =
t
(x
1
, , x
n
) non nul et `a composantes complexes tel que AX = X.
Comme A est symetrique reelle, on a
t
XAX =
t
X
t
AX =
t

t
XAX

=
t

t
XAX

=
t
XAX.
Mais AX = X. Donc legalite ci-dessus donne

t
XX =
t
(
t
XX) =
t
XX.
Comme
t
XX =

n
i=1
[x
i
[
2
est non nul, on conclut que = donc est reelle.
Lemme 2.4.3 Soit x
1
et x
2
deux vecteurs propres de u symetrique associes ` a des valeurs propres

1
et
2
distinctes. Alors (x
1
[ x
2
) = 0.
Preuve : On calcule

1
(x
1
[ x
2
) = (
1
x
1
[ x
2
) = (u(x
1
) [ x
2
) = (x
1
[ u(x
2
)) = (x
1
[
2
x
2
) =
2
(x
1
[ x
2
).
Comme
1
=
2
, on doit avoir (x
1
[ x
2
) = 0.
52 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYM

ETRIQUES
Corollaire 2.4.4 Les sous-espaces propres dun endomorphisme symetrique sont en somme di-
recte orthogonale.
Preuve : Notons Sp u =
1
, ,
p
. Soit x E

1
+ +E
p
. Supposons que lon ait
x =
p

i=1
x
i
=
p

i=1
x

i
avec x
i
E

i
et x

i
E

i
.
Alors (x
i
x

i
)
i{1, ,p}
est une famille de vecteurs orthogonaux 2 `a 2 (dapr`es la proposition
precedente) veriant
p

i=1
(x
i
x

i
) = 0.
La proposition 2.2.7 permet de conclure que x
i
x

i
= 0 pour tout i 1, , p. La
somme est donc directe. Elle est bien s ur orthogonale gr ace `a la proposition precedente.
Theor`eme 2.4.5 Soit u un endomorphisme symetrique de spectre Sp(u) =
1
, ,
p
.
Alors on a
E = E

E
p
,
et u est diagonalisable dans une base orthonormale de E.
Preuve : Notons F = E

E
p
. Il sagit de montrer que F = E ou, de fa con
equivalente, que F

= 0.
Supposons par labsurde que F

ne soit pas reduit `a 0. Le s.e.v F est stable par u


comme somme de sous-espaces stables. Comme u = u

, le lemme 2.4.1 assure que lespace


F

est egalement un sous-espace stable de u. De plus, lendomorphisme v induit par u sur


F

est clairement symetrique. Il admet donc une valeur propre dans R (cf. prop. 2.4.2).
Soit x un vecteur propre non nul associe `a .
Vu la denition de v, est dans le spectre de u. Donc x est dans un des sous-espaces
propres, donc dans F. Contradiction !
Le fait que E = E

E
p
assure que u est diagonalisable. Choisissons une base
orthonormale (e
i
1
, , e
i

i
) pour chaque E

i
. La famille obtenue par reunion de toute ces
bases est bien une base orthonormale de vecteurs propres pour u.
Considerons maintenant une matrice symetrique A. Lendomorphisme u End(R
n
) de matrice
A par rapport `a la base canonique de R
n
est symetrique au sens du produit scalaire canonique
de R
n
. Dapr`es le theor`eme precedent, il existe donc une base orthonormale (e
1
, , e
n
) de R
n
qui est une base de vecteurs propres pour u. La matrice de passage de la base canonique `a
(e
1
, , e
n
) transforme une base orthonormale en une base orthonormale. Elle appartient donc
`a O
n
(R). On a nalement obtenu le theor`eme de reduction suivant :
Theor`eme 2.4.6 Soit A o
n
(R). Alors A est diagonalisable dans
n
(R). Plus
precisement, il existe P O
n
(R) et D diagonale reelle telles que
D =
t
PAP = P
1
AP.
Attention : Ce resultat est faux pour les matrices symetriques `a coecients complexes (i.e non
tous reels). La bonne notion dans ce cadre l`a est celle de matrice hermitienne (voir le cours de
licence).
2.4. R

EDUCTION DES ENDOMORPHISMES SYM

ETRIQUES 53
Voyons maintenant quelques applications du theor`eme de reduction des endormorphismes et
matrices symetriques :
Proposition 2.4.7 Soit A o
n
(R). Alors
i) A est positive si et seulement si toutes ses valeurs propres sont positives. De plus, rg A est
egal au nombre de valeurs propres non nulles comptees avec leur multiplicite.
ii) A est denie positive si et seulement si toutes ses valeurs propres sont strictement positives.
Preuve : Notons u lendomorphisme de matrice A dans la base canonique de R
n
. On munit
R
n
du produit scalaire canonique. Avec ce choix de produit scalaire, lendomorphisme
u est symetrique. Par ailleurs, si lon note x = (x
1
, , x
n
), et X le vecteur colonne
correspondant, on a u(x) = AX.
Dapr`es le theor`eme precedent, u est diagonalisable dans R, et on peut trouver une base
de vecteurs propres (e
1
, , e
n
) qui est orthonormale dans R
n
.
En notant (
1
, ,
n
) les valeurs propres associees `a (e
1
, , e
n
), on trouve que pour tout
x E, on a
u(x) = u

i=1
(x [ e
i
)e
i

=
n

i=1
(x [ e
i
)u(e
i
) =
n

i=1

i
(x [ e
i
)e
i
.
Donc
x E,
t
XAX =

u(x) [ x

=
n

i=1

i
(x [ e
i
)
2
.
Il est maintenant clair que le produit scalaire ci-dessus est positif pour tout x si et seulement
si tous les
i
sont positifs.
Enn, comme A est diagonalisable, le rang de A est egal au nombre de valeurs propres
non nulles. En particulier A est denie positive si et seulement si toutes les valeurs propres
sont strictement positives.
Les deux resultats qui suivent sont hors-programme.
Theor`eme 2.4.8 (de reduction simultanee) Soit f une forme bilineaire symetrique. Alors
il existe une base orthonormale (e
1
, , e
n
) de E qui est orthogonale pour f (i.e. f(e
i
, e
j
) = 0
d`es que i = j).
Preuve :
`
A x xe, lapplication

E R
y f(x, y),
est une forme lineaire sur E. En vertu du theor`eme 2.3.1, il existe donc un element u(x)
de E tel que
y E, f(x, y) =

u(x) [ y

.
Il est aise de verier que lapplication u de E dans E ainsi obtenue est un endomorphisme
sur E. De plus, gr ace `a la symetrie de f, on a
(x, y) E
2
,

u(x) [ y

= f(x, y) = f(y, x) =

u(y) [ x

x [ u(y)

.
Donc u est un endormorphisme symetrique. Le theor`eme 2.4.5 donne une base (e
1
, , e
n
)
orthonormale de vecteurs propres pour u. Si lon note
i
la valeur propre correspondant `a
e
i
, on a donc
f(e
i
, e
j
) =

u(e
i
) [ e
j

i
e
i
[ e
j

=
i

ij
,
do` u le resultat.
54 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYM

ETRIQUES
Donnons maintenant la version matricielle de ce theor`eme de reduction simultanee :
Theor`eme 2.4.9 Soit A o
n
(R) denie positive et B o
n
(R). Alors il existe P GL
n
(R) et
D diagonale telles que
t
PAP = I
n
et
t
PBP = D.
Preuve : On note b (resp. f) la forme bilineaire de matrice A (resp. B) par rapport `a la
base canonique de R
n
. Comme A est symetrique denie positive, la forme b est egalement
symetrique denie positive. Cest donc un produit scalaire sur R
n
. De meme, comme B
est symetrique, f est une forme bilineaire symetrique. Dapr`es le theor`eme de reduction
simultanee, il existe donc une base orthonormale B = (e
1
, , e
n
) pour le produit scalaire
b qui est orthogonale pour f. En notant P la matrice de passage de la base canonique `a
la base B, on obtient les deux egalites voulues.
Attention : La matrice P na aucune raison detre orthogonale.
2.5 Reduction des endomorphismes orthogonaux
Dans toute cette partie, E est un espace euclidien de dimension n.
2.5.1 Generalites
Proposition 2.5.1 O
n
(R) (resp. O(E)) est un groupe pour la multiplication des matrices (resp.
la composition des endomorphismes).
Preuve : Il est clair que Id O(E). Soit u et v deux elements de O(E). On a
(uv)

(uv) = (v

)(uv) = v

(u

u)v = v

v = Id .
Donc uv est bien dans O(E).
Enn, si u O(E), u

qui est linverse de u est clairement dans O(E).


Proposition 2.5.2 Les elements de O
n
(R) sont de determinant 1. De plus, si est valeur
propre (reelle), alors 1, 1. Meme resultat pour O(E).
Preuve : Si A O
n
(R), alors on a
t
AA = I
n
. Donc det
t
Adet A = 1, do` u (det A)
2
= 1.
Soit x vecteur propre non nul pour . Lendomorphisme u de matrice A par rapport `a la
base canonique de R
n
conserve la norme. Donc u(x) = x entrane [[|x| = |x|, do` u
[[ = 1.
Denition 2.5.3 On dit que u O(E) est une rotation si det u = 1. Lensemble des rotations
est note oO(E).
On dit que A O
n
(R) est une matrice de rotation si det A = 1. Lensemble des matrices
de rotation est note oO
n
(R).
Proposition 2.5.4 Lensemble oO(E) est un sous-groupe de O(E), distinct de O(E). De
meme, lensemble oO
n
(R) est un sous-groupe de O
n
(R), distinct de O
n
(R).
Preuve : Le produit de deux endomorphismes de determinant 1 est encore de determinant 1,
et linverse dun endomorphisme de determinant 1 est de determinant 1. Donc oO(E) est
bien un sous-groupe de O(E).
Donnons maintenant un exemple dendomorphisme orthogonal ne se trouvant pas dans
O(E). Pour cela, on consid`ere une base orthonormale (e
1
, , e
n
) de E et on denit u par
2.5. R

EDUCTION DES ENDOMORPHISMES ORTHOGONAUX 55


u(e
i
) = e
i
si 1 i n 1, et u(e
n
) = e
n
. Cest un endomorphisme de determinant
1 qui transforme une base orthonormale en une base orthonormale. Donc u est dans
O(E)`oO(E). Nous allons voir par la suite que u est en fait une symetrie orthogonale par
rapport `a un hyperplan.
Denition 2.5.5 Soit F un sous-espace vectoriel de E. On appelle symetrie orthogonale
par rapport `a F la symetrie par rapport ` a F parall`element ` a F

.
Exemples :
1. Symetrie orthogonale par rapport `a un hyperplan (aussi appelee reexion).
Si dimF = n 1 et s est la symetrie orthogonale par rapport `a F, on dit que s est une
symetrie orthogonale par rapport `a un hyperplan. Les symetries orthogonales par rapport
`a un hyperplan sont de determinant 1. Si n = 3 (resp. n = 2), on parle de symetrie
orthogonale par rapport `a un plan (resp. une droite).
2. Symetrie orthogonale par rapport `a un s.e.v quelconque.
Soit F de dimension m et s la symetrie orthogonale par rapport `a F. Alors s est de
determinant (1)
nm
. Cest une rotation si et seulement si n m est pair.
3. Symetrie orthogonale par rapport `a une droite.
Elle est de determinant (1)
n1
. Cest donc une rotation si et seulement si n est impair
(en particulier en dimension n = 3).
2.5.2

Etude de O
2
(R)
Comme les matrices de O
1
(R) sont de determinant 1 ou 1, le groupe O
1
(R) ne comporte
que deux elements : I
1
et I
1
. Son etude ne presente donc gu`ere dinteret. Dans cette section,
nous allons donner une description compl`ete de O
2
(R) qui, lui, a une innite delements.
Proposition 2.5.6 Soit A
2
(R) et u lendomorphisme de matrice A par rapport ` a la
base canonique de R
2
. On munit R
2
du produit scalaire canonique.
La matrice A appartient ` a O
2
(R) si et seulement si il existe R tel que
A =

cos sin
sin cos

ou A =

cos sin
sin cos

.
Dans le premier cas, A oO
2
(R), et u est la rotation dangle ; dans le deuxi`eme cas, A
est de determinant 1, et u est la symetrie orthogonale par rapport ` a la droite dirigee par
(cos(

2
), sin(

2
)).
Preuve : Notons A =

a b
c d

. Comme les colonnes de A constituent une base orthonormale


de R
2
(muni du produit scalaire canonique), on a
a
2
+c
2
= 1, b
2
+d
2
= 1 et ab +cd = 0.
Des deux premi`eres relations, on deduit lexistence de deux reels et tels que a = cos ,
c = sin, b = sin et d = cos . La troisi`eme relation entrane
sin( +) = cos sin + sin cos = 0.
Donc [2], ce qui donne le premier type de matrice, ou bien [2], ce qui
donne le deuxi`eme type de matrice.
56 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYM

ETRIQUES
Reciproquement, un calcul facile montre que les matrices A proposees verient
t
AA = I
n
.
Elles sont donc bien orthogonales.
Le premier type de matrice est visiblement de determinant 1. Lendomorphisme u associe
est donc bien une rotation. De plus,
(x
1
, x
2
) R
2
, u(x
1
, x
2
) = (x
1
cos x
2
sin , x
1
sin +x
2
cos ),
cest donc la rotation dangle .
Le second type est de determinant 1 et de trace nulle. Le polynome caracteristique
correspondant est donc
A
= X
2
1, et on en deduit immediatement que Sp(A) = 1, 1.
Comme A est une matrice symetrique, on a R
2
= E
1

E
1
(cf th. 2.4.5). Comme
dimR
2
= 2, on conclut que E
1
et E
1
sont deux droites orthogonales. Donc A est la
matrice de la symetrie orthogonale par rapport `a la droite E
1
.
Pour determiner E
1
, on cherche un vecteur colonne non nul
t
(x
1
, x
2
) tel que
x
1
cos x
2
sin = x
1
.
Le couple

cos(

2
), sin(

2
)

est visiblement solution.


Denition 2.5.7 Soit A
2
(R) et u lendomorphisme de matrice A par rapport ` a la base
canonique de R
2
. On dit que A est la rotation dangle si u est la rotation dangle , et que
A est la symetrie orthogonale par rapport `a la droite D si u est la symetrie orthogonale
par rapport ` a la droite D.
Remarque : Dans R
2
, un endomorphisme orthogonal de determinant 1 est en fait une symetrie
orthogonale par rapport `a une droite, et est donc diagonalisable dans R. En revanche, seules les
rotations dangle 0 et sont diagonalisables dans R. En eet, le polynome caracteristique dune
rotation u dangle est X
2
2 cos + 1. Donc Sp(u) = e
i
, e
i
. Donc, si 0, , u est
diagonalisable dans C mais pas dans R.
Proposition 2.5.8 oO
2
(R). est un sous-groupe abelien (i.e commutatif ) de O
2
(R).
Preuve : Un calcul immediat reposant sur les formules trigonometriques montre que le produit
de la rotation dangle par la rotation dangle concide avec le produit de la rotation
dangle par la rotation dangle . Dans les deux cas, on obtient la rotation dangle +.
Attention : Le caract`ere abelien est special `a la dimension n = 2. Il est faux en dimension
n 3.
Proposition 2.5.9 Toute rotation de R
2
se decompose dune innite de mani`eres en produit
de deux symetries orthogonales par rapport ` a une droite.
Preuve : Il sut de prouver le resultat pour les matrices. Soit donc R la rotation dangle .
Considerons deux symetries orthogonales par rapport `a une droite, A et B. Alors il existe
deux reels et tels que
A =

cos sin
sin cos

et B =

cos sin
sin cos

.
Donc AB est la matrice

cos cos + sin sin cos sin sin cos


sin cos cos sin sin sin + cos cos

cos() sin()
sin() cos()

,
cest-` a-dire la rotation dangle .
Par consequent C = AB si et seulement si = . Il y a une innite de couples (, )
satisfaisant cette relation.
2.5. R

EDUCTION DES ENDOMORPHISMES ORTHOGONAUX 57


Remarque : Le produit de deux symetries nest pas commutatif en general. En eet, le calcul
ci-dessus montre que AB est la rotation dangle , alors que BA est la rotation dangle .
2.5.3 Reduction des endomorphismes orthogonaux
Le theor`eme de reduction que nous allons demontrer repose sur les trois lemmes suivants :
Lemme 2.5.10 Soit u O(E). Alors u admet au moins un sous-espace stable F de dimension
1 ou 2.
Preuve :
1er cas : u admet une valeur propre reelle . Soit x un vecteur propre non nul as-
socie `a . La droite Rx est un sous-espace stable de u de dimension 1.
2`eme cas : u na pas de valeur propre reelle. Considerons v
def
= u +u

. Cest un en-
domorphisme symetrique donc diagonalisable. Soit x un vecteur propre non nul de v
pour la valeur propre , et F = Vect(x, u(x)). Le sous-espace F est de dimension 2
(car sil etait de dimension 1, u(x) et x seraient colineaires, donc x serait un vecteur
propre pour u, ce que lon a justement exclu). De plus, comme uu

= Id, on a
u(u(x)) = uv(x) uu

(x) = u(x) x F.
Donc F est stable par u.
Lemme 2.5.11 Soit u O(E) et F stable par u. Alors lendomorphisme u
F
induit par u sur
F est dans O(F).
Preuve : Considerons (e
1
, , e
p
) une base orthonormale de F. Alors

u
F
(e
1
), , u
F
(e
p
)

u(e
1
), , u(e
p
)

est encore une famille orthonormale puisque u conserve le produit scalaire. Comme chaque
u(e
i
) se trouve dans F par hypoth`ese, il sagit dune base orthonormale de F. On conclut
que u
F
transforme une base orthonormale de F en une base orthonormale de F. Cest
donc un element de O(F).
Lemme 2.5.12 Soit u O(E) et F stable par u. Alors F

est stable par u.


Preuve : Soit y F

. Puisque u conserve le produit scalaire, on a


x F, (u(x) [ u(y)) = (x [ y) = 0.
Mais F est stable par u, donc u
F
O(F). En particulier u
F
est inversible, et donc
u(F) = F. La relation ci-dessus exprime donc que u(y) F

.
Theor`eme 2.5.13 (Reduction) Soit u O(E). Il existe trois entiers (p, q, r) tels que
p + q + 2r = n, et une base orthonormale de E par rapport ` a laquelle la matrice A de u
est du type
A =

I
p
0 0 0
0 I
q
0
.
.
.
0 0 R
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 R
r

avec R
i
=

cos
i
sin
i
sin
i
cos
i

et
i
0[].
58 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYM

ETRIQUES
Preuve : Le theor`eme se prouve par recurrence sur la dimension de E.
Il est clairement vrai pour n = 1 puisque O(E) est reduit `a Id, Id.
Lorsque n = 2, il y a deux cas `a envisager.
1er cas : u est une rotation.
La proposition 2.5.6 assure alors lexistence dune base orthonormale par rapport `a
laquelle la matrice de u est du type

cos sin
sin cos

.
Si 0[2] (resp. [2] , cette matrice est en fait I
2
(resp. I
2
).
2`eme cas : u est une symetrie orthogonale par rapport `a une droite.
On peut alors trouver une base orthonormale par rapport `a laquelle la matrice de u est

1 0
0 1

.
Considerons maintenant un entier n 2, et supposons le theor`eme vrai pour tout espace
vectoriel euclidien de dimension p n. Soit E euclidien de dimension n + 1 et u O(E).
Dapr`es le lemme 2.5.10, u admet un sous-espace stable F de dimension 1 ou 2. On le
choisit de dimension minimale.
Cas o` u dimF = 1.
Alors F

est un sous-espace stable de u (cf lemme 2.5.12) de dimension n (voir prop.


2.2.13), et lendomorphisme induit u
F
par u sur F

est dans O(F

) (voir lemme
2.5.12). En appliquant lhypoth`ese de recurrence, on en deduit lexistence dune base
orthonormale (f
2
, , f
n+1
) de E par rapport `a laquelle la matrice de u
F
est du type
decrit ci-dessus.
La droite F est engendree par un vecteur propre x non nul pour la valeur propre 1
ou 1 (cf prop. 2.5.2). Si x est vecteur propre pour 1, on pose f
1
= x/|x|, et la
base orthonormale (f
1
, , f
n+1
) fait laaire. Si x est vecteur propre pour 1, on pose
e
i
= f
i+1
pour 1 i p, e
p+1
= x/|x|, et e
i
= f
i
pour p + 2 i n + 1.
Cas o` u dimF = 2. Alors F

est un sous-espace stable de u de dimension n 1. Lhy-


poth`ese de recurrence fournit une base orthonormale (e
1
, , e
n1
) de E par rapport `a
laquelle la matrice de u
F
est du type decrit dans lenonce.
Comme F est un sous-espace stable de u (non trivial) de dimension minimale, on en
deduit que u na pas de valeur propre reelle. Donc u
F
est une rotation dangle
r+1
0[]
et il existe une base orthonormale (e
n
, e
n+1
) de F par rapport `a laquelle la matrice de
u secrit

cos
r+1
sin
r+1
sin
r+1
cos
r+1

.
Dans la base (e
1
, , e
n+1
), la matrice de u est du type voulu.
Theor`eme 2.5.14 Soit A O
n
(R). Alors il existe P O
n
(R) telle que
t
PAP soit du
type decrit dans le theor`eme 2.5.13
Preuve : Il sut dappliquer le resultat precedent `a lendomorphisme de matrice A par
rapport `a la base canonique de R
n
.
2.5. R

EDUCTION DES ENDOMORPHISMES ORTHOGONAUX 59


Remarque : Un calcul facile montre que le polynome caracteristique de la matrice
A =

I
p
0 0 0
0 I
q
0
.
.
.
0 0 R
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 R
r

avec R
i
=

cos
i
sin
i
sin
i
cos
i

et
i
0[],
est

A
= (1 X)
p
(1 +X)
q
r

i=1
(X
2
2 cos
i
X + 1).
En particulier, le triplet (p, q, r) deni dans le theor`eme 2.5.13 est independant de la base choisie :
p (resp. q) est la multiplicite de la racine 1 (resp. 1) dans le polynome caracteristique, et
2r = n p q (ce qui prouve que n p q doit etre pair). On remarque au passage que tout
element de O
n
(R) est diagonalisable dans C, mais pas dans R!
Corollaire 2.5.15 Tout endormorphisme orthogonal u peut secrire comme la composee dun
nombre ni m de symetries par rapport ` a des hyperplans. Ce nombre m peut etre choisi inferieur
ou egal ` a n. Il est toujours pair si u est une rotation, toujours impair si det u = 1.
Preuve : Fixons une base orthonormale B par rapport `a laquelle la matrice de u est du type
A =

I
p
0 0
0 I
q
.
.
.
.
.
.
0 0 R
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 R
r

avec R
i
=

cos
i
sin
i
sin
i
cos
i

et
i
0[].
Posons
T
def
=

I
p
0 0
0 I
q
0
0 0 I
2r

et 1
i
def
=

I
p+q+2i2
0 0
0 R
i
0
0 0 I
2r2i

.
En faisant des produits par blocs, on constate que A peut secrire A = T
r

i=1
1
i
.
Notons r
i
lendomorphisme de matrice 1
i
par rapport `a B. Lendomorphisme induit par
r
i
sur F
i
def
= Vect(e
p+q+2i1
, e
p+q+2i
) est une rotation du plan dangle
i
. Il peut donc
secrire comme le produit de deux symetries du plan F
i
par rapport `a une droite. En
prolongeant ces deux symetries orthogonales par lidentite sur le supplementaire orthogonal
de F
i
, on conclut que r
i
est le produit de deux symetries par rapport `a un hyperplan.
Enn, T est le produit des q symetries par rapport `a lhyperplan orthogonal `a e
j
avec
j p + 1, , p +q. Au total, u est donc le produit de m = q+2r symetries orthogonales
par rapport `a des hyperplans.
Enn, comme le determinant dune telle symetrie est 1, on conclut que m doit etre pair
si u est une rotation, et impair si det u = 1.
2.5.4 Endomorphismes orthogonaux en dimension 3
On suppose dans toute cette section que E est un espace euclidien de dimension 3.
60 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYM

ETRIQUES
Proposition 2.5.16 Soit u oO(E). Alors il existe [0, ], et une base orthonormale
(e
1
, e
2
, e
3
) par rapport ` a laquelle la matrice de u secrit

1 0 0
0 cos sin
0 sin cos

.
Le reel ne depend pas de la base choisie, et sappelle angle (non oriente) ou mesure
de la rotation. Cest lunique solution dans [0, ] de lequation
a
1 + 2 cos = tr u.
Si = 0, le sous-espace propre E
1
de u pour la valeur propre 1 est de dimension 1. On dit
que E
1
est laxe de la rotation.
a
On rappelle que tr u est la trace de la matrice de u dans une base quelconque.
Preuve : Lapplication du theor`eme 2.5.13 fournit une base orthonormale (e
1
, e
2
, e
3
) par
rapport `a laquelle la matrice de u est du type suivant (avec ] , ]) :

1 0 0
0 cos sin
0 sin cos

ou bien

1 0 0
0 cos sin
0 sin cos

.
La seconde matrice est exclue car est de determinant 1.
On constate de plus que changer e
3
en e
3
revient `a changer en . Comme les bases
(e
1
, e
2
, e
3
) et (e
1
, e
2
, e
3
) son simultanement orthonormales, on peut donc toujours se
ramener au cas [0, ].
Enn, la matrice ci-dessus a pour trace 1+2 cos . Donc ne depend pas de la base choisie :
cest lunique solution dans [0, ] de lequation 1 + 2 cos = tr u.
Proposition 2.5.17 Toute rotation u de O(E) secrit comme la composee de deux symetries
orthogonales par rapport ` a un plan. Si u nest pas lidentite, laxe de la rotation est lintersection
des deux plans de symetrie.
Tout element u O(E) de determinant 1 secrit comme la composee de Id avec une
rotation, et comme la composee de trois symetries orthogonales par rapport ` a un plan.
Preuve : La proposition 2.5.15 assure que toute rotation sur E (resp. element de O(E) `
oO(E)) est composee dau plus deux (resp. trois) symetries orthogonales par rapport `a
un plan. Il est par ailleurs clair que la composee de Id avec une antirotation est une
rotation.
Enn, si la rotation u secrit u = s
1
s
2
avec s
1
(resp. s
2
) symetrie orthogonale par rapport
au plan F
1
(resp. F
2
), il est clair que F
1
F
2
est un sous-espace vectoriel de dimension au
moins 1 inclus dans E
1
(u). Dans le cas o` u u = Id, on a dimE
1
(u) = 1. Donc F
1
= F
2
, et
F
1
F
2
est laxe de la rotation.
Proposition 2.5.18 Les elements de O(E) sont de trois types :
les rotations,
les reexions (i.e symetries orthogonales) par rapport ` a un plan,
les produits (commutatifs) dune symetrie orthogonale s par rapport ` a un plan F avec une
rotation r = Id daxe F

. Dans ce dernier cas, si u = Id, alors F

est le sous-espace
propre de u pour la valeur propre 1.
2.5. R

EDUCTION DES ENDOMORPHISMES ORTHOGONAUX 61


Preuve : Soit u un element de O(E) de determinant 1 qui nest pas une reexion. Alors
dapr`es le theor`eme 2.5.13, il existe un reel 0[2], et une base orthonormale (e
1
, e
2
, e
3
)
par rapport `a laquelle la matrice A de u est
A =

1 0 0
0 cos sin
0 sin cos

.
Si [2] alors A = I
3
. On en deduit que E
1
= Re
1
. De plus, pour nimporte quelle
valeur de , un calcul aise montre que
A =

1 0 0
0 1 0
0 0 1

. .. .
B

1 0 0
0 cos sin
0 sin cos

. .. .
C
=

1 0 0
0 cos sin
0 sin cos

1 0 0
0 1 0
0 0 1

.
B est la matrice de la reexion par rapport au plan Vect(e
2
, e
3
), alors que C est la matrice
de la rotation dangle et daxe Re
1
, do` u le resultat.
62 CHAPITRE 2. ESPACES EUCLIDIENS ET ENDOMORPHISMES SYM

ETRIQUES
Chapitre 3

Equations dierentielles lineaires


3.1 Generalites
On se donne une fois pour toutes un intervalle I ouvert de R (cest-` a-dire que I est du type
]a, b[, ]a, +[, ] , b[ ou R).
On notera f

, f

, , f
(k)
les derivees successives dune fonction de I dans R.
On dira quune fonction de I dans C est derivable si ses parties reelles et imaginaires le
sont. Idem pour les derivees dordre superieur. Enn, une fonction de I dans K
n
(avec comme
dhabitude K = R ou C) sera dite derivable si ses composantes le sont.
Denition 3.1.1 Soit un ouvert de K
n
. Soit F = F(t, X) (avec X = (x
1
, , x
n
)) une
fonction continue de I dans R
n
. Lexpression
X

= F(t, X) (S)
est appelee equation dierentielle (ou syst`eme dierentiel) associe(e) `a F. On dit que
la fonction denie sur I et ` a valeurs dans K
n
est solution de lequation dierentielle associee
` a F si elle est derivable sur I et verie
t I, (t) et

(t) = F(t, (t)).


Denition 3.1.2 Soit ouvert de K
n
, et f fonction continue de I ` a valeurs dans R.
Lexpression
x
(n)
= f(t, x, x

, , x
n1
) (E)
est appelee equation dierentielle scalaire dordre n associee `a f. On dit que la fonction
denie sur I et ` a valeurs dans K
n
est solution de lequation dierentielle scalaire associee ` a
f si elle est n fois derivable sur I et verie
t I, ((t),

(t), ,
n1
(t)) et
(n)
(t) = f(t, (t),

(t), ,
(n1)
(t).
Remarque 3.1.3 Toute equation dierentielle scalaire dordre n peut etre interpretee comme
un syst`eme de n equations dierentielles. En eet, en posant y
0
= x, on constate que resoudre
(E) est equivalent ` a resoudre

y
0
.
.
.
y
n2
y
n1

y
1
.
.
.
y
n1
f(t, y
0
, y
1
, , y
n1
)

.
63
64 CHAPITRE 3.

EQUATIONS DIFF

ERENTIELLES LIN

EAIRES
Denition 3.1.4 On dit que le syst`eme dierentiel (S) est un syst`eme lineaire si = K
n
et si la fonction F est ane, cest-` a-dire sil existe une fonction b C(I; K
n
) et une fonction
A C(I;
n
(K)) telles que
(t, X) I K
n
, F(t, X) = b(t) +A(t)X.
On dit que ce syst`eme lineaire est homog`ene si la fonction b est identiquement nulle. Le syst`eme
X

= A(t)X (S

)
est appele syst`eme homog`ene associe ` a
X

= A(t)X +b(t). (S)


Denition 3.1.5 On dit que (E) est une equation dierentielle lineaire scalaire dordre n sil
existe une fonction b C(I; K) et n fonctions c
1
, , c
n
de C(I; K) telles que
(t, x
1
, , x
n
) I K
n
, f(t, x
1
, , x
n
) = b(t) +c
1
(t)x
1
+ +c
n
(t)x
n
.
On dit que ce syst`eme lineaire est homog`ene si la fonction b est identiquement nulle, et lon
denit comme precedemment lequation dierentielle homog`ene (E

) associee ` a (E).
Proposition 3.1.6 Soit (S) un syst`eme dierentiel lineaire, et (S

) le syst`eme homog`ene
associe. Soit
0
une solution de (S). Alors est solution de (S) si et seulement si
0
est solution de (S

).
Preuve : Si et
0
verient (S), il est clair que la dierence
0
verie (S

).
Reciproquement, si
0
verie (
0
)

= A(t)(
0
) et
0
verie

0
= A(t)
0
+B(t),
on a bien

= A(t) +B(t).
Remarque : Autrement dit, la solution generale dun syst`eme lineaire (S) secrit comme somme
des solutions generales du syst`eme homog`ene associe et dune solution particuli`ere.
Denition 3.1.7 On dit que (S) est un syst`eme dierentiel lineaire `a coecients constants
sil est de la forme
X

= AX +b(t)
avec A
n
(K) et b fonction continue ` a valeurs dans K
n
.
On dit que (E) est une equation dierentielle scalaire dordre n lineaire `a coecients
constants si elle est de la forme
x
(n)
+c
n1
x
(n1)
+ +c
0
x = b(t)
avec b fonction continue ` a valeurs dans K
n
et (c
0
, , c
n1
) K
n
.
3.2 Le cas homog`ene `a coecients constants
3.2.1 Exponentielles de matrices
Proposition 3.2.1 Soit A
n
(K). Alors la serie

k=0
A
k
k!
converge dans
n
(K) et est appelee exponentielle de la matrice A. On note exp A ou
e
A
la somme de cette serie.
3.2. LE CAS HOMOG
`
ENE
`
A COEFFICIENTS CONSTANTS 65
Preuve : On munit lespace vectoriel
n
(K) dune norme N. Comme
n
(K) est de dimension
nie, la convergence de la serie ne depend pas du choix de N. Pour simplier les calculs,
on supposera que N verie
(3.1) (A, B)
n
(K)
n
(K), N(AB) N(A)N(B).
La norme N(A)
def
= nmax
i,j
[a
ij
[ verie cette propriete.
Lespace vectoriel norme (
n
(K), N) est complet puisquil est de dimension nie. Pour
prouver la convergence de la serie ci-dessus, il sut donc detablir quelle est absolument
convergente, cest-` a-dire que

k=0
N

A
k
k!

< +.
A partir de (3.1), une recurrence elementaire permet de verier
k N, N(A
k
) (N(A))
k
.
De ce fait,
K N,
K

k=0
N

A
k
k!

k=0
N(A)
k
k!
e
N(A)
,
do` u la convergence de la serie.
Remarques :
1. Dans le cas n = 1 et K = R, on retrouve bien la denition de lexponentielle dun nombre
reel.
2. Lexponentielle de la matrice nulle est lidentite.
Proposition 3.2.2 Soit A
n
(K). Alors det e
A
= e
tr A
. En particulier, e
A
est toujours
inversible.
Preuve : Quitte `a travailler dans
n
(C), on peut supposer que A est trigonalisable. Notons

1
, ,
n
les racines de
A
comptees avec leur ordre de multiplicite. Alors dapr`es le
theor`eme 1.6.2, A est semblable `a une matrice triangulaire superieure avec
1
, ,
n
sur
la diagonale. Un calcul aise montre que pour tout k N, A
k
est semblable `a une matrice
triangulaire superieure avec
k
1
, ,
k
n
sur la diagonale, puis que e
A
est semblable `a une
matrice triangulaire superieure avec e

1
, , e
n
sur la diagonale. Donc
det e
A
=
n

i=1
e

i
= exp

i=1

= e
tr A
.
3.2.2 Calcul pratique de lexponentielle dune matrice
Il est en general base sur la proposition suivante :
Proposition 3.2.3 Soit A et B deux matrices de
n
(K) qui commutent. Alors
e
A+B
= e
A
e
B
= e
B
e
A
.
Preuve : On renvoie `a la section suivante.
Attention : Dans le cas general, il ny a aucune raison pour que e
A+B
= e
A
e
B
= e
B
e
A
.
66 CHAPITRE 3.

EQUATIONS DIFF

ERENTIELLES LIN

EAIRES
Corollaire 3.2.4 Soit A
n
(K). La matrice e
A
est inversible et a pour inverse e
A
.
Preuve : On applique la proposition precedente `a B = A, sachant que A et A commutent
et que exp(0) = I
n
.
Donnons maintenant des methodes de calcul de e
A
.
1. Cas diagonal par blocs : Supposons que
A =

T
1
0 0
0 T
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 T
p

,
avec T
i
matrice carree de taille n
i
triangulaire superieure, et n
1
+ + n
p
= n. Une
recurrence elementaire permet de montrer que
A
k
=

T
k
1
0 0
0 T
k
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 T
k
p

.
Donc
e
A
=

e
T
1
0 0
0 e
T
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 e
Tp

.
2. Cas diagonalisable : Supposons A diagonalisable dans
n
(K). Alors il existe une ma-
trice D diagonale, et P GL
n
(K) telles que A = PDP
1
. On a donc pour tout k N,
A
k
= PD
k
P
1
do` u
e
A
= P

k=0
D
k
k!

P
1
= Pe
D
P
1
.
Or le calcul de e
D
est immediat :
D = diag(
1
, ,
n
) = e
D
= diag(e

1
, , e
n
).
Remarque : Si A
n
(R) est diagonalisable dans
n
(C) mais pas dans
n
(R), on
peut toujours considerer A comme une matrice de
n
(C) pour calculer lexponentielle de
A. Meme si les calculs intermediaires peuvent faire intervenir des nombres complexes, on
sait que le resultat nal e
A
est une matrice `a coecients reels.
Exemple : La matrice A =

0 a
a 0

(avec a > 0) a pour spectre ia, ia. En diagona-


lisant dans
n
(C), on montre alors que
e
A
=

cos a sina
sin a cos a

.
3. Cas nilpotent :
Soit A matrice nilpotente dindice p. Par denition de p, on a A
k
= 0 pour k p. Donc
e
A
=
p1

k=0
A
k
k!
.
Comme p n, la serie denissant e
A
comporte au plus n termes non nuls.
3.2. LE CAS HOMOG
`
ENE
`
A COEFFICIENTS CONSTANTS 67
4. Cas general :
On peut toujours considerer A comme une matrice de
n
(C) auquel cas A admet une
decomposition de Dunford : A = D+N avec D diagonalisable, N nilpotente et DN = ND.
En vertu de la proposition 3.2.3, on a donc
e
A
= e
D+N
= e
D
e
N
= e
N
e
D
.
Or e
D
et e
N
peuvent se calculer facilement gr ace aux deux points precedents.
3.2.3 Syst`emes dierentiels homog`enes `a coecients constants
Dans cette partie, on sinteresse aux syst`emes dierentiels `a coecients constants :
X

= AX (S

)
avec A
n
(K).
Nous allons voir que la resolution de tels syst`emes revient `a calculer des exponentielles de
matrice.
Proposition 3.2.5 Soit A
n
(K). Alors lapplication
:

R
n
(K)
t e
tA
est de classe C
1
et verie
t R,

(t) = Ae
tA
= e
tA
A.
Preuve : Dapr`es la proposition 3.2.1, la fonction est la somme de la serie de fonctions de
terme general
k
(t) = t
k
A
k
/k!. Chaque
k
est de classe C
1
sur R, et
t R,

0
(t) = 0 et

k
(t) = t
k1
A
k
(k 1)!
si k 1.
Fixons T > 0 et choisissons une norme N sur
n
(K) veriant (3.1). Alors on a
t [T, T], k N

, N(

k
(t)) N(A)

TN(A)

k1
/(k1)!
donc la serie

kN

k
est normalement convergente sur [T, T]. Comme la serie

kN

k
converge vers sur [T, T], on en deduit que est de classe C
1
sur [T, T], et que

(t) =

k=1
t
k1
A
k
(k1)!
= A

k=1
t
k1
A
k1
(k1)!
=

k=1
t
k1
A
k1
(k1)!

A.
Le reel T etant arbitraire, on obtient bien

= A = A.
Theor`eme 3.2.6 Soit A
n
(K) et X
0
K
n
. Alors le syst`eme dierentiel homog`ene
X

= AX (S

)
admet une unique solution telle que (0) = X
0
. Cette solution est denie par
t R, (t) = e
tA
X
0
.
68 CHAPITRE 3.

EQUATIONS DIFF

ERENTIELLES LIN

EAIRES
Preuve : Soit denie par la formule ci-dessus. Il est clair que (0) = X
0
. De plus, en vertu
de la proposition 3.2.5, on a

(t) = Ae
tA
X
0
= A(t),
donc est solution de (S

).
Soit

une autre solution de (S) telle que

(0) = X
0
. Posons =

et (t) = e
tA
(t).
La formule de Leibniz combinee avec la proposition 3.2.5 donne

(t) = e
tA
A(t)X
0
+e
tA

(t)X
0
= e
tA

(t) A(t)

X
0
= 0.
De plus, (0) = 0. Donc est la fonction nulle. Comme e
tA
est une matrice inversible
(cf. prop. 3.2.2), on en deduit que

(t) (t) = 0 pour tout t R.
Corollaire 3.2.7 Soit A
n
(K), t
0
R et X
0
K
n
. Alors (t) = e
(tt
0
)A
X
0
est lunique
solution du syst`eme dierentiel (S

) telle que (t
0
) = X
0
.
Preuve : Si lon pose (t) = (t+t
0
) alors on constate que est une solution de (S

) veriant
(t
0
) = X
0
si et seulement si est une solution de (S) veriant (0) = X
0
. Le theor`eme
3.2.6 assure donc le resultat.
Le theor`eme 3.2.6 va nous permettre de prouver la proposition 3.2.3.
Preuve de la proposition 3.2.3 : Soit donc A et B deux matrices qui commutent et
X
0
K
n
arbitraire. Posons (t) = e
At
e
Bt
X
0
et (t) = e
(A+B)t
X
0
. Dapr`es le theor`eme
3.2.6, est lunique solution du syst`eme

= (A+B)X,
X(0) = X
0
.
()
Par ailleurs,
t R,

(t) = Ae
At
e
Bt
X
0
+e
At
Be
Bt
X
0
.
Comme B commute avec A, on etablit facilement que B commute egalement avec les
puissances de tA puis avec e
tA
. En consequence, on a
t R,

(t) = (A+B)e
At
e
Bt
X
0
= (A +B)(t).
Comme (0) = X
0
, on en deduit que est egalement solution de (). Par unicite, on a
donc (t) = (t) pour tout t R. En prenant t = 1, on conclut que e
A+B
= e
A
e
B
. Un
raisonnement analogue permet de montrer que e
A+B
= e
B
e
A
.
Denition 3.2.8 Soit (
1
, ,
n
) une famille de n solutions du syst`eme dierentiel (S

). La
matrice de colonnes (
1
(t), ,
n
(t)) est appelee matrice wronskienne associee ` a la famille
(
1
, ,
n
). Le determinant de cette matrice, note W(t) est appele wronskien de la famille
(
1
, ,
n
).
Lemme 3.2.9 Soit (
1
, ,
n
) une famille de n solutions de (S

). On a la formule
(t
0
, t) R
2
, W(t) = e
(tt
0
) tr A
W(t
0
).
En particulier, la famille (
1
(t), ,
n
(t)) est libre pour tout t R si et seulement si il existe
t
0
R tel que (
1
(t
0
), ,
n
(t
0
)) soit libre.
3.2. LE CAS HOMOG
`
ENE
`
A COEFFICIENTS CONSTANTS 69
Preuve : Dapr`es le corollaire 3.2.7, on a
j
(t) = e
(tt
0
)A

j
(t
0
). Donc, en utilisant la propo-
sition 3.2.2, on obtient
(t
0
, t) R
2
, W(t) = det

e
(tt
0
)A

1
(t
0
), , e
(tt
0
)A

n
(t
0
)

,
= det

e
(tt
0
)A
(
1
(t
0
), ,
n
(t
0
))

,
= det(e
(tt
0
)A
) det(
1
(t
0
), ,
n
(t
0
)),
= e
(tt
0
) tr A
W(t
0
).
Theor`eme 3.2.10 Soit A
n
(K). Lensemble c

des solutions du syst`eme dierentiel


(S

) est un sous-espace vectoriel de dimension n de C


1
(R; K
n
).
De plus, si (X
1
, , X
n
) est une base de K
n
et si

i
: t e
tA
X
i
alors la famille de fonctions (
1
, ,
n
) est une base de c

.
Preuve : Il est clair que toute combinaison lineaire de solutions dans C
1
(R; K
n
) de X

= AX
est encore solution. Donc c

est un sous-espace vectoriel de C


1
(R; K
n
).
Soit (X
1
, , X
n
) une base de K
n
et (
1
, ,
n
) denie comme dans lenonce.
Comme par hypoth`ese, (
1
(0), ,
n
(0)) = (X
1
, , X
n
) est libre, le lemme 3.2.9 assure
que (
1
, ,
n
) est libre. Donc c

est au moins de dimension n.


Soit une solution arbitraire de (S

). Il existe (
1
, ,
n
) K
n
tel que (0) =

n
i=1

i
X
i
.
Par unicite de la solution de (S

) valant (0) en 0, on en deduit que


t R, (t) =
n

i=1

i
e
tA
X
i
=
n

i=1

i
(t).
Donc (
1
, ,
n
) est generatrice et c

est bien de dimension n.


Proposition 3.2.11 (Solutions de (S

) dans le cas complexe) Soit A


n
(C) de spectre
Sp(A) =
1
, ,
p
. Notons
i
la multiplicite de la valeur propre
i
. Alors les solutions de
(S

) sont des fonctions du type

R C
n
t

p
i=1

i
1
=0
c
i,
t

i
t
,
o` u les c
i,
sont des elements de C
n
.
Preuve :
1`ere etape : Cas o` u A =


0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0

.
Dans ce cas Sp(A) = et est de multiplicite n. On a A = I
n
+ N avec N
nilpotente (dindice au plus n puisque N est de taille n). Comme N commute avec
I
n
, on peut appliquer la proposition 3.2.3 et on trouve
e
tA
= e
tIn
e
tN
= e
t
e
tN
.
70 CHAPITRE 3.

EQUATIONS DIFF

ERENTIELLES LIN

EAIRES
Enn, comme N est nilpotente, on a
e
tN
=
n1

=0
t

/!,
donc les coecients de e
tA
sont des combinaisons lineaires de termes de type t

e
t
avec 0, , n 1. Il en est donc de meme de la solution generale t e
tA
X
0
de (S

).
2`eme etape : Cas o` u A =

T
1
0 0
0 T
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 T
p

, avec T
i
triangulaire superieure de taille

i
ayant des
i
sur la diagonale.
On a vu que, dans ce cas,
e
tA
=

e
tT
1
0 0
0 e
tT
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 e
tTp

.
Gr ace `a la premi`ere etape, on conclut que la solution generale de (S

) est une combi-


naison lineaire de termes t

i
t
avec 0, ,
i
1.
3`eme etape : Cas general.
Soit A
n
(C) de spectre Sp(A) =
1
, ,
p
avec
i
de multiplicite
i
. Dapr`es
la proposition 1.9.4, il existe une matrice de changement de base P et une matrice
triangulaire T du type decrit dans letape precedente telles que T = P
1
AP.
Soit une solution de (S

). Posons = P
1
. Alors on a

= P
1

= P
1
A = P
1
AP = T.
Donc est solution du syst`eme homog`ene Y

= TY etudie dans letape precedente.


On en deduit que les composantes de (t) sont des combinaisons lineaires de termes
t

i
t
avec 0, ,
i
1. Comme (t) = P(t), il en est de meme des coe-
cients de (t).
Proposition 3.2.12 (Solutions de (S

) dans le cas reel) Soit A


n
(R) et
1
, ,
p

les valeurs propres reelles de A et

1
+i
1
,
1
i
1
, ,
q
+i
q
,
q
i
q

ses valeurs propres complexes non reelles. Soit


j
la multiplicite de
j
et
k
la multiplicite
(commune) de
k
+i
k
et
k
i
k
. Alors les solutions reelles de (S

) sont des fonctions du type

R R
n
t

p
j=1

j
1
=0
c
j,
t

j
t
+

q
k=1

k
=0
t

k
t

d
k,
cos(
k
t) +e
k,
sin(
k
t)

,
o` u les c
j,
, les d
k,
et les e
k,
appartiennent ` a R
n
.
3.2. LE CAS HOMOG
`
ENE
`
A COEFFICIENTS CONSTANTS 71
Preuve : Dapr`es la proposition 3.2.12, les solutions complexes de (S

) sont du type
(t) =
p

j=1

j
1

=0
b
j,
t

j
t
+
q

k=1

=0
t

g
k,
e
(
k
+i
k
)t
+h
k,
e
(
k
i
k
)t

.
Comme est reelle, on a = ( +)/2. Donc legalite ci-dessus entrane que
(t) =
p

j=1

j
1

=0

b
j,
+b
j,
2

j
t
+
q

k=1

=0
t

k
t

g
k,
+h
k,
2

e
i
k
t
+

h
k,
+g
k,
2

e
i
k
t

.
Il est immediat que

g
k,
+h
k,
2

e
i
k
t
+

h
k,
+g
k,
2

e
i
k
t
= 1e (g
k,
+h
k,
) cos
k
t+1m(h
k,
g
k,
) sin
k
t.
Il ne reste plus qu`a poser
c
j,
= 1e b
j,
, d
k,
= 1e (g
k,
+h
k,
) et e
k,
= 1m(h
k,
g
k,
)
et la proposition est prouvee.
Attention : La reciproque des propositions 3.2.11 et 3.2.12 est fausse en general. Une fonction
du type decrit ci-dessus nest pas necessairement solution de (S

).
3.2.4

Equations scalaires lineaires homog`enes `a coecients constants
Ce sont des equations dierentielles de la forme
x
(n)
+c
n1
x
(n1)
+ +c
0
x = 0 (E

)
avec (c
0
, , c
n1
) K
n
.
La proposition suivante permet de ramener (E

) `a un syst`eme dierentiel.
Proposition 3.2.13 La fonction C
n
(R; K) est solution de (E) si et seulement si
def
=
(,

, ,
(n1)
) est solution du syst`eme dierentiel dordre n
(3.2) X

= AX avec A =

0 1 0 0
0 0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 0
0 0 1
c
0
c
1
c
n2
c
n1

.
Preuve : Soit une solution de (E). Posons
def
= (,

, ,
(n1)
). On a bien
j 0, , n 2,

j+1
= (
(j)
)

=
(j+1)
=
j+2
,

n
= (
(n1)
)

=
(n)
=
n1

i=0
c
i

(i)
=
n1

i=0
c
i

i+1
,
do` u le resultat.
Remarque : La matrice A nest autre que la transposee de la matrice de Frobenius introduite
dans le chapitre 1.
72 CHAPITRE 3.

EQUATIONS DIFF

ERENTIELLES LIN

EAIRES
Lidentication de (E

) `a un syst`eme dierentiel homog`ene permet detendre la notion de


wronskien au cas des equations dierentielles scalaires dordre n :
Denition 3.2.14 Soit (
1
, ,
n
) une famille de n fonctions n 1 fois derivables sur R et
valeurs dans K. La matrice wronskienne associee ` a cette famille est

1
(t)
n
(t)

1
(t)

n
(t)
.
.
.
.
.
.

(n1)
1
(t)
(n1)
n
(t)

.
Le wronskien correspondant est le determinant W de cette matrice.
Comme pour les syst`emes dierentiels, on prouve aisement le resultat suivant.
Lemme 3.2.15 Si (
1
, ,
n
) est une famille de solutions de (E

) sur I alors le wronskien


associe W sannule sur I si et seulement si il sannule en un point de I. Dans le cas o` u il ne
sannule pas, on dit que la famille (
1
, ,
n
) est libre.
Theor`eme 3.2.16 1. Lensemble des solutions de (E

) est un sous-espace vectoriel de di-


mension n de C
n
(R; K
n
).
2. Si t
0
R et (x
0
, , x
n1
) K
n
alors (E

) admet une unique solution telle que


i 0, , n 1,
(i)
(t
0
) = x
i
.
Preuve : Les deux resultats sont des consequences immediates du theor`eme 3.2.6 et de
lequivalence entre equations dierentielles scalaires dordre n et syst`emes dierentiels
dordre n donnee dans la proposition 3.2.13.
Denition 3.2.17 On appelle equation caracteristique associe `a (E

) lequation
r
n
+c
n1
r
n1
+ +c
0
= 0.
Remarque : Au signe pr`es, la fonction r r
n
+c
n1
r
n1
+ +c
0
nest autre que le polynome
caracteristique de la matrice denie en (3.2).
Proposition 3.2.18 (Base de solutions de (E

) : cas complexe) Soit


1
, ,
p

lensemble des racines complexes de lequation caracteristique associee ` a (E

). Notons
i
la multiplicite de la racine
i
. Alors la famille de fonctions

i,
: t t

i
t
avec i 1, , p et 0, ,
i
1,
est une base de lensemble c

des solutions complexes de (E

).
Preuve : En considerant le syst`eme dierentiel homog`ene associe `a (E

), on etablit que c

est un sous-espace vectoriel de dimension n de C


n
(I; C). De plus, dapr`es la proposition
3.2.11, toutes les solutions de (E

) sont des combinaisons lineaires des


i,
. Ces fonctions
sont au nombre de n. Elles constituent donc une base de c

.
3.3.

EQUATIONS DIFF

ERENTIELLES LIN

EAIRES G

EN

ERALES 73
Proposition 3.2.19 (Base de solutions de (E

) : cas reel) Notons

1
, ,
p
,
1
+i
1
,
1
i
1
, ,
q
+i
q
,
q
i
q
avec
i
R,
i
R,
i
R

lensemble des racines reelles et complexes de lequation caracteristique associee ` a (E

).
Soit
j
la multiplicite de la racine
j
, et
k
la multiplicite commune des racines
k
+i
k
et
k
i
k
. Alors la famille de fonctions constituee de
t t
p
j
e

j
t
, t t
q
k
e

k
t
cos(
k
t) et t t
q
k
e

k
t
sin(
k
t),
avec j 1, , p, k 1, , q, p
k
0, ,
k
1 et q
k
0, ,
k
1 est une
base de lensemble c

des solutions reelles de (E

).
Preuve : On suit la meme demarche que dans le cas complexe mais on utilise cette fois-ci la
proposition 3.2.12.
Exemple :

Equations dierentielles scalaires dordre 2 `a coecients reels constants.
Soit (b, c) R
2
. On cherche les solutions reelles de
x

+bx

+cx = 0. (E

)
Pour cela, on va appliquer la proposition ci-dessus.
Lequation caracteristique associee ` a (E

) est r
2
+br +c = 0. Cest une equation du second
degre de discriminant
def
= b
2
4c. Notons
def
=

[[.
Cas > 0 : Lequation caracteristique a deux racines reelles distinctes

1
=
b
2
et
2
=
b +
2
,
et la solution generale de (E

) secrit (t) = Ae

1
t
+Be

2
t
avec (A, B) R
2
.
Cas = 0 : Lequation caracteristique a pour racine double = b/2 et la solution generale
de (E

) secrit (t) = (A +Bt)e


t
avec (A, B) R
2
.
Cas < 0 : Lequation caracteristique a deux racines complexes conjuguees distinctes

=
b i
2
et
+
=
b +i
2
,
et la solution generale secrit (t) = e

b
2
t

Acos(

2
t) +Bsin(

2
t)

avec (A, B)R


2
.
3.3

Equations dierentielles lineaires generales
3.3.1

Equations dierentielles lineaires scalaires dordre 1
Theor`eme 3.3.1 Soit a une fonction numerique continue sur un intervalle ouvert I de
R, et soit t
0
I. Lensemble des solutions de lequation dierentielle scalaire homog`ene
x

= a(t)x (E

)
est le sous-espace vectoriel de dimension 1 de ((I; R) engendre par la fonction
t e
R
t
t
0
a() d
.
74 CHAPITRE 3.

EQUATIONS DIFF

ERENTIELLES LIN

EAIRES
Preuve : Soit une fonction derivable sur I. Posons
(t)
def
= (t)e

R
t
t
0
a() d
.
Un calcul immediat donne

(t) = e

R
t
t
0
a() d
(

(t) a(t)(t)). Donc est solution de


(E

) si et seulement si

est la fonction nulle, cest-` a-dire constante, ce qui donne le


resultat voulu.
Remarque : On observe que si solution de (E

) nest pas la fonction nulle, alors elle ne


sannule jamais. De ce fait, elle est alors solution de x

/x = a(t), qui peut sintegrer `a vue


puisque x

/x est la derivee de log [x[.


Theor`eme 3.3.2 Soit a et b deux fonctions numeriques continues sur un intervalle ouvert I de
R, t
0
I et x
0
R. Alors lequation dierentielle scalaire dordre 1
x

= a(t)x +b(t) (E)


admet une unique solution prenant la valeur x
0
en t
0
. Il sagit de la fonction
:

I R
t e
R
t
t
0
a() d

x
0
+

t
t
0
e

R

t
0
a(

) d

b() d

.
Preuve : Soit une fonction derivable sur I. Observons que
d
dt

(t)e

R
t
t
0
a() d

= e

R
t
t
0
a() d

(t) a(t)(t)

.
Donc est solution de (E) si et seulement si
d
dt

(t)e

R
t
t
0
a() d

= e

R
t
t
0
a() d
b(t).
Cette egalite sint`egre en
(t)e

R
t
t
0
a() d
= K +

t
t
0
e

R

t
0
a(

) d

b() d.
La condition (t
0
) = x
0
est donc veriee si et seulement si K = x
0
.
3.3.2 Syst`emes dierentiels lineaires
Cette section est consacree `a letude des syst`emes dierentiels lineaires dordre n generaux :
X

= A(t)X +B(t), (S)


o` u les coecients de A et de B sont des fonctions continues. Nous allons dabord prouver que
tout syst`eme de ce type admet des solutions. Pour prouver lunicite de la solution prenant une
valeur donnee en t
0
, nous utiliserons le lemme suivant :
Lemme 3.3.3 (de Gronwall) Soit a et deux fonctions continues et positives sur lintervalle
I de R, t
0
I et x
0
R
+
. Supposons que
(3.3) t I, (t) x
0
+

t
t
0
a()() d

.
Alors on a
t I, (t) x
0
e
|
R
t
t
0
a() d|
.
3.3.

EQUATIONS DIFF

ERENTIELLES LIN

EAIRES G

EN

ERALES 75
Preuve : Soit t I. Quitte `a echanger le r ole de t
0
et de t, on peut supposer que t
0
t.
Posons
(t) =

t
t
0
a()() d.
On a

(t) = a(t)(t) a(t)x


0
+a(t)(t). Posons
(t) = e

R
t
t
0
a() d
(t).
Dapr`es linegalite ci-dessus, on a

(t) = e

R
t
t
0
a() d

(t) a(t)(t)

a(t)e

R
t
t
0
a() d
x
0
.
Comme (t
0
) = 0, integrer cette inegalite entre t
0
et t donne
(t) x
0

1 e

R
t
t
0
a() d

,
puis, apr`es multiplication par e
R
t
t
0
a() d
,
(t) =

t
t
0
a()() d x
0

e
R
t
t
0
a() d
1

.
En injectant cette inegalite dans (3.3), on trouve le resultat souhaite.
Nous sommes maintenant en mesure de prouver le theor`eme de Cauchy-Lipschitz.
Theor`eme 3.3.4 (de Cauchy-Lipschitz) Soit I un intervalle ouvert de R, t
0
I et X
0
K
n
.
Soit A une fonction continue de I ` a valeurs dans
n
(K) et B une fonction continue de I ` a
valeurs dans K
n
. Alors le syst`eme dierentiel (S) admet une unique solution de classe C
1
telle
que (t
0
) = x
0
.
Preuve : Munissons K
n
dune norme | | et denissons sur
n
(K) la norme suivante :
[|A[|
def
= sup
{XK
n
, X=1}
|AX|.
1. Unicite. Considerons deux solutions et de (S). Alors
def
= est solution du
syst`eme homog`ene associe `a (S), et (t
0
) = 0. De ce fait, on a
(t) =

t
t
0
A()() d,
donc a(t)
def
= |(t)| verie
a(t)

t
t
0
[|A()[|a() d

.
Le lemme de Gronwall assure donc que a 0 sur I, cest-` a-dire .
2. Existence. On va montrer lexistence dune fonction continue sur I telle que
(3.4) t I, (t) = x
0
+

t
t
0

A()() +B()

d.
76 CHAPITRE 3.

EQUATIONS DIFF

ERENTIELLES LIN

EAIRES
Il est alors clair que est de classe C
1
(car le second membre lest), verie (E) et
(t
0
) = x
0
.
Pour resoudre (3.4), on va construire par recurrence une suite (
n
)
nN
de solutions
approchees. On choisit
0
(t) = x
0
+

t
t
0
B() d, puis une fois
n
construite, on pose
(3.5) t I,
n+1
(t) = x
0
+

t
t
0

A()
n
() +B()

d.
On obtient ainsi une suite de fonctions continues sur I. Pour montrer la convergence
de cette suite, on borne la dierence entre deux termes consecutifs. On a pour tout
n N

,
t I, (
n+1

n
)(t) =

t
t
0
A()

n
()
n1
()

d.
Donc
|
n+1
(t)
n
(t)|

t
t
0
[|A()[| |
n
()
n1
()| d

.
Pla cons-nous sur un intervalle ferme borne [a, b] I arbitraire. Il existe alors un
M 0 tel que [|A()[| M pour tout [a, b]. En consequence, linegalite ci-
dessus entrane
t [a, b], |
n+1
(t)
n
(t)| M

t
t
0
|
n
()
n1
()| d

.
Soit K = sup
t[a,b]
|
1
(t)
0
(t)|. Une recurrence facile permet detablir que
t [a, b], |
n+1
(t)
n
(t)| K
(M[tt
0
[)
n
n!
.
On en deduit que la suite (
n
)
nN
verie le crit`ere de Cauchy uniforme sur [a, b].
Elle converge donc vers une fonction continue sur [a, b]. Comme [a, b] etait un
intervalle arbitraire inclus dans I, on conclut que (
n
)
nN
converge simplement vers
une fonction continue sur I tout entier.
En faisant tendre n vers linni dans (3.5), on constate que verie (3.4).
Remarque : La donnee dune equation dierentielle et dune contrainte en t
0
du type X(t
0
) =
X
0
(appelee donnee ou condition initiale en t
0
) sappelle probl`eme de Cauchy. Le theor`eme ci-
dessus etablit donc lexistence et unicite dune solution au probl`eme de Cauchy pour les equations
dierentielles lineaires. On peut prouver un resultat similaire pour des equations dierentielles
beaucoup plus generales (voir le cours de licence).
La notion de wronskien setend sans diculte aux syst`emes lineaires `a coecients variables,
et permet de caracteriser les familles libres :
Proposition 3.3.5 Soit (
1
, ,
n
) une famille de n solutions du syst`eme dierentiel X

=
A(t)X. La matrice de colonnes (
1
(t), ,
n
(t)) est appelee matrice wronskienne associee
` a (
1
, ,
n
) et son determinant W(t) est appele wronskien de la famille (
1
, ,
n
).
La famille (
1
(t), ,
n
(t)) est libre pour tout t I si et seulement si il existe t
0
I tel
que W(t
0
) = 0.
3.3.

EQUATIONS DIFF

ERENTIELLES LIN

EAIRES G

EN

ERALES 77
Preuve : Supposons (
1
(t), ,
n
(t)) libre pour tout t I. Alors le determinant de cette
famille qui nest autre que W ne sannule jamais. Reciproquement, supposons W(t
0
) = 0
et considerons t
1
I et (
1
, ,
n
) K
n
tels que
n

i=1

i
(t
1
) = 0.
Notons =

n
i=1

i
. Alors est solution de X

= A(t)X et verie (t
1
) = 0. La fonc-
tion nulle satisfait ces deux conditions. Par unicite des solutions des syst`emes dierentiels
lineaires (voir th. 3.3.4), on conclut que 0 sur I entier. En particulier
n

i=1

i
(t
0
) = 0,
et donc tout les
i
sont nuls puisque det(
1
(t
0
), ,
n
(t
0
)) = 0 par hypoth`ese.
Theor`eme 3.3.6 Sous les hypoth`eses du theor`eme precedent, lensemble c

des solutions du
syst`eme homog`ene
X

= A(t)X (S

)
est un sous-espace vectoriel de dimension n de (
1
(I; K
n
). De plus, si (X
1
, , X
n
) est une base
de K
n
, t
0
I et
i
, lunique solution de (S

) telle que
i
(t
0
) = X
i
, alors (
1
, ,
n
) est une
base de c

.
Preuve : Elle est identique `a celle du theor`eme 3.2.10. Il sut dutiliser le lemme 3.3.5 au
lieu du lemme 3.2.9.
3.3.3 La methode de variation des constantes
Interessons-nous maintenant `a la resolution des syst`emes dierentiels lineaires (S) non ho-
mog`enes. On sait dej`a que la solution generale dun tel syst`eme sobtient comme somme dune
solution particuli`ere et de la solution generale du syst`eme homog`ene (S

) associe.
Si lon dispose dune base (
1
, ,
n
) de lensemble des solutions de (S

), la methode de
variation des constantes va nous permettre de determiner une solution particuli`ere.
Lemme 3.3.7 Soit (
1
, ,
n
) une famille de fonctions de (
1
(I; K
n
) telle que, pour tout t I,
(
1
(t), ,
n
(t)) soit une famille libre. Soit f (
1
(I; K
n
). Alors il existe un unique n-uplet de
fonctions (u
1
, , u
n
) de (
1
(I; K) tel que
t I, f(t) =
n

i=1
u
i
(t)
i
(t).
Preuve : Pour tout t I, la famille (
1
(t), ,
n
(t)) est une base de K
n
. Donc il existe un
unique n-uplet (u
1
(t), , u
n
(t)) delements de K tel que
f(t) =
n

i=1
u
i
(t)
i
(t).
Notons M(t) la matrice de colonnes (
1
(t), ,
n
(t)). Les fonctions
i
sont de classe C
1
donc lapplication = det M (qui est un polynome par rapport aux coecients des
i
) est
aussi C
1
. Par hypoth`ese, cette application ne sannule pas sur I. En utilisant la formule
[M(t)]
1
=
t
Com(M(t))/(t),
78 CHAPITRE 3.

EQUATIONS DIFF

ERENTIELLES LIN

EAIRES
on conclut que t [M(t)]
1
est C
1
sur I. Comme

u
1
(t)
.
.
.
u
n
(t)

= [M(t)]
1

f
1
(t)
.
.
.
f
n
(t)

,
les fonctions u
i
sont bien de classe C
1
.
Theor`eme 3.3.8 Soit (
1
, ,
n
) une base de solutions de (S

) et f (
1
(I; K
n
). Notons
(u
1
, , u
n
) la famille de fonctions de (
1
(I; K) telle que f =

n
i=1
u
i

i
. Alors f est
solution de (S) si et seulement si
t I,
n

j=1
u

j
(t)
j
(t) = B(t).
Preuve : Soit donc f (
1
(I; K
n
) et (u
1
, , u
n
) la famille de fonctions telle que f =

n
j=1
u
j

j
donnee par le lemme precedent. Alors f est solution de (S) si et seulement si

j=1
u
j

= A

j=1
u
j

+B.
En utilisant la formule de Leibniz, on voit que legalite ci-dessus se recrit
n

j=1
u

j
+
n

j=1
u
j

j
=
n

j=1
u
j

A
j

+B.
Or par hypoth`ese

j
= A
j
donc f est solution de (S) si et seulement si
n

j=1
u

j
= B.
Remarque : La connaissance dune base de solutions de (S

) permet donc de resoudre (S)


pourvu que lon sache integrer les u

j
. On dit que la methode de variation de la constante permet
de resoudre les syst`emes lineaires `a quadrature pr`es.
3.3.4

Equations dierentielles scalaires dordre quelconque
Il sagit dequations dierentielles du type
x
(n)
+c
n1
(t)x
(n1)
+ +c
0
(t)x = b(t), (E)
avec c
0
, c
1
, , c
n1
et b fonctions continues sur I et `a valeurs dans K.
La proposition 3.2.13 se generalise aisement `a des equations dierentielles lineaires `a coe-
cients variables. On en deduit le resultat fondamental suivant :
Theor`eme 3.3.9 Soit t
0
I et (x
0
, , x
n1
) un n-uplet de K
n
. Lequation dierentielle (E)
admet une unique solution telle que
(i)
(t
0
) = x
i
pour tout i 0, , n 1.
De plus, lensemble c

des solutions de lequation dierentielle homog`ene (E

) associee ` a (E)
est un sous-espace vectoriel de dimension n de (
n
(I; K).
3.3.

EQUATIONS DIFF

ERENTIELLES LIN

EAIRES G

EN

ERALES 79
Preuve : On utilise lequivalence equation dierentielle/syst`eme dierentiel, et on applique
le theor`eme de Cauchy-Lipschitz et le theor`eme 3.3.6.
Donnons maintenant la denition de wronskien associe `a une famille de solutions dune equation
dierentielle scalaire homog`ene (E

).
Proposition 3.3.10 Soit (
1
, ,
n
) une famille de n solutions de lequation dierentielle
(E

). La matrice

1
(t)
2
(t)
n
(t)

1
(t)

2
(t)

n
(t)
.
.
.
.
.
.
.
.
.
.
.
.

(n1)
1
(t)
(n1)
2
(t)
(n1)
n
(t)

est appelee matrice wronskienne associee ` a (


1
, ,
n
). Le determinant de cette matrice,
note W(t) est appele wronskien de la famille (
1
, ,
n
). Le wronskien sannule sur I tout
entier si et seulement si il sannule en un point de I. Sil ne sannule pas, (
1
, ,
n
) est une
base de lensemble des solutions.
Preuve : Resulte encore de lequivalence equation dierentielle/syst`eme dierentiel.
Comme dans le cas des syst`emes, la connaissance dune base de solutions (
1
, ,
n
) de
lequation dierentielle homog`ene (E

) associee `a (E) permet de resoudre (E) (`a n quadratures


pr`es). Pour cela, on utilise la methode de variation des constantes.
Dapr`es le lemme 3.3.7, si f (
n
(I; K), il existe n fonctions u
i
de (
1
(I; K) telles que

f = u
1

1
+ u
2

2
+ + u
n

n
,
f

= u
1

1
+ u
2

2
+ + u
n

n
,
.
.
.
.
.
.
.
.
.
.
.
.
f
(n1)
= u
1

(n1)
1
+ u
2

(n1)
2
+ + u
n

(n1)
n
.
On en deduit alors la proposition suivante :
Theor`eme 3.3.11 Soit (
1
, ,
n
) une base de solutions de (E

) et f (
n
(I; K). Alors
f est solution de (E) si et seulement si il existe une famille (u
1
, , u
n
) de n fonctions de
(
1
(I; K) telles que f =

n
j=1
u
j

j
et veriant pour tout t I le syst`eme lineaire suivant

n
j=1
u

j
(t)
j
(t) = 0,

n
j=1
u

j
(t)

j
(t) = 0,
. . . . . . . . . . . . . . . . . . . . . . . . . .

n
j=1
u

j
(t)
(n1)
j
(t) = b(t).
3.3.5 Application au cas des coecients constants
Dans le cas particulier o` u le syst`eme dierentiel considere est ` a coecients constants, on
dispose dune formule explicite donnant toutes les solutions :
Proposition 3.3.12 Soit t
0
I, X
0
K
n
et B ((I; K
n
). Alors le syst`eme dierentiel
X

= AX +B(t) (S)
admet une unique solution valant X
0
en t
0
:
(3.6) t I, (t) = e
(tt
0
)A
X
0
+

t
t
0
e
(ts)A
B(s) ds.
80 CHAPITRE 3.

EQUATIONS DIFF

ERENTIELLES LIN

EAIRES
Preuve : Dapr`es le theor`eme 3.3.4, le syst`eme (S) admet une unique solution denie sur
I entier. Pour determiner cette solution , on utilise la methode de variation de la
constante. Sachant que les solutions de (S

) sont du type t e
tA
Y
0
avec Y
0
K
n
, on
ecrit
(t) = e
tA
Y (t).
Comme lapplication t e
tA
ainsi que son inverse t e
tA
sont de classe C
1
, Y et sont
simultanement de classe C
1
. De plus

(t) A(t) = Ae
tA
Y (t) +e
tA
Y

(t) Ae
tA
Y (t) = e
tA
Y

(t),
donc est solution de S si et seulement si
t I, Y

(t) = e
tA
B(t),
donc si et seulement si il existe Y
0
K
n
tel que
t I, Y (t) = Y
0
+

t
t
0
e
sA
B(s) ds.
Comme de plus Y
0
= Y (t
0
) = e
t
0
A
(t
0
) = e
t
0
A
X
0
, on en deduit la formule (3.6).
A titre dexemple, donnons une methode de resolution des syst`emes dierentiels dont le second
membre est une exponentielle-polynome.
Proposition 3.3.13 Considerons un syst`eme dierentiel
X

= AX +R(t)e
t
(S)
tel que les composantes de R soient des polyn omes. Soit d le degre maximal des R
i
.
Alors (E) admet une solution du type (t) = P(t)e
t
o` u P est un polyn ome tel que
deg P = d si nest pas valeur propre de A,
deg P = d + si est valeur propre de multiplicite de A.
Preuve : Dapr`es la proposition 3.2.11, les composantes des solutions du syst`eme homog`ene
associe `a (S) sont des combinaisons lineaires des fonctions t t

i
t
avec
i
valeur propre
de A de multiplicite
i
, et
i
1.
Comme les colonnes de e
tA
sont elles-memes des solutions de (S

), les coecients de e
tA
sont aussi des sommes de fonctions t t

i
t
avec
i
1. La formule (3.6) avec t
0
= 0
et X
0
= 0 nous assure que t

t
0
e
(ts)A
R(s)e
s
ds est une solution particuli`ere de (S).
Les coecients de e
(ts)A
R(s) sont des combinaisons lineaires dexpressions du type (t
s)

i
(ts)
e
s
s
k
avec k d. En developpant, on trouve une somme de termes du type
t

s
k+
e

i
t
e
(
i
)s
avec .
Integrer cette expression sur [0, t] donne des termes du type
t
k++1
e
t
avec k d,
i
1, ce qui ach`eve la preuve du resultat.
Remarque : Pour determiner les coecients du polynome P, on proc`ede par identication.
3.3.

EQUATIONS DIFF

ERENTIELLES LIN

EAIRES G

EN

ERALES 81
Pour les equations dierentielles dordre n, on a :
Proposition 3.3.14 Considerons une equation dierentielle du type suivant :
x
(n)
+c
n1
x
(n1)
+ +c
0
x = R(t)e
t
(E)
avec R polyn ome. Alors (E) admet une solution du type (t) = P(t)e
t
avec P polyn ome tel que
deg P = deg R si nest pas racine de lequation caracteristique associee ` a (E),
deg P = deg R + si est racine de multiplicite de lequation caracteristique.
Remarque importante : Bien que lon dispose dune formule explicite donnant la solution
generale des syst`emes dierentiels `a coecients constants, il est souvent plus rapide dutiliser
la methode de variation de la constante donnee par le theor`eme 3.3.8 pour determiner une
solution particuli`ere. En eet, calculer une exponentielle de matrice est rarement immediat !
Cette remarque est egalement valable pour les equations dierentielles `a coecients constants.
3.3.6 Utilisation des developpements en serie enti`ere
Rappels : Soit (a
n
)
nN
une suite reelle ou complexe. La serie de terme general a
n
t
n
avec t reel
est appelee serie enti`ere associee `a la suite (a
n
)
nN
.
Si s et t sont tels que [s[ [t[ alors

n=0
a
n
t
n
converge entrane

n=0
a
n
s
n
converge,

n=0
a
n
s
n
diverge entrane

n=0
a
n
t
n
diverge.
La borne superieure R de lensemble des [t[ avec t tel que la serie

n=0
a
n
t
n
converge est appele
rayon de convergence de la serie. Cest un element de R
+
+.
Si R > 0, la somme de la serie, cest-` a-dire la fonction f denie sur ] R, R[ par
f(t) =

n=0
a
n
t
n
,
est alors de classe C

(i.e indeniment derivable) et verie


(3.7) k N, t ]R, R[, f
(k)
(t) =

n=k
n(n 1) (n k + 1)a
n
t
nk
.
Reciproquement, on dit quune fonction f dune variable reelle est developpable en serie enti`ere
sil existe une serie enti`ere

a
n
t
n
de rayon de convergence non nul dont f est la somme.
Lutilisation des developpements en serie enti`ere peut permettre de trouver des solutions
particuli`eres des equations dierentielles du type
c
n
(t)x
(n)
+c
n1
(t)x
(n1)
+ +c
0
(t)x = b(t) (E)
lorsque les fonctions c
i
et b sont elles-memes developpables en serie enti`ere. En pratique, il vaut
mieux que ces fonctions soient des polynomes.
On cherche alors une solution particuli`ere f de (E) sous la forme dune serie enti`ere
f(t) =

n=0
a
n
t
n
quon injecte dans (E) en utilisant les formules de derivation (3.7).
82 CHAPITRE 3.

EQUATIONS DIFF

ERENTIELLES LIN

EAIRES
En regroupant tous les termes de meme puissance, on se retrouve alors avec une relation du
type

n=0
b
n
t
n
= 0,
o` u chaque b
n
est combinaison lineaire de coecients a
p
.
Par unicite du developpement en serie enti`ere, la suite (b
n
)
nN
est nulle. Cela donne des
relations entre les coecients a
n
et permet, dans les cas favorables, de les calculer explicitement.
Bien s ur la demarche nest valable que si le rayon de convergence de

a
n
t
n
nest pas nul. Il
convient donc, une fois connue la suite (a
n
)
nN
, de verier que le rayon de convergence est bien
strictement positif.
Attention : En general, cette methode ne donne pas toutes les solutions de (E). Elle ne
fournit que celles qui sont developpables en serie enti`ere.
Bibliographie
[1] J.-M. Arnaudi`es et H. Fraysse : Cours de mathematiques 1, Alg`ebre, Dunod.
[2] G. Christol, P. Pilibossian et S. Yammine : Alg`ebre 2, Ellipses.
[3] R. Danchin : Cours dalg`ebre lineaire, MIAS1.
http ://www.univ-paris12.fr/www/cmup/labos/mias/mias.html.
[4] J. Dixmier : Cours de mathematiques du premier cycle, Gauthier-Villars.
[5] B. Dupont : Alg`ebre pour les sciences economiques, U-Flash, Armand Colin.
[6] F. Liret et D. Martinais : Mathematiques pour le DEUG, Alg`ebre et geometrie, 2`eme annee,
Dunod.
83
Index
Adjoint, 48
Base
adaptee, 7
orthonormale, 43
Changement de base, 6
Decomposition
de Dunford, 32
Diagonalisable, 15
Distance, 47
Dual, 48
Endomorphisme
adjoint, 48
antisymetrique, 49
diagonalisable, 15
induit, 7
nilpotent, 10
orthogonal, 49
symetrique, 49
trigonalisable, 18

Equation
caracteristique, 72
dierentielle, 63
lineaire, 64
scalaire, 63
Espace
euclidien, 42
Exponentielle de matrice, 64
Famille
orthogonale, 43
orthonormale, 43
Forme
bilineaire, 37
denie negative, 41
denie positive, 41
negative, 41
non degeneree, 41
positive, 41
symetrique, 39
polaire, 39
quadratique, 39
GramSchmidt, 44
Homog`ene, 64
Homothetie, 6
Ideal, 25
Identite, 6
Identite du parallelogramme, 42
Indice de nilpotence, 10, 11
Inegalite
de Cauchy-Schwarz, 41, 42
triangulaire, 43
Involution, 6
Isometrie, 50
Kronecker, 43
Lemme
de Gronwall, 74
des noyaux, 28
Matrice
antisymetrique, 50
compagnon, 13
dun endomorphisme, 6
dune forme bilineaire, 38
denie negative, 41
denie positive, 41
de Frobenius, 13
de passage, 6
de rotation, 54
diagonale, 5
diagonalisable, 15
identite, 6
negative, 41
nilpotente, 11
non degeneree, 41
orthogonale, 50
par blocs, 6
positive, 41
symetrique, 39, 50
trigonalisable, 18
84
INDEX 85
wronskienne, 68, 72, 76
Matrices
congrues, 39
semblables, 6
Morphisme
dalg`ebre, 22
Multiplicite, 15
Nilpotent, 10
Norme, 43
Orthogonal, 40
Orthonormalisation, 44
Polynome
annulateur, 23
caracteristique, 11
dendomorphisme, 21
de matrice, 22
minimal, 25
unitaire, 25
Produit
scalaire, 42
canonique, 42
Projecteur, 6
orthogonal, 47
Pythagore, 43
Rang dune forme bilineaire, 38
Rayon de convergence, 81
Reexion, 55
Rotation, 54
dangle , 56
Serie enti`ere, 81
Somme
directe, 6
Sous-espace
caracteristique, 30
propre, 8
stable, 7
Spectre, 8, 10
Symetrie, 6
orthogonale, 55
Syst`eme dierentiel, 63
lineaire, 64
Theor`eme
de reduction simultanee, 53
de Cauchy-Lipschitz, 75
de Cayley-Hamilton, 24
de Pythagore, 43
de reduction simultanee, 29
Valeur
propre, 8, 10
Variation des constantes, 77
Vecteur
propre, 8, 11
Wronskien, 68, 72, 76