Vous êtes sur la page 1sur 40

Réduction des matrices; espaces euclidiens et préhilbertiens

Réduction des matrices


espaces euclidiens et préhilbertiens

Prérequis : on suppose connue la théorie des espaces vectoriels de dimension finie (dimension, bases, applications
linéaires, matrices ...).
K désigne un corps commutatif et E un espace vectoriel de dimension non nulle n sur K. On note L(E) l’ensemble des
endomorphismes de E et Mn(K) l’ensemble des matrices carrées de type (n n) à coefficients dans K.
Rappels :
Soit u ∈ L(E). On dit que λ ∈ K est valeur propre de u ssi il existe x ∈ E non nul tel que u(x) = λx.
Dans ce cas on dit que x est vecteur propre de u associé à la valeur propre λ.
L'ensemble des valeurs propres de u s'appelle spectre de u et on le note Sp(u).
Si λ ∈ Sp(u) on appelle sous-espace propre de u associé à la valeur propre λ le sous-espace vectoriel de E :
Eu(λ) = Ker(u - λIdE).
λ ∈ K est valeur propre de u ssi λ est racine de son polynôme caractéristique χu (voir 1.2).
Propriétés :
Si (x1, ... , xp) sont des vecteurs propres de u associés à des valeurs propres distinctes deux à deux alors le système
(x1, ... , xp) est libre.
(ii) Si λ1 , ... , λp sont des valeurs propres distinctes deux à deux de u alors la somme Eu(λ1) + ... + Eu(λp) est directe.
On dit que u est diagonalisable ssi il existe une base de E dans laquelle la matrice de u est diagonale.
On a les propriétés équivalentes suivantes :
(i) u est diagonalisable;
(ii) il existe une base de E formée de vecteurs propres de u;
(iii) u est somme directe des sous-espaces propres de u;
(iv) le polynôme caractéristique χ de u est scindé et pour toute valeur propre λ de u on a dim Eu(λ) = α = multiplicité
de λ dans χ.
Un condition suffisante pour que u soit diagonalisable est que le polynôme caractéristique de u n'ait que des racines
simples.
⎛ λ1 ⎞
⎜ ⎟
λ2
Si u est diagonalisable sa matrice dans toute base qui diagonalise u est ⎜ ⎟ où les λi sont les valeurs
⎜ ⎟
⎜⎜ ⎟
⎝ λn ⎟⎠
propres de u écrites autant de fois que leur ordre de multiplicité.
On dit que u est trigonalisable ssi il existe une base de E dans laquelle la matrice de u est triangulaire.
On a les propriétés équivalentes suivantes :
(i) u est trigonalisable;
(ii) le polynôme caractéristique de u est scindé.

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

1. Réduction des endomorphismes


1.1 le théorème de décomposition des noyaux
Soit u ∈ L(E) un endomorphisme de E. On définit par récurrence sur n ∈ n l’endomorphisme un par u0 = IdE et
p
ui+1 = ui o u. Si P = ∑a
k =0
k X k est un polynôme à coefficients dans K on définit l’élément de L(E) noté P(u) par
p
P(u) = ∑a u
k =0
k
k
.

L’ensemble K[X].u = {P(u) / P ∈ K[X]} muni de l’addition, la multiplication par un scalaire et la composition des
applications est alors une sous-algèbre commutative de L(E).
Enfin l’application qui à un polynôme P associe P(u) est un homomorphisme d’algèbres. On a donc pour tous
polynômes P et Q, tout scalaire α et tous endomorphismes u et v de E :
(P + Q)(u) = P(u) + Q(v); (αP)(u) = αP(u) et (PQ)(u) = P(u) o Q(u).
Théorème de décomposition des noyaux : Soit u un endomorphisme de E et P1, ... , Pq des polynômes premiers entre
eux deux à deux. Posons P = P1 ×... × Pq. Alors on a :
Ker P(u) = Ker P1(u) ⊕ ... ⊕ Ker Pq(u).
Démonstration :
Cas q = 2 : K[X] est un anneau principal (voir « anneaux ») et P1 et P2 sont premiers entre eux donc d’après la relation
de Bezout il existe U et V dans K[X] tels que UP1 + VP2 = 1 d’où UP1(u) + VP2(u) = IdE. Soit x ∈ Ker P(u). On a
x = UP1(u)(x) + VP2(u)(x) = y + z en posant y = UP1(u)(x) et z = VP2(u)(x). Mais d’après les propriétés de l’algèbre
K[X].u : P2(u)(y) = UP1P2(u)(x) = U(u)o P1P2(u)(x) = 0 car x ∈ Ker P(u) donc y ∈ Ker P2(u); de même on montre que
z ∈ Ker P1(u) d’où E = Ker P1(u) + Ker P2(u).
D’autre part si x ∈ Ker P1(u) ∩ Ker P2(u), la relation x = UP1(u)(x) + VP2(u)(x) = U(u)oP1(u)(x) + V(u)oP2(u)(x)
montre que x = 0 donc Ker P(u) = Ker P1(u) ⊕ Ker P2(u).
On termine facilement par récurrence sur q en utilisant que si P1 est premier avec P2, ... , Pq il est premier avec leur
produit.
Remarques :
les sous-espaces vectoriels Ker Pk(u) sont stables par u (car si x ∈ Ker Pk(u), on a
Pk(u)(u(x)) = u(Pk(u)(x)) = u(0) = 0).
Si P(u) = 0 (endomorphisme nul de E) alors E = Ker P1(u) ⊕ ... ⊕ Ker Pq(u).
Exercice 1
⎛0 0 0⎞
⎜ ⎟
Soit A une matrice non nulle de M3(r) telle que A = - A. Montrer que A est semblable à ⎜ 0 0
3
−1⎟ .
⎜ ⎟
⎝0 1 0⎠

1.2 Polynômes minimal et caractéristique d’un endomorphisme


Soit u un endomorphisme de E. Soit Iu l’ensemble des polynômes P de K[X]tels que P(u) = 0. Il est clair que Iu est un
idéal de K[X] (appelé idéal annulateur de u); K[X] étant un anneau principal (voir « anneaux et corps ») il existe un
polynôme µ engendrant Iu (i.e Iu = (µ)). De plus µ est unique si on le normalise (coefficient dominant égal à 1).
Définition : on appelle polynôme minimal de u l’unique polynôme µ normalisé tel que Iu = (µ).
Remarques :
2
L(E) étant de dimension finie (n2) la famille (IdE, u, ..., u n ) est liée : il existe donc une combinaison linéaire nulle de
ses éléments qui est non triviale. Par conséquent Iu ≠ (0) et a donc 1 ≤ d°µ ≤ n2 (en fait on a d°P ≤ n : voir (i) de
la proposition suivante).
µ est caractérisé par :

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

1/ µ est unitaire;
2/ µ(u) = 0;
3/ Pour tout polynôme P on a : P(u) = 0 ⇒ P multiple de µ.
Définitions : le polynôme caractéristique d’une matrice M est le polynôme χM à coefficients dans K défini par :
χM(X) = dét(XIn - M) (où XIn - M est une matrice à coefficients dans l’anneau K[X]).
Le polynôme caractéristique d’un endomorphisme u de E est le polynôme caractéristique d’une de ses matrices dans
une base de E (ce polynôme ne dépend pas du choix de cette base). On le note χu ou χ s’il n’y a pas d’ambiguïté.
On rappelle que χ est un polynôme unitaire de degré n.
Propriétés : Soit u un endomorphisme de E.
(i) Le polynôme minimal µ de u divise son polynôme caractéristique χ;
(ii) Toute racine de χ est aussi racine de µ ;
p
(iii) Si le corps K est algébriquement clos (par exemple K = c) et si χ(X) = ∏(X − λ
k =0
k )α (αk > 0 et les λk distincts
k

p
deux à deux) alors µ(X) = ∏(X − λ
k =0
k ) β avec 0 < βk ≤ αk.
k

(iv) u est diagonalisable ssi µ n’a que des racines simples.


La propriété (i) peut aussi s’écrire : χ(u) = 0 autrement dit un endomorphisme vérifie son polynôme caractéristique
(théorème de Cayley-Hamilton) : voir une démonstration à l’exercice 11.
Le (i) montre que d°µ ≤ d°χ = n
Dans le (iii) λ1, ... , λp sont les valeurs propres de u.
Démonstration :
(i) D’après le théorème de Cayley-Hamilton on a χ(u) = 0 donc µ divise χ.
(ii) Dire que λ est racine de χ signifie que λ est valeur propre de u i.e qu’il existe un vecteur non nul x tel que
u(x) = λx. Pour tout polynôme P on voit que P(u)(x) = P(λ)x. En prenant P = µ il vient µ(λ)x = 0 soit µ(λ) = 0 car x
est non nul.
(iii) D’après le (i) et le (ii) les polynômes χ et µ ont les même racines. Comme µ divise χ on a le résultat voulu.
(iv) Condition nécessaire : si u est diagonalisable il existe une base B = (e1, e2, ... , en) dans laquelle la matrice de u est
une matrice diagonale; si λ1, λ2, ... , λp sont les élément distincts deux à deux de la diagonale et si
P = (X - λ1) (X - λ2) ... (X - λp) alors P(u) = 0 puisque chaque vecteur de la base B est annulé par u - λkIdE pour un k de
{1, ... , p}. Par conséquent µ divise P et comme P n’a que des racines simples µ aussi.
Condition suffisante : si µ = (X - λ1) (X - λ2) ... (X - λp) avec les λk distincts deux à deux on a, d’après le théorème de
décomposition des noyaux E = Ker(u - λ1Id) ⊕ Ker (u - λ2Id) ⊕ ... ⊕ Ker (u - λpId) donc u est diagonalisable.
Exercice 2
Soit K un corps algébriquement clos et f un endomorphisme de E tel que f 2 soit diagonalisable. Montrer que :
f diagonalisable ⇔ Ker f = Ker(f 2).
(Utiliser le théorème de décomposition des noyaux).
Exercice 3
⎛1 0 0⎞
⎜ ⎟
Combien de solutions dans M3(c) l’équation M2 = ⎜ 1 4 0 ⎟ possède t-elle ?
⎜ ⎟
⎝2 3 9⎠

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Exercice 4
1°/ Supposons que E = E1 + ... + Ep où les Ek sont des sous-espaces vectoriels stables par u. Soit µk le polynôme
minimal de la restriction u/Ek de u à Ek (1 ≤ k ≤ p). Montrer que µ = ppmc(µk) (et µ unitaire).
p
2°/ Si la somme précédente est directe et si χk est le polynôme caractéristique de u/Ek alors : χ = ∏χ
k =1
k .

⎛ −7 −16 7 −4 ⎞
⎜ ⎟
9 −3 −4 −7 ⎟
Exemple : calculer le polynôme minimal de la matrice M = ⎜ .
⎜7 −4 −7 −16⎟
⎜ ⎟
⎝ −4 −7 9 −3 ⎠
(Soit (e1, e2, e3, e4) la base canonique de r4 et f l’endomorphisme canoniquement associé à M. En calculant f(e1) et
f 2(e1) on constate qu’on a la relation de dépendance : f 2(e1) +10f(e1) + 100e1 = 0. Le polynôme P = X2 + 10X + 100
annule donc la restriction de f au sous-espace vectoriel (de dimension 2) E1 = <e1, f(e1)> engendré par e1 et f(e1). On
vérifie que P(u)(e2) = 0 donc P annule la restriction de f au sous-espace vectoriel E2 = <e2, f(e2), f2(e2), ...>. Comme
f(e2) n’est pas colinéaire à e2 ce sous-espace vectoriel est de dimension au moins 2. On a donc dim(E1 ∩ E2) = 0 ou 1.
Si dim(E1 ∩ E2) = 1 alors le polynôme minimal de la restriction de f à E1 ∩ E2 serait un polynôme de degré 1 qui
diviserait P ce qui est absurde car P est irréductible dans r[X]. Par conséquent on a dim(E1 ∩ E2) = 0 et r4 = E1 ⊕ E2.
Le polynôme P, irréductible, unitaire et annulant u est donc le polynôme minimal de u.)

Exercice 5
⎛2 0 0⎞ ⎛ −1 0 0⎞
⎜ ⎟ ⎜ ⎟
Calculer le polynôme minimal des matrices A = ⎜ 0 2 1 ⎟ et B = ⎜ 0 0 1⎟ . En déduire An et Bn pour n ∈ n.
⎜ ⎟ ⎜ ⎟
⎝0 0 2⎠ ⎝ 0 0 0⎠
1.3 Endomorphismes nilpotents
Définitions : Un endomorphisme u de E est dit nilpotent sii il existe un entier naturel p non nul tel que up = 0.
On pose alors ν = Min{k ∈ n / uk = 0}. L’entier naturel non nul ν est appelé indice de u.
Exercice 6
Soit u un endomorphisme nilpotent non nul d’indice ν et soit x ∈ E tel que uν-1(x) ≠ 0. Montrer que le système
(x, u(x), ... , uν-1(x)) est libre. En déduire que ν ≤ n.
Exercice 7
Soit u un endomorphisme nilpotent. Montrer que v = Id - u est inversible. Quel est son inverse ? Calculer vn pour
n ∈ n.
⎛ 3 1 0⎞
⎜ ⎟
Application : Soit A = ⎜ 0 3 0⎟ . Calculer An (n ∈ n) et A-1.
⎜ ⎟
⎝ 0 0 3⎠
Exercice 8
1°/ Soit δ un endomorphisme nilpotent. Montrer que dét(Id + δ) = 1.
(Considérer le polynôme caractéristique de δ).
2°/ Soit u ∈ L(E) tel que uδ = δu. Montrer que u et u + δ ont même polynôme caractéristique et que dét(u + δ) = dét(u)
(supposer d’abord u inversible).

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

1.4 Décomposition de E en somme directe de sous-espaces caractéristiques


p
Théorème : Soit u un endomorphisme de E tel que son polynôme caractéristique s’écrive χ(X) = ∏(X − λ
k =1
k )α ,
k

αk > 0 et les λk distincts deux à deux (autrement dit χ est scindé); alors son polynôme minimal est de la forme
p
µ(X) = ∏(X − λ
k =1
k ) β (avec 0 < βk ≤ αk) (voir 1.2). On pose :
k

Nk = Ker (u − λk Id E )α . Alors : k

(i) E est somme directe des Nk (1 ≤ k ≤ p);

(ii) Nk = Ker(u − λk Id E ) β ; k

(iii) λk est la seule valeur propre de la restriction u/Nk de u à Nk;


(iv) Dim Nk = αk;
(v) la restriction vk = (u - λkId)/Nk de u - λkId à Nk est nilpotente d’indice βk (1 ≤ k ≤ p);

Les sous-espaces vectoriels Nk = Ker (u − λk Id E )α = Ker(u − λk Id E ) β sont appelés sous-espaces caractéristiques (ou
k k

spectraux) de u.
Démonstration :
(i) Comme χ(u) = 0 il résulte du théorème de décomposition des noyaux que E est somme directe des Nk;
(ii) comme µ(u) = 0 on a pour les même raisons E = Ker(u − λk Id E ) β1 ⊕ ... ⊕ Ker(u − λk Id E ) βr . Mais
Ker(u − λk Id E ) β ⊂ Nk pour 1 ≤ k ≤ p donc dim Ker(u − λk Id E ) β ≤ dim Nk. D’autre part
k k

p p
n= ∑ dimKer(u − λk Id E ) β =
k =1
k
∑ dimN
k =1
k par conséquent dim Ker(u − λk Id E ) β = dim Nk et Ker(u − λk Id E ) β = Nk.
k k

(iii) soit λ une valeur propre de u/Nk . Il existe x ∈ Nk - {0} tel que u(x) = λx. Comme ( u − λk Id E ) k ( x) = 0 il vient
α

( λ − λk ) x = 0, soit (λ − λk ) = 0 (puisque x est non nul) ou λ = λk;


αk αj

p
(iv) posons dk = dim Nk. D’après l’exercice 4 2°/ on a χ = ∏χ
k =1
k où χk est le polynôme caractéristique de u/Nk.
p
D’après le (iii) χk = ( X − λ k ) soit χ = ∏(X − λ ) d donc dk = αk pour 1 ≤ k ≤ p;
dk k
k
k =1

(v) d ’après (ii) ν kβ = 0. Supposons que pour un j ∈ {1; ... ; p} on ait ν j


β j −1
k
= 0. Alors le polynôme
p

∏ ( X − λk ) ∏(X − λ
β j −1 β
(X − λj ) k
annulerait u puisqu’il annule u/Nk pour 1 ≤ k ≤ p et donc k ) β ne serait pas le
k

k≠ j k =1

polynôme minimal de u.
Remarques :
Le théorème précédent s’applique à tout endomorphisme u d’un espace vectoriel sur un corps K algébriquement clos
(c par exemple);
Dans les conditions du théorème précédent, si on pose Ek = Ker(u - λkIdE), on retrouve le résultat : u est diagonalisable
ssi dim Ek = αk pour 1 ≤ k ≤ p.
(en effet u est diagonalisable ssi βk = 1 pour 1 ≤ k ≤ p (proposition (iv) du 1.2) donc Nk = Ker(u - λkIdE) = Ek = sous-
espace propre relatif à la valeur propre λk donc dim Ek = αk. Réciproquement si dim Ek = αk alors Ek = Nk (car on a
toujours Ek ⊂ Nk) donc E est somme directe des Nk i.e u est diagonalisable).

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Dans une base adaptée à la décomposition de E en somme directe des Nk la matrice de u est une matrice diagonale de
⎛ M1 ⎞
⎜ ⎟
matrices : ⎜ ⎟ où MK = matrice de la restriction u /Nk de u à Nk.
⎜ M p ⎟⎠

Exercice 9
p
1°/ Soit M une matrice dont le polynôme caractéristique χ(X) = ∏ ( X − λ )α
k =1
k
k
est scindé. Soit
p
µ(X) = ∏(X − λ
k =1
k ) β sont polynôme minimal. Montrer que, si M est inversible, il existe des matrices Ai,k
k

indépendantes dans Mn(n) telles que pour tout q de n on a :


p
⎛ β i −1 ⎞
Mq = ∑ λqi ⎜⎜ ∑ q k Ai,k ⎟⎟ .
i =1 ⎝ k =0 ⎠
Si M 'est pas inversible et λj est la valeur propre nulle la relation précédente est valable pour tout entier naturel q
supérieur ou égal à βj.
2°/ Applications aux suites récurrentes :
s étant un entier naturel non nul, et αi (0 ≤ i ≤ s-1) s scalaires, avec α0 non nul, soit (S') l'ensemble des suites (xn) à
valeurs dans K vérifiant la relation de récurrence :
xn+s = α0xn +α1xn+1 + ... + αs-1xn+s-1.
s −1
Soit l'équation P(r) = rs - ∑α r
k =0
k
k
= 0 (appelée équation caractéristique de (xn)).

L'ensemble (S') est un espace vectoriel de dimension s. Si le polynôme P est scindé et si λ1, ... , λq sont les racines de P
de multiplicités respectives α1, ... , αq une base de (S') est (n k λni )10≤≤ik≤≤qα −1
i

Etant donné (y0, ... , ys-1) ∈ K il existe un unique élément de (S') tel que x0 = y0, ... , xs-1 = ys-1.
p

(Réf. : Ramis tome 1, p 415 à 417).


3°/ Autre application : convergence de Aq
Soit A une matrice (n, n) à coefficients complexes. On pose ρ(A) = Max λ (appelé rayon spectral de A). Montrer que
∈Sp(A)

: (Aq converge vers 0 ssi ρ(A) < 1).


Le paragraphe suivant donne un autre exemple d’application du théorème précédent.
1.5 Décomposition u = d + δ d’un endomorphisme
Théorème : Soit u un endomorphisme de E espace vectoriel tel que son polynôme caractéristique soit scindé (c’est le
cas si le corps K algébriquement clos, par exemple c).
Alors u s’écrit de façon unique u = d + δ où d est un endomorphisme diagonalisable de E et δ un endomorphisme
nilpotent de E tels que dδ = δd.
De plus d et δ sont des polynômes en u à coefficients dans K.
Démonstration : admettons provisoirement le lemme suivant :
lemme :
(i) Soient f et g deux endomorphismes diagonalisables tels que fg = gf. Alors f et g se diagonalisent dans une même
base.
(ii) Soient f et g deux endomorphismes nilpotents qui commutent. Alors leur somme est nilpotente.

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Existence de la décomposition : reprenons les notations du théorème du 1.4. Si uk et vk sont les restrictions de u et de
u - λkId à Nk on a uk = λkId + (u - λkId) = λkId + vk; λkId est diagonalisable et vk est nilpotent dans Nk et ces deux
endomorphismes commutent. Les endomorphisme d et δ de E définis par d/Nk = λkId et δ/Nk = vk répondent à la
p
question. Remarquons que d = ∑λ π
k =1
k k où πk sont les projecteurs sur Nk parallèlement à ⊕ N j .
j≠k

Montrons d’abord que d et δ définis précédemment sont des polynômes en u.


χ
∏ (X − λ )
αk
Posons Pj = = (1 ≤ j ≤ p).
(X −λ )
αj k
k≠ j
j

Les polynôme Pj sont premiers entre eux dans leur ensemble; d’après le théorème de Bezout il existe des polynômes
Q1, ... , Qp tels que P1Q1 + ... + PpQp = 1. On a donc :
P1(u)Q1(u) + ... + Pp(u) Qp(u) = IdE.
p
Posons πk = Pk(u)o Qk(u) pour 1 ≤ k ≤ p. Pour tout x de E on a donc x = ∑π
k =1
k ( x) .

Mais πk(x) ∈ Nk (car ( X − λk ) PkQk = χQk donc (u − λ k Id ) πk(x) = Qk(u)χ(u)(x) = 0, car χ(u) = 0) donc la somme
αk αk

précédente est la décomposition de x dans la somme directe E = N1 ⊕ ... ⊕ Np. On en déduit que
πk(x) est le projeté de x sur Nk parallèlement à ⊕ Ei ; πk = Pk(u) Qk(u) est donc la projection sur Nk parallèlement à
i≠k

⊕ Ei et c’est un polynôme en u.
i≠k

p
Avec les notation précédentes on a d = ∑λ π
k =1
k k et δ = u - d qui sont bien des polynômes en u puisque c’est le cas de πk.

Unicité de la décomposition : soient D et N deux endomorphismes tels que u = D + N et vérifiant les conditions de
l’énoncé. Comme D et N commutent ils commutent avec u d'après l'égalité précédente donc ils commutent avec d et δ
puisque ce sont des polynômes en u. On écrit h = D - d = δ - N. D’après le lemme (i) h = D - d est diagonalisable (car
d et D commutent donc sont diagonalisables dans la même base d'après le (i) du lemme); de plus h = δ - N est nilpotent
(lemme (ii)). On en déduit aisément que h = 0 soit D = d puis que N = δ.
Démonstration du lemme :
(i) Raisonnons par récurrence sur n = dim E. Si n = 1 c’est évident. Supposons le résultat acquis pour tout espace
vectoriel de dimension < n. Soit E dimension n et soient λ1, ... , λp les valeur propre de f. Si f est une homothétie le
résultat est vrai (toute base qui diagonalise g diagonalise f). Si f n'est pas une homothétie E est somme directe des sous-
espaces propres Eλ de f. Comme f et g commutent il est clair que les Eλ sont stables par g. Il suffit alors d’appliquer
k k

l’hypothèse de récurrence à chacun des sous-espace vectoriel Eλ qui sont de dimension < n (car f n’est pas une
k

homothétie).
(ii) Soient p et q les indices de f et g. Comme f et g commutent on peut appliquer la formule du binôme de Newton :
(f + g)p+q = ∑C
i+ j= p+q
i
p+q f i g j qui est nulle car dans chaque terme de la somme on a i ≥ p ou j ≥ q donc f i = 0 ou g j = 0

ce qui achève la démonstration du lemme.


On a la traduction matricielle évidente : toute matrice A de Mn(K) se décompose de façon unique en A = D + N où D
est une matrice diagonalisable sur c, N une matrice nilpotente telles que DN = ND.
Corollaire :
(i) Dans les conditions du théorème précédent on a : u est diagonalisable ssi δ = 0;
(ii) Tout matrice A de Mn(r) se décompose de façon unique en A = D + N avec D et N dans Mn(r), D diagonalisable
sur c et N une matrice nilpotente telles que DN = ND.
Démonstration :
(i) si u est diagonalisable on écrit u = u + 0 et l’unicité de la décomposition donne δ = 0. La réciproque est évidente;

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

(ii) si M ∈ Mn(c) désignons par M la matrice dont les coefficients sont les conjugués de ceux de M. Pour A ∈ Mn(r)
il existe D ∈ Mn(c) diagonalisable dans c et N ∈ Mn(c) nilpotente telles que A = D +N et DN = ND. A étant réelle
on a A = D + N . D est diagonalisable dans c N est nilpotente et D .N = N .D . Par unicité de la décomposition on
en déduit D = D et N = N donc D et N sont des matrices à coefficients réels.
Exemple : la démonstration du théorème donne un procédé effectif de calcul de D et N. Soit par exemple
⎛7 3 −4 ⎞
⎜ ⎟
A = ⎜ −6 −2 5 ⎟ . Son polynôme caractéristique est (X - 1)2(X - 2). On a la décomposition en éléments simples
⎜ 4 2 −1 ⎟
⎝ ⎠
1 1 1 1
=− − + qui donne 1 = (X - 1)2 - X(X - 2). La démonstration du théorème indique
( X − 1) ( X − 2 ) ( X − 1) X − X −
2 2
1 2
⎛ 3 1 −1⎞ ⎛ 4 2 −3 ⎞
⎜ ⎟ ⎜ ⎟
que D = 2(A - I3) - A(A - 2I3) = ⎜ 2 2 −1⎟ et N = A - D =
2
⎜ −8 −4 6 ⎟ (on vérifie que N = 0).
2

⎜ 4 2 −1⎟ ⎜0 0 0⎟
⎝ ⎠ ⎝ ⎠
Exercice 10 : exponentielle d’une matrice
A2 Ak +∞
Ak
Soit A ∈ Mn(c). On pose exp(A) = I + A +
2!
+ ... +
k!
+ ... = ∑
k =0 k !
.

1°/ Montrer que cette série est convergente (Mn(c) est par exemple muni de la norme : M = Sup MX où X
X =1
n
désigne la norme euclidienne de c ).
2°/ Soit P ∈ GL(n, c). Montrer que exp(P-1AP) = P-1exp(A)P.
3°/ Expliquer comment on peut calculer exp(A) si A est nilpotente, si A est diagonalisable puis dans le cas général.
⎛5 −1⎞
Exemple : Calculer exp(A) avec A = ⎜ ⎟.
⎝4 1⎠
p
Remarque : avec les notations de la démonstration, si d = ∑λ π
k =1
k k où πk sont les projecteurs sur Nk parallèlement à
p
dk p
⊕ N j , on a, pour tout entier naturel q, d q =
j≠k
∑ λkqπ k (car πi o πj = 0 si i ≠ j), donc exp(d) =
k =1

k ≥0 k !
= ∑
k =1
eλk π k . Si on

reprend l'exemple précédent on a donc : exp(D) = e2(A - I3)2 - A(A - 2I3). Comme exp(N) = I + N, on en déduit le calcul
de exp(A) (= (e2(A - I3)2 - A(A - 2I3)). ( I + N ) ).

1.6 Sous-espaces cycliques


1.6.1 Sous-espaces cycliques d’un endomorphisme
Soit u ∈ L(E) fixé. On peut munir E d’une structure de K[X]-module (mêmes définitions qu’un espace vectoriel mais
le corps est remplacé par un anneau commutatif quelconque, ici K[X]) en prenant pour loi externe :
∀ P ∈ K[X], ∀ y ∈ E : P.y = P(u)(y).
On note Eu ce K[X]-module. Si F est un sous-module de Eu alors c’est aussi un sous-espace vectoriel de E et pour tout
y de F on a X.y ∈ F i.e u(y) ∈ F donc F est un sous-espace vectoriel de E stable par u; la réciproque est évidente donc
les sous-modules de Eu sont les sous-espaces vectoriels de E stables par u.
Si x est un élément de E on note Ex le sous-module engendré par x (i.e le plus petit sous-module de Eu contenant x). On
voit immédiatement que c’est l’ensemble {P.x = P(u)(x) / P ∈ K[X]}qui est aussi le plus petit sous-espace vectoriel de
E stable par u. On l’appelle sous-espace cyclique engendré par x.
On dit que E est cyclique ssi il existe x ∈ E tel que E = Ex.
L'exercice suivant donne quelques précisions sur Ex.

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Exercice 11
1°/ Montrer que Ex = Vect(ui(x) / i ∈ n) (sous-espace vectoriel engendré par les ui(x)).
2°/ Si x est non nul soit p = Max{i ∈ n / le système (x, u(x), ... , ui-1(x) est libre}. Montrer que dim Ex = p.
Soit up(x) = a0x + a1u(x) + ... + ap-1up-1(x) (ak ∈ K). Montrer que le polynôme P = Xp - ap-1Xp-1 - ... - a0 est le polynôme
minimal et le polynôme caractéristique de la restriction u/Ex de u à Ex.
Quelle est la matrice de u/Ex dans la base (x, u(x), ... , up-1(x)) ?
Exercice 12 : théorème de Cayley-Hamilton
1°/ Soit u ∈ L(E) et F un sous-espace vectoriel de E stable par u. Montrer que le polynôme caractéristique de u/F
divise celui de u.
2°/ Démontrer le théorème de Cayley-Hamilton : χ(u) = 0.
(Soit x ∈ E - {0} et Π le polynôme minimal et caractéristique (d'après Ex. 11, 2/) de la restriction de u à Ex; donc
Π(u)(x) = 0; de plus Π divise χ d’après 1°/ donc χ(u)(x) = (Q×Π)(u)(x) = Q(u)oΠ(u)(x) = 0).
Exercice 13
Soient Px et Py les polynômes minimaux de u/Ex et u/Ey pour x et y appartenant à E.
1°/ Montrer que si les polynômes Px et Py sont premiers entre eux on a : Ex ∩ Ey = {0}. Prouver que Px.Py = Pz où
z = x + y.
2°/ Montrer qu’il existe un élément x de E tel que µu = Px.
3°/ Montrer que si E est réunion d'un nombre fini de sous-espaces vectoriels Fi alors E est égal à l'un des Fi. Retrouver
le résultat de la question précédente.
4°/ Déduire du 2°/ que Eu est cyclique ssi χu = µu.
1.6.2 Théorème de Jordan
⎛0 ⎞
⎜ ⎟
⎜ 1 0 ⎟ (d’ordre q) est appelée matrice nipotente de Jordan. La matrice J (λ) = λI + J est
Une matrice Jq = q q q
⎜ ⎟
⎜ ⎟
⎝ 1 0⎠
appelée matrice de Jordan d’ordre q.
Lemme 1 : soit u un endomorphisme nilpotent d’indice ν de E. Il existe deux sous-espaces vectoriels F et G stables
par u tels que E = F ⊕ G et dim F = ν.
Lemme 2 (Structure des endomorphismes nilpotents) : soit u un endomorphisme nilpotent d’ordre ν de E. Il existe
des sous-espaces vectoriels E1, E2, ... ,Er stables par u et des bases B1, B2, ... ,Br de E1, E2, ... ,Er tels que
E = E1 ⊕ E2 ⊕ ... ⊕ Er et, dans la base Bi, la matrice de u/Ei est une matrice de Jordan nilpotente J p avec pi = dim Ei
i

(1 ≤ i ≤ r).
Démonstration du lemme 1 : soit tu la transposée de u : c’est un endomorphisme de E* (dual de E) définie par
<tu(f *); x> = <f *; u(x)> pour toute forme linéaire f * et tout x de E. Comme on a (tu)p = t(up) pour tout entier naturel p
ainsi que u ≠ 0 ssi tu ≠ 0, tu est nilpotente d’indice ν. On a donc tuν-1 ≠ 0 et par suite il existe x ∈ E et f * ∈ E* tels que
<tuν-1(f *); x> ≠ 0 soit <f *; uν-1(x)> ≠ 0.
On a donc uν-1(x) ≠ 0 et par conséquent le système (x, u(x), ... , uν-1(x)) est libre (exercice 6). De même le système
(f *, tu(f *), ... , tuν-1(f *)) est libre. Posons F = <x, u(x), ... , uν-1(x)> et G = < f *, tu(f *), ... , tuν-1(f *) > ⊥ .
F est un sous-espace vectoriel de E de dimension ν stable par u. De même <f *, tu(f *), ... , tuν-1(f *)> est un sous-
espace vectoriel de E* stable par tu de dimension ν donc son orthogonal G est stable par u et de dimension n - ν (en
effet on voit facilement qu’un sous-espace vectoriel est stable par u ssi son orthogonal est stable par tu).
Montrons que F ∩ G = {0} ce qui prouvera que E = F ⊕ G et achèvera la démonstration de lemme 1.

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens
ν −1
Soit donc y ∈ F ∩ G. Il existe des scalaires a0, a1 , ... , aν-1 tels que y = ∑a u
k =0
k
k
( x) et d’autre part <tuj(f *); y> = 0 ou

<f *; uj(y)> = 0 pour tout entier j de {0, ... , ν - 1}. Pour j = ν-1 il vient : <f *, a0uν-1(x)> = 0 (car up = 0 pour p ≥ ν)
soit a0<f *; uν-1(x)> = 0 donc a0 = 0 (<f *; uν-1(x)> étant non nul). En prenant ensuite j = ν-2 on montre de même que
a1 = 0 et de proche en proche tous les aj sont nuls, donc y = 0.
Démonstration du lemme 2 : avec les notations du lemme 1, la matrice de u dans le base B1 = (x, u(x), ... , uν-1(x)) de F
est la matrice de Jordan nilpotente d’ordre ν et la restriction de u au sous-espace vectoriel G est nilpotente : on termine
alors facilement par récurrence sur la dimension n de E.
On déduit de ces deux lemmes le
Théorème (décomposition de Jordan d’un endomorphisme) : avec les hypothèses du théorème 1.4, il existe une base
de E où la matrice de u est une matrice diagonale de matrices Jh(λk) (1 ≤ k ≤ p).
Fin de la Démonstration du théorème : reprenons les notations du théorème de 1.4 et soit E = N1 ⊕ ... ⊕ Np la
décomposition de E en sous-espaces spectraux. Raisonnons dans Nk : on applique le lemme 2 à la restriction vk de u -
λkId à Nk qui est nilpotent et on obtient une base de Nk dans laquelle la matrice de vk est une matrice diagonale de
matrices nilpotentes de Jordan. Dans cette base la matrice de u/Nk est une matrice diagonale de matrices de Jordan
Jh(λk). En « recollant » ces bases de Nk on obtient une base de E qui a la propriété voulue.
Les deux exercices suivants donnent des applications de ce théorème :
Exercice 14
Montrer qu’une matrice réelle M est semblable à sa transposée (raisonner d’abord dans Mn(c)).
Exercice 15
Soit A ∈ GLn(c); montrer qu’il existe B ∈ Mn(c) telle que A = exp(B).
1.6.3 Décomposition de E somme directe de sous-espaces cycliques
Théorème : Soit u ∈ L(E).
(i) Il existe une suite F1, ... , Fr de sous-espaces cycliques (donc stables par u) tels que E = F1 ⊕ ... ⊕ Fr ; si Pi est le
polynôme minimal de la restriction de u à Fi alors Pi est multiple de Pi+1 (1 ≤ i ≤ r-1); le polynôme minimal de u est
P1 et son polynôme caractéristique P1× × Pr .
(ii) La suite de polynômes précédente est entièrement déterminée par u; deux endomorphismes sont semblables ssi la
suite de polynômes associés sont égales.
La suite (P1, ... , Pr) uniquement déterminée par u s’appelle invariants de similitude de u (ou facteurs invariants de u).
Démonstration du théorème :
Existence d’une décomposition : d’après l’exercice 12 il existe x ∈ E tel que µ = Px. Soit Ex le sous-espace cyclique
engendré par x. Supposons qu’on ait montré que Ex a un supplémentaire F stable par u : E = Ex ⊕ F. Le polynôme µ
annule la restriction u/F de u à F donc le polynôme minimal de u/F divise µ. On pose µ = P1 et on termine facilement
par récurrence sur n.
Tout revient donc à montrer que Ex possède un supplémentaire stable par u.
αq µ αq
Posons µ = P1α .P2α ....Pq où les polynômes Pk sont irréductibles et
1 2
= P1α ....Pkα −1 ....Pq .
1 k

Pk

Lemme 1 : il existe (x, f *) ∈ E×E* tel que Px = µ = Pf * et pour tout j de {1, ... , q} : <f *; pj.x> ≠ 0.

Démonstration du lemme 1 : montrons que le système (p1.x, ... , pq.x) est libre (on rappelle que si P ∈ Erreur! Signet
q
non défini.[X], P.x = P(u)(x)). Supposons que ∑a
k =1
k pk .x = 0. Pour 1 ≤ j ≤ q, si on multiplie les deux membres par le

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

P1 ...Pq
polynôme qj = il vient akqjpj.x = 0 (car si k ≠ j le polynôme qjpk est un multiple de µ). Comme qjpj n’est pas un
Pj
multiple de µ (car le facteur Pj est la puissance αj - 1) on a qjpj.x ≠ 0 soit aj = 0 et le système (p1.x, ... , pq.x) est libre.
Il existe donc f * ∈ E* telle que <f*; pj.x> = 1 pour 1 ≤ j ≤ q. Montrons que Pf * = µ.

On munit E* de sa structure de K[X]-module grâce à tu (donc pour tout P ∈ K[X] et tout f * de E* : P.f * = P(tu)(f *)).
Comme pour tout z de E <µ.f *; z> = <f *; µ.z> = 0, on a µ.f * = 0 donc Pf * divise µ. Mais <pj.f *; x> = <f *; pj.x> ≠
0 donc on a Pf * = µ d’où le lemme 1.

Posons F = <tuk(f *) / k ∈ n> ⊥ et montrons que E = Ex ⊕ F.


On a dim Ex = d°µ = q et de même la dimension de <tuk(f *) / k ∈ n> est égale au degré de Pf * qui est aussi q d’après
le lemme précédent donc dim F = n - q.
D’autre part <tuk(f *) / k ∈ n> est stable par tu donc F est stable par u. Pour avoir E = Ex ⊕ F il reste donc à montrer
que Ex ∩ F = {0}.
Soit donc y ∈ Ex ∩ F. Il existe Q ∈ K[X] tel que y = Q.x et pour tout R de K[X] on a <R.f *; y> = 0 soit
<R.f *; Q.x> = 0 ou <f *; RQ.x> = 0.
Lemme 2 : x et f * étant choisis comme dans le lemme 1, supposons que pour tout R ∈ K[X] on ait <f *; RQ.x> = 0.
Alors µ divise Q.
Admettons provisoirement le lemme. On a donc µ divise Q donc Q(x) = 0 soit y = 0 ce qui achève la démonstration de
l’existence de la décomposition.
D’après l’exercice 4 le polynôme caractéristique de u est P1× × Pr .
Démonstration du lemme 2 :
Soit D le pgcd de Q et de µ. K[X] étant principal il existe U et V dans K[X] tels que D= UQ + Vµ. Supposons que
d°D < d°µ. D s’écrit P1β .P2β ...Pq avec βk ≤ αk pour 1 ≤ k ≤ q et il existe j ∈ {1, ... , q} tel que βj < αj. Donc D divise
1 2
β q

µ
pj (on rappelle que pj = ) i.e pj appartient à l’idéal (D) = (Q) + (µ) et il existe U’ et V’ dans K[X] tels que
Pj
pj = U’Q + V’µ .
On écrit : <f *; pj.x> = <f *; U’Q.x> + <f *; V’µ.x> = 0 puisque <f *; U’Q.x> = 0 par hypothèse et <f *; V’µ.x> = 0
(µ.x = 0) ce qui est absurde car <f *; pj.x> ≠ 0.
Unicité de la décomposition : supposons que l’on ait une autre décomposition avec les conditions de l’énoncé :
E = G1 ⊕ ... ⊕ Gp = F1 ⊕ ... ⊕ Fr et soit Qi le polynôme minimal de u/Gi.
Comme F1 et G1 sont cycliques leur dimension est égale au degré de leur polynôme minimal (exercice 10, 2°/). Mais
µ = ppmc(Pi) = P1 = ppmc(Qi) = Q1 (exercice 4, 1°/) donc dim G1 = dim F1. Si p = 1 alors r = 1. Si p et r sont > 1, le
polynôme minimal des restrictions de u à G2 ⊕ ... ⊕ Gp et F2 ⊕ ... ⊕ Fr sont respectivement Q2 et P2 donc on a de
même dim G2 = dim F2. On voit par récurrence que dim Gk = dim Fk pour k ≤ Min(p, r) et par conséquent p = r. Si
p = r = 1 on a F1 = G1 = E et l’unicité est démontrée. Soit donc p = r ≥ 2.
Supposons que (P1, ... , Pr) ≠ (Q1, ... , Qr) et soit j le plus petit entier k tels que Pk ≠ Qk. On a donc j ≥ 2.
Pj étant un multiple de Pk pour k ≥ j on a :
Pj(u)E = Pj(u)F1 ⊕ ... ⊕ Pj(u)Fj-1 = Pj(u)G1 ⊕ ... ⊕ Pj(u)Gj-1 ⊕ Pj(u)Gj ⊕ ... ⊕ Pj(u)Gr (*).
Comme Pi = Qi pour 1 ≤ i ≤ j-1 on a dim Fi = dim Gi (Fi et Gi étant deux espaces cycliques ayant même polynôme
minimal). L’égalité (*) donne alors Pj(u)Gj = ... = Pj(u)Gr = {0} et par conséquent Pj est un multiples de Qj.
On montrerait de même que Qj est un multiple de Pj par conséquent Qj = Pj ce qui contredit la définition de j.
Cela démontre entièrement le (i).

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

(ii) u étant donné les sous-espaces vectoriels Fk sont déterminés de façon unique et Pk est le polynôme minimal de u/Fk
qui sont donc déterminés de façon unique.
⎛0 a0 ⎞
⎜ ⎟
⎜ 1 a ⎟
Si P = a0 + a1X + ... + apXp ∈ K[X] notons M(P) la matrice ⎜
1

0 ⎟ . D’après l’exercice 10 il existe une base


⎜ ⎟
⎜ 1 a ⎟
⎝ p −1 ⎠
⎛ M ( P1 ) ⎞
⎜ ⎟
de E dans laquelle la matrice de u est ⎜ ⎟ d’où il résulte que deux endomorphismes sont semblables
⎜ M ( Pr ) ⎟⎠

ssi ils ont même invariants de similitudes.
2. Formes bilinéaires et sesquilinéaires
2.1 Définitions
Formes bilinéaires et bilinéaires symétriques : Une application ϕ de E×E dans K est bilinéaire ssi elle est linéaire
par rapport à chaque variable. Si de plus pour tout (x, y) ∈ E×E on a ϕ(x, y) = ϕ(y, x) on dit que ϕ est symétrique.
Formes sesquilinéaires et sesquilinéaire hermitiennes : Une application ϕ de E×E dans c est sesquilinéaire ssi elle
est linéaire par rapport à la première variable et semi-linéaire par rapport à la deuxième. Cela s’exprime par les
identités :
(i) ϕ(x + x’, y) = ϕ(x , y) + ϕ(x’, y) et ϕ(αx, y) = αϕ(x’, y) ;
(ii) ϕ(x , y + y’) = ϕ(x, y) + ϕ(x, y’) et ϕ(x , αy) = α ϕ(x, y).

Si de plus pour tout (x, y) ∈ E×E on a ϕ(x, y) = ϕ ( y , x) on dit que ϕ est hermitienne.
formes quadratiques : Une application q de E dans K est une forme quadratique ssi il existe une forme bilinéaire ϕ
telle que q(x) = ϕ(x, x) pour tout x de E. On a alors les identités :
q(αx) = α2q(x);
q(x + y) = q(x) + q(y) + ϕ(x, y) + ϕ(y, x);
q(x + y) - q(x - y) = 2(ϕ(x, y) + ϕ(y, x)) (pour tous x et y de E et tout α de K).
Il y-a une seule forme bilinéaire symétrique ϕ telle que ϕ(x, x) = q(x), définie par :
2ϕ(x, y) = q(x + y) - q(x) - q(y) ou 4ϕ(x, y) = q(x + y) - q(x - y).
ϕ est appelée forme polaire de q.
formes quadratiques hermitiennes : soit ϕ une forme sesquilinéaire et posons q(x) = ϕ(x, x) pour tout x de E. On a
alors les identités :
q(αx) = |α|2q(x);
q(x + y) = q(x) + q(y) + ϕ(x, y) + ϕ(y, x);
q(x + y) - q(x - y) + iq(x + iy) - iq(x - iy) = 4ϕ(x, y) (pour tous x et y de E et tout α de K);
q étant donnée la forme sesquilinéaire ϕ telle que ϕ(x, x) = q(x) est définie de façon unique par :
4ϕ(x, y) = q(x + y) - q(x - y) + iq(x + iy) - iq(x - iy).
On dit qu’une application q de E dans c est une forme quadratique hermitienne ssi il existe une forme
sesquilinéaire hermitienne ϕ telle que, pour tout x de E, on ait : q(x) = ϕ(x, x). On a alors ∀ x ∈ E : q(x) ∈ r.
ϕ est unique et est appelée forme polaire de q.
matrice de ϕ : Soit ϕ une forme bilinéaire ou sesquilinéaire et si B = (ei) (1 ≤ i ≤ n) est une base de E la matrice
Ω = (ϕ (ei, ej))i,j est appelée matrice de ϕ dans la base B.

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Si X et Y sont les coordonnées de x et y dans cette base on vérifie que :


ϕ(x, y) = tXΩY si ϕ est bilinéaire et ϕ(x, y) = tXΩ Y si ϕ est sesquilinéaire.
Exercice 16
1°/ Soit q une forme quadratique. Dans une base de E si x ∈ E a pour coordonnées (x1, ... , xn) montrer que
n
q(x) = ∑a
k =1
i ,i xi2 + ∑ ai , j xi x j .
i< j

Montrer que la forme polaire de q a pour matrice M = (αi,j) avec αi,i = ai,i et αi,j = αj,i = ai,j/2 si i ≠ j.
2°/ Si q une forme quadratique hermitienne montrer que :
n

∑a xi + ∑ ai , j xi x j avec ai , j = a j ,i .
2
q(x) = i ,i
i =1 i≠ j

Montrer que la forme polaire de q a pour matrice M = (ai,j).


Changements de bases : si B’ = (fi) est une autre base et si P est la matrice de passage de B à B’ la matrice Ω ’ de ϕ
dans la base B’ est donnée par : Ω ’ = tP.Ω.P (resp. Ω ’ = tP.Ω. P si ϕ est sesquilinéaire).
(En effet dans le cas où ϕ est sesquilinéaire et si X et Y sont les coordonnées de x et y dans la base B et X’ et Y’ leurs
coordonnées dans la base B’ on a X = PX’ et Y = PY’ donc :
ϕ(x, y) = tXΩ Y = t(PX’)Ω( PY ' ) = tX’(tPΩ P ) Y ' = tX’Ω' Y ' (où Ω ' est la matrice de ϕ dans la base B’).
L’égalité étant valable pour tous X’ et Y’ de Kn on en déduit que la matrice Ω' de ϕ dans la base B’ est tPΩP).
Orthogonalité : soit ϕ une forme bilinéaire symétrique ou sesquilinéaire hermitienne; on dit que x et y de E sont
orthogonaux par rapport à ϕ ssi ϕ(x, y) = 0. Si A est une partie quelconque de E l’orthogonal de A est la partie de E
notée A⊥ et définie par : A⊥ = {x ∈ E / ∀ y ∈ A : ϕ(x, y) = 0}. Noter que si A est non vide, A⊥ est toujours un sous-
espace vectoriel de E même si A ne l’est pas.
Cône isotrope : avec les notations précédentes le cône isotrope de ϕ est défini par :
C(ϕ) = {x ∈ E / ϕ(x, x) = 0} (c’est donc l’ensemble des x orthogonaux à eux même).
Positivité : une forme bilinéaire symétrique ou sesquilinéaire hermitienne ϕ est positive ssi pour tout x de E on a
ϕ(x, x) ≥ 0.
Formes définies : une forme bilinéaire symétrique ou sesquilinéaire hermitienne ϕ est définie ssi on a :
ϕ(x, x) = 0 ⇒ x = 0.
C’est équivalent à dire que son cône isotrope est réduit à {0}.
Propriété : soit ϕ une forme bilinéaire symétrique ou sesquilinéaire hermitienne positive.
(i) Si ϕ est positive alors, pour tout (x, y) ∈ E on a :
|ϕ(x, y)| ≤ (q(x).q(y))1/2 (inégalité de Cauchy-Schwarz). Il y a égalité si x et y sont colinéaires.
(ii) Si de plus ϕ est définie alors l’application x (ϕ(x, x))1/2 est une norme et il y a égalité dans l’inégalité précédente
ssi x et y sont colinéaires.
Démonstration de la propriété :
(i) Soit ϕ une forme bilinéaire symétrique et (x, y) ∈ E×E. Pour tout λ ∈ r on a ϕ(λx + y, λx + y) ≥ 0 soit
λ2q(x) + 2λϕ (x, y) + q(y) ≥ 0. Si q(x) = 0 on a λϕ(x, y) + q(y) ≥ 0 pour tout λ de r donc on en déduit aisément que
ϕ(x, y) = 0 et l’inégalité est vérifiée. Si q(x) ≠ 0 on a un trinôme du second degré toujours ≥ 0 donc son discriminant
réduit δ = (ϕ(x, y))2 - q(y)q(x) est ≤ 0 ce qui démontre l’inégalité.
Soient x et y colinéaires. Si x ou y est nul l’inégalité précédente est une égalité. Sinon il existe λ ∈ K tel que λx + y = 0
et le trinôme précédent a une solution donc δ = 0 soit |ϕ(x, y)| = (q(x).q(y))1/2.

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Si ϕ est une forme sesquilinéaire hermitienne. On a ϕ(λx + y, λx + y) ≥ 0 pour tout λ complexe soit
|λ|2a + 2Re(λb) + c ≥ 0 (*) en posant a = q(x) ( ∈ r), b = ϕ(x, y) et c = q(y).
Posons b = |b|.eiθ. En remplaçant λ par t e-iθ dans l'inégalité précédente on obtient pour tout t :
ϕ( te-iθx + y, te-iθx + y) = t2a + 2t.|b| + c ≥ 0.
Si a est non nul on a un polynôme du second degré toujours positif ou nul et on en déduit comme précédemment
l'inégalité demandée.
Si x et y sont colinéaires non nuls il existe λ0 ∈ c tel que λ0x + y = 0 soit ϕ(t0e-iθx + y, t0e-iθx + y) = 0 avec t0 = λ0 eiθ.
Le discriminant du trinôme t2a + 2t.|b| + c est nul, soit |b|2 = ac et l’inégalité de Cauchy-Schwarz est une égalité.
(ii) Supposons ϕ sesquilinéaire hermitienne définie positive et posons N(x) = (q(x))1/2 pour tout de E. On a
N(x) = 0 ssi x = 0 et N(λx) = |λ|N(x). Il reste à prouver l’inégalité triangulaire : N(x + y) ≤ N(x) + N(y). Elle équivaut
à q(x + y) ≤ [(q(x))1/2 + q(y)1/2]2 soit à q(x) + q(y) + 2 Reϕ(x, y) ≤ q(x) + q(y) + 2[q(x)q(y)]1/2 ou encore à :
Reϕ(x, y) ≤ [q(x)q(y)]1/2 et cette dernière inégalité résulte de l’inégalité de Cauchy-Schwarz puisque :
Reϕ(x, y) ≤ |ϕ(x, y)|.
Avec les notations précédentes si l’inégalité de Cauchy-Schwarz est une égalité et si a ≠ 0, (**) montre que
ϕ(λx + y, λx + y) = 0 pour λ = − b / a soit λx + y = 0. Si c ≠ 0 on obtient de même une relation x + µy = 0 et si
a = c = 0 on a x = y = 0. Dans tous les cas x et y sont liés.

Une forme bilinéaire symétrique 5ou sesquilinéaire hermitienne) définie positive s’appelle un produit scalaire de E.
Un espace vectoriel réel E muni d’une forme bilinéaire symétrique définie positive s’appelle espace préhilbertien
réel ; un espace vectoriel complexe muni d’une forme sesquilinéaire hermitienne définie positive E s’appelle espace
préhilbertien complexe. Si ces espaces sont de dimension finie on les appelle respectivement espaces euclidien et
espaces hermitiens.
La norme associée (||x|| = (ϕ(x, x))1/2 s’appelle norme euclidienne dans le premier cas et norme hermitienne dans le
second.
Exemples : 1°/ Soit I un intervalle de r non réduit à un point et ω une fonction continue et strictement positive sur

∫ t ω (t )dt < +∞ . Alors E = {f ; I → c


n
l’intérieur de I telle que, pour tout entier n, on ait continue sur I
I

∫ f (t ) ω (t ) dt < +∞ } est un espace vectoriel et l’application (f, g) ∫ f (t ) g (t )ω (t )dt est un produit scalaire dans E.
2
/
I I

Ainsi E muni de ce produit scalaire est un espace préhilbertien complexe.


(Le fait que E soit un espace vectoriel résulte de l’inégalité |f + g|2 ≤ 2(|f|2 + |g|2)).

∑x <+ ∞ . C’est un espace vectoriel sur c et


2
2°/ Soit l2(n) l’ensemble des suites (xn) complexes telles que n
n≥ 0

l’application ((xn), (yn)) → ∑ x .y


n ≥0
n n est un produit scalaire. l2(n) munit de ce produit scalaire est donc un espace

préhilbertien complexe.
3°/ rn et cn sont des espaces euclidiens et hermitiens respectivement, munis des produits scalaires canoniques
n n
((xi), (yi)) ∑ xi . yi et ((xi), (yi))
i =1
∑ x .y
i =1
i i .

2.2 Dégénérescence
Soit ϕ une forme bilinéaire symétrique ou sesquilinéaire hermitienne. L’application Φ de E dans le dual E* de E qui à
y ∈ E associe la forme linéaire ϕ(. , y) est linéaire si K = r et semi-linéaire si K = c .
Définition : on dit que ϕ est dégénérée ssi l’application Φ est non injective.
Le noyau de Φ est appelé noyau de ϕ ; on a donc :

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Ker Φ = Ker ϕ = {y ∈ E / ∀ x ∈ E : ϕ(x, y) = 0} = E⊥.


et : ϕ dégénérée ⇔ Ker ϕ ≠ {0}.
Si E est muni d’une base B = (ei) et si E* est muni de la base duale de B la matrice de Φ dans ces bases est Ω, matrice
de ϕ dans la base B. Si on identifie E à Kn grâce à cette base on a :
Ker ϕ = {Y ∈ rn / ΩY = 0} = Ker Ω (cas réel) et Ker ϕ = {Y ∈ cn / Ω Y = 0} = Ker Ω (cas complexe) et :

ϕ non dégénérée ⇔ Dét Ω ≠ 0.


Le rang de ϕ est celui de Φ et c’est donc aussi le rang de la matrice Ω.
Remarque : puisque E est de dimension finie, si ϕ est non dégénérée l’application Φ est un isomorphisme de E dans
E*.
Propriétés : Soit ϕ une forme bilinéaire symétrique ou sesquilinéaire hermitienne.
(i) On a Ker ϕ ⊂ C(ϕ) (cône isotrope de ϕ ). En particulier on a :
ϕ définie ⇒ ϕ non dégénérée;
(ii) Si ϕ est positive on a : Ker ϕ = C(ϕ). Dans ce cas on a donc :
ϕ définie ⇔ ϕ non dégénérée.
Démonstration :
(i) Si x ∈ Ker ϕ on a ϕ(x, y) = 0 pour tout y de E. En prenant y = x on a ϕ(x, x) = 0 soit x ∈ C(ϕ). Donc Ker ϕ ⊂ C(ϕ).
(ii) Si ϕ est positive x ∈ C(ϕ), pour tout y de E on a |ϕ(x, y)| ≤ (q(x)q(y))1/2 d’après l’inégalité de Cauchy-Schwarz,
soit ϕ(x, y) = 0 pour tout y de E donc x ∈ Ker ϕ et Ker ϕ = C(ϕ) d'après (i).

Le théorème suivant donne une condition nécessaire et suffisante pour que E se décompose en somme directe
orthogonal de deux sous-espaces vectoriels :
Théorème : Soit F un sous-espace vectoriel de dimension finie de E et ϕ une forme bilinéaire symétrique ou
sesquilinéaire hermitienne. Les conditions suivantes sont équivalentes :
(i) La restriction de ϕ à F×F est non dégénérée;
(ii) E = F ⊕ F⊥.
Démonstration :
(i) ⇒ (ii) : soit z ∈ E; l’application x ϕ(x, z) est une forme linéaire sur F; comme ϕ /F×F est non dégénérée,
l’application Φ de F dans F* est un isomorphisme donc il existe y0 ∈ F unique tel que ϕ (x, z) = ϕ (x, y0) pour tout x de
F, soit : ϕ(x, z - y0) = 0. On a donc z - y0 ∈ F⊥ et z = y0 + (z - y0) ce qui prouve que E = F + F⊥.
Enfin F∩ F⊥ = Ker ϕ/F×F = {0} par hypothèse donc E = F ⊕ F ⊥ .
(ii) ⇒ (i) : résulte de F∩ F⊥ = Ker ϕ/F×F.

Remarque : avec les hypothèses du théorème précédent on a : dim F⊥ = n - dim F. Comme on a toujours F ⊂ F⊥⊥ on
en déduit que F⊥⊥ = F.
2.3 Réduction des formes quadratiques
Dans ce qui suit E est un espace vectoriel de dimension finie.
2.3.1 Cas général
Théorème : soit ϕ une forme bilinéaire symétrique sur un corps K de caractéristique différente de 2 ou sesquilinéaire
hermitienne avec K = c. Alors il existe une base de E orthogonale pour ϕ.

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Démonstration : si n = 1 le résultat est évident. Supposons le vrai pour n et soit E un espace vectoriel de dimension
n + 1. Si ϕ(x, x) = 0 pour tout x de E alors ϕ = 0 et toute base est orthogonale. Sinon soit x de E tel que ϕ(x, x) ≠ 0. La
restriction de ϕ à K.x est non dégénérée et donc E = Kx ⊕ F avec F = (K x)⊥ d’après le théorème du 2.2. D’après
l’hypothèse de récurrence il existe une base B = (e1, ... , en) de F qui est orthogonale pour la restriction de ϕ à F×F.
Alors (x, e1, ... , en) est une base de E orthogonale pour ϕ.
2.3.2 Cas des formes quadratiques sur r
Théorème : soit ϕ une forme bilinéaire symétrique sur r et q sa forme quadratique associée.
(i) Il existe une base B de E dans laquelle, si x ∈ E a pour coordonnées (x1, x2, ... , xn) dans cette base, on ait :
p r
ϕ (x, x) = ∑ λk xk2 −
k =1
∑λ x
k = p +1
k
2
k où les réels λk sont > 0;

(ii) Si q = r - p dans l’écriture précédente, le couple (p, q) ne dépend pas de la base orthogonale et r = p + q est le rang
de ϕ; si r < n, les vecteurs isotropes er+1, ... , en de B forment une base du noyau de ϕ;
(iii) Il existe une base orthogonale (appelée base réduite) dans laquelle ϕ s’écrit :
p r
ϕ(x, x) = ∑x k =1
2
k − ∑x
k = p +1
2
k .

Démonstration :
(i) dans une base (e1, ... , en) de E orthogonale pour ϕ (théorème de 2.3.1) telle que ϕ(ej, ej) > 0 pour j ∈ {1, ... , p},
p r
ϕ(ej, ej) <0 pour j ∈ {p+1, ... , r} et ϕ(ej, ej) = 0 pour j > r on a : ϕ(x, x) = ∑λ
k =1
k xk2 − ∑λ x
k = p +1
k
2
k .

(ii) soit p’ la plus grande des dimensions des sous-espaces vectoriels F tels que la restriction de ϕ à F×F est définie
positive. Comme la restriction de ϕ à < e1, ... , ep> est définie positive on a p ≤ p’.
Soit H de dimension p’ l’un des sous-espaces vectoriels pour lequel la restriction de ϕ à H est définie positive. Soit
G = < ep+1, ... , en> ; on a ϕ(x, x) ≤ 0 pour tout x de G donc H ∩ G = {0} et la somme H + G est directe dans E soit :
p’ + (n - p) ≤ n ou p’ ≤ p. Par conséquent p = p’.
De même si q’ est la plus grande des dimensions des sous-espaces vectoriels V tels que la restriction de ϕ à V×V est
définie négative on montre que q = r - p est égal à q’. Le couple (p, q) ne dépend donc pas de la base choisie.

⎛ D1 ⎞ ⎛ λ1 ⎞
⎜ ⎟ ⎜ ⎟
D’autre part dans la base définie au (i) la matrice de ϕ est M = ⎜ D2 ⎟ avec D1 = ⎜ ⎟,
⎜ ⎟ ⎜ λ p ⎟⎠
⎝ 0 n −r ⎠ ⎝
⎛ − λ p +1 ⎞
⎜ ⎟
D2 = ⎜ ⎟ donc le rang de ϕ, égal au rang de M, est égal à r = p + q et si r < n le noyau de ϕ admet
⎜ − λ r ⎟⎠

(er+1, ... , en) pour base.
⎛ 1 1 ⎞
la base ⎜ e1 ,..., er ,er +1 ,...,en ⎟ est orthogonale pour ϕ et dans cette base on a
⎜ λ λr ⎟
⎝ 1 ⎠
p r
ϕ(x, x) = ∑x
k =1
2
k − ∑x
k = p +1
2
k .

2.3.3 Cas des formes hermitiennes


Théorème : soit ϕ une forme sesquilinéaire hermitienne sur c et q sa forme quadratique hermitienne associée.
(i) Il existe une base B de E dans laquelle, si x ∈ E a pour coordonnées (x1, x2, ... , xn) dans cette base, on ait :

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens
p r
ϕ(x, x) = q(x) = ∑ λk xk − ∑λ où les réels λk sont > 0;
2 2
k xk
k =1 k = p +1

(ii) Si q = r - p dans l’écriture précédente, le couple (p, q) ne dépend pas de la base orthogonale et r = p + q est le rang
de ϕ; si r < n, les vecteurs isotropes er+1, ... , en de B forment une base du noyau de ϕ;
(iii) Il existe une base orthogonale (appelée base réduite) dans laquelle ϕ s’écrit :
p r
ϕ(x, x) = q(x) = ∑x − ∑x
2 2
k k .
k =1 k = p +1

Le théorème se démontre de la même façon que le précédent.


Remarques : dans les deux théorèmes précédents :
Les bases B et les bases réduites sont des bases orthogonales pour ϕ ;
Dans 2.3.2 ou 2.3.3 le couple (p, q) s’appelle signature de ϕ (ou de q forme quadratique associée à ϕ). ϕ est non
dégénérée ssi p + q = n ; ϕ est positive ssi la signature de ϕ est (p, 0) ; ϕ définit un produit scalaire ssi la signature
de ϕ est (n, 0) ;
On peut obtenir la décomposition précédente par la méthode de Gauss (voir exercice suivant).
Exercice 17
1°/ Décomposer les formes quadratiques de r3 suivantes en somme de carrés de formes linéaires indépendantes par la
méthode de Gauss; en déduire leur rang et leur signature :
a/ q(x) = x12 + x22 + x32 − ( x1 x2 + x1 x3 + x2 x3 ) ;

b/ q(x) = x12 + x22 + 2 x3 ( x1 cos λ + x2 sin λ ) (λ réel donné);


c/ q(x) = x1x2 + 2 x2x3 + 3x3x1.
2°/ Mêmes questions avec les formes quadratiques hermitiennes :
a/ q(x) = x1 x2 + x2 x1 (dans c2);

b/ q(x) = x1 x1 + ix1 x2 − ix2 x1 + i 2 x2 x3 − i 2 x3 x2 + x3 x3 .

2.3.4 Orthonormalisation de Gram-Schmidt


Exercice 18 : procédé d’orthonormalisation de Gram-Schmidt
Soit (E, ϕ) un espace euclidien ou hermitien et (e1, ... , en) une base de E. Montrer qu’il existe une base (f1, ... , fn)
orthogonale pour ϕ vérifiant la condition (*) : Vect(e1, ... , ek) = Vect(f1, ... , fk) pour tout entier k ∈ {1, ... , n}. Pour
⎡ k −1 ϕ (e ; f ) ⎤
tout entier k ≥ 1, les fk sont donnés par fk = α k ⎢ek − ∑ ⎥ où αk est un scalaire non nul. De plus on peut
k j
f
⎢ j =1 fj
2 j

⎣ ⎦
prendre (f1, ... , fn) orthonormé.
Il existe enfin une unique base (f1, ... , fk) orthonormée, vérifiant (*), et la condition supplémentaire : ϕ(ek, fk) > 0 pour
tout entier k ∈ {1, ... , n}.
Exercice 19 : polynômes orthogonaux
Soit I un intervalle de r non réduit à un point et ω une fonction continue et strictement positive sur l’intérieur de I

∫ t ω (t )dt < +∞ .
n
telle que, pour tout entier n, on ait
I

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

1°/ Montrer que dans l’espace vectoriel E = {f ∈ C(I, r) / ∫ f (t ) ω (t ) dt < +∞ }, l’application


2

(f, g) ∫ f (t ) g (t )ω (t )dt est un produit scalaire.


I

2°/ Montrer qu’il existe une unique suite (Pn) de polynômes unitaires de degré n tels que, pour tout n de n*, Pn est
orthogonal à rn-1[x], espace vectoriel des polynômes de degré inférieur ou égal à n.
n −1
( x n ; Pi )
Montrer que et que ∀ n ∈ n*, Pn = x n − ∑ 2
Pi et que pour tout n ≥ 3 il existe (αn, βn) ∈ r×r tel que
i =0 Pi
Pn = (x - αn)Pn-1 - βnPn-2.
3°/ Montrer que pour tout entier n ≥ 1, Pn possède n racines réelles distinctes, intérieures à I.
4°/ Application : si ω = 1 et I = [-1 ; 1] on obtient la suite des polynômes Pn de Legendre et on a
Pn = n
1 dn 2
n
(x − 1)n .
2 n! dx
Exercice 20
Soit M une matrice symétrique réelle de type n×n. Montrer que M définit un produit scalaire ssi les mineurs principaux
sont strictement positifs (raisonner par récurrence sur n).
Exercice 21 : décomposition QR d’une matrice
Soit A une matrice carrée inversible à coefficients réels. Montrer qu’il existe un couple unique (Q, R) de matrices
réelles avec Q orthogonale, R triangulaire supérieure à coefficients diagonaux > 0 tel que A = QR.
Montrer que si A est sous la forme QR, on peut résoudre facilement le système linéaire AX = B (avec B ∈ rn).
Exercice 22
1°/ Soit M une matrice symétrique réelle définissant un produit scalaire. Prouver qu’il existe une unique matrice
triangulaire supérieure à coefficients diagonaux > 0 telle que M = tTT (décomposition de Choleski) (utiliser le
procédé d’orthogonalisation de Gram-Schmidt).
n
Si M est symétrique et positive (i.e. tXMX ≥ 0 pour tout X ∈ rn) montrer que dét(M) ≤ ∏a
i =1
i,i .

2°/ M = (ai,j) désignant une matrice quelconque de Mn(r) montrer que :


n
⎛ n

|dét(M)| ≤ ∏ ⎜⎜ ∑ a 2
j ,i
⎟⎟ (inégalité d'Hadamard).
i =1 ⎝ j =1 ⎠
2.4 Adjoint d’un endomorphisme
2.4.1 Définitions et propriétés
Soit E un espace euclidien ou hermitien (donc de dimension finie) et notons < ; > son produit scalaire. Soit u un
endomorphisme de E.
Pour y ∈ E fixé l’application qui à x ∈ E associe <u(x), y> est un forme linéaire de E. L’application Φ de E dans le
dual E* de E (voir 2.2) étant un isomorphisme il existe z ∈ E tel que pour tout x de E on ait : <u(x), y> = <x, z>. On
voit facilement que z est unique. On pose z = u*(y). L’application u* de E dans E ainsi définie est un endomorphisme
de E :
Théorème et définition : Soit E un espace euclidien ou hermitien et u un endomorphisme de E. Il existe un unique
endomorphisme de u, noté u* tel que :
∀ (x, y) ∈ E2 : <u(x), y> = <x, u*(y)>.
u* est appelé l’adjoint de u.
On démontre facilement les propriétés suivantes :

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Propriétés : Dans les conditions précédentes on a pour tout v ∈ L(E) et α ∈ K :


(i) (IdE)* = IdE ; (u)** = u ; (u + v)* = u* + v* ; (αu)* = αu* (et α u* dans le cas hermitien) ; (uv)* = v*u* ;
(ii) Si u est inversible, u* aussi et : (u-1)* = (u*)-1 ;
(iii) Ker u* = (Im u)⊥ et Im u* = (Ker u)⊥ ;
(iv) Un sous-espace vectoriel F est stable par u ssi F⊥ est stable par u* ;
2.4.2 Traduction matricielle
Soit B = (ei) (1 ≤ i ≤ n) une base de E, Ω = (<ei, ej>)i,j la matrice de < ; > dans cette base et M la matrice de u dans la
base B. Si M’ est la matrice de u* et X et Y sont les coordonnées de x et y de E dans la base B, la traduction matricielle
de <u(x), y> = <x, u*(y)> est (dans le cas hermitien) :

( MX ) ΩY
t
= t X Ω M ′Y ) soit : t X t M ΩY = X ΩM ' Y pour tout X et Y de Kn. Soit :
t
MΩ = ΩM
La matrice M’de u* dans la base B est donc :

M’ = Mat(u*, B) = Ω-1 tMΩ dans le cas euclidien et M ′ = Ω-1 tMΩ (dans le cas hermitien) avec
Ω = (<ei, ej>)i,j.
Si la base B est orthonormé on a Ω = In et :
t
M’ = tM (cas euclidien) ou M’ = M (cas hermitien).
Remarques : on peut retrouver le résultat précédent très simplement : si M = (αi,j) est la matrice de u et M' = (βi,j) celle
de u* dans la base orthonormée B, on a βi,j = <u*(ej); ei> = <ej; u(ei)> = < u(ei); ej> dans le cas euclidien (resp.
< u (ei ); e j > dans le cas hermitien), ce qui donne βi,j = βj,i (resp. βi,j = β j ,i ).

2.5 Endomorphismes autoadjoints


2.5.1 Définition
E est un espace euclidient ou hermitien.
Définition : un endomorphisme u est autoadjoint ssi u = u*.
Dans le cas euclidien on dit aussi symétrique; dans le cas hermitien on dit aussi hermitien.
2.5.2 Traduction matricielle
Soit M la matrice d’un endomorphisme u de E et Ω = <ei; ej> la matrice de < ; > dans une base B. Le fait que u est
autoadjoint se traduit matriciellement (dans le cas hermitien) par M = Ω-1 tMΩ d’après 2.4.2 :

u autoadjoint ⇔ M = Ω-1 tMΩ (cas eulidien) ou M = Ω-1 tMΩ (dans le cas hermitien).
Si la base B est orthonormé on a :
u autoadjoint ⇔ M = tM (cas eulidien) ou M = tM (dans le cas hermitien).
Remarque : tout ce qu'on a dit depuis le début de 2.4 est valable en remplaçant le produit scalaire par une forme ϕ
bilinéaire symétrique ou sesquilinéaire hermitienne de E non dégénérée.

2.5.3 Diagonalisation des endomorphismes autoadjoints


L’exercice suivant établit que tout endomorphisme autoadjoint se diagonalise dans une base orthonormée.
Exercice 23
Soit E un espace vectoriel euclidien ou hermitien (i.e. ϕ est un produit scalaire). Soit u un endomorphisme autoadjoint.
1°/ Montrer que les valeurs propres de u sont réelles.

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

2°/ Si λ et µ sont deux valeurs propres distinctes de u montrer que les espaces propres correspondants sont
orthogonaux. En déduire que E est somme directe orthogonale des sous-espaces propres de u.
3°/ Montrer que u se diagonalise dans une base orthonormée en un matrice réelle.
Enoncer la propriété correspondante des matrices symétriques (M = tM) ou matrice hermitiennes ( M = tM).
Les exercices suivants donnent des exemples d’applications :

Exercice 24
Soit u un endomorphisme de E (espace euclidien ou hermitien). Montrer qu’il existe une base orthonormée (e1, ... , en)
de E telle que le système (u(e1), ... , u(en)) soit orthogonal
(considérer u*u).
Exercice 25 : autre façon de montrer qu’un endomorphisme symétrique se diagonalise
Soit M une matrice symétrique de rn et q la forme quadratique associée (i.e. la forme quadratique de rn de matrice
M). Que dire de λ = Sup q( x) ?
x =1

En considérant la forme quadratique q1(x) = λ||x||2 - q(x) , montrer que M a une valeur propre réelle. Conclure que M
est diagonalisable.
Exercice 26
Soient ϕ un produit scalaire d’un espace euclidien ou hermitien et ω une forme bilinéaire symétrique ou sesquilinéaire
hermitienne. Montrer qu’il existe une base de E orthonormée pour ϕ et orthogonale pour ω.

Exercice 27
Soient A et B deux matrices réelles symétriques d’ordre n telles que A5 = B5. Montrer qu’alors A = B.
Exercice 28
Soit E hermitien de dimension n. Soit u un endomorphisme de E. Montrer qu’il existe une base orthonormée de E dans
laquelle u admet une matrice triangulaire supérieure (utiliser le procédé d’orthonormalisation de Gram-Schmidt).
En déduire que pour tout endomorphisme u autoadjoint il existe une base orthonormée dans laquelle la matrice de u est
diagonale réelle.
2.6 Endomorphismes orthogonaux et unitaires
2.6.1 Définitions et propriétés
Définition : Soit E un espace euclidien ou hermitien et u un endomorphisme de E tel que :
∀ (x, y) ∈ E2 : <u(x), u(y> = <x, y>.
On dit que u est orthogonal (dans le cas euclidien) et unitaire dans le cas hermitien.
Un tel endomorphisme est aussi appelé isométrie de E. Il conserve en effet la distance associée à la norme euclidienne
: ∀ (x, y) ∈ E2 : ||x - y|| = ||u(x) - u(y)||.
2.6.2 Caractérisations
Théorème : les propositions suivantes sont équivalentes :
(i) u est orthogonal (ou unitaire);
(ii) u est linéaire et conserve la norme : ∀ x ∈ E : ||u(x)|| = ||x||;
(iii) u est bijective et : ∀ (x, y) ∈ E2 : <u(x), u(y)> = <x, y>;
(iv) u est un automorphisme de E vérifiant u-1 = u*.

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Démonstration du théorème :
(i) ⇒ (ii) : clair;
(ii) ⇒ (iii) : le fait que <u(x), u(y)> = <x, y> pour tout (x, y) de E2 résulte de la linéarité de u et de l’identité :
4<x, y> = ||x + y||2 - ||x - y||2 + i||x + iy||2 - i||x - iy||2 (cas hermitien).
D’autre part si u(x) = 0 alors pour tout y de E on a <u(x), u(y)> = 0 soit <x, y> = 0 pour tout y de E et le produit
scalaire étant non dégénéré cela implique x = 0; u est injective donc bijective.
(iii) ⇒ (iv) : montrons d’abord que u est linéaire. Soient x, y et z de E. u étant bijective il existe t ∈ E tel que z = u(t).
On a : <u(x + y) - u(x) - u(y), z> = <u(x + y) - u(x) - u(y), u(t)> = <u(x + y), u(t)> - <u(x), u(t)> - <u(y), u(t)> =
<x + y, t> - <x, t> - <y, t> = 0. Le produit scalaire étant non dégénéré on en conclut que u(x + y) - u(x) - u(y) = 0. On
montre de même que u(λx) = λu(x) pour tout λ de K.
D’autre part pour tous x et y de E on a <u(x), u(y)> = <x, u*u(y)> = <x, y> et comme précédemment on en déduit que
u*u(y) = y soit u*u = IdE. On a donc u-1 = u*.
(iv) ⇒ (i) : c’est clair puisque pour tous x et y de E : <u(x), u(y)> = <x, u*u(y)> = <x, y>.

2.6.3 Traduction matricielle


u est un endomorphisme unitaire ssi u-1 = u*; en traduisant matriciellement cette égalité on obtient :

u unitaire ⇔ M-1 = Ω-1 tMΩ ou M -1


= Ω-1 tMΩ (dans le cas autoadjoint)
Si la base B est orthonormé pour ϕ (i.e. si Ω = In) on a :
u unitaire ⇔ M-1 = tM ou M -1
= tM
Autrement dit : dans un espace euclidien un endomorphisme u est une isométrie sii sa matrice dans un base
orthonormée est symétrique (M-1 = tM), et dans un espace hermitien un endomorphisme u est une isométrie sii sa
matrice dans un base orthonormée est unitaire ( M -1 = tM).
Rappelons que : M est symétrique ⇔ tM.M = In ⇔ ⇔ M. tM = In ⇔ les colonnes de M forment un système
orthonormé de rn (muni de son produit scalaire canonique) et :
M est unitaire ⇔ t M .M = In ⇔ ⇔ M .t M . tM = In ⇔ les colonnes de M forment un système orthonormé de cn
(muni de son produit scalaire canonique)
2.7 Endomorphismes normaux
2.7.1 Définition
Dans E espace euclidien ou hermitien, un endomorphisme u est normal ssi uu* = u*u.
Exemples : tout endomorphisme autoadjoint ou unitaire est normal.
2.7.2 Diagonalisation des endomorphismes normaux
L'exercice suivant établit que tout endomorphisme normal d'un espace hermitien se diagonalise dans une base
orthonormée :
Exercice 29
Soit E un espace vectoriel hermitien. Soit u un endomorphisme normal.
1°/ Montrer que pour tout x de E on a : ||u(x)|| = ||u*(x)|| puis que pour tout (λ, x) ∈ c×E :
||u(x) - λx|| = ||u*(x)| - λ x||.
2°/ Montrer que Ker u = Ker u* puis que si λ ∈ c est valeur propre de u alors λ est valeur propre de u* et tout
vecteur propre de u associé à la valeur propre λ est vecteur propre de u* associé à la valeur propre λ .
3°/ Si λ et µ sont deux valeurs propres distinctes de u, les sous-espaces propres correspondants sont orthogonaux.

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

4°/ Montrer que u se diagonalise dans une base orthonormée.


Exercice 30
Soit u un endomorphisme d’un espace vectoriel hermitien. Montrer que u est normal ssi il existe un polynôme
P ∈ c[X] tel que u* = P(u).
Exercice 31
Soit u un endomorphisme orthogonal d’un espace vectoriel euclidien. Montrer qu’il existe une base orthonormée dans
⎛ cosθ k − sin θ k ⎞
laquelle la matrice de u est diagonale par blocs, avec sur la diagonale 1, -1 ou Ck = ⎜⎜ ⎟⎟ .
⎝ sin θ k cosθ k ⎠
En déduire que l’ensemble des endomorphismes orthogonaux de déterminant 1 est connexe par arcs dans L(E).

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Exercices complémentaires

I Norme d’un endomorphisme ou d’une matrice.


Soit E un espace vectoriel muni d’une norme . Soit u un endomorphisme de E. On pose :

||u|| = Sup u( x ) .
x ≤1

1°/ Montrer que l’on définit ainsi une norme sur L(E). On dit que cette norme est induite par celle de E.
Si M est une matrice sa norme est celle de l’application linéaire canoniquement associée à M (rn ou cn
étant munis d’une norme ||.||).
Montrer que pour tout x de E : ||u(x)|| ≤ ||u||.||x||.
2°/ Montrer que pour tout endomorphisme u de E :
u( x )
(i) ||u|| = Sup u( x ) = Sup = Inf{ α ∈ r / ∀ x ∈ E : ||u(x)|| ≤ α||x|| };
x =1 x ≠0 x

(ii) ||uv|| ≤ ||u||.||v||;


(iii) ||IdE|| = 1;
(iv) Si E est de dimension finie il existe x ∈ E tel que ||x|| = 1 et ||u|| = ||u(x)||.
n
3°/ Calculer la norme d’une matrice M si on prend pour norme de cn les normes ||x||1 = ∑x
k =1
k et

x ∞
= Max{|xk| / 1 ≤ k ≤ n}.

4°/ Soit u un endomorphisme de E, espace euclidien ou hermitien de dimension n, muni de sa norme


euclidienne ou hermitienne. Montrer que ||u||2 = Max{valeurs propres de uu*}.
Que vaut ||u|| si u est hermitien ?
n

∑a
2
5°/ Montrer que ||M||s = Tr (M tM ) = ij définit une norme de Mn(c) (appelée « norme de Shur »).
i , j =1

(i) Montrer que pour toutes matrices M et N : ||MN||s ≤ ||M||s.||N||s. La norme ||.||s de Mn(c) dérive-t-elle
d’une norme de cn ?
n

∑λ
2
Si λ1, ... , λn sont les valeurs propres de M Montrer que M
2
s
≥ k
. Quel sont les cas d’égalité ?
k =1

II Soit u un endomorphisme de E espace vectoriel sur c de dimension finie et un polynôme à coefficients


dans c. Montrer que les valeurs propres de P(u) sont {P(λ) / λ valeur propre de u}.

III Matrices de Gram


Soient x1, x2, ... , xn n vecteurs d’un espace euclidien ou hermitien E. On appelle matrice de Gram des
vecteurs x1, x2, ... , xn la matrice M = ((xi; xj))i,j (1 ≤ i ≤ n, 1 ≤ j ≤ n); Gram(xi) = détM et appelé déterminant
de Gram des vecteurs x1, x2, ... , xn.
1°/ Montrer que le système (x1, x2, ... , xn) est libre ssi Gram(xi) ≠ 0. Si E est un espace euclidien on a :
(x1, x2, ... , xn) est libre ssi Gram(xi) > 0.
2°/ Dans le cas où (x1, x2, ... , xn) est un système libre montrer que :

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Gram(x1, x2, ... , xn) = d12 × Gram(x2, ... , xn) où d1 est la distance de x1 au sous-espace vectoriel
engendré par x2, ... , xn.
En déduire que Gram(x1, x2, ... , xn) ≤ x1 . x 2 ... x n .

Quels sont les cas d’égalité ? (Ellipses t. 2 p. 144; G-5)

IV Soit E un espace vectoriel sur c et G un sous-groupe fini de L(E). Montrer que les éléments de G sont
diagonalisables.

V Soit E un espace vectoriel sur c de dimension n ≥ 2. Soient f1, f2, ... , fp des endomorphismes de E tels
que :
fi o fi = - IdE et fi o fj + fj o fi = OE si i ≠ j.
Déterminer Tr(fi) et Sp(fi).

VI Soit E un espace hermitien et f un automorphisme de E.


1°/ Montrer que ϕ = f f* est hermitien, défini, positif (c’est-à-dire que la forme hermitienne associée (x; f
f*(y)) est définie positive).
2°/ Montrer que pour tout endomorphisme ϕ hermitien défini positif il existe un endomorphisme ψ hermitien
défini positif tel que ψ2 = ϕ.
3°/ Montrer que pour tout endomorphisme f de E il existe un automorphisme unitaire α et un
automorphisme hermitien défini positif ψ tels que f = α
(à rapprocher de l’écriture ρeiθ d’un nombre complexe).
4°/ Enoncer le résultat pour une matrice A de Mn(c).

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Chap. 3 : réducition des matrices


espaces euclidiens et préhilbertiens

Exercice 1
Si u est l’application linaire canonique associée à A on a u(u2 + Id) = 0 et d’après le théorème de décomposition des
noyaux E = Ker u ⊕ Ker (u2 + Id). Si Ker (u2 + Id) était de dimension impaire, le degré de son polynôme
caractéristique aussi et la restriction de u à Ker (u2 + Id) aurait une valeur propre λ. Il existerait x ∈ Ker (u2 + I), x ≠ 0,
tel que u(x) = λx, soit (u2 + Id)(x) = (λ2 + 1)x = 0 d’où λ2 + 1 = 0 ce qui est absurde dans r. On a donc
dim Ker (u2 + Id) = 0 ou 2. Comme u n’est pas nulle on a dim Ker u ≠ 3 et donc on a dim Ker (u2 + Id) = 2 et
dim Ker u = 1.
Soit x un vecteur non nul de Ker u et y un vecteur non nul de Ker (u2 + Id); u(y) n’est pas colinéaire à y (car
u/Ker (u2 + Id) n’a pas de valeur propre réelle) donc le système (y , u(y)) est libre et (x, y, u(y)) constitue une base de
E. Dans cette base la matrice de u a la forme voulue.
Exercice 2
Condition nécessaire : supposons que f soit diagonalisable. Si λk (1 ≤ k ≤ q) sont les valeurs propres non nulles de f on
a:
E = Ker f ⊕ Ker (f - λ1Id) ⊕ ... ⊕ Ker (f - λqId) (1)
(avec éventuellement Ker f = {0}). De même si µ1, ..., µp sont les valeurs propres non nulles de f2 on a
E = Ker f2 ⊕ Ker (f2 - µ1Id) ⊕ ... ⊕ Ker (f2 - µpId). Soit νk une racine carrée dans c de µk. D’après le théorème de
décomposition des noyaux on a :
E = Ker f 2 ⊕ Ker (f - ν1Id) ⊕ Ker (f + ν1Id) ... ⊕ Ker (f - νpId) ⊕ Ker (f + νpId) (2)
D’autre part si λ est une valeur propre de f il existe x non nul dans E tel que f(x) = λx soit f 2(x) = λ2x donc λ2 est valeur
propre de f2. L’ensemble des valeurs propres de f est donc inclus dans { ± νk}. Chaque terme Ker (f - λkId) de la
somme (1) est égal à un terme Ker (f ± νjId) de la somme (2). On a donc dim Ker (f - λ1Id) ⊕ ... ⊕ Ker (f -
λqId) ≤ dim Ker (f - ν1Id) ⊕ Ker (f + ν1Id) ... ⊕ Ker (f - νpId) ⊕ Ker (f + νpId) d’où dim Ker f ≥ dim Ker f 2. Mais
Ker f ⊂ Ker f 2 soit Ker f = Ker f 2.
Condition suffisante : si Ker f = Ker f 2 et f 2 diagonalisable, la relation obtenue à partir de (2) en remplaçant Ker f2 par
Ker f montre que f est diagonalisable.
Exercice 3
⎛ 1 0 0⎞
⎜ ⎟
Soit u est l’application linéaire canonique associée à M et v celle associée à ⎜ 1 4 0 ⎟ . Le polynôme caractéristique
⎜ ⎟
⎝2 3 9⎠
de u2 est (X - 1)(X - 4)(X - 9) donc u2 est diagonalisable. On a donc r3 = Ker (u2 - Id) ⊕ Ker (u2 - 4Id) ⊕ Ker (u2 -
9Id) et chaque sous-espace propre de u2 est de dimension 1. Mais Ker (u - λ2Id) = Ker (u + λId) ⊕ Ker (u - λId) (pour
λ = 1, 2 ou 3) d’après le théorème de décomposition des noyaux, et par conséquent on a Ker (u - λ2Id) = Ker (u + λId)
ou Ker (u - λId). Cela prouve que toute base qui diagonalise u diagonalise aussi. Dans une telle base, si u a pour
⎛ a 0 0⎞ ⎛ a 2 0 0 ⎞ ⎛1 0 0⎞ ⎛ ±1 0 0⎞
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
matrice ⎜ 0 b 0 ⎟ , l’équations u = v équivaut à ⎜ 0 b
2 2
0 ⎟ = ⎜ 0 4 0 ⎟ , qui a 8 solutions : ⎜ 0 ±4 0 ⎟ .
⎜0 0 c⎟ ⎜ 0 0 c2 ⎟ ⎜ ⎟ ⎜ ⎟
⎝ ⎠ ⎝ ⎠ ⎝0 0 9⎠ ⎝0 0 ±9 ⎠

Exercice 4
1°/ Un polynôme P annule u ssi P(u/Ek) = 0 pour 1 ≤ k ≤ p soit P multiple de µk ou encore P multiple de ppmc(µk).
Comme le ppmc(µk) annule u, µ est le polynôme unitaire tel que µ = ppmc(µk).

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

⎛ M1 ⎞
⎜ ⎟
2°/ Dans une base adaptée à la décomposition E = E1 ⊕ ... ⊕ Ep la matrice de u est ⎜ ⎟ où Mk est la
⎜ M p ⎟⎠

XI1 − M 1
matrice de u/Ek. Le polynôme caractéristique de u est donc qui est égal à dét(XI1-
XI 2 − M p
M1) ... dét(XIp - Mp) d’après la formule du calcul d’un déterminant par blocs soit χu = χ1 ... χp.
Exercice 5
On peut procéder comme précédemment en vérifiant, avec les notations précédentes, que f2(e3) = 4f(e3) - 4e3 donc le
polynôme P = X2 - 4X + 4 annule la restriction de u à E1 = <e3, f(e3)> (sous-espace vectoriel de dimension 2). De plus
il annule la restriction de u à E2 = <e1>. Comme r3 = E1 ⊕ E2, P est polynôme minimal de u.
⎛ 0 0 0⎞
⎜ ⎟
On peut aussi écrire A = 2I3 + E où E = ⎜ 0 0 1⎟ vérifie E2 = 0. Donc (A - 2I3)2 = 0 donc le polynôme P = (X - 2)2
⎜ ⎟
⎝ 0 0 0⎠
annule A. Comme A n’est pas la matrice d’une homothétie il n’y-a aucun polynôme de degré 1 qui annule A donc P est
le polynôme minimal de A.
Calcul de An : on a A = 2I3 + E, avec E2 = 0. La formule du binôme de Newton donne alors :
⎛ 2n 0 0 ⎞
⎜ ⎟
An = 2nI3 + n2n-1E, soit An = ⎜ 0 2 n
n 2 n−1 ⎟ .
⎜0 0 2 n ⎟⎠

Autres méthodes : par récurrence on voit immédiatement qu’il existe deux suites réelles (αn) et (βn) telles que An = α
nA + βnI3.

On a An+1 = αn+1A + βn+1I 3 qui est d’autre part égal à AAn = A(αnA + βnI3) = αn(4A - 4I3) + βnA
= (4αn + βn)A - 4αnI3. D’où les relations de récurrence :
⎧α n +1 = 4α n + β n
⎨ ,
⎩ β n +1 = −4α n
ce qui permet de calculer αn et βn de proche en proche.
Pour calculer explicitement αn et βn on peut par exemple effectuer la division euclidienne de Xn par (X - 2)2. Il existe
Q ∈ r[X] tel que
Xn = (X - 2)2Q + anX + bn (1).
En substituant A à X il vient An = anA + bnI3 (en fait an = αn et bn = βn puisque le système (I3, A) est libre dans M3(r)).
En dérivant les deux membres de (1) et en substituant 2 à X on obtient pour n ≥ 1 :
⎧⎪2 n = 2an + bn
⎨ n−1
⎪⎩n 2 = an

d’où an = n2n-1 et bn = (1 - n)2n et donc pour tout entier n :


An = n2n-1A + (1 - n)2nI3.
Pour B on obtient de même µ = X3 + X2 et Bn = (-1)nB2 pour n ≥ 2.

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Exercice 6
Comme uν-1 n’est pas l’endomorphisme nul il existe un vecteur x tel que uν-1(x) ≠ 0. Supposons que
λ0x + λ1u(x) + ... + λν-1 uν-1(x) = 0. En prenant l’image des deux membres par uν-1 il vient λ0uν-1(x) = 0 soit λ0 = 0. De
proche en proche on montre de même que λ1 = ... = λν-1 = 0.
E étant de dimension n tout système libre a au plus n éléments donc ν ≤ n.
Exercice 7
Soit ν l’indice de u. Un calcul simple donne (Id - u)o(Id + u + ... +uν-1) = Id donc v = Id - u est inversible et
v-1 = Id + u + ... +uν-1.
Max ( p ,ν −1)
D’autre part, vu que uk = 0 si k ≥ ν, la formule du Binôme de Newton donne vp = ∑ (−1)
k =0
k
C pk u k pour p ∈ n.

⎛ 0 1 / 3 0⎞
⎜ ⎟
Application : on écrit A = 3(I3 + N) avec N = ⎜ 0 0 0⎟ et N est nilpotente d’indice 2. Donc pour tout entier p,
⎜ ⎟
⎝0 0 0⎠
⎛1 / 3 −1 / 9 0 ⎞
1 ⎜ ⎟
Ap = 3p(I3 + pN) et A-1 = (Id + N) = ⎜ 0 1/ 3 0 ⎟.
3 ⎜ ⎟
⎝ 0 0 1 / 3⎠

Exercice 8
1°/ Il est clair que le polynôme minimal de δ est Xν-1. Le polynôme caractéristique de δ est donc Xn. Donc dét(XId - δ
) = Xn. En remplaçant X par -1 il vient dét(Id + δ) = 1.
2°/ Comme uδ = δu on a (uδ)p = upδp donc uδ est nilpotent. Supposons d’abord u inversible. On a u + δ = uo(Id + u-1δ)
donc dét(u + δ) = dét(u)dét(Id + u-1δ). L’endomorphisme u-1δ étant nilpotent on a d’après la question 1°/ dét(Id + u-1δ
) = 1 d’où dét(u + δ) = dét(u).
Si maintenant u est quelconque soit x ∈ K tel que u - xId soit inversible (i.e x n’est pas racine du polynôme
caractéristique de u). D’après ce qu’on vient de faire on a dét(u - xId + δ) = dét(u - xId ). Les deux membre de cette
égalité sont des polynômes en x; comme ils coïncident pour une infinité de valeurs ils sont donc égaux et on a donc
dét(u - XId + δ) = dét(u - XId ).
On en déduit que u + δ et u ont le même polynôme caractéristique et en substituant 0 à X dans la dernière égalité on
obtient dét(u + δ) = dét(u).
Exercice 9
1°/ Soit u l'endomorphisme canoniquement associé à M et reprenons les notations su théorème du I. 4.
p
Si uk est la restriction de u à Nk on a u = ∑u
k =1
k π k ou πk est la projection de E sur Nk parallèlement à ⊕ Ei . On a
i≠k

facilement que pour tout entier naturel q on a :


p
uq = ∑u
k =1
q
k πk

Comme uk = λkId + vk on a, pour q supérieur ou égal à βk - 1 :


β k −1
q(q − 1)...(q − i + 1) q −i i
ukq = ∑ λk ν k (car ν ki = 0 si i ≥ βk).
i =0 i!
q (q − 1)...(q − i + 1) q −i
Si q est inférieur à βk - 1 et λk est non nul la formule précédente est encore valable car λ k = 0 si
i!
q < i ≤ βk - 1.

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Pour λk est non nul on a donc :


⎛ βi −1 q( q − 1)...(q − i + 1) −i i ⎞
u kq = λqk ⎜⎜ ∑ λk ν k ⎟⎟
⎝ i =0 i! ⎠
Cette égalité est de la forme :
⎛ βi −1 ⎞
u kq = λqk ⎜ ∑ q i f i ,k ⎟ (1),
⎝ i =0 ⎠
où fi,k est un endomorphisme de Nk qui dépend de i mais pas de q.
En posant wi,k = fi,k o πk on a donc, dans le cas où toutes les valeurs propres de u sont non nulles, i.e. où u est inversible
:
p
⎛ βi −1 ⎞
∀q ∈ N : u q = ∑ λqk ⎜ ∑ q i wi ,k ⎟ (2)
k =1 ⎝ i =0 ⎠
p
où les wi,k sont des endomorphismes de E, indépendants de q, dont le nombre est égal à ∑β
k =1
k , c'est-à-dire au degré du

polynôme minimal de M.
De plus les endomorphismes Id, u, … , uβ-1 sont linéairement indépendants. La relation précédent montre que les wi,k
engendrent < Id, u, … , uβ-1 >, et comme ils sont au nombre de β = dim< Id, u, … , uβ-1 > on en déduit qu'ils forment
une base de < Id, u, … , uβ-1 > et en particulier ils sont libres.
Si λk = 0, alors u kq = ν kq qui est nul pour q supérieur ou égal à βk. l'égalité (1) est valable pour q supérieur ou égal à βk
(les fi,k étant arbitraires).
La formule (3) est donc valable pour tout q si M est inversible et pour q supérieur ou égal à βk sinon. On obtient le
résultat en interprétant matriciellement l'égalité (2).
2°/ (S') est un sous-espace vectoriel de l'ensemble des suites à valeurs dans K. Un élément de (S') étant entièrement
déterminé par la donnée de (x0, x1, … , xs-1) l'application de Ks dans (S') qui à (x0, x1, … , xs-1) associe (xn) est bijective;
comme elle est visiblement linéaire c'est un isomorphisme de Ks de (S') et donc dim(S') = s.
⎛ xn ⎞
⎜ ⎟
Posons Xn = ⎜ ⎟ . L'égalité xn+ s = α0xn +α1xn+1 + ... + αs-1xn+s-1 pour tout n équivaut à :
⎜x ⎟
⎝ n + s −1 ⎠

⎛0 1 0 0 ⎞
⎜ ⎟
⎜0 0 1 0 ⎟
MXn = Xn+1 où M = ⎜ ⎟.
⎜ ⎟
⎜0 0 1 ⎟
⎜ ⎟
⎝α 0 α1 α s −1 ⎠
On a donc pour tout n entier naturel : Xn = MnX0.
s −1
Par récurrence on voit que le polynôme caractéristique de M est P(X) = Xs - ∑α
k =0
k Xk .

Son terme constant α0 étant non nul M est inversible. D'après 1°/ on a donc, pour tout n :
p
⎛ β −1 ⎞
M n = ∑ λqi ⎜⎜ ∑ q k Ai ,k ⎟⎟ , soit pour tout n :
i

i =1 ⎝ k =0 ⎠
p
⎛ β −1 ⎞
X n = ∑ λqi ⎜⎜ ∑ q k Ai ,k X 0 ⎟⎟ .
i

i =1 ⎝ k =0 ⎠

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Par conséquent, toute suite de (S') est combinaison linéaire des suites ( n k λni ) pour i dans {1, … , p} et k dans
p
{0, … , βi - 1}. Cette famille est génératrice de (S') de dimension s. Comme elle possède β = ∑β
i =1
i éléments on a

β ≥ s. D'autre part β est le degré du polynôme minimal de M donc β ≤ s et donc β = s et βi = αi. La famille ( n k λni ) est
donc une base de (S'). Remarquons que le polynôme minimal de M est de degré s.
3°/ Supposons que ρ(A) < 1. D'après 1°/ pour q assez grand :

⎛ β i −1 k
p

A = ∑ λ ⎜⎜ ∑ q Ai ,k ⎟⎟ .
q q
i
i =1 ⎝ k =0 ⎠
Comme |λk| < 1 pour tout k de {1, … , p}, λqi q k converge vers 0 quand q tend vers l'infini. Par conséquent
⎛ β −1 ⎞
λqi ⎜⎜ ∑ q k Ai ,k ⎟⎟ converge vers 0 et donc Aq aussi.
i

⎝ k =0 ⎠
Réciproquement, supposons que (Aq)q tende vers 0. Pour tout k de {1, … , p} il existe un vecteur Xk de Cn non nul tel
que AXk = λkXk. Pour tout entier naturel q on a donc AqXk = λk qXk. Comme (Aq)q tend vers 0 il en est de même de
AqXk et donc aussi de λqk X k . Xk étant non nul λqk converge vers 0 donc |λk| < 1 pour tout k de {1, … , p}. D'où
ρ(A) < 1.
Exercice 10
1°/ Mn(c) étant muni de la norme de l’énoncé on sait que pour M et N dans Mn(c) on a ||MN|| ≤ ||M||.||N||. On a donc,
k
k k
Ak A

pour tout entière k, ||A || ≤ ||A|| soit ce qui montre que la série de terme général Ak/k! est absolument
k! k!
convergente donc elle convergente, Mn(c) étant complet comme espace vectoriel normé de dimension finie.
Ak n


2°/ Posons, pour tout entier naturel n, En =
k = 0 k!
. L’application ϕ de Mn(c) dans lui-même qui à A associe P-1AP est

un endomorphisme et pour A ∈ Mn(c) de norme 1 on a :


||ϕ(A)|| ≤ ||P||.||P-1||.||A|| = ||P||.||P-1|| ce qui montre que ϕ est continue. On a donc
P −1 A k P n (P −1 AP )
n k

lim ϕ ( En )=ϕ ( lim E n )=ϕ (exp( A)) ce qui donne le résultat puisque ϕ(En) = ∑ =∑ converge vers
n →+∞ n → +∞
k =0 k! k =0 k!
exp(P-1AP).
Ai B j
3°/ Si A et B sont dans Mn(c) telles que AB = BA, expA.expB est somme de la série de terme général xp = ∑
i+ j= p
.
i! j!

(produit de deux séries absolument convergentes) égal à


1
∑ C ip Ai B j ou encore à
1
( A + B ) p puisque A et B
p! i + j = p p!
commutent. On a ainsi expA.expB = exp(A + B).
A2 Aν −1
Si A est nilpotente d’indice ν on a expA = I + A + + ... + .
2! (ν − 1)!

⎛ λ1 ⎞
⎜ ⎟
Si A est diagonalisable il existe P ∈ GL(n, c) et D = ⎜ ⎟ diagonale telle que A = P DP donc
-1

⎜ λ n ⎟⎠

⎛ eλ 1

⎜ ⎟
expA = P-1.expD.P et il est immédiat que expD = ⎜ ⎟.
⎜ λ ⎟
⎝ e ⎠n

Si A est quelconque et si A = D + N comme dans le théorème on a expA = expD.expN d’après 2°/.

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

⎛5 −1⎞
Exemple : si A = ⎜ ⎟ le polynôme caractéristique de A est (X - 3) . D’après la démonstration de théorème on a
2
⎝4 1⎠
⎛ 3 0⎞ ⎛ 2 −1⎞ ⎛ e3 0 ⎞ ⎛ 3e 3 − e 3 ⎞
D = ⎜⎜ ⎟⎟ et donc N = ⎜ ⎟ (avec N2
= 0) d’où expA = ⎜ ⎟ .( I + N ) = ⎜ 3 ⎟
⎝ 4 −2 ⎠ ⎜ 0 e3 ⎟ ⎜ 4e − e 3 ⎟ .
⎝ 0 3⎠ ⎝ ⎠ ⎝ ⎠
Exercice 11
1°/ On Ex = {P(u)x / P ∈ K[X]} qui est donc l’ensemble des combinaisons linéaires de ui(x) pour i ∈ n. Ex est donc le
sous-espace vectoriel engendré par ui(x).
2°/ Soit V le sous-espace vectoriel engendré par x, u(x) , ... , up-1(x). On a V ⊂ Ex d’après la question 1°/. D’autre part,
par définition de p, up(x) est combinaison linéaire de x, u(x) , ... , up-1(x) donc V est stable par u. Ex étant le plus petit
sous-espace vectoriel stable par u on a donc V = Ex. Le système (x, u(x) , ... , up-1(x)) est libre et générateur de Ex c’est
donc une base de Ex et dim Ex = p.
On a P(u)x = 0 d’où P(u)(ui(x)) = 0 pour tout entier i. Par conséquent P annule u/Ex. Si Q est un polynôme de degré
q < p annulant u/Ex on aurait Q(u)x = 0 et il existerait des constantes bq, ... , b0 avec bq ≠ 0 telles que
bquq(x) + ... + b0x = 0 ce qui est absurde car le système (x, u(x) , ... , up-1(x)) est libre. Par conséquent le polynôme
minimal de u/Ex est P.
⎛0 a0 ⎞
⎜ ⎟
p-1 ⎜1 a1 ⎟
Dans la base (x, u(x) , ... , u (x)) de Ex la matrice de u/Ex est ⎜ ⎟.
0
⎜ ⎟
⎜ 1 a p −1 ⎟⎠

Le polynôme caractéristique χ de u/Ex est un multiple de P d’après le théorème de Cayley-Hamilton et est de degré
dim u/Ex = p = d°P. P et χ étant unitaires ils sont donc égaux. On peut démontrer ce point directement en calculant le
X − a0
−1 − a1
déterminant = χ(X). On multiplie la deuxième ligne par X, la troisième par X2, ... , la p-ième

− 1 X − a p −1
0 P( X ) −1 X 0
−1 X − a1 0 −1 0
par Xp-1 et on ajoute à la première et on obtient χ(X) = = (−1) p −1 P ( X ) = P(X)

− 1 X − a p −1 0 −1
(le dernier déterminant étant d’ordre p-1).
Exercice 12
1°/ Complétons une base de F pour avoir une base de E. Dans une telle base la matrice de u est une matrice
⎛M M3 ⎞
triangulaire par blocs ⎜⎜ 1 ⎟⎟ où M1 est la matrice de u/F. Donc le polynôme caractéristique χ de u est
⎝ 0 M2 ⎠
XI − M 1 M3
et le calcul d’un déterminant par blocs donne χ = dét(XI - M1).dét(XI - M2) = χ1.Q donc le
0 XI − M 2
polynôme caractéristique χ1 de u/F divise χ.
2°/ Soit x ∈ E - {0} et Π le polynôme minimal de la restriction de u à Ex qui est aussi son polynôme caractéristique
d’après l’exercice 10; donc Π(u)(x) = 0 et il existe Q ∈ K[X] tel que χ = Q×Π d’après 1°/. D’où χ(u)(x) = (Q×
Π)(u)(x) = Q(u)oΠ(u)(x) = 0.
Exercice 13
1°/ Si Ex ∩ Ey ≠ {0} le polynôme minimal de la restriction de u à Ex ∩ Ey est de degré ≥ 1 et divise Px et Py ce qui est
impossible car Px et Py sont premiers entre eux.

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Notons qu’un polynôme Q annule la restriction de u à Ex ssi Q(u)x = 0.


Q annule u/Ez (avec z = x + y) ssi Q(u)z = 0 soit Q(u)x = - Q(u)y. Mais Q(u)x ∈ Ex et - Q(u)y ∈ Ey donc Q(u)x = -
Q(u)y = 0 soit Q est multiple de Px et Py donc de Px.Py (car pgcd(Px , Py) = 1). Comme Px.Py(z) = 0 on a donc
Px.Py = Pz.
αq
2°/ Soit µ = P1α .P2α ....Pq la décomposition de µ en produit de facteurs irréductibles du polynôme minimal de u.
1 2

D’après le théorème de décomposition des noyaux on a E = N1 ⊕ N2 ⊕ ... ⊕ Nq avec Nk = Ker Pkα . k

Raisonnons dans N1. Soit (e1, ... ,er) une base de N1. Les polynômes Pe , ... , Pe divisent P1α donc ils sont de la forme 1 r
1

P1β , P1β ....P1β avec βk ≤ α1 (1 ≤ k ≤ r) car P1 est irréductible. Un au moins des βk est égal à α1 (sinon
1 2 r

αq
P1Max ( β ) .P2α ....Pq
k 2
est un polynôme qui annule u et qui divise strictement µ). Pour ce k on a donc Pe = P1α . Posons k
1

z1 = ek.
Le même raisonnement montre qu’il existe z2, ... , zq tels que Pz = Pkα pour 1 ≤ k ≤ q. Une généralisation facile du 1°/
k
k

montre que Pz +...+ z = Pz Pz ...Pz = µ.


1 q 1 2 q

p
3°/ Supposons donc que E = ∪ F avec p ≥
i =1
i 2. Quitte à supprimer certains des Fi ont peut supposer qu'aucun des Fi

n'est inclus dans la réunion des autres. Supposons que F1 ≠ E. Il existe donc x ∈ E - F1. Il s'ensuit que x ∈ ∪ F .
i
≥2
i

Comme F1 ⊄ ∪ F i il existe y ∈ F1 − ∪ Fi . Considérons x + y. Il appartient à Fj pour un certain j. Si j était égal à 1


≥2
i i≥2

alors on aurait x ∈ F1 (car y ∈ E1) ce qui n'est pas. On a donc x + y ∈ ∪ F , d'où on déduit que y appartient à ∪ F
i i
≥2
i ≥2i

(car x ∈ ∪ F ) ce qui encore impossible. Par conséquent E = F1.


i
≥2
i

Retrouvons le résultat du 2/ : pour tout x de E le polynôme Px minimal de u/Ex divise le polynôme minimal µu de u
donc il existe un nombre fini de tels polynôme. On écrit E = ∪ Ker Px ( u ) . D'après le résultat précédent il existe
x∈E −{0}

x ∈ E - {0} tel que E = Ker Px(u) i.e. Px(u) = 0 et comme Px divise µu on a µu = Px.
4°/ Si Eu est cyclique il existe x ∈ E tel que E = Ex et l’exercice 10 montre que χ = µ.
Réciproquement supposons que χ = µ. Il existe x ∈ E tel que µ = Px. L’espace cyclique Ex engendré par x est de
dimension le degré de µ (exercice 10) c’est-à-dire celui de χ, c’est-à-dire n, donc Ex = E et E est cyclique.
Exercice 14
Soit u l’endomorphisme de cn canoniquement associé à M. Il existe des sous-espaces vectoriels E1, E2, ... , Er stables
par u et des bases B1, B2, ... ,Br de E1, E2, ... , Er tels que E = E1 ⊕ E2 ... ⊕ Er et, dans la base Bi, la matrice N de u/Ei est
⎛λ ⎞
⎜ ⎟
une matrice de Jordan Jq(λ) = ⎜ 1 ⎟ . Dans la base Bk’ de Ek obtenue à partir de Bk en écrivant les vecteurs dans
⎜ 1 λ ⎟⎠

l’ordre inverse la matrice de u/Ek est la transposée de Jq(λ). Dans la base B’, juxtaposition des bases Bk’ la matrice de u
est ainsi la transposée de N. Ainsi M est semblable à N, donc tM est semblable à tN et tN est semblable à N; on a donc
que M et tM sont semblables dans cn.
Il existe donc P et Q matrices réelles telles que (P + iQ)M = tM(P + iQ) et dét(P + iQ) ≠ 0.
Le polynôme à coefficients réels dét(P + XQ) est non nul (car non nul en i) donc il admet un nombre fini de racines
dans c. Il existe donc x ∈ r tel que dét(P + xQ) ≠ 0.
D’autre part (P + iQ)M = tM(P + iQ) et en identifiant « partie réelle » et « partie imaginaire » on obtient PM = tMP et
QM = tMQ. On a donc (P + xQ)M = tM(P + xQ) et dét(P + xQ) ≠ 0 donc M et tM sont semblables dans Mn(r).

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Exercice 15
Compte tenu de la relation exp(P-1AP) = P-1exp(A)P pour toute matrice inversible P (exercice 9) et de la
⎛λ ⎞
⎛λ ⎞ ⎜ ⎟
⎜ ⎟ ⎜1 λ ⎟
décomposition de Jordan on peut supposer que A est de la forme λI = ⎜ ⎟ ou ⎜ ⎟ = λI + J.
⎜ λ⎠⎟ ⎜ ⎟
⎝ ⎜ 1 λ ⎟⎠

Pour tout λ de c il existe α ∈ c tel que eα = λ et on a exp(αI)) = λI.
D’autre part un calcul formel comme dans le cas des séries entières à variable complexe montre que :
⎛ p (−1) k −1 k ⎞ ⎛ p
(−1) k −1 J k ⎞ ⎛ J⎞
exp ⎜⎜ ∑ J ⎟⎟ = I + J (si Jp+1 = 0) donc exp ⎜⎜αI + ∑ ⎟ = λI ⎜ I + ⎟ = λI + J
k ⎟
⎝ k =1 k ⎠ ⎝ k =1 k λ ⎠ ⎝ λ ⎠
d’où le résultat.
Exercice 16
1°/ Si (αi,j) est la matrice d’une forme bilinéaire ϕ on a :
⎛ ⎞
q(x) = ϕ(x, x) = ϕ ⎜⎜ ∑ xi ei , ∑ x j e j ⎟⎟ = ∑ xi x jϕ (ei , e j ) = ∑ xi x jα i , j = ∑ xi2 + ∑ x x (α
i j i, j + α j ,i )
⎝ i j ⎠ i, j i, j i i< j

n
qui est de la forme ∑a
k =1
i ,i xi2 + ∑ ai , j xi x j .
i< j

Réciproquent, les ai,j étant donnés, en posant αi,i = ai,i et αi,j = αj,i = ai,j/2 si i ≠ j, la forme bilinéaire ϕ de matrice (αi,j)
est symétrique et vérifie q(x) = ϕ(x, x) pour tout x de E donc ϕ est la forme polaire de q.
2°/ De même si (αi,j) est la matrice d’une forme sesquilinéaire hermitienne ϕ on a :
⎛ ⎞
q(x) = ϕ(x, x) = ϕ ⎜⎜ ∑ xi ei , ∑ x j e j ⎟⎟ = ∑ xi x jϕ (ei , e j ) = ∑ xi α i ,i + ∑ xi x jα i , j qui est de la forme
2

⎝ i j ⎠ i, j i i≠ j

∑a xi + ∑ ai , j xi x j avec ai,j = a j ,i .
2
i ,i
k =1 i≠ j

Exercice 17
1°/ a/ Isolons le terme en x1 :
q(x) = x12 − x1 ( x2 + x3 ) + x22 + x32 − x2 x3 .

x + x3 ⎞ ⎛ x2 + x3 ⎞ x + x3 ⎞ 3 2 3 2 3
2 2 2
⎛ ⎛
D’où q(x) = ⎜ x1 − 2 ⎟ −⎜ ⎟ + x2 + x3 − x2 x3 = ⎜ x1 − 2
2 2
⎟ + x2 + x3 − x2 x3 .
⎝ 2 ⎠ ⎝ 2 ⎠ ⎝ 2 ⎠ 4 4 2
x 2 + x3
Si l1 la formes linéaire définie par l1(x) = x1 − et q2 la forme quadratique définie par
2
3 2 3 2 3
q1(x) = x2 + x3 − x2 x3 on a donc q( x) = l12 ( x) + q12 ( x) .
4 4 2
On recommence le même procédé pour q1 :

q1(x) = (x2 + x32 ) − 3 x2 x3 = 3 (x22 − 2 x2 x3 ) + 3 x32 = 3 (x2 − x3 )2 .


3 2
4 2 4 4 4
3
Si on pose l2(x) = x2 - x3 les formes linéaires l1 et l2 sont indépendantes et q = l12 + l 22 .
4

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

⎧ ' x 2 x3
⎪ x1 = x1 − 2 − 2
⎪⎪
Dans la nouvelle base B’ définie par les formules de changement de repère ⎨ x2' = x2 − x3
⎪ '
⎪ x3 = x3
⎪⎩

⎛1 0 0⎞
⎜ ⎟
la matrice de q est ⎜ 0 3 / 4 0⎟ . B’ est une base orthogonale de q qui est de rang 3 de signature (2, 0).
⎜ ⎟
⎝0 0 0⎠
b/ Comme précédemment on trouve q(x) = (l1(x))2 + (l2(x))2 - (l3(x))2 avec l1(x) = x1 + x3cosλ, l2(x) = x2 + x3sinλ et
l3(x) = x3. On peut en déduire une base orthogonale pour q, son rang (3) et sa signature : (2, 1).
c/ On a ici une forme quadratique « sans termes carrés ». On écrit :
(x1 + 2x3)( x2 + 3x3) - 6 x32 .
En utilisant l’identité (a + b)2 - (a - b)2 = 4ab on obtient :
1 1
q(x) = (x1 + x2 + 5x3)2 - (x1 - x2 - x3)2 - 6 x32 .
4 4
Comme précédemment on conclut que q est de rang 3 et de signature (1, 2).
2°/ a/ En utilisant l’identité |a + b|2 - |a - b|2 = 2( ab + a b ) on obtient :
1 1
q(x) = |x1 + x2|2 - |x1 - x2|2
2 2
Le rang de q est 2 et sa signature est (1, 1).
b/ On s’inspire de la méthode du 1°/a/ en utilisant l’identité |a + b|2 = |a|2 + |b|2 + ab + a b . On obtient :

x1 + ix1 x2 − i x1 x2 = x1 − ix2 − x2 ,
2 2 2

donc q(x) = |x1 - ix2|2 - |x2|2 + i 2 x2 x3 − i 2 x3 x2 + x3 .


2

On a ensuite
2 2
( 2
)
− x2 + i 2 x2 x3 − i 2 x3 x2 + x3 = − x2 − i 2 x2 x3 + i 2 x3 x2 = − x2 + i 2 x3 + i 2 x3 + x3 .
2 2 2

Finalement on obtient :
2
q(x) = x1 − ix 2 − x2 + i 2 x3 + 3 x3 .
2 2

q est donc de rang 3 et de signature (2, 1).


Exercice 18 : procédé d’orthonormalisation de Gram-Schmidt
Nécessairement f1 = α1e1 avec α1 scalaire non nul. Supposant les vecteurs f1, ... , fk-1 construits pour k > 1 on doit avoir
k −1
fk ∈ Vect(f1, ... , fk-1, ek) donc il existe des scalaires βj et αk tels que fk = ∑β
j =1
j f j + α k ek . La condition ϕ

(fk, fj) = 0 (pour 1 ≤ j ≤ k-1) équivaut à βjϕ(fj, fj) + αkϕ(ek, fj) = 0 soit βj = - αkϕ(ek, fj)/||fj||2 ou encore fk = αkgk (1)
k −1 ϕ (e ; f )
avec gk = ek − ∑ f j (2). αk est non nul sinon fk ∈ Vect(f1, ... , fk-1) = Vect(e1, ... , ek-1) et donc on aurait :
k j
2
j =1 fj

Vect(f1, ... , fk) = Vect(f1, ... , fk-1) = Vect(e1, ... , ek-1) ce qui est contraire l’hypothèse (*). Réciproquement les
vecteurs (fk) définis par récurrence par les formules (1) et (2) (avec αk scalaire non nul) forment bien un système
orthogonal vérifiant (*).

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Le système (fk) orthonormé ssi f1 = α1 e1 avec |α1| = 1/||e1|| et, pour tout k ∈ {2, ... , n}, fk = αkek avec :
k −1
1
αk = et g k = ek − ∑ ϕ (ek ; f j ) f j .
gk j =1

Si de plus on impose la condition ϕ(ek, fk) > 0 on a 1 = ϕ(fk, fk) = αkϕ(ek, fk) d’après la condition précédente donc α
k > 0 d’où αk = 1/||gk || qui est ainsi déterminé de façon unique, donc les fk aussi.

Exercice 19

1°/ L’application ϕ : (f, g) ∫ f (t ) g (t )ω (t )dt


I
est clairement bilinéaire, symétrique, positive. Si (f, f) = 0 on a

∫f (t )ω (t )dt = 0. Les fonctions f et ω étant continues et positives à l’intérieur de I on en déduit que f est nulle à
2

l’intérieur de I donc dans tout I par continuité de f. f est donc un produit scalaire de E.
2°/ S’il existe une suite (Pn) de polynômes ayant les propriétés indiquée, nécessairement le système (Pn) est orthogonal
et Vect(P0, P1, ... , Pn) = Vect(1, X, , Xn) (car d°Pn = n). D’après l’exercice 18 il existe un réel non nul αn tel que
⎛ n −1
( x n ; Pi ) ⎞⎟ n −1
( x n ; Pi )
Pn = α n ⎜ x n − ∑ P . P n étant unitaire on a donc P n = x n
− ∑ Pi . Réciproquement la suite de
⎜ Pi
2 i
⎟ Pi
2
⎝ i =0
⎠ i =0

polynômes définis par ces formules a les propriétés requises.


Si n ≥ 3 le polynôme Pn - xPn-1 est de degré inférieur ou égal à n - 1 donc existe des réels λ0, λ1 , ... , λn-1 tels que Pn -
xPn-1 = λ0 + λ1P1 + ... + λn-1Pn-1. Mais le polynôme Pn - xPn-1 est orthogonal à Pk pour k ≤ n - 3 puisque c’est le cas de
Pn et en vertu de la relation : (xPn-1; Pk) = (Pn-1; xPk) = 0 (car d°(xPk) ≤ n - 2). Il en résulte que λ0 = λ1 = ... = λn-3 = 0
soit :
Pn - xPn-1 = λn-2Pn-2 + λn-1Pn-1 , ou Pn = (x - αn)Pn-1 - βnPn-2
avec αn = - λn-1 et βn = - λn-2. Enfin on a (Pn ; xn-2) = 0 = (Pn-1 ; xn-1) - βn(Pn-2 ; xn-2) ; comme pour tout k :
(Pk ; xk) = (xk ; xk) = ||xk||2 on en déduit bn = ||xn-1||2 / ||xn-2||2 qui est donc non nul.
3°/ Supposons que Pn ait moins de n racines distinctes intérieures à I et soit x1, ... , xk (k ≤ n - 1) les racines de Pn
k
intérieures à I où Pn change de signe (i.e celles de multiplicité impaires). Le polynôme Pn(x). ∏ ( x − x j ) est positif ou
j =1
k k
nul (ou négatif ou nul) dans I. Comme d° ∏ ( x − x j ) ≤ n - 1 on a ∫ Pn (t )∏ (t − x j )ω (t )dt = 0 soit
j =1 I j =1
k
Pn(x). ∏ ( x − x j ) = 0 ou P(x) = 0 pour tout x intérieur à I, ce qui implique que Pn est le polynôme nul, ce qui n’est
j =1

pas. Par conséquent Pn a plus de n racines distinctes intérieures à I. Comme Pn est de degré n on en conclut que Pn a n
racines distinctes intérieures à I (ces racines sont donc toutes simples).
dn 2
4°/ Le terme de plus haut degré de n
(x − 1)n est clairement 2nn ! donc Pn est un polynôme unitaire. Pour k ≤ n - 1
dx
calculons Ik = ∫ [(x − 1) ] x dx . On intègre par parties en dérivant x et on obtient :
1

−1
2 n
(n)
k k

I = - k ∫ [(x − 1) ] x dx . Par récurrence il vient immédiatement :


1 ( n −1)
2 n k −1
k
−1

I = (-1) k ! ∫ [(x − 1) ] dx . Comme n - k > 0, cette intégrale est nulle et par conséquent
n ( n−k )

1 1
k
k
2
Pn ( x)x k dx = 0 pour
−1 −1

k ≤ n - 1. La suite (Pn) est donc la suite définie au 2°/ pour I = [-1 ; 1] et ω = 1.


Exercice 20
Condition nécessaire : soit M = (ai,j) définissant un produit scalaire ϕ (i.e ai,j = ϕ(ei, ej)) et (e1, ... , en) la base canonique
de rn. La restriction de ϕ à F×F où F = < e1, ... , ek> est un produit scalaire dont la matrice dans la base (e1, ... , ek) est

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

(a )
i , j 1≤ i ≤ k
1≤ j ≤ k
. Si P est la matrice de passage d’une base orthonormée pour ϕ à la base (e1, ... , ek) on a M = tPP donc
dét M > 0.
Condition suffisante : raisonnons par récurrence sur n. Pour n = 1 le résultat est évident. Supposons le vrai pour tout
espace vectoriel de dimension ≤ n. Soit E de dimension n + 1 et M = (ai , j )1≤i ≤ n +1 une matrice réelle symétrique dont les
1≤ j ≤ n +1

mineurs principaux sont > 0. En Particulier dét M > 0 et on remarque que le déterminant N de ϕ dans n’importe quelle
base est > 0 (puisqu’il existe une matrice inversible P telle que N = tPMP).
Soit H = < e1, ... , en>. La matrice M’ = (ai , j )1≤i ≤ n a tous ses mineurs principaux > 0 donc elle définit un produit scalaire
1≤ j ≤ n

sur H d’après l’hypothèse de récurrence. Soit (e1' , ... ,en' ) une base orthonormée pour ce produit scalaire. Dans la base
⎛ 1 α1 ⎞
⎜ ⎟
⎜ ⎟
(e , ... ,e , e )
'
1
'
n n +1 de E la matrice de ϕ est N = ⎜
1 ⎟.
⎜ ⎟
⎜α α n +1 ⎟⎠
⎝ 1
D’après la remarque précédente on a dét N > 0.
D’autre part la restriction de ϕ à H, sous-espace vectoriel de dimension n, est strictement positive donc la signature de
ϕ est (n, 1) ou (n + 1, 0).
⎛1 ⎞
⎜ ⎟
Si cette signature était (n, 1) il existerait une base dans laquelle la matrice de ϕ serait ⎜ ⎟ et son
⎜ 1 ⎟
⎜ ⎟
⎝ −1⎠
déterminant serait < 0 ce qui n’est pas.
La signature de ϕ est donc (n + 1, 0) et par conséquent ϕ est un produit scalaire.
Exercice 21
Soit B0 = (e1, e2, ... , en) la base canonique de rn muni du produit scalaire canonique. L'endomorphisme
canoniquement associé à A-1 transforme B0 en une base B1 = (ε1, ε2, ... , εn) et A-1 est la matrice de passage de B0 à B1;
soit B2 = (f1, f2, ... , fn) la base orthonormée obtenue à partir de B1 par la méthode de Gram-Schmidt et vérifiant
(εk, fk) > 0 (voir exercice 17). Soit T la matrice de passage de la base B1 en B2.
⎛ ⎞ ⎛ ⎞
Comme fk = αk ⎜⎜ ε k − ∑ ϕ (ek ; f j ) f j ⎟⎟ = α k ⎜⎜ ε k − ∑ β k ε j ⎟⎟ avec αk > 0, T est une matrice triangulaire supérieure à
k −1 k −1

⎝ j =1 ⎠ ⎝ j =1 ⎠
coefficients diagonaux > 0. Soit Q la matrice de passage de la base B0 en B2 : Q est une matrice orthogonale car B0 et B2
sont des bases orthonormées et on a Q = TA-1 soit A = Q-1T; Q est une matrice orthogonale il en est de même de Q-1.
D’où l’existence de la décomposition.
Si A = QR = Q’R’ sont deux décompositions avec les conditions de l’énoncé, on a Q-1Q’ = RR’-1. La matrice RR’-1 est
triangulaire supérieure à coefficients diagonaux > 0 d’après la démonstration précédente et Q-1Q’ est orthogonale; or
une matrice M orthogonale et triangulaire supérieure à coefficients diagonaux > 0 est la matrice identité (en effet
comme tM = M-1, M est aussi triangulaire inférieure donc M est une matrice diagonale; les coefficients de la diagonale
valent ± 1, donc M = In car ceux-ci sont > 0). On a donc Q = Q’ d’où R = R’.
Enfin le système AX = B est équivalent à QY = B et RX = Y, et comme Q-1 = tQ c’est équivalent à Y = tQB et RX = Y
soit RX = tQB , ce dernier système étant triangulaire.

Exercice 22
1°/ Supposons que la matrice M symétrique définisse un produit scalaire ϕ.

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Soit (f1, ... , fn) une base orthonormée pour ϕ construite par le procédé de Gram-Schmidt à partir de la base canonique
k −1
(ei) de rn et vérifiant les conditions d’unicité de l’exercice 17. On a ainsi f1 = α1e1 (α1 > 0) et fk = ∑β
j =1
j f j + α k ek

pour k ≥ 2, avec αk > 0. Si P est la matrice de passage de (f1, ... , fn) à la base canonique (e1, ... , en) on a M = tPP et
1 ⎛ k −1

comme ek = ⎜⎜ f k − ∑ β j f j ⎟⎟ , P est une matrice triangulaire supérieure dont les coefficients diagonaux 1/αk sont
αk ⎝ j =1 ⎠
> 0.
Réciproquement si M = tTT avec T matrice triangulaire supérieure dont les coefficients diagonaux sont strictement
positifs, alors T est la matrice de passage d’une base (f1, ... , fn) à la base canonique (e1, ... , en) de rn. Dans la base
(f1, ... , fn) la matrice de ϕ est t(T-1)MT-1 = In donc cette base est orthonormée pour ϕ. De plus pour tout k de {1, ... , n}
on a ek = δ1f1 + ... + δkfk et δk > 0. On a donc Vect(e1, ... , ek) = Vect((f1, ... , fk) et ϕ(ek, fk) = δk > 0 donc la base
(f1, ... , fn) est uniquement déterminée d’après l’exercice 17, et ainsi T est unique.
n
Supposons M définie positive (donc définissant un produit scalaire) et posons T = (ti,j). On a alors : ai,i = ∑t
k =1
2
k,i ≥ ti2,i ,

d'où :
2
n n
⎛ n ⎞

i =1
a i,i ≥ ∏ 2
i ,i
i =1
t ≥ ⎜ ∏ ti,i ⎟ = (dét T) = dét M.
⎝ i =1 ⎠
2

Si M est seulement positive et pas définie alors dét M = 0 et l'inégalité précédente est encore vraie car ai,i = teiMei ≥ 0
(où (ei) est la base canonique de rn).
n
2°/ A = tMM est une matrice symétrique positive dont le coefficient (i, i) est ∑a
j =1
2
j,i et le déterminant (dét M)2. Le

résultat demandé résulte alors de l'inégalité précédente.


Exercice 23
Raisonnons dans le cas hermitien.
1°/ Soit λ une valeur propre de u et x un vecteur propre de u. On a ϕ(u(x), x) = λϕ(x, x) d’une part et
ϕ(x, u*(x)) = ϕ(x, u(x)) = ϕ(x, λx) = ϕ(x, x) d’autre part. Comme ϕ(x, x) ≠ 0 on a donc λ = λ c’est à dire λ réel.
2°/ Soient x et y deux vecteurs propres de u associés aux valeurs propres distinctes λ et µ. On a :
ϕ(u(x), y) = λϕ(x, y) d’une part et ϕ(x, u*(y)) = ϕ(x, u(y)) = ϕ(x, µy) = µ ϕ(x, y) = µϕ(x, y) (car µ est réel) d’autre part.
Comme λ ≠ µ on a ϕ(x, y) = 0 et ainsi les espaces propres E(λ) et E(µ) sont orthogonaux.
lemme : soit v un endomorphisme et F sous-espace vectoriel stable par v dans un espace euclidien ou hermitien. Alors
son orthogonal F ⊥ est stable par u*.
Démontrons d’abord le lemme. Soit y ∈ F ⊥ et x ∈ F. On a ϕ(x, v*(y)) = ϕ(v(x), y). Mais v(x) ∈ F car F est stable par
v et y ∈ F ⊥ donc ϕ(v(x), y) = 0 et par suite v*(y) ∈ F ⊥ .
Montrons par récurrence sur n = dim E que E est somme directe orthogonale de ses sous-espaces propres. Si n = 1
c’est évident. Supposons le résultat vrai pour tout espace vectoriel de dimension ≤ n et soit E un espace vectoriel de
dimension n + 1. u admet une valeur propre λ et on a E = E(λ) ⊕ E(λ) ⊥ . D’après le lemme E(λ) ⊥ est stable par u.
Comme la restriction de u à E(λ) ⊥ est auto-adjointe on conclut en lui appliquant d’hypothèse de récurrence.
3°/ D’après 2°/ u est diagonalisable en une matrice réelle. En prenant une base orthonormée dans chaque sous-espace
propre E(λ) on obtient une base orthonormée de E qui diagonalise u.
n
Si M est une matrice symétrique réelle son endomorphisme canoniquement associé est symétrique dans r muni de sa
n
structure euclidienne usuelle. Donc M se diagonalise en une matrice réelle dans une base orthonormée der . Idem
n
avec une matrice hermitienne dans c .

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Exercice 24
u*u est un endomorphisme symétrique qui se diagonalise dans une base orthonormée (e1, ... ,en) en une matrice
(αi,j). D’autre part pour tout i et j distincts de {1, ... , n} on a ϕ(u(ei), u(ej)) = ϕ(u*u(ei), ej) = αi,j = 0 donc le système
(u(ej)) est orthogonal.
Exercice 25
n n
q étant un polynôme en xk, c’est une application continue de r dans r. La sphère unité S étant compacte dans r , q
est bornée dans B et atteint sa borne sup donc il existe x0 ∈ S telle que λ = Sup q( x ) = q(x0).
x =1

Si x ≠ 0 on a q1(x/||x||) = λ - q(x/||x||) ≥ 0 par conséquent la forme quadratique q1 est positive. Comme q1(x0) = 0, x0
appartient au cône isotrope de q1 donc au noyau de q1 (propriété du 2.2, (ii)). La matrice de q1 étant λI - M on a donc λ
x0 - M x0 = 0 donc λ est valeur propre réelle de M.
On termine par récurrence sur n comme dans l’exercice 22.
Exercice 26
n
En choisissant une base orthonormée pour ϕ on peut identifier E et r muni de son produit scalaire canonique. La
n
matrice de ω dans la base canonique B de r est une matrice symétrique M. Elle se diagonalise dans une base
n
orthonormée B’ de r (pour son produit canonique) : il existe donc une matrice inversible P telle que P-1MP = D,
matrice diagonale réelle. Mais P transforme une base orthonormée en une base orthonormée, c’est donc une matrice
orthogonale i.e P-1 = tP (voir 2.6). Donc D = tPMP est la matrice de ω dans la base B’ qui est donc une base
orthogonale pour ω.
Dans le cas hermitien E s’identifie à cn muni de son produit scalaire canonique, M est une matrice hermitienne et P est
une matrice unitaire i.e P-1 = t P . Donc P-1MP = t P MP = D, matrice diagonale. P est la matrice de passage de la
base canonique de cn à une base orthonormée B’’ (pour le produit scalaire canonique de cn) dans laquelle la matrice
de ω est diagonale, donc B’’ est une base orthogonale pour ω.
Exercice 27
Soient λ1, ... , λp les valeurs propres deux à deux distinctes de A. Alors λ5k sont des valeurs propres de A5 pour
k ∈ {1, ... , p}, deux à deux distinctes. A5 étant symétrique elle est diagonalisable donc
rn = ⊕ Ker (A5 − µ k5 I ) où les µ k5 pour k ∈ {1, ... , q} sont les valeurs propres distinctes deux à deux de A5. A étant
1≤ k ≤ q
n
symétrique on a r = ⊕ Ker(A - λkI) et de plus Ker(A - λk) ⊂ Ker(A5 - λ5k I) et { λ5k / 1 ≤ k ≤ p } ⊂ { µ k5 / 1 ≤ k ≤ q}
1≤ k ≤ p

: cela exige p = q et Ker(A - λkI) = Ker(A5 - λ5k I) pour 1 ≤ k ≤ p. On en déduit qu’une base qui diagonalise A5
diagonalise aussi A.
Si A5 = B5, une base qui diagonalise A5 (= B5) diagonalise donc aussi A et B; l’application x x5 étant injective de r
dans r on en déduit que A = B.
Exercice 28
Il existe une base (e1, ... , en) de E dans laquelle la matrice de u est triangulaire supérieure ce qui signifie que
u(<e1, … , ek>) ⊂ <e1, … , ek> pour 1 ≤ k ≤ n. Le procédé d’orthogonalisation de Gram-Schmidt fournit une base
(f1, ... , fn) orthonormée. Comme Vect(e1, ... , ek) = Vect(f1, ... , fk) pour 1 ≤ k ≤ n la matrice de u dans la base (f1, ... , fn)
reste triangulaire supérieure.
Si u est autoadjoint il existe donc une base orthonormée dans laquelle la matrice M de u est triangulaire supérieure. M
est donc une matrice autoadjointe i.e M = tM, et comme M est triangulaire supérieure cela équivaut à M diagonale
réelle.
Exercice 29
1°/ Pour tout x de E on a, u étant normal :
||u(x)||2 = ϕ(u(x), u(x)) = ϕ(x, u*u(x)) = ϕ(x, uu*(x)) = ϕ(u*(x), u*(x)) = ||u*(x)||2.

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Pour tout (λ, x) ∈ c×E on a alors : ||u(x) - λx|| = ||(u - λIdE)(x)|| = ||(u - λIdE)*(x)|| = ||(u* - λ IdE)(x)||
2°/ Résulte immédiatement du 1°/.
3°/ Soient x et y tels que u(x) = λx et u(y) = µy. On a ϕ(u(x), y) = λϕ(x, y) d’une part et ϕ(x, u*(y)) d’autre part.
D’après 2°/ on a u*(y) = µ y donc ϕ(x, u*(y)) = ϕ(x, µ y) = µϕ(x, y). Par suite λϕ(x, y) = µϕ(x, y). λ et µ
étant distinct il s’ensuit que ϕ(x, y) = 0 donc les sous-espaces propres E(λ) et E(µ) sont orthogonaux.
4°/ Récurrence sur n. Si n = 1 le résultat est évident (tout endomorphisme est diagonalisable).
Supposons le résultat établi pour tout espace vectoriel de dimension ≤ n. Soit E un espace hermitien de dimension
n + 1 et u un endomorphisme normal de E. Si λ est une valeur propre de u on a E = E(λ) ⊕ E(λ) ⊥ . Comme E(λ) est
stable par u, E(λ) ⊥ est stable par u*. La restriction de u* à E(λ) ⊥ étant un endomorphisme normal, l’hypothèse de
récurrence fournit une base orthonormée de E(λ) ⊥ qui diagonalise u*/ E(λ) ⊥ . D’après 2°/ les élément de cette base
sont aussi des vecteurs propres de u. Par conséquent en réunissant une base orthonormée de E(λ) et B on obtient une
base orthonormée de E qui diagonalise u.
Exercice 30
condition nécessaire : soit u un endomorphisme normal. Dans une base orthonormée u a pour matrice
⎛ λ1 ⎞ ⎛ λ1 ⎞
⎜ ⎟ ⎜ ⎟
M= ⎜ ⎟ avec λk ∈ c. Dans cette base la matrice de u* est donc M = ⎜ ⎟ . Soit P un polynôme
⎜ ⎜ ⎟
⎝ λ n ⎟⎠ ⎜
⎝ λn ⎟⎠
de c[X] tel que P(λk) = λk pour 1 ≤ k ≤ n (on peut prendre le polynôme de Lagrange relatif aux points λk et λk , et on
aura d°P ≤ n). On a P(M) = M donc P(u) =u*.
condition suffisante : claire.
Exercice 31
Lemme : soit u un endomorphisme d’un espace vectoriel réel E. Alors u admet des sous-espace vectoriel globalement
invariants de dimension 1 ou 2.
Démonstration du lemme : si le polynôme µ de u a un facteur de degré 1, u admet une valeur propre donc u possède un
sous-espace vectoriel invariant de dimension 1. Sinon soit P = X2 + αX + β un de ses facteurs. Si x est un élément non
nul de F = Ker(u2 + αu + βIdE), u(x) n’est pas colinéaires à x (sinon la restriction de u à F aurait une valeur propre
réelle donc P aurait une racine réelle) et donc le sous-espace vectoriel <x, u(x)> engendré par x et u(x) est invariant
(car u2(x) = -αu(x) - βx) et de dimension 2, d’où le lemme.
Soit u un endomorphisme orthogonal de E espace euclidien. Grâce au lemme on montre facilement par récurrence sur
n = dim E que E est somme directe orthogonale d’espace invariants de dimension 1 ou 2. Toute valeur propre de u
étant égale à +1 ou -1 et tout endomorphisme orthogonal d’un espace vectoriel réel de dimension 2 ayant pour matrice
⎛ cosθ k − sin θ k ⎞
⎜⎜ ⎟⎟ dans une base orthonormée on a le résultat.
⎝ sin θ k cosθ k ⎠
Si u est de déterminant 1, il y-a un nombre pair de -1 sur la diagonale et donc la matrice M de u est diagonale par blocs
⎛ cosθ k − sin θ k ⎞
avec Ck = ⎜⎜ ⎟⎟ sur la diagonale (avec éventuellement θk = π (2π).
⎝ sin θ k cosθ k ⎠
Pour montrer que O+(n) est connexe par arcs il suffit de montrer qu’il existe un arc joignant la matrice identité In à M
dans Mn(r). Soit γ l’application de [0; 1] dans Mn(r) qui à t associe matrice diagonale par blocs avec
⎛ cos tθ k − sin tθ k ⎞
Ck = ⎜⎜ ⎟⎟ sur la diagonale. Alors γ est continue, γ(0) = In et γ(1) = M, d’où le résultat.
⎝ sin tθ k cos tθ k ⎠

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

Correction des exercices complémentaires

II/ Soit λ une valeur propre de u et x un vecteur propre associé. On a u(x) = λx d'où P(u)(x) = P(λ)x, donc P(λ) est
valeur propre de P(u).
Réciproquement si µ est une valeur propre de P(u) alors l'endomorphisme P(u) - µ IdE n'est pas injectif, et en posant Q
= P - µ. = (X - α1) ... (X - αp), l'endomorphisme Q(u) = (u - α1 IdE) ... (u - αp IdE) non plus. Cela implique qu'il existe
j ∈ {1, ... , p} tel que u - αj IdE n'est pas injectif, donc αj est valeur propre de u. Comme Q(αj) = 0, on a P(αj) = µ ce
qui achève le démonstration.

© Christian Squarcini 2003


Réduction des matrices; espaces euclidiens et préhilbertiens

IV Soit E un espace vectoriel sur c et G un sous-groupe fini de L(E). Montrer que les éléments de G sont
diagonalisables.
Soit m = Card G. Tous les éléments f de G vérifient alors f m = IdE (Chapitre groupes, proposition de 3.1). le polynôme
Xm - 1 est scindé et annule tout f de G, donc f est diagonalisable (1.2, propriété, (iv)).

V Soit E un espace vectoriel sur c de dimension n ≥ 2. Soient f1, f2, ... , fp des endomorphismes de E tels
que :
fi o fi = - IdE et fi o fj + fj o fi = OE si i ≠ j.
Déterminer Tr(fi) et Sp(fi).
Le polynôme X 2 + 1 annule les fk, donc le spectre Sp(fk) est inclus dans {- i, i}.
fk n'étant pas une homothétie (sinon fk = λId et on aurait pour k ≠ j, fk o fj + fj o fk = λfj = 0, donc λ = 0 ou fj = 0, ce qui
contredit que fq o fq = - IdE pour tout q de {1, … , p}), on a Sp(fk) = {- i, i}.
De plus X 2 + 1 n'ayant que des racines simples, fk est diagonalisable donc E = Ker(fk + iId) ⊕ Ker(fk - iId).
Si x ∈ Ker(fk + iId) on a fk(x) = - ix, et si k ≠ j, fj (fk(x)) = - i fj (x) d'une part et fj (fk (x)) = - fk (fj (x)) (par hypothèse)
donc - i fj (x) = - fk (fj (x)) et par conséquent fj (x) ∈ Ker(fk - iId). Ainsi fj envoie Ker(fk + iId) dans Ker(fk - iId). Comme
fj o fj = - IdE, fj est injective donc dim Ker(fk + iId) ≤ dim Ker(fk - iId). Un raisonnement analogue montre que fj envoie
Ker(fk - iId) dans Ker(fk + iId) donc on a dim Ker(fk + iId) = dim Ker(fk - iId) et n est donc pair.
⎛ iI 0 ⎞
La matrice de fk dans une base qui diagonalise fk est donc ⎜ n / 2 ⎟ . Ainsi Tr fk = 0.
⎝ 0 −iI n / 2 ⎠

© Christian Squarcini 2003

Vous aimerez peut-être aussi