Vous êtes sur la page 1sur 14

Licence de mathématique

Université Paris-Saclay

Diagonalisation de matrice

Y.Caillard

Université de Versailles Saint-Quentin-en-Yvelines


2022
1 Réduction d’endomorphisme.

1.1 Vecteurs propres.

Définition 1.1.1 Soit f ∈ L(E). Un vecteur v ∈ E est dit vecteur propre de f si :


(i) v ̸= 0
(ii) ∃λ ∈ K : f (v) = λv

Le scalaire λ est dit valeur propre associée à v.

Remarque 1.1.2
(i) Par définition, les vecteurs propres sont non nuls. En revanche, la valeur propre
peut être nulle, en effet : les vecteurs de Ker(f ) sont les vecteurs propres
correspondant à la valeur propre λ = 0
car v ∈ Ker(f ) ⇐⇒ f (v) = 0 = 0 · v.
(ii) Si v est un vecteur propre correspondant à la valeur propre λ, alors ∀µ ∈ K∗ ,
µv est aussi vecteur propre correspondant à la même valeur propre λ :

f (µv) = µf (v) = µ(λv) = λ(µv)


Ainsi, les vecteurs propres sont soit les vecteurs du noyau, soit les vecteurs ne
changeant pas de direction sous l’action de f .

L’intérêt des vecteurs propres résident dans le théorème suivant :

Théorème 1.1.3 L’application f ∈ L(E) est diagonalisable si et seulement si il


existe une base de E formée de vecteurs propres. □

Preuve. Si B = (v1 , . . . , vn ) est une base formée de vecteurs propres correspondants


aux valeurs propres λ1 , . . . , λn , on :

f (v1 ) = λ1 v1 , f (v2 ) = λ2 v2 , ... , f (vn ) = λn vn


3

Ainsi :

··· 0
 
λ1 0
.. .

0 λ2 . .. 
MB (f ) = 
 
.. .. .. 
 . . . 0 
0 · · · 0 λn

Et donc f est diagonalisable. Réciproquement, s’il existe une base C = (e1 , . . . , en )


telle que MC (f ) est diagonale :

a1,1 0 · · ·
 
0
. .. 
 0 a2,2 . . . 

MC (f ) =  . . .
 .. .. ..

0 
0 · · · 0 an,n

Par définition de la matrice d’une application linéaire, on a donc en regardant les


colonnes : f (e1 ) = a1,1 e1 , f (e2 ) = a2,2 e2 , . . . , f (en ) = an,n en , ce qui signifie que les
vecteurs e1 , . . . , en sont des vecteurs propres. ■

1.2 Recherche des valeurs propres et Polynôme


caractéristique.
Soit λ une valeur propre de f , il existe donc un vecteur v ∈ E non nul tel que
f (v) = λv. C’est-à-dire (f − λId)(v) = 0, en effet :

f (v) = λv ⇐⇒ f (v) − λv = 0 ⇐⇒ f (v) − λId(v) = (f − λId)(v) = 0

Cela signifie donc que v ∈ Ker(f − λId), et puisque v est non nul, l’application
(f − λId) n’est pas injective soit :

det(f − λId) = 0

Si B est une base de E et :

 
a1,1 a1,2 · · · a1,n
 a2,1 a2,2 · · · a2,n 
MB (f ) = 
 
.. .. ... .. 
 . . . 
an,1 an,2 · · · an,n
4 1 Réduction d’endomorphisme.

La condition pour que λ soit une valeur propre de f s’écrit :

a1,1 − λ a1,2 ··· a1,n


a2,1 a2,2 − λ ··· a2,n
.. .. ... .. =0
. . .
an,1 an,2 ··· an,n − λ

En développant ce déterminant, on tombe sur un polynôme en λ dont les racines sont


les valeurs propres de f .
Proposition 1.2.1 Soit f ∈ L(E).

λ est une valeur propre ⇐⇒ det(f − λId) = 0

Proposition 1.2.2 Soient E un espace vectoriel de dimension finie n et f ∈ L(E)


un endomorphisme de E. Les valeurs propres de f sont les racines dans K du polynôme :

Pf (λ) := det(f − λId)

C’est un polynôme de degré n en λ, appelé polynôme caractéristique de f .

Exemple 1.2.3 Soit f : R2 → R2 , l’endomorphisme qui dans la base canonique B


est représenté par la matrice :

 
1 2
MB (f ) =
2 1
λ est valeur propre de f si et seulement si det(f − λId) = 0, on a :

1−λ 2
Pf (λ) = = (1 − λ)2 − 22 = (3 − λ)(−1 − λ)
2 1−λ

Donc les valeurs propres de f sont λ1 = 3 et λ2 = −1

Remarque 1.2.4 Il est important de noter que le polynôme caractéristique dépend


de f et non pas de la base B choisie, car le déterminant d’un endomorphisme ne
dépend pas du choix de la base dans laquelle on le calcule.

Définition 1.2.5
L’ensemble des valeurs propres de f est dit spectre de f , noté SpK (f ).
Il est important de remarquer que l’indice K est important pour la raison suivante :
Si l’on considère la matrice :
5

 
2 1
A=
−5 −2

2−λ 1
On a : PA (λ) = = λ2 + 1
−5 −2 − λ

Ainsi, si l’on considère A comme matrice de M2 (C), alors elle a deux valeurs propres :
+i et −i. En revanche, si A est considérée comme une matrice de M2 (R), alors elle
n’aura pas de vecteurs propres. En d’autres termes, on a :

SpC (A) = {−i, +i} , SpR (A) = ∅

1.3 Recherche des vecteurs propres

Une fois calculées les valeurs propres, il nous faut déterminer les vecteurs propres.
Pour se faire, il nous suffit de résoudre ce système linéaire :

Av = λv
où v désigne le vecteur propre associée à la valeur propre λ, A la matrice associée à f
dans la base B.
En effet, si A ∈ Mn (K), v ∈ Kn , le produit Av désigne les coordonnées de f (v) dans
la base B. Or, puisque v est un vecteur propre associé à la valeur propre λ, on a :
f (v) = λv, d’où Av = λv.

Remarque 1.3.1 Remarquons que le système linéaire peut aussi se réécrire :

Av = λv ⇐⇒ Av − λv = 0 ⇐⇒ (A − λId)v = 0

Exemple 1.3.2 Reprenons l’exemple 1.2.2 :


f est l’endomorphisme de R2 qui dans la base canonique B est défini par :
 
1 2
A = MB (f ) =
2 1
Les valeurs
 propres  de′ fsont λ1 = 3 et λ2 = −1. Il existe donc deux vecteurs propres
x x
v1 = ,v2 = tels que :
y y′
f (v1 ) = λ1 v1 et f (v2 ) = λ2 v2
6 1 Réduction d’endomorphisme.

(i) Calcul de v1 :
Il nous faut donc résoudre le système Av1 = λ1 v1 :
    
1 2 x x
=3
2 1 y y
Ce qui donne le système suivant :
( (
x + 2y = 3x −2x + 2y = 0
⇐⇒
2x + y = 3y 2x − 2y = 0


x
En le résolvant, nous obtenons x = y, ainsi, v1 = , et ce pour tout x ∈ R.
x
 
1
Les solutions sont donc engendrées par le vecteur v1 = , ou tout autre
1
vecteur colinéaire à celui-ci.

(ii) Calcul de v2 :
De la même manière, il nous faut résoudre le système Av2 = λ2 v2 :
  ′   ′ 
1 2 x x
′ = −1
2 1 y y′
Ce qui nous donne le système suivant :
( (
x′ + 2y ′ = −x′ 2x′ + 2y ′ = 0
⇐⇒
2x′ + y ′ = −y ′ 2x′ + 2y ′ = 0
 
1
dont les solutions sont engendrées par le vecteur v2 = , ou tout autre
−1
vecteur colinéaire à celui-ci.
Il est facile de voir que la famille F = (v1 , v2 ) est une base de R2 car
det(v1 , v2 ) ̸= 0. Par conséquent, f est diagonalisable ( pq ) et :
 
3 0
MF (f ) =
0 −1

1.4 Caractérisation des endomorphismes


diagonalisables

Définition 1.4.1 Soit λ ∈ K. On note :

Eλ := {v ∈ E|f (v) = λv}


7

Eλ est un sous-espace vectoriel de E dit espace propre correspondant à λ.


Remarquons que Eλ peut-être définie de manière équivalente de la façon suivante :

Eλ = Ker(f − λId)
En effet, Eλ représente l’ensemble des vecteurs propres de f , or, si v est un vecteur
propre de f associée à sa valeur propre λ, alors on a :
f (v) = λv ⇐⇒ f (v) − λv = 0 ⇐⇒ (f − λId)(v) = 0 ⇐⇒ v ∈ Ker(f − λId).
Ainsi, l’ensemble des vecteurs propres sont l’ensemble des vecteurs appartenant à
Ker(f − λId). (à faire relire )

Théorème 1.4.2 Soit f ∈ L(E).


Soient λ1 , . . . , λp ∈ Sp(f ) et telles que λ1 ̸= . . . ̸= λp .
Soient u1 , . . . , up : p vecteurs propres de f associés respectivement à la valeur propre
λ1 , . . . , λp . Alors :

La f amille (u1 , . . . , up ) est libre.

Preuve. Par récurrence sur p ∈ N∗


Hypothèse de récurrence (H.R.) :

Soient λ1 , . . . , λp ∈ Sp(f ) et telles que λ1 ̸= . . . ̸= λp .


Soient u1 , . . . , up : p vecteurs propres de f associés respectivement à la valeur propre
λ1 , . . . , λp . Alors : la famille (u1 , . . . , up ) est libre.

Initialisation : pour p=1 :


u1 est un vecteur propre associée à la valeur propre λ1 , ainsi, u1 ̸= 0. Donc nécessaire-
ment la famille (u1 ) est libre.

Hérédité :
Supposons que l’hypothèse de récurrence (H.R.) est vérifiée au rang p. Montrons
qu’elle est vraie au rang p + 1, c’est-à-dire :
Soient λ1 , . . . , λp , λp+1 ∈ Sp(f ) et telles que λ1 =
̸ . . . ̸= λp+1 . Et soient u1 , . . . , up+1 :
p + 1 vecteurs propres de f associés respectivement à λ1 , . . . , λp+1 . Montrons que la
famille (u1 , . . . , up+1 ) est libre :

Soient µ1 , . . . , µp+1 ∈ K telles que :

(⋆) : µ1 u1 + . . . + µp+1 up+1 = 0E


En appliquant f et puisque f est linéaire, on obtient :

f (µ1 u1 + . . . + µp+1 up+1 ) = µ1 f (u1 ) + . . . + µp+1 f (up+1 ) = f (0E ) = 0E


8 1 Réduction d’endomorphisme.

(⋆⋆) : µ1 λ1 u1 + . . . + µp+1 λp+1 up+1 = 0E

Maintenant, faisons λp+1 × (⋆) − (⋆⋆) :

λp+1 µ1 u1 + . . . + λp+1 µp+1 up+1 − µ1 λ1 u1 − . . . − µp+1 λp+1 up+1 = 0E


⇐⇒ µ1 u1 (λp+1 − λ1 ) + µ2 u2 (λp+1 − λ2 ) + . . . + µp up (λp+1 − λp ) = 0E
⇐⇒ u1 K1 + u2 K2 + . . . + up Kp = 0E

Or, par l’hypothèse de récurrence, la famille (u1 , . . . , up ) est libre donc :

K1 = K2 = . . . = Kp = 0E ⇐⇒ µ1 (λp+1 − λ1 ) = . . . = µp (λp+1 − λp ) = 0E
Ce qui implique nécessairement : µ1 = µ2 = . . . = µp = 0E car tous les λi sont
distincts. Finalement, par (⋆) on obtient :

µ1 u1 + . . . + µp+1 up+1 = µp+1 up+1 = 0E


Et puisque up+1 est un vecteur propre de f , il est non nul donc nécessairement
µp+1 = 0. Nous venons donc de montrer que la famille (u1 , . . . , up+1 ) est libre. ■

Corollaire 1.4.3 Soient λ1 , . . . , λp ∈ Sp(f ) telles que λ1 ̸= . . . ̸= λp . Alors les es-


paces propres Eλ1 , . . . , Eλp sont en somme directe, c’est-à-dire :

Eλ1 ⊕ . . . ⊕ Eλp est une somme directe.

Preuve. Soient xi ∈ Eλi , ∀i ∈ {1, 2 . . . , p}.


Afin de montrer que Eλ1 , . . . , Eλp sont en sommes directes, il nous faut montrer que
si l’on a x1 + x2 + . . . + xp = 0, alors nécessairement x1 = . . . = xp = 0.
Supposons donc par l’absurde qu’il existe au moins un xi ̸= 0. Notons
Y = {y1 , . . . , yq } = {xi | xi ̸= 0} Nous savons par définition de Eλk que xk est un
vecteur propre associée à la valeur propre λk . Notons y1 , . . . , yq les xi ̸= 0, on a :

x1 + x2 + . . . + xp = 0 + . . . + y1 + . . . + 0 + . . . + yq + . . . + 0 = y1 + y2 + . . . + yq = 0

Nous savons que la famille (y1 , . . . , yq ) est libre par le théorème précédent car compo-
sée de vecteurs propres. Or, par l’égalité précédente, on a :

yq = −y1 − y2 − . . . − yq−1
9

Donc yq est combinaison linéaire de y1 , . . . , yq−1 et la famille (y1 , . . . , yq ) est liée.


Ce qui est absurde. Ainsi, ∀i ∈ {1, . . . , p}, xi = 0, et Eλ1 , . . . , Eλp sont en sommes
directes. ■

Théorème 1.4.4 Soit f ∈ L(E) et λ1 , . . . , λp les valeurs propres de f .


Alors les propriétés suivantes sont équivalentes :

(i) f est diagonalisable.


(ii) E est somme directe des espaces propres : E = Eλ1 ⊕ . . . ⊕ Eλp
(iii) dimE = dimEλ1 + . . . + dimEλp □

Preuve. à faire ■

Corollaire 1.4.5 Si f admet n valeurs propres toutes distinctes, alors f est diago-
nalisable.

Rappel 1.4.6
(i) Soit P ∈ K[X], a ∈ K est dite racine de P si P (a) = 0. Dans ce cas, on a :

P (X) = (X − a)Q(X)
Où Q(X) ∈ K[X].
(ii) Si l’on peut écrire P de la forme :

P (X) = (X − a)k Q(X)


On dit alors que a ∈ K est racine d’ordre k de P .
(iii) Soit P ∈ K[X] de degré n. On dit que P est scindé dans K si P admet n
racines dans K.
Ainsi, par exemple :

P (X) = X 2 − 5X + 6 = (X − 2)(X − 3)
est scindé dans R. En revanche, le polynôme :

P (X) = X 2 + 1
est scindé dans C mais pas dans R.
Un polynôme P est donc scindé si et seulement si :
p
Y
(⋆) P (X) = a (X − ak )αk = a(X − a1 )α1 . . . (X − ap )αp
k=1

Avec a ∈ K, α1 + . . . + αp = n et ∀i ̸= j : ai ̸= aj .
Tout polynôme de C[X] est scindé dans C.
10 1 Réduction d’endomorphisme.

Proposition 1.4.6 Soit f ∈ L(E) et λ une valeur propre d’ordre α, alors :

dimEλ ≤ α

Preuve. à faire. ■

Théorème 1.4.7 Soit f ∈ L(E). Alors f est diagonalisable si et seulement si :

(i) Pf (λ) est scindé dans K.


(ii) Pour chaque valeur propre λi de multiplicité αi , on a : dim Eλi = αi

Preuve. à faire. ■

Exemple 1.4.8  
−1 1 1
A =  1 −1 1 
1 1 −1
On obtient PA (λ) = (1−λ)(λ+2)2 . Donc A est diagonalisable si et seulement si l’espace
propre E−2 est de dimension 2. On a E−2 = Ker(A + 2I3 ). Il nous faut donc trouver
tous les vecteurs
dansKer(A + 2I3 ). Pour se faire résolvons le système (A + 2I3 )v = 0.
x
En effet, si v =  y , on a vu que v ∈ Ker(f − λId) ⇐⇒ (f − λId) = 0, d’où :
z

x + y + z = 0
 n
x + y + z = 0 ⇐⇒ z = −x − y

x+y+z =0

Ainsi :
     
x 1 0
v= y  = x  0  + y  1  = xv1 + yv2
−x − y −1 −1

Ainsi, Ker(A + 2I3 ) = V ect(v1 , v2 ), donc dim(E−2 ) = 2. Ainsi, f est diagonalisable.


Pour E1 , on obtient le système :
( (
−2x + y + z = 0 x=z
⇐⇒
x − 2y + z = 0 y=z
 
1
Donc en prenant z = 1, on obtient Ker(A − Id3 ) = V ect(v3 ) avec v3 =  1 .
1
On obtient alors les matrices Q et P telle que :
11

   
−2 0 0 1 0 1
Q =  0 −2 0  P = 0 1 1 
0 0 1 −1 −1 1

Et telle que A est semblable à Q :

Q = P −1 AP

Méthode générale 1.4.9

(i) Déterminer les valeurs propres en trouvant les racines du polynôme caractéris-
tique :

Pf (λ) := det(f − λId)

(ii) Calculer les différents espaces propres Eλ = Ker(f − λId). Vérifier que pour
chaque valeur propre λi de multiplicité αi , on a : dim(Eλi ) = αi . Si tel est le cas,
f est diagonalisable, et les vecteurs propres de f associées à la valeur propre λ
sont ceux formant une base de Eλ . Ces vecteurs nous permettent de former une
base composées de vecteurs propres.
(iii) Maintenant, il nous faut obtenir Q et P telle que si l’on note B la base canonique
et C notre base formées de vecteurs propres :

Q = MC (f ) P = MC→B (Id)
Et ainsi, par définition de ces matrices :
 
λ1 0 ... 0
. .
0 λ2 . . ..
 
Q= P = (v1 , v2 . . . , vn )
 
.. ... ... 
 . 0 
0 . . . 0 λn
où λi est une valeur propre associée au vecteur propre vi de f .

(iv) Enfin, nous pouvons exprimer A à l’aide de ces deux matrices par la formule du
changement de base d’un endomorphisme :

A = P QP −1
12 1 Réduction d’endomorphisme.

Exemple 1.4.10
Soit A ∈ M2 (R), la matrice associée à l’application linéaire f dans la base canonique
B = (e1 , e2 ) :
 
2 1
A=
1 2

Déterminons les racines du polynômes caractéristiques Pf (λ) :

2−λ 1
= (2 − λ)2 − 1 = (1 − λ)(3 − λ)
1 2−λ
Ainsi, on a SpR (f ) = {1, 3}. Par ailleurs, on a :

1 ≤ dim(E1 ) ≤ 1 ⇐⇒ dim(E1 ) = 1

Notons que la partie droite de l’inégalité correspond à la multiplicité de la valeur


propre 1.
1 ≤ dim(E3 ) ≤ 1 ⇐⇒ dim(E3 ) = 1

Déterminons maintenant une base de E1 et de E3 :


 
x
(i) v = ∈ E1 ⇐⇒ Av = 1v ⇐⇒ (A − I2 )v = 0. Ce système se traduit par :
y
(
x+y =0 n
=⇒ x = −y
x+y =0
   
−y −1
Soit donc v = =y = yv1
y 1
Ainsi, E1 = V ect(v1 ).
 ′ 
x
(ii) v = ∈ E3 ⇐⇒ (A − 3I2 )v = 0 :
y′
(
−x + y = 0 n
=⇒ x = y
x−y =0
   
y 1
Soit donc v = =y = yv2
y 1
Ainsi, E3 = V ect(v2 ). Posons donc C = (v1 , v2 ) : une base de R2 formée de
vecteurs propres. Pour rappel, f est diagonalisable s’il existe une base C formée
de vecteurs propres. Puisque :

Av1 = 1v1 + 0v2


13

Av2 = 0v1 + 3v2

On a :

 
1 0
Q = MC (f ) =
0 3
Et de la même manière, on a :

v1 = −e1 + e2

v2 = e1 + e2

Et :
 
−1 1
P = MC,B (Id) =
1 1

Par la formule du changement de base d’un endomorphisme, on a A = P QP −1 .


Et par récurrence on a : ∀n ≥ 1 : An = P Qn P −1 .
Après calcul, on obtient la matrice inverse de P :
 
−1 1 −1 1
P =
2 1 1

Et ainsi :
   
n1 −1 1 1 0 −1 1
A =
2 1 1 0 3n 1 1

 
n 1 1 + 3n −1 + 3n
A =
2 −1 + 3n 1 + 3n

En remplaçant n par 1, on obtient bien la matrice A :


     
1 1 1 + 3 −1 + 3 1 4 2 2 1
A = = =
2 −1 + 3 1 + 3 2 2 4 1 2
14 1 Réduction d’endomorphisme.

Application aux suites 1.4.11


Notre objectif est de déterminer l’ensemble des suites (un )n∈N telle que :

(⋆) : un+2 + aun+1 + bun = 0

On appelle équation caractéristique de (⋆) l’équation :

(⋆⋆) : r2 + ar + b = 0

Il y a donc 3 cas qui se présentent :

(i) ∆ > 0 :
Dans ce cas, il y a deux racines distinctes r1 et r2 . Les solutions sont alors de la
forme :

∃α, β ∈ K, un = αr1n + βr2n

(ii) ∆ = 0 :
Dans ce cas, il y a une seule racine double notée r et les solutions sont de la forme :

∃α, β ∈ K, un = (α + βn)rn

(iii) ∆ < 0 :
Nous obtenons dans ce cas deux racines complexes conjuguées : r1 = a + ib, r2 =
a − ib. Les solutions sont alors de la forme :

∃α, β ∈ K, un = αr1n + βr2n

Si les solutions recherchées sont réelles, on a en notant λ = |r1 |, θ = arg(r1 ) :

un = λn αcos(θn) + βsin(θn)

∃α, β ∈ R,

Preuve.

Vous aimerez peut-être aussi