Vous êtes sur la page 1sur 50

Université des Sciences et Technologies de Lille

U.F.R. de Mathématiques Pures et Appliquées

M201 : Algébre linéaire et affine 2

Notes de cours par Clément Boulonne

L2 Mathématiques 2007 - 2008


Table des matières

1 Déterminants 3
1.1 Formes multilinéaires alternés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Déterminants d’une matrice (carrée) . . . . . . . . . . . . . . . . . . . . 9
1.3.3 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Méthodes de calcul de déterminants . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.1 Développement par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.2 Développement selon une ligne et une colonne . . . . . . . . . . . . . . . 14
1.5 Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2 Réduction d’endomorphismes 20
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1 Valeurs propres - Vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Polynômes caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3 Endomorphismes diagonalisables . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.5 Sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.6 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.7 Polynôme minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.8 Décomposition de Dunford . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

3 Systèmes différentielles linéaires 37


3.1 Exponentielle de matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2 Systèmes différentielles linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2.1 Résolution des systèmes homogènes . . . . . . . . . . . . . . . . . . . . . 39
3.2.2 Cas général, variation de la constante . . . . . . . . . . . . . . . . . . . . 42
3.2.3 Application aux équations différentielles d’ordre n . . . . . . . . . . . . . 43
3.3 Exemples en dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.1 Systèmes homogènes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.2 Equations différentielles du second ordre . . . . . . . . . . . . . . . . . . 45
3.4 Etudes d’exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

2
Chapitre 1

Déterminants

Préléminaires
On note E un espace vectoriel de dimension n sur R. Dans le cours, on met des flèches pour
représenter des vecteurs. Ici, on ne les mettra pas.

1.1 Formes multilinéaires alternés


Définition 1.1.1. E1 , ..., Ep , F des espaces vectoriels sur R. Une application :

E1 × E2 × ... × Ep → F
ϕ:
(x1 , ..., xp ) 7→ ϕ(x1 , ..., xp )

est dite multilinéaire si en tout point, les p applications partielles sont linéaires (ϕ est linéaire
par rapport à chacune des variables).
Si on fixe i ∈ {1, ..., p} et ∀j 6= i, on fixe un vecteur xj .

Ei → F
ϕi : x 7→ ϕ(x1 , ..., xi−1 , |{z}
x , xi−1 , ..., xp )
| {z } | {z }
fixés variable fixés

ϕ est dite multilinéaire si ∀i les ϕi sont linéaires.


Rappel. ϕi est linéaire si :
ϕi (λx + µy) = λϕi (x) + µϕi (y)
∀(λ, µ) ∈ R2 et (x, y) ∈ Ei2 .
Si F = R, on parle de formes p-linéaires.
Si p = 1, c’est une forme linéaire.
Si p = 2, c’est une forme bilinéaire.

Exemple 1.1.1. R2 , a = (a1 , a2 ) et b = (b1 , b2 )

ϕ(a, b) = a1 b2 − a2 b1

C’est en fait :
a b1
1
a2 b2

3
4 Chapitre 1. Déterminants

Définition 1.1.2. Une forme p-linéaire sur E (tous les Ei sont égaux à E) est dite alternée si :

ϕ(x1 ..., xp ) = 0

chaque fois que deux vecteurs parmi xi sont égaux (avec 1 ≤ i ≤ p).

E × ... × E → R
ϕ:
(x1 , ..., xp ) 7→ ϕ(x1 , ..., xp )
Propriété 1.1.1. Soit ϕ une forme p-linéaire alternée sur E, on change pas la valeur de
ϕ(x1 , ..., xp ) en ajoutant à un des vecteurs xi une combinaison linéaire des autres.
Exemple 1.1.2.
ϕ(a, b) = ϕ(a, b + λa)

a
1 b1 + λa1
= a1 (b2 + λa2 ) − a2 (b1 + λa2 )
a2 b2 + λa2

= a1 b1 + λa1 a2 − a2 b1 − λa1 a2 = a1 b2 − a2 b1
Démonstration de la Propriété 1.1.1. On considère x1 , ..., xp des vecteurs de E, λ1 , ..., λp des
scalaires (des éléments) de R. On calcule :
n
X
ϕ(x1 , x2 , ..., xi−1 , xi + λk xk , xi+1 , ..., xp )
k=1,k6=i

n
X
= ϕ(x1 , x2 , ..., xi−1 , xi , xi+1 , ..., xp ) + ϕ(x1 , ..., xi−1 , λk xk , xi+1 , ..., xp )
k=1,k6=i
n
X
= ϕ(x1 , ..., xp ) + ϕ(x1 , ..., xi−1 , xk , xi+1 , ..., xp )
k=1,k6=i
| {z }
=0
n
X
ϕ(x1 , ..., xi−1 , xi , xi+1 , .., xp ) = 0 car ϕ est alternée.
k=1,k6=i

Conséquence. ϕ(x1 , ..., xp ) = 0 si les vecteurs x1 , ..., xp sont linéairement dépendants.


Rappel. x1 , ..., xn linéairement dépendants ⇒ ∃(λ1 , .., λp ) 6= 0 tel que

λ1 x1 + ...λp xp = 0

⇒ l’un des vecteurs peut s’écrire comme combinaison linéaire des autres.

1.2 Permutations
Définition 1.2.1. ∀n ∈ N∗ , on appelle groupe des permutations de {1, ..., n} noté Sn (ou Σn )
le groupe des bijections de {1, ..., n} → {1, ..., n} et on a card(Sn ) = n!.
Exemple 1.2.1. n = 2 alors Sn est :

{1, 2} → {1, 2}
( ! !)
1 2 1 2
S2 = Id = , τ1,2 =
1 2 2 1
Il y a 2 permutations dans S2 .
Chapitre 1. Déterminants 5

Définition 1.2.2. On appelle transposition sur i et j, la permutation qui échange i et j (et


fixe les autres p ∈ {1, ..., n}\{i, j}).
!
1 2 3 ······ n
Notation. = permutation σ.
σ(1) σ(2) σ(3) · · · · · · σ(n)
!
1 2 3 ······ n
τ1,2 =
2 1 3 ······ n

Theorème 1.2.1. Tout permutation se décompose en produit de transpositions (produit au


sens de composition). Le produit n’est pas unique mais pour σ ∈ Sn fixé, la parité du nombre
de transposition dans la décomposition de σ est fié.

Définition 1.2.3. Soit σ ∈ Sn , on appelle signature de σ notée ε(σ) le nombre appartenant à


{−1, 1} définie par : Y
(σ(i) − σ(j))
1≤i<j≤n
ε(σ) = Y
(i − j)
1≤i<j≤n

Propriété 1.2.2. Soient σ et σ 0 ∈ Sn alors ε(σ ◦ σ}0 ) = ε(σ).ε(σ 0 ).


| {z
σ.σ 0

Proposition 1.2.3. Soit ϕ une forme p-linéaire sur E. Alors ϕ est alternée si et seulement si
pour toute permutation σ ∈ Sp et ∀(x1 , ..., xp ) ∈ E p , on a :

ϕ(xσ(1) , xσ(2) , ..., xσ(p) ) = ε(σ) × ϕ(x1 , ..., xp )

Exemple 1.2.2. a = (a1 , a2 ), b(b1 ) = b2 alors ϕ(a, b) = a1 b2 − a2 b1 forme bilinéaire alternée :



b a1
1
ϕ(b, a) = = b1 a2 − b2 a1 = −ϕ(a, b)
b2 a2

Proposition 1.2.4. Soit ϕ une forme p-linéaire sur E. Alors ϕ est alternée si et seulement si
pour toute transposition τ ∈ Sp et pour tout (x1 , ..., xp ) ∈ E p :

ϕ(xτ (1) , xτ (2) , ..., xτ (p) ) = −ϕ(x1 , ..., xp )

Démonstration. “⇒” On suppose que ϕ alternée. Soient i, k des indices appartenant à


{1, ..., p}. On suppose que i < k et on note τik la transposition qui échange i et k.
Cela veut dire que τ (i) = k, τ (k) = i et ∀h ∈ {1, ..., p}, τ (h) = h.

ϕ(x1 , ..., |xi + x , x , ..., xk−1 , x


{z k} i+1
+ x , xk−1 , ..., xp ) = 0
| k {z }i
ième place kième place

ϕ(x1 , ..., i x , ..., xk , ..., xp )


|{z} |{z}
ième place kème place
+ϕ(x1 , ..., xk , ..., x
i , ..., xp )
|{z} |{z}
ième place kème place

C’est-à-dire :
0 = ϕ(x1 , ..., xp ) + ϕ(xτ (1) , ..., xτ (k) , ..., xτ (i) , ..., xp )
D’où le résultat.
6 Chapitre 1. Déterminants

“⇐” On suppose que toute transposition τ , on a ϕ(xτ (1) , ..., xτ (p) ) = −ϕ(x1 , ..., xp ) et on
démontre que ϕ est alternée c’est-à-dire qu’elle s’annule chaque fois que deux vecteurs du
p-uplet (x1 , ..., xp ) sont égaux.
Soit i < k, i, k ∈ {1, ..., p}. On suppose xi = xk et on démontreue :
ϕ(x1 , ..., xi , ..., xk , ..., xp ) = 0
ϕ(xτ (1) , ..., xτ (p) ) = −ϕ(x1 , ..., xi , ..., xk , ..., xp )
= ϕ(x1 , ..., xk , ..., x i , ..., xp )
|{z} |{z}
iième place kième place

= ϕ(x1 , ..., |{z} xk , ..., xp )


xi , ..., |{z}
=xk x=i
d’où le résultat :
ϕ(x1 , ..., xp ) = 0 et xi = xk

1.3 Déterminants
1.3.1 Définitions et propriétés
Theorème 1.3.1. Soit E un espace vectoriel sur R de dimension n. L’ensemble des formes n-
linéaires alternés sur E est un espace vectoriel sur R de dimension 1. De plus, si B = (e1 , ..., en )
est une base de E, il existe une unique forme n-linéaire alternée ∆ telle que ∆(e1 , ..., en ) = 1.
Démonstration. On se fixe une base B = (e1 , ..., en ). On considère des vecteurs x1 , ..., xn ∈ E.
Pour 1 ≤ j ≤ n, on note (xij )1≤i≤n les coordonnées de xj dans la base B.
n
X
xj = xij ei = x1j e1 + ... + xnj en
i=1

On considère une forme n-linéaire alternée ϕ.


n n
!
X X X
ϕ(x1 , ..., xn ) = ϕ xi1 ei , xi2 ei , .., xin ei
i=1 i=1 i=1
| {z } | {z }
x1 x2

En utilisant la linéarité de ϕ par rapport à chaque variable et le fait que ϕ soit alternée, on
obtient : X
ϕ(x1 , ..., xn ) = xσ(1)1 , ..., xσ(n)n ϕ(eσ(1) , ..., eσ(n) )
σ∈Sn
D’après la Proposition 1.2.3., c’est une somme sur toutes les permutations de Sn . On a donc :
X
ϕ(x1 , ..., xn ) = xσ(1)1 ...xσ(n)n ε(σ)ϕ(e1 , ..., en )
σ∈Sn
 
 
X 
×
ε(σ)xσ(1)1 ..xσ(n)n  ϕ(e1 , ..., en )


 
σ∈Sn
| {z }

| {z } constante qui
∆(x1 ,...,xn )
ne dépend pas des
vecteurs (x1 , ..., xn )
On doit montrer que ∆(x1 , ..., xn ) est une application multilinéaire alternée :
Chapitre 1. Déterminants 7

→ multilinéaire : évident.
→ alternés : si il existe i 6= j et xi = xj alors ∆(x1 , ..., xn ) = 0.
Soient (x1 , ..., xn ) des vecteurs de E et soit An groupe alternées tel que :

An = {σ ∈ Sn | ε(σ) = 1}

on suppose que xi = xk (on fixe i, k ∈ {1, ..., n}). On montre alors ∆(x1 , ..., xn ) = 0.
X
∆(x1 , ..., xn ) = ε(σ)xσ(1)1 ...xσ(n)n
σ∈S
Xn X
= ε(σ)xσ(1)1 + ... + xσ(n)n + ε(σ)xσ(1)1 ...xσ(n)n
σ∈A
Xn X σ6∈An
= xσ(1)1 ...xσ(n)n − xσ(1)1 + ... + xσ(n)n
σ∈An σ6∈An

On considère la transposition qui échange i et k ((xσ(1) , ..., xσ(n) ) = (x1 , ..., xn ) car xi =
xk ).
An → Sn \An
σ 7→ σ ◦ τ
σ ◦ τ = σ ◦ τ ⇔ σ ◦ τ ◦ τ −1 = σ 0 ◦ τ ◦ τ −1 ⇔ σ = σ 0
d’où l’injectivité.
X X
∆(x1 , ..., xn ) = xσ(1)1 ...xσ(n)n − xσ◦τ (1)1 ...xσ◦τ (n)n
σ∈An σ6∈An

or ∀j 6∈ {i, h}, τ (j) = j, τ (i) = k et τ (k) = i, or xi = xk donc ∀h ∈ {1, ..., n}, xih = xhk .
X X
⇒ ∆(x1 , ..., xn ) = xσ(1)1 ...xσ(n)n − xσ(1)1 ...xσ(n)n = 0
σ∈An σ∈An

Exemple 1.3.1. n = 2, An = {Id, τ }

τ (1) = 2, τ (2) = 1

x x21
11
= ∆(x1 , x2 ) = ε(Id)xId(1)1 xId(2)2 + ε(τ )xτ (1)1 xτ (2)2
x12 x22

= ε(Id)x11 x22 + ε(τ )x21 x12 = x11 x22 − x21 x12


Définition 1.3.1. Coordonnées des vecteurs (x1 , ..., xn ) de la base (e1 , ..., en ).

n 1
X si i = j
ej = δij ei avec δij = (symbole de Kronecher)
i=1
0 6 j
si i =
   
1 0
.
0  .. 
 
e1 = 
 ..  ...en =  
  
. 0
0 1
X
∆(e1 , ..., en ) = ε(σ)δσ(1)1 ...δσ(n)n = δ1 ...δn = 1
σ∈Sn

∀σ ∈ Id, δσ(1)1 ...δσ(n)n = 0 car ∃i tel que σ(i) 6= i


8 Chapitre 1. Déterminants

Définition 1.3.2. Le déterminant des vecteurs x1 , .., xn dans la base B = (e1 , ..., en ) est la
forme multilinéaire alternée définie par :
X
det(x1 , ..., xn ) = ∆B (x1 , ..., xn ) = ε(σ) × xσ(1)1 ...xσ(n)n
B
σ∈Sn
| {z }
coordonnées de
(x1 ,...,xn )
dans le base B

Theorème 1.3.2. Soient (x1 , ..., xn ) des vecteurs de E, les propositions suivantes sont équiva-
lentes :
(i) les vecteurs x1 , ..., xn sont linéairement indépendant.
(ii) ∀B base de E, detB (x1 , ..., xn ) = 0
(iii) ∃B base de E dans laquelle on a detB (x1 , ..., xn ) = 0

Démonstration. (i) ⇒ (ii) On suppose qu’il existe λ1 , ..., λn 6= 0 tel que λ1 x1 +...+λn xn = 0.
Supposons que λi 6= 0 pour i ∈ {1, ..., n}.
n
λ1 λn X
xi = x1 + ... + xn = βj xj
λi λi j=0

Or :  
n
X
det(x1 , ..., xi , ..., xn ) = det x1 , ..., xj−1 , βj xj , ..., xn 
B B
j=0,j6=i

n
X
= det(x1 , ...xj−1 , xj , ..., xn ) = 0
B
j=0,j6=i

car detB est une forme multilinéaire.


(ii) ⇒ (iii) évident
(iii) ⇒ (i) Soit B une base de E tel que detB (x1 , ..., xn ) = 0. Si ϕ est une forme multilinéai-
rement alternée :
ϕ(x1 , ..., xn ) = det(x1 , ..., xn ) ϕ(e1 , ..., en )
B
| {z }
=0 par hypothèse

Donc pour toute forme multilinéaire alternée :

ϕ(x1 , ..., xn ) = 0

Si les vecteurs (x1 , ..., xn ) étaient linéairement indépendant, ils formeraient une base et il
existerait une forme alterée prendant la valeur 1 sur cette base : ce qui est contradictoire.

Définition 1.3.3. Si B 0 est une autre base de E et so ϕ = detB0 :

ϕ(x1 , ...xn ) = det(x1 , ..., xn ) ϕ(e1 , ..., en )


B | {z }
B

det
0
(x1 , ..., xn ) = det(x1 , ..., xn ) × det
0
(B)
B B B
Chapitre 1. Déterminants 9

1.3.2 Déterminants d’une matrice (carrée)


Définition 1.3.4. Une matrice carée A = (aij )1≤i≤n,1≤j≤n est un tableau de valeurs de la forme
suivante :
a11 a12 · · · · · · a1n
 

 a21 a22 · · · · · · a2n 


 
A =  ..
 .. .. 
 . . . 

an1 an2 · · · · · · ann


Le déterminant det A est égal au déterminant des vecteurs colonnes de A :
X
det A = ε(σ)aσ(1)1 ...aσ(n)n
σ∈Sn

Propriété 1.3.3. Soient A, B ∈ Mn (R :


1) det(t A) = det A
2) det A dépend linéairement des colonnes (de lignes) de A.
3) ∀λ ∈ R, det(λA) = λn det A
4) det A 6= 0 ⇔ A inversible
5) det AB = det A × det B
6) si A inversible, detA−1 = 1
det A

Démonstration. 1) Soit :
X
det A = ε(σ)aσ(1)1 ...aσ(n)n
σ∈Sn

et
det(t A) =
X
ε(ρ)a1ρ(1) ...anρ(n)
ρ∈Sn

or :
det(t A) =
X
aσ(1)ρ◦σ(1) ...aσ(n)ρ◦σ(n) , ∀σ ∈ Sn
ρ∈Sn

Soit ρ ∈ Sn , on pose σ ◦ ρ−1 , le produit :

a1ρ(1) ...anρ(n) = aρ−1 (1)1 ...aρ−1 (n)n

donc :
−1 (n)n
det(t A) = ε(ρ)aρ−1 (1)1 ...aρ
X X
ε(ρ)a1ρ(1) ...anρ(n) =
ρ∈Sn ρ∈Sn

Or :
Sn → Sn
bijective
ρ → ρ−1
et
ε(ρρ−1 ) = ε(ρ)ε(ρ−1 ) = 1

det(t A) =
X
ε(σ)aσ(1)1 ...aσ(n)n
σ∈Sn
10 Chapitre 1. Déterminants

2) Soit :
n
X
cj = aij ei
i=1

(e1 , ...en ) = B base de E et A = (aij )1≤i≤n, 1≤j≤n .

det A = det(c1 , ..., cn )


B

d’où la linéarité par rapport à chaque colonne.


3) Soit λ ∈ R, on veut montrer det(λA) = λn det A.

det(λA) = detB (λc1 , λc2 , ..., λcn )


= λn detB (c1 , ..., cn ) (∗)
= λn det A

(∗) par multilinéarité du déterminant.


4) det A 6= 0 ⇔ les vecteurs c1 , ..., cn sont linéairement indépendants, cela veut dire que
(c1 , ..., cn ) est une base de E ⇔ A inversible car A matrices des vecteurs (c1 , .., cn ) dans
la base de (e1 , ..., en ) et A−1 est la matrice exprimant les vecteurs (e1 , ..., en ) dans la base
(c1 , ..., cn ).
5) Soit A = (aij )1≤i≤n,1≤j≤n et B = (bij )1≤i≤n,1≤j≤n . Le produit de la matrice est comme
suivant :
a11 · · · · · · a1j · · · a1n b11 · · · · · · b1j · · · b1n
  
 . .. ..   . .. .. 
 .. . .   .
  . . . 

 ai1 · · · · · · aij · · · ain   bi1 · · · · · · bij · · · bin 
  
 .. .. ..   .. .. .. 
 
 . . .  . . . 

an1 · · · · · · anj · · · ann bn1 · · · · · · bnj · · · bnn

C = AB = (cij )1≤i≤n,1≤j≤n
n
X
cij = aik bkj
k=1

X
det C = ε(σ)cσ(1)1 ...cσ(n)n
σ∈Sn
n n
! !
X X X
= ε(σ) aσ(1)k bk1 × ... × aσ(n)k bkn
σ∈Sn k=1 k=1
= ...(voir Démonstration plus loin dans le cours)
= det A × det B

6) A inversible ⇔ det A 6= 0.

det(AA−1 ) = det In = det(B) = 1


B

1
det A × det A−1 = 1 ⇒ det A−1 =
det A
Chapitre 1. Déterminants 11

1.3.3 Déterminant d’un endomorphisme


Rappel. E un espace vectoriel sur R. Une application ϕ est dite linéaire si ∀(λ1 , λ2 ) ∈ R2 et
∀(x1 , x2 ) ∈ E 2 (avec ϕ définie sur E) :

ϕ(λ1 x1 + λ2 x2 ) = λ1 ϕ(x1 ) + λ2 ϕ(x2 )

Les applications linéaires de E dans E sont appelées endormorphismes noté L(E)


Les applications linéaires bijectives sont appelées des isomorphismes.
Les endomorphismes bijectifs sont les automorphismes noté GL(E).

Proposition 1.3.4. u ∈ L(E), B = (e1 , ..., en ) base de E. Le déterminant :

det(u(e1 ), ..., u(en ))


B

ne dépend pas de la base B, on note det u.


Démonstration. Soient B = (e1 , ..., en ) et B 0 = (e01 , ..., e0n ). Soient P matrice de coordonnées de
vecteurs (e01 , ..., e0n ) dans la base B et P −1 matrice des coordonnées des vecteurs (e1 , ..., en ) dans
la base B 0 .
Soient A la matrice de l’endomorphisme dans la base B :
 
a11 · · · · · · a1n
 . .. 
A =  ..

. 

an1 · · · · · · ann

A0 matrice de l’endomorphisme de la base B 0 :


n
0
X
A = (aij )1≤i≤n,1≤j≤n u(ej ) = aij ei
i=1

On a : A0 = P AP −1

det A0 = det(P −1 AP ) = (det P −1 )(det A)(det P )

Attention :. P AP −1 6= A car le produit de matrice n’est pas commutatif.


Alors det A0 = det A

Proposition 1.3.5. ∀(x1 , .., xn ) ∈ E n et pour toute forme n-linéaire alternée ϕ, on a :

ϕ(u(x1 ), ..., u(xn )) = (det u)ϕ(x1 , ..., xn ) (∗)

avec u ∈ L(E)
Démonstration. 1) Les vecteurs (x1 , ..., xn ) sont linéairement dépendantes ⇒ les vecteurs (u(x1 ), ..., u( xn
sont également dépenants :
(∗) ⇔ 0 = 0 vraie
2) (x1 , ..., xn ) indépendants (dont forment une base de E), u(x1 ), ..., u(xn ) dépendnts par défi-
nition :
det u = det (u(x1 ), ..., u(xn ))
(x1 ,...,xn )

On a encore égalité.
12 Chapitre 1. Déterminants

3) (x1 , ..., xn ) indépendants, (u(x1 ), ..., u( xn )) indépendants. Notons ∆ la forme n-linéaire al-
ternée qui vérifie :
∆(x1 , ..., xn ) = 1
∀ϕ n-linéaire alternée :

ϕ(u(e1 ), ..., u(en )) = ∆(u(x1 ), ..., u(xn )) ϕ(x1 , ..., xn )


| {z }
det(x1 ,...,xn ) u(x1 ,...,xn )=det u

Proposition 1.3.6. u, v ∈ L(E)


(i) det(u ◦ v) = det u × det v
(ii) det(IdE ) = 1
(iii) si u ∈ GL(E) ⇔ det u 6= 0, det u−1 = (det u)−1 .
Démonstration. (i) Soient (x1 , ..., xn ) ∈ E n

ϕ(u ◦ v(x1 ), ..., u ◦ v(xn )) = det(u ◦ v)ϕ(x1 , ..., xn )

= det u ϕ(v(x1 ), ..., v(xn )) = det u det vϕ(x1 , ...x,n )


| {z }
det vϕ(x1 ,...,xn )

(ii)
det Id ◦ v = det Id × det u = det u ⇒ det Id = 1
(iii)
det u ◦ u−1 = det Id = 1 = det u × det u0
⇒ (det u−1 ) = (det u)−1

1.4 Méthodes de calcul de déterminants


1.4.1 Développement par blocs
Définition 1.4.1. Si on a :  

A =  c1 · · · cn 

 
n
X
det = det(c1 , ..., cn ) = det c1 , ..., ck−1 , λi ci , ck+1 , ..., cn 
i=1,i6=k

Theorème 1.4.1 (Developpement par blocs). Soit M matrice carrée d’ordre n de la forme
suivante :  
p n−p
 z}|{ z}|{ 
p { A C } n − p
 
 
 
M= 



 
O B } n − p
 

 |{z} 
n−p
Chapitre 1. Déterminants 13

A ∈ Mp (R) et B ∈ Mn−p (R) et O ∈ Mp,n−p (R) avec ∀i, j, aij = 0.


On a :
det M = det A det B
Démonstration. Soit B = (e1 , ..., ep , ep+1 , ..., en ) avec B 0 = (e1 , ..., ep ) et B 00 = (ep+1 , ..., en ).
E = E 0 ⊕ E 00 avec E 0 sous-espace de E engendré (e1 , ..., ep ), dim E 0 = p, E 00 sous-espace de E
engendré par (ep+1 , ..., en ) : dim E 00 = n − p.


(a1 · · · ap bp+1 + cp+1 · · · bn +cn )
e1 a11 · · · a1p c11 ··· c1n
..  .
 . .. .. .. 
.  . . . . 

ep ap1 ··· app cp1 ··· cpn 
 
 
ep+1  0
 ··· 0 bp+1,p+1 · · · bp+1,n  
..  .
 . .. .. .. 
.  . . . . 
en 0 ··· 0 bp+1,n ··· bnn
On considère
(E 0 )p → R
f : (x1 , ..., xp ) 7→ detB (x1 , ..., xp , cp+1 + bp+1 , ..., cn + bn )
| {z }
fixés
0p
f est une forme p-linéaire alternée. On a donc ∀(x1 , ..., xp ) ∈ E
f (x1 , ..., xp ) = f (e1 , ..., ep ) det
0
(x1 , ..., xp )
B

Or :
f (a1 , ..., ap ) = detB (a1 , ..., ap , bp+1 + cp+1 , ..., bn + cn ) = det A
= f (e1 , ..., ep ) × det
0
(a1 , ..., ap ) (∗)
B
| {z }
det A
Or :
f (e1 , ..., ep ) = detB (e1 , ..., ep , bp+1 + cp+1 , ..., bn + cn )
= detB (e1 , ..., ep , bp+1 , ..., bn )
Alors :
(∗) = det(e1 , ..., ep , bp+1 , ..., bn ) × det A (∗0 )
B
On pose :
(E 00 )q → R q =n−p
g:
(xp+1 , ..., xn ) 7→ detB (e1 , ..., ep , ...xp+1 , ..., xn )
On remarque que g(bp+1 , ..., bn ) = detB (e1 , ..., ep , bp+1 , ..., bn ) = f (e1 , ..., ep ) et g est une forme
q-linéaire alternée sur E 00 (de dim q). Donc :
g(x1 , ..., xn ) = g(e1 , ..., en ) det
0
(xp+1 , ..., xn )
B

Donc :
g(bp+1 , ..., bn ) = g(e1 , ..., en ) det
00
(bp+1 , ..., bn )
B
| {z }
det B
g(ep+1 , en ) = det(e1 , ..., ep , ep+1 , ..., en ) = 1
B
Alors :
(∗0 ) = det B × det A
14 Chapitre 1. Déterminants

1.4.2 Développement selon une ligne et une colonne


Soit A = (aij )1≤i≤n,1≤j≤n :
 .. 
 a11 a12 · · · . ··· a1n 
 .. 
 a21
 a22 · · · · · · a2n 
. 
 . .. .. .. .... 
 .. . . . . . 
A= 
 .

 . .. .. 
 . . · · · aij · · · . 
 .. .. .. .. .. .. 

 . . . . . . 

an1 an2 · · · · · · · · · ann


Définition 1.4.2. On appelle mineur de l’élément (aij ) de déterminant ∆ij de la matrice carrée
(n − 1) × (n − 1) obtenue à partir de A en supprimant la i-ème ligne et la jième colonne. Le
scalaire Aij = (−1)i+j ∆ij s’appelle le cofacteur de (aij ).
Theorème 1.4.2. A = (aij )1≤i≤n,1≤j≤n , (Aij )1≤i≤n,1≤j≤n des cofacteurs alors ∀(i, j) :
n
X n
X
det A = akj Akj = aik Aik
k=1 k=1

Démonstration. On considère B = (e1 , ..., en ) une base de E et :


n
X
aj = akj ek (vecteurs colonnes)
k=1

On se fixe j, 1 ≤ j ≤ n.
n
!
X
det A = det(a1 , ..., an ) = det a1 , ..., ap−1 , akj ej , ap+1 , ..., an
B B
k=1
X
= akj det(a1 , ..., ap−1 , ek , ap+1 , ..., an )
B
k=1 | {z }
Dkj

Or
Dkj = (−1)j−1 det(e, a1 , ..., aj−1 , aj+1 , ..., an ) (∗)
B

Soit B 0 = (ek , e1 , .., ek−1 , ek+1 , ...en ) ∀(u1 , ..., un ) :

det
0
(u1 , ..., un ) = det
0
B . det(u1 , ..., un )
B B B
| {z }
(−1)k−1

Alors :
(∗) = (−1)j−1 (−1)k−1 det
0
(ek , a1 , ..., aj−1 , aj+1 , ..., an ) (∗0 )
B
On a :  
1  

 0  
 
 ..  Mkj  
.
 
 
0
(∗0 ) = (−1)j+k det Mij = Akj
Chapitre 1. Déterminants 15

Exemple 1.4.1.

1 "5 0#
2

1 3 1
3 2 1 = − 5 = −2 − 5 × 4 = −22

1 1 1 1


−1 4 1

Définition 1.4.3. A = (aij )1≤i≤n,1≤j≤n alors :

à = (Aij )1≤i≤n,1≤j≤n

à est la matrice de cofacteurs ou comatrice.


Proposition 1.4.3. A ∈ Mn (R). On a :
t
Ã × A = A.t à = (det A)In
1 t
Corollaire. Si det A 6= 0 alors A−1 = det A

Démonstration. A.t à = (γij )1≤i≤n,1≤j≤n .


n
X
γij = aik Ajk
k=1

Soit M = A en remplaçant la jième ligne de A par une ligne quelconque (β1 , ..., βn ).
n
X
det M = βk Ajk (en développant par rapport à la jième ligne)
k=1

Pour l 6= j : X
alk Ajk = δij det A
k=1

Ce qui prouve que les coefficients de la matrice At Ã−1 sont égaux à :


n
X
γij = aij Ajk = δij det A
k=1
 
det A 
1 0 ··· 0

 0 det A 1 ···
 
0 0
 
At à = 

 .. .. ... = det A 
 .. .. .. 

 . .

. . .
 
..
 
0 0 . 0 0 ··· 1

1.5 Rang
Définition 1.5.1. E, F deux espaces vectoriels sur R
1) u : E → F application linéaire.
rg u = dim Im u
Im u est sous-espace vectoriel de F :

Im u = {u(x), x ∈ E} = {y ∈ F, ∃x ∈ E, | y = y(x)}
16 Chapitre 1. Déterminants

2) A ∈ Mn,p , on appelle rang de A, la dimension du sous-espace vectoriel d’un espace vectoriel


de dimension n engendré par les colonnes de A.
3) (x1 , ..., xp ) des vecteurs d’un espace vectoriel E. On appelle rang du système (x1 , ..., xp ) la
dimension du sous-espace vectoriel de E engendré par (x1 , ..., xp ) ou le nombre maximal de
vecteurs linéairement indépendants (x1 , ..., xp )
Définition 1.5.2. u : E → F , B base de E et B 0 base de F . La matrice de u noté Mu :
(u(e1 ) ··· u(en ))
 
f1 a11 · · · · · · a1n
Mu = ..  . .. 
 ..
.  . 

fp an1 · · · · · · apn
p
X
u(ei ) = akn fk
k=1

Proposition 1.5.1. A ∈ Mn,p (R)


1) Si P ∈ GLn (R) (P matrice carrée n × n inversible) alors rg P A = rg A
2) Q ∈ GLp (R (Q matrice carrée p × p inversible) alors rg QA = rg A
Démonstration. Soit :
p
R →
 Rn
f: x1
X ..  7→ AX
.xp
    
a11 · · · · · · a1p x1 a11 x1 + ... + a1p xp
 . ..   .  ..
 ..   ..  = 
 
AX =  .    
. 

an1 · · · · · · anp xp an1 x1 + ... + anp xp
et :
Rp→ Rn

x1
g:  .
X  . .

 7→ P AX

xp
Alors :
• rg A = rg f = dim Im f
• rg P A = rg g = dim Im g
Or P est supposé inversible :

Ker g = {X | P AX = 0} = {X | AX = 0}

Ker g = Ker f
Or : 
dim Im f + dim Ker f = p
dim Im g + dim Ker g = p

On note :
a1 · · · · · · ap 
  
a11 · · · · · · a1p x1
 . .  . 
A =  .. ..  , X =  .. 

  

an1 · · · · · · anp xp
Chapitre 1. Déterminants 17

AX = x1 a1 + ... + xp ap ∈< a1 , ..., ap >


Soit Q une matrice inversible ; X1 , ..., Xp des vecteurs données de Q :

AXj , 1 ≤ j ≤ p

les vecteurs AXj ∈< a1 , ..., ap > donc les vecteurs colonnes de la matrice AQ appartiennent au
même sous-espace vectoirel < a1 , ..., an >.

⇒ rg AQ = rg A

A = (AQ)Q−1 ainsi, pour les mêmes raisons, les vecteurs colonnes de la matrice A sont dans
l’espace vectoriel engendré par les vecteurs colonnes de la matrice AQ.
D’où rg A ≤ rg AQ. D’où l’égalité.

Theorème 1.5.2. A ∈ Mn,p (R), r un entier tel que 1 ≤ r ≤ min(p, n).


 
1 0 0 ··· 0 0 0 ··· 0
0 1 0 ··· 0 0 0 ··· 0
 
p−r
 
  r
0
 0 1 ··· 0 0 0 ··· 0   z}|{ z}|{ 
. .. . . .. ..   r{ Ir O
 ..

. . . .  
Jr =  
=  
0 0 0 ··· 1 0 0 ··· 0
  
 
  n − r{ O O 
0
 0 0 ··· 0 0 0 ··· 0

 |{z} 
.
. .. .. .. ..  r
. . . . . 

0 ··· 0 ··· 0 0 0 ··· 0

Ir ∈ Mn×r (R) identité et O matrice nulle. On a : rg A = r ⇔ ∃P ∈ GLn (R), ∃Q ∈ GLp (R)


telles que P AQ = Jr :
Q A P
 
Rp −→ Rp −
→ Rn − → Rn
x1
.
X=  ..  7→ QX 7→ AQX 7→ P AQX

xp

Démonstration. On définit B et B 0 (resp. base de Rp et Rn ) comme suivant :

B = (e1 , ..., ep ) B 0 = (f1 , ..., fn )

u(e
 1
) · · · u(en)
f1 × ··· ×
A = ..  . .. 
 ..
.  .
fn × ··· ×
A matrice d’un endomorphisme u.
(⇐) il est clair que rg Ir = r donc si P AQ = Jr avec P, Q inversible, on a rg P AQ =
rg AQ = rg A = rg Jr = r.
(⇒) Supposons que rg A = r. Or rg A = r ⇔ dim Im u = r. D’après le théorème du rang,
dim Im u + dim Ker u = p (Ker u est un sous-espace vectoriel de Rp ). On considère une
base de Rp dont les p − r derniers vecteurs forment une base de Ker u.

xi , ...xr , xr+1 , ..., xp


| {z }
∈Ker u
18 Chapitre 1. Déterminants

Pour 1 ≤ i ≤ r, on pose yi = u(xi ). Or Im u est engrendré par u(x1 ), u(x2 ), ..., u(xr ) u( xr+1 ), ..., u(xp
| {z }| {z
y1 ,..,yn tous nuls
On complète (y1 , ..., yr ) en une base (y1 , y2 , .., yr , ..., yn ) de Rn .

u(x
 1
) · · · · · · u(xr )u(xr+1 ) · · · · · ·u(xn )
y1 1 0 ······ 0
. .. .. 
..  .. 1 . .
. 
.

.. . .. .. .. 
. . . .

. 
. .
yr 0 · · · · · · 1 .. · · · · · · ..  = Jr
 
. .
 
yr+1 0 · · · · · · 0 .. · · · · · · .. 
 
.. 
. .. .. .. 

.  .. . . .
.. 
. . .. .

. .
. .
. . .
.

yn 0 ··· ··· 0 0 ······ 0

u(x ) · · · u(xp)
 1
f
 1
···  fn u(e
 1
) · · · u(ep) x
 1
··· 
xr
y1 × ··· × y1 × ··· × f1 × ··· × e1 × ··· ×
Jr = .. 
 ..  = ..
..  .
.  + ..
..  .
.  + ..
..  .
. .
. . . . . P . . . A . . . Q .. 

yn × ··· × yn × ··· × fn × ··· × ep × ··· ×

Corollaire. Le rang d’une matrice A = le rang d’une matrice t A (transposée de A).

Theorème 1.5.3. Deux matrices sont équivalentes ⇔ elles ont le même rang.

Rappel. A, B ∈ Mn×p (R) sont équivalentes ⇔ ∃P ∈ GLn (R) et ∃Q ∈ GLp (R) tel que : B =
P AQ ou P −1 BQ−1 = A.

Démonstration du Théorème 1.5.3. • Supposons A ∼ B alors B = P AQ. Donc rg B =


rg A car P et Q inversibles.
• Supposons rg A = rg B = r : )
A ∼ Jr
⇒A∼B
B ∼ Jr

Theorème 1.5.4. A ∈ Mn×p (R), 1 ≤ r ≤ min(p, n) alors rg A ≥ r ⇔ il existe une matrice


carrée d’ordre r extraite de A, inversible.

Rappel. Soit A ∈ Mn×p (R) une matrice extraite B ∈ Mr×q (R) avec r ≤ n et q ≤ p est une
matrice dont les éléments de B appartiennent à la matrice de A.

Démonstration du Théorème 1.5.4. (⇒) Supposons rg A ≥ r.

· · · cr cr+1 · · · cp
c
 1
× ··· × × ··· ×
. .. 
.
A=  . . 
. .. 
.
. .

× ··· × × ··· ×
Chapitre 1. Déterminants 19

Les vecteurs colonnes de A : c1 , ..., cr sont linéairement indépendants. On complète pour


obtenir une base de Rp :
c1 , ..., cr , e0r+1 , ..., e0p
| {z }
∈{e1 ,...,ep }

det (c1 , ..., cr , e0r+1 , ..., e0p ) 6= 0


(e1 ,...,ep )

· · · cr e0r+1 · · · e0p
c1
e1
  
···
.. .
.. × ... × · · · ×
 
.   
er 
 ···


er+1
 
 
..
 
 
.  
ep
Ce qui implique l’existence d’un déterminant r × r non nul extrait de A.
(⇐) ∃B ∈ Mr×r (R) tel que det B 6= 0. B extraite de A.

c
 1
· · · cr 
b11 · · · b1r
 .. .. 

 . . 

br1 brr

Les vecteurs colonnes c1 , ..., cr de A correspondants à une matrice extraire de B sont


indépendants. D’où le résultat.

Corollaire. Le rang d’une matrice est l’ordre maximum d’un determinant extrait non nul de
cette matrice.
Chapitre 2

Réduction d’endomorphismes

Problème. On cherche des bases d’un endomorphisme tel qu’on peut avoir une matrice simple.

Préliminaires
On considère dans tout le chapitre :
– K = R ou C
– E un K-espace vectoriel
– u ∈ L(E)

2.1 Valeurs propres - Vecteurs propres


Définition 2.1.1. Soit λ ∈ K, λ est dit valeur propre de u s’il existe x 6= 0 dans E tel que :

u(x) = λx

On dit que x est un vecteur propre de u associé à la valeur propre λ.


Remarque. Le vecteur x est valeur propre de u pour la valeur λ si et seulement u − λIdE (x) = 0
c’est-à-dire :
u(x) = λx = u − λIdE (x) = 0 ⇔ x ∈ Ker(u − λIdE )
Définition 2.1.2. Soit λ une valeur propre de u :

Eλ = {x ∈ E, x 6= 0 | u(x) = λx} = Ker(u − λIdE )

est un sous-espace de E associée à la valeur propre λ.


Rappel. P est un polynôme de K[X] si :

P = a0 = a1 X + .. + an X n

Une fonction polynôme est :


R→R
x 7→ P (x) = a0 + a1 X + ... + an X n
Si u ∈ L(E), P (u) est l’endomorphisme :
n
P (u) = a0 IdE + a1 u + a2 u ◦ u + ... + an u
|{z}
| ◦u◦
u {z... ◦ u}
n fois

20
Chapitre 2. Réduction d’endomorphismes 21

E→E
P (u) :
x 7→ a0 x + a1 u(x) + ... + an un (x)
Proposition 2.1.1. Si P est un polynôme et x un vecteur propre de u pour la valeur propre λ
alors x est un vecteur propre de P (u) pour la valeur propre P (λ).

Démonstration. Soit u et x tel que : u(x) = λx. Montrons par reccurence sur n que :

un (x) = λn x

Ceci est vrai pour n = 1. Supposons que pour un n fixé, un (x) = λn x alors un+1 (x) = u(un (x)) =
λn u(x) = λn+1 x.
Soit x tel que u(x) = λx :

P (u)(x) = a0 + a1 u(x) + ... + an un (x)


= a0 x + a1 λx + ... + an λn x
= (a0 + a1 λ + ... + an λn ).x
= P (λ)x

Corollaire. λ1 , ..., λn sont des valeurs propres distinctes des sous espaces correspondants sont
en somme directe (leur intersection est réduit à 0).

Eλ1 + ... + Eλn = Eλ1 ⊕ ... ⊕ Eλn

Démonstration. Supposons qu’il existe des vecteurs xi ∈ Eλi , (1 ≤ i ≤ r) tel que x1 + x2 + ... +
xr = 0. Notons r0 le nombre minimal de vecteurs des Eλi tel que :

x1 + ... + xr0 = 0

On regarde :
u(x1 + ... + xr0 ) − λ1 (x1 + ... + xr0 ) = 0
(λ2 − λ1 ) x2 + ... + (λ2 − λ1 ) xr0 = 0
| {z } | {z }
6=0

Contradiction.

2.2 Polynômes caractéristiques


Définition 2.2.1. Soit u ∈ L(E), A matrice dans une base B de E. On appelle polynôme
caractéristique de u de A, le polynôme :

Pu (x) = PA (x) = det(A − XIn ) = det(u − xIdE )

De plus, on a :
PA (x) = (−1)n X n + (−1)n tr(A)X n−1 + ... + det A

Rappel. Si A = (aij )1≤i≤n,1≤j≤n , la trace de A est :


n
X
tr(A) =
i=1
22 Chapitre 2. Réduction d’endomorphismes

PA (x) = det(A − XIn )



a11 − X ······ a1n

a21

a22 − X · · · · · · a2n
X
.. .. .. = bσ(1)1 ...bσ(n)n (∗)
. . .




σ∈Sn
an1 an2 ······ ann − X

a
ij si i 6= j
où bij = :
aii − X sinon
n
Y X
(∗) = (aii − X) = ε(σ)bσ(1)1 ...bσ(n)n
i=1 σ∈Sn ,σ6=Id
| {z }
degx ≤n−2

Proposition 2.2.1. λ ∈ K, u ∈ L, Pu est un polynôme caractéristique. λ est valeur propre de


u si Pu (λ) = 0.
Démonstration. Pu (X) = det(u − XIdE ). λ valeur propre ⇔ Ker(u − λIdE ) 6= {0} ⇔ ∃x 6= 0
tel que u(x) = x = λx ⇔ u − λIdE n’est pas bjiective ⇔ det(u − λIdE ) = 0
f ∈ L(E), f = u − XIdE
dim E = dim Im f + dim Ker f
| {z } | {z }
≤n−1 ≥1

Si (x1 , ..., xn ) est une base de E, f (x1 ), ..., f (xn ) engendrent un espace de dimension ≤ n−1.
Theorème 2.2.2. u ∈ L(E), Pu polynôme caractéristique, λ une valeur propre de u (c’est-à-
dire une racine de Pu ), mλ sa multiplicité dans Eλ de sous-espace propre associé à λ :
1 ≤ dim Eλ ≤ mλ
Démonstration. si m = mλ alors :
Pu (x) = (λ − x)n Q(x) avec Q(λ) 6= 0
λ racine de P ⇔ (X − λ)|P (X). Notons p = dim Eλ . On considère (e1 , ..., ep ) une base de Eλ ,
on la complète en une base (e1 , ..., ep , ep+1 , ..., en ). Dans cette base, la matrice de u est de la
forme :  

λIp C 
 

 
 
 
A=
 
 
 
 
 

 O B 




(λ − X)Ip C





det(A − XIn ) =






O B − XIn−p



= det((λ − X)Ip ) × det(B − XIn−p )
= (λ − X)p det(B − XIn−p )
On a donc (λ − X)p divise Pu (x), ce qui implique p ≤ n.
Chapitre 2. Réduction d’endomorphismes 23

2.3 Endomorphismes diagonalisables


Définition 2.3.1. On dit qu’une matrice A = (aij )1≤i≤n,1≤j≤n est diagonale si aij 6= 0 dès que
i 6= j.  
a0
a1 0
 
 
 

 a2 

 .. 

 . 

 .. 

 0 . 

an

Définition 2.3.2. u ∈ L(E) est dit diagonalisable s’il existe une base de E formée de vecteurs
propres de u.

Définition 2.3.3. A ∈ Mnn (K), on dit que A est diagonalisable sur K s’il existe P ∈ Mnn (K)
inversible telle que P −1 AP diagonale.

Theorème 2.3.1. Soit u ∈ L(E), équivalence de :


(i) u est diagonalisable.
(ii) Pu admet toutes ces racines de K et ∀λ racine de Pu de multiplicité mλ :

dim Eλ = mλ

(iii) Il existe des valeurs propres λ1 , ..., λn telles que :

E = Eλ1 ⊕ Eλ2 ⊕ ... ⊕ Eλn

Démonstration. (i) ⇒ (ii) Si u est diagonalisable, il existe une base de E dans laquelle la
matrice de u est diagonale. λ1 , ..., λr des valeurs propres de m1 , ..., mr leur multiplicité :
 
λ0
λ1 0
 
 
 

 λ2 

A= 
 ... 

 
 ... 

 0 

λr
r
(λi − X)ni
Y
Pu (x) = det(A − λIn ) =
i=1
| {z }
⇒dim Eλ

(ii) ⇒ (iii) Soit :


r
(λi − X)mi
Y
Pu (X) =
i=1

pour 1 ≤ i ≤ r, mi = dim Eλi . Si on note F = Eλ1 ⊕ ... ⊕ Eλn alors :

dim F = m1 + ... + mr = n = dim E

donc : F = E.
24 Chapitre 2. Réduction d’endomorphismes

(iii) ⇒ (i) Supposons que E = Eλ1 ⊕ ... ⊕ Eλr . On note Bi une base de Eλi , la base :
r
[
B= Bi
i=1

est une base de E puisque E est somme directe de Eλi . Ainsi, il existe une base de E
formée de vecteurs propres de u, ce qui prouve que u est diagonalisable.
!
x 2
Exemple 2.3.1. On cherche des vecteurs de R , X = tel que AX = 2X ou AX = 3X.
y
AX = 2X ⇔ x = y
(x = y définit une droite de vecteurs propres)
AX = 3X ⇔ x = 2y
!
4 −2
Soit A = . A matrice de u dans la base (i, j).
1 1
u(i) = 4i + j
u(j) = 2i + j
On a :
e1 = (1, 1) u(e1 ) = 2e1
e2 = (2, 1) u(e2 ) = 3e2
! !
2 0 1 2
Dans la base (e1 , e2 ) la mtrice de u est . On a donc P = .
0 3 1 1
Exemple 2.3.2. E = R3
 
1 0 0
A = 0 10 

 PA (X) = (1 − X)2 (2 − X)
1 −1 2
Les racines du polynômes caractéristique sont les réels 1 avec la multiplicité 2 et 2 avec la
mutiplicité 1. On a :
E1 = {U ∈ R3 | AU = V }
= {(x, y, z) ∈ R3 | x − y + z = 0}
e1 (1, 1, 0) et e2 (0, 0, 1) sont linéairement indépendant, ils forment une base de E1 .
 
1 0 0
1 1 0
 

0 1 1
Dans la base (e1 , e2 , e3 ), la matrice de u est :
 
1 0 0
D = 0 1 0
 

0 0 2
La matrice de passage :  
1 0 0
P = 1 1 0


0 1 1
vérifie P −1 AP = D.
Chapitre 2. Réduction d’endomorphismes 25

2.4 Trigonalisation
Définition 2.4.1. A = (aij )1≤i≤n,1≤j≤n est dite triangulaire supérieur si aij = 0 dès que i > j.
Définition 2.4.2. A est dite trigonalisable s’il existe P inversible tel que P −1 AP est triangu-
laire.
Theorème 2.4.1. u ∈ L(E), u est trigonalisable ⇔ Pu a toutes ses racines dans K.
Remarque. si K = C, toutes les matrices sont trigonalisables.
Démonstration. (⇒) Supposons u trigonalisable, il existe une base de E dans laquelle la
matrice A de u s’écrit :
a11 a21 · · · an1
 

 0 a22 · · · an2 
 
A =  ..
 .. .. 
 . . . 

0 0 ··· ann
Pu (X) = det(A − XI) = (ai − X)(a2 − X)...(an − X)
(⇐) Reccurence sur n = dim E.
• Si n = 1, rien à démontrer.
• Fixons n arbitrairement et supposons la propriété vrai pour n − 1. Démontrons qu’alors
qu’elle est vraie pour n. E est de dimension n. Pu ∈ L(E). On suppose que Pu a toutes
ses racines sur K. Soit λ une racine de Pu . Soit x1 un vecteur propre associé à λ, H
hyperplan supplémentaire de la droite Kx, (x1 , ..., xn ) base de H, (x1 , ..., xn ) base de
E. Dans cette base la matrice de u s’écrit :
···
 
λ
0
 

. 
.
. M


0

Pu (x) = (λ − X) det(M − XIdH ) = (λ − X)PM (X)


Notons v l’endomorphisme de H dont la matrice dans la base (x1 , ..., xn ) est égalie à
M . Par hypothèse de reccurence, M est trigonalisable, en effet :

Pu (X) = (λ − X)Pv (X) = (λ − X)PM (X)

Par conséquent, il existe une base (y2 , ..., yn ) de H dans laquelle la matrice de v est
triangulaire, ainsi dans la base (x1 , y2 , ..., yn ), la matrice de u est triangulaire.

Exemple 2.4.1.  
1 4 −2
A= 0 6 3 


−1 4 0
PA (X) = (3 − X)(2 − X)2
E3 = {(x, y, z) | x = y = z} = Re1 où e1 = (1, 1, 1)

x =z
 
E2 = (x, y, z) | = Re2 où e2 = (2, 3, 4)
4y = 3z
26 Chapitre 2. Réduction d’endomorphismes

On a :
dim E3 = 1 dim E2 = 1
Or la multiplicité de la valeur propre 2 est 2 donc A est trigonalisable.

1) = 3e1
u(e
u(e2 ) = 2e2
Remarquons que le vecteur e3 = (0, 0, 1) n’appartient pas au plan engendré par e1 et e2 . On
exprime u(e3 ) dans les bases (e1 , e2 , e3 ), on obtient :
u(e3 ) = 6e1 + e2 + 2e3
 
3 0 −6
0 2 1 
D= 

0 0 2

2.5 Sous-espaces stables


Définition 2.5.1. V ⊂ E, un sous-espace vectoriel. u ∈ L(E), on dit que V est stable par u
si :
∀x ∈ V, u(x) ∈ V
Proposition 2.5.1. Si V est stable par u pour tout polynôme P ∈ K[X], V est stable par
P (u).
Démonstration. Si V est stable par u, ∀x ∈ V, u(x) ∈ V donc u(u(x)) ∈ V et aussi par
reccurence ∀k ∈ N, uk (x) ∈ V . Or V stable par combinaison linéaire de Pu (x) ∈ V
Proposition 2.5.2. u, v ∈ L(E) tel que u ◦ v = v ◦ u alors Ker v et Im v stable par u.
Démonstration. x ∈ Ker v :
v(x) = 0 ⇒ u(v(x)) = 0 ⇒ v(u(x)) = 0
Donc u(x) ∈ Ker v.
y ∈ Im v :
u(y) = u ◦ v(y) = v ◦ u(y) = v(u(x))
Donc : u ∈ Im v.
Proposition 2.5.3. Soit V un sous-espace vectoriel de E, stable pour u ∈ L(E). Le polynôme
caractéristique de u|V ∈ L(E) divise Pu . De plus, si W st un sous-espace vectoriel supplémen-
taire de V est stable par u alors :
Pu = Pu|V + Pu|W
Démonstration. (e1 , ..., ep ) une base de V . On complète cette base de E : (e1 , ..., ep , ep+1 , ..., en ).
| {z }
∈V
La matrice de u dans cette base s’écrit :
u(e1 )...u(ep )
e1  
..
. 
 A U 

M= ep
 
 
 
ep+1 



.. 
O B

.  
en
Chapitre 2. Réduction d’endomorphismes 27

où A est la matrice de u|V dans la base (e1 , ..., ep ).

Pu (x) = det(M − XIn ) = det(A − XIp ) . det(B − XIn−p


| {z } | {z }
=Pu|V =Pu|W

Le polynôme caractéristique de u|V divise bien Pu . Si E = V ⊕ W alors W est stable par U .


Proposition 2.5.4. On suppose u ∈ L(E) diagonalisable, on note λ1 , ..., λr ses valeurs propres.
Eλ1 , ..., Eλr les sous-espaces propres correspondants. Si V est un sous-espace vectoriel stable par
u, on a :
V = (V ∩ Eλ1 ) ⊕ (V ∩ Eλ2 ) ⊕ ... ⊕ (V ∩ Eλr )
Démonstration. On sait que E = Eλ1 ⊕ ... ⊕ Eλr . Soit x ∈ E, x = x1 + ... + xr avec pour
1 ≤ i ≤ r, xi ∈ Eλi . Le sous-espace vectoriel V est stable par u donc par P (u), ∀P ∈ K[X].
Notons pour 1 ≤ i ≤ r :
r
Y
Pi (X) = (λ1 − X)...(λi−1 − X)(λi+1 − X)...(λr − X) = (λj − X)
j=1,j6=i

On a :
∀j 6= i, P (λj ) = 0, P (λi ) 6= 0
Soit x ∈ V , x = x1 +...+xr , xi ∈ Eλi . On veut démontrer que ∀i, xi = V ∩Eλi . ∀i, Pi (u)(x) ∈ V
car V est stable par P (u).

Pi (u)(x) = Pi (u)(x1 ) +... + Pi (u)(xi−1 ) + Pi (u)(xi ) +... + Pi (u)(xr )


| {z } | {z } | {z } | {z }
=0 =0 =Pi (λi )xi =0

Rappel. Si x vecteur propre de u pour la valeur propre λ alors x est vecteur propre de P (u)
pour la valeur propre P (λ).
Retournons à la démonstration, pour chaque Pi , 1 ≤ i ≤ r.

si x ∈ V, Pi (u)(x) ∈ V ⇒ Pi (λi )xi ∈ V

Donc ∀i, 1 ≤ i ≤ r, xi ∈ V .

x= x1 + x2 +... + xr
|{z} |{z} |{z}
∈V ∩Eλ1 ∈V ∩Eλ2 ∈V ∩Eλr

2.6 Théorème de Cayley-Hamilton


Theorème 2.6.1. 1) u ∈ L(E), Pu son polynôme caractéristique. Pu (u) = 0L(E) (c’est-à-dire
que Pu (u) est l’endomorphisme identiquement nul).
2) A ∈ Mn (K), PA son polynôme caractéristique :

PA = 0Mn (K) (matrice nulle)

P ∈ K[X] :
d
ak x k
X
P =
k=0
28 Chapitre 2. Réduction d’endomorphismes

E→E
Pu (u) :
x 7→ P (x)x
d
ak Ak où A0 = In .
X
P (A) =
k=0

Démonstration. n = dim E, u ∈ L(E), A matrice de u dans une base B de E, A ∈ Mn (K), la


démonstration se fait par reccurence sur n. Si n = 1 :
R→R
x 7→ ax
A = [a], PA (X) = a − X, PA (A) = 0. Si on fixe n arbitrairement, on suppose la propriété vraie
pour n − 1, c’est-à-dire pour toute matrice A0 ∈ Mn−1 (K), PA0 (A0 ) = 0.
A ∈ Mn (K), on démontre que PA (A) = 0. On se place dans le cas où le polynôme PA a
toutes ses racines dans K alors A est diagonalisable. On se place dans une base où la matrice
de u est triangualire.
 
b11 b12 b13 · · ·
 .. 
0 b22 b23 .
 
 

.. .. 
. 0 b33 .
 
T = P AP −1 =
 

 .. .. ..

 dans la base (e1 , ..., en )

 . . 0 . 

 .. .. .. .. 

 . . . . 

0 0 0 bnn
PA (X) = Pu (X) = PT (X) = (b11 − X)(b22 − X)...(bnn − X)
F est le sous-espace vectoriel de E engendré par (e1 , ..., en−1 ), F est stable par u :
F →F
u|F := v :
y 7→ v(y) = u(y)
u|F = v ∈ L(F )  
b11 · · ·
 . .. 
T =  .. . . .
0 
.   ∈ Mn−1 (K)
0 · · · bn−1n−1
PT 0 (T 0 ) = 0 par hypothèse de réccurence. Pv (v) = 0 ∈ L(F ). ∀x ∈ F , Pv (v)(x) = 0 or F est
stable donc Pv (v)(x) = 0 ⇒ Pu (u)(x) = 0.
Pour démontrer que Pu (u) = 0, il faut démontrer que Pu (u)(x) = 0, ∀x ∈ E.
x ∈ E, x = xF + xn en avec xF ∈ F , u(x) = u(xF ) + xn u(en ). Or :
u(en ) = t1n e1 + ... + tn−1n en−1 +tnn en = y + tnn en
| {z }
∈F

(tnn − IdE − u)(en )(en ) = tnn en − y − tnn en = −y ∈ F


Pu (X) = (tnn − X)Pv (X) = Pv (X)tmm − X)
Pu (u)(en ) = Pv (u) ◦ (tn−1n IdE − u)(en ) = Pu (u)(X) = 0
En effet :
Pv (u)(x) = 0
Donc :
Pu (u)(x) = 0
Chapitre 2. Réduction d’endomorphismes 29

2.7 Polynôme minimal


Proposition 2.7.1. Soit u ∈ L(E), il existe un unique Q ∈ K[X] tel que :
1) Q est unitaire.
2) si P ∈ K[X] vérifie P (u) = 0L(E) alors Q divise P .
On notera Qu : le polynôme minimal (vérifiant la Proposition 2.7.1.).

Démonstration. n = dim E, u ∈ L(E),

Pu (x) = (−1)n X n + ... + det u

(−1)n Pu est un polynôme unitaire qui s’annule en a.

E = {P ∈ K[X] unitaire tel que P (u) = 0} =


6 ∅

On peut avoir dans E un polynôme Q de degré minimale. Q(u) = 0 donc T Q(u) = T (u).Q(u) =
0L(E) .
Soit P ∈ K[X] tel que P (u) = 0. On a deg P ≥ deg Q car Q a été choisi de degré minimal.

P = TQ + R

P (u) = T (u) ◦ Q(u) +R(u) ⇒ R(u) = 0


| {z } | {z }
=0 =0

Contradictoire donc R = 0K[X] .

Proposition 2.7.2. Soit λ ∈ K, alors λ est vecteur propre de u ∈ L(E) si et seulement si λ


est racine de polynôme minimal de u.

Démonstration. Soit Pu le polynôme caractéristique on a Pu (u) = 0. Donc par définition du


polynôme minimal, Qu divise Pu (c’est-à-dire ∃T ∈ K[X] tel que Pu = Qu T ). Si Qu (X) = 0
alors Pu (λ) = 0 donc λ est valeur propre de u.
Si λ est valeur propre de u alors P (λ) est valeur propre de P (u), ∀P ∈ K[X]. En particulier,
si P = Q le polynôme de u, on a : Q(λ) est valeur propre de Q(u). Or Q(u) est l’endomorphisme
nul donc 0 est la seule propre d’où Q(λ) = 0.

Proposition 2.7.3. L’endomorphisme u ∈ L(E) est diagonalisable si et seulement si son


polynôme minimal a toutes ses racines dans K et que ces racines sont simples.

Démonstration. Supposons u diagonalisation et notons λ1 , ..., λr ses valeurs propres, considé-


rons le polynôme Q(x) = (x − λ1 )...(x − λr ). Pour 1 ≤ i ≤ r, on note :
r
Q(X) Y
Pi (X) = = (X − λi )
X − λi j=1,j6=i

Q(X) = (X − λi )Pi (X) = Pi (X)(X − λi )


On a donc :
Q(u) = Pi (u) ◦ (u − λIdE )
∀x ∈ Eλi , (u − λi IdE )(x) = 0. Donc Q(X) = 0 mais ceci est vrai ∀i et u est diagonalisable donc
E = Eλ1 ⊕ ... ⊕ Eλr .
30 Chapitre 2. Réduction d’endomorphismes

Soit x ∈ E, x = x1 + ... + xr avec xi ∈ Eλi :

Q(u)(x) = Q(u)(x1 ) +... + Q(u)(xr ) = 0


| {z } | {z }
=0 =0

Donc : Q(u) = 0.

Réciproquement, supposons que Qu a toutes ses racines dans K et que ses racines sont
simples.
Qu (u) = 0L(E) ⇒ Ker Qu (u) = E
Qu (u) = (u − λ1 IdE ) ◦ ... ◦ (u − λi−1 IdE ) ◦ (u − λi+1 IdE ) ◦ ... ◦ (u − λr IdE ) avec λi racine de Qu
Alors Ker Qu (u) = Ker(u − λ1 IdE ) ⊕... ⊕ Ker(u − λr IdE ) Ceci prouve que u est diagonalisable.
| {z } | {z } | {z }
E Eλ1 Eλr

Application 2.7.1 (Application à la trigonalisation).


 
2 1 1
A=
−1 −1 3
0 −1 3

PA (X) = (2 − X)(1 − X)2


QA (X) est égal à PA (X) ou à (2 − X)(1 − X). Notons Q(X) = (2 − X)(1 − X).
  
0 −1 −1 −1 1 −1
QA (A) = (2I − A)(I − A) = 1 3 −3  1 2 −3 6= 0
  

0 1 −1 0 1 −2

donc Q n’est pas le polynôme minimal , donc Qu = Pu n’a pas toutes ses racines simples. Donc :
A n’est pas diagonalisable.

2.8 Décomposition de Dunford


Rappel. Si u ∈ L(E) est diagonalisable, E = Eλ1 ⊕ ... ⊕ Eλp où les Eλi sont les sous-espaces
propres. Si u est diagonalisble (son polynôme caractérisitque a toutes ses racines dans K) :

E = Ker(u − λ1 IdE )m1 ⊕ ... ⊕ Ker(u − λr IdE )mr

où les λi sont les valeurs propres et les mi les multiplicités des λi .


Lemme 2.8.1 (Lemme des noyaux). P, Q ∈ K[X], u ∈ L(E). Si P et Q sont premiers entre
eux alors :
Ker P Q(u) = Ker P (u) ⊕ Ker Q(u)
d
ak X k :
X
Si P (X) =
k=0
E→E
P (u) :
x 7→ P (u)(x) = dk=0 ak uk (x)
P

avec u0 = IdE
P Q(u) = P (u) ◦ Q(U )
Chapitre 2. Réduction d’endomorphismes 31

Démonstration. Théorème de Bezout : si P et Q sont premiers entre eux, ∃U, V ∈ K[X] tel
que P U + QV = 1. On a donc ∀u ∈ L(E)

P (u) = U (u) = Q(u) ◦ V (u) = IdE

∀x ∈ E,
x = P (u) ◦ U (u)(x) + Q(u) ◦ V (u)(x)
x ∈ Ker P (u) ∩ Ker Q(u)

x = U (u) ◦ P (u)(x) + V (u) ◦ Q(u)(x) = U (u)(0) + V (u)(0) = 0

On a donc :
Ker P (u) ∩ Ker Q(u) = {0}
Soit x ∈ Ker P Q(u) = Ker(P ◦ Q(u)) :

x = U (u) ◦ P (u)(x) + V (u) ◦ Q(u)(x)


| {z } | {z }
∈Ker Q(u) ∈Ker P (u)

car
Q(u)[U (u) ◦ P (u)(x)] = U (u) ◦ P (u) ◦ Q(u)(x)
| {z }
0

Définition 2.8.1. u ∈ L(E), λ une valeur propre de u et m sa multiplicité alors le sous-espace :

N = Ker(u − IdE )m

est appelée sous-espace caractéristique.

Proposition 2.8.2. u ∈ L(E) tel que Pu ait toutes ses racines dans K.

Pu (X) = (λ1 − X)m1 ...(λr − X)mr

et
Ni = Ker(u − λi IdE )mi
(Ni sous-espace caractérisitque). Alors :
1) Ni est stable par u
2) Eλ1 ⊂ Ni
3) E = N1 ⊕ ... ⊕ Nr
4) dim Ni = mi

Démonstration. 1) x ∈ Ni ,

(u − λi IdE )mi (u(x)) = u(−λi IdE )m1 ◦ u(x) = u ◦ u − λi IdE )mi (x)
| {z }
0

Donc u(x) ∈ Ni ⇒ Ni stable par u.


32 Chapitre 2. Réduction d’endomorphismes

2) Eλi = Ker(u − λi IdE ). Si x ∈ Eλi , on a :

(u − λi Id)(x) = 0

Donc ∀k ∈ N,
(u − λi Id)k (x) = 0
Donc : x ∈ Ni .
3) Pu (x) = (λ1 − X)m1 ...(λr − X)mr alors :

Ker Pu (u) = N1 ⊕ ... ⊕ Nr

(Lemme des noyaux généralisée par reccurence)


Or d’après le théorème de Cayley-Hamilton :

Ker Pu (u) = Ker 0L(E) = E

Donc :
E = N1 ⊕ ... ⊕ Nr
4) vi = u|Ni ∈ L(Ni ), si i 6= j alors Ni ∩ Nj = {0}. La seule valeur propre de Ni est λi .

Pvi = (λi − X)dim Ni

Pu = Pv1 ...Pvr
= (λ1 − X)X)dim N1 ...(λr − X)dim Nr
= (λ1 − X)m1 ...(λr − X)mr
d’où ∀i, 1 ≤ i ≤ n, mi = dim Ni .

Définition 2.8.2. On dit que l’endomorphisme u (ou la matrice A) est nilpotent(e) s’il existe
un entier k tel que :
uk = 0L(E) ou Ak = 0
Proposition 2.8.3. Si u est nilpotent, son unique valeur propre est 0. Donc Pu (X) = (−1)n X n .
Démonstration. ∃k ∈ N∗ tel que Ak = 0. Cela veut dire que :

det Ak = 0 ⇔ (det A)k = 0 ⇔ det A = 0

Donc l’endomorphisme u de matrice A n’est pas bijective. Son noyau n’est pas réduit à 0. Donc
0 est valeur propre car il existe x 6= 0 tel que u(x) = 0. Supposons que λ soit valeur propre de
u.
∃k ∈ N∗ , uk (x) = 0
Or si x est vecteur propre de λ :
uk (x) = λk x
On a donc :
λk x = 0 avec x 6= 0
D’où :
λk = 0 ⇔ λ = 0
Chapitre 2. Réduction d’endomorphismes 33

Theorème 2.8.4 (Décomposition de Dunford). Soit u ∈ L(E) tel que Pu ait toutes ses racines
dans K. Alors ∃!(n, d) ∈ L(E)2 où n nilpotent, d diagonalisable tel que :
(1) u = n + d
(2) n ◦ d = d ◦ n
Sous forme matricielle, la décomposition de Dunford est A ∈ Mn (K), PA a toutes ses racines
dans K. ∃!(M, D) ∈ Mn (K)2 où N nilpotente, D diagonalisable tel que :
A = N + D et N D = DN
Lemme 2.8.5. Si u est diagonalisable et si V est un sous-espace de E stable par u alors la
restriction de u à V (u|V ) est diagonalisable.
Démonstration. u diagonalisable ⇔ E = Eλ1 ⊕ ... ⊕ Eλr et si V stable par u, V = (V ∩ Eλ1 ) ⊕
... ⊕ (V ∩ Eλr ), v = u|V ∈ L(v).
Ker(v − λi Idv ) = V ∩ Ker(u − λi IdE )
Les vecteurs propres de v : µ1 , ..., µs appartiennent à l’ensemble {λ1 , ..., λr } valeurs propres de
u. Donc V s’écrit :
V = Vµ1 ⊕ ... ⊕ Vµs
⇔ v diagonalisable.
Lemme 2.8.6. u et v ∈ L(E) diagonalisable et tels que u ◦ v = v ◦ u alors il existe une base
de E composée de vecteurs propres de u et de v.
Démonstration. Soient λ1 , ..., λr les valeurs de v.
Vi = {x ∈ E tel que u(x) = λi x}
Ce qui prouce que u(x) ∈ Vi . Donc Vi stable par u.
Donc u|Vi est diagonalisable. Il existe une base Bi de Vi composée de vecteurs prorres de v
(u|Vi diagonalisable).
E = V1 ⊕ ... ⊕ Vr (car v diagonalisable)
B = B1 ∪ ... ∪ Br est une base de E composée de vecteurs propres de u et de v.
Démonstration du Théorème 2.8.4 : Décomposition de Dunford. Soit u ∈ L(E) et
Pu (X) = (λ1 − X)m1 ...(λr − X)mr
Pour i, 1 ≤ i ≤ r, Ni = Ker(u − λi IdE )mi , E = N1 ⊕ ... ⊕ Nr . On définit d sur chaque Ni par :
d(x) = λi x, ∀x ∈ Ni
et n = u − d. ∀xinE, ∃(x1 , ..., xr ) ∈ N1 × ... × Nr tel que x = x1 + ... + xr
d(x) = d(x1 ) + ... + d(xr ) = λ1 x1 + λ2 x2 + ... + λr xr
1) Par construction, d diagonalisable. Bi base de Ni et B = ∪Bi base de E et la matrice de d
dans B s’écrit :  
λ1
λ2 0
 
 
.
 

 .. 

 

 . .. 

 

 0 λr 

λr
n=u−d
34 Chapitre 2. Réduction d’endomorphismes

2) ni = n|Ni = (u − d)|Ni = u|Ni = λIdNi . On a donc nm


i
i
= 0 car Ni = Ker(u − λi Id)mi . Soit
m
m = sup mi alors n = 0 sur chaque Ni . Or : E = N1 ⊕ ... ⊕ Nr . Si x ∈ E alors :
1≤i≤r

x = x1 + .... + xr

Donc : nm = 0 donc n nilpotent.


3) Vérifions que n ◦ d = d ◦ n, x ∈ E, x = x1 + ... + xr , xi ∈ Ni .

n ◦ d(x) = n ◦ d(x1 ) + ... + d ◦ n(xr ) = d ◦ n(x1 ) + ... + d ◦ n(xr )

sur Ni , d = λi Id commute avec n.


4) Unicité : Supposons que ∃(n, d) et (n0 , d0 ) tel que v = n + d = n0 + d0 , n ◦ d = d ◦ n,
n0 ◦ d0 = d0 ◦ n0 (avec n et n0 nilpotents et d et d0 diagonalisables).

u = d + n + d0 + n

d0 ◦ u = d0 ◦ d0 + d0 ◦ n0 = u ◦ d0
0 0
(u − λi Id)m mi
i ◦ d (x) = d (u − λi Id) (x) = 0 si x ∈ Ni

d|Ni = λi IdNi stable par d0 , d et d0 commutent sur Ni alors d = d0 est diagonalisable. Or


n = u − d, n0 = u − d0 donc n et n0 commutent, nilpotents. On obtient :

n − n0 = d − d0 = 0

Exemple 2.8.1. Si on veut calculer Ak , on utilise la décomposition de Dunford. On a alors :


A = N + D avec N D = DN et :
k
Ak = (N + D)k = Cki N i Dk−i
X

i=0

Exemple 2.8.2.      
1 1 1 1 0 0 0 1 1
A = 0 1 1 = 0 1 0 + 0 0 1
     

0 0 2 0 0 2 0 0 0
| {z } | {z }
diagonale nilpotente

Mais ce n’est pas la décomposition de Dunford car N D 6= DN . Le polynôme caractéristique de


A, PA , est (1 − X)2 (2 − X) alors :

E = Ker(A − id)2 ⊕ Ker(A − 2Id)

on a :
Ker(A − 2I) = {(x, y, z) | y = z et x = 2z} =< 2, 1, 1 >
Ker(A − I) = {(x, y, z) | y = z = 0} =< 1, 0, 0 >
 
0 0 2
2
(A − I) = 0 0 1


0 0 1
Ker(A − I)2 = {< 1, 0, 0 >, < 0, 1, 0 >}
Chapitre 2. Réduction d’endomorphismes 35

N1 = Ker(A − I)2 = Re1 + Re2 N2 = Ker(A − 2I) = Re3


On définit d dans la base (e1 , e2 , e3 ) par :

d(e1 ) = e1 , d(e2 ) = e2 , d(e3 ) = 2e3


 
e1 1 0 0
0
0 1 0
D = e2  

e3 0 0 2
Or :
• u(e1 ) = e1
• u(e2 ) = e2 + e1
• u(e3 ) = 2e3
La matrice de u dans la base (e1 , e2 , e3 ) est :
     
1 1 0 1 0 0 0 1 0
P AP −1 = 0 1 0 = 0 1 0 + 0 0 0
     

0 0 2 0 0 2 0 0 0

Dans la base (e1 , e2 , e3 ) :


• d(e1 ) = e1
• d(e2 ) = e2
• d(e3 ) = 2e1 + e2 + 2e3
   
1 0 2 0 1 −1
0 1 1
D= 0 0 0 
N =
 

0 0 2 0 0 0

Application à la trigonalisation
Nous avons démontré dans la Section 2.4. qu’un polynôme qui a toutes ses racnes dans R
est trigonalisable dans R. Par contre, nous avons laissé assez libre de choix de la bse de trigo-
nalisation, on ne demandait au troisième vecteur de cette base d’être linéairement indépendant
des deux premiers (qui sont des vecteurs propres). La décomposition de Dunford que nous ve-
nons de voir, permet de choisir la base de trigonalisation de manière à obtenir naturellement
la décompoistion de Dunford de la matrice triangulaire obtenue.
Soit u un endomorphisme, on suppose que son polynôme caractéristique a toutes ses racines
dans R. On écrit :
Pu (X) = (λ1 − X)m1 ...(λr − X)mr
On a : E = N1 ⊕ ... ⊕ Nr où Ni = Ker(λi − u)mi . On sait que chaque Ni est stable par u et i
on a B1 une base de Ni alors la base de E, B = ∪Bi , la matrice de u est une matrice par blocs.
 
A1
A=
 .. 
 . 

Ar

où Ai est la matrice de ui = u|Ni . On trigonalise alors chaque Ai . On a Pui )(X) = (λi − X)mi .
On choisit une base de Ker(u − λi IdE ) et on a :

Ker(u − λi IdE ) ⊂ Ker(u − λi IdE )2 ⊂ ... ⊂ Ker(u − λi IdE )mi


36 Chapitre 2. Réduction d’endomorphismes

Exemple 2.8.3. Soit A la matrice de l’endomorphisme i suivante :


 
2 1 −1
A = 3 3 −4
 

3 1 −2

PA (X) = (X + 1)(X − 2)2 . Déterminons les sous-espace caractéristiques :


• N−1 = F = Ker(u + IdE ), c’est le sous-espace propre associé à la valeur propre -1.
• N2 = G = Ker(u − 2IdE )2 ⊃ Ker(u − 2IdE ).
L’espace F est la droite vectorielle engendrée par le vecteur e1 = (0, 1, 1) et l’espace E2 est la
droite engendré par le veteur e2 = (1, 1, 1). Si e3 est un vecteur de G indépendant de e2 alors
la base (e1 , e2 , e3 ) la matrice de u sera de la forme :
 
−1 0 0
 0 2 a
 

0 0 2

On choisit un vecteur e3 dans N2 \E2 . On a :


 
0 0 0
2
(A − 2I) = −9 0 9
 

−9 0 9

d’où Ker(A − 2I)2 = {(x, y, z) | x ∈ z}, c’est un plan vectoriel. Le vecteur e3 = (1, 0, 1) est dans
N2 mais pas dans E2 et les vecteurs e1 , e2 , e3 forment une base de E. On calcule u(e1 ) et on
identifie :
u(e3 ) = (1, −1, 1) = a(1, 1, 1) + 2(1, 0, 1)
d’où a = 1.
La matrice u dans la base (e1 , e2 , e3 ) est triangulaire, elle s’écrit :
 
−1 0 0
T =  0 2 −1
 

0 0 2

et si P est la matrice de passage :  


0 1 1
P = 1 1 0
 

1 1 1
on a : T = P −1 AP . Cette triangulisation permet d’obtenir la décomposition de Dunford de A
en écrivant :    
−1 0 0 0 0 0
T = 0

2 0 + 0 0 −1
 

0 0 2 0 0 0
| {z } | {z }
∆ M
−1 −1
On a A = P T P −1 = |P ∆P
{z } + P
| M{zP }. La matrice D est diagonalisable, la matrice N est
D N
nilpotente et ce sont les matrices de la décomposition de Dunford.
Chapitre 3

Systèmes différentielles linéaires

On a vu la résolution de ce type d’équations :


x0 (t) = a(t)x(t) + b(t)
x00 (t) + px0 (t) + qx(t) = 0
Dans ce cours, on va chercher des fonctions de ce type :
R → Rn
 
x1 (t)
X:  x2 (t) 
 
t 7→  .. 

 . 

xn (t)
X(t) = (x1 (t), ..., xn (t))
On va résoudre ce système d’équations :

 x0 (t)= a11 x1 (t) + a12 x2 (t) + ... + a1n xn (t) + b1 (t)
 1


..
 .

x0 (t) = a x (t) + a x (t) + ... + a x (t) + b (t)

n n1 1 n2 2 nn n n
 
x1 (t)
0
 . 
 .. . On a à résoudre cette équation :
On pose X =  
xn (t)
X 0 = AX + B
avec  
b1 (t)
 . 
(aij )1≤i≤n,1≤j≤n  .. 
et B(t) =  
bn (t)

3.1 Exponentielle de matrice


Définition 3.1.1 (Développement de l’exponentielle en séries). Soit x ∈ R
+∞ n
x xk
X X xk
e = = lim
k=0 k! k=0 k!
n→+∞

37
38 Chapitre 3. Systèmes différentielles linéaires

Définition 3.1.2. Soit A ∈ Mn (C), la matrice définie par :


n
Ak 1 1
= lim (In + A + A2 + ... + An )
X

k=0 k!
n→+∞ 2 n!

On la note exp(A). Si A est diagonale, c’est-à-dire :


 
λ1

 λ2 0 

A= 
.. 

 0 . 

λn
 k 
λ1

 λk2 0 

Ak = 
... 
0
 
 
λkn
 λ1 
e
A

 eλ2 0 

e = 
.. 

 0 . 

eλn

Propriété 3.1.1. 1) Si A = 0, exp A = In


2) Si AB = BA, exp(A + B) = exp A exp B
3) ∀A ∈ Mn (C), exp A inversible et exp(A) = exp(−A).
4) Si P inversible, exp(P −1 AP ) = P −1 . exp A.P .

Démonstration. 1) Si A = 0 alors eA = limn→+∞ (In + 0 + 21 × 0 + ... + 0) = In .


2) On pose :
n n
! n

XAi X Bj  X (A + B)k
∆n = −
i=0 i! j=0 j! k=0 k!
or AB = BA donc pour tout k,

(A + B)k X Cki X Ai Bj
= Ai Bj =
k! i+j=k k! i+j=k i! j!

d’où :
n n
kAki j
(kAk + kBk)k
! !
X X kAk kBk X X
n kBk
X
k∆n k = = j=0 −
i+j=k i! j! i=0 i! j! k=0 k!
n+1≤i+j≤2n
0≤i,j≤n

et ce dernier terme tend vers 0 quand n tend vers l’infini.


3) A et −A commutent

exp(A.A) = exp A. exp(−A) ⇔ In = (exp A).(exp(−A)) ⇔ (exp A)−1 = exp(−A)


| {z }
exp 0
Chapitre 3. Systèmes différentielles linéaires 39

4)
exp(P −1 AP ) = limn→+∞ (P −1 P + P −1 AP + ... + (P −1 AP )n )
| {z }
P −1 An P
An
= limn→+∞ P −1 (In + A + ... + n!
)P
= P −1 (exp A)P

Exemple 3.1.1. A matrice quelconque, A ∈ Mn (C), ∃!D diagonalisable, ∃!N nilpotent :

A=N +D N D = DN

exp A = exp(N + D) = exp N. exp D


exp N se calculer facilement, c’est une somme finie. exp D, D diagonalisable : ∃P inversible tel
que D = P −1 ∆P avec ∆ diagonale. Donc :

exp D = exp(P −1 ∆P ) = P −1 exp ∆P

et on voit qu’on peut toujours calculer une exponentielle de matrice dans C.

3.2 Systèmes différentielles linéaires


Proposition 3.2.1. A ∈ Mn (R), I ⊂ R, B : I → Rn . Si S0 est solution du système X 0 =
AX + B (∗) alors toute solution s’écrit S + S0 où S est solution du système homogène
X 0 = AX.

Démonstration. • S : I → Rn telle que S 0 (t) = AS(t), ∀t ∈ I.


• S0 : I → Rn telle que S 0 (t) = AS0 (t) + B(t), ∀t ∈ I.
(S + S0 )0 = AS + AS0 + B = A(S + S0 ) + B donc S + S0 solution de (∗). Soit u une solution
de (∗) alors :

(u − S0 )0 (t) = u0 (t) − S00 (t) = Au(t) + B(t) − AS0 (t) − B(t) = A(u − S0 )(t)

Ainsi, u − S0 est solution du système homogène et on a : u = S0 + (u − S0 ), ce qui démontre


la proposition ;

3.2.1 Résolution des systèmes homogènes


Proposition 3.2.2. A ∈ Mn (R), λ un vecteur propre de A. Alors la fonction :

R → Rn
t 7→ eλt V

où V est un vecteur propre associé de Rn est solution de X 0 = AX.

Démonstration.
R → Rn
t 7→ eλt V
S 0 (t) = λeλt V = eλt λV = eλt AV = A(eλt V ) = AS(t)
40 Chapitre 3. Systèmes différentielles linéaires

Exemple 3.2.1. Soit à résoudre :



 x0
= 4x − 2y
0
y = x + y

On a alors une équation du type X 0 = AX avec :


!
4 −2
A=
1 1

En diagonalisant la matrice A, on trouve D et P :


! !
2 0 1 1
D= et P =
0 3 −1 2
 
et donc : S(t) = e2t 1 1 est une solution de X 0 = AX.

Proposition 3.2.3. Y : R → Rn , A ∈ Mn (R) inversible. (P Y ) est solution du système


X 0 = AX ⇔ Y est solution de X 0 = (P −1 AP )X.

Démonstration. P Y est solution de X 0 = AX ⇔ (P Y 0 ) = A(P Y ) = P Y 0 = (AP )Y ⇔ Y 0 =


(P −1 AP )Y .

Proposition 3.2.4. A ∈ Mn (R), l’application :

R → Mn (R)
R:
t 7→ exp(tA)

est dérivable et on a :
R0 (t) = AR(t) avec R0 (t) ∈ Mn (R)

Démonstration.

X 1 k k
R(t) = exp(tA) = t A
k=0 |k! {z }
Rk (t)

∞ ∞
1
Rk0 (t) k−1 k 0
X X
= t A = ARk−1 (t) = A Rk (t) = ARk (t) = AR(t)
(k − 1)! k=0 k=0

Theorème 3.2.5. A ∈ Mn (R), les solutions du système homogène X 0 = AX sont les fonc-
tions :
R → Rn
S:
t 7→ exp(tA)V
où V ∈ Rn et :  
v1
.
 ..  , V = v1 E1 + v2 E2 + ... + vn En
V = 
vn
(E1 , ..., En ) base canonique de Rn .
Chapitre 3. Systèmes différentielles linéaires 41

Démonstration. n
X
S(t) = exp tA.V = Nk (exp tA)Ek
k=1
| {z }
Sk (t)
n n
S 0 (t) = vk Sk0 (t) =
X X
vk ASk (t) = AS(t)
k=1 k=1

On considère S une solution de X 0 = AX


R → Rn
F :
t 7→ exp(−tA)S(t)

F (t) = exp(−tA)S(t)
F 0 (t) = A exp(−tA)S(t) + exp(−tA)S 0 (t) = −A exp(−tA)S(t) + exp(−tA)AS(t) = 0
Dans la pratique, on va devoir intégrer X 0 = AX. Soit P inversible telle que B = P −1 AP =
D + n, B étant triangulaire, D diagonale et N nilpotent. On sait que P Y est solution de
X 0 = AX ⇔ Y est solution de X 0 = BX (avec B = P AP −1 ). On intégre le système Y 0 = AY
soit :
Y (t) = exp(tB)V, V ∈ Rn
On obtient les solutions de X 0 = AX en écrivant X 0 = P Y .

X(t) = P exp(tB)V, V ∈ Rn

Proposition 3.2.6. A ∈ Mn (R), l’ensemble des solutions du système X 0 = AX est un espace


vectoriel de dimension n.

Démonstration. Le fait que ce soit un espace vectoriel est évident. Soit S l’ensemble des solu-
tions, S est un espace vectoriel.

u : Rn → S
V 7→ S : R → Rn
t 7→ exp(tA)V

u est une application linéaire :

Ker u = {V ∈ Rn | SV = 0}

0 : l’application nulle :

Ker u = {V ∈ Rn | exp(tA)V = 0, ∀t ∈ R} = {0Rn }

car la matrice exp(tA) inversible. u est donc bijective (isomorphisme). Rn et S sont isomorphes
donc ont la même dimension.
Les colonnes de la matrice exp(tA) forment une base de l’espace vectoriel des solutions du
système différnetiel X 0 = AX.

Proposition 3.2.7. Soit A ∈ Mn (R) une matrice diagonalisable sur R. Notons (V1 , ..., Vn ) une
base de vecteurs propres et λ1 , ..., λn les valeurs propres correspondantes. Alors les fonctions
Si (t) = eλi t Vi , (1 ≤ i ≤ n) forment une base de l’espace des solutions du système X 0 = AX.
42 Chapitre 3. Systèmes différentielles linéaires

Démonstration. Montrons que ces solutions sont linéairement indépendantes, en effet si a1 , ..., an
sont des réels tels que :
a1 S1 (t) + ... + an Sn (t)
cette égalité étant vraie pour tout t, elle est vrai en particulier pour tout t = 0 où elle devient

a1 V1 + ... + an Vn = 0

ce qui implique a1 = ... = an = 0 car les Vi forment une base de Rn . Comme l’espace des
solutions est de dimension n, les Si forment une base. Soit P la matrice dont les colonnes
sont les vecteurs V1 , ..., Vn . Si X = P Y est solution de X 0 = AX, alors Y est solution de
Y 0 = (P −1 AP = D est diagonale. On a :

y0 k1 eλ1 t
 
 = λ1 y 1
 1


..  . 
.  .. 
d’où Y (t) =  

kn eλn t

y 0

= λn y n
n

Comme corollaire du théorème, nous allons démontrer l’unicité de la solution sous conditions
initiales.

Proposition 3.2.8. Soient A ∈ Mn (R), t0 ∈ R et X0 ∈ Rn . Il existe une unique solution S0


du système différentiel X 0 = AX qui vérifie S0 (t0 ) = X0 , c’est la fonction S0 : R → Rn définie
par :
S0 (t) = (exp(t − t0 )A)X0

Démonstration. On pose :

S0 (t) = (exp(t − t0 )A)X0 = exp(tA) exp(−t0 A)X0 = exp(tA)Y0

D’après le Théorème 3.2.4, S est solution de X 0 = AX et

S0 (t0 ) = exp(0A)X0 = In X0 = X0

S’il existe une autre solution S1 de X 0 = AX vérifiant S1 (t0 ) = X0 alors on a :

S1 (t) = exp(tA)V et exp(t0 A)V = X0

c’est-à-dire V = exp(−t0 A)X0 donc V = Y0 et S1 (t) = S0 (t) pour tout t ∈ R. Nous avons donc
démontré que l’espace des solutions est un espace vectoriel de dimension n et que si l’on impose
la condition X(t0 ) = X0 , il y a unicité de la solution.

3.2.2 Cas général, variation de la constante


On cherche maintenant à obtenir la solution générale du système X 0 = AX + B où

A ∈ Mn (R) et B : I → Rn

Connaissant la solution générale du système homogène X 0 = AX, nous allons chercher une
solution du système non homogène.
Chapitre 3. Systèmes différentielles linéaires 43

Soit (S1 , ..., Sn ) une base de l’espace vectoriel des soltuions X 0 = AX, toute solution de ce
système s’écrit donc :
n
X
S(t) = αi Si (t)
i=1
où les αi , 1 ≤ i ≤ n sont des réels. Nous allons chercher une solution du système X 0 = AX + B
sous la forme : n X
S(t) = αi (t)Si (t)
i=1
où les fonctions αi sont des fonctions dérivables sur I. On a alors, pour tout t ∈ R
n n n
S 0 (t) = αi (t)Si0 (t) + αi0 (t)Si (t) = AS(t) + αi0 (t)Si
X X X

i=1 i=1 i=1

car Si0 (t) = ASi (t), on identifie alors :


n
αi0 (t)Si (t) = B(t)
X

i=1

Les colonnes de la matrice R(t) = exp(tA) forment une base de l’espace des solutions de
X 0 = AX, à partir de cette base on cherche une solution de X 0 = AX + B sous la forme
S(t) = R(t)F (t) d’où
I → Rn 
α1 (t)
F :  . 
 .. 
t 7→ F (t) =  
αn (t)
on peut écrire sous la forme matricielle
S 0 (t) = R0 (t)F (t) + R(t)F 0 (t) = AR(t)F (t) + R(t)F 0 (t) = AS(t) + R(t)F (t)
ainsi, en indentifiant on a :
R(t)F 0 (t) = B(t)
ce qui nous donne :
F 0 (t) = R−1 (t)B(t) = exp(−tA)B(t)
Il ne reste plus qu’à intégrer terme à terme F 0 (t), c’est-à-dire les αi (t).

3.2.3 Application aux équations différentielles d’ordre n


Nous allons voir, là encore comment des méthodes d’algèbre linéaire permettent de résoudre
des problèmes d’analyse.
On considère une équation différentielle d’ordre n à coefficients constants.
y (n) + a1 y (n−1) + ... + an y = 0 (∗)
où la fonction inconnue est une fonction de R dans R. On introduit les fonctions auxilliaires





y1 = y
y10 = y0




 y2 =

.. ..
 . .

0
yn−1 = yn−2 = y (n−2)





0

yn = yn−1 = y (n−1)


44 Chapitre 3. Systèmes différentielles linéaires

Pour intégrer l’équation (∗), on intégre le système







y10 = y2
y0


 = y3
 2


..
 .

0
yn−1 = yn




 0

yn = −a1 yn − a2 yn−1 − ... − an y1

c’est-à-dire
Y 0 = AY
avec  
0 1 0 ··· 0
0 0 1 ··· 0
 
 
.. .. .. ..
 
A= 
 . . . .


 

 0 0 0 ··· 1 

−an −an−1 −an−2 · · · −a1

3.3 Exemples en dimension 2


3.3.1 Systèmes homogènes
Soit A ∈ M2 (R). Les solutions du système X 0 = AX sont des applications de R dans R2
qui peuvent être représentées par des courbes paramétrées. On a

x0 (t) = a11 x(t) + a12 y(t)
X 0 = AX ⇔
y 0 (t) = a21 x(t) + a22 y(t)

Si l’application :
R→R
S:
t 7→ (x(t), y(t))
est solution de X 0 = AX, l’ensemble S(R) = {S(t) = (x(t), y(t)) ∈ R2 , t ∈ R} est appelé
trajectoire.
Les solutions constantes sont les applications S(t) = X0 ∈ R2 pour tout t ∈ R, on a donc
S 0 (t) = 0, c’est-à-dire AX0 = 0. Le vecteur X0 est appelé point d’équilibre du système, le point
(0, 0) est toujours à l’équilibre.
Proposition 3.3.1. Les trajectoires du système X 0 = AX sont disjointes et confondues.
Démonstration. Soient S1 et S2 deux solutions du système homogène X 0 = AX. On a donc,
pour tout t ∈ R, S10 (t) = AS1 (t) et S20 (t) = AS2 (t). alors ou bien S1 (R) ∩ S2 (R) = ∅, ou bien il
existe V ∈ R2 tel que V ∈ S1 (R) ∩ S2 (R), nous allons montrer que dans ce cas, les trajectoires
sont confondues, c’est-à-dire que l’on a S1 (R) = S2 (R).
D’après l’étude des systèmes homogènes, on sait que si S1 et S2 sont solutions, il existe des
vecteurs V1 et V2 dans R2 tels que, pour tout t ∈ R,

S1 (t) = exp(tA)V1 et S2 (t) = exp(tA)V2

Si V ∈ S1 (R) ∩ S2 (R), alors, il existe t1 ∈ R et t2 ∈ R tels que

V = S1 (t1 ) = S2 (t2 ) = exp(t1 A)V1 = exp(t2 A)V2


Chapitre 3. Systèmes différentielles linéaires 45

. Or, S2 est l’unique solution prenant la valeur V en t2 , on a donc pour tout t ∈ R,

S2 (t) = (exp(t − t2 )A)V

Ainsi pour tout t ∈ R, on a :

S2 (t + t2 − t1 ) = (exp(t − t1 )A)V = (exp(t − t1 )A) exp(t1 A)V1 = S1 (t)

Ce qui prouve que les trajectoires sont confondues, en effet, pour tout t ∈ R, on a S1 (t) ∈ S2 (t)
et S2 (t) ∈ S1 (t).

3.3.2 Equations différentielles du second ordre


On souhaite intégrer l’équation :

x00 (t) + px0 (t) + qx(t) = b(t)

où p et q sont des constante réelles et où la fonction inconnue x est une fonction réelle à valeurs
réelles et la fonction b est définie et continue sur un intervalle I de R. Pour cela, on pose y = x0
et on intègre le système : 
 x0 = y
y 0 = −qx − py + b(t)

On est ainsi ramené à l’étude des systèmes de la Section 3.2.


Proposition 3.3.2. La fonction s : I → R est solution de l’équation différentielle

x00 + px0 + qx = b

si et seulement si l’application S : I → R2 définie par :


! !
x(t) s(t)
S(t) = = 0
y(t) s (t)

est solution du système X 0 = AX + B avec


! !
0 1 0
A= et B =
−q −p b(t)

La démonstration est une vérification immédiate et la matrice A est très simple à étudier.
Son polynôme caractéristique est égal à : PA (X) = X 2 + pX + q, l’espace vectoriel des
solutions de l’équation homogène d’ordre 2, x00 + px0 + q = 0 est de dimension 2, on peut en
donner une base en fonction des racines du polynôme caractéristique.
– Si λ1 et λ2 sont deux racines distinctes, l’espace des solutions de l’équation homogène est
engendré par les fonctions
t 7→ eλ1 t et t 7→ eλ2 t
– Si λ est une racine réelle double, il est engendré par

t 7→ eλt et t 7→ teλt

– Si a + ib et a − ib sont deux racines complexes conjuguées, il est engendré par :

t 7→ eat cos bt et t 7→ eat sin bt


46 Chapitre 3. Systèmes différentielles linéaires

3.4 Etudes d’exemples


Nous allons commencer par un exemple de système linéaire avec second membre par la
méthode de variation des constantes.
Exemple 3.4.1. Soit le système

x0 = 3x + y + tet
y 0 = −x + y + et
(ε)

Notons ε0 le système homogène



 x0
!
= 3x + y 03 1
⇔X = X = AX (ε0 )
0
y = −x + y −1 1
!
3 1
Considérons la matrice A = , son polynôme caractéristique est égal à
−1 1

PA (X) = (3 − X)(1 − X) + 1 = X 2 − 4X + 4 = (X − 2)2

D’après le théorème de Cayley-Hamilton, on a PA (A) = 0, c’est-à-dire (A − 2I2 )2 = 0. Posons


N = A − 2I2 , c’est une matrice nilpotente et on a : A = N + 2I2 , comme N et I2 commutent,
c’est la décomposition de Dunford.
La solution générale de l’équation homogène s’écrit :

X(t) = exp(tA)V

où V est un vecteur de R2 . Calculons exp(tA).

exp(tA) = exp(t(N + 2I2 )) = exp(tN + 2tI2 ) = exp(tN ) exp(2tI2 )

or, (tN )2 = t2 N 2 = 0 d’où


!
2t 2t t+1 t
exp(tA) = e I2 (I + tN ) = e
−t 1 − t

La solution générale du système (ε0 ) s’écrit donc :


! ! ! ! !
2t t+1 t a a(t + 1) + bt t+1 t
X(t) = e = e2t = ae2t + be2t
−t 1 − t b −at + b(1 − t) −t 1−t

avec V = (a, b) ∈ R2 . Les applications


! !
2t t+1 t
t 7→ e et t 7→
−t 1−t

sont deux solutions linéairement indépendantes, elles forment une base de l’espace des solutions
de (ε0 ).
On cherche une solution particulière de l’équation complète (ε) en faisant varier le vecteur
V = (a, b) c’est-à-dire les constantes a et b que l’on cherche sous forme de fonctions a(t) et b(t).
En écrivant les choses sous forme matricielle, on obtient X(t) = exp(tA)V (t) d’où

X 0 (t) = A exp(tA)V (t) + exp(tA)V 0 (t)


Chapitre 3. Systèmes différentielles linéaires 47

Ainsi, on a V 0 (t) = exp(−tA)B 0 (t) d’où


! ! ! ! !
0 −2t −t + 1 −t tet 1 − t −t t −t2
V (t) = e t = e−t = e−t 2
t 1+t e t 1+t 1 t +t+1

On cherche donc des fonctions a(t) et b(t) qui vérifient



a0 (t) = −e−t t2
b0 (t) = e−t (t2 + t + 1)

On les cherche sous la forme e−t P (t) où P (t) est un polynôme de degré 2 et l’on obtient

a(t) = (t2 + 2t + 2)e−t et b(t) = −(t2 + 3t + 4)e−t

Ainsi, la solution générale de l’équation complète s’écrit :


! !! ! !!
2t t+1 t 2t t+1 t
X(t) = e α +β +e a(t) + b(t)
−t 1−t −t 1−t
| {z } | {z }
soltuion de (ε0 ) solution de (ε)

où α et β sont des constantes réelles, a(t) et b(t) les fonctions trouvées ci-dessus. Simplifions la
solution particulière de (ε).
! !! !
−t t+1 t 2
S1 (t) = e 2t 2
e (t + 2t + 2) + e−t (−t2 − 3t − 4) =e t
−t 1−t −t − 4

La solution générale de l’équation (ε) s’écrit donc


! ! !!
t 2 t+1 t
S(t) = e + e2t α +β
−t − 4 −t 1−t

α et β sont des constantes réelles arbitraires.

Nous allons maintenant étudier quelques exemples simples d’équations homogènes dans R2
qui nous améneront à tracer des trajectoires (courbes paramétrées).

Exemple 3.4.2. Considérons le système :



 x0
! ! !
=x x0 1 0 x
⇔ 0 =
0
y = 2y y 0 2 y
!
1 0
c’est un cas où la matrice A = est diagonale. On résout les deux équations et on obtient
0 2

x(t) = aet
y(t) = be2t

où a et b sont des constantes réelles. Etudions plus précisement les trajectoires obtenues selons
les valeurs des constantes a et b.
– Si a = b = 0, la solution du système obtenue est l’application nulle de R → R2 , sa
trajectoire est réduite au point (0, 0) ∈ R2 .
48 Chapitre 3. Systèmes différentielles linéaires

– Si a = 0 et b 6= 0 alors pour tout t ∈ R, x(t) = 0 et y(t) est du signe de b ainsi les


trajectoires sont les demi-axes Ox et −Ox.  2
– Si a 6= 0 et b 6= 0 alors pour tout tR, on a y(t) = b x(t)
a
, les trajectoires sont donc les
 2
x
courbes d’équations y = b a
, c’est-à-dire des branches de paraboles.
Exemple 3.4.3. Considérons maintenant le système :

 x0 =0
y 0 =x

On a alors, pour tout t ∈ R, x(t) = k, k étant une constante réelle et donc y(t) = kt+h où h est
également une constante réelle. Les trajectoires sont les droites x = k, parcourues de y = −∞
vers y = +∞ si k > 0 et dans l’autre sens si k < 0.
Exemple 3.4.4. Nous allons maintenant étudier le système

 x0 =y
y 0 = −x

Avant d’intégrer ce système en appliquant les méthodes du cours, on peut remarquer que les
applications suivantes sont solution :
! !
cos t sin t
S1 : t 7→ et S2 : t 7→
− sin t cos t

Vérifions que ces deux solutions sont linéairement indépendantes, soient a et b des réels tels que
pour tout t ∈ R,
aS1 (t) + bS2 (t) = 0
alors, pour t = 0, on a :
! ! !
1 0 0
aS1 (0) + bS2 (0) = a +b =
0 1 0

ce qui implique que a = b = 0. On a ainsi toutes les solutions du système comme combinaison
linéaire de cette base de l’espace des solutions.
Si on ne !pense pas à ces solutions évidentes, alors on résout le système X 0 = AX avec
0 1
A= . On déterminer les racines du polynôme caractéristique de A. On a :
−1 0

PA (X) = X 2 + 1 = (X − i)(X + i)

ce polynôme n’a pas de racines réelles, par contre il admet deux racines dinstinctes dans C, la
matrice A est donc diagonalisable dans C et c’est cette diagonalistion que nous allons utiliser,
sachant que les parties réelles et imaginaires des solutions complexes sont les solutions réelles
recherchées. En effet si Z(t) = X(t) + iY (t) alors :

Z 0 (t) = AZ(t) ⇒ X 0 (t) + iY 0 (t) = AX(t) + iAY (t)

et, comme A est une matrice à coefficients réels, on obtient par identification X 0 = AX et
Y 0 = AY . De plus les solutions complexes sont conjuguées puisque le système est à coefficients
réels.
Chapitre 3. Systèmes différentielles linéaires 49

On peut diagonaliser A ou plus simplement déterminer les vecteurs propres Vi et V−i asso-
ciées aux valeurs propres i et −i, on obtient ainsi deux solutions linéairement indépendantes,
et la solution générale s’écrit :
Z(t) = αeit Vi + βe−it V−i
où α et β sont des constantes complexes. On a :
! ! !
0 1 x ix
AV = iV ⇔ = ⇔ y = ix
−1 0 y iy
! ! !
0 1 x −ix
AV = −iV ⇔ = ⇔ y = −ix
−1 0 y −iy
! !
1 1
on prend Vi = et V−i = . la solution générale complexe s’écrit alors :
i −i
! !
1 1
Z(t) = αe it
+ βe−it
i −i

où α et β sont des constantes complexes. Cette équation s’écrit encore :


! !
cos t sin t
Z(t) = (α + β) + i(α − β)
− sin t cos t

La solution générale réelle s’écrit donc


! !
cos t sin t
S(t) = a +b
− sin t cos t

où a et b sont des constantes réelles.


Remarquons que comme les solutions complexes sont conjuguées deux à deux, une com-
binaison linéaire de deux solutions complexes indépendantes fournit une combinaison linéaire
réelle de deux solutions réelles indépendantes (et non de quatre).
Etudions maintenant la forme des trajectoires, soit (a, b) ∈ R2 , considérons la solution S
définie par S(t) = (x(t), y(t)) et :

x(t) = a cos t + b sin t
y(t) = −a sin t + b cos t

Alors pour tout t ∈ R, on a :


x2 + y 2 = (a cos t + b sin t)2 + (−a sin t + b cos t)2
= a2 cos2 t + b2 sin2 t + 2ab cos t sin t + a2 sin2 t + b2 cos2 t − 2ab sin t cos t
= (a2 + b2 )(cos2 t + sin2 t) = a2 + b2

Ce qui prouve que la trajectoire de S est le cercle de centre O = (0, 0) et de rayon a2 + b2 .
Exemple 3.4.5. Nous allons maintenant, à partir du système étudié dans l’exemple précédent
intégrer l’équation du second ordre x00 + x = 0. les fonctions t 7→ sin t et t 7→ cos t sont deux
solutions linéairement indépendantes.
Ecrivons l’équation sous forme de système linéaire
! ! !
x0 0 1 x
=
x00 −1 0 x0
50 Chapitre 3. Systèmes différentielles linéaires

! !
0 0 1 x
ou encore X = AX avec A = et X = . On retrouve les solutions de notre
−1 0 x0
système précédent via la matrice R(t) = exp(tA), c’est-à-dire après calculs
!
cos t sin t
R(t) =
− sin t cos t

dont les colonnes sont des solutions linéairement indépendantes du système X 0 = AX. La
solution générale s’écrit : ! !
cos t sin t
S(t) = a +b
− sin t cos t
avec (a, b) ∈ R2 .
Si l’équation a un second membre, c’est-à-dire, si l’on veut intégrer x00 + x = f (t) où f est
une fonction réelle continue, les solutions seront cherchées en faisant varier les constantes a et
b. Les fonctions a(t) et b(t) étant obtenue par indentification en écrivant
! !
a0 (t) 0
0 = R(−t)
b (t) f (t)

c’est-à-dire : 
a0 (t) = − sin(t)f (t)
b0 (t) = (cos t)f (t)

Vous aimerez peut-être aussi