Académique Documents
Professionnel Documents
Culture Documents
1 Déterminants 3
1.1 Formes multilinéaires alternés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Déterminants d’une matrice (carrée) . . . . . . . . . . . . . . . . . . . . 9
1.3.3 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Méthodes de calcul de déterminants . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.1 Développement par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.2 Développement selon une ligne et une colonne . . . . . . . . . . . . . . . 14
1.5 Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2 Réduction d’endomorphismes 20
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1 Valeurs propres - Vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Polynômes caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3 Endomorphismes diagonalisables . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.5 Sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.6 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.7 Polynôme minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.8 Décomposition de Dunford . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2
Chapitre 1
Déterminants
Préléminaires
On note E un espace vectoriel de dimension n sur R. Dans le cours, on met des flèches pour
représenter des vecteurs. Ici, on ne les mettra pas.
E1 × E2 × ... × Ep → F
ϕ:
(x1 , ..., xp ) 7→ ϕ(x1 , ..., xp )
est dite multilinéaire si en tout point, les p applications partielles sont linéaires (ϕ est linéaire
par rapport à chacune des variables).
Si on fixe i ∈ {1, ..., p} et ∀j 6= i, on fixe un vecteur xj .
Ei → F
ϕi : x 7→ ϕ(x1 , ..., xi−1 , |{z}
x , xi−1 , ..., xp )
| {z } | {z }
fixés variable fixés
ϕ(a, b) = a1 b2 − a2 b1
C’est en fait :
a b1
1
a2 b2
3
4 Chapitre 1. Déterminants
Définition 1.1.2. Une forme p-linéaire sur E (tous les Ei sont égaux à E) est dite alternée si :
ϕ(x1 ..., xp ) = 0
chaque fois que deux vecteurs parmi xi sont égaux (avec 1 ≤ i ≤ p).
E × ... × E → R
ϕ:
(x1 , ..., xp ) 7→ ϕ(x1 , ..., xp )
Propriété 1.1.1. Soit ϕ une forme p-linéaire alternée sur E, on change pas la valeur de
ϕ(x1 , ..., xp ) en ajoutant à un des vecteurs xi une combinaison linéaire des autres.
Exemple 1.1.2.
ϕ(a, b) = ϕ(a, b + λa)
a
1 b1 + λa1
= a1 (b2 + λa2 ) − a2 (b1 + λa2 )
a2 b2 + λa2
= a1 b1 + λa1 a2 − a2 b1 − λa1 a2 = a1 b2 − a2 b1
Démonstration de la Propriété 1.1.1. On considère x1 , ..., xp des vecteurs de E, λ1 , ..., λp des
scalaires (des éléments) de R. On calcule :
n
X
ϕ(x1 , x2 , ..., xi−1 , xi + λk xk , xi+1 , ..., xp )
k=1,k6=i
n
X
= ϕ(x1 , x2 , ..., xi−1 , xi , xi+1 , ..., xp ) + ϕ(x1 , ..., xi−1 , λk xk , xi+1 , ..., xp )
k=1,k6=i
n
X
= ϕ(x1 , ..., xp ) + ϕ(x1 , ..., xi−1 , xk , xi+1 , ..., xp )
k=1,k6=i
| {z }
=0
n
X
ϕ(x1 , ..., xi−1 , xi , xi+1 , .., xp ) = 0 car ϕ est alternée.
k=1,k6=i
λ1 x1 + ...λp xp = 0
⇒ l’un des vecteurs peut s’écrire comme combinaison linéaire des autres.
1.2 Permutations
Définition 1.2.1. ∀n ∈ N∗ , on appelle groupe des permutations de {1, ..., n} noté Sn (ou Σn )
le groupe des bijections de {1, ..., n} → {1, ..., n} et on a card(Sn ) = n!.
Exemple 1.2.1. n = 2 alors Sn est :
{1, 2} → {1, 2}
( ! !)
1 2 1 2
S2 = Id = , τ1,2 =
1 2 2 1
Il y a 2 permutations dans S2 .
Chapitre 1. Déterminants 5
Proposition 1.2.3. Soit ϕ une forme p-linéaire sur E. Alors ϕ est alternée si et seulement si
pour toute permutation σ ∈ Sp et ∀(x1 , ..., xp ) ∈ E p , on a :
Proposition 1.2.4. Soit ϕ une forme p-linéaire sur E. Alors ϕ est alternée si et seulement si
pour toute transposition τ ∈ Sp et pour tout (x1 , ..., xp ) ∈ E p :
C’est-à-dire :
0 = ϕ(x1 , ..., xp ) + ϕ(xτ (1) , ..., xτ (k) , ..., xτ (i) , ..., xp )
D’où le résultat.
6 Chapitre 1. Déterminants
“⇐” On suppose que toute transposition τ , on a ϕ(xτ (1) , ..., xτ (p) ) = −ϕ(x1 , ..., xp ) et on
démontre que ϕ est alternée c’est-à-dire qu’elle s’annule chaque fois que deux vecteurs du
p-uplet (x1 , ..., xp ) sont égaux.
Soit i < k, i, k ∈ {1, ..., p}. On suppose xi = xk et on démontreue :
ϕ(x1 , ..., xi , ..., xk , ..., xp ) = 0
ϕ(xτ (1) , ..., xτ (p) ) = −ϕ(x1 , ..., xi , ..., xk , ..., xp )
= ϕ(x1 , ..., xk , ..., x i , ..., xp )
|{z} |{z}
iième place kième place
1.3 Déterminants
1.3.1 Définitions et propriétés
Theorème 1.3.1. Soit E un espace vectoriel sur R de dimension n. L’ensemble des formes n-
linéaires alternés sur E est un espace vectoriel sur R de dimension 1. De plus, si B = (e1 , ..., en )
est une base de E, il existe une unique forme n-linéaire alternée ∆ telle que ∆(e1 , ..., en ) = 1.
Démonstration. On se fixe une base B = (e1 , ..., en ). On considère des vecteurs x1 , ..., xn ∈ E.
Pour 1 ≤ j ≤ n, on note (xij )1≤i≤n les coordonnées de xj dans la base B.
n
X
xj = xij ei = x1j e1 + ... + xnj en
i=1
En utilisant la linéarité de ϕ par rapport à chaque variable et le fait que ϕ soit alternée, on
obtient : X
ϕ(x1 , ..., xn ) = xσ(1)1 , ..., xσ(n)n ϕ(eσ(1) , ..., eσ(n) )
σ∈Sn
D’après la Proposition 1.2.3., c’est une somme sur toutes les permutations de Sn . On a donc :
X
ϕ(x1 , ..., xn ) = xσ(1)1 ...xσ(n)n ε(σ)ϕ(e1 , ..., en )
σ∈Sn
X
×
ε(σ)xσ(1)1 ..xσ(n)n ϕ(e1 , ..., en )
σ∈Sn
| {z }
| {z } constante qui
∆(x1 ,...,xn )
ne dépend pas des
vecteurs (x1 , ..., xn )
On doit montrer que ∆(x1 , ..., xn ) est une application multilinéaire alternée :
Chapitre 1. Déterminants 7
→ multilinéaire : évident.
→ alternés : si il existe i 6= j et xi = xj alors ∆(x1 , ..., xn ) = 0.
Soient (x1 , ..., xn ) des vecteurs de E et soit An groupe alternées tel que :
An = {σ ∈ Sn | ε(σ) = 1}
on suppose que xi = xk (on fixe i, k ∈ {1, ..., n}). On montre alors ∆(x1 , ..., xn ) = 0.
X
∆(x1 , ..., xn ) = ε(σ)xσ(1)1 ...xσ(n)n
σ∈S
Xn X
= ε(σ)xσ(1)1 + ... + xσ(n)n + ε(σ)xσ(1)1 ...xσ(n)n
σ∈A
Xn X σ6∈An
= xσ(1)1 ...xσ(n)n − xσ(1)1 + ... + xσ(n)n
σ∈An σ6∈An
On considère la transposition qui échange i et k ((xσ(1) , ..., xσ(n) ) = (x1 , ..., xn ) car xi =
xk ).
An → Sn \An
σ 7→ σ ◦ τ
σ ◦ τ = σ ◦ τ ⇔ σ ◦ τ ◦ τ −1 = σ 0 ◦ τ ◦ τ −1 ⇔ σ = σ 0
d’où l’injectivité.
X X
∆(x1 , ..., xn ) = xσ(1)1 ...xσ(n)n − xσ◦τ (1)1 ...xσ◦τ (n)n
σ∈An σ6∈An
or ∀j 6∈ {i, h}, τ (j) = j, τ (i) = k et τ (k) = i, or xi = xk donc ∀h ∈ {1, ..., n}, xih = xhk .
X X
⇒ ∆(x1 , ..., xn ) = xσ(1)1 ...xσ(n)n − xσ(1)1 ...xσ(n)n = 0
σ∈An σ∈An
τ (1) = 2, τ (2) = 1
x x21
11
= ∆(x1 , x2 ) = ε(Id)xId(1)1 xId(2)2 + ε(τ )xτ (1)1 xτ (2)2
x12 x22
Définition 1.3.2. Le déterminant des vecteurs x1 , .., xn dans la base B = (e1 , ..., en ) est la
forme multilinéaire alternée définie par :
X
det(x1 , ..., xn ) = ∆B (x1 , ..., xn ) = ε(σ) × xσ(1)1 ...xσ(n)n
B
σ∈Sn
| {z }
coordonnées de
(x1 ,...,xn )
dans le base B
Theorème 1.3.2. Soient (x1 , ..., xn ) des vecteurs de E, les propositions suivantes sont équiva-
lentes :
(i) les vecteurs x1 , ..., xn sont linéairement indépendant.
(ii) ∀B base de E, detB (x1 , ..., xn ) = 0
(iii) ∃B base de E dans laquelle on a detB (x1 , ..., xn ) = 0
Démonstration. (i) ⇒ (ii) On suppose qu’il existe λ1 , ..., λn 6= 0 tel que λ1 x1 +...+λn xn = 0.
Supposons que λi 6= 0 pour i ∈ {1, ..., n}.
n
λ1 λn X
xi = x1 + ... + xn = βj xj
λi λi j=0
Or :
n
X
det(x1 , ..., xi , ..., xn ) = det x1 , ..., xj−1 , βj xj , ..., xn
B B
j=0,j6=i
n
X
= det(x1 , ...xj−1 , xj , ..., xn ) = 0
B
j=0,j6=i
ϕ(x1 , ..., xn ) = 0
Si les vecteurs (x1 , ..., xn ) étaient linéairement indépendant, ils formeraient une base et il
existerait une forme alterée prendant la valeur 1 sur cette base : ce qui est contradictoire.
det
0
(x1 , ..., xn ) = det(x1 , ..., xn ) × det
0
(B)
B B B
Chapitre 1. Déterminants 9
Démonstration. 1) Soit :
X
det A = ε(σ)aσ(1)1 ...aσ(n)n
σ∈Sn
et
det(t A) =
X
ε(ρ)a1ρ(1) ...anρ(n)
ρ∈Sn
or :
det(t A) =
X
aσ(1)ρ◦σ(1) ...aσ(n)ρ◦σ(n) , ∀σ ∈ Sn
ρ∈Sn
donc :
−1 (n)n
det(t A) = ε(ρ)aρ−1 (1)1 ...aρ
X X
ε(ρ)a1ρ(1) ...anρ(n) =
ρ∈Sn ρ∈Sn
Or :
Sn → Sn
bijective
ρ → ρ−1
et
ε(ρρ−1 ) = ε(ρ)ε(ρ−1 ) = 1
det(t A) =
X
ε(σ)aσ(1)1 ...aσ(n)n
σ∈Sn
10 Chapitre 1. Déterminants
2) Soit :
n
X
cj = aij ei
i=1
C = AB = (cij )1≤i≤n,1≤j≤n
n
X
cij = aik bkj
k=1
X
det C = ε(σ)cσ(1)1 ...cσ(n)n
σ∈Sn
n n
! !
X X X
= ε(σ) aσ(1)k bk1 × ... × aσ(n)k bkn
σ∈Sn k=1 k=1
= ...(voir Démonstration plus loin dans le cours)
= det A × det B
6) A inversible ⇔ det A 6= 0.
1
det A × det A−1 = 1 ⇒ det A−1 =
det A
Chapitre 1. Déterminants 11
On a : A0 = P AP −1
avec u ∈ L(E)
Démonstration. 1) Les vecteurs (x1 , ..., xn ) sont linéairement dépendantes ⇒ les vecteurs (u(x1 ), ..., u( xn
sont également dépenants :
(∗) ⇔ 0 = 0 vraie
2) (x1 , ..., xn ) indépendants (dont forment une base de E), u(x1 ), ..., u(xn ) dépendnts par défi-
nition :
det u = det (u(x1 ), ..., u(xn ))
(x1 ,...,xn )
On a encore égalité.
12 Chapitre 1. Déterminants
3) (x1 , ..., xn ) indépendants, (u(x1 ), ..., u( xn )) indépendants. Notons ∆ la forme n-linéaire al-
ternée qui vérifie :
∆(x1 , ..., xn ) = 1
∀ϕ n-linéaire alternée :
(ii)
det Id ◦ v = det Id × det u = det u ⇒ det Id = 1
(iii)
det u ◦ u−1 = det Id = 1 = det u × det u0
⇒ (det u−1 ) = (det u)−1
A = c1 · · · cn
n
X
det = det(c1 , ..., cn ) = det c1 , ..., ck−1 , λi ci , ck+1 , ..., cn
i=1,i6=k
Theorème 1.4.1 (Developpement par blocs). Soit M matrice carrée d’ordre n de la forme
suivante :
p n−p
z}|{ z}|{
p { A C } n − p
M=
O B } n − p
|{z}
n−p
Chapitre 1. Déterminants 13
(a1 · · · ap bp+1 + cp+1 · · · bn +cn )
e1 a11 · · · a1p c11 ··· c1n
.. .
. .. .. ..
. . . . .
ep ap1 ··· app cp1 ··· cpn
ep+1 0
··· 0 bp+1,p+1 · · · bp+1,n
.. .
. .. .. ..
. . . . .
en 0 ··· 0 bp+1,n ··· bnn
On considère
(E 0 )p → R
f : (x1 , ..., xp ) 7→ detB (x1 , ..., xp , cp+1 + bp+1 , ..., cn + bn )
| {z }
fixés
0p
f est une forme p-linéaire alternée. On a donc ∀(x1 , ..., xp ) ∈ E
f (x1 , ..., xp ) = f (e1 , ..., ep ) det
0
(x1 , ..., xp )
B
Or :
f (a1 , ..., ap ) = detB (a1 , ..., ap , bp+1 + cp+1 , ..., bn + cn ) = det A
= f (e1 , ..., ep ) × det
0
(a1 , ..., ap ) (∗)
B
| {z }
det A
Or :
f (e1 , ..., ep ) = detB (e1 , ..., ep , bp+1 + cp+1 , ..., bn + cn )
= detB (e1 , ..., ep , bp+1 , ..., bn )
Alors :
(∗) = det(e1 , ..., ep , bp+1 , ..., bn ) × det A (∗0 )
B
On pose :
(E 00 )q → R q =n−p
g:
(xp+1 , ..., xn ) 7→ detB (e1 , ..., ep , ...xp+1 , ..., xn )
On remarque que g(bp+1 , ..., bn ) = detB (e1 , ..., ep , bp+1 , ..., bn ) = f (e1 , ..., ep ) et g est une forme
q-linéaire alternée sur E 00 (de dim q). Donc :
g(x1 , ..., xn ) = g(e1 , ..., en ) det
0
(xp+1 , ..., xn )
B
Donc :
g(bp+1 , ..., bn ) = g(e1 , ..., en ) det
00
(bp+1 , ..., bn )
B
| {z }
det B
g(ep+1 , en ) = det(e1 , ..., ep , ep+1 , ..., en ) = 1
B
Alors :
(∗0 ) = det B × det A
14 Chapitre 1. Déterminants
On se fixe j, 1 ≤ j ≤ n.
n
!
X
det A = det(a1 , ..., an ) = det a1 , ..., ap−1 , akj ej , ap+1 , ..., an
B B
k=1
X
= akj det(a1 , ..., ap−1 , ek , ap+1 , ..., an )
B
k=1 | {z }
Dkj
Or
Dkj = (−1)j−1 det(e, a1 , ..., aj−1 , aj+1 , ..., an ) (∗)
B
det
0
(u1 , ..., un ) = det
0
B . det(u1 , ..., un )
B B B
| {z }
(−1)k−1
Alors :
(∗) = (−1)j−1 (−1)k−1 det
0
(ek , a1 , ..., aj−1 , aj+1 , ..., an ) (∗0 )
B
On a :
1
0
.. Mkj
.
0
(∗0 ) = (−1)j+k det Mij = Akj
Chapitre 1. Déterminants 15
Exemple 1.4.1.
1 "5 0#
2
1 3 1
3 2 1 = − 5 = −2 − 5 × 4 = −22
1 1 1 1
−1 4 1
à = (Aij )1≤i≤n,1≤j≤n
Soit M = A en remplaçant la jième ligne de A par une ligne quelconque (β1 , ..., βn ).
n
X
det M = βk Ajk (en développant par rapport à la jième ligne)
k=1
Pour l 6= j : X
alk Ajk = δij det A
k=1
0 det A 1 ···
0 0
At à =
.. .. ... = det A
.. .. ..
. .
. . .
..
0 0 . 0 0 ··· 1
1.5 Rang
Définition 1.5.1. E, F deux espaces vectoriels sur R
1) u : E → F application linéaire.
rg u = dim Im u
Im u est sous-espace vectoriel de F :
Im u = {u(x), x ∈ E} = {y ∈ F, ∃x ∈ E, | y = y(x)}
16 Chapitre 1. Déterminants
Ker g = {X | P AX = 0} = {X | AX = 0}
Ker g = Ker f
Or :
dim Im f + dim Ker f = p
dim Im g + dim Ker g = p
On note :
a1 · · · · · · ap
a11 · · · · · · a1p x1
. . .
A = .. .. , X = ..
an1 · · · · · · anp xp
Chapitre 1. Déterminants 17
AXj , 1 ≤ j ≤ p
les vecteurs AXj ∈< a1 , ..., ap > donc les vecteurs colonnes de la matrice AQ appartiennent au
même sous-espace vectoirel < a1 , ..., an >.
⇒ rg AQ = rg A
A = (AQ)Q−1 ainsi, pour les mêmes raisons, les vecteurs colonnes de la matrice A sont dans
l’espace vectoriel engendré par les vecteurs colonnes de la matrice AQ.
D’où rg A ≤ rg AQ. D’où l’égalité.
u(e
1
) · · · u(en)
f1 × ··· ×
A = .. . ..
..
. .
fn × ··· ×
A matrice d’un endomorphisme u.
(⇐) il est clair que rg Ir = r donc si P AQ = Jr avec P, Q inversible, on a rg P AQ =
rg AQ = rg A = rg Jr = r.
(⇒) Supposons que rg A = r. Or rg A = r ⇔ dim Im u = r. D’après le théorème du rang,
dim Im u + dim Ker u = p (Ker u est un sous-espace vectoriel de Rp ). On considère une
base de Rp dont les p − r derniers vecteurs forment une base de Ker u.
Pour 1 ≤ i ≤ r, on pose yi = u(xi ). Or Im u est engrendré par u(x1 ), u(x2 ), ..., u(xr ) u( xr+1 ), ..., u(xp
| {z }| {z
y1 ,..,yn tous nuls
On complète (y1 , ..., yr ) en une base (y1 , y2 , .., yr , ..., yn ) de Rn .
u(x
1
) · · · · · · u(xr )u(xr+1 ) · · · · · ·u(xn )
y1 1 0 ······ 0
. .. ..
.. .. 1 . .
.
.
.. . .. .. ..
. . . .
.
. .
yr 0 · · · · · · 1 .. · · · · · · .. = Jr
. .
yr+1 0 · · · · · · 0 .. · · · · · · ..
..
. .. .. ..
. .. . . .
..
. . .. .
. .
. .
. . .
.
yn 0 ··· ··· 0 0 ······ 0
u(x ) · · · u(xp)
1
f
1
··· fn u(e
1
) · · · u(ep) x
1
···
xr
y1 × ··· × y1 × ··· × f1 × ··· × e1 × ··· ×
Jr = ..
.. = ..
.. .
. + ..
.. .
. + ..
.. .
. .
. . . . . P . . . A . . . Q ..
yn × ··· × yn × ··· × fn × ··· × ep × ··· ×
Theorème 1.5.3. Deux matrices sont équivalentes ⇔ elles ont le même rang.
Rappel. A, B ∈ Mn×p (R) sont équivalentes ⇔ ∃P ∈ GLn (R) et ∃Q ∈ GLp (R) tel que : B =
P AQ ou P −1 BQ−1 = A.
Rappel. Soit A ∈ Mn×p (R) une matrice extraite B ∈ Mr×q (R) avec r ≤ n et q ≤ p est une
matrice dont les éléments de B appartiennent à la matrice de A.
· · · cr cr+1 · · · cp
c
1
× ··· × × ··· ×
. ..
.
A= . .
. ..
.
. .
× ··· × × ··· ×
Chapitre 1. Déterminants 19
· · · cr e0r+1 · · · e0p
c1
e1
···
.. .
.. × ... × · · · ×
.
er
···
er+1
..
.
ep
Ce qui implique l’existence d’un déterminant r × r non nul extrait de A.
(⇐) ∃B ∈ Mr×r (R) tel que det B 6= 0. B extraite de A.
c
1
· · · cr
b11 · · · b1r
.. ..
. .
br1 brr
Corollaire. Le rang d’une matrice est l’ordre maximum d’un determinant extrait non nul de
cette matrice.
Chapitre 2
Réduction d’endomorphismes
Problème. On cherche des bases d’un endomorphisme tel qu’on peut avoir une matrice simple.
Préliminaires
On considère dans tout le chapitre :
– K = R ou C
– E un K-espace vectoriel
– u ∈ L(E)
u(x) = λx
P = a0 = a1 X + .. + an X n
20
Chapitre 2. Réduction d’endomorphismes 21
E→E
P (u) :
x 7→ a0 x + a1 u(x) + ... + an un (x)
Proposition 2.1.1. Si P est un polynôme et x un vecteur propre de u pour la valeur propre λ
alors x est un vecteur propre de P (u) pour la valeur propre P (λ).
Démonstration. Soit u et x tel que : u(x) = λx. Montrons par reccurence sur n que :
un (x) = λn x
Ceci est vrai pour n = 1. Supposons que pour un n fixé, un (x) = λn x alors un+1 (x) = u(un (x)) =
λn u(x) = λn+1 x.
Soit x tel que u(x) = λx :
Corollaire. λ1 , ..., λn sont des valeurs propres distinctes des sous espaces correspondants sont
en somme directe (leur intersection est réduit à 0).
Démonstration. Supposons qu’il existe des vecteurs xi ∈ Eλi , (1 ≤ i ≤ r) tel que x1 + x2 + ... +
xr = 0. Notons r0 le nombre minimal de vecteurs des Eλi tel que :
x1 + ... + xr0 = 0
On regarde :
u(x1 + ... + xr0 ) − λ1 (x1 + ... + xr0 ) = 0
(λ2 − λ1 ) x2 + ... + (λ2 − λ1 ) xr0 = 0
| {z } | {z }
6=0
Contradiction.
De plus, on a :
PA (x) = (−1)n X n + (−1)n tr(A)X n−1 + ... + det A
Si (x1 , ..., xn ) est une base de E, f (x1 ), ..., f (xn ) engendrent un espace de dimension ≤ n−1.
Theorème 2.2.2. u ∈ L(E), Pu polynôme caractéristique, λ une valeur propre de u (c’est-à-
dire une racine de Pu ), mλ sa multiplicité dans Eλ de sous-espace propre associé à λ :
1 ≤ dim Eλ ≤ mλ
Démonstration. si m = mλ alors :
Pu (x) = (λ − x)n Q(x) avec Q(λ) 6= 0
λ racine de P ⇔ (X − λ)|P (X). Notons p = dim Eλ . On considère (e1 , ..., ep ) une base de Eλ ,
on la complète en une base (e1 , ..., ep , ep+1 , ..., en ). Dans cette base, la matrice de u est de la
forme :
λIp C
A=
O B
(λ − X)Ip C
det(A − XIn ) =
O B − XIn−p
= det((λ − X)Ip ) × det(B − XIn−p )
= (λ − X)p det(B − XIn−p )
On a donc (λ − X)p divise Pu (x), ce qui implique p ≤ n.
Chapitre 2. Réduction d’endomorphismes 23
Définition 2.3.2. u ∈ L(E) est dit diagonalisable s’il existe une base de E formée de vecteurs
propres de u.
Définition 2.3.3. A ∈ Mnn (K), on dit que A est diagonalisable sur K s’il existe P ∈ Mnn (K)
inversible telle que P −1 AP diagonale.
dim Eλ = mλ
Démonstration. (i) ⇒ (ii) Si u est diagonalisable, il existe une base de E dans laquelle la
matrice de u est diagonale. λ1 , ..., λr des valeurs propres de m1 , ..., mr leur multiplicité :
λ0
λ1 0
λ2
A=
...
...
0
λr
r
(λi − X)ni
Y
Pu (x) = det(A − λIn ) =
i=1
| {z }
⇒dim Eλ
donc : F = E.
24 Chapitre 2. Réduction d’endomorphismes
(iii) ⇒ (i) Supposons que E = Eλ1 ⊕ ... ⊕ Eλr . On note Bi une base de Eλi , la base :
r
[
B= Bi
i=1
est une base de E puisque E est somme directe de Eλi . Ainsi, il existe une base de E
formée de vecteurs propres de u, ce qui prouve que u est diagonalisable.
!
x 2
Exemple 2.3.1. On cherche des vecteurs de R , X = tel que AX = 2X ou AX = 3X.
y
AX = 2X ⇔ x = y
(x = y définit une droite de vecteurs propres)
AX = 3X ⇔ x = 2y
!
4 −2
Soit A = . A matrice de u dans la base (i, j).
1 1
u(i) = 4i + j
u(j) = 2i + j
On a :
e1 = (1, 1) u(e1 ) = 2e1
e2 = (2, 1) u(e2 ) = 3e2
! !
2 0 1 2
Dans la base (e1 , e2 ) la mtrice de u est . On a donc P = .
0 3 1 1
Exemple 2.3.2. E = R3
1 0 0
A = 0 10
PA (X) = (1 − X)2 (2 − X)
1 −1 2
Les racines du polynômes caractéristique sont les réels 1 avec la multiplicité 2 et 2 avec la
mutiplicité 1. On a :
E1 = {U ∈ R3 | AU = V }
= {(x, y, z) ∈ R3 | x − y + z = 0}
e1 (1, 1, 0) et e2 (0, 0, 1) sont linéairement indépendant, ils forment une base de E1 .
1 0 0
1 1 0
0 1 1
Dans la base (e1 , e2 , e3 ), la matrice de u est :
1 0 0
D = 0 1 0
0 0 2
La matrice de passage :
1 0 0
P = 1 1 0
0 1 1
vérifie P −1 AP = D.
Chapitre 2. Réduction d’endomorphismes 25
2.4 Trigonalisation
Définition 2.4.1. A = (aij )1≤i≤n,1≤j≤n est dite triangulaire supérieur si aij = 0 dès que i > j.
Définition 2.4.2. A est dite trigonalisable s’il existe P inversible tel que P −1 AP est triangu-
laire.
Theorème 2.4.1. u ∈ L(E), u est trigonalisable ⇔ Pu a toutes ses racines dans K.
Remarque. si K = C, toutes les matrices sont trigonalisables.
Démonstration. (⇒) Supposons u trigonalisable, il existe une base de E dans laquelle la
matrice A de u s’écrit :
a11 a21 · · · an1
0 a22 · · · an2
A = ..
.. ..
. . .
0 0 ··· ann
Pu (X) = det(A − XI) = (ai − X)(a2 − X)...(an − X)
(⇐) Reccurence sur n = dim E.
• Si n = 1, rien à démontrer.
• Fixons n arbitrairement et supposons la propriété vrai pour n − 1. Démontrons qu’alors
qu’elle est vraie pour n. E est de dimension n. Pu ∈ L(E). On suppose que Pu a toutes
ses racines sur K. Soit λ une racine de Pu . Soit x1 un vecteur propre associé à λ, H
hyperplan supplémentaire de la droite Kx, (x1 , ..., xn ) base de H, (x1 , ..., xn ) base de
E. Dans cette base la matrice de u s’écrit :
···
λ
0
.
.
. M
0
Par conséquent, il existe une base (y2 , ..., yn ) de H dans laquelle la matrice de v est
triangulaire, ainsi dans la base (x1 , y2 , ..., yn ), la matrice de u est triangulaire.
Exemple 2.4.1.
1 4 −2
A= 0 6 3
−1 4 0
PA (X) = (3 − X)(2 − X)2
E3 = {(x, y, z) | x = y = z} = Re1 où e1 = (1, 1, 1)
x =z
E2 = (x, y, z) | = Re2 où e2 = (2, 3, 4)
4y = 3z
26 Chapitre 2. Réduction d’endomorphismes
On a :
dim E3 = 1 dim E2 = 1
Or la multiplicité de la valeur propre 2 est 2 donc A est trigonalisable.
1) = 3e1
u(e
u(e2 ) = 2e2
Remarquons que le vecteur e3 = (0, 0, 1) n’appartient pas au plan engendré par e1 et e2 . On
exprime u(e3 ) dans les bases (e1 , e2 , e3 ), on obtient :
u(e3 ) = 6e1 + e2 + 2e3
3 0 −6
0 2 1
D=
0 0 2
On a :
∀j 6= i, P (λj ) = 0, P (λi ) 6= 0
Soit x ∈ V , x = x1 +...+xr , xi ∈ Eλi . On veut démontrer que ∀i, xi = V ∩Eλi . ∀i, Pi (u)(x) ∈ V
car V est stable par P (u).
Rappel. Si x vecteur propre de u pour la valeur propre λ alors x est vecteur propre de P (u)
pour la valeur propre P (λ).
Retournons à la démonstration, pour chaque Pi , 1 ≤ i ≤ r.
Donc ∀i, 1 ≤ i ≤ r, xi ∈ V .
x= x1 + x2 +... + xr
|{z} |{z} |{z}
∈V ∩Eλ1 ∈V ∩Eλ2 ∈V ∩Eλr
P ∈ K[X] :
d
ak x k
X
P =
k=0
28 Chapitre 2. Réduction d’endomorphismes
E→E
Pu (u) :
x 7→ P (x)x
d
ak Ak où A0 = In .
X
P (A) =
k=0
On peut avoir dans E un polynôme Q de degré minimale. Q(u) = 0 donc T Q(u) = T (u).Q(u) =
0L(E) .
Soit P ∈ K[X] tel que P (u) = 0. On a deg P ≥ deg Q car Q a été choisi de degré minimal.
P = TQ + R
Donc : Q(u) = 0.
Réciproquement, supposons que Qu a toutes ses racines dans K et que ses racines sont
simples.
Qu (u) = 0L(E) ⇒ Ker Qu (u) = E
Qu (u) = (u − λ1 IdE ) ◦ ... ◦ (u − λi−1 IdE ) ◦ (u − λi+1 IdE ) ◦ ... ◦ (u − λr IdE ) avec λi racine de Qu
Alors Ker Qu (u) = Ker(u − λ1 IdE ) ⊕... ⊕ Ker(u − λr IdE ) Ceci prouve que u est diagonalisable.
| {z } | {z } | {z }
E Eλ1 Eλr
0 1 −1 0 1 −2
donc Q n’est pas le polynôme minimal , donc Qu = Pu n’a pas toutes ses racines simples. Donc :
A n’est pas diagonalisable.
avec u0 = IdE
P Q(u) = P (u) ◦ Q(U )
Chapitre 2. Réduction d’endomorphismes 31
Démonstration. Théorème de Bezout : si P et Q sont premiers entre eux, ∃U, V ∈ K[X] tel
que P U + QV = 1. On a donc ∀u ∈ L(E)
∀x ∈ E,
x = P (u) ◦ U (u)(x) + Q(u) ◦ V (u)(x)
x ∈ Ker P (u) ∩ Ker Q(u)
On a donc :
Ker P (u) ∩ Ker Q(u) = {0}
Soit x ∈ Ker P Q(u) = Ker(P ◦ Q(u)) :
car
Q(u)[U (u) ◦ P (u)(x)] = U (u) ◦ P (u) ◦ Q(u)(x)
| {z }
0
N = Ker(u − IdE )m
Proposition 2.8.2. u ∈ L(E) tel que Pu ait toutes ses racines dans K.
et
Ni = Ker(u − λi IdE )mi
(Ni sous-espace caractérisitque). Alors :
1) Ni est stable par u
2) Eλ1 ⊂ Ni
3) E = N1 ⊕ ... ⊕ Nr
4) dim Ni = mi
Démonstration. 1) x ∈ Ni ,
(u − λi IdE )mi (u(x)) = u(−λi IdE )m1 ◦ u(x) = u ◦ u − λi IdE )mi (x)
| {z }
0
(u − λi Id)(x) = 0
Donc ∀k ∈ N,
(u − λi Id)k (x) = 0
Donc : x ∈ Ni .
3) Pu (x) = (λ1 − X)m1 ...(λr − X)mr alors :
Donc :
E = N1 ⊕ ... ⊕ Nr
4) vi = u|Ni ∈ L(Ni ), si i 6= j alors Ni ∩ Nj = {0}. La seule valeur propre de Ni est λi .
Pu = Pv1 ...Pvr
= (λ1 − X)X)dim N1 ...(λr − X)dim Nr
= (λ1 − X)m1 ...(λr − X)mr
d’où ∀i, 1 ≤ i ≤ n, mi = dim Ni .
Définition 2.8.2. On dit que l’endomorphisme u (ou la matrice A) est nilpotent(e) s’il existe
un entier k tel que :
uk = 0L(E) ou Ak = 0
Proposition 2.8.3. Si u est nilpotent, son unique valeur propre est 0. Donc Pu (X) = (−1)n X n .
Démonstration. ∃k ∈ N∗ tel que Ak = 0. Cela veut dire que :
Donc l’endomorphisme u de matrice A n’est pas bijective. Son noyau n’est pas réduit à 0. Donc
0 est valeur propre car il existe x 6= 0 tel que u(x) = 0. Supposons que λ soit valeur propre de
u.
∃k ∈ N∗ , uk (x) = 0
Or si x est vecteur propre de λ :
uk (x) = λk x
On a donc :
λk x = 0 avec x 6= 0
D’où :
λk = 0 ⇔ λ = 0
Chapitre 2. Réduction d’endomorphismes 33
Theorème 2.8.4 (Décomposition de Dunford). Soit u ∈ L(E) tel que Pu ait toutes ses racines
dans K. Alors ∃!(n, d) ∈ L(E)2 où n nilpotent, d diagonalisable tel que :
(1) u = n + d
(2) n ◦ d = d ◦ n
Sous forme matricielle, la décomposition de Dunford est A ∈ Mn (K), PA a toutes ses racines
dans K. ∃!(M, D) ∈ Mn (K)2 où N nilpotente, D diagonalisable tel que :
A = N + D et N D = DN
Lemme 2.8.5. Si u est diagonalisable et si V est un sous-espace de E stable par u alors la
restriction de u à V (u|V ) est diagonalisable.
Démonstration. u diagonalisable ⇔ E = Eλ1 ⊕ ... ⊕ Eλr et si V stable par u, V = (V ∩ Eλ1 ) ⊕
... ⊕ (V ∩ Eλr ), v = u|V ∈ L(v).
Ker(v − λi Idv ) = V ∩ Ker(u − λi IdE )
Les vecteurs propres de v : µ1 , ..., µs appartiennent à l’ensemble {λ1 , ..., λr } valeurs propres de
u. Donc V s’écrit :
V = Vµ1 ⊕ ... ⊕ Vµs
⇔ v diagonalisable.
Lemme 2.8.6. u et v ∈ L(E) diagonalisable et tels que u ◦ v = v ◦ u alors il existe une base
de E composée de vecteurs propres de u et de v.
Démonstration. Soient λ1 , ..., λr les valeurs de v.
Vi = {x ∈ E tel que u(x) = λi x}
Ce qui prouce que u(x) ∈ Vi . Donc Vi stable par u.
Donc u|Vi est diagonalisable. Il existe une base Bi de Vi composée de vecteurs prorres de v
(u|Vi diagonalisable).
E = V1 ⊕ ... ⊕ Vr (car v diagonalisable)
B = B1 ∪ ... ∪ Br est une base de E composée de vecteurs propres de u et de v.
Démonstration du Théorème 2.8.4 : Décomposition de Dunford. Soit u ∈ L(E) et
Pu (X) = (λ1 − X)m1 ...(λr − X)mr
Pour i, 1 ≤ i ≤ r, Ni = Ker(u − λi IdE )mi , E = N1 ⊕ ... ⊕ Nr . On définit d sur chaque Ni par :
d(x) = λi x, ∀x ∈ Ni
et n = u − d. ∀xinE, ∃(x1 , ..., xr ) ∈ N1 × ... × Nr tel que x = x1 + ... + xr
d(x) = d(x1 ) + ... + d(xr ) = λ1 x1 + λ2 x2 + ... + λr xr
1) Par construction, d diagonalisable. Bi base de Ni et B = ∪Bi base de E et la matrice de d
dans B s’écrit :
λ1
λ2 0
.
..
. ..
0 λr
λr
n=u−d
34 Chapitre 2. Réduction d’endomorphismes
x = x1 + .... + xr
u = d + n + d0 + n
d0 ◦ u = d0 ◦ d0 + d0 ◦ n0 = u ◦ d0
0 0
(u − λi Id)m mi
i ◦ d (x) = d (u − λi Id) (x) = 0 si x ∈ Ni
n − n0 = d − d0 = 0
i=0
Exemple 2.8.2.
1 1 1 1 0 0 0 1 1
A = 0 1 1 = 0 1 0 + 0 0 1
0 0 2 0 0 2 0 0 0
| {z } | {z }
diagonale nilpotente
on a :
Ker(A − 2I) = {(x, y, z) | y = z et x = 2z} =< 2, 1, 1 >
Ker(A − I) = {(x, y, z) | y = z = 0} =< 1, 0, 0 >
0 0 2
2
(A − I) = 0 0 1
0 0 1
Ker(A − I)2 = {< 1, 0, 0 >, < 0, 1, 0 >}
Chapitre 2. Réduction d’endomorphismes 35
e3 0 0 2
Or :
• u(e1 ) = e1
• u(e2 ) = e2 + e1
• u(e3 ) = 2e3
La matrice de u dans la base (e1 , e2 , e3 ) est :
1 1 0 1 0 0 0 1 0
P AP −1 = 0 1 0 = 0 1 0 + 0 0 0
0 0 2 0 0 2 0 0 0
0 0 2 0 0 0
Application à la trigonalisation
Nous avons démontré dans la Section 2.4. qu’un polynôme qui a toutes ses racnes dans R
est trigonalisable dans R. Par contre, nous avons laissé assez libre de choix de la bse de trigo-
nalisation, on ne demandait au troisième vecteur de cette base d’être linéairement indépendant
des deux premiers (qui sont des vecteurs propres). La décomposition de Dunford que nous ve-
nons de voir, permet de choisir la base de trigonalisation de manière à obtenir naturellement
la décompoistion de Dunford de la matrice triangulaire obtenue.
Soit u un endomorphisme, on suppose que son polynôme caractéristique a toutes ses racines
dans R. On écrit :
Pu (X) = (λ1 − X)m1 ...(λr − X)mr
On a : E = N1 ⊕ ... ⊕ Nr où Ni = Ker(λi − u)mi . On sait que chaque Ni est stable par u et i
on a B1 une base de Ni alors la base de E, B = ∪Bi , la matrice de u est une matrice par blocs.
A1
A=
..
.
Ar
où Ai est la matrice de ui = u|Ni . On trigonalise alors chaque Ai . On a Pui )(X) = (λi − X)mi .
On choisit une base de Ker(u − λi IdE ) et on a :
3 1 −2
0 0 2
−9 0 9
d’où Ker(A − 2I)2 = {(x, y, z) | x ∈ z}, c’est un plan vectoriel. Le vecteur e3 = (1, 0, 1) est dans
N2 mais pas dans E2 et les vecteurs e1 , e2 , e3 forment une base de E. On calcule u(e1 ) et on
identifie :
u(e3 ) = (1, −1, 1) = a(1, 1, 1) + 2(1, 0, 1)
d’où a = 1.
La matrice u dans la base (e1 , e2 , e3 ) est triangulaire, elle s’écrit :
−1 0 0
T = 0 2 −1
0 0 2
1 1 1
on a : T = P −1 AP . Cette triangulisation permet d’obtenir la décomposition de Dunford de A
en écrivant :
−1 0 0 0 0 0
T = 0
2 0 + 0 0 −1
0 0 2 0 0 0
| {z } | {z }
∆ M
−1 −1
On a A = P T P −1 = |P ∆P
{z } + P
| M{zP }. La matrice D est diagonalisable, la matrice N est
D N
nilpotente et ce sont les matrices de la décomposition de Dunford.
Chapitre 3
xn (t)
X(t) = (x1 (t), ..., xn (t))
On va résoudre ce système d’équations :
x0 (t)= a11 x1 (t) + a12 x2 (t) + ... + a1n xn (t) + b1 (t)
1
..
.
x0 (t) = a x (t) + a x (t) + ... + a x (t) + b (t)
n n1 1 n2 2 nn n n
x1 (t)
0
.
.. . On a à résoudre cette équation :
On pose X =
xn (t)
X 0 = AX + B
avec
b1 (t)
.
(aij )1≤i≤n,1≤j≤n ..
et B(t) =
bn (t)
37
38 Chapitre 3. Systèmes différentielles linéaires
k=0 k!
n→+∞ 2 n!
(A + B)k X Cki X Ai Bj
= Ai Bj =
k! i+j=k k! i+j=k i! j!
d’où :
n n
kAki j
(kAk + kBk)k
! !
X X kAk kBk X X
n kBk
X
k∆n k = = j=0 −
i+j=k i! j! i=0 i! j! k=0 k!
n+1≤i+j≤2n
0≤i,j≤n
4)
exp(P −1 AP ) = limn→+∞ (P −1 P + P −1 AP + ... + (P −1 AP )n )
| {z }
P −1 An P
An
= limn→+∞ P −1 (In + A + ... + n!
)P
= P −1 (exp A)P
A=N +D N D = DN
(u − S0 )0 (t) = u0 (t) − S00 (t) = Au(t) + B(t) − AS0 (t) − B(t) = A(u − S0 )(t)
R → Rn
t 7→ eλt V
Démonstration.
R → Rn
t 7→ eλt V
S 0 (t) = λeλt V = eλt λV = eλt AV = A(eλt V ) = AS(t)
40 Chapitre 3. Systèmes différentielles linéaires
R → Mn (R)
R:
t 7→ exp(tA)
est dérivable et on a :
R0 (t) = AR(t) avec R0 (t) ∈ Mn (R)
Démonstration.
∞
X 1 k k
R(t) = exp(tA) = t A
k=0 |k! {z }
Rk (t)
∞ ∞
1
Rk0 (t) k−1 k 0
X X
= t A = ARk−1 (t) = A Rk (t) = ARk (t) = AR(t)
(k − 1)! k=0 k=0
Theorème 3.2.5. A ∈ Mn (R), les solutions du système homogène X 0 = AX sont les fonc-
tions :
R → Rn
S:
t 7→ exp(tA)V
où V ∈ Rn et :
v1
.
.. , V = v1 E1 + v2 E2 + ... + vn En
V =
vn
(E1 , ..., En ) base canonique de Rn .
Chapitre 3. Systèmes différentielles linéaires 41
Démonstration. n
X
S(t) = exp tA.V = Nk (exp tA)Ek
k=1
| {z }
Sk (t)
n n
S 0 (t) = vk Sk0 (t) =
X X
vk ASk (t) = AS(t)
k=1 k=1
F (t) = exp(−tA)S(t)
F 0 (t) = A exp(−tA)S(t) + exp(−tA)S 0 (t) = −A exp(−tA)S(t) + exp(−tA)AS(t) = 0
Dans la pratique, on va devoir intégrer X 0 = AX. Soit P inversible telle que B = P −1 AP =
D + n, B étant triangulaire, D diagonale et N nilpotent. On sait que P Y est solution de
X 0 = AX ⇔ Y est solution de X 0 = BX (avec B = P AP −1 ). On intégre le système Y 0 = AY
soit :
Y (t) = exp(tB)V, V ∈ Rn
On obtient les solutions de X 0 = AX en écrivant X 0 = P Y .
X(t) = P exp(tB)V, V ∈ Rn
Démonstration. Le fait que ce soit un espace vectoriel est évident. Soit S l’ensemble des solu-
tions, S est un espace vectoriel.
u : Rn → S
V 7→ S : R → Rn
t 7→ exp(tA)V
Ker u = {V ∈ Rn | SV = 0}
0 : l’application nulle :
car la matrice exp(tA) inversible. u est donc bijective (isomorphisme). Rn et S sont isomorphes
donc ont la même dimension.
Les colonnes de la matrice exp(tA) forment une base de l’espace vectoriel des solutions du
système différnetiel X 0 = AX.
Proposition 3.2.7. Soit A ∈ Mn (R) une matrice diagonalisable sur R. Notons (V1 , ..., Vn ) une
base de vecteurs propres et λ1 , ..., λn les valeurs propres correspondantes. Alors les fonctions
Si (t) = eλi t Vi , (1 ≤ i ≤ n) forment une base de l’espace des solutions du système X 0 = AX.
42 Chapitre 3. Systèmes différentielles linéaires
Démonstration. Montrons que ces solutions sont linéairement indépendantes, en effet si a1 , ..., an
sont des réels tels que :
a1 S1 (t) + ... + an Sn (t)
cette égalité étant vraie pour tout t, elle est vrai en particulier pour tout t = 0 où elle devient
a1 V1 + ... + an Vn = 0
ce qui implique a1 = ... = an = 0 car les Vi forment une base de Rn . Comme l’espace des
solutions est de dimension n, les Si forment une base. Soit P la matrice dont les colonnes
sont les vecteurs V1 , ..., Vn . Si X = P Y est solution de X 0 = AX, alors Y est solution de
Y 0 = (P −1 AP = D est diagonale. On a :
y0 k1 eλ1 t
= λ1 y 1
1
.. .
. ..
d’où Y (t) =
kn eλn t
y 0
= λn y n
n
Comme corollaire du théorème, nous allons démontrer l’unicité de la solution sous conditions
initiales.
Démonstration. On pose :
S0 (t0 ) = exp(0A)X0 = In X0 = X0
c’est-à-dire V = exp(−t0 A)X0 donc V = Y0 et S1 (t) = S0 (t) pour tout t ∈ R. Nous avons donc
démontré que l’espace des solutions est un espace vectoriel de dimension n et que si l’on impose
la condition X(t0 ) = X0 , il y a unicité de la solution.
A ∈ Mn (R) et B : I → Rn
Connaissant la solution générale du système homogène X 0 = AX, nous allons chercher une
solution du système non homogène.
Chapitre 3. Systèmes différentielles linéaires 43
Soit (S1 , ..., Sn ) une base de l’espace vectoriel des soltuions X 0 = AX, toute solution de ce
système s’écrit donc :
n
X
S(t) = αi Si (t)
i=1
où les αi , 1 ≤ i ≤ n sont des réels. Nous allons chercher une solution du système X 0 = AX + B
sous la forme : n X
S(t) = αi (t)Si (t)
i=1
où les fonctions αi sont des fonctions dérivables sur I. On a alors, pour tout t ∈ R
n n n
S 0 (t) = αi (t)Si0 (t) + αi0 (t)Si (t) = AS(t) + αi0 (t)Si
X X X
i=1
Les colonnes de la matrice R(t) = exp(tA) forment une base de l’espace des solutions de
X 0 = AX, à partir de cette base on cherche une solution de X 0 = AX + B sous la forme
S(t) = R(t)F (t) d’où
I → Rn
α1 (t)
F : .
..
t 7→ F (t) =
αn (t)
on peut écrire sous la forme matricielle
S 0 (t) = R0 (t)F (t) + R(t)F 0 (t) = AR(t)F (t) + R(t)F 0 (t) = AS(t) + R(t)F (t)
ainsi, en indentifiant on a :
R(t)F 0 (t) = B(t)
ce qui nous donne :
F 0 (t) = R−1 (t)B(t) = exp(−tA)B(t)
Il ne reste plus qu’à intégrer terme à terme F 0 (t), c’est-à-dire les αi (t).
c’est-à-dire
Y 0 = AY
avec
0 1 0 ··· 0
0 0 1 ··· 0
.. .. .. ..
A=
. . . .
0 0 0 ··· 1
−an −an−1 −an−2 · · · −a1
Si l’application :
R→R
S:
t 7→ (x(t), y(t))
est solution de X 0 = AX, l’ensemble S(R) = {S(t) = (x(t), y(t)) ∈ R2 , t ∈ R} est appelé
trajectoire.
Les solutions constantes sont les applications S(t) = X0 ∈ R2 pour tout t ∈ R, on a donc
S 0 (t) = 0, c’est-à-dire AX0 = 0. Le vecteur X0 est appelé point d’équilibre du système, le point
(0, 0) est toujours à l’équilibre.
Proposition 3.3.1. Les trajectoires du système X 0 = AX sont disjointes et confondues.
Démonstration. Soient S1 et S2 deux solutions du système homogène X 0 = AX. On a donc,
pour tout t ∈ R, S10 (t) = AS1 (t) et S20 (t) = AS2 (t). alors ou bien S1 (R) ∩ S2 (R) = ∅, ou bien il
existe V ∈ R2 tel que V ∈ S1 (R) ∩ S2 (R), nous allons montrer que dans ce cas, les trajectoires
sont confondues, c’est-à-dire que l’on a S1 (R) = S2 (R).
D’après l’étude des systèmes homogènes, on sait que si S1 et S2 sont solutions, il existe des
vecteurs V1 et V2 dans R2 tels que, pour tout t ∈ R,
Ce qui prouve que les trajectoires sont confondues, en effet, pour tout t ∈ R, on a S1 (t) ∈ S2 (t)
et S2 (t) ∈ S1 (t).
où p et q sont des constante réelles et où la fonction inconnue x est une fonction réelle à valeurs
réelles et la fonction b est définie et continue sur un intervalle I de R. Pour cela, on pose y = x0
et on intègre le système :
x0 = y
y 0 = −qx − py + b(t)
x00 + px0 + qx = b
La démonstration est une vérification immédiate et la matrice A est très simple à étudier.
Son polynôme caractéristique est égal à : PA (X) = X 2 + pX + q, l’espace vectoriel des
solutions de l’équation homogène d’ordre 2, x00 + px0 + q = 0 est de dimension 2, on peut en
donner une base en fonction des racines du polynôme caractéristique.
– Si λ1 et λ2 sont deux racines distinctes, l’espace des solutions de l’équation homogène est
engendré par les fonctions
t 7→ eλ1 t et t 7→ eλ2 t
– Si λ est une racine réelle double, il est engendré par
t 7→ eλt et t 7→ teλt
X(t) = exp(tA)V
sont deux solutions linéairement indépendantes, elles forment une base de l’espace des solutions
de (ε0 ).
On cherche une solution particulière de l’équation complète (ε) en faisant varier le vecteur
V = (a, b) c’est-à-dire les constantes a et b que l’on cherche sous forme de fonctions a(t) et b(t).
En écrivant les choses sous forme matricielle, on obtient X(t) = exp(tA)V (t) d’où
On les cherche sous la forme e−t P (t) où P (t) est un polynôme de degré 2 et l’on obtient
où α et β sont des constantes réelles, a(t) et b(t) les fonctions trouvées ci-dessus. Simplifions la
solution particulière de (ε).
! !! !
−t t+1 t 2
S1 (t) = e 2t 2
e (t + 2t + 2) + e−t (−t2 − 3t − 4) =e t
−t 1−t −t − 4
Nous allons maintenant étudier quelques exemples simples d’équations homogènes dans R2
qui nous améneront à tracer des trajectoires (courbes paramétrées).
où a et b sont des constantes réelles. Etudions plus précisement les trajectoires obtenues selons
les valeurs des constantes a et b.
– Si a = b = 0, la solution du système obtenue est l’application nulle de R → R2 , sa
trajectoire est réduite au point (0, 0) ∈ R2 .
48 Chapitre 3. Systèmes différentielles linéaires
On a alors, pour tout t ∈ R, x(t) = k, k étant une constante réelle et donc y(t) = kt+h où h est
également une constante réelle. Les trajectoires sont les droites x = k, parcourues de y = −∞
vers y = +∞ si k > 0 et dans l’autre sens si k < 0.
Exemple 3.4.4. Nous allons maintenant étudier le système
x0 =y
y 0 = −x
Avant d’intégrer ce système en appliquant les méthodes du cours, on peut remarquer que les
applications suivantes sont solution :
! !
cos t sin t
S1 : t 7→ et S2 : t 7→
− sin t cos t
Vérifions que ces deux solutions sont linéairement indépendantes, soient a et b des réels tels que
pour tout t ∈ R,
aS1 (t) + bS2 (t) = 0
alors, pour t = 0, on a :
! ! !
1 0 0
aS1 (0) + bS2 (0) = a +b =
0 1 0
ce qui implique que a = b = 0. On a ainsi toutes les solutions du système comme combinaison
linéaire de cette base de l’espace des solutions.
Si on ne !pense pas à ces solutions évidentes, alors on résout le système X 0 = AX avec
0 1
A= . On déterminer les racines du polynôme caractéristique de A. On a :
−1 0
PA (X) = X 2 + 1 = (X − i)(X + i)
ce polynôme n’a pas de racines réelles, par contre il admet deux racines dinstinctes dans C, la
matrice A est donc diagonalisable dans C et c’est cette diagonalistion que nous allons utiliser,
sachant que les parties réelles et imaginaires des solutions complexes sont les solutions réelles
recherchées. En effet si Z(t) = X(t) + iY (t) alors :
et, comme A est une matrice à coefficients réels, on obtient par identification X 0 = AX et
Y 0 = AY . De plus les solutions complexes sont conjuguées puisque le système est à coefficients
réels.
Chapitre 3. Systèmes différentielles linéaires 49
On peut diagonaliser A ou plus simplement déterminer les vecteurs propres Vi et V−i asso-
ciées aux valeurs propres i et −i, on obtient ainsi deux solutions linéairement indépendantes,
et la solution générale s’écrit :
Z(t) = αeit Vi + βe−it V−i
où α et β sont des constantes complexes. On a :
! ! !
0 1 x ix
AV = iV ⇔ = ⇔ y = ix
−1 0 y iy
! ! !
0 1 x −ix
AV = −iV ⇔ = ⇔ y = −ix
−1 0 y −iy
! !
1 1
on prend Vi = et V−i = . la solution générale complexe s’écrit alors :
i −i
! !
1 1
Z(t) = αe it
+ βe−it
i −i
! !
0 0 1 x
ou encore X = AX avec A = et X = . On retrouve les solutions de notre
−1 0 x0
système précédent via la matrice R(t) = exp(tA), c’est-à-dire après calculs
!
cos t sin t
R(t) =
− sin t cos t
dont les colonnes sont des solutions linéairement indépendantes du système X 0 = AX. La
solution générale s’écrit : ! !
cos t sin t
S(t) = a +b
− sin t cos t
avec (a, b) ∈ R2 .
Si l’équation a un second membre, c’est-à-dire, si l’on veut intégrer x00 + x = f (t) où f est
une fonction réelle continue, les solutions seront cherchées en faisant varier les constantes a et
b. Les fonctions a(t) et b(t) étant obtenue par indentification en écrivant
! !
a0 (t) 0
0 = R(−t)
b (t) f (t)
c’est-à-dire :
a0 (t) = − sin(t)f (t)
b0 (t) = (cos t)f (t)