Vous êtes sur la page 1sur 19

Table des matières

1 Réduction des endomorphismes et des matrices carrées 2


1 Vecteurs propres et valeurs propres . . . . . . . . . . . . . . . . . . . 2
2 Réduction d'un endomorphisme en dimension nie . . . . . . . . . . . 4
2.1 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . 4
2.2 Endomorphisme diagonalisable . . . . . . . . . . . . . . . . . 6
2.3 Trigonalisation des endomorphismes . . . . . . . . . . . . . . . 7
3 Réduction d'une matrice carrée . . . . . . . . . . . . . . . . . . . . . 8
3.1 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.2 Technique de réduction d'une matrice carrée . . . . . . . . . . 9
3.3 Théorème de Cayley-Hamilton : . . . . . . . . . . . . . . . . . 9
4 Applications : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.1 Puissances d'une matrice carrée . . . . . . . . . . . . . . . . . 10
4.2 Suites récurrentes linéaires doubles . . . . . . . . . . . . . . . 11
4.3 Systèmes diérentil linéaires d'ordre 1, homogènes, à coe-
cients constants . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.4 Equation linéaire scalaire à coecients constants . . . . . . . . 16
4.4.1 Cas général . . . . . . . . . . . . . . . . . . . . . . . 16
4.4.2 Cas particulier n = 2 . . . . . . . . . . . . . . . . . . 18

1
Chapitre 1
Réduction des endomorphismes et
des matrices carrées

Dans tout le chapitre, E est un espace vectoriel sur K = R ou C.

1 Vecteurs propres et valeurs propres


Dénition 1.1. Soit f ∈ L(E).
On appelle vecteur propre de f tout vecteur ~x non nul tel que ~x et f (~x) soient coli-
néaires. Autrement dit :
∃λ ∈ K, f (~x) = λ~x
Dans ces conditions, λ s'appelle valeur propre de f associée au vecteur propre ~x.
L'ensemble des valeurs propres de f est appelé le spectre de f , noté Spec(f ).
Remarque 1.
λ est une valeur propre de f ⇔ ∃~x 6= ~0, f (~x) = λ~x

Exercice 1.
Soient E = R[X]. Soit f l'application dénie par :
0
f : P (X) 7→ (X 2 − 1)P (X) − 2XP (X).

1. Montrer que f est un endomorphisme de E .


2. Trouver les éléments propres de f (indication : raisonner sur le degré de P ).
Exercice 2.
Soient E = C ∞ (R, R).
1. Soit l'application dérivée ; D : f 7→ f 0 .Déterminer Spec(D).
2. On note I l'endomorphisme de E qui à f associe sa primitive qui s'annule en
0. Déterminer Spec(I).

2
Théorème 1.1. Soit f ∈ L(E). On a :
λ ∈ Spec(f ) ⇔ ker(f − λIdE ) 6= {~0}

Dans ces conditions, on note Eλ := ker(f −λIdE ) appelé le sous-espace propre associé
à λ ; il est au moins de dimension 1.
Exercice 3.
Soit f ∈ L(E).
1. Soit ~x un vecteur propre associe à la valeur propre λ. Montrer que la droite
D = K~x est satble par f .
2. En déduire que le sous-espace propre Eλ est stable par f .
Exemples 1.
Soit f ∈ L(E). Déterminer les valeurs propres de f et les sous-espaces propres asso-
ciés dans les cas suivants :
1. f est une homothétie de rapport α.
2. f est un projecteur, autre que l'application nulle ou l'identité (on pourra, par
exemple, utiliser f ◦ f = f pour montrer que toute valeur propre de f vérie
λ2 = λ et donc que Spec(f ) ⊂ {0, 1}).
3. f est une symétrie, autre que IdE ou −IdE (montrer ici que Spec(f ) ⊂
{1, −1}).

Théorème 1.2. Soit f ∈ L(E). et λ1 , λ2 , ..., λp des valeurs propres distinctes de f .


Alors :
Eλ1 + Eλ2 + ... + Eλp = Eλ1 ⊕ Eλ2 ⊕ ... ⊕ Eλp .

Démonstration.
Rappelons qu'il s'agit de montrer :

∀(~uλ1 , ~uλ2 , ..., ~uλp ) ∈ Eλ1 ×Eλ2 ×...×Eλp , ~uλ1 +~uλ2 +...+~uλp = ~0 ⇒ ~uλ1 = ~uλ2 = ... = ~uλp = ~0.

On démontre le résultat par récurrence sur le nombre de sous-espaces :


 Le résultat est évident pour un seul sous-espace propre.
 On suppose que les sous-espaces propres Eλ1 , Eλ2 , ..., Eλp sont en somme di-
recte.
Considérons alors les p + 1 sous-espaces propres Eλ1 , Eλ2 , ..., Eλp+1 associés à des
valeurs propres λ1 , λ2 ,..., λp+1 deux à deux diérentes, et montrons qu'ils sont en
somme directe. Soit :

(~uλ1 , ~uλ2 , ..., ~uλp+1 ) ∈ Eλ1 × Eλ2 × ... × Eλp+1

tel que :
~uλ1 + ~uλ2 + ... + ~uλp+1 = ~0 (1.1)

3
On prend l'image par f :

f (~uλ1 ) + f (~uλ2 ) + ... + f (~uλp+1 ) = ~0 (1.2)


⇒ λ1~uλ1 + λ2~uλ2 + ... + λp+1~uλp+1 = ~0 (1.3)

En multipliant l'équation (1.1) par λp+1 , et en retranchant l'équation (3), on


obtient :

(λp+1 − λ1 )~uλ1 + (λp+1 − λ2 )~uλ2 + ... + (λp+1 − λp )~uλp = ~0 (1.4)

L'hypothèse de récurrence, appliquée aux p vecteurs de cette somme montre que :

(λp+1 − λ1 )~uλ1 = (λp+1 − λ2 )~uλ2 = ... = (λp+1 − λp )~uλp = ~0

Comme les nombres (λp+1 − λi ) sont non nuls (les valeurs propres sont deux à deux
diérentes), il en résulte :

~uλ1 = ~uλ2 = ... = ~uλp = ~0

Si on reporte ces valeurs dans l'équation (1.1), on voit que ~up+1 = ~0, et nalement :

~uλ1 = ~uλ2 = ... = ~uλp+1 = ~0

ce qui prouve bien que les sous-espaces Eλ1 , Eλ2 , ..., Eλp+1 sont en somme directe. Cela
achève la démonstration par récurrence.

2 Réduction d'un endomorphisme en dimension -


nie
Soit f un endomorphisme d'un espace vectoriel E de dimension nie.
On dit qu'on diagonalise f lorsqu'on trouve une base de E dans laquelle la matrice
de f est diagonale. On va voir que ce n'est pas toujours possible.
On dit qu'on trigonalise (ou qu'on triangularise) f lorsqu'on trouve une base de E
dans laquelle la matrice de f est triangulaire supérieure. On verra que c'est toujours
possible pour un espace vectoriel sur C, mais pas toujours possible pour un espace
vectoriel sur R.

2.1 Polynôme caractéristique


Dénition 1.2. Soient E un K-espace vectoriel de dimension n, et f ∈ L(E). Le
polynôme caractéristique de f , noté χf est, par dénition le polynôme identié à la
fonction polynomiale :
x 7→ χ(x) = det(xIdE − f ).

4
Remarque 2. Si B est une base quelconque de E , et si A est la matrice de f dans
la base E , on voit que χf (x) = det(xIn − A). Il en résulte facilement que χf est un
polynôme de degré n, de coecient dominant 1, et de terme constant (−1)n det(f ).
Plus pécesement,
χf (x) = det(xIdE − f ) = det(xIn − A) = X n − trace(f )X n−1 + ... + (−1)n det(f )
Théorème 1.3. λ valeur propre de f ⇔ χf (λ) = 0.
Démonstration.
λ ∈ Spec(f ) ⇔ ker(f − λIdE ) 6= {~0}
⇔ f − λIdE est non injective
⇔ χf (λ) = det(λIdE − f ) = (−1)n det(f − λIdE ) = 0.

Dénition 1.3.
λ est dite valeur propre d'ordre k de f si λ est racine de multiplicité k du polynôme
caractéristique χf .
Remarque 3.
λ est une valeur propre d'ordre k de f ssi (X − λ)k divise χf mais pas (X − λ)k+1
ssi
(λ) = 0 et χf (λ) 6= 0.
(k−1) (k)
χf (λ) = χ0f (λ) = ... = χf
Théorème 1.4. Si λ est une valeur propre d'ordre k de f , on a :
1 ≤ dim Eλ ≤ k.
Démonstration.
Soit λ est une valeur propre d'ordre k de f . Alors, Eλ 6= {~0} et 1 ≤ p := dim(Eλ ) ≤
n = dim(E).
On a , f (~x) = λ~x pour tout x ∈ Eλ .
Soit F un supplémentaire de Eλ dans E et B = (~e1 , ..., ~ep , ..., ~en ) une base adaptée à
la décomposition E = Eλ ⊕ F . Dans cette base, la matrice de f est de la forme :
   
 λIp   B 
 
 
A=

   

 
  0   C 

On a     
 (x − λ)Ip   −B  
 
 
xIn − A = 

   

 
  0   xIn−p − C 

5
On a χf (x) = det(xIn − A) = det((x − λ)Ip ) det(xIn−p − C).
On voit que dans χf (x), il y a au moins (x − λ)p en facteur, ce qui signie que
l'ordre k de λ en tant que zéro du polynôme caractéristique est au moins p. On a
bien k ≥ p.

2.2 Endomorphisme diagonalisable


Dénition 1.4. Soit f ∈ L(E) où E est un K−espace vectoriel de dimension n.
On dit que f est diagonalisable s'il existe une base de E formée de vecteurs propres
de f .
Autrement dit ; f est diagonalisable si et seulement s'il existe B base de E telle
que MatB (f ) est diagonale.
Exercice 4. On suppose que f a n valeurs propres λ1 , λ2 ,...,λn deux à deux distinctes
dans K. Montrer que f est diagonalisable.
 
5 1 −1
Exercice 5. Soient E un R−espace vectoriel et f ∈ L(E) de matrice A = 21 2 4 −2
1 −1 3
dans une base B = (~e1 , ~e2 , ~e3 ).
1. Diagonaliser f
2. Donner les formules de changement de base
Théorème 1.5. Soient E un K−espace vectoriel de dimension n et f ∈ L(E) de
valeurs propres λ1 , λ2 ,...,λp comptées sans multiplicité. Alors,
f est diagonalisable ⇔ E = Eλ1 ⊕ Eλ2 ⊕ ... ⊕ Eλp

Dans ces conditions, une base de diagonalisation est obtenue par concaténation à
partir de bases des Eλi (1 ≤ i ≤ p).
Démonstration.
⇐) C'est évident : une base de diagonalisation de f est obtenue par concaténation à
partir de bases des Eλi (1 ≤ i ≤ p).
⇒) On suppose que f est diagonalisable. Alors il existe une base de diagonalisation
de f . Cette base étant composée de vecteurs propres de f , on peut en déduire que
tout élément ~x de E s'écrit comme combinaison linéaire de vecteurs propres associés
aux valeurs propres λ1 , λ2 , ..., λp . On peut donc, en regroupant correctement, écrire
~x comme somme d'éléments de Eλ1 , Eλ2 , ...,Eλp . D'où :

E = Eλ1 + Eλ2 + ... + Eλp

On a vu par ailleurs avec le théorème1.2 que cette somme était directe ce qui achève
de démontrer le résultat.

6
Théorème 1.6. Soient E un K−espace vectoriel de dimension n et f ∈ L(E). Alors,
(i) χf a toutes ses racines dans K
(
f est diagonalisable ⇔
(ii) ∀λ ∈ Spec(f ), dim(Eλ ) = ordre de multiplicité de λ

Dans ces conditions, une base de diagonalisation est obtenue par concaténation à
partir de bases des Eλ .
Démonstration. ⇐) Soient λ1 , λ2 ,...,λp les racines de χf d'ordres de multiplicité re-
pectevement m(λ1 ), m(λ2 ),...,m(λp ). On sait déja que Eλ1 , Eλ2 ,...,Eλp sont en somme
directe et dim(Eλi ≤ m(λi ) pour chaque i. Par ailleurs :

dim(E) = n = m(λ1 ) + m(λ2 ) + ... + m(λp )


= dim(Eλ1 ) + dim(Eλ2 ) + ... + dim(Eλp )
= dim(Eλ1 ⊕ Eλ2 ⊕ ... ⊕ Eλp )
⇒ E = Eλ1 ⊕ Eλ2 ⊕ ... ⊕ Eλp

ce qui montre que f est diagonalisable.


⇒) On suppose quef est diagonalisable. Alors, il existe une base B de E formée de
vecteurs propres de f et le polynôme de f est de la forme ;

χf (X) = (−1)n detB (XIdE − f ) = (−1)n (X − λ1 )m1 ...(X − λp )mp

Alors, les racines de χf sont λ1 ,...λp qui sont toutes dans K et pour chaque i ∈
{1, ..., p}, on a, mi = dim(Eλi ).

Dénition 1.5. Un polynôme P ∈ K[X] est dite scindé s'il admet toutes ses racines
dans K.
Exercice 6. SoitE un R−espace
 vectoriel de dimension 4 de base B. Soit f ∈ L(E)
1 0 1 2
0 0 1 0
de matrice A = 
1 1
.
0 −1
0 0 1 0
1. L'endomorphisme f est-il diagonalisable ?
2. Même question si E est considéré comme un C−espace vectoriel.

2.3 Trigonalisation des endomorphismes


Dénition 1.6. Soit f ∈ L(E) où E est un K−espace vectoriel de dimension n.
On dit que f est trigonalisable s'il existe une base de E dans laquelle la matrice de
f est triangulaire supérieure.

7
Théorème 1.7. Soient E un K−espace vectoriel de dimension n et f ∈ L(E). Alors,
f est trigonalisable ⇔ χf est scindé .
Exercice 7.

1. Soient E un R−espace vectoriel de dimension 2 et f ∈ L(E). On suppose que


f a une valeur propre double dans K. Comment choisir une base de trigonali-
sation de 
f?

3 −2
2. Soit A = 2 −1 . Trouver P ∈ GL2 (R2 ) telle que P −1 AP soit triangulaire
supérieure.
Exercice 8.
Soient E un R−espace vectoriel de dimension 3 et f ∈ L(E). On suppose que f a
dans K une valeur propre simple λ et une valeur propre double µ.
1. On choisit dans E une base U = (~u1 , ~u2 , ~u3 ) de sorte que ~u1 ∈ Eλ et ~u2 ∈ Eµ .
Montrer que

U trigonalise f .

2 −1 −1
2. Soit A = 2 1 −2. Montrer que A n'est pas diagonalisable et trouver r
3 −1 −2
P ∈ GL3 (R2 ) telle que P −1 AP soit triangulaire supérieure.
Exercice 9.
Soient E un R−espace vectoriel
 de dimension
 3 de base B = (~e1 , ~e2 , ~e3 ) et f ∈ L(E)
0 1 1
de matrice A = MatB (f ) = −1 1 1.
−1 1 2
1. Calculer χf et vérier que f a une valeur propre triple λ ∈ R. En déduire que
f est trigonalisable.
2. Trouver une base U = (~u1 , ~u2 , ~u3 ) dans laquelle la matrice de f est triangulaire
supérieure. Pour cela, observer que ~u1 doit appartenir à Eλ = ker(f − λIdE ),
et qu'on doit avoir :
~u2 ∈ ker(f − λIdE )2 et ~u2 ∈
/ ker(f − λIdE ).
3. Trouver P ∈ GL3 (R) telle que P −1 AP soit triangulaire supérieure.

3 Réduction d'une matrice carrée


3.1 Dénition
Dénition 1.7. Soit A ∈ Mn (K). On dit qu'un scalaire λ ∈ K est une valeur propre
de A s'il existe un vecteur colonne X ∈ Mn,1 (K)\{0} tel que
AX = λX

8
L'ensemble de toutes les valeurs propre de A, noté Spec(A) est appelé le spectre de
A.
Soit λ ∈ Spec(A), Eλ := {X ∈ Mn,1 (K)/ AX = λX} est le sous-espace propre de A
associé à la valeur propre λ.

3.2 Technique de réduction d'une matrice carrée


Dénition 1.8. Soit A ∈ Mn (K). On dit :
déf
• A est diagonalisable ⇐⇒ A est semblable à une matrice diagonale.
déf
• A est trigonalisable ⇐⇒ A est semblable à une matrice triangulaire supérieure.

Donner une réduction d'une matrice A c'est diagonaliser ou bien trigonaliser A


s'il est possible, c'est à dire, trouver une matrice inversible P telle que P −1 AP soit
diagonale ou bien triangulaire supérieure.
Soit un K-espace vectoriel E de dimension n rapporté à une base B. Soit f ∈ L(E)
tel que A = MatB f . Alors, le polynôme caractéristique de A est ce lui de f ;

χA (X) = det(XIn − A) = χf (X)

D'autre part, la recherche d'une base qui diagonalise f (ou qui trigonalise f ) n'est rien
d'autre que la recherche d'une matrice P inversible telle que P −1 AP soit diagonale
(respectivement triangulaire supérieure).
ET les théorèmes qu'on a vus pour la réduction de f se traduisent en calcul
matriciel :
(
(i) χA a toutes ses racines dans K,
• A est diagonalisable ⇐⇒
(ii) ∀λ ∈ Spec(A), dim(Eλ ) = ordre de multiplicité de λ.
• A est trigonalisable ⇐⇒χA est scindé.

Remarque 4. Si χA est scindé à racines simples , alors A est diagonalisable.


Exercice 10. Les matrices suivantes sont-elles diagonalisables ?
   
1 5 6 7 8 3 2 3 1 5
0 2 1 5 3 0 3 1 4 3
   
0
A= 0 4 4 6 , B = 0 0 3 4 5


0 0 0 −1 2 0 0 0 3 −2
0 0 0 0 3 0 0 0 0 3

3.3 Théorème de Cayley-Hamilton :


Théorème 1.8. Soit A ∈ Mn (K) de son polynôme caractstique χA = det(XIn − A)
. Alors ;
χA (A) = 0n

9
 
a b
Exercice 11. Soit A = c d ∈ M2 (K).
1. Donner χA
2. Déduire une condition necessaire et susante pour que A soit inversible ? et
si le cas, donner son inverse en fonction de A ?
Corollaire 1.1. Soit f un endomorphisme dans E un K−e.v de dimension nie n
et χf son polynôme caractstique. Alors χf (f ) = 0,
Exercice 12. Soit E un K−e.v de dimension nie n et f ∈ (E) endomorphisme de
polynôme caractstique χf .
Montrer que si f est inversible, f −1 est un polynôme en f .
Théorème 1.9. Toute matrice carrée symétrique est diagonalisable.
Démonstration. Théorème admis.
 
a b
Exemple 1. La matrice A = b d est diagonalisable.

4 Applications :
4.1 Puissances d'une matrice carrée
Les exercices suivants concernent le calcul de Ak , où A ∈ Mn (K)

Exercice 13. Cas où A est diagonalisable

On suppose qu'il existe une matrice diagonale D, et une matrice carrée inversible
P , telles que D = P −1 AP . Vérier que le calcul de Dk est immédiat, et montrer que :

Ak = P Dk P −1

Exercice 14. Utilisation d'un polynôme annulateur

1. Que dire de la famille {In = A0 , A, A2 , ..., An } dans l'espace vectoriel Mn (K) ?


2. En déduire qu'il existe au moins un polynôme P non nul tel que P (A) = 0n
matrice nulle.  
2 −1 −1
3. On pose A = 2 1 −2 et P (X) = (X + 1)(X − 1)2 .
3 −1 −2
Vérier que P (A) = 0.
4. Expliciter le reste de la division de X k par P (X). En déduire Ak en fonction
de A, A2 , k .

Exercice 15. Cas où A est trigonalisable avec une seule valeur propre λ

10
1. λ = 0 ; A est alors semblable à une matrice triangulaire B , dont la diagonale
est nulle.
(a) Expliquer pourquoi on a B n = 0n . Quelles sont les puissances successives
de la matrice A ?
2. λ 6= 0 ; On reprend la matrice A de l'exercice 9. On a vu qu'il existe une matrice
inversible P et une matrice triangulaire supérieure T telles que T = P −1 AP .
(a) Calculer T k en écrivant T sous la forme λI3 + N .
(b) En déduire Ak .
Expliquer pourquoi cette méthode n'est pas applicable à toute matrice trigo-
nalisable.

4.2 Suites récurrentes linéaires doubles


Le problème est le suivant : a, b, c ∈ K∗ étant xés, décrire l'ensemble E des suites
u = (un )n∈N qui vérient :

∀n ∈ N, aun+2 + bun+1 + cun = 0 (1.5)

On va d'abord arriver au résultat via une étude matricielle. Ensuite, nous exposerons
une méthode élémentaire pour donner la forme générale des solutions. Attention, le
programme mentionne que les deux méthodes doivent être connues !
Théorème 1.10. E est un sous-espace vectoriel de de l'espace vectoriel KN des suites
de K
Démonstration. Exercice !
Remarque 5.
Puisque a 6= 0, l'équation1.5 peut être se ramenée à une équation équivalente :

∀n ∈ N, un+2 = αun+1 + βun , où α 6= 0, β 6= 0. (1.6)


n o
Et E = (u = (un )n∈N ∈ KN / ∀n ∈ N, un+2 = αun+1 + βun
 
un+1
On pose Un = pour tout n ∈ N. Donc, on vient de construire une suite
un
U = (Un )n∈N dans K2 .  
α β
On a, pour tout n ∈ N, Un+1 = AUn où A = .
1 0
Ainsi, Un = An U0 , pour tout n ∈ N.
Exercice 16.

K2 → E
Montrer que l'application ; ϕ : est un isomorphisme d'espaces
(u0 , u1 ) 7→ u
vectoriels, et en déduire que E est un K−espace vectoriel de dimension 2.

11
Remarque 6. L'espace vectoriel E sera donc connu dès lors qu'on aura déterminé
deux suites linéairement indépendantes (i.e. non proportionnelles) solutions de (1.6).
Exercice 17.

1. On cherche les suites vérifant la relation de récurrence :


∀n ∈ N, un+2 = un+1 + 2un ,
   
un+2 un+1
2. Trouver la matrice A ∈ M2 (R) telle que u =A×
un
n+1
   
u u
3. Exprimer un+1 en fonction de A, n et du vecteur u1 .
n 0

4. Diagonaliser A et en déduire An . Et déduire l'expression de un .


Théorème 1.11. Cas : K =C

α et β étant des nombres complexes non nuls donnés, notons E l'ensemble des
suites complexes u qui vérient :
∀n ∈ N, un+2 = αun+1 + βun

• E est un C−espace vectoriel de dimension 2.


• Si, l'équation caractéristique r2 = αr + β a deux racines distinctes r1 et r2 ,
alors les suites (r1n )n∈N et (r2n )n∈N constituent une base de E. En d'autres
termes, les suites de E sont les suites de la forme :
un = λ1 r1n + λ2 r2n

où λ1 et λ2 sont deux constantes complexes.


• Si, l'équation caractéristique a une racine double r, alors les suites (rn )n∈N
et (nrn )n∈N constituent une base de E, et les suites de E sont les suites de la
forme :
un = λ1 rn + λ2 nrn
où λ1 et λ2 sont deux constantes complexes.
• Si, on se donne de plus deux nombres complexes a et b, il existe une et une
seule suite complexe u qui vérie :
∀n ∈ N, un+2 = αun+1 + βun , u0 = a, u1 = b.

Remarque 7. Les constantes λ1 et λ2 sont déterminées par les valeurs initiales a et


b.

12
Démonstration. • Supposons que r2 = αr + β a deux racines distinctes r1 et r2 .
Soit i = 1 ou 2. Alors, ri2 = αri + β . Donc, pour tout n ∈ N,

rin+2 = rin ri2 = (αrin+1 + βrin )

c'est-à dire que la suite (rin )n∈N ∈ E.


D'autre part, soient a, b ∈ C tels que a(r1n )n∈N + b(r2n )n∈N = 0.
Alors, ar1n + br2n = 0, pour tout n ∈ N. En particulier, pour n = 0 et n = 1,
on a ; a + b = ar1 + br2 = 0
d'ou b = −a et a(r1 − r2 ) = 0. Puisque r1 6= r2 , on obtient a = b = 0. Alors,
les deux suites (r1n )n∈N et (r2n )n∈N sont linéarement indépendantes dans E de
dimension 2 c'est à dire qu'elle forment une base E. Par conséquent, toute
suite de E est de la forme :

un = λ1 r1n + λ2 r2n .
2
• Supposons que r2 = αr + β a une racine double r = α
2
et on a ; β = − α4 .
Alors,
α
rn+2 = ( )n+2 (1.7)
2
α α α
= α( )n+1 − ( )2 ( )n (1.8)
2 2 2
= α(r) n+1
+ β(r)n (1.9)

C'est à dire que la suite (rn )n∈N ∈ E.


D'autre part ;
α
(n + 2)rn+2 = (n + 2)( )n+2 (1.10)
2
α α α
= α(n + 1)( )n+1 − ( )2 n( )n (1.11)
2 2 2
= α(n + 1)(r) n+1
+ βnr n
(1.12)

C'est à dire que la suite (nrn )n∈N ∈ E.


De plus les deux suites (rn )n∈N et (nrn )n∈N sont linéarement indépendantes
dans E (exercice).
Alors, toute suite de E est de la forme :

un = λ1 rn + λ2 nrn

   
un+1 α β
Remarque 8. On a pour tout n ∈ N ; Un = u = A U0 , où A =
n
1 0
.
n
D'autre par le polynôme caractéristique de A est
χA (r) = r2 − αr − β

13
• χA a deux racines distinctes r1 et r2 , alors A est diagonalisabe, par suite, il
existe P ∈ GLn (K) telle que P −1 AP = diag(r1 , r2 ). Ainsi,
 
un+1
Un = = P diag(r1n , r2n )P −1 U0 ,
un

D'ou le résultat ; que les suites de E sont les suites de la forme :


un = λ1 r1n + λ2 r2n

• Si, χA a une racine double r, alors A est trigonalisabe et il existe P ∈ GLn (K)
telle que    
−1 r q 0 q
P AP = = rI2 + .
0 r 0 0
Alors,  n    n 
r q n n−1 0 q r nrn−1 q
= r I2 + nr =
0 r 0 0 0 rn
 n
r q
Puisque Un = P 0 r P −1 U0 , on obtient que les suites de E sont les suites
de la forme :
un = λ1 rn + λ2 nrn

Remarque 9. Dans le cas ou K = R et α, β , a, b sont des réels xé. Alors, on


se ramène au cas complexe en appliquant strictement le théorème précédent avec les
constantes λ1 et λ2 sont complexes et les valeurs initiales font que la suite trouvée
sera réelle, commme prévu !

4.3 Systèmes diérentil linéaires d'ordre 1, homogènes, à co-


ecients constants
Dénition 1.9. Un systèmes diérentil linéaires d'ordre 1, homogènes, à coecients
constants est un système de type :

0
 x1 (t) = a11 x1 (t) + · · · + a1n xn (t)
..

. (H)
x0 (t) = a x (t) + · · · + a x (t)

n p1 1 nn n

où les aij sont des nombres xés dans K, et t 7→ x1 (t),..., t 7→ xn (t) des fonctions
inconnues de R dans K.
L'écriture matricielle de la même équation est :
X 0 (t) = AX(t), (H)

où A = (aij ) ∈ Mn (K), t ∈ R 7→ X(t) = (x1 (t), ..., xn (t))T ∈ Kn

14
Théorème 1.12. L'ensemble SH des solutions de (H) est un espace vectoriel, plus
précisément un sous-espace vectoriel de F(R, Kn ) (espace vectoriel des fonctions de R
dans Kn ).
Remarque 10. Nous interessons au système homogène lorsque la matrice A est
diagonalisable.
Puisque A est diagonalisable, il existe une matrice inversible P et D = diag(λ1 , ..., λn )
telles que D = P −1 AP . Posons Y = P −1 X . La fonction Y vérie le système :

Y 0 = DY
c'est-à- dire    
y10 (t) λ1 y1 (t)
 y 0 (t)   λ2 y2 (t) 
 2  
 ..   .. 

 .   . =
   
   
0
yn (t) λn yn (t)
Ce système se résout ligne par ligne, et il existe n constantes α1 ,...,αn telles que :

∀i ∈ {1, ..., n}, ∀t ∈ R, yi (t) = αi eλi t


On a alors : X = P Y , autrement dit :
   
x1 (t) α1 eλ1 t
 x2 (t)   α2 eλ2 t 
 ..   .. 
   
∀t ∈ R,  .  = P  . 
   
   
λn t
xn (t) αn e
Notons ϕi la fonction de R dans Kn dénie par :
 
0
 .. 
 . 
 0 
 
∀t ∈ R, ϕi (t) = P eλi t  = eλi t Ci
 
 0 
 
 . 
 .. 
0

où Ci est la ième colonne de P . On a donc établi :

X 0 = AX ⇒ ∃α1 , ..., αn ∈ K tels que ∀t ∈ R, X(t) = α1 ϕ1 + ... + αn ϕn


Réciproquement, chaque ϕi est solution de (H), en eet :

∀t ∈ R, ϕi (t) = eλi t Ci et ϕ0i (t) = λi eλi t Ci = Aeλi t Ci = Aϕi (t)

15
(λi Ci = ACi vient du fait que la ième colonne de P est vecteur propre de A, associé
à la valeur propre λi ). L'implication ci-dessus est donc une équivalence :

X 0 = AX ⇔ ∃α1 , ..., αn ∈ K tels que ∀t ∈ R, X(t) = α1 ϕ1 + ... + αn ϕn

De plus, les ϕi sont linéairement indépendantes dans l'espace vectoriel F(R, Kn ). En


eet, si l'on suppose β1 ϕ1 + ... + βn ϕn = 0, l'évaluation en 0 permet de conclure
β1 = ... = βn = 0 grâce à l'indépendance linéaire des colonnes de P . La structure de
SH est résumée par le théorème suivant :

Théorème 1.13. Considérons l'équation :


X 0 = AX (H)

où X est une fonction inconnue de R dans Kn , et où A est une matrice donnée de


Mn (K), supposée diagonalisable. Soient λ1 , ..., λn les valeurs propres de A, et P une
matrice dont chaque colonne Ci est un vecteur propre de A associé à λi .
L'ensemble SH des solutions de (H) est un K−espace vectoriel de dimension n, dont
une base est constituée par les fonctions ϕi : t 7→ eλi t Ci , pour i ∈ {1, ..., n}.
 0
 x1 = 3x1 − 3x2 − 3x3 x
Exercice 18. Résoudre le système : x02 = −8x1 + 14x2 + 11x3
 0
x3 = 10x1 − 16x2 − 13x3

4.4 Equation linéaire scalaire à coecients constants


4.4.1 Cas général
On étudie dans ce paragraphe l'équation diérentielle :

y (n) + an−1 y (n−1) + ... + a1 y 0 + a0 y = 0 (1.13)

où a0 , a1 ,..., an−1 sont des éléments de K et x 7→ y(x) une fonction inconnue de R


dans K. L'équation (1.13) équivaut au système diérentiel linéaire :

Y 0 (x) = AY (x) (1.14)


 
0 1 0 ... 0  
 . . .. .. .. .
..  y
 . . . .   y0 
..
T
où A =  0 . , et Y =  ..  = y, y 0 , . . . , y (n−1) .
   
 . . . 0   ., 
 0 ... ... 0 1  y (n−1)
−a0 −a1 . . . . . . −an−1
La résolution du système linéaire entraîne ainsi la résolution de l'équation. On en
déduit les théorèmes suivants :

16
Théorème 1.14. Les solutions de (1.13) forment un espace vectoriel SH sur K, de
dimension n (sous-espace vectoriel de l'espace vectoriel des fonctions de R dans K).
Plus précisément : il existe n fonctions y1 ,...,yn , linéairement indépendantes dans
l'espace vectoriel des fonctions de R à valeurs dans K, qui forment une base de SH .
Les solutions de (1.13) sont alors, les fonctions du type :
t 7→ α1 y1 (t) + · · · + αn yn (t)

où α1 , · · · , αn sont des constantes dans K .


Remarque 11. Les valeurs propres de la matrice du système sont les racines du
polynôme caractéristique de la matrice, c'est à dire les solutions de l'équation :
xn + an−1 xn−1 + · · · + a1 x + a0 = 0

Cette équation est appelée équation caractéristique de (1.13).


Démonstration. D'après le théorème1.12, on sait qu'il existe n fonctions X1 ,..., Xn ,
linéairement indépendantes dans l'espace vectoriel des fonctions de R à valeurs dans
Kn , qui forment une base de SH 0 . Les solutions de (H 0 ) sont alors les fonctions du
type :
t 7→ α1 X1 (t) + · · · + αn Xn (t),
où α1 , · · · , αn sont des constantes, élments
 de K.
La première ligne donne les solutions générales de SH 0 qui sont les fonctions du
type :
y : t 7→ α1 y1 (t) + · · · + αn yn (t),
Plus généralement, la ligne k donne y (k) :
(k)
y (k) : t 7→ α1 y1 (t) + · · · + αn yn(k) (t),

Montrons que y1 , · · · , yn est libre :


(k)
α1 y1 + · · · + αn yn = 0 ⇒ ∀k ∈ N, α1 y1 + · · · + αn yn(k) = 0
⇒ α1 X1 + · · · + αn Xn = 0
⇒ α1 = · · · = αn = 0.

Donc on a bien une famille libre de n solutions.

Remarque 12. Si la matrice du système est diagonalisable dans K et si on note


λ1 , · · · , λn les valeurs propres, alors les solutions de (H 0 ) sont alors les fonctions du
type :
t 7→ α1 eλ1 t + · · · + αn eλn t
où α1 , · · · , αn sont des constantes dans K

17
4.4.2 Cas particulier n = 2
On considère l'équation diérentielle :
y” + ay 0 + by = 0 (1.15)

où a et b sont deux éléments de K xés, et x 7→ y(x) une fonction inconnue de R


dans K (= R ou C). On suppose pour commencer que K = C. On a tout de suite une
forme équivalente de l'équation (1.15) :
y0
   
0 1 y
= (1.16)
y” −b −a y0
 
0 1
On regarde maintenant si, la matrice A = −b −a est diagonalisable, ce qui
conduit à l'équation caractéristique
λ2 + aλ + b = 0

-Si cette équation a deux racines distinctes λ1 et λ2 (i.e. si A a deux valeurs propres
distinctes λ1 et λ2 ), alors la matrice
 
1 1
P =
λ1 λ2
diagonalise A et :
 
y
y0
est une solution de (1.16) ⇔ ∃α1 , α2 ∈ C, ∀x ∈ R,
     
y(x) λ1 x 1 λ2 x 1
0 = α1 e + α2 e
y (x) λ1 λ2
Il revient évidemment au même d'écrire :
y est solution de (1.15)⇔ ∃α1 , α2 ∈ C, ∀x ∈ R,

y(x) = α1 eλ1 x + α2 eλ2 x

- Supposons maintenant que l'équation caractéristique λ2 + aλ + b = 0 a une racine


double λ0 = − a2 .  
1 0
La matrice P = λ 1 triagonalise A. Plus précisement, on a :
0
     
−1 1 0 0 1 1 0 λ0 1
P AP = =
λ0 1 b −a λ0 1 0 λ0
Alors, on peut écrire le système (1.16) sous la forme équivalente :
y0
   
 −1 y
P −1 −1
= P AP P (1.17)
y” y0

(1.17) peut aussi sécrire :

18
y0
    
λ0 1 y
=
−λ0 y 0 + y” 0 λ0 λ0 y + y 0
Si on pose z = −λ0 y + y0 , on obtient le système :
y 0 = λ0 y + z

(1.18)
z 0 = λ0 z

et ce système est équivalent à l'équation (1.16) initiale. La deuxième équation se


résout directement :
∃α2 ∈ C, ∀x ∈ R, z(x) = α2 eλ0 x
La première équation devient alors :
y 0 (x) = λ0 y + α2 eλ0 x

Il s'agit d'une équation diérentielle linéaire scalaire du premier ordre. Sa résolution


amène à :
∃α1 ∈ C, ∀x ∈ R, y(x) = (α1 + α2 x)eλ0 x

Exercice 19.
Résoudre l'équation diérentielle : y” + 4y = x + 4 avec y(0) = y0 (0) = 0.

19

Vous aimerez peut-être aussi