Vous êtes sur la page 1sur 55

11 Université Ibn Zohr

Ecole Nationale de Sciences Appliquées


Première année du cycle ingénieur
options : G. Industriel, G. Informatique, G. Electrique et F.I.D.

Equations différentielles ordinaires, problèmes


de Cauchy
Mme M. El Kyal

Année universitaire : 2019/20


Pr M. El Kyal, ENSA d'Agadir

2
Table des matières

1 Equations diérentielles : existence et unicité 7


1.1 Dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1 Diérents types d'équations . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.2 Solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Théorème de Cauchy-Lipschitz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 Quelques techniques de résolution explicite. . . . . . . . . . . . . . . . . . . . . 13
1.3.1 Equation à variables séparées . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.2 Équation diérentielle linéaire du premier ordre . . . . . . . . . . . . . . 14
1.3.3 Equation de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.4 équation de Ricatti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2 Systèmes diérentiels linéaires 19
2.1 préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Systèmes homogèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1 Cas des systèmes linéaires à coecients constants . . . . . . . . . . . . . 22
2.2.2 Exponentielle de la matrice A . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Cas d'un système linéaire avec second membre . . . . . . . . . . . . . . . . . . . 36
2.4 Equations diérentielles d'ordre n à coecients constants . . . . . . . . . . . . . 39
2.4.1 Transformation d'une équation d'ordre n en un système d'ordre 1 . . . . 39
2.4.2 Equation diérentielle homogène . . . . . . . . . . . . . . . . . . . . . . 39
2.4.3 Equation diérentielle non homogène : variations des constantes . . . . . 42
2.5 Point d'équilibre et Stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3 Résolution numérique des équations diérentielles ordinaires 47
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2 Principe général des méthodes numériques . . . . . . . . . . . . . . . . . . . . . 47
3.2.1 Schéma général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.2.2 Schémas d'Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.3 Convergence, consistance, stabilité, ordre . . . . . . . . . . . . . . . . . . . . . . 49
3.4 Quelques schémas numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.1 Méthode de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.2 Autres schémas numériques . . . . . . . . . . . . . . . . . . . . . . . . . 53

3
Pr M. El Kyal, ENSA d'Agadir

4
Introduction
L'objet de ce cours est de proposer une introduction à l'étude des équations diérentielles
ordinaires (EDO. Beaucoup de résultats existent dans ce domaine : il est possible de trouver des
solutions explicites à ces équations, mais elles ne sont pas nombreuses. La résolution explicite
de la plupart des EDO reste encore un problème ouvert. Les mathématiciens se sont alors
tournés vers une étude plus théorique qui permettait de trouver des résultats sur les solutions
(existence, unicité par exemple) sans les connaître explicitement. Ce cours sera un mélange des
deux parce qu'il semble nécessaire de savoir non seulement prouver que des solutions existent et
que le cas échéant elles peuvent être unique mais également être capable de résoudre à la main
certaines EDO classiques mais également savoir approcher numériquemnt ce que l'on ne peut
pas calculer explicitement. Certaines solutions porteront plus d'attention que d'autres, comme
les solutions autonomes. Nous nous intéressons à l'étude analytique de ces solutions, autrement
dit la stabilité de ces solutions par rapport à des perturbations dans les conditions initiales.

5
Pr M. El Kyal, ENSA d'Agadir

6
Chapitre 1
Equations diérentielles : existence et
unicité

1.1 Dénitions
1.1.1 Diérents types d'équations
Définition 1.1.1 (Equation diérentielle ordinaire d'odre n) Une équation diérentielle
ordinaire, également notée EDO, d'ordre n est une relation entre la variable réelle t, une fonc-
tion inconnue x : t 7→ x(t) et ses dérivées x0 , x00 , · · · x(n) au point t dénie par :
f (t, x(t), x0 (t), x00 (t), · · · x(n) (t)) = 0
où f n'est pas indépendante de sa dernière variable x(n) . On prendra t dans un intervalle I de
IR (I peut être IR tout entier).
La solution x en général sera à valeurs dans IRp , p ∈ IN ∗ .
- L'équation diérentielle est dite scalaire
si f est à valeurs dans IR.
- L'équation diérentielle d'ordre n est dite normale
si elle est de la forme :
x(n) (t) = f (t, x(t), x0 (t), x00 (t), · · · x(n−1) (t))
- Elle est dite autonome lorsqu'elle s'écrit de la forme :
x(n) (t) = f (x(t), x0 (t), x00 (t), · · · x(n−1) (t))
Autrement dit, f ne dépend pas explicitement de t.
- Elle est linéaire
si elle est de la forme
an (t)x(n) (t) + an−1 (t)x(n−1) (t) + · · · + a1 (t)x0 (t) + a0 (t)x(t) = g(t)
avec tous les x(i) de degré 1 et tous les coecients dépendant au plus de t.

Remarque 1.1.1 ( Réduction à l'ordre 1) Avant de commencer à résoudre les équations


diérentielles d'ordre quelconque,On peut remarquer qu'il est possible de réduire l'ordre à 1
en faisant quelques changements de variables. Par conséquent, la majorité des résultats ne
concernera que les EDO d'ordre 1. Toutefois, comme nous allons le voir ci-dessous, ce que nous
gagnons en simplicité dans l'ordre de dérivation, nous le perdons dans la dimension de l'espace
d'arrivée de la fonction f . Autrement dit, en abaissant l'ordre de l'EDO, nous augmentons la
dimension de l'espace d'arrivée de f et passons nécessairement à la résolution d'un système
d'EDO d'ordre 1.

7
Pr M. El Kyal, ENSA d'Agadir 8
1.1.2 Solutions
Soit I un ouvert de IR et Ω un ouvert de IR n

Définition 1.1.2 Si f est une application continue donnée sur I × Ω, on appelle équation
dérentielle (sous forme normale) l'équation notée :

x0 (t) = f (t, x(t))

L'inconnue de cette équation est une fonction



I → IRn
x:
t 7→ x(t)

qui vérie :
x0 (t) = f (t, x(t))
1.1.2
Définition 1.1.3 (Solution de l'équation diérentielle) Une solution de l'équation dif-
férentielle est une fonction ϕ : I → IR telle que :
n

1. pour tout t ∈ I , (t, ϕ(t)) ∈ I × Ω(domaine de dénition de f ),


2. pour tout t ∈ I , ϕ0 (t) = f (t, ϕ(t)) ( l'équation diérentielle).

En particulier, on n'oubliera pas de vérer la première condition (sinon f (t; x(t)) n'est pas
dénie).
Comme interprétation de la solution, les valeurs f (t; x) = v sont des vitesses qu'on peut mesurer
en tout point de I , et à partir de ces vitesses on veut reconstituer les trajectoires t → x(t) des
particules qui en x = x(t) sont animés de la vitesse v = f (t, x) sous la forme x = v. 0

Il est clair que si x est solution sur un intervalle I , elle est également solution sur tout intervalle
J ⊂ I.
Définition 1.1.4 Soient x et xe deux solutions d'une même équation diérentielle avec x so-
lution sur I et xe solution sur Ie. On dira que xe est un prolongement de x si I ⊂ Ie et xe/I = x.

Définition 1.1.5 (Solution maximale) On appelle solution maximale une solution x telle
que I soit intervalle maximale, i.e. telle que x soit une solution sur I et telle qu'il n'existe pas
d'intervalle J ⊃ I (strictement plus grand que I ) sur lequel x soit solution.

Définition 1.1.6 Soit I un intervalle inclus dans IR. Une solution x est dite globale dans I
si elle est dénie sur l'intervalle I tout entier.

Exemples 1.1.1 1. On considère le problème suivant :

x0 (t) = −2tx2 (t), t ∈ IR




x(0) = 1
Ce système admet une seule solution globale dans IR dénie par
1
x(t) =
t2 +1

8
Pr M. El Kyal, ENSA d'Agadir 9
2. Pour le problème :

x0 (t) = 2tx2 (t), t ∈ IR




x(0) = 1
Ce système admet une seule solution maximale sur ] − 1, 1[ dénie par
1
x(t) =
1 − t2
mais le problème n'admet pas de solution globale.
Notons que si on prend comme condition initiale x(−2) = 0 alors la solution est dans ce
cas
1
x(t) =
5 − t2
√ √
c'est une solution maximale sur ] − 5, 5[.
Il est bon de remarquer que l'ensemble sur lequel se dénissent les solutions dépend
également de la condition initiale.
3. Pour le problème :

x0 (t) = −x2 (t), t ∈ IR+




x(0) = 1
Ce système admet une seule solution globale sur [0, +∞[ dénie par
1
x(t) =
1+t
Notons que le problème n'admet pas de solution globale sur IR mais seulement une solu-
tion maximale sur ] − 1, +∞[.
4. Pour le problème :
 p
x0 (t) = − 3 x(t), t ∈ IR+
x(0) = 0
Ce système admet trois solutions globales sur [0, +∞[ dénies par
x(t) =
r0
8t3
x(t) =
r27
8t3
x(t) = −
27
Nous pouvons remarquer que les problèmes d'existence et d'unicité ne sont pas des
questions triviales. Nous allons présenter dans la suite quelques résultats fondamentaux
d'existence et d'unicité.

1.2 Théorème de Cauchy-Lipschitz


Définition 1.2.1 (Condition initiale) On appelle condition initiale ou condition de Cauchy
de l'équation diérentielle une valeur (t0 , x0 ) ∈ I × Ω telle que l'inconnue cherchée satisfasse la
condition x(t0 ) = x0 .

9
Pr M. El Kyal, ENSA d'Agadir 10
Définition 1.2.2 (Problème de Cauchy) Une équation diérentielle avec condition ini-
tiale s'appelle problème de Cauchy. Un problème de Cauchy est donc un problème où, pour
f ∈ C 0 (I × Ω), t0 ∈ I et x0 ∈ IRn donnés, il faut trouver une (ou les) solution(s) x de :
x0 (t) = f (t, x(t))


x(t0 ) = x0
Remarque 1.2.1 Le problème de Cauchy est un problème d'évolution, c'est à dire à partir de
la condition initiale, on peut calculer la solution à l'instant t par
Z t
x(t) = x(t0 ) + f (s, x(s))ds
t0

et donc la solution à l'instant t dépend uniquement de la solution aux instants t0 ≤ s ≤ t.


Malheureusement, la résolution ne donne pas x de façon explicite sauf dans des cas simples.
Théoreme 1.2.1 (Théorème de Cauchy-Lipschitz, version locale) Soit f une fonction
de deux variables réelles à valeurs réelles :
f : I ×Ω → Rn
(t, x) 7→ f (t, x)
Considérons le problème de Cauchy suivant :

(E)
(
x0 (t) = f (t, x)
x(t0 ) = x0 ; t0 ∈ I

Si la fonction f est continue et localement Lipschitzienne en x, c'est à dire qu'il existe un


voisinage de (t0 , x0 ) dans I × Ω et L > 0 tel que pour tous (t, x) et (t, y) dans ce voisinage
kf (t, x) − f (t, y)k ≤ Lkx − yk
alors il existe T > 0 et il existe une et une seule solution x(t) de l'équation diérentielle
dénie pour tout t ∈ [t0 − T, t0 + T ] , vériant la condition initiale donnée.
Théoreme 1.2.2 (Théorème de Cauchy-Lipschitz, version globale) Soit f une fonction
de deux variables réelles à valeurs réelles :
f : I ×Ω → Rn
(t, x) 7→ f (t, x)
Considérons le problème de Cauchy suivant :

(E)
(
x0 (t) = f (t, x(t))
x(t0 ) = x0 ; t0 ∈ I

Si la fonction f est continue et LLipschitzienne en x, i.e. si f vérie la condition de Lip-


schitz :

∃L > 0 / ∀ t ∈ I, ∀ (x, y) ∈ Ω2 , kf (t, x) − f (t, y)k ≤ Lkx − yk

10
Pr M. El Kyal, ENSA d'Agadir 11

alors il existe une et une seule solution x de l'équation diérentielle dénie pour tout t ∈ I
vériant la condition initiale donnée.

Pour la démonstration, on aura besoin du théorème Point xe (Picard) :


Théoreme 1.2.3 (Point xe (Picard)) Soit E un espace vectoriel normé complet (non vide)
et T : E → E une application contractante : ∃k < 1 tel que :

∀x, y ∈ IR, kT (x) − T (y)k < kkx − yk

Alors il existe un unique point xe a ∈ E , tel que T (a) = a. De plus, toute suite d'éléments de
E dénie par.

(1.1)
(
xp+1 := T (xp )
(xp )p∈IN :=
x0 ∈ E
converge vers a.

Preuve 1.2.1 On montre d'abord l'unicité du point xe puis son existence :

* unicité : Supposons qu'il existe (a, b) ∈ E 2


tels que : T (a) = a et T (b) = b alors on a
trivialement :
kT (a) − T (b)k = ka − bk

kT (a) − T (b)k
⇔ =1>k
|a − bk
Ce qui contredit la dénition de T .

* existence :
Soit x0 un point initial quelconque et (xp )p∈N la suite des itérés associée. On a alors :

kxp+1 − xp k = kT (xp ) − T (xp−1 )k ≤ kkxp − xp−1 k


On montre par récurrence sur p que :

kxp+1 − xp k ≤ k p kx1 − x0 k (1.2)


 Initialisation : Trivial pour p=0.
 Récurrence : On suppose la propriété vériée pour un p xé. Alors

kxp+2 − xp+1 k = kT (xp+1 ) − T (xp )k


≤ kkxp+1 − xp k
≤ k.k p kx1 − x0 k
≤ k p+1 kx1 − x0 k

Ce qui prouve la récurrence.

11
Pr M. El Kyal, ENSA d'Agadir 12
On a alors ∀ q > p :
q−1 q−1
!
X X
l
kxq − xp k ≤ kxl+1 − xl k ≤ k kx1 − x0 k
l=p l=p

De plus, pour tout q > p,


q−1 +∞
X
l
X kp
k ≤ kl =
l=p l=p
1−k
D'où :
kp
kxq − xp k ≤ kx1 − x0 k
1−k
A partir de cette inégalité, on peut déduire que (xp )p∈IN est une suite de Cauchy. Comme de
plus E est complet, (xp )p∈IN converge vers un point a ∈ E
De plus, comme T est continue et T (xp ) = xp+1 :
T (a) = lim T (xp ) = lim xp+1 = a.
p→+∞ p→+∞

Donc par unicité de la limite, on a T (a) = a. 

Preuve 1.2.2 (Théorème de Cauchy-Lipschitz) Soit le système :

(E)
(
x0 (t) = f (t, x)
x(t0 ) = x0 ; t0 ∈ I
avec f : I × Ω → Rn une fonction continue, lipschitzienne par rapport à x. C'est-à-dire :
∃L > 0 tel que ∀(t, x), (t, y) ∈ I × Ω, on a :

||f (t, x) − f (t, y)|| ≤ L||x − y||


Le système (E) est équivalent à la forme intégrale :
Z t
x(t) = x(t0 ) + x0 (s) ds, ∀t ∈ I
t0
Z t
x(t) = x0 + f (s, x(s)) ds
t0

on dénit l'opérateur T sur C(I, Rn ) tel que pour tout x ∈ C(I, Rn ), T (x) est donnée par :
Z t
T (x)(t) = x0 + f (s, x(s)) ds, ∀t ∈ I
t0

Remarquons que x est solution globale du problème si et seulement si x est dérivable sur I
et vérie x0 (t) = f (t, x(t)) pour tout
R tt ∈ I avec x(t0 ) = x0 .
Comme f est continue, alors t 7→ t0 f (s, x(s)) ds est de classe C 1 , donc x est nécessairement
de classe C 1 .
de plus x vérie :

x(t) = T (x)(t) ∀t ∈ I
On a donc ramené notre problème de Cauchy à une recherche de point xe pour T sur C(I, Rn ).

12
Pr M. El Kyal, ENSA d'Agadir 13
On munit C = C(I, Rn ) de la norme ||.||α telle que :

||x||α = max e−α(t−t0 ) |x(t)| α > 0


t∈I

On va montrer qu'avec un choix judicieux de α, T est une contraction.


Soient y, z ∈ C
Z t
(T (y) − T (z))(t) = f (s, y(s)) − f (s, z(s)) ds
t0

d'où ∀t ≤ t0
Z t
−α(t−t0 ) −α(t−t0 )
e kT (y)(t) − T (z)(t)k ≤ e L ky(s) − z(s)k ds
t
Z 0t
= e−α(t−t0 ) L eα(s−t0 ) e−α(s−t0 ) ky(s) − z(s)k ds
t
Z 0t
≤ e−α(t−t0 ) L eα(s−t0 ) dsky − zkα
t0
L
= e−α(t−t0 ) (eα(t−t0 ) − 1)ky − zkα
α
L
= (1 − e−α(t−t0 ) )ky − zkα
α

Ceci implique que kT (y) − T (z)kα ≤ Lα (1 − e−α(t−t0 ) )kyz kα


On refait le même travail pour t > t0 et on choisit α tel que
L
(1 − e−α(t−t0 ) ) < 1
α

Alors T : (C, k.kα ) est une contraction et T (x) = x admet alors une solution unique. 

1.3 Quelques techniques de résolution explicite.


Dans cette section, nous allons nous intéresser à diérentes techniques pour intégrer (c'est
à dire résoudre), certains types d'équations diérentielles. Il faut cependant garder à l'esprit
que la résolution explicite des EDO n'est pas une chose aisée, et la plupart du temps ce sera
trop dicile, voire impossible. Nous devrons alors nous contenter dune analyse d'existence,
unicité,...

1.3.1 Equation à variables séparées


Définition 1.3.1 (Equation à variables séparées) Une équation diérentielle à variables
séparéesest une équation du type :
x0 (t) = g(t)/f (x(t)) ou x0 (t)f (x(t)) = g(t)

13
Pr M. El Kyal, ENSA d'Agadir 14
Une telle équation se résout par calcul de primitives :
Si G est une primitive de g alors G0 (t) = g(t).
Si F (x) est une primitive de f (x) alors F 0 (x) = f (x), mais surtout, par dérivation d'une
composition,
0
F (x(t)) = x0 (t)F 0 (x(t)) = x0 (t)f (x(t))


Ainsi l'équation diérentielle x0 f (x) = g(t) se réécrit


0
F (x(t)) = G0 (t)

Alors
F (x(t)) = G(t) + c

Voici un exemple concret :


t2 x0 (t) = e−x(t)
On commence par séparer les variables t d'un côté et x de l'autre : x0 (t)ex(t) = 1
t2
(en supposant
t 6= 0). On intègre des deux côtés :

1
ex(t) = − + c (c ∈ IR)
t
En supposant − 1t + c > 0 :  
1
x(t) = ln − + c
t
qui est une solution sur chaque intervalle I où elle est dénie et dérivable. Cet intervalle dépend
de la constante c :
1. si c < 0, I = ] 1c , 0[ ;
2. si c = 0, I = ] − ∞, 0[ ;
3. si c > 0, I = ] 1c , +∞[ ou I = ] − ∞, 0[.

1.3.2 Équation diérentielle linéaire du premier ordre


Définition 1.3.2 Une équation diérentielle linéaire du premier ordre est une équation du
type :
x0 (t) = a(t)x(t) + b(t) (E)
où a et b sont des fonctions dénies sur un intervalle ouvert I de IR.
L'équation homogène associée est :

x0 (t) = a(t)x(t) (E )
0

Pour la résolution de (E ) On commence par la résolution de l'équation homogème x0 (t) =


a(t)x(t)
Le théorème suivant arme que résoudre l'équation diérentielle x0 (t) = a(t)x(t) revient à
déterminer une primitive A de a (ce qui n'est pas toujours possible explicitement).

Théoreme 1.3.1 Soit a : I → IR une fonction continue. Soit A : I → IR une primitive de a.


Les solutions sur I de (E0 ) sont les fonctions x dénies par : x(t) = keA(x) où k ∈ IR est
une constante quelconque.

14
Pr M. El Kyal, ENSA d'Agadir 15
Il nous reste le cas général de l'équation diérentielle linéaire d'ordre 1 avec second membre :

x0 (t) = a(t)x(t) + b(t) (E)


où a : I → IR et b : I → IR sont des fonctions continues.
Il sut d'appliquer le principe de superposition : les solutions de (E ) s'obtiennent en ajou-
tant à une solution particulière de (E ) les solutions de (E0 ). On aura :
Proposition 1.3.1 Si x0 est une solution de (E ), alors les solutions de (E ) sont les fonctions
x : I → IR dénies par :
x(t) = x0 + keA(t) avec k ∈ IR
où t 7→ A(t) est une primitive de t 7→ a(t).

La recherche de la solution générale de (E ) se réduit donc à la recherche d'une solution


particulière. Parfois ceci se fait en remarquant une solution évidente.

Recherche d'une solution particulière : méthode de variation de la constante.


C'est une méthode générale pour trouver une solution particulière en se ramenant à un calcul
de primitive.
La solution générale de (E0 ) x0 (t) = a(t)x(t) est donnée par x(t) = keA(t) , avec k ∈ IR
une constante. La méthode de la variation de la constante consiste à chercher une solution
particulière sous la forme x0 (t) = k(t)eA(t) , où k est maintenant une fonction à déterminer
pour que x0 soit une solution de (E ) x0 (t) = a(t)x(t) + b(t).
Puisque A0 = a, on a :

x00 (t) = a(t)k(t)eA(t) + k 0 (t)eA(t) = a(t)x0 (t) + k 0 (t)eA(t)

Ainsi :
x00 (t) − a(t)x0 (t) = k 0 (t)eA(t)
Donc x0 est une solution de (E ) si et seulement si
Z
0 0 −A(t)
k (t)eA(t)
= b(t) ⇐⇒ k (t) = b(t)e ⇐⇒ k(t) = b(t)e−A(t) dx.

Ce qui donne une solution particulière x0 (t) = b(t)e−A(t) dx eA(t) de (E ) sur I . La solution
R 

générale de (E ) est donnée par

x(t) = x0 (t) + keA(t) , k ∈ IR.

Exemple 1.3.1 Soit l'équation x0 (t) + x(t) = et + 1. L'équation homogène est x0 (t) = −x(t)
dont les solutions sont les x(t) = ke−t , k ∈ IR.
Cherchons une solution particulière avec la méthode de variation de la constante : on note
x0 (t) = k(t)e−t . On doit trouver k(t) an que x0 vérie l'équation diérentielle x0 (t) + x(t) =
et + 1.
x00 + x0 = et + 1
⇐⇒ (k 0 (t)e−t − k(t)e−t ) + k(t)e−t = et + 1
⇐⇒ k 0 (t)e−t = et + 1
⇐⇒ k 0 (t) = e2t + et
⇐⇒ k(t) = 21 e2t + et + c

15
Pr M. El Kyal, ENSA d'Agadir 16
On xe c = 0 (n'importe quelle valeur convient) :
 
−t 1 2t 1
x0 (t) = k(t)e = e + e e−t = et + 1
t
2 2

Nous tenons notre solution particulière ! Les solutions générales de l'équation x0 (t)+x(t) = et +1
s'obtiennent en additionnant cette solution particulière aux solutions de l'équation homogène :
1
x(t) = et + 1 + ke−t , k ∈ IR.
2

1.3.3 Equation de Bernoulli


Définition 1.3.3 Une équation de Bernoulli est une équation diérentielle scalaire non li-
néaire de la forme
x0 (t) + a(t)x(t) + b(t)xn (t) = 0
où n ∈ IR, a et b sont deux fonctions dénies et continues sur un intervalle I de IR.

Remarques 1.3.1 1. On peut éliminer les cas n = 0 et n = 1, car l'équation de Bernoulli


correspond alors à une équation que l'on connaît déjà.
2. La solution x = 0 est toujours une solution évidente du problème de Bernoulli lorsque
n > 0.

Pour la résolution, et pour x 6= 0


On divise l'équation x0 (t) + a(t)x(t) + b(t)xn (t) = 0 par xn (t), on aura
x0 (t) 1
+ a(t) (t) + b(t) = 0.
xn (t) xn−1

On pose
1
z(t) =
xn−1 (t)
et donc
x0 (t)
z 0 (t) = (1 − n)
xn (t)
L'équation de Bernoulli devient une équation diérentielle linéaire :
1
1−n
z 0 (t) + a(t)z(t) + b(t) = 0

Prenons l'exemple de l'équation

x0 (t) + x(t) − tx3 (t) = 0

Cherchons les solutions x qui ne s'annulent pas. On peut alors diviser par x3 pour obtenir :
x0 (t) 1
t 3
+ 2 −t=0
x (t) x (t)

On pose
1
z(t) =
x2 (t)

16
Pr M. El Kyal, ENSA d'Agadir 17
et donc
0 x0 (t)
z (t) = −2
x(t)3
L'équation diérentielle s'exprime alors
−1 0
tz (t) + z(t) − t = 0
2
c'est-à-dire :
tz 0 (t) − 2z(t) = −2t.
Les solutions sur IR de cette dernière équation sont :
(
λ+ t2 + 2t si t > 0
z(t) = , λ+ , λ− ∈ IR
λ− t2 + 2t si t < 0

1
Comme on a posé z(t) = , on se retreint à un intervalle I sur lequel z(t) > 0 :
x2 (t)
nécessairement 0 ∈
/ I , donc on considère z(t) = λt2 + 2t, qui est strictement positif sur Iλ où

]0; +∞[ si λ = 0


Iλ = 0; − λ2 si λ < 0
si λ > 0
  2

−∞; − λ ou ]0; +∞[

1
On a x2 (t) = pour tout t ∈ Iλ et donc
z(t)

1
x(t) = (t) p
z(t)

où (t) = ±1. Or x est continue sur l'intervalle Iλ , et ne s'annule pas par hypothèse : d'après
le théorème des valeurs intermédiaires, x ne peut pas prendre à la fois des valeurs strictement
positives et des valeurs strictement négatives, donc (t) est soit constant égal à 1, soit constant
égal à −1. Ainsi les solutions cherchées sont les :
1 −1
x(t) = √ ou x(t) = √ sur Iλ (λ ∈ IR)
2
λt + 2t λt2 + 2t

Remarques 1.3.2 1. Connaissant la solution z de l'équation linéaire associée à l'équation de


Bernoulli, on peut en déduire les solutions de l'équation de Bernoulli.
2. Nous pouvons trouver quelques propriétés sur les solutions suivant les valeurs de n :
(a) Si n > 0, l'équation de Bernoulli admet la solution triviale x = 0.
(b) Si n > 1 toute solution de l'équation de Bernoulli qui prend la valeur 0 en un point,
est partout nulle.

1.3.4 équation de Ricatti


Pour
x0 (t) + a(t)x(t) + b(t)x2 (t) = c(t)

17
Pr M. El Kyal, ENSA d'Agadir 18
où a, b et c sont des fonctions de t, on aura une équation diérentielle appelé équation de
Riccati. Pour la résoudre, Soit x une solution de x (t) + a(t)x(t) + b(t)x (t) = c(t). Posons
0 2

u(t) = x(t) − x (t), donc x(t) = u(t) + x (t). L'équation devient :


0
0 0

u0 (t) + x00 (t) + a(t)(u(t) + x0 )(t) + b(t)(u2 (t) + 2u(t)x0 (t) + x20 (t)) = c(t)
Comme x est une solution particulière alors
0

x00 (t) + a(t)x0 (t) + b(t)x20 (t) = c(t)


Et donc l'équation se simplie en :
u0 (t) + a(t) + 2x0 (t)b(t) u(t) + b(t)u2 (t) = 0


qui est une équation du type Bernoulli.


Prenons l'exemple t (x (t) + x (t)) = tx(t) − 1.
2 0 2

 Après division par t c'est bien une équation de Riccati sur I =] − ∞; 0[ ou I =]0; +∞[.
2

 x (t) = t est bien une solution particulière.


0
1

 On a u(t) = x(t) − x (t) et donc x(t) = u(t) + 1t .


0

L'équation t (x (t) + x (t))


2 0

= tx(t) − 1 devient
2
  
1 u 1 1
t2 u0 − + u2
+ 2 + =t u+ −1
t2 t t2 t
qui se simplie en  
2 0 2 u(t)
t u (t) + u (t) + 2 = tu(t)
t
ce qui correspond à l'équation de Bernoulli :
1
u0 (t) + u(t) + u2 (t) = 0.
t
 Si u ne s'annule pas, en divisant par , cette équation devient
u 2

u0 (t) 1 1
+ +1=0
u2 (t) t u(t)
On pose 1
z(t) =
u(t)
l'équation devient 1
−z 0 (t) + z(t) + 1 = 0
Ses solutions sur I sont
t

z(t) = λt + t ln |t|, λ ∈ IR
Ainsi 1 1
=u(t) =
z(t) λt + t ln |t|
mais il y a aussi la solution nulle .
u(t) = 0
 Conclusion. Comme , on obtient alors des solutions de l'équation de départ
x(t) = u(t) +
1

sur ] − ∞; 0[ et :
]0; +∞[
t

x(t) =
1
sur ]0, +∞[
ou t

x(t) = +
1 1
t λt + t ln |t|
sur ]0, e [ ou ]e , +∞[(λ ∈ IR).−λ −λ

18
Chapitre 2
Systèmes diérentiels linéaires
Dans ce chapitre nous allons nous intéresser aux systèmes d'équations diérentielles, que l'on
peut obtenir directement par la modélisation d'un problème à plusieurs fonctions inconnues,
mais également lorsque l'on passe d'une EDO d'ordre n à un système de plusieurs EDO d'ordre
1.
2.1 préliminaires
Soient un intervalle I un intervalle de IR, n ∈ IN , a , i, j = 1, · · · n et b des fonctions

continues de I dans IR.


ij i

L'objectif est de trouver des fonctions x , · · · x : I → IR, n fonctions de classe C sur I telles
1

que
1 n



 x01 (t) = a11 (t)x1 (t) + · · · + a1n (t)xn (t) + b1 (t)

.. .. ..
 x0 (t) = a21 (t)x1 (t) + · · · + a2n (t)xn (t) + b2 (t)

2


 x0 (t) = a (t)x (t) + · · · + a (t)x (t) + b (t)

n n1 1 nn n n

qui peut s'écrire sous la forme matricielle :


X 0 (t) = A(t)X(t) + B(t) (2.1)
où      
x1 (t) a11 (t) a12 (t) · · · a1n (t) b1 (t)

.. .. .. ..
· · · a2n (t) 
et ..
 x2 (t)   a21 (t) a22 (t)  b2 (t) 
X(t) =   , A(t) =  B(t) = 
     
 
   ···   
xn (t) a11 (t) a11 (t) · · · a11 (t) bn (t)
En général il peut y avoir une innité de solutions de cette équation.
Soient t ∈ I et X ∈ IR données, avec
0
0 n

 
x1 (t0 )

.. (2.2)
 x2 (t0 ) 
X0 = 
 

 
xn (t0 )
Le but est de trouver X solution de l'équation (2.1) satisfaisant la condition initiale (2.2).
Autrement dit, existe-t-il X fonction dérivable dénie sur I à valeurs dans IR tel que n

19
Pr M. El Kyal, ENSA d'Agadir 20

X 0 (t) = A(t)X(t) + B(t)


(2.3)


X(t0 ) = X0

Remarque 2.1.1 Si A et B sont continues, autrement dit aij est continue pour tout i, j =
1, · · · n et bi est continue pour tout i = 1, · · · , n, alors pour tout t0 ∈ I et pour tout X 0 ∈ IRn ,
Le théorème de Cauchy-Lipschitz assure qu'il existe une solution unique au problème de Cauchy
2.3.

2.2 Systèmes homogèmes


Le système 2.3 est dit homogène si B = 0, c'est à dire
X 0 (t) = A(t)X(t)

Pour (t , X ) ∈ I donnés, on considère l'équation diérentielle linéaire homogène avec condi-


0

tion initiale :
0

0
(2.4)

X (t) = A(t)X(t)
0
X(t ) = 0 X
(On prend pour I l'intervalle maximal où A est continue.) Le théorème de Cauchy Lipschitz
nous permet d'avoir l'existence et l'unicité des solutions de ce système.
Et pour t ∈ I on note
0

S = {ϕ solution de (2.4) avec ϕ(t ) = X }


t0 0
0

l'ensemble des solutions de 2.4 (l'instant initial t xé et on fait varier X ).


0
0

Théoreme 2.2.1 L'ensemble des solutions St0 d'un système homogène est un espace vectoriel
de dimension n.

Preuve 2.2.1 1. Pour montrer que St0 est un espace vectoriel, il sut de montrer qu'il est
sous espace vectoriel de C 1 (I) (l'espace vectoriel des fonctions de classe C 1 sur I ).
En eet, si ϕ et ψ sont deux solutions de 2.4 et λ ∈ IR
On a (ϕ + λψ)0 = ϕ0 + λψ 0 = Aϕ + λAψ = A (ϕ + λψ) ;
alors(ϕ + λψ) est encore une solution de 2.4
De plus la fonction nulle est une solution du système lorsque X 0 est le vecteur nul. donc St0
est un sous espace vectoriel de C 1 (I).
2. Pour caculer la dimension de St0 , on considère l'application

φt0 IRn → St0
X 0 → ϕt0 ,X 0
avec ϕt0 ,X 0 l'unique solution du problème vériant ϕ(t0 ) = X 0 (Cauchy-lipschitz) l'applica-
tion φt0 est un isomorphisme de IRn sur St0 (i.e. une application linéaire bijective). D'où
St0 est un espace vectoriel de dimension n.

Remarque 2.2.1 Pour avoir une solution de 2.4, il sut alors d'avoir n solutions indépen-
dantes de 2.4 qui formeront une base de St0 .

20
Pr M. El Kyal, ENSA d'Agadir 21
Théoreme 2.2.2 Soient ϕ1 , · · · ϕn des solutions de 2.4, alors les trois propositions sont équi-
valentes :
1. Les ϕ1 , · · · ϕn sont linéairement indépendantes.
2. la matrice dénie par 
ϕ1 (t) · · · ϕn (t)
est inversible pour tout t ∈ I .
3. il existe t0 ∈ I tel que la matrice dénie par

ϕ1 (t0 ) · · · ϕn (t0 )
est inversible,
En eet, supposons qu'il existe t 0 ∈I tel que la matrice dénie par

ϕ1 (t0 ) · · · ϕn (t0 )
n'est pas inversible, alors
tel que X α ϕ (t ) = 0 = X(t )
n
∃(α1 , · · · , αn ) i i 0 0
i=1

d'après l'unicité de la solution, on aura X(t) = 0 ∀t ∈ I , autrement dit


∃(α , · · · , α ) tel que
X n

1 n α ϕ (t) = 0 = X(t). i i
i=1

Définition 2.2.1 Soient ϕ1 , · · · ϕn des solutions de 2.4. Si les n fonctions sont indépendantes,
on dit qu'ils forment un ensemble fondamental de solution de 2.4. On notera alors

R(t) = ϕ1 (t) · · · ϕn (t)
la matrice R est appelée matrice fondamentale du système 2.4. Son déterminant est appelé
Wronskien et noté W (t).
Remarque 2.2.2 Si ϕ1 , · · · ϕn sont des solution du système homogème, alors la matrice fon-
damentale 
R(t) = ϕ1 (t) · · · ϕn (t)
vérie :
R0 (t) = A(t)R(t)
Donc une matrice R(t) est fondamentale si et seulement si R0 (t) = A(t)R(t) et R(t) est
inversible au moins pour un t0 ∈ I (car alors elle est inversible pour tout t ∈ I).
On a alors le théorème suivant
Théoreme 2.2.3 Soient ϕ1 , · · · ϕn un ensemble fondamental de solutions de 2.4. Alors toute
solution X de 2.4 est de la forme
 
n c1
ci ϕi = R(t)  ... 
X
X(t) =
 
1 cn
avec (c1 , · · · , cn ) ∈ IRn .

21
Pr M. El Kyal, ENSA d'Agadir 22
Proposition 2.2.1 Si R1 (t) et R2 (t) sont deux matrice fondamentales d'un même système
diérentiel, alors il existe une matrice C constante inversible telle que ∀t ∈ IR

R1 (t) = R2 (t)C.

En eet, R et R sont inversible, on pose C(t) = R (t)R (t) et montrons que C(t) est
−1

constante.
1 2 2 1

On a 0
R (t) = A(t)R (t) = A(t)R (t)C(t)
1 1 2

de plus 0 0 0
R (t) = R (t)C(t) + R (t)C (t) = A(t)R (t)C(t)
1 2 2 2

alors 0
C (t) = 0
autrement dit, C(t) est constante.
2.2.1 Cas des systèmes linéaires à coecients constants
Le système diérentiel (2.4)est dit à coecients constants (ou système linéaire autonome)lorqu'il
s'écrit de la forme : 0
(2.5)

X (t) = AX(t)
0
X(t ) = 0 X
Ici I = IR est l'intervalle maximale de la solution (donnée par le théorème de Cauchy-Lipschitz
car une fonction constante est continue sur IR) donc la solution est globale.
Pour la résolution, commençons par un cas connu, celui d'une équation scalaire
x0 (t) = αx(t)

où α est un réel et x une fonction de R dans R.


les solutions de cette équation sont :
x(t) = ceαt .

Notons que le système (2.5 ) est encore facile à résoudre si la matrice A est diagonale, car
dans ce cas les n équations sont toutes indépendantes les unes des autres, donc il sut de les
résoudre indépendamment.
Exemple 2.2.1 Etant donné le système :
x01 (t) = 2x1 (t)


x02 (t) = 3x2 (t)

qui s'écrit encore de la forme


 0    
x1 (t) 2 0 x1 (t)
=
x02 (t) 0 3 x2 (t)

et dont la solution est : 


x1 (t) = c1 e2t
x2 (t) = c2 e3t

22
Pr M. El Kyal, ENSA d'Agadir 23
avec c1 et c2 des constantes dans IR.
Elle peut s'écrire encore de la forme :
   2t  
x1 (t) e 0 c1
= 3t
x2 (t) 0 e c2

Remarquons que la matrice diagonale ci-dessus joue le rôle d'une matrice fondamentale.
Nous verrons dans la suite que cette matrice est l'exponentielle de la matrice tA et nous la
noterons donc e . tA

Beaucoup d'équations diérentielles linéaires peuvent cependant s'y ramener.


Considérons en eet le système X (t) = AX(t) avec A diagonalisable dans IR, il existe alors une
0

matrice diagonale D constutuée des valeurs propres de A et une matrice inversible P formée
par des vecteurs propre correspondants telles que A = P DP . −1

Alors l'équation s'écrit


X 0 (t) = P DP −1 X(t).
Faisons le changement des variables
Y (t) = P −1 X(t) ⇔ X(t) = P Y (t)

Alors
X 0 (t) = P DP −1 X(t)
⇔ P Y 0 (t) = P DP −1 P Y (t)
⇔ Y 0 (t) = DY (t).

Autrement dit, à un changement de variables près, le système diérentiel est un système de


n équations scalaires découplées.
On obtient alors
Y (t) = e C et X(t) = P Y (t) = P e C, C ∈ IR
tD tD n

On est donc encore capable de calculer les solutions de l'équation diérentielle dans ce cas.
On remarque que P e joue le rôle d'une matrice fondamentale.
tD

Prenons l'exemple suivant :


Soit à résoudre le système diérentiel linéaire suivant :
(
x01 (t) − 2 x1 (t) + x2 (t) = 0
x02 (t) + x1 (t) − 2 x2 (t) = 0

 0   
x1 2 −1 x1
=
x02 −1 2 x2

on pose X = , alors le système s'écrit


 
x1
x2

X 0 (t) = AX(t)

23
Pr M. El Kyal, ENSA d'Agadir 24
Cherchons les valeurs propres de A :

2 − λ −1
−1 2 − λ = 0

(2 − λ)2 − 1 = 0
(3 − λ)(1 − λ) = 0

Les valeurs propres sont λ = 1 et λ = 3.


1 2

Cherchons les vecteurs propres.


Avec la première valeur propre, nous avons :
(
(2 − 1) V11 − V12 = 0
− V11 + (2 − 1) V12 = 0
(
V11 − V12 = 0
− V11 + V12 = 0
Nous choisissons les valeurs les plus simples qui soient solution, V =1 et V =1 .
Avec la seconde valeur propre :
11 12

(
(2 − 3) V21 − V22 = 0
− V21 + (2 − 3) V22 = 0
(
− V21 − V22 = 0
− V21 − V22 = 0
Nous choisissons les valeurs les plus simples qui soient solution, V ,
= 1 V22 = −1 .
Les vecteurs propres sont :
21

  
1
V~1 1


 
V~2 1


−1
On prend alors
et D =
   
1 1 1 0
P =
1 −1 0 3
Une matrice fondamentale s'écrit :
 
et e3t
R(t) =
et −e3t

avec C = une constante, les solutions s'écrivent :


 
C1
C2
   
et e3t
X(t) = R(t)C = C1 + C2 = C1 et V1 + C2 e3t V2
et −e3t

24
Pr M. El Kyal, ENSA d'Agadir 25
On vérie immédiatement que les solutions sont indépendantes car les vecteurs V et V sont
indépendants : en eet les valeurs propres associées sont distinctes, ou encore directement :
1 2

w(0) = det(R(0)) = 2 6= 0.

Etant donné une condition initiale (vectorielle) , pour calculer C et C , il sut


 
α
X(t0 ) = 1 2

de résoudre le système :  
β
 
α C1
= X(t0 ) = R(t0 ) .
β C2

Cas où A est diagonalisable dans C


Lorsqu'un système diérentiel X (t) = AX(t) est à coecients réels, i.e. A matrice réelle,
0

la solution cherchée doit être donnée sous forme réelle. Mais quand les valeurs propres de A
sont complexes, les solutions trouvées avec les calculs de la section précédentes sont à valeurs
complexes. A partir des solutions complexes, il s'agit alors de retrouver les solutions réelles.
Proposition 2.2.2 Si A est une matrice réelle a une valeur propre λ non réelle, alors le
vecteur propre associé V est non réel. De plus, λ est également valeur propre de A associée au
vecteur propre V , et V et V sont indépendants (deux vecteurs propres associés à des valeurs
propres distinctes sont indépendants).
En eet, puisque l'équation conjuguée de AV = λV est AV = λV et on a A = A (car A est
réelle) d'où AV = λV où V est vecteur propre associé à λ.
Proposition 2.2.3 Pour le système diérentiel X 0 (t) = AX(t), lorsque A est une matrice
réelle dont une valeur propre λ = α + iβ est complexe (avec β 6= 0) associée au vecteur propre
V = x + iy (avec x et y dans IRn ) : on forme les deux solutions complexes indépendantes
ϕ1 (t) = etλ V et ϕ2 (t) = etλ V , et deux solutions réelles sont données par :

1
ϕr1 (t) = Re(ϕ1 (t)) = (ϕ1 (t) + ϕ2 (t)) = etα (cos(βt)x − sin(βt)y)
2
et
1
ϕr2 (t) = Im(ϕ1 (t)) = (ϕ1 (t) − ϕ2 (t)) = etα (sin(βt)x + cos(βt)y)
2i

Exemple 2.2.2 Exemple 2.2.3 Soit à résoudre le système diérentiel linéaire suivant :
(
x01 (t) + 4 x1 (t) + 4 x2 (t) = 0
x02 (t) + x1 (t) + 4 x2 (t) = 0

 0    
x1 (t) −4 −4 x1 (t)
=
x02 (t) 1 −4 x2 (t)
 
x1 (t)
on pose X(t) = , alors le système s'écrit
x2 (t)

X 0 (t) = AX(t)

25
Pr M. El Kyal, ENSA d'Agadir 26
Cherchons les valeurs propres de A :

−4 − λ −4
=0
1 −4 − λ

Les valeurs propres sont λ1 = −4 + 2i et λ2 = λ1 = −4 − 2i.


On cherche alors des vecteurs propres correspondants, on prend par exemple :
  
2i
V~1 1


 
V~2 −2i
= V~1


1

La solution s'écrit : X(t) = c1 ϕ1 (t) + c2 ϕ2 (t) où c1 et c2 sont des constantes avec :


  
λ t −4t −2 sin 2t + 2i cos 2t
ϕ1 (t) = e 1 V1 = e


cos 2t + i sin 2t







 
−2 sin 2t − 2i cos 2t

 −4t
ϕ2 (t) = ϕ1 (t) = e


cos 2t − i sin 2t




Mais le problème était posé dans IR, cette solution complexe trouvée n'est pas satisfaisante. on
souhaite trouver des solutions réelles. Il sut pour cela de trouver deux solutions indépendantes
réelles du système diérentiel. On peut prendre
 
1 −2 sin 2t
ϕr1 (t) = Re(ϕ1 (t)) = (ϕ1 (t) + ϕ2 (t)) = e−4t (cos(2t)x − sin(2t)y) = e−4t
2 cos 2t
et
 
1 2 cos 2t
ϕr2 (t) = Im(ϕ1 (t)) = (ϕ1 (t) − ϕ2 (t)) = e−4t (sin(2t)x + cos(2t)y) = e−4t
2i sin 2t
     
2i 0 2
avec V1 = = +i = x + iy
1 1 0
En résumé, à partir de cette première approche. on remarque que les solutions se calculent
à l'aide de l'exponentielle de matrice et que ses solutions s'écrivent en fonction des valeurs
propres et vecteurs propres de A. Alors dans le cas où la matrice A n'est pas diagonalisable,
nous allons nous servir de la notion d'exponentielle de matrice.

2.2.2 Exponentielle de la matrice A


Le but est de chercher une matrice fondamentale R(t) ∈ Mn (IR), autrement dit, telle que
R(t) soit inversible au moins pour un t ∈ I et telle que R0 (t) = AR(t) pour tout t ∈ I .

Rappelons qu'une dénition de l'exponentielle de a où a ∈ IR est


+∞ j
a
X a
e = .
j=0
j!

Nous pouvons dénir l'exponentielle de matrice d'une façon analogue :

26
Pr M. El Kyal, ENSA d'Agadir 27
Définition 2.2.2 Pour toute matrice carrée A ∈ Mn (IR) on dénit la matrice carrée eA ∈
Mn (IR) par :
+∞
A
X Aj
e =
j=0
j!

P+∞ Aj
Notons que la série j=0 converge normalement. En eet,
j!
+∞ +∞
X An X kAj k
k k≤ = ekAk < ∞
i=0
n! j=0
j!

Donnons sans démonstration ses propriétés principales.

Proposition 2.2.4 Soient A et B deux éléments de Mn (IR).


1. Si A et B commutent, i.e. AB = BA, alors eA eB = eA+B .
2. eA est inversible d'inverse e−A .
3. Supposons que A soit semblable à une matrice J : A = P JP −1 . Alors eA = P eJ P −1 .
4. Si P est inversible alors eP = P −1 eA P .
−1 AP

5. Si D = diag(λ1 , · · · , λn ) une matrice diagonale,alors

eλ1 ···
 
0 0
... ... .. 

D 0 . 
e = .. ... ...

.

 0 
0 ··· 0 eλn

0
6. La dérivée de etA est etA = AetA

Remarque 2.2.3 Attention. En général :

eA eB 6= eA+B 6= eB eA

Notons que cette notion d'exponentielle est très utilisée dans la résolution des systèmes dif-
férentiels linéaires. En eet pour le système diérentiel homogène (2.5), on a la proposition
suivante :

Proposition 2.2.5 Une matrice fondamentale du système diérentiel est

R(t) = eAt

Et l'unique solution du système diérentiel homogène X 0 (t) = AX(t) pour la condition initiale
X(t0 ) = X 0 est l'application X dénie par X(t) = eA(t−t0 ) X 0 .
Ainsi, la résolution d'un système linéaire autonome se ramène au calcul d'une exponentielle
de matrices. Mais comment on fait pour calculer eA ?

27
Pr M. El Kyal, ENSA d'Agadir 28
Calcul de l'exponentielle de matrices
Le but de cette section est de calculer l'exponentielle d'une matrice A à un changement de
base près. Cette section repose sur des résultats standards d'algèbre linéaire que nous rappelle-
rons sans en donner la démonstration.

Rappels d'algèbre linéaire


Considérons une matrice carrée A et notons λ1 ; · · · ; λr ses valeurs propres.
ce sont les racines du polynôme caractéristique de A.
Ce polynôme est donc de la forme

PA (λ) = (λ − λ1 )p1 · · · (λ − λr )pr ;

où chaque entier pi est strictement positif et p1 + · · · + pr = n (le polynôme caractéristique étant


de degré n).
On appelle pi la multiplicité algébrique de la valeur propre λi .
Sous-espaces propres, sous-espaces caractéristiques
A chaque valeur propre de A sont associés deux sous-espaces vectoriels de Cn .
- Le premier est le sous-espace propre ker(A − λi I) : C'est l'ensemble des vecteurs propres
associés à λi . L'entier ei = dim(ker(A − λi I)) est appelé la multiplicité géométrique de la
valeur propre λi .
- Le deuxième est le sous-espace caractéristique ker(A − λi I)pi . Il est clair que ker(A − λi I) ⊂
ker(A − λi I)pi , mais ces deux espaces peuvent être diérents.
Le rôle des espaces caractéristiques est précisé dans le résultat suivant :
Si le polynôme Caractéristique de la matrice A est scindé dans IR c'est à dire toute les valeurs
propres sont réelles, on a le résultat suivant :

Théoreme 2.2.4 (décomposition des noyau) L'espace IRn se décompose en somme di-
recte des sous-espaces caractéristiques,

IRn = ker(A − λ1 I)p1 ⊕ · · · ⊕ ker(A − λr I)pr

On a de plus les propriétés suivantes :


1. dim(ker(A − λi I)pi ) = pi
2. chacun des espaces ker(A − λi I)pi est invariant par A :

X ∈ ker(A − λi I)pi ⇒ AX ∈ ker(A − λi I)pi

3. la restriction A/ker(A − λi I)pi de A à ker(A − λi I)pi s'écrit :

A/ker(A − λi I)pi = λi I + Ni

où Ni est une matrice nilpotante d'ordre ≤ pi .

Ce résultat appelle un certain nombre de commentaires.


1. La matrice Ni est dénie par Ni = (A − λi I)/ker(A − λi I)pi . Le fait que Ni soit nilpotente
d'ordre mi ≤ pi n'est donc rien d'autre que la dénition de ker(A − λi I)pi .

28
Pr M. El Kyal, ENSA d'Agadir 29
2. Une matrice est diagonalisable dans IR si il existe une base de IRn formée de vecteurs propres,
c'est à dire :

IRn = ker(A − λ1 I) ⊕ · · · ⊕ ker(A − λr I).


D'après le théorème de décomposition des noyaux, ceci n'est possible que si ker(A − λi I)pi =
ker(A − λi I) pour tout i. Autrement dit, A est diagonalisable si et seulement si une des
conditions suivantes (toutes équivalentes) est satisfaite :
(a) pour toute valeur propre les multiplicités algébrique et géométrique coïncident, i.e.
dim(ker(A − λi I)) = pi pour i = 1, · · · , r ;
(b) toutes les matrices Ni sont nuls, i.e. Ni = 0 pour i = 1, · · · , r ;
(c) les ordres de nilpotence mi sont tous égaux à 1.
Un cas important où ces conditions sont satisfaites est le cas où tous les pi sont égaux à
1. Autrement dit, une matrice dont toutes les valeurs propres sont simples est réelles est
diagonalisable dans IR.
Réduction de Jordan - Chevalley dans IR n

Choisissons une base B formée de la réunion des bases des sous espaces caractéristiques (sous
espaces propres généralisés) et notons P la matrice de passage de cette base à la base canonique.
D'après le théorème de décomposition des noyaux, la matrice P −1 AP qui représente l'applica-
tion linéaire associée à A dans la base B est diagonale par blocs. On obtient ainsi la réduction
suivante.
Théoreme 2.2.5 (Théorème de Jordan) Pour toute matrice carrée A ∈ Mn (IR) dont le
,
polynôme caractéristique est scindé il existe P, J ∈ Mn (IR) telles que
A = P JP −1

avec J une matrice triangulaire supérieure et diagonale-par-blocs :


 
J1 0
 J2 
J = ... ,
 
 
0 Jr

et chaque bloc Ji ∈ IRpi ×pi est de la forme


 
λi ∗ 0 ··· 0
 0 λi 
Ji = Di + Ni =  ... . . . . . . . . . 0
 
 ∈ Mpi (IR)
 
 
 ∗ 
0 ··· 0 λi
avec
   
λi 0 ··· 0 ∗ 0 ··· 0
 0 λi   0 
Di =  ... . . . . . . . . . 0 .. ... ... ...
   
= λ I et N = . , ∗ = 0 ou 1
   


 i pi i 
 0 

   ∗ 
0 ··· 0 λi 0 ··· 0

29
Pr M. El Kyal, ENSA d'Agadir 30
Cette décomposition est dite de Jordan - Chevalley (ou de Dunford ou encore D + N ) et la
matrice J = P −1 AP est appelée forme réduite de Jordan-Chevalley.

Remarques 2.2.1 1. J = D + N avec D diagonale et N nilpotente.


2. DN = N D.
3. A = P (D + N )P −1 .
4. Rappelons que mi = 1 si et seulement si les multiplicités algébrique et géométrique de λi
coïncident (i.e. dim(ker(A − λi I)) = pi ). Dans ce cas la matrice Ni est nulle et Ji est
diagonale, Ji = λi Ipi .
5. D'après la remarque précédente, si pour chaque valeur propre les multiplicités algébrique
et géométrique coïncident, la forme réduite de Jordan Chevalley est diagonale. Ainsi cette
réduction généralise la diagonalisation. Insistons cependant sur le fait que toute matrice
réelle dont les valeurs propres sont réelles admet une réduction de Jordan-Chevalley, alors
que toute matrice n'est pas nécessairement diagonalisable.

Notons qu'il est également possible de choisir la base B de façon à mettre les matrices
nilpotentes Ni sous une forme relativement simple, ce qui aboutit à la réduction de Jordan. En
eet, la méthode pratique pour trouver la décomposition de Dunford de la matrice A :
1. Déterminer les valeurs propres et les vecteurs propres de A. Si la matrice A est diagonali-
sable, c'est ni. Sinon :
2. Déterminer une base adaptée de chacun des sous-espaces propres généralisés. Pour ce faire,
on peut procéder ainsi : pour chaque valeur propre λ,
 On choisit un vecteur propre u1 de A associé à la valeur propre λ (déterminé à l'étape
1).
 On cherche u2 tel que
(A − λI)u2 = u1 .
Il s'agit de résoudre un système linéaire dont les inconnues sont les coordonnées de
u2 .
Pour un tel vecteur on aura en eet

(A − λI)2 u2 = (A − λI)u1 = 0.

De plus u1 et u2 seront forcément linéairement indépendants, sinon u2 serait aussi


un vecteur propre associé à λ et (A − λI)u2 = 0 ce qui est absurde.
Enn Au2 = u1 + λu2 , ce qui est la forme cherchée.
 On répète ce procédé, au plus mi − 1 fois : on cherche uk+1 tel que (A − λI)uk+1 = uk .
Calcul de l'exponentielle de A
Le théorème précédent permet de calculer etA . En eet, commençons par le calcul de l'expo-
nentielle d'un bloc Ji = λi I + Ni . Comme λi Ipi et Ni commutent, on obtient

etJi = etλi IetNi = etλi etNi


De plus, Ni étant nilpotente d'ordre mi , on a
∞ m i −1
X (tNi )j X (tNi )j
etNi = =
j=0
j! j=0
j!

30
Pr M. El Kyal, ENSA d'Agadir 31
alors
t2 tmi −1
 
e tJi
=e tλi
I + tNi + Ni2 + · · · + N mi −1
2 (m − 1)!
D'autre part, d'après les propriétés de l'exponentielle de matrice , on a
−1
etA = etP JP = P etJ P −1

ce qui donne nalement pour l'exponentielle de tA :


 
etJ1 0
 etJ2 
 −1
P ... P

 
tJr
0 e

Exemple 2.2.4 Résoudre le système d'équations diérentielles :


 0
 x1 (t) = −6x1 (t) + 6x3 (t)
x02 (t) =
 0
2x1 (t) − 2x2 (t) − 3x3 (t) (S)
x3 (t) = −2x1 (t) + x3 (t).

Posons
   
−6 0 6 x1 (t)
A =  2 −2 −3 ), X(t) =  x2 (t)  .
−2 0 1 x3 (t)
Alors le système est équivalent à
X 0 (t) = AX(t).
Le polynôme caractéristique de A :
PA (λ) = −12 − 16λ − 7λ2 − λ3 = −(λ + 2)2 (λ + 3).

Comme un vecteur propre pour la valeur propre −3, on peut prendre (2, −1, 1). Pour la valeur
propre −2, on peut prendre 2 vecteurs propres linéairement indépendants : (3, 0, 2) et (0, 1, 0).
Les trois vecteurs choisis sont linéairement indépendants, donc
   −1
3 0 2 −2 0 0 3 0 2
A = 0 1 −1  0 −2 0  0 1 −1 .
2 0 1 0 0 −3 2 0 1

Posons    
−2 0 0 3 0 2
D =  0 −2 0  , P = 0 1 −1 .
0 0 −3 2 0 1
Alors A = P DP −1 . Ainsi le système (S ) est équivalent à
X 0 (t) = P DP −1 X(t) ⇔ (P −1 X(t))0 = DP −1 X(t).

Posons
Y (t) = P −1 X(t)
Alors le système est équivalent à
Y 0 (t) = DY (t).

31
Pr M. El Kyal, ENSA d'Agadir 32
Ainsi, le système pour X est équivalent au système suivant pour Y :
 0
 y1 (t) = −2y1 (t)
y 0 (t) = −2y2 (t)
 20
y3 (t) = −3y3 (t)

La solution générale pour y1 , y2 , y3 :




 y1 (t) = C1 e−2t ,


y2 (t) = C2 e−2t , C1 , C2 , C3 ∈ IR.


y3 (t) = C3 e−3t ,

En utilisant le changemnet des variables


X(t) = P Y (t),

on trouve la solution générale pour x1 , x2 , x3 :




 x1 (t) = 3C1 e−2t + 2C3 e−3t ,


x2 (t) = C2 e−2t − C3 e−3t , C1 , C2 , C3 ∈ IR.


x3 (t) = 2C1 e−2t + C3 e−3t ,

Exemple 2.2.5 Soit à résoudre le système diérentiel linéaire suivant :




 x01 (t) − 2 x1 (t) + x3 (t) = 0
x02 (t) + x1 (t) − x2 (t) − x3 (t) = 0
x03 (t) + x2 (t) = 0

qui s'écrit
 0   
x1 2 0 −1 x1
x02  = −1 1 1   x2 
x03 0 −1 0 x3

1. Factorisons le polynôme caractéristique de A.


Le polynôme caractéristique de A est le polynôme

2 − λ 0 −1
1 − X 1 −1 1 − X
PA (λ) = −1 1 − λ 1 = (2 − X) −
−1 −X 0 −1
0 −1 −λ
= (2 − λ)(λ2 − λ + 1) − 1
= −λ3 + 3λ2 − 3λ + 1 = (1 − λ)3

2. Déterminons les sous-espaces propres de A.

La matrice A admet une unique valeur propre λ = 1.


ker(A − I3 ) = {~u ∈ IR3 / A~u = ~u} = {(x, y, z) ∈ IR3 / x = z = −y}.

C'est la droite vectorielle engendrée par le vecteur ~u1 = (1, −1, 1).

32
Pr M. El Kyal, ENSA d'Agadir 33
3. D'après le théorème de Jordan, il existe une matrice J telle que
 
1 1 0
J = 0 1 1
0 0 1

et une matrice P inversible telle que A = P JP −1 .


En eet,
Le vecteur ~u1 vérie A~u1 = u1 , on cherche un vecteur ~u2 = (x, y, z) tel que A~u2 = ~u1 + ~u2 .
    
2 0 −1 x 1+x
A~u2 = ~u1 + ~u2 ⇐⇒ −1 1 1  y  = −1 + y 
0 −1 0 z 1+z
   
2x − z 1+x
⇐⇒ −x + y + z  = −1 + y 
−y 1+z

On obtient donc z − x = z + y = −1, le vecteur ~u2 = (1, −1, 0) convient. On cherche alors
un vecteur ~u3 = (x, y, z) tel que A~u3 = ~u2 + ~u3 .
   
2x − z 1+x
A~u3 = ~u2 + ~u3 ⇐⇒ −x + y + z  = −1 + y 
−y z

on obtient alors x + y = x − z = 1. Le vecteur ~u3 = (1, 0, 0) convient. Ainsi, dans la base


(~u1 , ~u2 , ~u3 ) la matrice P cherchée est
 
1 1 1
P = −1 −1 0 ,
1 0 0

on a bien A = P JP −1 et J = P −1 AP .
4. Ecrivons la décomposition de Dunford de J .
On a      
1 1 0 1 0 0 0 1 0
J = 0 1 1 = 0 1 0 + 0 0 1 = I3 + N
0 0 1 0 0 1 0 0 0
   
0 1 0 0 0 1
Si N = 0 0 1 alors N = 0 0 0 et N 3 = 0. La matrice I3 est diagonale, la
  2 
0 0 0 0 0 0
matrice N est nilpotente, les matrices I3 et N commutent, c'est donc bien la décomposition
de Dunford de J .
5. Pour t ∈ IR, calculons etJ .
On a, pour t ∈ IR, tJ = tI3 + tN , ainsi etJ = etI3 +tN = etI3 etN car les matrices tI3 et tN
commutent.
Par ailleurs, etI3 = et I3 et etN = I + tN + t2 N 2 . On a donc
2

 
1 t t2 /2
etJ = et 0 1 t .
0 0 1

33
Pr M. El Kyal, ENSA d'Agadir 34
6. Donnons les solutions des systèmes diérentiels Y 0 (t) = JY (t) et X 0 (t) = AX(t).

Pour Y 0 (t) = JY (t), sa solution générale s'écrit


Y (t) = etJ C,
où C est un vecteur de IR3 .

Intégrons alors le système X 0 (t) = AX(t). Remarquons que si P Y est solution de X 0 = AX ,


on a
(P Y )0 = A(P Y ) ⇐⇒ P Y 0 = AP Y ⇐⇒ Y 0 = P −1 AP Y ⇐⇒ Y 0 = JY
ainsi Y est solution de Y 0 = JY , la solution générale du système X 0 (t) = AX(t) sécrit donc
  
1 1 1 1 t t2 /2
X(t) = P etJ C = et −1 −1 0 0 1 t C
1 0 0 0 0 1
 2
 
1 t + 1 t /2 + t + 1 c1
t 2
= e −1 −t − 1 −t /2 − t  c2 
1 t t2 /2 c3
où C = (c1 , c2 , c3 ) est un vecteur de IR3 . Ou encore
 t 2
x1 (t) = e (c1 + c2 (t + 1) + c3 (t /2 + t + 1))

x2 (t) = et (−c1 − c2 (t + 1) − c3 (t2 /2 + t))
x3 (t) = et (c1 + c2 t + c3 t2 /2)


ou encore
   t   t   t 2 
x1 (t) e e (t + 1) e (t /2 + t + 1)
x2 (t) = c1 −et  + c2 −et (t + 1) + c3  −et (t2 /2 + t) 
x3 (t) et tet et t2 /2
avec (c1 , c2 , c3 ) ∈ IR3 .
Exemple 2.2.6 Soit à résoudre le système diérentiel linéaire suivant :
 0   
x1 3 2 4 x1
x02  = −1 3 −1 x2 
x03 −2 −1 −3 x3
1. Factorisons le polynôme caractéristique de A.
On a

3 − X 2 4

PA (X) = −1
3−X −1
−2 −1 −3 − X

−1 − X 2 4

= 0 3−X −1
1+X −1 −3 − X

−1 − X 2 4

= 0 3−X −1
0 1 1 − X
= (−1 − X)(X 2 − 4X + 4) = −(X + 1)(X − 2)2

34
Pr M. El Kyal, ENSA d'Agadir 35
Les valeurs propres de la matrice A sont λ1 = −1, valeur propre simple et λ2 = 2, valeur
propre double.
2. Déterminons les sous-espaces propres A.
Le sous-espace propre associé à la valeur propre −1 est le sous-espace vectoriel E−1 déni
par
E−1 = {~u ∈ IR3 , A~u = −u}.
Soit ~u = (x, y, z) ∈ IR3 ,

 4x + 2y + 4z = 0
 (
2x + y + 2z = 0
~u ∈ E−1 ⇐⇒ −x + 4y − z = 0 ⇐⇒

−2x − y − 2z = 0 x − 4y + z = 0

L'espace E−1 est une droite vectorielle dont un vecteur directeur est donné par
~u1 = (1, 0, −1).

Le sous-espace propre associé à la valeur propre 2 est le sous-espace vectoriel E2 déni par
E2 = {~u ∈ IR3 , A~u = 2u}.

Soit ~u = (x, y, z) ∈ IR3 ,



 x + 2y + 4z = 0
 (
x + 2y + 4z = 0
~u ∈ E2 ⇐⇒ −x + y − z = 0 ⇐⇒

−2x − y − 5z = 0 x−y+z =0

L'espace E2 est une droite vectorielle dont un vecteur directeur est donné par
~u2 = (2, 1, −1).

Le sous-espace E2 étant de dimension 1, la matrice A n'est pas diagonalisable.


3. Démontrons qu'il existe une base de IR3 dans laquelle la matrice A est
 
−1 0 0
J =  0 2 1 .
0 0 2
Les vecteurs ~u1 et ~u2 , vecteurs propres associés aux valeurs propres −1 et 2 conviennent
pour les deux premiers vecteurs de la base recherchée, on va alors chercher un vecteur ~u3 ∈
ker(A − 2I)2 tel que A~u3 = ~u2 + 2~u3 , notons ~u3 = (−2z, y, z), on détermine y et z tels que
     
2y − 2z 2 −4z
 3y + z  =  1  +  2y 
−y + z −1 2z

on obtient y + z = 1, le vecteur ~u3 = (0, 1, 0) convient.


Trouvons une matrice P inversible telle que A = P JP −1 .
La matrice de passage P qui exprime la base (~u1 , ~u2 , ~u3 ) dans la base canonique de IR3 répond
à la question,  
1 2 0
P =  0 1 1 .
−1 −1 0

35
Pr M. El Kyal, ENSA d'Agadir 36
4. Ecrivons la décomposition de Dunford de J .
On a      
−1 0 0 −1 0 0 0 0 0
J=  0 2 1 =
  0 2 0 + 0
  0 1 ,
0 0 2 0 0 2 0 0 0
| {z } | {z }
D N

la matrice D est diagonale, la matrice N est nilpotente, N 2 = 0, et N D = DN , c'est donc


bien la décomposition de Dunford de la matrice J .
5. Calculons etJ .
Compte tenu de la question précédente, on a J = N +D, avec DN = N D, ainsi etJ = etD etN ,
or
e−t 0 0
   
1 0 0
etD =  0 e2t
0  et e = I + tN = 0 1 t  .
tN 
2t
0 0 e 0 0 1
D'où
e−t 0
 
0
etJ =  0 e2t te2t  .
0 0 e2t

6. Donnons les solutions des systèmes diérentiels Y 0 = JY et X 0 = AX .

Intégrons le système Y 0 = JY , sa solution générale s'écrit

Y (t) = etJ C

où C est un vecteur de IR3 .

ainsi Y est solution de Y 0 = JY , la solution générale du système X 0 = AX sécrit donc

X(t) = P etJ C

2.3 Cas d'un système linéaire avec second membre


Pour le système non homogène avec un second membre B non identiquement nulle :

X 0 (t) = AX(t) + B(t), t ∈ I, (E)


où X est une fonction inconnue I → IRn , on a le théorème suivant.

Théoreme 2.3.1 Soient ϕ1 , · · · ϕn un ensemble fondamental de solutions du problème homo-


gène et Xp une solution particulière de (E ). Alors toute solution X de (E ) est de la forme
n
X
X(t) = Xp (t) + ci ϕi
1

avec (c1 , · · · , cn ) ∈ IRn .

36
Pr M. El Kyal, ENSA d'Agadir 37
Pour trouver une solution particulière Xp , Comme pour les chapitre 1, On procède par la mé-
thode de variation de la constante. On va chercher une solution particulière Xp sous la forme
n
X
Xp (t) = ci (t)ϕi (t)
1

Si la matrice A est diagonalisable, on peut obtenir un système dont la matrice est diagonale
par un  changement des variables .
Supposons A = P DP −1 où D est diagonale. Alors l'équation (E) s'écrit

X 0 = P DP −1 X + B.

Faisons le  changement des variables 

X(t) = P Y (t), Y (t) = P −1 X(t).

Posons en plus, pour simplier l'écriture,

B(t) = P G(t), G(t) = P −1 B(t).

Alors

X 0 = P DP −1 X + B
⇔ P Y 0 = P DP −1 P Y + P G
⇔ Y 0 = DY + G.

On peut maintenant trouver Y et ensuite X .


Si la matrice A dans (E ) n'est pas diagonalisable mais est triangularisable, on peut obtenir
un système dont la matrice est triangulaire par un  changement des variables  comme dans
le cas avec une matrice diagonalisable.

Exemple 2.3.1 Résoudre le système d'équations diérentielles :


 0
 x1 = −6x1 + 6x3 − t,
0
x =
 20
2x1 − 2x2 − 3x3 + t, (S)
x3 = −2x1 + x3 .

Posons
    
−6 0 6 −t x1 (t)
A =  2 −2 −3  , B(t) =  t  , X(t) =  x2 (t)  .
−2 0 1 0 x3 (t)
Alors le système (E ) est équivalent à

X 0 (t) = AX(t) + B(t).

Le polynôme caractéristique de A :

PA (λ) = −12 − 16λ − 7λ2 − λ3 = −(λ + 2)2 (λ + 3).

37
Pr M. El Kyal, ENSA d'Agadir 38
Comme un vecteur propre pour la valeur propre −3, on peut prendre (2, −1, 1). Pour la valeur
propre −2, on peut prendre 2 vecteurs propres linéairement indépendants : (3, 0, 2) et (0, 1, 0).
Les trois vecteurs choisis sont linéairement indépendants, donc
   −1
3 0 2 −2 0 0 3 0 2
A = 0 1 −1  0 −2 0  0 1 −1 .
2 0 1 0 0 −3 2 0 1
Posons    
−2 0 0 3 0 2
D =  0 −2 0  , P = 0 1 −1 .
0 0 −3 2 0 1
Alors A = P DP −1 . Ainsi le système (E ) est équivalent à
X 0 (t) = P DP −1 X(t) + B(t) ⇔ (P −1 X)0 = DP −1 X + P −1 B.
Posons
Y (t) = P −1 X(t), G(t) = P −1 B(t).
Alors le système (E ) est équivalent à
Y 0 (t) = DY (t) + G(t).
On calcule P −1 et trouve :  
−1 0 2
P −1 =  2 1 −3 .
2 0 −3
D'où,  
t
G(t) =  −t  .
−2t
Ainsi, le système (E ) pour Y est équivalent au système suivant pour X :
 0
 y1 = −2y1 + t,
y20 = −2y2 − t,
 0
y3 = −3y3 − 2t.
La solution générale pour y1 , y2 , y3 :

t 1

 y1 (t) = − + C1 e−2t ,
2 4




t 1

y2 (t) = − + + C2 e−2t , C1 , C2 , C3 ∈ IR.


 2 4
 2t 2
+ C3 e−3t ,


 y3 (t) = − +
3 9
En utilisant le changemnet des variables
X(t) = P Y (t),
on trouve la solution générale pour x1 , x2 , x3 :

t 11

 x1 (t) = − + 3C1 e−2t + 2C3 e−3t ,
6 36




t 1

x2 (t) = + + C2 e−2t − C3 e−3t , C1 , C2 , C3 ∈ IR.


 6 36
 t 5
+ 2C1 e−2t + C3 e−3t ,

 x3 (t) =
 −
3 18

38
Pr M. El Kyal, ENSA d'Agadir 39
2.4 Equations diérentielles d'ordre n à coecients constants
2.4.1 Transformation d'une équation d'ordre n en un système d'ordre
1
Considérons une équation diérentielle linéaire d'ordre n à coecients constants :
x(n) (t) + an−1 x(n−1) (t) + · · · + a1 x0 (t) + a0 x(t) = b(t), t ∈ I. (E)
Pour résoudre cette équation, on peut poser


 y1 = x,
 y 2 = x0 ,

..

 .
 y = x(n−1) ,

n

et résoudre le système :

 y10 = y2 ,

(S)

 y 0 = y3 ,

2
..

 .
 y 0 = −a y − a y − · · · − a y + b.

n 0 1 1 2 n−1 n

ou encore
y 0 (t) = Ay(t) + B(t)
avec    
0 1 0 ··· 0 0
 0 0 1 0   0 
 .. .. ...  .. 
   
A= . . et
 . 
B(t) = .

 
 
 0 0 0 1   0 
−a0 −a1 −a2 · · · −an−1 b(t)

2.4.2 Equation diérentielle homogène


On s'intéresse pour commencer à l'équation homogène associée
x(n) (t) + an−1 x(n−1) (t) + · · · + a1 x0 (t) + a0 x(t) = 0, t ∈ I. (EH)
Pour résoudre le système, on ne s'intéresse en fait qu'à la première composante y1 de y
solution du système diérentiel homogène associé.
Comme le système diérentiel admet une solution générale dans un espace de dimension n,
l'équation diérentielle (équation en y1 ) admet une solution générale dans un espace vectoriel
de dimension n :
En eet si
n
X
y(t) = ci ϕi (t)
i=1

où les ϕi sont des fonctions indépendantes, alors l'équation diérentielle (EH) admet pour
solution générale
n
X
x(t) = y1 (t) = ci ϕi1 (t)
i=1

39
Pr M. El Kyal, ENSA d'Agadir 40
où les ϕij sont les composantes de ϕi . On va montrer qu'en fait, l'équation diérentielle (EH)
admet une solution générale dans un espace vectoriel de dimension égal à n. Pour cela on in-
troduit le polynôme caractéristique P (λ)

en développant le déterminant par rapport à la première colonne (puis calcul par récurrence),
on trouve que :
P (λ) = det(A − λI) = (−1)n (a1 + a2 λ + · · · + an λn−1 + λn ),
C'est l'expression usuelle du polynôme caractéristique, dont l'obtention formelle se lit avec (EH)
où les dérivations y (k) sont transformées en monôme λk , pour k = 0, . . . n.
P est de degré n, donc est de la forme :
P (λ) = (λ − λ1 )p1 · · · (λ − λr )pr ; p1 + · · · + pr = n
où les λi sont les racines (réelles ou complexes) de P distinctes 2 à 2 et de multiplicité respectives
pi .
Théoreme 2.4.1 Si les racines de P sont toutes simples, alors la solution générale de (EH)
est donnée par
n
X
x(t) = ci e λ i t
i=1
où les λi sont les valeurs propres de A.
En eet, Si les valeurs propres λi sont toutes simples, On notes par Vi leurs vecteurs propres.
alors la solution générale est donnée par
n
X
y(t) = ci eλi t Vi
i=1
t
Or pour trouver chaque vecteur propre Vi = Vi1 · · · Vin , il sut de résoudre le système :
AVi − λi Vi = 0 on aura 

 Vi2 − λi Vi1 = 0
Vi3 − λi Vi2 = 0


 .. .


 V −λV
in i i(n−1) = 0

qui montre que le sous-espace propre est de dimension 1 et est engendré par le vecteur Vi =
n−1 t

1 λi · · · λi
et puisque x(t) = y1 (t) d'où x(t) = ni=1 ci eλi t
P

Le théorème suivant traite le cas général (cas éventuel de racines multiples).


Théoreme 2.4.2 1. Si le polynôme caractéristique s'écrit P (λ) = (λ − λi )n , alors λi est
racine de multiplicité n et l'équation diérentielle (EH ) admet n solutions ϕk , k = 1, · · · , n
indépendantes données par :
ϕ1 (t) = eλi t , ϕ2 (t) = teλi t , · · · , ϕn (t) = tn−1 eλi t
et la solution générale est donnée par
n
X
x(t) = cj ϕj (t) = c1 eλi t + c2 teλi t + · · · + cn tn−1 eλi t
j=1

40
Pr M. El Kyal, ENSA d'Agadir 41
2. Si le polynôme caractéristique est donné par
P (λ) = (λ − λ1 )p1 · · · (λ − λr )pr

la solution générale est donnée par :


r
X
x(t) = ci1 eλi t + ci2 teλi t + · · · + cipi tpi −1 eλi t
i=1

où les n valeurs cij sont des constantes quelconques (dans IR).


En eet, pour la matrice A, il existe P, J ∈ IRn×n telles que
A = P JP −1

notons que pour une équation diérentielle d'ordre n, l'espace Ker(A − λi I) est toujours de
dimension 1 quelque soit la multiplicité de la valeur propre λi .
alors J est triangulaire supérieure et diagonale-par-blocs :
 
J1 0
 J2 
J = ... ,
 
 
0 Jr

et chaque bloc Ji ∈ IRpi ×pi est de la forme


 
λi 1 0

 λi 1 

Ji = 
 λi .

 ... 
 1
0 λi
et  
P = P1 P2 . . . Pr
où les colonnes de chaque matrice Pi ∈ IRn×pi sont les vecteurs vi1 , . . . , vipi de la base du
sous espace caractéristique écrits en colonnes et le premier vecteur colonne est le vecteur vi1
vecteur propre de la valeur propre λi donc c'est le vecteur
 
1



 λi
vi1 = 

,
 λ2i
 .. 
 . 
λin−1

En posant Z = P −1 Y , le système
Y 0 = AY
équivaut alors à
Z 0 = JZ
La solutions du second système étant
Z = etJ C, C ∈ IRn

41
Pr M. El Kyal, ENSA d'Agadir 42
on obtient celle du premier :
Y = P etJ C, C ∈ IRn
avec
 
P = P1 P2 . . . Pr
et  
etJ1 0
tJ
 etJ2 
e = ... ,
 
 
0 etJr

t2 tpi −1
 
1 t ···
2! (pi − 1)! 
 .. .. ..
 
. . .

 ... 
etJi ... ...
λi t 
=e  t2 ,

 
2! 
...

 
 t 
1
donc  
etJ1 0
 etJ2 
 C, C ∈ IRn

Y = P1 P2 . . . Pr  ...
 
 
0 etJr
 
= P1 etT1 P2 etT2 . . . Pr etJr C
et puisque la première colonne de chaque matrice Pi est le vecteur propre Vi1 alors la composante
y1 de la solution s'écrit
r
X
y1 (t) = x(t) = ci1 eλi t + ci2 teλi t + · · · + cipi tpi −1 eλi t .
i=1

2.4.3 Equation diérentielle non homogène : variations des constantes


Supposons connue une base (ϕ1 , , ϕn ) de l'espace des solutions de l'équation diérentielle
homogène :
x(n) (t) + an−1 x(n−1) (t) + · · · + a1 x0 (t) + a0 x(t) = 0, t ∈ I.

et en posant  
ϕj (t)
 ϕ0 (t) 
j
φj (t) =  .
 
 .
.


n−1
ϕ (t)

Alors φ1 , · · · , φn est une base de l'espace des solutions du système homogène y 0 (t) = Ay(t) où

42
Pr M. El Kyal, ENSA d'Agadir 43
 
0 1 0 ··· 0
 0 0 1 0 
 .. . .
 
A= . .
. . . .

 
 0 0 0 1 
−a0 −a1 −a2 · · · −an−1
Autrement dit :


 y1 (t) = x(t) = C1 ϕ1 (t) + · · · + Cn ϕn (t)
 y2 (t) = x0 (t)

= C1 ϕ01 (t) + · · · + Cn ϕ0n (t)
..

 .
(n−1) (n−1)

yn (t) = x(n−1) (t) = C1 ϕ1 (t) + · · · + Cn ϕn (t)

L'équation diérentielle complète


x(n) (t) + an−1 x(n−1) (t) + · · · + a1 x0 (t) + a0 x(t) = b(t), t ∈ I.
est équivalente à

y 0 (t) = Ay(t) + B(t)


avec 
0
 0 
 .. 
 
B(t) =  .  .
 
 0 
b(t)
Comme nous connaissons une base de l'espace des solutions du système homogène, nous
pouvons résoudre ce système linéaire par variation des constantes en posant

y(t) = C1 (t)φ1 (t) + · · · + Cn (t)φn (t)


Comme  
x(t)
 x0 (t) 
y(t) =  ..
 
.

 
x(n−1) (t)
ceci revient à poser


 x(t) = C1 (t)ϕ1 (t) + · · · + Cn (t)ϕn (t)
 x0 (t)

= C1 (t)ϕ01 (t) + · · · + Cn (t)ϕ0n (t)
..

 .
(n−1) (n−1)

x(n−1) (t) = C1 (t)ϕ1 (t) + · · · + Cn (t)ϕn (t)

autrement dit, d'après la règle de dérivation des produits, cela revient à imposer aux fonctions
C1 , · · · , Cn de vérier les conditions
 0

 C1 (t)ϕ1 (t) + · · · + Cn0 (t)ϕn (t) = 0
 C10 (t)ϕ01 (t) + · · · + Cn0 (t)ϕ0n (t)

= 0
..

 .
(n−2) (n−2)

C10 (t)ϕ1 (t) + · · · + Cn0 (t)ϕn (t) = 0

43
Pr M. El Kyal, ENSA d'Agadir 44
Dans ces conditions, par dérivation de x(n−1) (t) = C1 (t)ϕ(n−1)
1 (t) + · · · + Cn (t)ϕn (t) on
(n−1)

obtient
(n) (n)
x(n) (t) = C1 (t)ϕ1 (t) + · · · + Cn (t)ϕn (t)
(n−1) (n−1)
+C10 (t)ϕ
 1 (t) + · · · + Cn0 (t)ϕn (t) 
(n−1)
= C1 (t) −an−1 ϕ1 (t) − · · · − a1 ϕ01 (t) − a0 ϕ1 (t)
 
(n−1)
+ · · · + Cn (t) −an−1 ϕn (t) − · · · − a1 ϕ0n (t) − a0 ϕn (t)
(n−1) (n−1)
+C10 (t)ϕ
1 (t) + · · · + Cn0 (t)ϕn (t)

(n−1) (n−1)
= −an−1 C1 (t)ϕ1 (t) + · · · + Cn (t)ϕn (t)
− · · · − a0 (C1 (t)ϕ1 (t) + · · · + Cn (t)ϕn (t))
(n−1) (n−1)
+C10 (t)ϕ1 (t) + · · · + Cn0 (t)ϕn (t)
= −an−1 x(n−1) (t) − · · · − a0 x(t)
(n−1) (n−1)
+C10 (t)ϕ1 (t) + · · · + Cn0 (t)ϕn (t)
or
x(n) (t) + an−1 x(n−1) (t) + · · · + a1 x0 (t) + a0 x(t) = b(t), t ∈ I.
Alors
(n−1)
C10 (t)ϕ1 (t) + · · · + Cn0 (t)ϕ(n−1)
n (t) = b(t)
En conclusion, C10 (t), · · · , Cn0 (t) doivent être solutions du système d'équations linéaires
 0
 C1 (t)ϕ1 (t) + · · · + Cn0 (t)ϕn (t) = 0
0 0 0 0

 C1 (t)ϕ1 (t) + · · · + Cn (t)ϕn (t) = 0


..

.
(n−2) (n−2)
C10 (t)ϕ1 (t) + · · · + Cn0 (t)ϕn (t) = 0




(n−1) (n−1)

 0
C1 (t)ϕ1 (t) + · · · + Cn0 (t)ϕn (t) = b(t)
Or ce système est un système de Cramer puisque son déterminant est le wronskien de
φ1 , · · · , φn qui par hypothèse ne s'annule pas (car φ1 , · · · , φn forme une base de l'espace des
solutions).
La résolution du système conduit à la détermination de C10 (t), · · · , Cn0 (t) et il reste à faire n
calculs de primitives de fonctions pour terminer la résolution de l'équation linéaire.

2.5 Point d'équilibre et Stabilité


Définition 2.5.1 Etant donné un système diérentiel autonome de la forme générale

X 0 (t) = f (X(t))

On appelle point d'équilibre (ou également solution stationnaire ou point critique), une so-
lution constante X ∗ telle que f ((X ∗ )) = 0.

Notons que dans le cas des systèmes linéaires autonomes, Si la matrice A est inversible, le seul
point d'équilible est le vecteur nul.
Dans ce paragraphe nous etudions le comportement asymptotique des solutions et le compor-
tement qualitatif du point d'équilibre 0 de l'équation dierentielle linéaire du premier ordre
X 0 (t) = AX(t).

44
Pr M. El Kyal, ENSA d'Agadir 45
Le comportement asymptotique consiste à étudier le comportement des solutions lorsque
t → ∞, en particulier la convergence vers 0, la bornitude des solutions ou l'explosion en temps
inni. Ces questions sont liées à la stabilité asymptotique et l'instabilité du point d'équilibre 0
qui est le point d'équilibre canonique du système linéaire.
Dans le cas n = 1 la question du comportement asymptotique des solutions est très simple. Les
solutions de l'équation sont de la forme x(t) = eλt x0 . On voit donc que :
1. si λ > 0, alors toutes solutions (sauf la solution constante 0) explosent en temps inni ; en
particulier, elles sont non bornees. On dira dans ce cas que le point d'équilibre 0 est instable.
2. Si λ < 0, alors toutes les solutions converges, lorsque t → ∞, vers le point d'équilibre 0 ; on
dira que le point 0 est asymptotiquement stable.
3. Si λ = 0, alors toutes les solutions sont constantes. Toutes les solutions avec donnée initiale
dans un voisinage de 0 restent dans ce voisinage ; on dira que 0 est stable.
Dans le cas n ≥ 2, la question du comportement asymptotique des solutions (ou de la stabilité
du point 0) n'est pas aussi simple et plusieurs cas sont possibles. On verra dans ce paragraphe
que le comportement asymptotique des solutions dépend du spectre de la matrice A.
An d'illustrer le comportement asymptotique des solutions de l'équation dierentielle, on consi-
dère d'abord le cas n = 2.
Dans le cas n = 2 On peut dessiner les champs de vecteurs associé à la matrice A. Ce champs de
vecteurs peut nous montrer les diérents comportements possibles, selon La position des valeurs
propres de A. Dans la suite on considère toujours le spectre de A dans le plan complexe. La
matrice A admet donc soit deux valeurs propres distincts, ou une valeur propre qui est racine
de multiplicité 2 du polynôme caractéristique.
1. Premier cas :
Les deux valeurs propres de A sont toutes les deux réelles, et soit elles sont toutes les deux
positives, soit elles sont toutes les deux négatives.
Exemples    
4 −1 −4 −1
A1 = et A2 =
3 0 3 0
Les valeurs propres de A1 sont λ1 = 1 et λ2 = 3. Toutes les solutions de l'équation diéren-
tielle explosent à l'inni. On dit que le point d'équilibre 0 est instable.
Les valeurs propres de A2 sont λ1 = −1 et λ2 = −3. Toutes les solutions de l'équation dif-
férentielle convergent vers 0. On dit que le point d'équilibre 0 est asymptotiquement stable.
2. Deuxième cas :
Les valeurs propres de la matrice A sont toutes les deux réelles, une est strictement positive
et l'autre et strictement négative.
Exemple :
 
1 2
A3 =
3 0
Les valeurs propres de A3 sont λ1 = −2 et λ2 = 3. Il y a des solutions qui convergent
vers 0 et il y a des solutions qui explosent à l'inni. On dit que le point d'équilibre 0 est
hyperbolique. En particulier, il est instable.
3. Troisième cas :
Les deux valeurs propres de A sont complexes conjuguées, c.à.d λ1 = λ2 = α + iβ . Selon le
cas, si α > 0, α < 0 ou α = 0, le point d'équilibre 0 est instable, asymptotiquement stable
ou stable.
Exemples :

45
Pr M. El Kyal, ENSA d'Agadir 46
   
1 −2 0 1
A4 = et A5 =
1 −1 −1 −1
Les valeurs propres de A4 sont λ1 = i et λ2 = −i. Toutes les solutions de l'équation dié-
rentielle sont periodiques ; dans ce cas le point
q d'équilibre 0 est q
stable.
Les valeurs propres de A5 sont λ1 = 2 + i 4 et λ2 = 2 − i 34 . Comme la partie réelle
−1 3 −1

de λ1 et λ2 est négative, toutes les solutions de l'équation diérentielle convergent vers 0.


Le point d'équilibre 0 est asymptotiquement stable.
4. Quatrième cas :
La matrice A n'a qu'une valeur propre réelle et elle n'est pas diagonalisable.
Exemple :  
1 1
A6 =
0 1
L'unique valeur propre de la matrice A6 est λ1 = λ2 = 1, et A n'est pas diagonalisable.
Comme la valeur propre est strictement positive, toutes les solutions de l'équation diéren-
tielle explosent à l'inni. Le point dequilibre 0 est instable. Essentiellement, les cas considérés
ci-dessus sont tous les cas possibles dans IR2 . Les exemples ci-dessus servent pour illustra-
tion comment l'ensemble des valeurs propres de A permet de caractériser le comportement
asymptotique des solutions de l'équation diérentielle et ainsi la stabilité ou instabilité du
point d'équilibre 0.
On peut alors conclure que :
1. le point d'équilibre 0 est asymptotiquement stable si et seulement si toutes les valeurs propres
ont une partie réelle strictement négative.
2. Si la matrice A a au moins une valeur propre de partie réelle strictement positive alors le
point d'équilibre 0 est instable.
3. le point d'équilibre 0 est stable si et seulement si toutes les valeurs propres ont une partie
réelle nulle.

46
Chapitre 3
Résolution numérique des équations
diérentielles ordinaires

3.1 Introduction
L'objectif de ce chapitre est d'introduire les outils nécessaires pour résoudre numériquement
des équations diérentielles ordinaires d'ordre un de type Cauchy qui consiste à trouver une
fonction y : [0, T ] → IR solution de

y 0 (t) = f (t, y(t))




y(0) = y0

où f une fonction dénie de [0, T ] × IR → IR.

On sait que le problème de Cauchy est un problème d'évolution, c'est à dire à partir de la
condition initiale, on peut calculer la solution à l'instant t par
Z t
y(t) = y(0) + f (s, y(s))ds
0

et donc la solution à l'instant t dépend uniquement de la solution aux instants 0 ≤ s ≤ t.


Malheureusement, la résolution ne donne pas y de façon explicite sauf dans des cas simples.
L'idée est alors d'approcher cette intégrale en appliquant des méthodes inspirées des méthodes
d'intégration numérique vues précédemment en particulier les méthodes de Newton-Cotes, ou
en utilisant des développements limités.

3.2 Principe général des méthodes numériques


Pour obtenir une approximation numérique de la solution y(t) sur l'intervalle [0, T ], nous
allons estimer la valeur de cette fonction en un nombre ni de points tn , pour n = 0, 1, · · · N ,
constituants les noeuds du maillage.
La solution numérique discrète approchant y(tn ) obtenue aux points tn est notée yn . L'écart
entre deux abscisses, noté h, est appelé pas de discrétisation.
Ce pas, dans les méthodes les plus simples, est constant h = NT et tn+1 = tn + h mais il peut
être judicieux de travailler avec un pas variable (hn = tn+1 − tn ). Le choix du maillage et de la
répartition des noeuds peuvent s'avérer crucial.
Les techniques de résolution des EDO sont basées sur :

47
Pr M. El Kyal, ENSA d'Agadir 48
 les développements de Taylor au voisinage de tn ,
 l'approximation géométrique de la fonctions,
 les formules d'intégration numérique (rectangle, trapèze, Simpson...).

3.2.1 Schéma général


Les principales méthodes de résolution numérique des EDO sont séparées en deux grands
types :
1. les méthodes à un pas

Pour ces méthodes, le calcul de la valeur discrète yn+1 au noeud tn+1 se fait à partir de tn , yn
et h ou de tn , yn , yn+1 et h.
(a) Un schéma numérique à un pas explicite est une équation de récurrence de la forme :

yn+1 = yn + hφ(tn , yn , h)
x0 = y(t0 )

(b) Un schéma numérique à un pas implicite est une équation de récurrence de la forme :

yn+1 = yn + hφ(tn , yn , yn+1 , h)
x0 = y(t0 )

Le choix d'une méthode se fait en choisissant φ.


Les principales méthodes sont
 Méthodes d'Euler explicite et implicite,
 Méthode de Taylor,
 Méthode d'Euler amélioré,
 Méthodes de Runge Kutta.
2. les méthodes à pas multiples

Pour ces méthodes, le calcul de la valeur discrète yn+1 au noeud tn+1 se fait à partir de h
et de t0 , x0 , t1 , y1 , · · · , tn , yn , yn+1 obtenues aux abscisses précédentes.
Les principales méthodes sont :
 Méthode de Saute Moulton,
 Méthodes d'Adams bashforth,
 Méthodes de Gear.
On s'interesse dans ce cours uniquement aux méthodes à un pas.

3.2.2 Schémas d'Euler


On peut établir des schémas d'Euler pour approcher le problème de Cauchy de la façon sui-
vante : On partitionne l'axe [0, T ] en posant h = NT et tn+1 = tn + h.

Le développement limité autour du point y(tn ) suivant :

h2 (2) h3 hp hp+1 (p+1)


y(tn +h) = y(tn+1 ) = y(tn )+hy 0 (tn )+ y (tn )+ y (3) (tn )+· · ·+ y (p) (tn )+ y (ξ)
2 3! p! (p + 1)!

48
Pr M. El Kyal, ENSA d'Agadir 49
Notons yn une approximation de y(tn ), on établit le schémas suivant :
Schéma d'Euler progressif (explicite) :
yn+1 = yn + hf (yn , tn ), n = 0, 1, 2, . . . , avec y(0) = x0 .
Ce schéma est explicite car il permet d'expliciter yn+1 en fonction de yn et c'est une méthode
à un pas avec
φ(tn , yn , yn+1 , h) = f (tn , yn )
Notons que
y(tn+1 ) − y(tn ) h
= y 0 (tn ) + y (2) (ξ)
h 2
soit
y(tn+1 ) − y(tn )
= f (tn , y(tn )) + O(h)
h
Donc le schéma d'Euler explicite converge à l'ordre 1.
De la même façon, le développement limité autour du point y(tn+1 ) donne :
h2 (2)
y(tn+1 − h) = y(tn ) = y(tn+1 ) − hy 0 (tn+1 ) + y (ξ)
2
Notons yn une approximation de y(tn ), on établit les schémas suivants :

Schéma d'Euler rétrograde (implicite) :


yn+1 = yn + hf (yn+1 , tn+1 ), n = 0, 1, 2, . . . , avec y(0) = x0 .
Ce schéma est implicite car il ne permet pas d'expliciter directement yn+1 en fonction de yn .
Pour calculer yn+1 , il faut dénir la fonction g(x) = x − hf (x, tn+1 ) − yn et en chercher un zéro
(méthode de Newton, par exemple). L'avantage de ce schéma est qu'il est toujours stable sans
condtions sur h. Ce schéma d'Euler rétrograde est également d'ordre 1.

3.3 Convergence, consistance, stabilité, ordre


Nous allons étudier les conditions qu'il faut imposer à φ et le lien entre φ et f pour que la
méthode soit jugée bonne.
Dans ce paragraphe, nous ferons d'abord une théorie générale des méthodes à un pas en vue de
l'étude de l'erreur de discrétisation. Ceci nous amène à introduire les notions de consistance,
de stabilité, d'ordre et de convergence.
L'erreur dans une méthode est due à deux causes :
 l'erreur de discrétisation due au procédé de calcul : par exemple, dans la méthode d'Euler,
on a approché la courbe par sa tangente,
 les erreurs d'arrondi dues aux pertes de chires dans les opérations arithmétiques eectuées
par l'ordinateur.
Finalement, que doit-on exiger d'une méthode ?
1. Que l'erreur de discrétisation diminue lorsque h diminue et à la limite yn doit tendre vers
y(tn ) quand h tend vers zéro : c'est la convergence.
2. Pouvoir évaluer l'erreur de discrétisation en fonction de h, ceci nous permettra d'obtenir
l'ordre de la méthode.
3. Savoir la répercussion des erreurs globales sur les calculs ultérieurs. C'est la stabilité.

49
Pr M. El Kyal, ENSA d'Agadir 50
4. Que la méthode approche l'équation diérentielle. C'est la consistance.
Définition 3.3.1 (Erreur de troncature, consistance) L'erreur de troncature locale au
point tn est la diérence entre la solution exacte et l'approtimation numérique obtenue : soit
y(tn+1 ) − y(tn )
τn+1 (h) = − φ(tn , y(tn ), h)
h
La méthode est dite consistante avec l'équation diérentielle si :
y(tn+1 ) − y(tn )
lim max |τn+1 (h)| = lim max | − φ(tn , y(tn ), h)| = 0
h→0 n h→0 n h
pour toute solution y de y (t) = f (t, y(t)).
0

Notons que l'erreur de troncature locale utilise la solution exacte y(tn ) et non yn . Cela s'ex-
plique par le fait que l'on cherche à mesurer l'erreur introduite par l'approximation numérique
en supposant que la méthode était exacte jusque là.

Théoreme 3.3.1 Une condition nécessaire et susante pour que la méthode soit consistante
est que : φ(t, y, 0) = f (t, y)
Preuve : Supposons la méthode consistante. On a alors :
y(tn+1 ) − y(tn )
lim max | − φ(tn , y(tn ), h)| = 0
h→0 n h
pour toute solution y de y 0 = f (t, x). Cela implique que ∀n = 0, · · · , N ,
y(tn+1 ) − y(tn )
lim | − φ(tn , y(tn ), h)| = 0
h→0 h
or
y(tn+1 ) − y(tn )
lim = y 0 (tn ) = f (tn , y(tn ))
h→0 h
et
lim φ(tn , y(tn ), h) = φ(tn , y(tn ), 0)
h→0

Alors ∀n = 0, · · · , N ,
φ(tn , y(tn ), 0) = f (tn , y(tn ))
et donc φ(t, y(t), 0) = f (t, y(t)) La réciproque est evidente.

Définition 3.3.2 (Stabilité) Soient yn , 0 ≤ n ≤ N et zn , 0 ≤ n ≤ N les solutions respectives


des systèmes : 
yn+1 = yn + hφ(tn , yn , h)
y(t0 ) = y0
et

zn+1 = zn + h(φ(tn , zn , h) + n )
z(t0 ) = z0
La méthode est dite stable sil existe une constante M indépendante de h telle que :
max |yn − zn | ≤ M max |n |
n n

50
Pr M. El Kyal, ENSA d'Agadir 51
Cette notion de stabilité signie qu'une petite perturbation sur les données (y0 ; φ) n'entraîne
qu'une petite perturbation sur la solution et ceci indépendamment de h. Autrement dit, C'est la
propriété qui assure que la diérence entre la solution numérique obtenue et la solution exacte
des équations discrétisées reste bornée. La stabilité indique si l'erreur augmente ou non au cours
du calcul. Autrement dit, si les erreurs d'approximation à chaque pas de temps ne sont pas très
grandes, l'erreur pour la solution approchée au pas suivant reste maîtrisée.
Une méthode peut être stable sous condition (elle sera dite conditionnellement stable) ou tou-
jours stable (elle sera dite inconditionnellement stable).
Cette condition de stabilité est indispensable pour traiter numériquement une équation dif-
férentielle.

Théoreme 3.3.2 (Condition susante de stabilité) La méthode à un pas est stable si


φ(t, y, h) est lipschitzienne en y pour tous t ∈ [0, T ] et pour tout h avec une constante de
Lipschitz indépendante de t et de h.

Définition 3.3.3 (Convergence) Une méthode numérique est convergente si :


lim max |yn − y(tn )| = 0
h→0 n

quelle que soit la condition initiale.

Cela signie qu'une méthode est convergente si, lorsque le pas de discrétisation tend vers 0,
la solution numérique tend vers la solution exacte de l'équation continue.

Théoreme 3.3.3 (Théorème de Lax) Si une méthode à 1 pas est consistante et stable, alors
elle est convergente.
Preuve : Si la méthode est consistante, elle vérie alors la relation :
y(tn+1 ) = y(tn ) + hφ(tn , y(tn ), h) + n

avec limh→0 maxn (n ) = 0


De plus, comme elle est stable, il existe M telle que : maxn |yn − y(tn )| ≤ M maxn |n | Elle est
donc convergente.

Définition 3.3.4 La méthode itérative est d'ordre p si pour toute solution :

max |τn+1 (h)| = O(hp )


n

On va décrire une méthode générale pour calculer l'ordre d'un schéma à un pas. On rappelle
que l'erreur de troncature locale au point tn s'écrit :
y(tn+1 ) − y(tn )
τn+1 (h) = − φ(tn , y(tn ), h)
h
de plus, la méthode est d'ordre p si et seulement si

max |τn+1 (h)| = O(hp )


n

notons En = y(tn+1 ) − y(tn ) − hφ(tn , y(tn ), h) alors la méthode est d'ordre p si et seulement si
max |En | = O(hp+1 )
n

51
Pr M. El Kyal, ENSA d'Agadir 52
or la formule de Taylor donne
hp (p)
y(t + h) = y(t) + hy 0 (t) + · · · + y (t) + · · ·
p!
et
∂φ hp−1 ∂ p−1 φ
φ(t, y(t), h) = φ(t, y(t), 0) + h (t, y(t), 0) + · · · + (t, y(t), 0) + · · ·
∂h (p − 1)! ∂ p−1 h
Alors
hp ∂ p−1 φ
   
0 2 ∂φ 1 p
En = h [y (t) − φ(t, y(t), 0)]+h y”(t) − (t, y(t), 0) +· · ·+ y (t) − p−1 (t, y(t), 0)
∂h (p − 1)! p ∂ h

On conclut alors que le schéma est au moins d'ordre 1 (consistant) si

y 0 (t) − φ(t, y(t), 0) = f (t, y)) − φ(t, y(t), 0) = 0

On a alors le théorème suivant :

Théoreme 3.3.4 (condition nécessaire et susante pour que la méthode soit d'ordre ≥ p)
On suppose que f est de classe C p sur [0, T ] × IR et que les fonctions φ, ∂h , · · · ∂hp
∂φ ∂ φ p

existent et sont continues sur [0, T ]×IR×[0, h]. Alors la méthode est d'ordre p, si et seulement
si, pour tout (t, y) ∈ [0, T ] × IR, on a :

 φ(t, y, 0) = f (t, y)
 ∂φ (t, y, 0) = 1 f 0 (t, y)


∂h 2
..

 .
 ∂ p−1 φ
(t, y, 0) = p1 f (p−1) (t, y)

∂hp−1

où les fonctions f (k) sont dénies par la relation de récurrence


 (0)
 f (t, y) = f (t, y)
..

.
∂f (k) (k)
+ f ∂f∂y (t, y)

f (k+1) (t, y) = (t, y)

∂t

3.4 Quelques schémas numériques


3.4.1 Méthode de Taylor
On peut améliorer l'ordre de l'approximation en avançant dans l'ordre du développement
limité autour du point y(tn ) :
h2 (2) h3 hp hp+1 (p+1)
y(tn+1 ) = y(tn + h) = y(tn ) + hy 0 (tn ) + y (tn ) + y (3) (tn ) + · · · + y (p) (tn ) + y (ξ)
2 3! p! (p + 1)!

Alors
h2 (2) h3
y(tn+1 ) = y(tn ) + hy 0 (tn ) + y (tn ) + y (3) (ξ)
2 3!
soit
h2 0
y(tn+1 ) = y(tn ) + hf (tn , y(tn )) + f (tn , y(tn )) + O(h3 )
2
52
Pr M. El Kyal, ENSA d'Agadir 53
or
∂f (t, y(t)) ∂f (t, y(t)) 0
f 0 (t, y(t)) = + y (t)
∂t ∂y
c'est à dire
∂f (t, y(t)) ∂f (t, y(t))
f 0 (t, y(t)) = + f (t, y(t))
∂t ∂y
on a alors :

h2 ∂f (t, y(t)) ∂f (t, y(t))


 
y(tn+1 ) = y(tn ) + hf (tn , y(tn )) + + f (t, y(t)) + O(h3 )
2 ∂t ∂y
En négligeant le reste, on obtient :
h2 ∂f (t, y(t)) ∂f (t, y(t))
 
y(tn+1 ) ' y(tn ) + hf (tn , y(tn )) + + f (t, y(t))
2 ∂t ∂y
d'où le schéma numérique
h2 ∂f (tn, yn ) ∂f (tn , yn )
 
yn+1 = yn + hf (tn , yn ) + + f (tn , yn )
2 ∂t ∂y
qui est une méthode à un pas avec
 
h ∂f (tn, yn ) ∂f (tn , yn )
φ(tn , yn , yn+1 , h) = f (tn , yn ) + + f (tn , yn )
2 ∂t ∂y
Pour l'ordre de la méthode, on a
y(tn+1 ) − y(tn ) h h
= y 0 (tn ) + y (2) (tn ) + y (3) (ξ)
h 2 3!
soit
y(tn+1 ) − y(tn ) h
= f (tn , y(tn )) + f 0 (tn , y(tn )) + O(h2 )
h 2
donc la méthode est d'ordre 2.
Notons qu'il est possible d'obtenir des méthodes de Taylor encore plus précices en poursuivant
le développement de Taylor. On doit alors évaluer les dérivées de la fonction f (t, y(t)) d'orde de
plus en plus élevé. Mais les méthodes obtenues sont diciles à utiliser. Pour contourner cette
diculté, on peut utiliser les techniques d'intégration numérique.

3.4.2 Autres schémas numériques


Une façon d'obtenir une multitude de schémas numériques est d'intégrer l'EDO sur [tn , tn+1 ] :
Z tn+1 Z tn+1
0
y (t)dt = y(tn+1 ) − y(tn ) = f (t, y(t))dt
tn tn

et ensuite d'approcher l'intégrale Z tn+1


f (t, y(t))dt
tn

par une méthode d'intégration numérique.


On obtient ainsi un schéma numérique dont l'ordre est égal au degré du polynôme pour lequel
l'intégration est exacte +1.

53
Pr M. El Kyal, ENSA d'Agadir 54
1. Le schéma d'Euler explicit : une intégration par la méthode des rectangles à gauche nous
donne Z t n+1

f (t, y(t))dt ' (tn+1 − tn )f (tn , y(tn ))


tn
qui donne le schéma d'Euler explicite :
x0 donné


yn+1 = yn + hf (tn , yn )

On remarque ici qu'on a interprété cette méthode de deux manières :


 Via les formules d'intégration numérique : la méthode est le résultat de l'application
de la formule des rectangles basée au point tn . Et puisque la méthode des rectangle
est exacte pour tous les polynômes constants alors Euler est d'ordre 1.
 Via les développements de Taylor : la méthode provient du développement de Taylor
et elle est d'ordre 1.
On peut encore l'interpréter Géométriquement : la méthode revient à remplacer localement
en chaque point tn la courbe solution par sa tangente.
2. Le schéma d'Euler implicite : une intégration par la méthode des rectangles à droite nous
donne Z t n+1

f (t, y(t))dt ' (tn+1 − tn )f (tn+1 , y(tn+1 ))


tn
qui donne le schéma d'Euler implicit :

x0 donné


yn+1 = yn + hf (tn+1 , yn+1 )


3. Le schémade Crank-Nicholson : une intégration par la méthode des Trapèzes nous donne
tn+1
tn+1 − tn
Z
f (t, y(t))dt ' (f (tn , y(tn )) + f (tn+1 , y(tn+1 )))
tn 2
qui donne le schéma de Crank-Nicholson implicite :

x0 donné


yn+1 = yn + h2 (f (tn , yn ) + f (tn+1 , yn+1 ))


4. le schéma d'Euler modié :une intégration par la méthode du point milieu nous donne
Z tn+1
h h
f (t, y(t))dt ' (tn+1 − tn )(f (tn + , y(tn + ))
tn 2 2
On connaît uniquement la valeur de yn , et pour donner une approximation de la solution
au point tn + h2 , on utilise le schéma d'Euler explicite :
h h h
y(tn + ) ' y(tn + ) = yn + f (tn , yn )
2 2 2
qui donne le schéma d'Euler modié (appelé également schéma d'Euler amélioré) :

x0 donné


yn+1 = yn + hf (tn + h2 , yn + h2 f (tn , yn ))


Géométriquement, la méthode consiste à remplacer dans la méthode d'Euler la pente de la
tangente en (tn ; yn ) par la valeur corrigée au milieu de l'intervcalle [tn ; tn+1 ].

54
Pr M. El Kyal, ENSA d'Agadir 55
5. Méthode de Runge-Kutta d'ordre 4 : une intégration par la méthode de Simpson nous donne
tn+1  
(tn+1 − tn )
Z
h h
f (t, y(t))dt ' f (tn , y(tn )) + 4f (tn + , y(tn + )) + f (tn+1 , y(tn+1 ))
tn 6 2 2

L'idée est toujours d'estimer la pente de y , mais de façon plus précise. Pour cela, on ne
prend plus la pente en un point (début ou milieu), mais on utilise la moyenne pondérée des
pentes obtenues en 4 points du pas.

k1 = f (tn , yn )
est la pente au début de l'intervalle ;
  
h h
k2 = f tn + , yn + k1
2 2
est la pente au milieu de l'intervalle, en utilisant la pente k1 pour calculer la valeur
de y au point tn + h/2 par la méthode d'Euler ;
  
h h
k3 = f tn + , yn + k2
2 2
est de nouveau la pente au milieu de l'intervalle, mais obtenue en utilisant la pente k2
pour calculer y ;

k4 = f (tn + h, yn + hk3 )
est la pente en n d'intervalle, avec la valeur de y calculée en utilisant k3 .
On obtient nalement la discrétisation de Runge-Kutta à l'ordre 4 :

x0 donné



k1 = f (tn , yn )




k2 = f tn + h2 , yn + h2 k1 
 


 k3 = f tn + h2 , yn + h2 k2
k = f (tn + h, yn + hk3 )

 4



yn+1 = yn + h6 (k1 + 2k2 + 2k3 + k4 )

La méthode est d'ordre 4, ce qui signie que l'erreur totale accumulée est de l'ordre de h4 . Notons
enn que toutes ces formulations sont encore valables pour des fonctions à valeurs vectorielles.

55

Vous aimerez peut-être aussi