Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
2
Table des matières
3
Pr M. El Kyal, ENSA d'Agadir
4
Introduction
L'objet de ce cours est de proposer une introduction à l'étude des équations diérentielles
ordinaires (EDO. Beaucoup de résultats existent dans ce domaine : il est possible de trouver des
solutions explicites à ces équations, mais elles ne sont pas nombreuses. La résolution explicite
de la plupart des EDO reste encore un problème ouvert. Les mathématiciens se sont alors
tournés vers une étude plus théorique qui permettait de trouver des résultats sur les solutions
(existence, unicité par exemple) sans les connaître explicitement. Ce cours sera un mélange des
deux parce qu'il semble nécessaire de savoir non seulement prouver que des solutions existent et
que le cas échéant elles peuvent être unique mais également être capable de résoudre à la main
certaines EDO classiques mais également savoir approcher numériquemnt ce que l'on ne peut
pas calculer explicitement. Certaines solutions porteront plus d'attention que d'autres, comme
les solutions autonomes. Nous nous intéressons à l'étude analytique de ces solutions, autrement
dit la stabilité de ces solutions par rapport à des perturbations dans les conditions initiales.
5
Pr M. El Kyal, ENSA d'Agadir
6
Chapitre 1
Equations diérentielles : existence et
unicité
1.1 Dénitions
1.1.1 Diérents types d'équations
Définition 1.1.1 (Equation diérentielle ordinaire d'odre n) Une équation diérentielle
ordinaire, également notée EDO, d'ordre n est une relation entre la variable réelle t, une fonc-
tion inconnue x : t 7→ x(t) et ses dérivées x0 , x00 , · · · x(n) au point t dénie par :
f (t, x(t), x0 (t), x00 (t), · · · x(n) (t)) = 0
où f n'est pas indépendante de sa dernière variable x(n) . On prendra t dans un intervalle I de
IR (I peut être IR tout entier).
La solution x en général sera à valeurs dans IRp , p ∈ IN ∗ .
- L'équation diérentielle est dite scalaire
si f est à valeurs dans IR.
- L'équation diérentielle d'ordre n est dite normale
si elle est de la forme :
x(n) (t) = f (t, x(t), x0 (t), x00 (t), · · · x(n−1) (t))
- Elle est dite autonome lorsqu'elle s'écrit de la forme :
x(n) (t) = f (x(t), x0 (t), x00 (t), · · · x(n−1) (t))
Autrement dit, f ne dépend pas explicitement de t.
- Elle est linéaire
si elle est de la forme
an (t)x(n) (t) + an−1 (t)x(n−1) (t) + · · · + a1 (t)x0 (t) + a0 (t)x(t) = g(t)
avec tous les x(i) de degré 1 et tous les coecients dépendant au plus de t.
7
Pr M. El Kyal, ENSA d'Agadir 8
1.1.2 Solutions
Soit I un ouvert de IR et Ω un ouvert de IR n
Définition 1.1.2 Si f est une application continue donnée sur I × Ω, on appelle équation
dérentielle (sous forme normale) l'équation notée :
qui vérie :
x0 (t) = f (t, x(t))
1.1.2
Définition 1.1.3 (Solution de l'équation diérentielle) Une solution de l'équation dif-
férentielle est une fonction ϕ : I → IR telle que :
n
En particulier, on n'oubliera pas de vérer la première condition (sinon f (t; x(t)) n'est pas
dénie).
Comme interprétation de la solution, les valeurs f (t; x) = v sont des vitesses qu'on peut mesurer
en tout point de I , et à partir de ces vitesses on veut reconstituer les trajectoires t → x(t) des
particules qui en x = x(t) sont animés de la vitesse v = f (t, x) sous la forme x = v. 0
Il est clair que si x est solution sur un intervalle I , elle est également solution sur tout intervalle
J ⊂ I.
Définition 1.1.4 Soient x et xe deux solutions d'une même équation diérentielle avec x so-
lution sur I et xe solution sur Ie. On dira que xe est un prolongement de x si I ⊂ Ie et xe/I = x.
Définition 1.1.5 (Solution maximale) On appelle solution maximale une solution x telle
que I soit intervalle maximale, i.e. telle que x soit une solution sur I et telle qu'il n'existe pas
d'intervalle J ⊃ I (strictement plus grand que I ) sur lequel x soit solution.
Définition 1.1.6 Soit I un intervalle inclus dans IR. Une solution x est dite globale dans I
si elle est dénie sur l'intervalle I tout entier.
x(0) = 1
Ce système admet une seule solution globale dans IR dénie par
1
x(t) =
t2 +1
8
Pr M. El Kyal, ENSA d'Agadir 9
2. Pour le problème :
x(0) = 1
Ce système admet une seule solution maximale sur ] − 1, 1[ dénie par
1
x(t) =
1 − t2
mais le problème n'admet pas de solution globale.
Notons que si on prend comme condition initiale x(−2) = 0 alors la solution est dans ce
cas
1
x(t) =
5 − t2
√ √
c'est une solution maximale sur ] − 5, 5[.
Il est bon de remarquer que l'ensemble sur lequel se dénissent les solutions dépend
également de la condition initiale.
3. Pour le problème :
x(0) = 1
Ce système admet une seule solution globale sur [0, +∞[ dénie par
1
x(t) =
1+t
Notons que le problème n'admet pas de solution globale sur IR mais seulement une solu-
tion maximale sur ] − 1, +∞[.
4. Pour le problème :
p
x0 (t) = − 3 x(t), t ∈ IR+
x(0) = 0
Ce système admet trois solutions globales sur [0, +∞[ dénies par
x(t) =
r0
8t3
x(t) =
r27
8t3
x(t) = −
27
Nous pouvons remarquer que les problèmes d'existence et d'unicité ne sont pas des
questions triviales. Nous allons présenter dans la suite quelques résultats fondamentaux
d'existence et d'unicité.
9
Pr M. El Kyal, ENSA d'Agadir 10
Définition 1.2.2 (Problème de Cauchy) Une équation diérentielle avec condition ini-
tiale s'appelle problème de Cauchy. Un problème de Cauchy est donc un problème où, pour
f ∈ C 0 (I × Ω), t0 ∈ I et x0 ∈ IRn donnés, il faut trouver une (ou les) solution(s) x de :
x0 (t) = f (t, x(t))
x(t0 ) = x0
Remarque 1.2.1 Le problème de Cauchy est un problème d'évolution, c'est à dire à partir de
la condition initiale, on peut calculer la solution à l'instant t par
Z t
x(t) = x(t0 ) + f (s, x(s))ds
t0
(E)
(
x0 (t) = f (t, x)
x(t0 ) = x0 ; t0 ∈ I
(E)
(
x0 (t) = f (t, x(t))
x(t0 ) = x0 ; t0 ∈ I
10
Pr M. El Kyal, ENSA d'Agadir 11
alors il existe une et une seule solution x de l'équation diérentielle dénie pour tout t ∈ I
vériant la condition initiale donnée.
Alors il existe un unique point xe a ∈ E , tel que T (a) = a. De plus, toute suite d'éléments de
E dénie par.
(1.1)
(
xp+1 := T (xp )
(xp )p∈IN :=
x0 ∈ E
converge vers a.
Preuve 1.2.1 On montre d'abord l'unicité du point xe puis son existence :
kT (a) − T (b)k
⇔ =1>k
|a − bk
Ce qui contredit la dénition de T .
* existence :
Soit x0 un point initial quelconque et (xp )p∈N la suite des itérés associée. On a alors :
11
Pr M. El Kyal, ENSA d'Agadir 12
On a alors ∀ q > p :
q−1 q−1
!
X X
l
kxq − xp k ≤ kxl+1 − xl k ≤ k kx1 − x0 k
l=p l=p
(E)
(
x0 (t) = f (t, x)
x(t0 ) = x0 ; t0 ∈ I
avec f : I × Ω → Rn une fonction continue, lipschitzienne par rapport à x. C'est-à-dire :
∃L > 0 tel que ∀(t, x), (t, y) ∈ I × Ω, on a :
on dénit l'opérateur T sur C(I, Rn ) tel que pour tout x ∈ C(I, Rn ), T (x) est donnée par :
Z t
T (x)(t) = x0 + f (s, x(s)) ds, ∀t ∈ I
t0
Remarquons que x est solution globale du problème si et seulement si x est dérivable sur I
et vérie x0 (t) = f (t, x(t)) pour tout
R tt ∈ I avec x(t0 ) = x0 .
Comme f est continue, alors t 7→ t0 f (s, x(s)) ds est de classe C 1 , donc x est nécessairement
de classe C 1 .
de plus x vérie :
x(t) = T (x)(t) ∀t ∈ I
On a donc ramené notre problème de Cauchy à une recherche de point xe pour T sur C(I, Rn ).
12
Pr M. El Kyal, ENSA d'Agadir 13
On munit C = C(I, Rn ) de la norme ||.||α telle que :
d'où ∀t ≤ t0
Z t
−α(t−t0 ) −α(t−t0 )
e kT (y)(t) − T (z)(t)k ≤ e L ky(s) − z(s)k ds
t
Z 0t
= e−α(t−t0 ) L eα(s−t0 ) e−α(s−t0 ) ky(s) − z(s)k ds
t
Z 0t
≤ e−α(t−t0 ) L eα(s−t0 ) dsky − zkα
t0
L
= e−α(t−t0 ) (eα(t−t0 ) − 1)ky − zkα
α
L
= (1 − e−α(t−t0 ) )ky − zkα
α
Alors T : (C, k.kα ) est une contraction et T (x) = x admet alors une solution unique.
13
Pr M. El Kyal, ENSA d'Agadir 14
Une telle équation se résout par calcul de primitives :
Si G est une primitive de g alors G0 (t) = g(t).
Si F (x) est une primitive de f (x) alors F 0 (x) = f (x), mais surtout, par dérivation d'une
composition,
0
F (x(t)) = x0 (t)F 0 (x(t)) = x0 (t)f (x(t))
Alors
F (x(t)) = G(t) + c
1
ex(t) = − + c (c ∈ IR)
t
En supposant − 1t + c > 0 :
1
x(t) = ln − + c
t
qui est une solution sur chaque intervalle I où elle est dénie et dérivable. Cet intervalle dépend
de la constante c :
1. si c < 0, I = ] 1c , 0[ ;
2. si c = 0, I = ] − ∞, 0[ ;
3. si c > 0, I = ] 1c , +∞[ ou I = ] − ∞, 0[.
x0 (t) = a(t)x(t) (E )
0
14
Pr M. El Kyal, ENSA d'Agadir 15
Il nous reste le cas général de l'équation diérentielle linéaire d'ordre 1 avec second membre :
Ainsi :
x00 (t) − a(t)x0 (t) = k 0 (t)eA(t)
Donc x0 est une solution de (E ) si et seulement si
Z
0 0 −A(t)
k (t)eA(t)
= b(t) ⇐⇒ k (t) = b(t)e ⇐⇒ k(t) = b(t)e−A(t) dx.
Ce qui donne une solution particulière x0 (t) = b(t)e−A(t) dx eA(t) de (E ) sur I . La solution
R
Exemple 1.3.1 Soit l'équation x0 (t) + x(t) = et + 1. L'équation homogène est x0 (t) = −x(t)
dont les solutions sont les x(t) = ke−t , k ∈ IR.
Cherchons une solution particulière avec la méthode de variation de la constante : on note
x0 (t) = k(t)e−t . On doit trouver k(t) an que x0 vérie l'équation diérentielle x0 (t) + x(t) =
et + 1.
x00 + x0 = et + 1
⇐⇒ (k 0 (t)e−t − k(t)e−t ) + k(t)e−t = et + 1
⇐⇒ k 0 (t)e−t = et + 1
⇐⇒ k 0 (t) = e2t + et
⇐⇒ k(t) = 21 e2t + et + c
15
Pr M. El Kyal, ENSA d'Agadir 16
On xe c = 0 (n'importe quelle valeur convient) :
−t 1 2t 1
x0 (t) = k(t)e = e + e e−t = et + 1
t
2 2
Nous tenons notre solution particulière ! Les solutions générales de l'équation x0 (t)+x(t) = et +1
s'obtiennent en additionnant cette solution particulière aux solutions de l'équation homogène :
1
x(t) = et + 1 + ke−t , k ∈ IR.
2
On pose
1
z(t) =
xn−1 (t)
et donc
x0 (t)
z 0 (t) = (1 − n)
xn (t)
L'équation de Bernoulli devient une équation diérentielle linéaire :
1
1−n
z 0 (t) + a(t)z(t) + b(t) = 0
Cherchons les solutions x qui ne s'annulent pas. On peut alors diviser par x3 pour obtenir :
x0 (t) 1
t 3
+ 2 −t=0
x (t) x (t)
On pose
1
z(t) =
x2 (t)
16
Pr M. El Kyal, ENSA d'Agadir 17
et donc
0 x0 (t)
z (t) = −2
x(t)3
L'équation diérentielle s'exprime alors
−1 0
tz (t) + z(t) − t = 0
2
c'est-à-dire :
tz 0 (t) − 2z(t) = −2t.
Les solutions sur IR de cette dernière équation sont :
(
λ+ t2 + 2t si t > 0
z(t) = , λ+ , λ− ∈ IR
λ− t2 + 2t si t < 0
1
Comme on a posé z(t) = , on se retreint à un intervalle I sur lequel z(t) > 0 :
x2 (t)
nécessairement 0 ∈
/ I , donc on considère z(t) = λt2 + 2t, qui est strictement positif sur Iλ où
]0; +∞[ si λ = 0
Iλ = 0; − λ2 si λ < 0
si λ > 0
2
−∞; − λ ou ]0; +∞[
1
On a x2 (t) = pour tout t ∈ Iλ et donc
z(t)
1
x(t) = (t) p
z(t)
où (t) = ±1. Or x est continue sur l'intervalle Iλ , et ne s'annule pas par hypothèse : d'après
le théorème des valeurs intermédiaires, x ne peut pas prendre à la fois des valeurs strictement
positives et des valeurs strictement négatives, donc (t) est soit constant égal à 1, soit constant
égal à −1. Ainsi les solutions cherchées sont les :
1 −1
x(t) = √ ou x(t) = √ sur Iλ (λ ∈ IR)
2
λt + 2t λt2 + 2t
17
Pr M. El Kyal, ENSA d'Agadir 18
où a, b et c sont des fonctions de t, on aura une équation diérentielle appelé équation de
Riccati. Pour la résoudre, Soit x une solution de x (t) + a(t)x(t) + b(t)x (t) = c(t). Posons
0 2
u0 (t) + x00 (t) + a(t)(u(t) + x0 )(t) + b(t)(u2 (t) + 2u(t)x0 (t) + x20 (t)) = c(t)
Comme x est une solution particulière alors
0
Après division par t c'est bien une équation de Riccati sur I =] − ∞; 0[ ou I =]0; +∞[.
2
u0 (t) 1 1
+ +1=0
u2 (t) t u(t)
On pose 1
z(t) =
u(t)
l'équation devient 1
−z 0 (t) + z(t) + 1 = 0
Ses solutions sur I sont
t
z(t) = λt + t ln |t|, λ ∈ IR
Ainsi 1 1
=u(t) =
z(t) λt + t ln |t|
mais il y a aussi la solution nulle .
u(t) = 0
Conclusion. Comme , on obtient alors des solutions de l'équation de départ
x(t) = u(t) +
1
sur ] − ∞; 0[ et :
]0; +∞[
t
x(t) =
1
sur ]0, +∞[
ou t
x(t) = +
1 1
t λt + t ln |t|
sur ]0, e [ ou ]e , +∞[(λ ∈ IR).−λ −λ
18
Chapitre 2
Systèmes diérentiels linéaires
Dans ce chapitre nous allons nous intéresser aux systèmes d'équations diérentielles, que l'on
peut obtenir directement par la modélisation d'un problème à plusieurs fonctions inconnues,
mais également lorsque l'on passe d'une EDO d'ordre n à un système de plusieurs EDO d'ordre
1.
2.1 préliminaires
Soient un intervalle I un intervalle de IR, n ∈ IN , a , i, j = 1, · · · n et b des fonctions
∗
L'objectif est de trouver des fonctions x , · · · x : I → IR, n fonctions de classe C sur I telles
1
que
1 n
x01 (t) = a11 (t)x1 (t) + · · · + a1n (t)xn (t) + b1 (t)
.. .. ..
x0 (t) = a21 (t)x1 (t) + · · · + a2n (t)xn (t) + b2 (t)
2
x0 (t) = a (t)x (t) + · · · + a (t)x (t) + b (t)
n n1 1 nn n n
.. .. .. ..
· · · a2n (t)
et ..
x2 (t) a21 (t) a22 (t) b2 (t)
X(t) = , A(t) = B(t) =
···
xn (t) a11 (t) a11 (t) · · · a11 (t) bn (t)
En général il peut y avoir une innité de solutions de cette équation.
Soient t ∈ I et X ∈ IR données, avec
0
0 n
x1 (t0 )
.. (2.2)
x2 (t0 )
X0 =
xn (t0 )
Le but est de trouver X solution de l'équation (2.1) satisfaisant la condition initiale (2.2).
Autrement dit, existe-t-il X fonction dérivable dénie sur I à valeurs dans IR tel que n
19
Pr M. El Kyal, ENSA d'Agadir 20
X(t0 ) = X0
Remarque 2.1.1 Si A et B sont continues, autrement dit aij est continue pour tout i, j =
1, · · · n et bi est continue pour tout i = 1, · · · , n, alors pour tout t0 ∈ I et pour tout X 0 ∈ IRn ,
Le théorème de Cauchy-Lipschitz assure qu'il existe une solution unique au problème de Cauchy
2.3.
tion initiale :
0
0
(2.4)
X (t) = A(t)X(t)
0
X(t ) = 0 X
(On prend pour I l'intervalle maximal où A est continue.) Le théorème de Cauchy Lipschitz
nous permet d'avoir l'existence et l'unicité des solutions de ce système.
Et pour t ∈ I on note
0
Théoreme 2.2.1 L'ensemble des solutions St0 d'un système homogène est un espace vectoriel
de dimension n.
Preuve 2.2.1 1. Pour montrer que St0 est un espace vectoriel, il sut de montrer qu'il est
sous espace vectoriel de C 1 (I) (l'espace vectoriel des fonctions de classe C 1 sur I ).
En eet, si ϕ et ψ sont deux solutions de 2.4 et λ ∈ IR
On a (ϕ + λψ)0 = ϕ0 + λψ 0 = Aϕ + λAψ = A (ϕ + λψ) ;
alors(ϕ + λψ) est encore une solution de 2.4
De plus la fonction nulle est une solution du système lorsque X 0 est le vecteur nul. donc St0
est un sous espace vectoriel de C 1 (I).
2. Pour caculer la dimension de St0 , on considère l'application
φt0 IRn → St0
X 0 → ϕt0 ,X 0
avec ϕt0 ,X 0 l'unique solution du problème vériant ϕ(t0 ) = X 0 (Cauchy-lipschitz) l'applica-
tion φt0 est un isomorphisme de IRn sur St0 (i.e. une application linéaire bijective). D'où
St0 est un espace vectoriel de dimension n.
Remarque 2.2.1 Pour avoir une solution de 2.4, il sut alors d'avoir n solutions indépen-
dantes de 2.4 qui formeront une base de St0 .
20
Pr M. El Kyal, ENSA d'Agadir 21
Théoreme 2.2.2 Soient ϕ1 , · · · ϕn des solutions de 2.4, alors les trois propositions sont équi-
valentes :
1. Les ϕ1 , · · · ϕn sont linéairement indépendantes.
2. la matrice dénie par
ϕ1 (t) · · · ϕn (t)
est inversible pour tout t ∈ I .
3. il existe t0 ∈ I tel que la matrice dénie par
ϕ1 (t0 ) · · · ϕn (t0 )
est inversible,
En eet, supposons qu'il existe t 0 ∈I tel que la matrice dénie par
ϕ1 (t0 ) · · · ϕn (t0 )
n'est pas inversible, alors
tel que X α ϕ (t ) = 0 = X(t )
n
∃(α1 , · · · , αn ) i i 0 0
i=1
1 n α ϕ (t) = 0 = X(t). i i
i=1
Définition 2.2.1 Soient ϕ1 , · · · ϕn des solutions de 2.4. Si les n fonctions sont indépendantes,
on dit qu'ils forment un ensemble fondamental de solution de 2.4. On notera alors
R(t) = ϕ1 (t) · · · ϕn (t)
la matrice R est appelée matrice fondamentale du système 2.4. Son déterminant est appelé
Wronskien et noté W (t).
Remarque 2.2.2 Si ϕ1 , · · · ϕn sont des solution du système homogème, alors la matrice fon-
damentale
R(t) = ϕ1 (t) · · · ϕn (t)
vérie :
R0 (t) = A(t)R(t)
Donc une matrice R(t) est fondamentale si et seulement si R0 (t) = A(t)R(t) et R(t) est
inversible au moins pour un t0 ∈ I (car alors elle est inversible pour tout t ∈ I).
On a alors le théorème suivant
Théoreme 2.2.3 Soient ϕ1 , · · · ϕn un ensemble fondamental de solutions de 2.4. Alors toute
solution X de 2.4 est de la forme
n c1
ci ϕi = R(t) ...
X
X(t) =
1 cn
avec (c1 , · · · , cn ) ∈ IRn .
21
Pr M. El Kyal, ENSA d'Agadir 22
Proposition 2.2.1 Si R1 (t) et R2 (t) sont deux matrice fondamentales d'un même système
diérentiel, alors il existe une matrice C constante inversible telle que ∀t ∈ IR
R1 (t) = R2 (t)C.
En eet, R et R sont inversible, on pose C(t) = R (t)R (t) et montrons que C(t) est
−1
constante.
1 2 2 1
On a 0
R (t) = A(t)R (t) = A(t)R (t)C(t)
1 1 2
de plus 0 0 0
R (t) = R (t)C(t) + R (t)C (t) = A(t)R (t)C(t)
1 2 2 2
alors 0
C (t) = 0
autrement dit, C(t) est constante.
2.2.1 Cas des systèmes linéaires à coecients constants
Le système diérentiel (2.4)est dit à coecients constants (ou système linéaire autonome)lorqu'il
s'écrit de la forme : 0
(2.5)
X (t) = AX(t)
0
X(t ) = 0 X
Ici I = IR est l'intervalle maximale de la solution (donnée par le théorème de Cauchy-Lipschitz
car une fonction constante est continue sur IR) donc la solution est globale.
Pour la résolution, commençons par un cas connu, celui d'une équation scalaire
x0 (t) = αx(t)
Notons que le système (2.5 ) est encore facile à résoudre si la matrice A est diagonale, car
dans ce cas les n équations sont toutes indépendantes les unes des autres, donc il sut de les
résoudre indépendamment.
Exemple 2.2.1 Etant donné le système :
x01 (t) = 2x1 (t)
22
Pr M. El Kyal, ENSA d'Agadir 23
avec c1 et c2 des constantes dans IR.
Elle peut s'écrire encore de la forme :
2t
x1 (t) e 0 c1
= 3t
x2 (t) 0 e c2
Remarquons que la matrice diagonale ci-dessus joue le rôle d'une matrice fondamentale.
Nous verrons dans la suite que cette matrice est l'exponentielle de la matrice tA et nous la
noterons donc e . tA
matrice diagonale D constutuée des valeurs propres de A et une matrice inversible P formée
par des vecteurs propre correspondants telles que A = P DP . −1
Alors
X 0 (t) = P DP −1 X(t)
⇔ P Y 0 (t) = P DP −1 P Y (t)
⇔ Y 0 (t) = DY (t).
On est donc encore capable de calculer les solutions de l'équation diérentielle dans ce cas.
On remarque que P e joue le rôle d'une matrice fondamentale.
tD
0
x1 2 −1 x1
=
x02 −1 2 x2
X 0 (t) = AX(t)
23
Pr M. El Kyal, ENSA d'Agadir 24
Cherchons les valeurs propres de A :
2 − λ −1
−1 2 − λ = 0
(2 − λ)2 − 1 = 0
(3 − λ)(1 − λ) = 0
(
(2 − 3) V21 − V22 = 0
− V21 + (2 − 3) V22 = 0
(
− V21 − V22 = 0
− V21 − V22 = 0
Nous choisissons les valeurs les plus simples qui soient solution, V ,
= 1 V22 = −1 .
Les vecteurs propres sont :
21
1
V~1 1
V~2 1
−1
On prend alors
et D =
1 1 1 0
P =
1 −1 0 3
Une matrice fondamentale s'écrit :
et e3t
R(t) =
et −e3t
24
Pr M. El Kyal, ENSA d'Agadir 25
On vérie immédiatement que les solutions sont indépendantes car les vecteurs V et V sont
indépendants : en eet les valeurs propres associées sont distinctes, ou encore directement :
1 2
w(0) = det(R(0)) = 2 6= 0.
de résoudre le système :
β
α C1
= X(t0 ) = R(t0 ) .
β C2
la solution cherchée doit être donnée sous forme réelle. Mais quand les valeurs propres de A
sont complexes, les solutions trouvées avec les calculs de la section précédentes sont à valeurs
complexes. A partir des solutions complexes, il s'agit alors de retrouver les solutions réelles.
Proposition 2.2.2 Si A est une matrice réelle a une valeur propre λ non réelle, alors le
vecteur propre associé V est non réel. De plus, λ est également valeur propre de A associée au
vecteur propre V , et V et V sont indépendants (deux vecteurs propres associés à des valeurs
propres distinctes sont indépendants).
En eet, puisque l'équation conjuguée de AV = λV est AV = λV et on a A = A (car A est
réelle) d'où AV = λV où V est vecteur propre associé à λ.
Proposition 2.2.3 Pour le système diérentiel X 0 (t) = AX(t), lorsque A est une matrice
réelle dont une valeur propre λ = α + iβ est complexe (avec β 6= 0) associée au vecteur propre
V = x + iy (avec x et y dans IRn ) : on forme les deux solutions complexes indépendantes
ϕ1 (t) = etλ V et ϕ2 (t) = etλ V , et deux solutions réelles sont données par :
1
ϕr1 (t) = Re(ϕ1 (t)) = (ϕ1 (t) + ϕ2 (t)) = etα (cos(βt)x − sin(βt)y)
2
et
1
ϕr2 (t) = Im(ϕ1 (t)) = (ϕ1 (t) − ϕ2 (t)) = etα (sin(βt)x + cos(βt)y)
2i
Exemple 2.2.2 Exemple 2.2.3 Soit à résoudre le système diérentiel linéaire suivant :
(
x01 (t) + 4 x1 (t) + 4 x2 (t) = 0
x02 (t) + x1 (t) + 4 x2 (t) = 0
0
x1 (t) −4 −4 x1 (t)
=
x02 (t) 1 −4 x2 (t)
x1 (t)
on pose X(t) = , alors le système s'écrit
x2 (t)
X 0 (t) = AX(t)
25
Pr M. El Kyal, ENSA d'Agadir 26
Cherchons les valeurs propres de A :
−4 − λ −4
=0
1 −4 − λ
Mais le problème était posé dans IR, cette solution complexe trouvée n'est pas satisfaisante. on
souhaite trouver des solutions réelles. Il sut pour cela de trouver deux solutions indépendantes
réelles du système diérentiel. On peut prendre
1 −2 sin 2t
ϕr1 (t) = Re(ϕ1 (t)) = (ϕ1 (t) + ϕ2 (t)) = e−4t (cos(2t)x − sin(2t)y) = e−4t
2 cos 2t
et
1 2 cos 2t
ϕr2 (t) = Im(ϕ1 (t)) = (ϕ1 (t) − ϕ2 (t)) = e−4t (sin(2t)x + cos(2t)y) = e−4t
2i sin 2t
2i 0 2
avec V1 = = +i = x + iy
1 1 0
En résumé, à partir de cette première approche. on remarque que les solutions se calculent
à l'aide de l'exponentielle de matrice et que ses solutions s'écrivent en fonction des valeurs
propres et vecteurs propres de A. Alors dans le cas où la matrice A n'est pas diagonalisable,
nous allons nous servir de la notion d'exponentielle de matrice.
26
Pr M. El Kyal, ENSA d'Agadir 27
Définition 2.2.2 Pour toute matrice carrée A ∈ Mn (IR) on dénit la matrice carrée eA ∈
Mn (IR) par :
+∞
A
X Aj
e =
j=0
j!
P+∞ Aj
Notons que la série j=0 converge normalement. En eet,
j!
+∞ +∞
X An X kAj k
k k≤ = ekAk < ∞
i=0
n! j=0
j!
eλ1 ···
0 0
... ... ..
D 0 .
e = .. ... ...
.
0
0 ··· 0 eλn
0
6. La dérivée de etA est etA = AetA
eA eB 6= eA+B 6= eB eA
Notons que cette notion d'exponentielle est très utilisée dans la résolution des systèmes dif-
férentiels linéaires. En eet pour le système diérentiel homogène (2.5), on a la proposition
suivante :
R(t) = eAt
Et l'unique solution du système diérentiel homogène X 0 (t) = AX(t) pour la condition initiale
X(t0 ) = X 0 est l'application X dénie par X(t) = eA(t−t0 ) X 0 .
Ainsi, la résolution d'un système linéaire autonome se ramène au calcul d'une exponentielle
de matrices. Mais comment on fait pour calculer eA ?
27
Pr M. El Kyal, ENSA d'Agadir 28
Calcul de l'exponentielle de matrices
Le but de cette section est de calculer l'exponentielle d'une matrice A à un changement de
base près. Cette section repose sur des résultats standards d'algèbre linéaire que nous rappelle-
rons sans en donner la démonstration.
Théoreme 2.2.4 (décomposition des noyau) L'espace IRn se décompose en somme di-
recte des sous-espaces caractéristiques,
A/ker(A − λi I)pi = λi I + Ni
28
Pr M. El Kyal, ENSA d'Agadir 29
2. Une matrice est diagonalisable dans IR si il existe une base de IRn formée de vecteurs propres,
c'est à dire :
Choisissons une base B formée de la réunion des bases des sous espaces caractéristiques (sous
espaces propres généralisés) et notons P la matrice de passage de cette base à la base canonique.
D'après le théorème de décomposition des noyaux, la matrice P −1 AP qui représente l'applica-
tion linéaire associée à A dans la base B est diagonale par blocs. On obtient ainsi la réduction
suivante.
Théoreme 2.2.5 (Théorème de Jordan) Pour toute matrice carrée A ∈ Mn (IR) dont le
,
polynôme caractéristique est scindé il existe P, J ∈ Mn (IR) telles que
A = P JP −1
29
Pr M. El Kyal, ENSA d'Agadir 30
Cette décomposition est dite de Jordan - Chevalley (ou de Dunford ou encore D + N ) et la
matrice J = P −1 AP est appelée forme réduite de Jordan-Chevalley.
Notons qu'il est également possible de choisir la base B de façon à mettre les matrices
nilpotentes Ni sous une forme relativement simple, ce qui aboutit à la réduction de Jordan. En
eet, la méthode pratique pour trouver la décomposition de Dunford de la matrice A :
1. Déterminer les valeurs propres et les vecteurs propres de A. Si la matrice A est diagonali-
sable, c'est ni. Sinon :
2. Déterminer une base adaptée de chacun des sous-espaces propres généralisés. Pour ce faire,
on peut procéder ainsi : pour chaque valeur propre λ,
On choisit un vecteur propre u1 de A associé à la valeur propre λ (déterminé à l'étape
1).
On cherche u2 tel que
(A − λI)u2 = u1 .
Il s'agit de résoudre un système linéaire dont les inconnues sont les coordonnées de
u2 .
Pour un tel vecteur on aura en eet
(A − λI)2 u2 = (A − λI)u1 = 0.
30
Pr M. El Kyal, ENSA d'Agadir 31
alors
t2 tmi −1
e tJi
=e tλi
I + tNi + Ni2 + · · · + N mi −1
2 (m − 1)!
D'autre part, d'après les propriétés de l'exponentielle de matrice , on a
−1
etA = etP JP = P etJ P −1
Posons
−6 0 6 x1 (t)
A = 2 −2 −3 ), X(t) = x2 (t) .
−2 0 1 x3 (t)
Alors le système est équivalent à
X 0 (t) = AX(t).
Le polynôme caractéristique de A :
PA (λ) = −12 − 16λ − 7λ2 − λ3 = −(λ + 2)2 (λ + 3).
Comme un vecteur propre pour la valeur propre −3, on peut prendre (2, −1, 1). Pour la valeur
propre −2, on peut prendre 2 vecteurs propres linéairement indépendants : (3, 0, 2) et (0, 1, 0).
Les trois vecteurs choisis sont linéairement indépendants, donc
−1
3 0 2 −2 0 0 3 0 2
A = 0 1 −1 0 −2 0 0 1 −1 .
2 0 1 0 0 −3 2 0 1
Posons
−2 0 0 3 0 2
D = 0 −2 0 , P = 0 1 −1 .
0 0 −3 2 0 1
Alors A = P DP −1 . Ainsi le système (S ) est équivalent à
X 0 (t) = P DP −1 X(t) ⇔ (P −1 X(t))0 = DP −1 X(t).
Posons
Y (t) = P −1 X(t)
Alors le système est équivalent à
Y 0 (t) = DY (t).
31
Pr M. El Kyal, ENSA d'Agadir 32
Ainsi, le système pour X est équivalent au système suivant pour Y :
0
y1 (t) = −2y1 (t)
y 0 (t) = −2y2 (t)
20
y3 (t) = −3y3 (t)
qui s'écrit
0
x1 2 0 −1 x1
x02 = −1 1 1 x2
x03 0 −1 0 x3
C'est la droite vectorielle engendrée par le vecteur ~u1 = (1, −1, 1).
32
Pr M. El Kyal, ENSA d'Agadir 33
3. D'après le théorème de Jordan, il existe une matrice J telle que
1 1 0
J = 0 1 1
0 0 1
On obtient donc z − x = z + y = −1, le vecteur ~u2 = (1, −1, 0) convient. On cherche alors
un vecteur ~u3 = (x, y, z) tel que A~u3 = ~u2 + ~u3 .
2x − z 1+x
A~u3 = ~u2 + ~u3 ⇐⇒ −x + y + z = −1 + y
−y z
on a bien A = P JP −1 et J = P −1 AP .
4. Ecrivons la décomposition de Dunford de J .
On a
1 1 0 1 0 0 0 1 0
J = 0 1 1 = 0 1 0 + 0 0 1 = I3 + N
0 0 1 0 0 1 0 0 0
0 1 0 0 0 1
Si N = 0 0 1 alors N = 0 0 0 et N 3 = 0. La matrice I3 est diagonale, la
2
0 0 0 0 0 0
matrice N est nilpotente, les matrices I3 et N commutent, c'est donc bien la décomposition
de Dunford de J .
5. Pour t ∈ IR, calculons etJ .
On a, pour t ∈ IR, tJ = tI3 + tN , ainsi etJ = etI3 +tN = etI3 etN car les matrices tI3 et tN
commutent.
Par ailleurs, etI3 = et I3 et etN = I + tN + t2 N 2 . On a donc
2
1 t t2 /2
etJ = et 0 1 t .
0 0 1
33
Pr M. El Kyal, ENSA d'Agadir 34
6. Donnons les solutions des systèmes diérentiels Y 0 (t) = JY (t) et X 0 (t) = AX(t).
34
Pr M. El Kyal, ENSA d'Agadir 35
Les valeurs propres de la matrice A sont λ1 = −1, valeur propre simple et λ2 = 2, valeur
propre double.
2. Déterminons les sous-espaces propres A.
Le sous-espace propre associé à la valeur propre −1 est le sous-espace vectoriel E−1 déni
par
E−1 = {~u ∈ IR3 , A~u = −u}.
Soit ~u = (x, y, z) ∈ IR3 ,
4x + 2y + 4z = 0
(
2x + y + 2z = 0
~u ∈ E−1 ⇐⇒ −x + 4y − z = 0 ⇐⇒
−2x − y − 2z = 0 x − 4y + z = 0
L'espace E−1 est une droite vectorielle dont un vecteur directeur est donné par
~u1 = (1, 0, −1).
Le sous-espace propre associé à la valeur propre 2 est le sous-espace vectoriel E2 déni par
E2 = {~u ∈ IR3 , A~u = 2u}.
L'espace E2 est une droite vectorielle dont un vecteur directeur est donné par
~u2 = (2, 1, −1).
35
Pr M. El Kyal, ENSA d'Agadir 36
4. Ecrivons la décomposition de Dunford de J .
On a
−1 0 0 −1 0 0 0 0 0
J= 0 2 1 =
0 2 0 + 0
0 1 ,
0 0 2 0 0 2 0 0 0
| {z } | {z }
D N
Y (t) = etJ C
X(t) = P etJ C
36
Pr M. El Kyal, ENSA d'Agadir 37
Pour trouver une solution particulière Xp , Comme pour les chapitre 1, On procède par la mé-
thode de variation de la constante. On va chercher une solution particulière Xp sous la forme
n
X
Xp (t) = ci (t)ϕi (t)
1
Si la matrice A est diagonalisable, on peut obtenir un système dont la matrice est diagonale
par un changement des variables .
Supposons A = P DP −1 où D est diagonale. Alors l'équation (E) s'écrit
X 0 = P DP −1 X + B.
Alors
X 0 = P DP −1 X + B
⇔ P Y 0 = P DP −1 P Y + P G
⇔ Y 0 = DY + G.
Posons
−6 0 6 −t x1 (t)
A = 2 −2 −3 , B(t) = t , X(t) = x2 (t) .
−2 0 1 0 x3 (t)
Alors le système (E ) est équivalent à
Le polynôme caractéristique de A :
37
Pr M. El Kyal, ENSA d'Agadir 38
Comme un vecteur propre pour la valeur propre −3, on peut prendre (2, −1, 1). Pour la valeur
propre −2, on peut prendre 2 vecteurs propres linéairement indépendants : (3, 0, 2) et (0, 1, 0).
Les trois vecteurs choisis sont linéairement indépendants, donc
−1
3 0 2 −2 0 0 3 0 2
A = 0 1 −1 0 −2 0 0 1 −1 .
2 0 1 0 0 −3 2 0 1
Posons
−2 0 0 3 0 2
D = 0 −2 0 , P = 0 1 −1 .
0 0 −3 2 0 1
Alors A = P DP −1 . Ainsi le système (E ) est équivalent à
X 0 (t) = P DP −1 X(t) + B(t) ⇔ (P −1 X)0 = DP −1 X + P −1 B.
Posons
Y (t) = P −1 X(t), G(t) = P −1 B(t).
Alors le système (E ) est équivalent à
Y 0 (t) = DY (t) + G(t).
On calcule P −1 et trouve :
−1 0 2
P −1 = 2 1 −3 .
2 0 −3
D'où,
t
G(t) = −t .
−2t
Ainsi, le système (E ) pour Y est équivalent au système suivant pour X :
0
y1 = −2y1 + t,
y20 = −2y2 − t,
0
y3 = −3y3 − 2t.
La solution générale pour y1 , y2 , y3 :
t 1
y1 (t) = − + C1 e−2t ,
2 4
t 1
y2 (t) = − + + C2 e−2t , C1 , C2 , C3 ∈ IR.
2 4
2t 2
+ C3 e−3t ,
y3 (t) = − +
3 9
En utilisant le changemnet des variables
X(t) = P Y (t),
on trouve la solution générale pour x1 , x2 , x3 :
t 11
x1 (t) = − + 3C1 e−2t + 2C3 e−3t ,
6 36
t 1
x2 (t) = + + C2 e−2t − C3 e−3t , C1 , C2 , C3 ∈ IR.
6 36
t 5
+ 2C1 e−2t + C3 e−3t ,
x3 (t) =
−
3 18
38
Pr M. El Kyal, ENSA d'Agadir 39
2.4 Equations diérentielles d'ordre n à coecients constants
2.4.1 Transformation d'une équation d'ordre n en un système d'ordre
1
Considérons une équation diérentielle linéaire d'ordre n à coecients constants :
x(n) (t) + an−1 x(n−1) (t) + · · · + a1 x0 (t) + a0 x(t) = b(t), t ∈ I. (E)
Pour résoudre cette équation, on peut poser
y1 = x,
y 2 = x0 ,
..
.
y = x(n−1) ,
n
et résoudre le système :
y10 = y2 ,
(S)
y 0 = y3 ,
2
..
.
y 0 = −a y − a y − · · · − a y + b.
n 0 1 1 2 n−1 n
ou encore
y 0 (t) = Ay(t) + B(t)
avec
0 1 0 ··· 0 0
0 0 1 0 0
.. .. ... ..
A= . . et
.
B(t) = .
0 0 0 1 0
−a0 −a1 −a2 · · · −an−1 b(t)
où les ϕi sont des fonctions indépendantes, alors l'équation diérentielle (EH) admet pour
solution générale
n
X
x(t) = y1 (t) = ci ϕi1 (t)
i=1
39
Pr M. El Kyal, ENSA d'Agadir 40
où les ϕij sont les composantes de ϕi . On va montrer qu'en fait, l'équation diérentielle (EH)
admet une solution générale dans un espace vectoriel de dimension égal à n. Pour cela on in-
troduit le polynôme caractéristique P (λ)
en développant le déterminant par rapport à la première colonne (puis calcul par récurrence),
on trouve que :
P (λ) = det(A − λI) = (−1)n (a1 + a2 λ + · · · + an λn−1 + λn ),
C'est l'expression usuelle du polynôme caractéristique, dont l'obtention formelle se lit avec (EH)
où les dérivations y (k) sont transformées en monôme λk , pour k = 0, . . . n.
P est de degré n, donc est de la forme :
P (λ) = (λ − λ1 )p1 · · · (λ − λr )pr ; p1 + · · · + pr = n
où les λi sont les racines (réelles ou complexes) de P distinctes 2 à 2 et de multiplicité respectives
pi .
Théoreme 2.4.1 Si les racines de P sont toutes simples, alors la solution générale de (EH)
est donnée par
n
X
x(t) = ci e λ i t
i=1
où les λi sont les valeurs propres de A.
En eet, Si les valeurs propres λi sont toutes simples, On notes par Vi leurs vecteurs propres.
alors la solution générale est donnée par
n
X
y(t) = ci eλi t Vi
i=1
t
Or pour trouver chaque vecteur propre Vi = Vi1 · · · Vin , il sut de résoudre le système :
AVi − λi Vi = 0 on aura
Vi2 − λi Vi1 = 0
Vi3 − λi Vi2 = 0
.. .
V −λV
in i i(n−1) = 0
qui montre que le sous-espace propre est de dimension 1 et est engendré par le vecteur Vi =
n−1 t
1 λi · · · λi
et puisque x(t) = y1 (t) d'où x(t) = ni=1 ci eλi t
P
40
Pr M. El Kyal, ENSA d'Agadir 41
2. Si le polynôme caractéristique est donné par
P (λ) = (λ − λ1 )p1 · · · (λ − λr )pr
notons que pour une équation diérentielle d'ordre n, l'espace Ker(A − λi I) est toujours de
dimension 1 quelque soit la multiplicité de la valeur propre λi .
alors J est triangulaire supérieure et diagonale-par-blocs :
J1 0
J2
J = ... ,
0 Jr
En posant Z = P −1 Y , le système
Y 0 = AY
équivaut alors à
Z 0 = JZ
La solutions du second système étant
Z = etJ C, C ∈ IRn
41
Pr M. El Kyal, ENSA d'Agadir 42
on obtient celle du premier :
Y = P etJ C, C ∈ IRn
avec
P = P1 P2 . . . Pr
et
etJ1 0
tJ
etJ2
e = ... ,
0 etJr
où
t2 tpi −1
1 t ···
2! (pi − 1)!
.. .. ..
. . .
...
etJi ... ...
λi t
=e t2 ,
2!
...
t
1
donc
etJ1 0
etJ2
C, C ∈ IRn
Y = P1 P2 . . . Pr ...
0 etJr
= P1 etT1 P2 etT2 . . . Pr etJr C
et puisque la première colonne de chaque matrice Pi est le vecteur propre Vi1 alors la composante
y1 de la solution s'écrit
r
X
y1 (t) = x(t) = ci1 eλi t + ci2 teλi t + · · · + cipi tpi −1 eλi t .
i=1
et en posant
ϕj (t)
ϕ0 (t)
j
φj (t) = .
.
.
n−1
ϕ (t)
Alors φ1 , · · · , φn est une base de l'espace des solutions du système homogène y 0 (t) = Ay(t) où
42
Pr M. El Kyal, ENSA d'Agadir 43
0 1 0 ··· 0
0 0 1 0
.. . .
A= . .
. . . .
0 0 0 1
−a0 −a1 −a2 · · · −an−1
Autrement dit :
y1 (t) = x(t) = C1 ϕ1 (t) + · · · + Cn ϕn (t)
y2 (t) = x0 (t)
= C1 ϕ01 (t) + · · · + Cn ϕ0n (t)
..
.
(n−1) (n−1)
yn (t) = x(n−1) (t) = C1 ϕ1 (t) + · · · + Cn ϕn (t)
autrement dit, d'après la règle de dérivation des produits, cela revient à imposer aux fonctions
C1 , · · · , Cn de vérier les conditions
0
C1 (t)ϕ1 (t) + · · · + Cn0 (t)ϕn (t) = 0
C10 (t)ϕ01 (t) + · · · + Cn0 (t)ϕ0n (t)
= 0
..
.
(n−2) (n−2)
C10 (t)ϕ1 (t) + · · · + Cn0 (t)ϕn (t) = 0
43
Pr M. El Kyal, ENSA d'Agadir 44
Dans ces conditions, par dérivation de x(n−1) (t) = C1 (t)ϕ(n−1)
1 (t) + · · · + Cn (t)ϕn (t) on
(n−1)
obtient
(n) (n)
x(n) (t) = C1 (t)ϕ1 (t) + · · · + Cn (t)ϕn (t)
(n−1) (n−1)
+C10 (t)ϕ
1 (t) + · · · + Cn0 (t)ϕn (t)
(n−1)
= C1 (t) −an−1 ϕ1 (t) − · · · − a1 ϕ01 (t) − a0 ϕ1 (t)
(n−1)
+ · · · + Cn (t) −an−1 ϕn (t) − · · · − a1 ϕ0n (t) − a0 ϕn (t)
(n−1) (n−1)
+C10 (t)ϕ
1 (t) + · · · + Cn0 (t)ϕn (t)
(n−1) (n−1)
= −an−1 C1 (t)ϕ1 (t) + · · · + Cn (t)ϕn (t)
− · · · − a0 (C1 (t)ϕ1 (t) + · · · + Cn (t)ϕn (t))
(n−1) (n−1)
+C10 (t)ϕ1 (t) + · · · + Cn0 (t)ϕn (t)
= −an−1 x(n−1) (t) − · · · − a0 x(t)
(n−1) (n−1)
+C10 (t)ϕ1 (t) + · · · + Cn0 (t)ϕn (t)
or
x(n) (t) + an−1 x(n−1) (t) + · · · + a1 x0 (t) + a0 x(t) = b(t), t ∈ I.
Alors
(n−1)
C10 (t)ϕ1 (t) + · · · + Cn0 (t)ϕ(n−1)
n (t) = b(t)
En conclusion, C10 (t), · · · , Cn0 (t) doivent être solutions du système d'équations linéaires
0
C1 (t)ϕ1 (t) + · · · + Cn0 (t)ϕn (t) = 0
0 0 0 0
C1 (t)ϕ1 (t) + · · · + Cn (t)ϕn (t) = 0
..
.
(n−2) (n−2)
C10 (t)ϕ1 (t) + · · · + Cn0 (t)ϕn (t) = 0
(n−1) (n−1)
0
C1 (t)ϕ1 (t) + · · · + Cn0 (t)ϕn (t) = b(t)
Or ce système est un système de Cramer puisque son déterminant est le wronskien de
φ1 , · · · , φn qui par hypothèse ne s'annule pas (car φ1 , · · · , φn forme une base de l'espace des
solutions).
La résolution du système conduit à la détermination de C10 (t), · · · , Cn0 (t) et il reste à faire n
calculs de primitives de fonctions pour terminer la résolution de l'équation linéaire.
X 0 (t) = f (X(t))
On appelle point d'équilibre (ou également solution stationnaire ou point critique), une so-
lution constante X ∗ telle que f ((X ∗ )) = 0.
Notons que dans le cas des systèmes linéaires autonomes, Si la matrice A est inversible, le seul
point d'équilible est le vecteur nul.
Dans ce paragraphe nous etudions le comportement asymptotique des solutions et le compor-
tement qualitatif du point d'équilibre 0 de l'équation dierentielle linéaire du premier ordre
X 0 (t) = AX(t).
44
Pr M. El Kyal, ENSA d'Agadir 45
Le comportement asymptotique consiste à étudier le comportement des solutions lorsque
t → ∞, en particulier la convergence vers 0, la bornitude des solutions ou l'explosion en temps
inni. Ces questions sont liées à la stabilité asymptotique et l'instabilité du point d'équilibre 0
qui est le point d'équilibre canonique du système linéaire.
Dans le cas n = 1 la question du comportement asymptotique des solutions est très simple. Les
solutions de l'équation sont de la forme x(t) = eλt x0 . On voit donc que :
1. si λ > 0, alors toutes solutions (sauf la solution constante 0) explosent en temps inni ; en
particulier, elles sont non bornees. On dira dans ce cas que le point d'équilibre 0 est instable.
2. Si λ < 0, alors toutes les solutions converges, lorsque t → ∞, vers le point d'équilibre 0 ; on
dira que le point 0 est asymptotiquement stable.
3. Si λ = 0, alors toutes les solutions sont constantes. Toutes les solutions avec donnée initiale
dans un voisinage de 0 restent dans ce voisinage ; on dira que 0 est stable.
Dans le cas n ≥ 2, la question du comportement asymptotique des solutions (ou de la stabilité
du point 0) n'est pas aussi simple et plusieurs cas sont possibles. On verra dans ce paragraphe
que le comportement asymptotique des solutions dépend du spectre de la matrice A.
An d'illustrer le comportement asymptotique des solutions de l'équation dierentielle, on consi-
dère d'abord le cas n = 2.
Dans le cas n = 2 On peut dessiner les champs de vecteurs associé à la matrice A. Ce champs de
vecteurs peut nous montrer les diérents comportements possibles, selon La position des valeurs
propres de A. Dans la suite on considère toujours le spectre de A dans le plan complexe. La
matrice A admet donc soit deux valeurs propres distincts, ou une valeur propre qui est racine
de multiplicité 2 du polynôme caractéristique.
1. Premier cas :
Les deux valeurs propres de A sont toutes les deux réelles, et soit elles sont toutes les deux
positives, soit elles sont toutes les deux négatives.
Exemples
4 −1 −4 −1
A1 = et A2 =
3 0 3 0
Les valeurs propres de A1 sont λ1 = 1 et λ2 = 3. Toutes les solutions de l'équation diéren-
tielle explosent à l'inni. On dit que le point d'équilibre 0 est instable.
Les valeurs propres de A2 sont λ1 = −1 et λ2 = −3. Toutes les solutions de l'équation dif-
férentielle convergent vers 0. On dit que le point d'équilibre 0 est asymptotiquement stable.
2. Deuxième cas :
Les valeurs propres de la matrice A sont toutes les deux réelles, une est strictement positive
et l'autre et strictement négative.
Exemple :
1 2
A3 =
3 0
Les valeurs propres de A3 sont λ1 = −2 et λ2 = 3. Il y a des solutions qui convergent
vers 0 et il y a des solutions qui explosent à l'inni. On dit que le point d'équilibre 0 est
hyperbolique. En particulier, il est instable.
3. Troisième cas :
Les deux valeurs propres de A sont complexes conjuguées, c.à.d λ1 = λ2 = α + iβ . Selon le
cas, si α > 0, α < 0 ou α = 0, le point d'équilibre 0 est instable, asymptotiquement stable
ou stable.
Exemples :
45
Pr M. El Kyal, ENSA d'Agadir 46
1 −2 0 1
A4 = et A5 =
1 −1 −1 −1
Les valeurs propres de A4 sont λ1 = i et λ2 = −i. Toutes les solutions de l'équation dié-
rentielle sont periodiques ; dans ce cas le point
q d'équilibre 0 est q
stable.
Les valeurs propres de A5 sont λ1 = 2 + i 4 et λ2 = 2 − i 34 . Comme la partie réelle
−1 3 −1
46
Chapitre 3
Résolution numérique des équations
diérentielles ordinaires
3.1 Introduction
L'objectif de ce chapitre est d'introduire les outils nécessaires pour résoudre numériquement
des équations diérentielles ordinaires d'ordre un de type Cauchy qui consiste à trouver une
fonction y : [0, T ] → IR solution de
y(0) = y0
On sait que le problème de Cauchy est un problème d'évolution, c'est à dire à partir de la
condition initiale, on peut calculer la solution à l'instant t par
Z t
y(t) = y(0) + f (s, y(s))ds
0
47
Pr M. El Kyal, ENSA d'Agadir 48
les développements de Taylor au voisinage de tn ,
l'approximation géométrique de la fonctions,
les formules d'intégration numérique (rectangle, trapèze, Simpson...).
Pour ces méthodes, le calcul de la valeur discrète yn+1 au noeud tn+1 se fait à partir de tn , yn
et h ou de tn , yn , yn+1 et h.
(a) Un schéma numérique à un pas explicite est une équation de récurrence de la forme :
yn+1 = yn + hφ(tn , yn , h)
x0 = y(t0 )
(b) Un schéma numérique à un pas implicite est une équation de récurrence de la forme :
yn+1 = yn + hφ(tn , yn , yn+1 , h)
x0 = y(t0 )
Pour ces méthodes, le calcul de la valeur discrète yn+1 au noeud tn+1 se fait à partir de h
et de t0 , x0 , t1 , y1 , · · · , tn , yn , yn+1 obtenues aux abscisses précédentes.
Les principales méthodes sont :
Méthode de Saute Moulton,
Méthodes d'Adams bashforth,
Méthodes de Gear.
On s'interesse dans ce cours uniquement aux méthodes à un pas.
48
Pr M. El Kyal, ENSA d'Agadir 49
Notons yn une approximation de y(tn ), on établit le schémas suivant :
Schéma d'Euler progressif (explicite) :
yn+1 = yn + hf (yn , tn ), n = 0, 1, 2, . . . , avec y(0) = x0 .
Ce schéma est explicite car il permet d'expliciter yn+1 en fonction de yn et c'est une méthode
à un pas avec
φ(tn , yn , yn+1 , h) = f (tn , yn )
Notons que
y(tn+1 ) − y(tn ) h
= y 0 (tn ) + y (2) (ξ)
h 2
soit
y(tn+1 ) − y(tn )
= f (tn , y(tn )) + O(h)
h
Donc le schéma d'Euler explicite converge à l'ordre 1.
De la même façon, le développement limité autour du point y(tn+1 ) donne :
h2 (2)
y(tn+1 − h) = y(tn ) = y(tn+1 ) − hy 0 (tn+1 ) + y (ξ)
2
Notons yn une approximation de y(tn ), on établit les schémas suivants :
49
Pr M. El Kyal, ENSA d'Agadir 50
4. Que la méthode approche l'équation diérentielle. C'est la consistance.
Définition 3.3.1 (Erreur de troncature, consistance) L'erreur de troncature locale au
point tn est la diérence entre la solution exacte et l'approtimation numérique obtenue : soit
y(tn+1 ) − y(tn )
τn+1 (h) = − φ(tn , y(tn ), h)
h
La méthode est dite consistante avec l'équation diérentielle si :
y(tn+1 ) − y(tn )
lim max |τn+1 (h)| = lim max | − φ(tn , y(tn ), h)| = 0
h→0 n h→0 n h
pour toute solution y de y (t) = f (t, y(t)).
0
Notons que l'erreur de troncature locale utilise la solution exacte y(tn ) et non yn . Cela s'ex-
plique par le fait que l'on cherche à mesurer l'erreur introduite par l'approximation numérique
en supposant que la méthode était exacte jusque là.
Théoreme 3.3.1 Une condition nécessaire et susante pour que la méthode soit consistante
est que : φ(t, y, 0) = f (t, y)
Preuve : Supposons la méthode consistante. On a alors :
y(tn+1 ) − y(tn )
lim max | − φ(tn , y(tn ), h)| = 0
h→0 n h
pour toute solution y de y 0 = f (t, x). Cela implique que ∀n = 0, · · · , N ,
y(tn+1 ) − y(tn )
lim | − φ(tn , y(tn ), h)| = 0
h→0 h
or
y(tn+1 ) − y(tn )
lim = y 0 (tn ) = f (tn , y(tn ))
h→0 h
et
lim φ(tn , y(tn ), h) = φ(tn , y(tn ), 0)
h→0
Alors ∀n = 0, · · · , N ,
φ(tn , y(tn ), 0) = f (tn , y(tn ))
et donc φ(t, y(t), 0) = f (t, y(t)) La réciproque est evidente.
50
Pr M. El Kyal, ENSA d'Agadir 51
Cette notion de stabilité signie qu'une petite perturbation sur les données (y0 ; φ) n'entraîne
qu'une petite perturbation sur la solution et ceci indépendamment de h. Autrement dit, C'est la
propriété qui assure que la diérence entre la solution numérique obtenue et la solution exacte
des équations discrétisées reste bornée. La stabilité indique si l'erreur augmente ou non au cours
du calcul. Autrement dit, si les erreurs d'approximation à chaque pas de temps ne sont pas très
grandes, l'erreur pour la solution approchée au pas suivant reste maîtrisée.
Une méthode peut être stable sous condition (elle sera dite conditionnellement stable) ou tou-
jours stable (elle sera dite inconditionnellement stable).
Cette condition de stabilité est indispensable pour traiter numériquement une équation dif-
férentielle.
Cela signie qu'une méthode est convergente si, lorsque le pas de discrétisation tend vers 0,
la solution numérique tend vers la solution exacte de l'équation continue.
Théoreme 3.3.3 (Théorème de Lax) Si une méthode à 1 pas est consistante et stable, alors
elle est convergente.
Preuve : Si la méthode est consistante, elle vérie alors la relation :
y(tn+1 ) = y(tn ) + hφ(tn , y(tn ), h) + n
On va décrire une méthode générale pour calculer l'ordre d'un schéma à un pas. On rappelle
que l'erreur de troncature locale au point tn s'écrit :
y(tn+1 ) − y(tn )
τn+1 (h) = − φ(tn , y(tn ), h)
h
de plus, la méthode est d'ordre p si et seulement si
notons En = y(tn+1 ) − y(tn ) − hφ(tn , y(tn ), h) alors la méthode est d'ordre p si et seulement si
max |En | = O(hp+1 )
n
51
Pr M. El Kyal, ENSA d'Agadir 52
or la formule de Taylor donne
hp (p)
y(t + h) = y(t) + hy 0 (t) + · · · + y (t) + · · ·
p!
et
∂φ hp−1 ∂ p−1 φ
φ(t, y(t), h) = φ(t, y(t), 0) + h (t, y(t), 0) + · · · + (t, y(t), 0) + · · ·
∂h (p − 1)! ∂ p−1 h
Alors
hp ∂ p−1 φ
0 2 ∂φ 1 p
En = h [y (t) − φ(t, y(t), 0)]+h y”(t) − (t, y(t), 0) +· · ·+ y (t) − p−1 (t, y(t), 0)
∂h (p − 1)! p ∂ h
Théoreme 3.3.4 (condition nécessaire et susante pour que la méthode soit d'ordre ≥ p)
On suppose que f est de classe C p sur [0, T ] × IR et que les fonctions φ, ∂h , · · · ∂hp
∂φ ∂ φ p
existent et sont continues sur [0, T ]×IR×[0, h]. Alors la méthode est d'ordre p, si et seulement
si, pour tout (t, y) ∈ [0, T ] × IR, on a :
φ(t, y, 0) = f (t, y)
∂φ (t, y, 0) = 1 f 0 (t, y)
∂h 2
..
.
∂ p−1 φ
(t, y, 0) = p1 f (p−1) (t, y)
∂hp−1
Alors
h2 (2) h3
y(tn+1 ) = y(tn ) + hy 0 (tn ) + y (tn ) + y (3) (ξ)
2 3!
soit
h2 0
y(tn+1 ) = y(tn ) + hf (tn , y(tn )) + f (tn , y(tn )) + O(h3 )
2
52
Pr M. El Kyal, ENSA d'Agadir 53
or
∂f (t, y(t)) ∂f (t, y(t)) 0
f 0 (t, y(t)) = + y (t)
∂t ∂y
c'est à dire
∂f (t, y(t)) ∂f (t, y(t))
f 0 (t, y(t)) = + f (t, y(t))
∂t ∂y
on a alors :
53
Pr M. El Kyal, ENSA d'Agadir 54
1. Le schéma d'Euler explicit : une intégration par la méthode des rectangles à gauche nous
donne Z t n+1
yn+1 = yn + hf (tn , yn )
x0 donné
x0 donné
x0 donné
54
Pr M. El Kyal, ENSA d'Agadir 55
5. Méthode de Runge-Kutta d'ordre 4 : une intégration par la méthode de Simpson nous donne
tn+1
(tn+1 − tn )
Z
h h
f (t, y(t))dt ' f (tn , y(tn )) + 4f (tn + , y(tn + )) + f (tn+1 , y(tn+1 ))
tn 6 2 2
L'idée est toujours d'estimer la pente de y , mais de façon plus précise. Pour cela, on ne
prend plus la pente en un point (début ou milieu), mais on utilise la moyenne pondérée des
pentes obtenues en 4 points du pas.
k1 = f (tn , yn )
est la pente au début de l'intervalle ;
h h
k2 = f tn + , yn + k1
2 2
est la pente au milieu de l'intervalle, en utilisant la pente k1 pour calculer la valeur
de y au point tn + h/2 par la méthode d'Euler ;
h h
k3 = f tn + , yn + k2
2 2
est de nouveau la pente au milieu de l'intervalle, mais obtenue en utilisant la pente k2
pour calculer y ;
k4 = f (tn + h, yn + hk3 )
est la pente en n d'intervalle, avec la valeur de y calculée en utilisant k3 .
On obtient nalement la discrétisation de Runge-Kutta à l'ordre 4 :
x0 donné
k1 = f (tn , yn )
k2 = f tn + h2 , yn + h2 k1
k3 = f tn + h2 , yn + h2 k2
k = f (tn + h, yn + hk3 )
4
yn+1 = yn + h6 (k1 + 2k2 + 2k3 + k4 )
La méthode est d'ordre 4, ce qui signie que l'erreur totale accumulée est de l'ordre de h4 . Notons
enn que toutes ces formulations sont encore valables pour des fonctions à valeurs vectorielles.
55