Vous êtes sur la page 1sur 94

Chapitre 1: introduction et exemples

Philippe Chartier
5 septembre 2012

1 Le problème à deux corps


Le problème à deux corps et sa généralisation à N corps, apparaı̂t dans de nombreuses ap-
plications, notamment en mécanique céleste, avec la simulation du mouvement de 2, 3 (ou plus),
planètes, ou en dynamique moléculaire, où l’on est amené à simuler des réseaux de N particules
(atomes, molécules...) soumises à des forces d’attraction-répulsion du type Lennard-Jones (potentiel
en − r16 + r112 ). Dans ce dernier cas, N est généralement très grand, typiquement de l’ordre de 106 .

1.1 Historique
– Tycho Brahé (1540-1603) conduit une série d’observations astronomiques et établit empirique-
ment que la trajectoire de la terre est une ellipse.
– Johannes Kepler (1571-1630) analyse les relevés de T. Brahé et établit les très fameuses lois de
Kepler, à savoir :
1. Les planètes du système solaire décrivent un mouvement plan autour du soleil et l’orbite
d’une planète est une ellipse dont le soleil est le centre (stricto-sensu, il s’agit du centre
de gravité du système).
2. Loi des aires : si S est le Soleil et M une position quelconque d’une planète, l’aire balayée
par le segment [SM] entre deux positions C et D est égale à l’aire balayée par ce segment
entre deux positions E et F si la durée qui sépare les positions C et D est égale à la durée
qui sépare les positions E et F .
3. Loi des périodes : si a est le demi-grand axe de l’ellipse, et T la période de révolution,
alors a3 /T 2 = Constante
– Isaac Newton (1642-1727) établit les lois fondamentales de la dynamique et le principe de
gravitation

1
1.2 Résolution des équations du problème à deux corps
Soient x1 et x2 les centres de gravité de deux corps de masses respectives m1 et m2 . La loi de
Newton s’écrit :
m1 ẍ1 = κm1 m2 x2r−x
 1
3
x1 −x2
m2 ẍ2 = κm1 m2 r3

où r = kx1 − x2 k2 . Le corps 1 exerce sur le corps 2 une force F1→2 portée par le vecteur u = x1 −x
r
2
,
m1 m2
de direction la direction de u, et de norme κ r2 . Le corps 2 exerce sur le corps 1 une force F2→1
portée par le vecteur −u, de direction la direction de −u, et de norme κ m1rm 2
2
. On a ainsi la figure
suivante :
m1 F2→1 F1→2 m2
- 

Soit maintenant x, le centre de gravité de (x1 , m1 ) et (x2 , m2 ) : (m1 + m2 )x = m1 x1 + m2 x2 . En


notant m = m1 + m2 , il vient alors :
m1 m2
mẍ = m1 ẍ1 + m2 ẍ2 = κ (x2 − x1 + x1 − x2 ) = 0,
r3
c’est-à-dire que x(t) = ta + b, décrit un mouvement rectiligne de direction a ∈ R3 . Pour compléter
la description du mouvement, on considère donc X = x1 − x2 . Il vient aisément :

m2
mẌ(t) = −κ X(t),
r3
où r(t) = kX(t)k2 . Cette composante décrit un mouvement à force centrale, que nous allons mainte-
nant analyser.

Remarque 1.1 Si m2 >> m1 , alors m ≈ m2 et x ≈ x2 . Après changement de repère (à mouvement


rectiligne), on a x2 ≈ 0 et x1 ≈ X. C’est la situation typiquement du système terre-soleil.

Lemme 1.2 Le mouvement de X, régi par l’équation

m2
mẌ(t) = −κ X(t),
r 3 (t)

où r(t) = kX(t)k2 , est un mouvement plan. Il s’effectue dans le plan perpendiculaire à n0 = Ẋ(0) ∧
X(0) passant 1 par X(0).
 
u2 v3 − u3 v2
1. On rappelle que le produit vectoriel est défini par u ∧ v =  u3 v1 − u1 v3 . Il est bilinéaire et antisymétrique.
u1 v2 − u2 v1

2
Preuve. En dérivant Ẋ(t) ∧ X(t) par rapport à t, il vient
d
Ẋ(t) ∧ X(t) = Ẍ(t) ∧ X(t) + Ẋ(t) ∧ Ẋ(t)
dt
Le second terme est nul car a ∧ b = 0 dès lors que a et b sont colinéaires. Le premier donne
m
Ẍ(t) ∧ X(t) = −κ 3 X(t) ∧ X(t)
r
et est donc nul pour la même raison. Il résulte que
Ẋ(t) ∧ X(t) = Ẋ(0) ∧ X(0) := n0
On a alors
d
hX(t) − X(0), n0 i = hẊ(t), n0 i = hẊ(t), Ẋ(t) ∧ X(t)i = det(Ẋ(t), Ẋ(t), X(t)) = 0
dt
par définition du produit mixte et nullité de tout déterminant dont deux colonnes sont colinéaires.
Donc X(t) − X(0) est pour tout t perpendiculaire à n0 , ce qui implique que le mouvement a lieu dans
le plan perpendiculaire à n0 passant par X(0).
Dans la suite, on suppose donc que X(t) est un vecteur de R2 qui satisfait l’équation

m2
mẌ(t) = −κ X(t),
r3
où r(t) = kX(t)k2 . Nous allons désormais montrer que le mouvement de X possède les deux inva-
riants suivants :
2
1. l’énergie totale du système : E(t) = 21 mkẊ(t)k22 − κ kX(t)k
m
, somme de l’énergie cinétique et de
l’énergie potentielle.
2. le moment angulaire du système : G(t) = det(X(t), mẊ(t))

Remarque 1.3 On peut également travailler avec l’énergie massique Em (t) = 21 kẊ(t)k22 −κ kX(t)km
=
E(t)/m. La constante κ est la constante gravitationelle. Dans le système S.I., elle vaut κ = 6, 6742867×
10−11 m3 kg−1 s−2 .

Lemme 1.4 Soit X(t) ∈ R2 le vecteur coordonnées du centre de gravité du système, satisfaisant

m2
mẌ(t) = −κ X(t),
r3
où r(t) = kX(t)k2 . Alors, il existe des constante E0 et L0 de R telles que pour tout t ≥ 0, on a

E(t) = E0 ,
G(t) = L0 .

3
Preuve. En dérivant E(t) par rapport à t, il vient
d −dkX(t)k2 1
E(t) = mhẌ(t), Ẋ(t)i − κ m2
dt dt kX(t)k22
p
κ m2 d hX(t), X(t)i
= mhẌ(t), Ẋ(t)i + 2
r dt
2
κ m dhX(t), X(t)i
= mhẌ(t), Ẋ(t)i +
2r 3 dt
κ m2
= mhẌ(t), Ẋ(t)i + 2hẊ(t), X(t)i
2r 3
κ m2
= hmẌ(t) + 3 X(t), Ẋ(t)i = 0
r
Donc E(t) = E(0) := E0 . De même, on a :
d
G(t) = det(X(t), mẌ(t)) + det(Ẋ(t), mẊ(t))
dt
κ m2
= det(X(t), − 3 X(t)) = 0
r
donc G(t) = G(0) := L0 .
L’idée est alors d’exploiter l’invariance de ces deux quantités en passant en coordonnées polaires :
 
r(t) cos(θ(t))
X(t) =
r(t) sin(θ(t))

Le calcul donne, d’une part


1 1
E(t) = mkẊ(t)k22 − κ m2
2 kX(t)k2
1 
2 2

= m (ṙ(t) cos(θ(t)) − r(t) sin(θ(t))θ̇(t)) + (ṙ(t) sin(θ(t)) + r(t) cos(θ(t))θ̇(t))
2
1
−κ m2
r(t)
1  2  1
= m ṙ (t) + r 2 (t)θ̇2 (t) − κ m2
2 r(t)

et d’autre part

G(t) = m det(X(t), Ẋ(t))


r(t) cos(θ(t)) ṙ(t) cos(θ(t)) − r(t) sin(θ(t))θ̇(t)
= m
r(t) sin(θ(t)) ṙ(t) sin(θ(t)) + r(t) cos(θ(t))θ̇(t))
= mr 2 (t)θ̇(t)

4
L0 L0
autrement dit, θ̇(t) = mr 2 (t)
. En remplaçant θ̇(t) par mr 2 (t)
dans l’expression de E(t), il vient alors
2 !
m2

1 L0
m ṙ 2 (t) + r 2 (t) −κ = E0
2 mr 2 (t) r

soit

2 L20 2m 2E0
ṙ (t) + 2 2 − κ =
m r (t) r m

On observe alors que θ̇(t) conserve un signe constant, celui de L0 , que l’on suppose non nul (si L0
est nul, alors Ẋ(t) et X(t) sont colinéaires pour tout t, et donc le mouvement de X est rectiligne). On
peut alors faire le changement de changement de variable t = t(θ) et exprimer l’équation en fonction
de θ. Il vient :
dr dr dθ dr L0 L0 d(1/r)
ṙ = = = 2
=−
dt dθ dt dθ mr m dθ
de sorte qu’en posant z = 1/r, on obtient finalement l’équation :
2
2κm3

dz 2E0 m
(θ) + z 2 (θ) − 2
z(θ) =
dθ L0 L20
κm3 2E0 m
Un dernier calcul avec α = L20
, β= L20
et u = z − α montre que
 2
du
(θ) + u2 (θ) = α2 + β

et en dérivant par rapport à θ :

d2 u
(θ) + u(θ) = 0
dθ2

p la solution générale peut s’écrire : u(θ) = uθ0 cos(θ − θ0 ), avec la condition initiale uθ0 =
dont
± β + α2 . Ainsi, r s’écrit :
p
r(θ) =
1 ± e cos(θ − θ0 )
q
L20 2E0 L20
avec p = 1/α = κm3
et e = 1+ m5 κ2
. Suivant la valeur de e, la trajectoire de X(t) est donc une
2E0 L20
parabole, une hyperbole, ou une ellipse d’excentricité e (on peut vérifier en effet que 1 + m5 κ2
> 0).

5
2 Dynamique des polulations
2.1 Cas d’une espèce
(i) Loi de Malthus
Si N(t) désigne le nombre d’individus d’une population quelconque, on peut modéliser l’évolution
de N par une équation différentielle du type :
Ṅ (t) = rN(t)
où r représente le taux intrinsèque d’accroissement naturel. Il s’ensuit que :
N(t) = N0 ert .

(ii) Modèle de Verhulst


Verhulst a proposé ce modèle en réponse au modèle de Malthus qui conduit à une croissance
exponentielle de la population. Verhulst imagine que le taux de natalité et le taux de mortalité sont
des fonctions affines respectivement décroissante et croissante de la taille de la population. Il pose en
outre que, lorsque les populations sont de petites tailles, elles ont tendance à croı̂tre.
Si l’on désigne, comme précédemment par N le nombre d’individu, m(N) le taux de mortalité et
n(N) le taux de natalité, N satisfait l’équation différentielle suivante :
 
Ṅ(t) = N(t) n(N(t)) − m(N(t)) .
Si maintenant, comme l’a supposé Verhulst, m(N) et n(N) sont des fonctions affines respectivement
croissante et décroissante alors n(N) − m(N) est une fonction affine décroissante. Enfin, si pour
N → 0, Ṅ (t) est positive, l’équation peut s’écrire
 
Ṅ(t) = N(t) a − bN(t) .
En posant c = a/b, l’équation devient
 N(t) 
Ṅ (t) = aN(t) 1 − .
c
Il est clair que N(t) ≡ c est solution, que si N < c alors N croı̂t et que si N > c, alors N décroı̂t. c
est appelé capacité d’accueil.
Les solutions strictement positives définies pour t ∈ [0; +∞[ du problème de Cauchy
(  
Ṅ (t) = aN(t) 1 − Nc(t) )
N(0) = N0
sont alors de la forme
c
N(t) =  
c
1+ − 1 e−at
N0
On observe que la population tend vers la capacité d’accueil c.

6
2.2 Cas de deux espèces : équation de Lotka-Volterra
Les équations de Lotka-Volterra s’écrivent :

Ṅ1 (t) = N1 (t)(α − βN2 (t))
Ṅ2 (t) = −N2 (t)(δ − γN1 (t))
où N1 (t) est l’effectif des proies et N2 (t) l’effectif des prédateurs. Les paramètres suivants ca-
ractérisent les interactions entre les deux espèces :
– α, taux de reproduction des proies en l’absence de prédateurs ;
– β, taux de mortalité des proies due aux prédateurs ;
– δ, taux de mortalité des prédateurs en l’absence de proies ;
– γ, taux de reproduction des prédateurs en fonction des proies mangées.

(i) Equilibres du système


Un état d’équilibre de la population est observé quand les dérivées sont simultanément nulles, ce
qui se traduit par le système d’équations :

N1 (t)(α − βN2 (t)) = 0
−N2 (t)(δ − γN1 (t)) = 0
qui a pour solutions
 
α δ
{N2 (t) = 0, N1 (t) = 0} et N2 (t) = , N1 (t) =
β γ
La première solution correspond à une extinction définitive des deux espèces, la seconde à des valeurs
dépendant des quatre paramètres α, β, δ et γ, qui restent stables indéfiniment.
La stabilité des points fixes peut être déterminée par linéarisation du système (voir Chapitre 3).
La matrice jacobienne du système est
 
α − βN2 (t) −βN1 (t)
J(N1 (t), N2 (t)) =
γN2 (t) γN1 (t) − δ
Au premier point fixe (0,0), cette matrice prend la valeur :
 
α 0
J(0, 0) = ,
0 −δ
qui a pour valeurs propres λ1 = α et λ2 = −δ. Ces valeurs propres sont de signes opposés, donc ce
point fixe est un point selle, instable (voir Chapitre 3). En particulier, suivant ce modèle, l’extinction
simultanée des deux espèces n’est pas possible.
En évaluant la matrice jacobienne au second point fixe, la valeur suivante est obtenue :
 " #
0 − βδ

δ α γ
J , = αγ
γ β β
0

7
√ √
et elle a pour valeurs propres λ1 = i αδ et λ2 = −i αδ.
Ce point fixe est donc un centre (voir Chapitre 3), ce qui signifie que les populations de proies et
prédateurs oscillent autour de leurs valeurs en ce point fixe.
9

5
N2

0
0 2 4 6 8 10 12
N1

F IGURE 1 – Solutions de l’équation de Lotka-Volterra pour différentes valeurs de I(N1 (0), N2 (0))

(ii) Existence d’un invariant


En multipliant la première équation par N2 (t)(δ − γN1 (t)) et la seconde par N1 (t)(α − βN2 (t)),
il vient
Ṅ1 (t)N2 (t)(δ − γN1 (t)) + Ṅ2 (t)N1 (t)(α − βN2 (t)) = 0
soit
Ṅ1 (t)(δ − γN1 (t)) Ṅ2 (t)(α − βN2 (t))
+ =0
N1 (t) N2 (t)
c’est-à-dire encore
Ṅ1 (t) Ṅ2 (t)
δ − γ Ṅ1 (t) + α − β Ṅ2 (t) = 0
N1 (t) N2 (t)
De sorte que l’on obtient par intégration

I(N1 (t), N2 (t)) = log(N1 (t)δ ) − γN1 (t) + log(N2 (t)α ) − βN2 (t) = Const.

C’est un invariant du système, qui assure que les courbes solutions sont fermées (voir Fig. 1).

8
3 Exemples de résolution d’équations simples
3.1 Équation différentielle d’ordre un à variables séparées
Il s’agit d’équations de la forme :
y ′ = f (x)g(y).
Solutions régulières : On recherche les solutions dites régulières, i.e. telles que g(y) ne soit jamais
nul. La présentation classique de Leibniz, bien que difficile à justifier mathématiquement, permet
d’obtenir une bonne partie des solutions. Elle consiste “séparer les différentielles” en écrivant
1 dy
= f (x)
g(y) dx

sous la forme
1
dy = f (x)dx.
g(y)
En intégrant séparément chaque membre :

H(y) = F (x) + K

où H représente une primitive de 1/g et F représente une primitive de f et où K est une constante
arbitraire. En outre, la fonction H est continûment dérivable, strictement monotone, donc admet une
fonction réciproque de sorte que la solution s’exprime comme

y = H −1 (F (x) + K).

Présentation rigoureuse : Le calcul précédant ne possédant pas un sens mathématique précis, il est
préférable d’en donner une version plus rigoureuse en intégrant chaque membre de l’équation
1
y ′(x) = f (x)
g(y(x))

par rapport à la variable x, ce qui donne


Z x x
1
Z
y ′(u) du = f (u) du
x0 g(y(u)) x0

Après changement de variable, on obtient donc


Z y Z x
1
dv = f (u) du.
y0 g(v) x0

9
Exemple 3.1 Résoudre sur tout intervalle I non vide l’équation :

(E) : y ′ = 2x(1 + y 2).

Soit y une solution sur un intervalle I de (E). Pour tout x ∈ I,

y ′ (x)
= 2x
1 + y(x)2

donc il existe C ∈ R tel que arctan(y(x)) = x2 + C. Puisque pour tout x ∈ I, arctan(y(x)) ∈


] − π/2, π/2[, on a x2 + C ∈] − π/2, π/2[ et y(x) = tan(x2 + C). Inversement de telles fonctions
sont solutions.

3.2 Équation différentielle de Bernoulli


Une équation différentielle de Bernoulli est une équation différentielle du premier ordre de la
forme :
y ′(x) + a(x)y(x) = b(x)y m (x)
où m est différent de 0 et 1 et où a et b sont des applications continues définies sur un intervalle ouvert
I de R et à valeurs réelles. En général, m est un entier naturel.
Cette forme d’équation a été proposée par Jacques Bernoulli en 1695 et résolue un an plus tard
par Leibniz grâce à un changement de fonction qui ramène à une équation différentielle linéaire : en
supposant que la fonction y > 0 sur l’intervalle I, on peut diviser l’équation par y m(x) et on obtient

y ′ (x) 1
m
+ a(x) m−1 = b(x)
y (x) y (x)

On pose
1
u(x) = = y 1−m(x)
y m−1 (x)
donc
(1 − m)y ′ (x)
u′ (x) = (1 − m)y −m(x)y ′ (x) = .
y m (x)
L’équation de Bernoulli sur y équivaut donc à l’équation différentielle linéaire d’ordre un sur u :
1
u′ (x) + a(x)u(x) = b(x)
1−m
dont la solution générale est
R R
 Z 
−(1−m) a(t)dt (1−m) a(s)ds
u(x) = e C + (1 − m) b(t)e dt ,

10
ce qui donne pour la fonction y = u1/(1−m) :
1
R R
 Z  1−m
− a(t)dt (1−m) a(s)ds
y(x) = e C + (1 − m) b(t)e dt

La solution de cette équation qui passe par le point (x0 , y0) est la fonction y définie par :
1
Rx x Rt
 Z  m−1  1−m
− a(t)dt − a(s)ds
y(x) = y0 e x0
1 + (1 − m)y0m−1 b(t) e x0
dt .
x0

Des solutions peuvent être cherchées parmi les fonctions qui ne sont pas partout positives sur leur
domaine de définition, mais alors de nombreuses précautions doivent être prises quant aux domaines
de validité des solutions.

Exemple 3.2 Considérons l’équation :


1
(E) : y ′ + cos(x)y = − y 3.
2
Le changement de variable s’écrit ici u = y −2 et l’équation sur u est de la forme :

u′ − 2 cos(x)u = 1,

dont la solution s’obtient par la technique de “variation de la constante” :


Z x 
−2 sin(t)
u(x) = e dt + C e2 cos(x) .
0

3.3 Équation différentielle de Riccati


Une équation de Riccati est une équation différentielle ordinaire de la forme

y ′ = q0 (x) + q1 (x)y + q2 (x)y 2 ,

uù q0 , q1 , et q2 , sont des fonctions continues sur un intervalle commun à valeurs réelles. Elle porte
le nom de Jacopo Francesco Riccati (1676-1754) et de son fils Vincenzo Riccati (1707-1775). Dès
que l’on en connaı̂t une solution particulière, une équation de Riccati se ramène par changement
de variable, à une équation de Bernoulli. Ainsi, s’il est possible de trouver une solution y1 , alors la
solution générale est de la forme
y = y1 + u
En remplaçant y par y1 + u dans l’équation de Riccati, on obtient :

y1′ + u′ = q0 + q1 (y1 + u) + q2 (y1 + u)2 ,

et comme
y1′ = q0 + q1 y1 + q2 y12 ,

11
on a :
u′ = q1 u + 2q2 y1 u + q2 u2 .
Or
u′ − (q1 + 2q2 y1 )u = q2 u2
est une équation de Bernoulli. La substitution nécessaire à la résolution de cette équation de Bernoulli
est alors :
1
z = u1−2 =
u
Substituer y = y1 + 1z directement dans l’équation de Riccati donne l’équation linéaire :

z ′ + (q1 + 2q2 y1 )z = −q2

La solution générale de l’équation de Riccati est alors donnée par :


1
y = y1 +
z
où z est la solution générale de l’équation linéaire citée ci-dessus.

Exemple 3.3 Considérons l’équation suivante :

(E) : y ′ = cos(x) − sin(x)y + y 2 .

Il est facile de vérifier que y(x) = cos(x) est solution particulière. On pose donc : y(x) = sin(x) +
1
z(x)
, de sorte que
z ′ + sin(x)z + 1 = 0.

3.4 Équation différentielle homogène


Équation différentielle du premier ordre, homogène de degré n : Une équation différentielle
du premier ordre, mais non nécessairement linéaire, est dite homogène de degré n si elle peut s’écrire
sous la forme
y ′ (x) = F (x, y)
où F est une fonction homogène de degré n, c’est-à-dire vérifiant F (tx, ty) = tn F (x, y). Autrement
dit (en posant h(u) = F (1, u)), c’est une équation qui s’écrit
y
′ n
y (x) = x h .
x
Le cas le plus étudié est celui où n = 0, à tel point que dans ce cas on ne mentionne même pas le
degré. La résolution d’une telle équation se fait par séparation des variables : grâce à la substitution
u(x) = y(x)
x
, l’équation homogène y 
y ′(x) = h
x

12
se transforme en une équation à variables séparées :

u′ (x) 1
= .
h (u(x)) − u(x) x

Équation différentielle linéaire homogène : Une équation différentielle linéaire mais d’ordre quel-
conque est dite homogène si elle est de la forme

Ly = 0,

où l’opérateur différentiel L est une application linéaire et y est la fonction inconnue.

Exemple 3.4
ay ′′ (x) + by ′ (x) + cy(x) = 0
est une équation différentielle linéaire homogène du second ordre à coefficients constants., où a, b, c
sont supposées connues.
a(x)y ′ (x) + b(x)y(x) = 0
est une équation différentielle linéaire homogène du premier ordre à coefficients variables a(x), b(x)
fonctions supposées connues.

3.5 Équation différentielle de Lagrange


L’équation différentielle de Lagrange est une équation différentielle qui peut se mettre sous la
forme suivante
y(x) = a(y ′(x))x + b(y ′ (x)),
pour deux fonctions a et b continûment dérivables. Elle porte le nom du mathématicien Joseph-Louis
Lagrange. Les fonctions affines solutions portent le nom de solutions singulières. Elles sont de la
forme x 7−→ mx + b(m) , avec a(m) = m.
Les solutions régulières sont celles qui vérifient y de classe C 2 et y ′′ non nulle. Soit x dans R . On
dérive les deux membres de l’équation et on effectue le changement de variable p = y ′ , pour obtenir

p = a′ (p)p′ x + a(p) + b′ (p)p′

L’équation obtenue peut alors se mettre sous la forme


dx
(p − a(p)) = a′ (p)x + b′ (p)
dp
qui est une équation différentielle linéaire d’ordre un. Elle se résout explicitement, ce qui donne
l’expression de p et grâce à l’équation initiale on connaı̂t y(p).

13
Chapitre 2: théorèmes généraux
P. Chartier et E. Faou
5 octobre 2016

1 Préliminaires
1.1 Cadre général
Soit I ⊂ R un intervalle ouvert, d’intérieur non vide, et t0 ∈ I. Soit E un espace de
Banach, D un ouvert connexe de E. On considère une application

f :D×I →E

et un point y0 ∈ D.

Définition 1.1 On appelle problème de Cauchy la recherche d’un intervalle J tel que
t0 ∈ J ⊂ I et d’une application y : J → D telle que y soit dérivable et satisfait pour tout
t∈J
( 0
y (t) = f (t, y(t)),
(1)
y(t0 ) = y0 .

Remarque 1.2 La plus souvent, on considérera que E = Rd , d ∈ N. On supposera aussi


que f est au moins continue.

Une formulation équivalente de (1) est donnée par


Z t
∀ t ∈ J, y(t) = y0 + f (s, y(s))ds. (2)
t0

Définition 1.3 On donne maintenant quelques définitions :


1. Le couple (J, y) est appelé solution locale si t0 ∈ J ⊂ I, y ∈ C 1 (J), J est un
voisinage de t0 dans I, et (1) est satisfaite pour tout t ∈ J.

1
2. Soient (J1 , y1 ) et (J2 , y2 ) deux solutions locales. On dit que (J1 , y1 ) prolonge
(J2 , y2 ) si 
 J2 ⊂ J1 ,
 y1 = y2 .
J2

3. Une solution locale (J, y) est appelée solution maximale si pour tout prolonge-
˜ ỹ) de (J, y), on a J˜ = J et ỹ = y.
ment (J,
4. Une solution locale (J, y) est appelée solution globale si J = I.

Remarque 1.4 On peut immédiatement faire les remarques suivantes :


— Toute solution globale est solution maximale.
— Soient ti , i = 1, . . . , 4 tels que t1 < t0 < t2 et t3 < t2 < t4 , et soient (J1 , y1 ) et
(J2 , y2 ) deux solutions locales telles que
( 0
y1 (t) = f (t, y1 (t)),
[t1 , t2 ] ⊂ J1 , et
y1 (t0 ) = y0 .
et
y20 (t) = f (t, y2 (t)),
(
[t3 , t4 ] ⊂ J2 , et
y2 (t2 ) = y1 (t2 ).
Alors le couple (J, y) défini par
y1 sur [t1 , t2 ],
(
J = [t1 , t4 ], et y=
y2 sur [t2 , t4 ],
est une solution locale, prolongement de ([t1 , t2 ], y1 ) (pas forcément de (J2 , y2 ) ! !).

Le résultat suivant est immédiat.


Lemme 1.5 Si f est de classe C k sur I × D, alors pour toute solution locale (J, y), y est
de classe C k+1 sur J.

1.2 Exemples
1. Le problème 

 ẏ = −2ty 2


y(0) = 1



I = R

2
1 
admet une unique solution globale R, .
1 + t2
2. Le problème 

 ẏ = +2ty 2


y(0) = 1



I = R

1 
admet une unique solution maximale ] − 1, +1[,
1 − t2
3. On considére le problème
ẏ = −y 2
(

y(0) = 1
1
Avec I = R+ le problème admet une solution globale y(t) = .
1+t
1 
Avec I = R le problème admet une solution maximale ] − 1, +∞[, qui
1+t
est non globale.
4. Le problème 

 ẏ = y 2


y(0) = 1



I = R

1 
admet une solution maximale ] − ∞, 1[,
1−t
5. Attention : le temps d’existence ne dépend pas de manière sympathique du second
membre : le problème
ẏ = y 2 − εy 3
(

y(0) = 1

admet une solution globale définie sur ] − Tε , +∞[ avec Tε < ∞ et même
Tε → ∞, ε → 0.
6. Attention si le second membre n’est pas “régulier”, on perd l’unicité : le problème
 p

 ẏ = 2 |y|(1 + y)


y(0) = 0



I = R+

3
admet (évidemment) (R+ , 0) pour solution globale, mais aussi toutes les solutions
maximales
ya = 0 t ∈ [0, a]
(
a ≥ 0,
ya = tan2 (t − a), t ∈ [a, a + π2 ].

(on peut montrer qu’il n’y a pas d’autre solution maximale).

1.3 Lemme de Gronwall


Lemme 1.6 Soit t0 ∈ I et u : I → R+ une fonction positive et continue, et deux fonctions
f, g ∈ C(I, R+ ) telles que
Z t
∀ t ∈ I, u(t) ≤ f (t) + u(s)g(s)ds .
t0

Alors Z t Z t 
∀ t ∈ I, u(t) ≤ f (t) + f (s)g(s) exp g(σ)dσ ds .
t0 s

Preuve. On considère tout d’abord le cas t ≥ t0 .


On définit la fonction Z t
Y (t) = u(s)g(s)ds ≥ 0.
t0

On a Y (t0 ) = 0, et par hypothèse


Y 0 (t) = u(t)g(t) ≤ f (t)g(t) + g(t)Y (t).
On calcule alors
d − t g(s)ds
R   − R t g(s)ds
Y (t)e t0 ≤ f (t)g(t) + g(t)Y (t) − Y (t)g(t) e t0
dt
Rt
− g(s)ds
= f (t)g(t)e t0
.
En intégrant entre t0 et t, on trouve
Rt Z t Rs
− g(s)ds − g(σ)dσ
Y (t)e t0
≤ f (s)g(s)e t0
ds
t0

d’où Z t Rt
g(σ)dσ
Y (t) ≤ f (s)g(s)e s ds.
t0

Mais par hypothèse, on a


u(t) ≤ f (t) + Y (t)
ce qui donne le résultat.

4
On considére maintenant le cas t ≤ t0 .
Dans cette situation, on a Y (t) ≤ 0, et
Y 0 (t) ≤ u(t)g(t) − g(t)Y (t).
En calculant comme précédemment, on trouve
d Rt
g(s)ds
 Rt
g(s)ds
Y (t)e t0 ≤ f (t)g(t)e t0 .
dt
et en intégrant entre t et t0 ,
Rt Z t0 Rs
t0 g(s)ds g(σ)dσ
−Y (t)e ≤ f (s)g(s)e t0 ds
t
d’où Z t0 Rs
g(σ)dσ
−Y (t) ≤ f (s)g(s)e t ds
t
Z t Rt
≤ f (s)g(s)e| s g(σ)dσ|
ds
t0
et on conclut en remarquant que l’hypothèse s’écrit dans ce cas
u(t) ≤ f (t) − Y (t).

Corollaire 1.7 (f ≡ c1 ) Sous les hypothèses précédentes, si f est une fonction constante
égale à c1 ≥ 0, on a
 Z t 
∀ t ∈ I, u(t) ≤ c1 exp g(σ)dσ .
t0

Preuve. Le lemme précédent montre que


 Z t Z t 

u(t) ≤ c1 1 + g(s) exp g(σ)dσ ds .
t0 s

Supposons que t ≥ t0 , on a
Z t Z t
d  
g(s) exp g(σ)dσ = − exp g(σ)dσ
s ds s
ce qui donne directement le résultat. Le résultat pour t ≤ t0 se montre de manière iden-
tique.

Remarque 1.8 Si f ≡ 0 dans le corollaire précédent, le résultat montre que u ≤ 0.

Corollaire 1.9 (f ≡ c1 , g ≡ c2 ) Sous les hypothèses précédentes, si f est une fonction


constante égale à c1 ≥ 0 et g une fonction constante égale à c2 ≥ 0 alors on a
∀ t ∈ I, u(t) ≤ c1 exp(c2 |t − t0 |).

5
2 Le cas Lipschitz
On se place toujours dans un espace de Banach E. Soit D un ouvert connexe de E, I
un intervalle de R d’intérieur non vide, et f : I × D → E.

Définition 2.1
1. On dit que f est (globalement) Lipschitzienne par rapport à x si il existe L ≥ 0
telle que

∀ x1 , x2 ∈ D, ∀ t ∈ I, kf (t, x1 ) − f (t, x2 )k E ≤ Lkx1 − x2 k E .

2. On dit que f est localement Lipschitzienne par rapport à x si pour tout (t0 , x0 ) ∈
I × D, il existe un voisinage V de (t0 , x0 ) et une constante L(t0 , x0 ) ≥ 0 tels que

∀ (t, x1 ) ∈ V, ∀ (t, x2 ) ∈ V, kf (t, x1 ) − f (t, x2 )k E ≤ L(t0 , y0 )kx1 − x2 k E .

On rappelle le

Théorème 2.2 (du point fixe) Soit X un fermé de E, et F : X → X contractante. Alors


F admet un unique point fixe y ∈ X tel que F (y) = y.

2.1 Le cas global


Théorème 2.3 (Existence et unicité globale) On suppose que D = E, et f ∈ C(I × D)
une fonction globalement lipschitzienne par rapport à x. Alors pour tout y0 ∈ D, il
existe une unique solution globale au problème de Cauchy (1). De plus toute solution
locale est une restriction de celle-ci.

Preuve. On suppose tout d’abord que l’intervalle I est fermé et borné.


On pose E = C(I, E) l’ensemble des fonctions continues de I dans E, muni de la norme
kyk E = max e−2L|t−t0 | ky(t)k E
t∈I

où L est la constante de Lipschitz de f . Il est clair que E est un espace vectoriel normé
complet (car I est compact).
On définit la transformation T : E → E par la formule
Z t
∀ t ∈ I, (T y)(t) = y0 + f (s, y(s)) ds.
t0

Il est clair que T envoie bien E dans lui-même.

6
Supposons que t ≥ t0 . On a
Z t
kT y1 (t) − T y2 (t)k E ≤ Lky1 (s) − y2 (s)k E ds
t
Z 0t
≤ Le2L|s−t0 | ky1 − y2 k E ds
t0
1 2L|t−t0 |
≤ 2
e ky1 − y2 k E
la même inégalité étant valable pour t ≤ t0 . On trouve donc que pour tout y1 et y2 dans
E, on a
1
kT y1 − T y2 k E ≤ ky1 − y2 k E .
2
L’application T est donc contractante de E dans E et le théorème du point fixe montre
l’existence d’une unique solution.
Si maintenant I n’est pas fermé et borné. Alors on peut toujours écrire
[
I= In , avec pour tout n, In ⊂ In+1 et In fermé et borné.
n∈N

Soit yn la soluton sur In . Par unicité, on a


yn+1 In
= yn .
On définit alors y par la formule y = yn sur In , ce qui donne l’existence et l’unicité de la
solution.
˜ I˜ ⊂ I, une autre solution. On décompose I˜ = S
Soit maintenant (ỹ, I), ˜
n∈N In avec
I˜n = I˜ ∩ In borné. Par unicité, on a ỹ ˜ = y ˜ , ce qui montre que ỹ = y ˜.
In In I

Proposition 2.4 Dans le cadre du théoréme précédent, soit y1 et y2 deux solutions. Alors
∀ t ∈ I, ky1 (t) − y2 (t)k E ≤ eL|t−t0 | ky1 (t0 ) − y2 (t0 )k E .

2.2 Existence locale


On considère toujours I un intervalle d’intérieur non vide de R, et D un ouvert
connexe d’un espace de Banach E. Pour y0 ∈ D et r > 0, on définit la boule
Br (y0 ) = {y ∈ E, | ky − y0 k E ≤ r}.
Théorème 2.5 (Existence locale) Soit f ∈ C(I×D, E). Soient η, r, M et L des constantes
telles que
[t0 − η, t0 + η] × Br (y0 ) ⊂ I × D

∀ (t, y) ∈ [t0 − η, t0 + η] × Br (y0 ), kf (t, y)k E ≤ M

∀ (t, y1 ), (t, y2 ) ∈ [t0 − η, t0 + η] × Br (y0 ), kf (t, y1 ) − f (t, y2 )k E ≤ Lky1 − y2 k E

7
Alors il existe (J, y) une solution locale de (1), avec
r 
J = [t0 − η̃, t0 + η̃], où η̃ = min η, .
2M
Remarque 2.6 Si f est localement Lipschitzienne, alors il est clair qu’elle vérifie les
hypothèses précédentes.

Preuve. Soit θ ∈ C 1 (R+ ) une fonction telle que


θ(x) = 1 x ≤ 1/2

θ(x) = 0 x ≥ 1

|θ(x)| ≤ 1 x ∈ [1/2, 1]
On pose

 θ ky − y0 k E f (t, y) (t, y) ∈ [t − η, t + η] × B (y ),
  
0 0 r 0
F (t, y) = r

 0 (t, y) ∈ [t0 − η, t0 + η] × E\Br (y0 )
On montre facilement que F (t, y) est globalement lipschitzienne sur [t0 − η, t0 + η] × E.
De plus, on a kF (t, y)k E ≤ M . Par le théoréme précédent, on en déduit qu’il existe une
unique solution globale au problème
( 0
y (t) = F (t, y(t))

y(t0 ) = y0 .
De plus, en utilisant l’équation intégrale, on voit facilement que
ky(t) − y(t0 )k E ≤ M |t − t0 |.
Maintenant, par définition de η̃ on a
r
|t − t0 | ≤ η̃ =⇒ |t − t0 | ≤
2M
et donc
r
ky(t) − y(t0 )k E ≤ .
2
Or pour t et y tels que |t − t0 | ≤ η̃ et y ∈ Br (y0 ) on a F (t, y) = f (t, y), et donc y est
solution de (1) sur l’intervalle annoncé.

2.3 Unicité locale


Lemme 2.7 Soit f une fonction localement lipschitzienne par rapport à x, et soient J ⊂ I
un compact de I et K ⊂ D un compact de D. Alors f est uniformément lipschitizienne
par rapport à x sur J × K.

8
Preuve. Soit M = max(t,y)∈J×K kf (t, y)k E . Par hypothèse, pour tout (t, y) ∈ J × K, il
existe L(t, y) et un voisinage Ut × Vx de (t, y) dans I × D tels que
∀ (s, y1 ), (s, y2 ) ∈ Ut × Vx , kf (s, y1 ) − f (s, y2 )k E ≤ L(t, y)ky1 − y2 k E .
On peut toujours supposer que Vy = Br(y) (y) pour un certain r(y) > 0. Puisque J × K
est compact, il existe (ti , yi ) ∈ J × K, i = 1, . . . , n, tels que
n
[
J ×K ⊂ Uti × Br(yi )/2 (yi ).
i=1

On pose alors
L = max L(ti , yi ) et r = min r(yi ).
i=1,...,n i=1,...,n

Soient (t, y1 ) et (t, y2 ) des élements de J × K. Il existe un indice i0 tel que


(t, y1 ) ∈ Uti0 × Br(yi0 )/2 (yi0 ).
On distingue alors deux cas :
Cas 1 : ky1 − y2 k E ≤ r/2. Dans ce cas on a y2 ∈ Br (yi0 ) et donc par hypothèse
kf (t, y1 ) − f (t, y2 )k E ≤ Lky1 − y2 k E .
Cas 2 : ky1 − y2 k E > r/2. On a alors
4M
ky1 − y2 k E .
kf (t, y1 ) − f (t, y2 )k E ≤ 2M ≤
r
On conclut en prenant la constante de Lipschitz L0 := max 4M

r
,L .

Théorème 2.8 (Unicité locale) Soit f : I × D → E une fonction continue, locale-


ment lipschitzienne par rapport à x. Soient (J1 , y1 ) et (J2 , y2 ) deux solutions locales
du problème de Cauchy ( 0
y (t) = f (t, y(t))

y(t0 ) = y0 .
Alors
y1 J1 ∩J2
= y2 J1 ∩J2
.

Preuve. Soit I ⊂ J1 ∩ J2 un intervalle compact, et soit K = y1 (I) ∪ y2 (I) qui est donc
compact. Le lemme précédent implique que f est globalement lipschitzienne sur J × K.
On en déduit (voir la Proposition 2.4) que y1 I = y2 I . Le fait que I soit un compact
arbitraire de J1 ∩ J2 montre le résultat.

Corollaire 2.9 Sous les hypothèses du théorème précédent, si deux solutions de l’équation
y 0 (t) = f (t, y(t)) coı̈ncident en un point, elle coı̈ncident sur l’intersection de leurs do-
maines de définition.

9
2.4 Solution maximale
Corollaire 2.10 (Existence d’une unique solution maximale) Sous les hypothèses du théorème
2.8, il existe une unique solution maximale (J, y) au problème (1). De plus, J est ouvert
dans I.

Preuve. On pose
t+ = sup

t̃ | il existe une solution sur [t0 , t̃] .
et
t− = inf

t̃ | il existe une solution sur [t̃, t0 ] .
On définit une solution sur ]t− , t+ [ en “recollant les morceaux” de la façon suivante : si
t ∈]t− , t+ [ avec t > t0 , alors il existe t̃ > t tel que ([t0 , t̃], ỹ) soit solution. On pose alors
y(t) = ỹ(t). Par unicité locale, ceci définit bien une solution.
Supposons maintenant que t+ soit dans l’intérieur (relatif) de I. Alors on peut résoudre le
problème ( 0
ỹ (t) = f (t, ỹ(t))

ỹ(t+ ) = y(t+ )
ce qui fournit une solution sur [t+ , t+ + ε] pour un certain ε > 0. Ceci est impossible. Le
même raisonnement montre que t+ et t− ne sont pas dans l’intérieur de I.

3 Le cas continu en dimension finie


3.1 Le théoréme d’Ascoli
Définition 3.1 Soit (gn )n∈N une suite de fonctions de I and E. On dit que (gn )n∈N est
équicontinue si

∀t ∈ I, ∀ε > 0, ∃δ > 0, ∀n ∈ N, ∀t0 ∈ I, |t − t0 | < δ =⇒ kgn (t0 ) − gn (t)| < ε

Théorème 3.2 Soit (gn )n∈N une suite de fonctions de I, intervalle fermé borné de R, dans
E, équicontinue et de plus uniformément bornée par M ∈ R+ , i.e.

∀n ∈ N, kgn k∞ := sup kgn (t)kE ≤ M.


t∈I

On peut extraire une sous-suite (gnk )k∈N de (gn )n∈N qui converge uniformément sur I vers
une fonction g continue sur I.

La preuve ne fait pas partie du programme de ce cours.

10
3.2 Solutions approchées
On suppose ici que E = Rd est de dimension finie. I est toujours un intervalle de R
et D ⊂ E un ouvert connexe. On considère à nouveau le problème de Cauchy
( 0
x (t) = f (t, x(t)),

x(t0 ) = x0

avec f : I × D → E continue.

Définition 3.3 Soit ε > 0, J ⊂ I et x : J → D. On dit que (J, x) est une ε-solution
approchée si
• J est d’intérieur non vide et t0 ∈ J,
• x ∈ C(J; D),
• x(t0 ) = x0 ,
• pour tout t ∈ J, Z t
x(t) − x0 − f (s, x(s)) ds ≤ ε.
t0 Rd

Lemme 3.4 Soit f ∈ C(I × D; E) et (t0 , x0 ) ∈ I × D. Soient η, r > 0 tels que Iη =


[t0 − η, t0 + η] ⊂ I et Br (x0 ) ⊂ D. On pose
r
Cη,r = Iη × Br (x0 ), M = max kf (t, x)k Rd et η̃ = min(η, ).
(t,x)∈Cη,r M

Alors pour tout ε > 0, il existe une ε-solution approchée xε ∈ C(Iη̃ , Br (x0 )). De plus,

∀ (t, s) ∈ Iη̃2 , kxε (t) − xε (s)k Rd ≤ M |t − s|.

Preuve. L’ensemble Cη,r étant compact, la fonction f Cη,r est uniformément continue
(hypothèse de dimension finie). Donc pour tout ε > 0, il existe δ > 0 tels que
ε
max(kx − x̄k Rd , |t − t̄|) < δ =⇒ kf (t, x) − f (t̄, x̄)k Rd ≤ . (3)
η̃
Considérons alors des points tj , j = −n, . . . , n, tels que
t0 − η̃ = t−n < t−n+1 < · · · < t0 < · · · < tn = t0 + η̃
et tels que
δ 
max |ti+1 − ti | ≤ min δ, .
j=−n,...,n−1 M
On définit alors
xε (ti ) + (t − ti )f (ti , xε (ti )) pour t ∈ [ti , ti+1 ], i ≥ 0,
(
xε (t) =
xε (ti+1 ) + (t − ti+1 )f (ti+1 , xε (ti+1 )) pour t ∈ [ti , ti+1 ], i ≤ −1.

11
A priori, cette fonction est définie sur un intervalle du type [t−K̃ , tK ] avec K̃, K ≤ n
où K est défini comme le plus petit indice pour lequel il existe t ∈ [tK−1 , tK ] tel que
xε (ti ) + (t − ti )f (ti , xε (ti )) ne soit pas dans Br (x0 ) (K̃ est défini similairement).
Pour t ∈ [t0 , tK ] on a
K−1
X
kxε (t) − xε (t0 )k Rd ≤ kxε (t) − xε (tK−1 )k Rd + kxε (t` ) − xε (t`−1 )k Rd
`=1
≤ (t − tK−1 )kf (tK−1 , xε (tK−1 ))k Rd
+ K−1
P
`=1 (t` − t`−1 )kf (t`−1 , xε (t`−1 ))k Rd

≤ M (t − t0 )

≤ M η̃ ≤ r.
Ainsi on obtient que xε ne sort pas de Br (x0 ) et ceci montre que K = n. Le même
raisonnement montre que K̃ = n, et de plus pour t et s dans Iη̃ on a
kxε (t) − xε (s)k Rd ≤ M |t − s|. (4)
Enfin, pour 0 ≤ ` < n et t ∈ [t0 , t`+1 ], on a
Z t
xε (t) − x0 − f (s, xε (s)) ds
t0

`−1
X Z t
≤ (t − t` )f (t` , xε (t` )) + (ti+1 − ti )f (ti , xε (ti )) − f (s, xε (s)) ds
i=0 t0

Z t `−1 Z
X ti+1
= f (t` , xε (t` )) − f (s, xε (s)) ds + f (ti , xε (ti )) − f (s, xε (s)) ds
tl i=0 ti

Notons que pour un i fixé et s ∈ [ti , ti+1 ], on a évidemment |s − ti | < δ et


δ
kxε (ti ) − xε (s)k Rd ≤ M |ti − s| ≤ M = δ.
M
L’inégalité (3) peut donc s’appliquer, et on obtient
Z t
ε
kxε (t) − x0 − f (s, xε (s)) dsk Rd ≤ (t − t0 ) ≤ ε.
t0 η̃
Le même raisonnement pour t ≤ t0 montre le résultat.

Théorème 3.5 (Cauchy Peano) Avec les notations et les hypothèses utilisées dans le
lemme précédent, il existe au moins une solution locale définie sur Iη̃ . De plus x ∈
C 1 (Iη̃ , Br (x0 )).
1
Preuve. On utilise le lemme précédent, avec ε = n
. On note xn ∈ C(Iη̃ , Br (x0 )) la

12
1
n
-solution approchée. Le point important ici est que η̃ et M ne dépendent pas de n dans
l’estimation (4).
On utilise le théorème d’Ascoli pour la suite (xn )n∈N . En vertu de l’estimation (4), (xn )n∈N est
équicontinue (il suffit de prendre δ = Mε ). De plus, on a montré que
∀n ∈ N, ∀t ∈ Iη̃ , kxn (t)kRd ≤ r
et donc (xn )n∈N est uniformément bornée. On en déduit donc qu’il existe une sous-suite
(xnk )k∈N qui converge vers x ∈ C(Iη̃ , Br (x0 )). Enfin, pour tout k ∈ N, on a
Z t
1
xnk (t) − x0 − f (s, xnk (s)) ds ≤ ,
t0 Rd nk
ce qui montre que l’expression du membre de gauche tend vers 0 quand k tend vers +∞.
Mais on a vu que xnk tend vers x uniformément sur Iη̃ . Ceci implique en particulier que
Z t Z t
f (s, xnk (s)) ds −→ f (s, x(s)) ds, pour k → +∞.
t0 t0

On en déduit donc que


Z t
∀ t ∈ Iη̃ , x(t) − x0 − f (s, x(s)) ds = 0,
t0

ce qui montre le résultat.

Remarque 3.6 En dimension infinie, le théorème est faux. Il faut faire une hypothèse du
type que l’image f (Iη̃ , Br (y0 )) est compacte.

Théorème 3.7 Sous les hypothèses précédentes, il existe une solution maximale définie
sur un intervalle J ouvert dans I.

Remarque 3.8 En fait pour toute solution locale, il existe une solution maximale qui la
prolonge.

4 Dépendance continue
On considère cette fois f : I × E → E une fonction globalement Lipschitzienne par
rapport à y. On note t → y(t, y0 ) la solution du problème de Cauchy

ẏ(t) = f (t, y(t)),

y(t0 ) = y0 .

La proposition suivante montre la continuité de la solution par rapport à la condtion ini-


tiale y0 .

13
Proposition 4.1 Avec les notations précédentes, pour tout intervalle J compact inclus
dans I, l’application
E → C(J, E)
y0 7→ y0 (t, y0 )
est continue, et de plus pour tout y0 et ỹ0 dans E, on a l’estimation

∀ t ∈ J, ky(t, y0 ) − y(t, ỹ0 )k E ≤ eL|t−t0 | ky0 − ỹ0 k E

Preuve. On a par définition pour tout J ⊂ I compact,


Z t
∀ t ∈ J, y(t, y0 ) = y0 + f (s, y(s, y0 ))ds.
t0

d’où Z t
y(t, y0 ) − y(t, ỹ0 ) = y0 − ỹ0 + f (s, y(s, y0 )) − f (s, y(s, ỹ0 )) ds,
t0

ce qui donne la majoration


Z t
∀ t ∈ J, ky(t, y0 ) − y(t, ỹ0 )k E ≤ ky0 − ỹ0 k E + L ky(s, y0 )) − y(s, ỹ0 )k E ds.
t0

Le lemme de Gronwall donne alors immédiatement le résultat.


On vérifiera en exercice qu’en fait l’application

J ×E → E
(t, y0 ) 7→ y(t, y0 )

est continue.
On se place maintenant dans le cas localement Lipschitz décrit plus haut.

Proposition 4.2 Avec les notations habituelles, soit f : I × D → E une fonction locale-
mentl lipschitizienne. Alors pour tout y0 dans D, il existe un voisinage V de y0 et η > 0 tel
que pour tout ỹ0 dans V, il existe une unique solution sur l’intervalle Iη = [t0 − η, t0 + η].
De plus l’application
V → C(Iη , D)
ỹ0 7→ y( · , ỹ0 )
est continue.

Preuve. On reprend la construction du théorème 2.5 (Existence d’une unique solution).


Partant de l’hypothèse f continue et localement lipschitzienne sur [t0 −η, t0 +η]×Br (y0 ),
on a obtenu l’existence d’une solution unique sur l’intervalle [t0 − η̃, t0 + η̃] avec η̃ =
min(η, r/(2M )). De plus, la solution obtenue satisfait
r
ky(t, y0 ) − y0 kE ≤ ,
2

14
de sorte que y(t, y0 )) ne “sort” pas de la boule de centre y0 et de rayon r/2. Considérons
maintenant ỹ0 ∈ Br/4 (y0 ). On peut à nouveau construire une solution sur un intervalle
[t0 − µ, t0 + µ] en prenant cette fois µ = min(η, r/(4M )), de sorte que
r
ky(t, ỹ0 ) − ỹ0 kE ≤ .
4
Ainsi, on a :
r
ky(t, ỹ0 ) − y0 kE ≤ ky(t, ỹ0 ) − ỹ0 kE + kỹ0 − y0 kE ≤ ,
2
c’est-à-dire que y(t, ỹ0 ) ne sort pas de la boule Br/2 (y0 ) sur l’intervalle
[t0 − µ, t0 + µ] ⊂ [t0 − η, t0 + η].
Donc les deux solutions y(t, y0 ) et y(t, ỹ0 ) sont bien définies sur [t0 − µ, t0 + µ] et restent
dans Br/2 (y0 ). Elles coincident donc avec les solutions de
ẏ = F (t, y)
avec conditions initiales y(t0 , y0 ) = y0 et y(t, ỹ0 ) = ỹ0 . Comme F est globalement lip-
schitzienne, on a la dépendance continue.

On se place ci-dessous dans le cas D = E = Rd .


Proposition 4.3 Soit f : R×Rd → Rd une fonction continue et localement lipschitzienne
par rapport à y, et soient y0 ∈ Rd , t0 ∈ R, et (J, y) la solution maximale du problème de
Cauchy (
ẏ(t) = f (t, y(t))
y(t0 ) = y0 .
Alors on peut écrire J sous la forme J =]T − (y0 ), T + (y0 )[ et de plus, pour tout ε > 0, il
existe un Rε > 0 tel que
 1
 T + (ỹ0 ) ≥ T + (y0 ) − ε (resp.
 si T + (y0 ) = +∞)
ε
∀ ỹ0 ∈ BRε (y0 ),
 T − (ỹ ) ≤ T − (y ) + ε (resp. − 1 si T − (y ) = −∞)

0 0 0
ε
En outre, l’application (respectivement la même application où les bornes de l’intervalle
de définition sont modifiées en ±1/ε selon la valeur de T ± (y0 ))
BRε (y0 ) → C([T − (y0 ) + ε, T + (y0 ) − ε], Rd )
(5)
ỹ0 7→ y( · , ỹ0 )
est Lipschitz.
Preuve. On pose
1  1 − 
Tε+ = min +
, T (y0 ) − ε et Tε− = max − , T (y0 ) + ε ,
ε ε
15
et
Mε = sup ky(t, y0 )k Rd .
t∈[Tε− ,Tε+ ]

Soit θ ∈ C 1 (R+ ) une fonction satisfaisant


si x ∈ [0, 1]

 1

θ(x) = 0 si x ≥ 2

∈ [0, 1] pour tout x ∈ R+ .

On pose
 kyk 
Rd
Fε (t, y) = θ f (t, y).
2M
Il est clair que y [Tε− ,Tε+ ] est solution du problème
(
ẏ(t) = Fε (t, y(t))
(6)
y(t0 ) = y0 .
Pour tout ỹ0 ∈ Rd , on note yε ( · , ỹ0 ) la solution globale (car Fε est globalement lipschit-
zienne par rapport à y) correspondant au système (6) ayant pour valeur initiale ỹ0 en t0 .
On a alors (grâce au lemme de Gronwall) que pour tout t ∈ [Tε− , Tε+ ],
kyε (t, ỹ0 ) − yε (t, y0 )k Rd ≤ eLε |t−t0 || ky0 − ỹ0 k Rd
On voit donc que si
kỹ0 − y0 k Rd ≤ Rε := Mε exp − Lε max(|Tε− − t0 |, |Tε+ − t0 |)


on a
kyθ (t, ỹ0 ) − yε (t, y0 )k Rd ≤ Mε
pour t ∈ [Tε− , Tε+ ]. En particulier, pour tout ỹ0 ∈ BR (y0 ) et tout t ∈ [Tε− , Tε+ ], on a
kyε (t, ỹ0 )k ≤ 2Mε , et donc yε est en fait solution du problème avec f (t, y) comme second
membre, c’est-à-dire qu’on a yε (t, ỹ0 ) = y(t, ỹ0 ). Ceci montre donc que pour tout ỹ0 ∈
BRε (y0 ) on a T − (ỹ0 ) ≤ Tε− et T + (ỹ0 ) ≥ Tε+ . La majoration précédente montre de plus
que l’application (5) est Lipschitz.

Remarque 4.4 Si f est de classe C 1 , alors on peut montrer (exercice) que l’application
y0 7→ y(t, y0 ) est C 1 et que de plus l’application
t 7→ Y (t) = Dy0 y(t, y0 ) ∈ L(Rd , Rd )
est solution du problème variationnel
(
Ẏ (t) = Dy f (t, y(t)) · Y (t)
Y (0) = IdRd

16
Remarque 4.5 On peut avoir une solution globale pour un y0 mais pas pour un voisinage
de ce même y0 . Par exemple, le problème de Cauchy
(
ẏ(t) = y(t)2
y(0) = y0

admet pour solution y(t) ≡ 0 si y0 = 0 (solution globale), mais


1
y(t) = 1
−t + y0

dès que y0 6= 0. On voit donc que T + (0) = +∞, T − (0) = −∞, mais que pour y0 > 0,
T + (y0 ) = y10 et T − (y0 ) = −∞.

5 Principe de majoration a priori. Solutions globales.


On considère maintenant f : I × D → Rd un fonction continue, D ⊂ Rd un ouvert
connexe, et I un intervalle ouvert de R.

Théorème 5.1 Soit (J, y) une solution maximale du problème


(
y 0 (t) = f (t, y(t))
y(t0 ) = y0 .

On note J =]T − , T + [. Alors


• Soit T + = sup I
• Soit lim inf t→T + d(y(t), ∂D) = 0
• Soit f (t, y(t)) n’est pas borné en T + (et donc y(t) est non borné en T + ).
De même,
• Soit T − = inf I
• Soit lim inf t→T − d(y(t), ∂D) = 0
• Soit f (t, y(t)) n’est pas borné en T − (et donc y(t) est non borné en T − ).
Si de plus f est localement lipschitzienne par rapport à y, alors l’alternative devient
• Soit T + = sup I
• Soit limt→T + d(y(t), ∂D) = 0
• Soit limt→T + ky(t)k = +∞.
et de même en T − .

Remarque 5.2 Dans le cas où I est fermé, par exemple I = [0, T ], alors soit T + = T
et T + ∈ J, soit J est ouvert en T + et alors soit f (t, y(t)) est non bornée en T + , soit
lim inf t→T + d(y(t), ∂D) = 0.

17
On va en fait démontrer un énoncé plus élémentaire du théorème précédent, dans le cas
D = E (E Banach quelconque ici) et en supposant que f est localement lipschitzienne
par rapport à y. Soit (J, y) la solution maximale du problème de Cauchy :

ẏ(t) = f (t, y(t)), t ∈ I,


y(t0 ) = y0

L’intervalle J est ouvert dans I donc de la forme J =]T − , T + [. Si T + < sup I, la solu-
tion maximale “explose” au voisinage de T + , de la manière décrite dans les théorèmes
suivants :

Théorème 5.3 (Sortie de tout compact) Soit (]T − , T + [, y) la solution maximale du problème
de Cauchy. Si T + < sup I, alors la trajectoire {y(t)}t∈]T − ,T + [ sort de tout compact au
voisinage de T + : quel que soit K compact de E, il existe TK ∈]T − , T + [ tel que, pour
tout t ∈ [TK , T + [, y(t) ∈ E/K.

Preuve. Supposons par l’absurde qu’il existe un compact K de E et une suite de points
(tn )n∈N de ]T − , T + [ tendant vers T + pour n tendant vers l’infini, tels que :
∀N ∈ N, ∃n > N, y(tn ) ∈ K.
Soit alors y + ∈ K une valeur d’adhérence de cette suite. Comme f est continue et loca-
lement lipschitzienne en sa deuxième variable, il existe η, r, L et M des réels strictement
positifs tels que :
(i) [T + − η, T + + η] × Br (y + ) ⊂ I × D,
(ii) ∀(t, y) ∈ [T + − η, T + + η] × Br (y + ), kf (t, y)kE ≤ M,
(iii) ∀(t, y1 ), (t, y2 ) ∈ [T + − η, T + + η] × Br (y + ), kf (t, y2 ) − f (t, y1 )kE ≤ Lky2 − y1 kE .
r
On pose alors η̂ = min(η, 2M ) et on se donne n tel que
η̂ r
|T + − tn | < et ky(tn ) − y + k < .
3 2
Les propriétés (i), (ii) et (iii) sont encore vraies sur [tn − η/2, tn + η/2] × Br/2 (y(tn )).
D’après le théorème d’existence locale, il existe une solution sur un intervalle [tn −α, tn +
α] avec α = min(η/2, r/(4M )) = η̂/2. Or, on a :
tn + α > T + − η̂/3 + η̂/2 > T + .
On peut donc définir un prolongement strict de la solution, ce qui contredit l’hypothèse
de maximalité de la solution.

Corollaire 5.4 (Explosion en temps fini) On suppose que E est de dimension finie. Soit
(]T − , T + [, y) la solution maximale du problème de Cauchy. Si T + < sup I, alors

lim ky(t)kE = +∞.


t→T +

18
Preuve. Il suffit d’appliquer le théorème précédent avec K = BR (0) et R > 0 aussi
grand que l’on souhaite. Ainsi, pour tout R > 0, il existe TR ∈]T − , T + [ tel que pour tout
t ∈ [TR , T + [, ky(t)kE > R. C’est très exactement dire que limt→T + ky(t)kE = +∞.

Remarque 5.5 Si E est de dimension finie, il suffit de montrer qu’une solution maximale
est bornée pour qu’elle soit globale !

Exemple 5.6 Soit I un intervalle ouvert. Considérons le problème


(
ẏ(t) = f (t, y(t))
y(t0 ) = y0

où f : I × Rd → Rd est continue et satisfait

∀ t ∈ I, ∀ y ∈ Rd , kf (t, y)kE ≤ α(t)kykE + β(t)

où α et β sont deux fonctions


R positives appartenant à L1loc (I) (c’est-à-dire que pour tout
compact J ⊂ I, on a J α < +∞). Alors on a pour tout intervalle J compact de I et tout
t ∈ J, Z t Z t
ky(t)k ≤ ky0 k + α(s)ky(s)k ds + β(s) ds
t0 t0
et donc Z t  Z t 
ky(t)k ≤ exp α(s) ds ky0 k + β(s) ds .
t0 t0
Donc y est borné sur J, et donc puisque J est arbitraire, la solution existe sur I tout entier.

Notons le cas particulier où f est Lipschitz par rapport à y, continue, et où il existe L(t) ≥
0 appartenant à L1loc (I) telle que

∀ x, y ∈ Rd , kf (t, x) − f (t, y)k E ≤ L(t)kx − yk E .

Alors on a
kf (t, y)k E ≤ L(t)kyk E + kf (t, 0)k E
qui vérifie bien les hypothèses (un fonction continue sur I est bien L1loc (I)).
Un autre cas particulier est celui où

f (t, y) = A(t)y + b(t)

où
A ∈ C(I, L(Rd ))
est une matrice dépendant du temps, et b(t) ∈ C(I, Rd ) un vecteur. On étudiera plus
amplement les systèmes linéaires dans le chapitre suivant.

19
Exemple 5.7 On considère maintenant I = R+ , t0 ≥ 0, et
2p−1
X
f (t, y) = ak y k ,
k=0

avec a2p−1 < 0. Alors on a


0 2p−1
X
y 2
= 2 ak y k+1
k=0
= 2a2p−1 y 2p + Q(y)

où Q(y) est un polynôme de degré plus petit que 2p. Il existe β une constante positive,
telles que :
∀y ∈ R, 2a2p−1 y 2p + Q(y) ≤ β.
On en déduit donc que
y 2 (t) ≤ y(t0 )2 + β(t − t0 ).
Attention au fait que la solution n’est pas globale sur R tout entier.

Exemple 5.8 (Fonction de Lyapunov). On considère maintenant un fonction f : Rd →


Rd . Supposons qu’il existe une fonction V : Rd → R, de classe C 1 , telle que

∀ y ∈ Rd , h∇V (y), f (y)i ≤ 0,

et
∀ M ≥ 0, { y | V (y) ≤ M } est borné.
Alors on a le long de tout solution
dV (y(t))
= h∇V (y(t)), ẏ(t)i = h∇V (y(t)), f (y(t))i ≤ 0,
dt
donc
∀ t ∈ R, V (y(t)) ≤ V (y(t0 ))
ce qui montre l’existence globale sur R+ .
Un cas particulier de tels systèmes concerne les systèmes gradient du type

ẏ(t) = −∇V (y(t)).

Une autre grande classe de systèmes possédant une fonction de Lyapunov est donnée par
les systèmes Hamiltonien du type

q̈ = −∇U (q)

20
qui s’écrivent encore
ṗ = −∇q H(p, q),
(

q̇ = +∇p H(p, q)
où p, q ∈ Rd et où H(p, q) = 21 pT p + U (q) est une quantité conservée le long du système.
De même, le système de Lotka-Volterra étudié en introduction est un système avec une
énergie conservée, ce qui donne l’existence globale (il s’agit en fait d’un système Hamil-
tonien à condition de faire un changement de variable).

21
Chapitre 3 : solution des équations différentielles linéaires
Philippe Chartier
20 octobre 2016

1 Systèmes différentiels linéaires


Dans cette section, E désigne un K-espace vectoriel de dimension finie d avec K = R ou K = C,
et I un intervalle ouvert de R. On étudie ici les équations différentielles linéaires du type :

ẏ(t) = A(t)y(t) + b(t) (1.1)

où A ∈ C(I; L(E)) et b ∈ C(I; E). D’après le théorème de Cauchy-Lipschitz (dans le cas d’une
fonction globalement Lipschitzienne), on est assuré de l’existence d’une solution unique sur I au
problème de Cauchy pour f (t, y) = A(t)y + b(t), et ce pour tout (t0 , y0 ) ∈ I × E.
Remarque 1.1 On confondra souvent l’endomorphisme A de L(E) et sa représentation matricielle
dans Md (K)

Exemple 1.2 1. Le système de deux équations à deux inconnues y1 (t) et y2 (t)



ẏ1 (t) = ty1 (t) + y2 (t) − 1
ẏ2 (t) = cos(t)y1 (t) + exp(t)y2 (t)

est de la forme (1.1) avec


     
y1 (t) t 1 −1
y(t) = , A(t) = et b(t) = .
y2 (t) cos(t) exp(t) 0

2. L’équation différentielle du second ordre

ÿ(t) + q(t)y(t) = 0

est également de la forme (1.1), avec y1 (y) = y(t), y2 (t) = ẏ(t), b(t) = (0, 0)T et
 
0 1
A(t) = .
−q(t) 0

1
1.1 Formule intégrale et résolvante
(i) Systèmes différentiels homogènes
On suppose dans un premier temps que b ≡ 0. On dit alors que le système est homogène.
Théorème 1.3 L’ensemble V des solutions de l’équation (1.1) avec b ≡ 0 est un sous-espace vecto-
riel de C 1 (I; E) de dimension finie d. Plus précisément, si y(t; t0 , y0 ) désigne la solution au temps t
de l’équation (1.1) avec condition initale y(t0 ) = y0 , alors l’application
ϕt0 : E → C 1 (I; E)
y0 7→ y(t; t0 , y0 )
est un isomorphisme d’espaces vectoriels entre E et V .
Preuve. Si y(t) et z(t) sont deux applications de C 1 (I; E) satisfaisant l’équation (1.1) pour tout
t ∈ I, alors il est clair qu’il en est de même pour (λy + µz)(t) pour tout (λ, µ) ∈ K2 , de sorte que V
est un sous-espace vectoriel de C 1 (I; E). L’unicité de la solution de (1.1) pour une condition intiale
donnée assure par ailleurs que ϕt0 est linéaire, injective et comme V = ϕt0 (E), c’est finalement une
isomorphisme de E and V . On a ainsi dim(V ) = dim(E) = d.

Définition 1.4 On appelle système fondamental de solutions de l’équation (1.1) avec b ≡ 0 une base
de l’espace vectoriel V .
Notons que, en vertu du théorème précédent, (y1 , . . . , yd ) est un système fondamental de solutions si
et seulement si il existe t ∈ I tel que (y1 (t), . . . , yd (t)) constitue une famille libre de E. La famille
(y1 (s), . . . , yd (s)) est alors libre pour tout s ∈ I. Cette équivalence est également une conséquence
de la proposition suivante :
Proposition 1.5 Soient y1 , . . . yd , d solutions de (1.1) avec b ≡ 0 et w ∈ C 1 (I; R), leur Wronskien,
défini par
w(t) = det (y1 (t), . . . , yd (t)) .
Alors, pour (s, t) ∈ I 2 , on a la formule suivante, dite de Liouville :
Z t 
w(t) = w(s) exp Tr(A(σ))dσ .
s
d
Preuve. On note Y (t) la matrice de M(K ) dont les colonnes sont constituées des vecteurs solutions
de (1.1) avec b ≡ 0, notées y1 (t), ..., yd (t). La matrice Y (t) est alors solution du système différentiel
matriciel
Ẏ (t) = A(t)Y (t).
Désignons alors par l1 (t), ..., ld (t) les lignes de Y (t) et par ai,j (t) les coeffiients de A(t) pour i et j
compris entre 1 et d. Il est immédiat que
d
X
∀i ∈ {1, . . . , d}, l˙i (t) = ai,j (t)lj (t).
j=1

2
En remarquant que w(t) peut aussi s’écrire
 
l1 (t)
w(t) = det  ...  ,
 
ld (t)
on a par multi-linéarité du déterminant
l1 (t)
   
l1 (t)
.. ..

 . 


 .


 l (t) 
li−1 (t)  X
d d d
  d
X  i−1  
 ˙  XX
ẇ(t) = det  li (t)  = ai,j (t) det  lj (t)  = ai,i (t)w(t) = Tr(A(t))w(t).
 
 li+1 (t)  i=1 j=1 li+1 (t)  i=1
   
i=1 
 ..   .. 
 .   . 
ld (t) ld (t)
On obtient finalement la formule de Liouville en résolvant cette équation différentielle entre s et t.

Définition 1.6 On appelle matrice résolvante du système (1.1) avec b ≡ 0, l’unique solution du
système différentiel matriciel
Ẏ (t) = A(t)Y (t) (1.2)
satisfaisant la condition initiale Y (t0 ) = Id , où Id désigne la matrice identité de Md (K), et on la
note S(t; t0 ).
Proposition 1.7 Pour tout (t, t0 , t1 ) ∈ I 3 , la matrice résolvante S vérifie l’égalité suivante
S(t; t0 ) = S(t; t1 )S(t1 ; t0 ).
En outre, pour tout (t1 , t0 ) ∈ I 2 , S(t1 ; t0 ) ∈ GLd (K) et
(S(t1 ; t0 ))−1 = S(t0 ; t1 ).
Par ailleurs, la solution du problème de Cauchy

ẏ(t) = A(t)y(t)
y(t0 ) = y0
est donnée par y(t) = S(t; t0 )x0 .
Preuve. La première égalité est une conséquence immédiate de l’unicité de la solution de (1.2) avec
condition initiale Y (t0 ) = Id et du fait que, pour toute matrice P ∈ Md (K) à coefficients constants,
on a
(Y ˙P )(t) = Ẏ (t)P = A(t)Y (t)P = A(t) (Y (t)P ) .
L’inversibilité de S(t1 ; t0 ) et l’expression de l’inverse s’obtiennent alors en prenant t = t0 dans cette
première égalité. Le dernier point est évident.

3
(ii) Systèmes différentiels non homogènes
On s’intéresse désormais au cas non homogène, c’est-à-dire au système (1.1) pour b quelconque
non nécessairement nul. Si z est une solution particulière de (1.1), alors l’ensemble des solutions
est l’espace affine de dimension finie d, z + V où V est l’espace vectoriel des solutions du système
homogène.
Le solution générale du système (1.1) est donnée par la formule intégrale suivante, dite formule
de Duhamel : Z t
∀t ∈ I, y(t) = S(t; t0 )y0 + S(t; s)b(s)ds.
t0

Elle s’obtient par la technique de variation de la constante : étant donnée S(t; t0 )y0 la solution du
système homogène, on cherche la solution de (1.1) sous la forme y(t) = S(t; t0 )z(t), de sorte que
Ṡ(t; t0 )z(t) + S(t; t0 )ż(t) = A(t)S(t; t0 )z(t) + b(t),
d’où l’on tire l’équation
ż(t) = (S(t; t0 ))−1 b(t) = S(t0 ; t)b(t).
L’intégration terme à terme entre t0 et t donne alors
Z t
z(t) = S(t0 ; s)b(s)ds + z0
t0

où z0 reste à déterminer. En reportant z(t) dans y(t), il vient


Z t
y(t) = S(t; t0 )z0 + S(t; t0 )S(t0 ; s)b(s)ds.
t0

La condition initiale impose de prendre z0 = y0 et la formule de Duhamel en découle.

1.2 Systèmes à coefficients constants


Dans le cas où les coefficients de la matrice A et du vecteur b ne dépendent pas du temps, le
système devient autonome et il possible d’expliciter complètement les solutions de (1.1). Dans cette
section, nous supposons donc que le système différentiel est de la forme
ẏ(t) = Ay(t) + b
avec A ∈ Md (K) et b ∈ Kd .

(i) Exponentielle de matrices


Définition 1.8 L’exponentielle d’une matrice A ∈ Md (K) est définie par la série (absolument)
convergente suivante

A
X 1 n
e = A .
n=0
n!

4
Si k.k désigne la norme matricielle subordonnée à la norme notée identiquement k.k définie sur Kd ,
alors
kAn k ≤ kAkn ,
de sorte que keA k ≤ ekAk . L’exponentielle de matrices possède un certain nombre de propriétés
remarquables dont celles établies dans la proposition suivante :

Proposition 1.9 Soient A et B deux matrices de Md (K) et 0 la matrice nulle de Md (K). On a :


— Si A et B commutent, alors eA+B = eA eB .
— e0 = Id et eA est inversible d’inverse e−A .
−1
— Si B est inversible, alors eBAB = BeA B −1 .
— Si A est nilpotente d’indice de nilpotence m ≤ d, alors eA = m−1 1 n
P
n=0 n! A .

Preuve. Le premier point s’obtient aisément par produit de Cauchy de séries absolument conver-
gentes. Le second en est une conséquence immédiate, puisque eA e−A = e0 = Id . Le troisième repose
n
sur l’observation que (BAB −1 ) = BAn B −1 . Enfin, le dernier point est clair dès lors que An = 0
pour n ≥ m.

Remarque 1.10 Lorsque A et B ne commutent pas comme la proposition précédente, alors eA eB


est encore, sous certaines conditions que nous n’énoncerons pas ici, l’exponentielle d’une matrice
C, qui s’obtient par la fomule de Baker-Campbell-Hausdorff. Les premiers termes de cette formule
s’écrivent
1 1 
C = A + B + [A, B] + [A, [A, B] + [B, [B, A] + . . . ,
2 12
où [A, B] désigne le commutateur de A et B, à savoir [A, B] = AB − BA.

(ii) Résolvante
Dans la cas constant, la matrice résolvante devient S(t; t0 ) = e(t−t0 )A et les solutions du système
différentiel (1.1) avec b ≡ 0 s’écrivent y(t) = e(t−t0 )A y0 . La résolvante ne dépend donc que de t − t0 ,
c’est-a-dire que S(t; t0 ) = Σ(t − t0 ) où Σ(t) = etA et la propriété multiplicative devient

∀(s, t) ∈ I 2 , Σ(s + t) = Σ(s)Σ(t).

Ainsi, Σ(.) est un homomorphisme de groupes de (R, +) dans (GLd (K), ·).

(iii) Calcul des solutions du système homogène


Il est aisé de voir que si y0 est un vecteur propre de A associé à la valeur propre λ, alors t 7→
eλ(t−t0 ) y0 est solution du problème de Cauchy

ẏ(t) = Ay(t)
.
y(t0 ) = y0

5
En effet, dtd eλ(t−t0 ) y0 = λeλ(t−t0 ) y0 = A(eλ(t−t0 ) y0 ) = Ay(t). Plus généralement, si A est diagonali-
sable, c’est-à-dire s’il existe P ∈ GLd (K) et D ∈ Md (K) diagonale, telles que A = P DP −1 , alors
les solutions de (1.1) avec b ≡ 0 s’obtiennent par le changement de variable z(t) = P −1 y(t). Le
vecteur z(t) vérifie en effet les équations

ż(t) = P −1 AP z(t) = Dz(t)



,
z(t0 ) = z0 = P −1 y0

dont la solution est donnée par z(t) = etD z0 . Donc y(t) = P etD P −1 y0 . Lorsque A n’est pas diagona-
lisable, il faut recourir à sa forme de Jordan. On rappelle donc le résultat :

Proposition 1.11 Soit A ∈ Md (K) une matrice dont le polynôme caractéristique PA (x) est scindé
sur K, de la forme
l
Y
d
PA (x) = (−1) (x − λj )mj
j=1

où les λj sont les l valeurs propres distinctes de A de multiplicités algébriques respectives mj (avec
Pl
j=1 mj = d) . La matrice A admet alors la décomposition de Jordan suivante : il existe P ∈
GLd (K) telle que

Jµ1
 
 Jµ2 
..
 
P −1 AP =  . (1.3)
 

 .. 
 . 
Jµr

où Jµ est un bloc de Jordan, c’est-à-dire une matrice de la forme


 
µ 1 0
. . . .. 
 0 µ 1 . 

 . ... ... 
 .. 0 
 
 .
 ..

µ 1 
0 ... ... 0 µ

et où les µj ∈ {λ1 , . . . , λl } ne sont pas forcément disctincs (à une valeur propre peuvent être associés
plusieurs blocs de Jordan) et où pour tout j = 1, . . . , l, on a
X
dim(Jµq ) = mj .
q=1,...,r/µq =λj

6
L’exponentielle d’un bloc de Jordan Jµ = µIm + Nm , où Nm = Jµ − µIm est nilpotente d’indice de
nilpotence m, s’obtient par application du premier point de la proposition précédente ; puisque Im et
Nm commutent, on a : !
m−1
X tn
etJµ = etµ Nmn
.
n=0
n!
Il devient ainsi aisé de calculer les solutions du système homogène dans le cas où K = C, puisque C
étant un corps algébriquement clos, tout polynôme y est scindé.

Proposition 1.12 Soit A ∈ Md (C) une matrice de polynôme caractéristique


l
Y
d
PA (x) = (−1) (x − λj )mj
j=1

où les λj sont les l valeurs propres distinctes de A de multiplicités algébriques respectives mj (avec
Pl
j=1 mj = d) . Pour tout j ∈ {1, . . . , l}, il existe mj solutions indépendantes de l’équation ẏ(t) =
Ay(t) de la forme
yj,k (t) = etλj pj,k (t), k = 1, . . . , mj ,
d
 tλpj,k (t) est un polynôme à coefficients dans C de degré au plus k − 1. L’ensemble de ces solutions
où
e j pj,k (t); j = 1, . . . , l; k = 1, . . . , mj constitue un système fondamental de solutions.

Preuve. En vertu de la proposition précédente, il existe une matrice P ∈ GLd (C) telle que P −1 AP
soit de la forme (1.3). En effectuant le changement de variable z = P −1 y, le système (1.1) se
“découple” en r systèmes indépendants
żq (t) = Jµq zq (t), q = 1, . . . , r,
avec (z1T , . . . , zrT )T = z. Si dq désigne la dimension de ce sous-système (dq = dim(Jµq )), alors il
possède dq solutions indépendantes de la forme
dq −k n dq −k n
! !
Xt Xt
etµq Ndnq zq,k = etµq zq,k+n , k = 1, . . . , dq ,
n=0
n! n=0
n!
où les zq,kPdésignent les vecteurs de la base canonique de Cdq . A une valeur propre λj sont donc
associées q/µq =λj nq = mj solutions indépendantes de la forme etλj pj,k (t) avec pj,k (t) de degré au
plus k − 1.
Dans le cas où K = R, les solutions revêtent une forme plus complexe, en raison du fait que R n’est
pas algébriquement clos. Il est cependant possible d’exhiber la forme générale des solutions :
Proposition 1.13 Soit A ∈ Md (R) une matrice dont le polynôme caractéristique PA (x) est de la
forme
l
Y
d
PA (x) = (−1) (x − λj )mj
j=1

7
où les λj = αj + iβj sont les l valeurs propres distinctes de A de multiplicités algébriques respectives
mj (avec lj=1 mj = d) . Alors il existe une système fondamental de solutions de la forme
P

t 7→ tr etαj cos(βj t)a et t 7→ ts etαj sin(βj t)b

où a et b sont des vecteurs de Rd et r et s deux entiers plus petits ou égaux à mj − 1.

1.3 Groupe à un paramètre


Définition 1.14 On appelle groupe à un paramètre une application différentiable, morphisme de
groupes de (R, +) dans (GLd (K), ·).

Si A est une matrice de Md (K), alors t 7→ etA est une groupe à un paramètre. Réciproquement, si
t 7→ B(t) ∈ Md (K) est une groupe à un paramètre, on a, en posant A = B 0 (0) :
 
0 B(t + h) − B(t) B(h) − B(0)
B (t) = lim = lim B(t) = AB(t),
h→0 h h→0 h
où l’on a utilisé les relations B(t + h) = B(h)B(t) et B(0) = Id . Ainsi, B(t) est solution du système
 0
B (t) = AB(t)
,
B(0) = Id

et s’écrit donc B(t) = etA . La matrice A est dite générateur du groupe.


Exemple 1.15 1. Pour A = Id , on a {etA , t ∈ R} = {et Id , t ∈ R}. Le groupe à un paramètre
de générateur A est donc le groupe des homothéties de rapport strictement positif.
2. Le groupe à un paramètre de générateur
 
0 −1
A= ,
1 0

est le groupe des matrices de rotations


 
tA cos(t) − sin(t)
e = .
sin(t) cos(t)

1.4 Equations linéaires scalaires d’ordre supérieur


On s’intéresse ici aux équations différentielles du type :

z (n) (t) + an−1 (t)z (n−1) (t) + . . . + a1 (t)z (1) (t) + a0 (t)z(t) = g(t), (1.4)

où les applications ak , pour k = 0, . . . , n − 1, et g, sont supposées continues de l’intervalle I dans


R. On suppose par ailleurs que z ∈ C n (I; R). Une telle équation est dite d’ordre n en raison de
l’occurence de la dérivée n-ième de z.

8
(i) Transformation en un système d’ordre 1
En posant y(t) = (z(t), z 0 (t), . . . , z (n−1) (t))T , b(t) = (0, . . . , 0, g(t))T et en prenant pour A la
matrice compagnon
 
0 1 0 ... 0
. .. ..
0 0 1 .
 
 
A(t) = 
 .
.. . .. . .. ,

 0 
 0 ... ... 0 1 
−a0 (t) −a1 (t) . . . −an−2 (t) −an−1 (t)

l’équation (1.4) se réécrit sous la forme d’un système différentiel linéaire (1.1) d’ordre 1 et y est solu-
tion de (1.1) si et seulement si z est solution de (1.4) . Ainsi, pour tout t0 ∈ I, et tout (z0 , . . . , zn−1 )T ∈
Rn , il existe une solution unique z(t; z0 , . . . , zn−1 ) de (1.4) satisfaisant les conditions intiales z(t0 ) =
z0 , z 0 (t0 ) = z1 , ..., z (n−1) (t0 ) = zn−1 . La structure de l’espace des solutions est également une
conséquence de cette réécriture :
Théorème 1.16 Si g ≡ 0, l’ensemble V des solutions de (1.4) est une sous-espace vectoriel de di-
mension n de C n (I; R). De plus, l’application

Rn → C n (I; R)
(z0 , . . . , zn−1 )T 7→ z(t; z0 , . . . , zn−1 ),

est un isomorphisme d’espaces vectoriels de Rn dans V . Si g n’est pas nulle, l’ensemble des solutions
est un sous-espace affine z̃ + V de dimension n de C n (I; R), où z̃ désigne une solution particulière
de (1.4).

(ii) Wronskien
Soient z1 , z2 , ..., zn , n solutions de l’équation (1.4) où l’on suppose que g ≡ 0. On appelle matrice
wronskienne associée à (z1 , . . . , zn ) la matrice suivante :
 
z1 (t) z2 (t) ... zn (t)
 z (1) (t) (1) (1)
z2 (t) . . . zn (t) 
 1
W (t) =  .

.. .. ..
 . . . 
(n−1) (n−1) (n−1)
z1 (t) z2 (t) . . . zn (t)

On a alors, d’après la formule de Liouville,


 Z t 
2
∀(s, t) ∈ I , w(t) = w(s) exp − an−1 (s)ds .
t0

En particulier, si an−1 ≡ 0, alors w est constant : cette propriété se traduit en termes géométriques (le
flot d’une telle équation conserve le volume).

9
(iii) Calcul des solutions
On obtient la solution générale de l’équation (1.4) en superposant une solution particulière à la
solution générale de l’équation homogène.

Cas des coefficients constants : Soient a0 , . . . , an−1 des coefficients réels et g(t) une fonction de
C(I; R). On cherche les solutions de l’équation
z (n) (t) + an−1 z (n−1) (t) + . . . + a1 z (1) (t) + a0 z(t) = g(t).
On introduit le polynôme caractéristique de l’équation :
P (X) = X n + an−1 X n−1 + . . . + a1 X + a0 .
C’est le polynôme caractéristique de la matrice compagnon A(an−1 , . . . , a0 ).

Proposition 1.17 Si λ est une racine de multiplicité m du polynôme caractéristique de A, alors les
zr (t) = tr eλt , r = 0, . . . , m − 1 sont des solutions indépendantes de l’équation (1.4) à coefficients
constants pour g ≡ 0.

Preuve. Soit donc z(t) = Q(t)eλt où Q est un polynôme de degré inférieur ou égal à m − 1. Par la
formule de Leibniz, on a
k  
(k)
X j
z (t) = Q(j) (t)(eλt )(k−j)
k
j=0
k
λt
X k!
= e Q(j) (t)λk−j .
j=0
j!(k − j)!
Il vient alors en posant an = 1
n n k
X X X k!
ak z (k) (t) = eλt ak Q(j) (t)λk−j
k=0 k=0 j=0
j!(k − j)!
n (j) n X Q(j) (t) n
X Q (t) X k!
= eλt ak λk−j = eλt P (j) (λ)
j=0
j! k=j (k − j)! j=0
j!

et l’annulation de P (j) (λ), pour j = 0, . . . , m − 1 et de Q(j) (t) pour j ≥ m permet de conclure.


L’indépendance de ces solutions est assurée par l’indépendance de leurs valeurs initiales.

Proposition 1.18 Soient λ1 , . . . , λl les racines du polynôme caractéristique, de multiplicités respec-


tives m1 , . . . , ml . Pour j = 1, . . . , l, on note αj et βj les parties réelle et imaginaire de λj . Alors il
existe un système fondamental de solutions de l’équation (1.4) à coefficients constants pour g ≡ 0 de
la forme :
t 7→ tr eαj t cos(βj t) et t 7→ ts eαj t sin(βj t),
où r et s deux entiers inférieurs ou égaux à mj − 1.

10
Cas des coefficients variables : On utilise ici la méthode de variation de la constante. Soit
(z1 , . . . , zn ) un système fondamental de solutions de l’équation homogène et soit W (·) la matrice
Wronskienne. Alors, il existe une solution particulière de l’équation (1.4) avec second membre g(t)
de la forme :
z(t) = c1 (t)z1 (t) + . . . cn (t)zn (t)
où les fonctions ci appartiennent à C 1 (I; R) pour i = 1, . . . , n et satisfont
 
  0
ċ1 (t)  .. 
 .. 
 .  = W (t)  .  .
−1  
 0 
ċn (t)
g(t)
En effet, si z(t) est une solution de (1.4), on a pour y(t) = (z(t), z 0 (t), . . . , z (n) (t))T et b(t) =
(0, . . . , 0, g(t))T , le système différentiel :
ẏ(t) = A(t)y(t) + b(t)
où A(t) est la matrice compagnon associée à (an−1 (t), . . . , a0 (t)). La résolvante S(t; t0 ) s’écrit ici
S(t; t0 ) = W (t)W −1 (t0 ) et on a plus généralement S(t; s) = W (t)W −1 (s). La formule de Duhamel
devient alors : Z t
y(t) = W (t)W −1 (t0 )y0 + W (t)W −1 (s)b(s)ds
t0
−1
et en posant c(t) = W (t)y(t), on voit que
ċ(t) = W −1 (t)b(t).

2 Comportement qualitatif des solutions


2.1 Portraits de phase en dimension 2
On étudie ici en détail les portraits de phase des systèmes linéaires homogènes de dimension 2,
c’est-à-dire de la forme
ẏ(t) = Ay(t), t ∈ R+ ,
avec  
a b
A= .
c d
Le changement de variable x = P −1 y est un isomorphisme (linéaire) qui envoie les trajectoires de
ẏ(t) = Ay(t) sur les trajectoires de ẋ(t) = (P −1 AP )x(t). Il suffit donc d’étudier les trajectoires de
x(t) pour les différentes classes de similitude de A. Pour déterminer ces dernières, on introduit donc
le polynôme caractéristique de A :
PA (X) = X 2 − Tr(A)X + det(A) = X 2 − (a + d)X + (ad − bc).
On pose alors ∆ = (a + d)2 − 4(ad − bc) = (a − d)2 + 4bc ce qui conduit à distinguer les cas suivants :

11
1. Premier cas : ∆ < 0. On a √ alors deux valeurs propres de A complexes conjuguées α ± iβ,
avec α = 21 (a + d) et β = 12 −∆. En prenant
 β 
−1 −b 0
P = a−d
2b
1

8 8 0.5

0.4
6 6

0.3

4 4
0.2

0.1
2 2
x2

x2

x2
0

0 0
−0.1

−0.2
−2 −2

−0.3

−4 −4
−0.4

−6 −6 −0.5
−10 −8 −6 −4 −2 0 2 4 6 8 −10 −8 −6 −4 −2 0 2 4 6 8 −0.5 −0.4 −0.3 −0.2 −0.1 0 0.1 0.2 0.3 0.4 0.5
x1 x1 x1

F IGURE 1 – Foyers stable (α < 0) et instable (α > 0) ; centre (α = 0).


 
−1 α −β
P AP =
β α
et le passage en coordonnées polaires x1 (t) = r(t) cos(θ(t)), x2 (t) = r(t) sin(θ(t)) conduit
aux équations 
ṙ = αr
.
θ̇ = β
Pour α 6= 0, les solutions correspondantes “spiralent” autour de leur point initial, soit vers
l’extérieur (lorsque α > 0), soit vers l’intérieur (lorsque α < 0) et on a un foyer instable ou
stable respectivement. Lorsque α = 0, la solution décrit un cercle (voir la figure 1).
2. Deuxième cas : ∆ > 0. On a deux valeurs propres de A réelles et distinctes, et A est alors
semblable à la matrice diagonale  
λ 0
.
0 µ
Si det(A) < 0, λ et µ sont de signes opposés, et on a alors un point selle (voir la figure 2).
Si det A > 0, λ et µ sont de même signe, positif si Tr(A) > 0, et négatif dans le cas contraire
(voir là-encore la figure 2). Si det(A) = 0, l’une des deux valeurs propres de A est nulle, par
exemple µ. Suivant le signe de λ, on a alors les deux portraits de phase de la figure 3.
3. Troisième cas : ∆ = 0. Il y une valeur propre double. Si A est semblable à la matrice λI2 ,
avec λ 6= 0 (le cas λ = 0 conduit à une solution triviale stationnaire), on obtient un noeud,
soit stable (si λ < 0), soit instable (si λ > 0). Les portraits de phase correspondants sont
représentés sur la figure 4. Si A est semblable à la matrice
 
λ 1
,
0 λ

12
3 3 3

2 2 2

1 1 1
x2

x2

x2
0 0 0

−1 −1 −1

−2 −2 −2

−3 −3 −3
−8 −6 −4 −2 0 2 4 6 8 −1.5 −1 −0.5 0 0.5 1 1.5 −1.5 −1 −0.5 0 0.5 1 1.5
x1 x1 x1

F IGURE 2 – Point selle, équilibre stable, équilibre instable.

3 3

2 2

1 1
x2

x2
0 0

−1 −1

−2 −2

−3 −3
−3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3
x1 x1

F IGURE 3 – Une valeur propre nulle et une valeur propre positive, respectivement négative.
3 3

2 2

1 1
x2

x2

0 0

−1 −1

−2 −2

−3 −3
−3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3
x x
1 1

F IGURE 4 – Noeud stable, noeud instable.

alors là-encore, trois cas se présentent suivant le signe de λ. Pour λ > 0, le portrait de phase
contient un noeud dégénéré instable. Pour λ < 0, un noeud dégénéré stable. Enfin pour λ = 0,
les trajectoires sont rectilignes. Les différents cas sont représentés sur la figure 5.

2.2 Stabilité asymptotique de l’origine


Théorème 2.1 Soit A ∈ L(E) où E est un K-espace vectoriel de dimension finie d et soit σ(A) son
spectre. Les propositions suivantes sont équivalentes :
1. Toute solution de ẏ(t) = Ay(t) tend vers 0 lorsque t tend vers +∞.

13
3 2 3

1.5
2 2

1 1
0.5
x2

x2

x2
0 0 0

−0.5
−1 −1

−1

−2 −2
−1.5

−3 −2 −3
−40 −30 −20 −10 0 10 20 30 40 −60 −40 −20 0 20 40 60 −3 −2 −1 0 1 2 3
x1 x1 x1

F IGURE 5 – Noeud dégénéré stable ou instable ; cas dégénéré rectiligne.

2. σ(A) ⊂ {z ∈ C; <(z) < 0}.

Preuve. Les solutions de ẏ(t) = Ay(t) s’écrivent y(t) = etA y0 . Par ailleurs, il existe P ∈ GLd (C)
telle que A = P (D + N )P −1 où D est une matrice diagonale et N une matrice nilpotente. En outre,
σ(D) = σ(A) et D et N commutent. Ainsi, etA = P etD etN P −1 de sorte que :
ketA k ≤ kP kkP −1 kketD kketN k.
Si µ = maxλ∈σ(A) <(λ) < 0, alors il existe une constante C > 0 telle que ketD k ≤ Ceµt . Dans le
même temps, il existe C 0 > 0 telle que ketN k ≤ C 0 td−1 pour t suffisamment grand. Ainsi, 2. implique
1. Réciproquement, si σ(A) contient une valeur propre λ de partie réelle positive ou nulle, alors il
existe une solution de la forme eλt p(t) où p est un polynôme de degré plus petit que d, qui ne tend
donc pas vers 0 quand t tend vers +∞.

2.3 Solutions bornées


Théorème 2.2 Soit A ∈ L(E) où E est un K-espace vectoriel de dimension finie d et soit σ(A) son
spectre. Les propositions suivantes sont équivalentes :
1. Toute solution de ẏ(t) = Ay(t) est bornée sur R+ .
2. σ(A) ⊂ {z ∈ C; <(z) ≤ 0} et la multiplicité géométrique des valeurs propres de A de partie
réelle nulle est égale à la multiplicité algébrique (les sous-espaces propre et caractéristique
sont identiques).

Preuve. La preuve reprend les arguments de celle du théorème précédent. Si λ est une valeur propre
de partie réelle strictement positive, alors les solutions correspondantes eλt p(t) ne sont pas bornées.
Si λ est une valeur propre de partie réelle nulle et de multiplicité algébrique égale à la multiplicité
géométrique, alors p(t) est constant et la solution correspondante est de module constant, donc bornée.

La proposition suivante est de nature différente. Elle ne caractérise pas l’ensemble des solutions, mais
affirme l’existence d’une solution bornée de l’équation avec second membre.

14
Proposition 2.3 Soit A ∈ L(E) où E est un C-espace vectoriel de dimension finie d et soit σ(A) son
spectre. Les propositions suivantes sont équivalentes :
1. Pour toute donnée b(t) ∈ C(R+ ; Rd ) bornée, il existe une unique solution y(t) ∈ C 1 (R+ ; Rd )
bornée de l’équation ẏ(t) = Ay(t) + b(t).
2. σ(A) ⊂ {z ∈ C; <(z) > 0}.

Preuve. Montrons que 1. implique 2. Soit donc λ ∈ σ(A) et y0 un vecteur propre associé. Alors
y(t) = eλt y0 est solution de l’équation pour b ≡ 0. Si <(λ) ≤ 0, alors cette solution est bornée, ainsi
que µeλt y0 pour tout µ ∈ C. L’unicité d’une solution bornée n’est alors pas assurée. Donc σ(A) ne
peut contenir de valeurs propres de partie réelle négative ou nulle.
Pour établir la réciproque, considérons tout d’abord deux solutions y1 et y2 , toutes deux bornées.
Alors, y = y2 − y1 est solution de l’équation homogène et est encore bornée. Ce qui n’est possible,
d’après le théorème précédent, que si y est constamment nulle. Donc, si il existe une solution bornée,
elle est unique. Montrons l’existence d’une telle solution. D’après la formule de Duhamel, les solu-
tions sont de la forme Z t
tA
y(t) = e y0 + e(t−s)A b(s)ds,
0
d
avec y0 ∈ C . Considérons alors
Z t
y0 = − lim e−sA b(s)ds.
t→+∞ 0
Cette limite existe, car σ(A) ⊂ {z ∈ C; <(z) > 0}, de sorte qu’il existe µ > 0 et C > 0, vérifiant :
∀s ≥ 0, ke−sA k ≤ Ce−µs ,
et Z t
e−sA b(s)ds ≤ kbk∞ (1 − e−tµ ).
0

On a alors Z +∞
y(t) = − e(t−s)A b(s)ds
t
et Z +∞
Ckbk∞
ky(t)k ≤ kbk∞ e(t−s)A ds ≤ .
t µ

2.4 Solutions périodiques


On suppose ici que A(·) ∈ C(R; L(Cd )) et b(·) ∈ C(R; Cd ) sont des fonctions périodiques de
même période T et on s’intéresse à la question de savoir s’il existe des solutions T -périodiques de
l’équation
ẏ(t) = A(t)y(t) + b(t).

15
On note, comme précédemment, y(·; t0 , y0 ) la solution satisfaisant la condition intiale y(t0 ) = y0 .
Remarquons que cette question n’a pas de réponse triviale, comme en atteste l’exemple suivant :

ẏ(t) = Ay(t) + b

où b est un vecteur constant non nul, et A la matrice


 
0 1
A= .
0 0

Les solutions, de la forme


 
b2 t2 /2 + (y2 (0) + b1 )t + y1 (0)
y(t) =
b2 t + y2 (0)

ne sont en effet périodiques que pour y2 (0) = −b1 et b2 = 0, bien que A et b soient périodiques de
période T pour tout T > 0.

Théorème 2.4 (Existence de solutions périodiques) Supposons que A(·) ∈ C(R; L(Cd )) et b(·) ∈
C(R; Cd ) sont des fonctions périodiques de même période T . Alors les propositions suivantes sont
équivalentes :
1. Il existe une solution périodique de ẏ(t) = A(t)y(t) + b(t)
2. Pour tout t0 ∈ R, l’application y0 7→ y(T + t0 ; t0 , y0 ) a un point fixe.
3. Il existe t0 ∈ R tel que l’application y0 7→ y(T + t0 ; t0 , y0 ) a un point fixe.

Preuve. L’implication 1. ⇒ 2. est immédiate, de même que 2. ⇒ 3. Montrons la dernière, 3. ⇒


1. Soit y0 ∈ Cd un point fixe de l’application y0 7→ y(T + t0 ; t0 , y0 ) et posons y∗ = y(·; t0 , y0 ).
L’application z∗ (t) = y∗ (t + T ) est alors solution de l’équation différentielle. On a en effet,
ż∗ (t) = ẏ∗ (t + T ) = A(t + T )y∗ (t + T ) + b(t + T ) = A(t)y∗ (t + T ) + b(t) = A(t)z∗ (t) + b(t),
en utilisant la périodicité de A et b. En outre, z∗ (t0 ) = y∗ (t0 + T ) = y∗ (t0 ) puisque y0 est point fixe.
Par unicité de la solution du problème de Cauchy, z∗ et y∗ coincident donc partout.

Théorème 2.5 (Solution périodique et solution bornée) Supposons que A(·) ∈ C(R; L(Cd )) et b(·) ∈
C(R; Cd ) sont des fonctions périodiques de même période T . Alors il existe une solution périodique
de ẏ(t) = A(t)y(t) + b(t), si et seulement si, il existe une solution bornée de ẏ(t) = A(t)y(t) + b(t)
sur R+ .

Preuve. Il est clair qu’une solution périodique est bornée. On suppose donc qu’il existe une solution
bornée, mais aucune solution périodique. Alors, d’après le théorème précédent, l’équation
Z T
y0 = S(T ; 0)y0 + S(T ; s)b(s)ds
0

16
RT
n’a pas de solution sur Cd . En posant U = S(T ; 0) et z = 0
S(T ; s)b(s)ds, ceci signifie que
z∈/ Im(I − U ). Or, on a
Ṡ(t + nT ; nT ) = A(t + nT )S(t + nT ; nT ) = A(t)S(t + nT ; nT )
avec S(nT ; nT ) = Id . Ainsi, S(t + nT ; nT ) et S(t; 0) satisfont la même équation différentielle, avec
la même condition intiale et par le théorème de Cauchy Lipschitz, sont donc égales. On a donc en
particulier
S((n + 1)T ; nT ) = S(T ; 0) = U.
En reportant cette égalité dans la formule de Duhamel, il vient alors
Z (n+1)T
y((n + 1)T ) = U y(nT ) + S((n + 1)T ; s)b(s)ds
nT

soit encore, en utilisant la périodicité de b et de S((n + 1)T ; s) 1 :


Z T
y((n + 1)T ) = U y(nT ) + S((n + 1)T ; s + nT )b(s + nT )ds = U y(nT ) + z.
0

Soit alors U l’adjoint de U pour le produit scalaire canonique < ·, · > sur Cd . Pour tout (x, x0 ) ∈

Im(I − U ) × Ker(I − U ∗ ), on a x = u − U u et
< x, x0 >=< u − U u, x0 >=< u, x0 > − < u, U ∗ x0 >= 0,
de sorte que Im(I − U ) = (Ker(I − U ∗ ))⊥ . Ainsi, il existe u ∈ Cd tel que U ∗ u = u et < u, z >6= 0.
On en déduit que
< y((n + 1)T ), u > = < U y(nT ), u > + < z, u >
= < y(nT ), U ∗ u > + < z, u >
= < y(nT ), u > + < z, u >
et donc par récurrence
< y((n + 1)T ), u >=< y(0), u > +(n + 1) < z, u >
ce qui contredit le caractère borné de y(·).

1. On a en effet en utilisant les propriétés de la résolvante : S((n + 1)T ; s + nT ) = S((n + 1)T ; nT )S(nT ; s + nT ) =
S(T ; 0)S −1 (s + nT ; nT ) = S(T ; 0)S −1 (s; 0) = S(T ; 0)S(0; s) = S(T ; s)

17
Chapitre 4: stabilité des systèmes non-linéaires
Philippe Chartier
19 novembre 2013

1 Introduction
On considère ici une équation différentielle ordinaire autonome

ẏ = f (y)

où f est une fonction de Rd and Rd de classe C 1 , et on s’intéresse à son étude qualita-
tive, c’est-à-dire à l’étude de l’ensemble de ses solutions pour différentes valeurs initiales
y(0) = y0 d’un point de vue géométrique. Pour une condition initiale donnée y0 , on note
y(t; 0, y0) = y(t; y0) la valeur de la solution à l’instant t passant par y0 à l’instant 0 et Jy0
l’intervalle de définition de la solution maximale associée à y0 .

Définition 1.1 (Portrait de phase) Le portrait de phase de l’équation ẏ = f (y) , f ∈


C1 (Rd ; Rd ) est la représentation graphique des trajectoires {y(t; 0, y0); y0 ∈ Rd , t ∈
Jy0 }.

Exemple 1.2 (Dimension 1) Pour y ∈ R, f (y) = y(y 2 − 1). On a trois points d’équilibre,
y = 0 et y = ±1. Le premier est stable, alors que les deux autres sont instables.

Exemple 1.3 (Dimension 2) Soit le système



ẏ1 = 2y1
ẏ2 = −y2

La solution correspondant à la valeur initiale (y01 , y02) s’écrit

y1 (t) = e2t y01, y2 (t) = e−t y02

de sorte que les trajectoires sont les courbes paramètrées telles que

(y2 (t))2 y1 (t) = const

1
Exemple 1.4 (Pendule sans frottement) L’équation différentielle d’ordre 2
θ̈ + a sin(θ) = 0, a>0
se réécrit sous la forme d’une système d’ordre 1 en posant y1 = θ et y2 = θ̇ :

ẏ1 = y2
ẏ2 = −a sin(y1 )
Il est facile de vérifier que l’énergie du système
1
H(y1, y2 ) = y22 − a cos(y1 )
2
est conservée le long de toute solution. En effet on a :
d
H(y1 , y2) = y2 ẏ2 − a(− sin(y1 ))ẏ1 = 0.
dt
Les trajectoires s’inscrivent donc sur les courbes d’équation H(y1, y2 ) = const.
Définition 1.5 Un système hamiltonien est un système d’équations différentielles du type
ẏ = J −1 ∇y H(y)
où H : R2n → R est une fonction scalaire de classe C 2 et où J est la matrice canonique
 
0 −In
J=
In 0
On a, comme déjà vu dans les chapitres précédents, conservation de l’hamiltonien (l’énergie
dans de nombreux systèmes physiques) :
d
H(y) = (∇y H(y))T ẏ = (∇y H(y))T J −1 ∇y H(y) = 0
dt
où l’on a utilisé l’anti-symétrie de la matrice J.

2 Différentes notions de stabilité


2.1 Théorème de Grobmann-Hartman
Définition 2.1 (Linéarisé) Soit l’équation différentielle ẏ = f (y), f ∈ C 1 (Rd ; Rd ) et
y0 ∈ Rd . Le système linéarisé en y0 est le système d’équations différentielles suivant :
∂f
ẏ = (y0 ) (y − y0 ) + f (y0)
∂y
C’est le système obtenu en remplaçant f (y) par son développement de Taylor à l’ordre 1
en y0 .

2
L’objectif du théorème suivant est d’établir un lien entre le comportement qualitatif de
la solution d’un système d’équations différentielles et celui de son linéarisé au voisinage
d’un point. En raison de la difficulté de la preuve, nous nous contenterons d’énoncer ce
théorème sans démonstration et détaillerons par contre quelques résultats plus faibles dans
les paragraphes suivants.
Théorème 2.2 (Grobman-Hartman 1967). Soit ẏ = f (y), f ∈ C 1 (Rd ; Rd ) un système
d’équations différentielles sur Rd . Supposons que f (0) = 0 et que la matrice A = ∂f ∂y
(y0)
n’a pas de valeur propre de partie réelle nulle. Alors il existe des voisinages U et V de
l’origine 0 dans Rd , et un homéomorphisme (bijection bi-continue) h : U → V qui envoie
les trajectoires de ẏ = f (y) sur les trajectoires de ẏ = Ay en préservant le sens du temps.
Plus précisément, si y0 ∈ Rd est une valeur initiale et si y(t; y0) ∈ U, alors etA h(y0 ) ∈ V
et on a :
y(t; y0) = (h−1 ◦ etA ◦ h)(y0 ).
Ainsi, au voisinage d’un point y0 ∈ Rd tel que f (y0 ) = 0, les solutions du système
ẏ = f (y) se comportent comme celles de
∂f
ẏ = (y0 )(y − y0 )
∂y
∂f
pour peu que le spectre de ∂y
(y0 ) n’intersecte pas l’axe des imaginaires.
Remarque 2.3 Le théorème est énoncé dans le cas y0 = 0. Si y0 6= 0 avec f (y0 ) = 0,
alors en posant
ỹ = y − y0 , f˜(ỹ) = f (ỹ + y0 ),
on a
d
ỹ = ẏ = f (y) = f (ỹ + y0 ) = f˜(ỹ)
dt
∂ f˜
avec f˜(0) = f (y0 ) = 0 et ∂ ỹ
(0) = ∂f
∂y
(y0 ).

2.2 Notions de stabilité


Définition 2.4 (Equilibre) Soit le système d’équations différentielles ẏ = f (y), f ∈
C 1 (Rd ; Rd ). On dit que y0 est un équilibre si la fonction constante t 7→ y0 est solution
pour tout t ∈ R, ce qui équivaut à dire que f (y0) = 0.

Définition 2.5 (Stabilité) Soit le système d’équations différentielles ẏ = f (y), f ∈ C 1 (Rd ; Rd )


et soit y0 ∈ Rd un équilibre. On dit que :
1. y0 est une équilibre stable si, pour tout voisinage U de y0 , il existe un voisinage V
de y0 tel que :
∀ỹ0 ∈ V, (i) y(t, ỹ0) est bien définie sur R+ ,
(ii) y(t, ỹ0) ∈ U pour tout t ∈ R+

3
2. y0 est un équilibre asymptotiquement stable si c’est un équilibre stable, et s’il existe
un voisinage W de y0 tel que :

∀ỹ0 ∈ W, (i) y(t, ỹ0) est bien définie sur R+ ,


(ii) lim y(t, ỹ0) = y0
t→∞

Exemple 2.6 Soit le système linéaire ẏ = Ay. L’origine 0 est équilibre. Il est asymptoti-
quement stable si et seulement si :

∀λ ∈ σ(A), ℜ(λ) < 0.

Il est stable si et seulement si

∀λ ∈ σ(A), ℜ(λ) ≤ 0 et ℜ(λ) = 0 ⇒ λ non défective

Théorème 2.7 (Stabilité en première approximation) Soit l’équation différentielle ẏ =


f (y), f ∈ C 1 (Rd ; Rd ) et soit y0 ∈ Rd un équilibre. Si y0 est un équilibre asymptotique-
ment stable du système linéarisé ẏ = ∂f
∂y
(y0 )(y − y0 ), alors c’est un équilibre asymptoti-
quement stable du système ẏ = f (y).

Théorème 2.8 (Non-stabilité en première approximation) Soit le système d’équations


différentielles ẏ = f (y), f ∈ C 1 (Rd ; Rd ) et soit y0 ∈ Rd un équilibre. On suppose que
∂f
∂y
(y0 ) a une valeur propre de partie réelle strictement positive. Alors y0 n’est pas un
équilibre stable de ẏ = f (y).

Remarque 2.9 On ne peut rien dire dans le cas où ∂f∂y


(y0 ) a une valeur propre de partie
réelle nulle, comme le montre l’exemple suivant :

ẏ1 = y2 ± (y12 + y22)y1




ẏ2 = −y1 ± (y12 + y22 )y2


∂f
Le calcul de ∂y
(0, 0) donne
∂f
(0, 0) = J −1
∂y
dont les valeurs propres sont ±i. Maintenant, en passant en coordonnées polaires y1 =
r(θ) cos(θ), y2 = r(θ) sin(θ), il vient :

ẏ1 = ṙ cos(θ) − r θ̇ sin(θ) = r sin(θ) ± r 3 cos(θ)


ẏ2 = ṙ sin(θ) + r θ̇ cos(θ) = −r cos(θ) ± r 3 sin(θ)

d’où θ̇ = ∓1 et ṙ = ±r 3 . L’équilibre est alors stable ou instable suivant le signe choisi


∓.

4
2.3 Produit scalaire adapté à un endomorphisme
Théorème 2.10 (Produit scalaire adapté à un endomorphisme) Soit E = Rd , g un en-
domorphisme de L(Rd ) et P son polynôme caractéristique. P se factorise en P = P+ ·P−
où P− a toutes ses racines de parties réelles strictement négatives et P+ a toutes ses ra-
cines de parties réelles positives ou nulles. On a la décomposition (lemme des noyaux)
suivante :
E = E− ⊕ E+ avec E− = ker(P− (A)), E+ = ker(P+ (A)).
Alors il existe un produit scalaire h·, ·i sur Rd et α > 0 tels que ker(P− (A)) ⊥ ker(P+ (A))
et
∀x ∈ E− , hg(x), xi ≤ −2αhx, xi,
∀x ∈ E+ , hg(x), xi ≥ −αhx, xi.
Preuve. Soit (ei ) la base canonique de E et A la matrice de g dans cette base et soit la
décomposition de Jordan de A dans Md (C), écrite sous la forme
A = P −1 (D + N)P
où P ∈ GLd (C), D est diagonale et N nulle en dehors des éléments sur-diagonaux qui
peuvent être nuls ou égaux à 1. Soit en outre, pour ε > 0, la matrice diagonale Λ =
diag(ε−1 , ε−2, . . . , ε−d ). Alors
A = P −1 Λ−1 (D + ΛNΛ−1 )ΛP = P̃ −1 (D + Ñ)P̃
où P ∈ GLd (C), et Ñi,i+1 = ε ou Ñi,i+1 = 0 . Soit (fi ) la base dans laquelle g a pour
matrice D + Ñ. On considère le produit scalaire défini sur Cd tel que si u et v sont de
composantes X et Y dans (fi ), alors
(u, v) = X ∗ Y
On a
d
X
ℜ (((g(u), v)) = ℜ(di,i )|Xi |2 + ℜ ((NX)∗ X))
i=1

Donc pour u ∈ ker(P− (A)), il vient en notant µ = − maxℜ(di,i )<0 ℜ(di,i )


ℜ ((g(u), u)) ≤ (−µ + ε)(u, u)
et pour u ∈ ker(P+ (A))
ℜ ((g(u), u)) ≥ −ε(u, u).
Il suffit alors de prendre α = ε = µ/3 et de définir le produit scalaire sur E de la manière
suivante : si u et v sont deux vecteurs de E de composantes (xi ) et (yi ) dans (ei ), on note
ũ et ṽ les vecteurs de composantes (xi ) et (yi ) dans la base canonique de Cd et
hu, vi = ℜ ((ũ, ṽ)) .

5
2.4 Preuve du théorème de stabilité en première approximation
Lemme 2.11 (Fonction de Lyapunov et stabilité) Soit le système d’équations différentielles
ẏ = f (y), f ∈ C 1 (Rd ; Rd ). On suppose que 0 est un équilibre possédant une fonction de
Lyapunov stricte. Plus précisément, on suppose qu’il existe une boule ouverte B centrée
en 0, une fonction V ∈ C 1 (Rd ; R), et un réel α > 0 tels que :
– 0 est un minimum strict de V sur B
– ∀y ∈ B, dV (y)(f (y)) ≤ −α(V (y) − V (0))
Alors 0 est une équilibre asymptotiquement stable.

Preuve. Afin de simplifier quelque peu la preuve, on se concentre ici sur la cas où V (y) =
hy, yi, qui est le cadre dans lequel on utilisera ce lemme. On a alors
dV (y)(f (y)) = 2hy, f (y)i
En réduisant B si besoin est, on peut supposer que c’est une boule pour la norme k · k2 =
h·, ·i. Soit donc ỹ0 ∈ B et Jỹ0 =]T − , T + [ l’intervalle de définition de la solution maximale
y(t; ỹ0) associée. On va montrer que T + = +∞ et que pour tout t ≥ 0, ky(t; ỹ0)k ≤ kỹ0 k.
On note
X := {τ ∈]0, T + [; ∀t ∈ [0, τ [, y(t; ỹ0) ∈ B}.
L’ensemble X est non-vide, car y(t; ỹ0) est continue. Soit ϕ(t) = hy(t; ỹ0), y(t; ỹ0)i. Il
vient pour τ ∈ X et t ∈ [0, τ [ :
ϕ̇(t) = 2hy(t; ỹ0), ẏ(t; ỹ0 )i = 2hy(t; ỹ0), f (y(t; ỹ0))i ≤ −αϕ(t)
α
donc ϕ(t) ≤ e−αt ϕ(0), i.e. ky(t; ỹ0)k ≤ e− 2 t kỹ0 k. Si X était strictement inclus dans
]0, T + [, alors on aurait sup X < T + et pour tout 0 ≤ t < sup X,
α
ky(t; ỹ0)k ≤ e− 2 sup X kỹ0 k < kỹ0 k.
Par continuité de y(t; ỹ0) il existerait donc ε > 0 tel pour tout t < sup X + ε on ait
ky(t; ỹ0)k < kỹ0 k, ce qui contredit la définition de sup X. Donc sup X = T + et y(t; ỹ0)
est bornée sur ]0, T + [. Le théorème de sortie de tout compact implique alors que T + = ∞.
L’inégalité
α
∀t ≥ 0, ky(t; ỹ0)k ≤ e− 2 t kỹ0 k
permet de conclure que 0 est un équilibre asymptotiquement stable.
Preuve. [Théorème de stabilité en première approximation] Quitte à considérer la
fonction f˜(y) = f (y + y0 ) − f (y0 ), on peut supposer que y0 = 0 et poser g = df (0).
D’après le théorème 2.10, on peut construire un produit scalaire h·, ·i adapté à g, tel que
pour tout y ∈ Rd , hg(y), yi ≤ −2αhy, yi pour un certain α > 0 (notons qu’ici P− = P
de sorte que ker P− (g) = Rd ). La fonction V (y) = 12 hy, yi = 12 kyk2 est une fonction C 1
qui admet un minimum strict en 0. De plus, on a au voisinage de 0
f (y) = f (0) + df (0)y + o(y) = g(y) + o(y)

6
de sorte qu’il existe ε > 0 tel que pour tout kyk ≤ ε, kf (y) − g(y)k ≤ αkyk. Finalement,
pour y dans la boule de centre 0 et de rayon ε, on a :
dV (y)((f (y)) = hy, f (y)i
= hy, g(y)i + hy, f (y) − g(y)i
≤ −2αhy, yi + kyk · kf (y) − g(y)k (par Cauchy-Schwartz)
≤ −2αkyk2 + αkyk2 = −2αV (y).
Finalement, V est une fonction de Lyapunov et on peut conclure en utilisant le théorème
de Lyapunov.

2.5 Preuve du théorème de non-stabilité en première approximation


Théorème 2.12 (Théorème de non-stabilité de Cetaev, 1934) Soit le système d’équations
différentielles ẏ = f (y), f ∈ C 1 (Rd ; Rd ). On suppose que y0 ∈ Rd est un équilibre et
qu’il existe une boule ouverte B centrée sur y0 , une fonction V ∈ C 1 (Rd ; R) et Ω un
ouvert de Rd tels que :
– y0 ∈ ∂Ω
– V > 0 sur Ω et V = 0 sur ∂Ω
– ∀y ∈ Ω ∩ B, dV (y)(f (y)) > 0.
Alors y0 n’est pas un équilibre stable.

Preuve. Supposons que y0 soit un équilibre stable : il existe alors un voisinage ouvert U,
d’adhérence compacte contenue strictement dans B, et un voisinage ouvert W , tels que
pour tout ỹ0 ∈ W , la solution y(t; ỹ0) issue de ỹ0 existe pour tout t ≥ 0 et soit entièrement
contenue dans U.

L’intersection de Ω ∩ W est non-vide, car y0 ∈ ∂Ω = Ω̄\Ω. Soit donc ỹ0 ∈ Ω ∩ W : par


continuité de y(t; ỹ0), l’ensemble
X := {τ > 0; ∀t ∈ [0, τ ], y(t; ỹ0) ∈ Ω}
est non-vide. Par continuité encore, il est ouvert dans [0, +∞[. Montrons qu’il est aussi
fermé : soit (τn ) ∈ X N convergeant vers τ∞ ∈ [0, +∞[. On a y(τ∞ ; ỹ0 ) ∈ Ω̄ car pour tout
n ∈ N, y(τn ; ỹ0 ) ∈ Ω. En outre, pour τ ∈ X et 0 ≤ t ≤ τ , on a pour ϕ(t) = V (y(t; ỹ0))
ϕ̇(t) = dV (y(t; ỹ0))f (y(t; ỹ0)) > 0
donc ϕ(t) > ϕ(0) = V (ỹ0 ) > 0. Par conséquent
ϕ(τ∞ ) = lim ϕ(τn ) ≥ V (ỹ0 ) > 0.
n→∞

Ainsi, V (y(τ∞ ; ỹ0)) > 0, donc y(τ∞ ; ỹ0 ) ∈


/ ∂Ω. Comme y(τ∞ ; ỹ0) ∈ Ω̄, y(τ∞ ; ỹ0) ∈ Ω et
τ∞ ∈ X, qui est donc fermé. Finalement, X et à la fois ouvert et fermé dans [0, +∞[ qui
est connexe, donc X = [0, +∞[ et la trajectoire y(t; ỹ0) reste dans Ω pour tout t ≥ 0.

7
Considérons maintenant
K = {y ∈ Ū ∩ Ω̄; V (y) ≥ V (ỹ0 )}
K est compact, comme intersection du compact Ū , et du fermé Ω̄ ∩ {y ∈ Rd ; V (y) ≥
V (ỹ0 )}. De plus, K ⊂ Ū ⊂ B et comme V ne s’annule pas sur Ω, K ⊂ Ω ∩ B, de sorte
que pour tout y ∈ K, dV (y)(f (y)) > 0 : par compacité,
α := inf dV (y)(f (y)) > 0
y∈K

et comme y(t; ỹ0) ∈ K pour tout t ≥ 0, on a ϕ̇(t) ≥ α pour tout t ≥ 0, soit ϕ(t) ≥
αt + ϕ(0) qui tend vers +∞ pour t → +∞. On obtient une contradiction avec le fait que
ϕ(t) = V (y(t; ỹ0)) ≤ sup V (y) < +∞.
y∈K

Preuve. [Théorème de non-stabilité en première approximation] On se ramène au cas


y0 = 0, et on pose g = df (0). En appliquant le théorème 2.10 à −g (qui possède au moins
une valeur propre de partie réelle strictement négative par hypothèse), on peut affirmer
l’existence d’un produit scalaire h·, ·i sur Rd , de deux sous-espaces vectoriels E et F de
Rd en somme directe, et d’une réel α > 0 tels que
∀y ∈ E, hg(y), yi ≥ 2αkyk2 et ∀y ∈ F, hg(y), yi ≤ αkyk2.
On considère maintenant la fonction V définie par
∀(y1 , y2 ) ∈ E × F, V (y1 + y2 ) = ky1 k2 − ky2k2
et l’ensemble Ω = {y ∈ Rd , V (y) > 0}, qui est ouvert dans Rd . Finalement, comme f
est de classe C 1 , on a
f (y) = g(y) + o(y)
donc il existe ε > 0 tel que pour tout y ∈ Bε (0), on ait kf (y) − g(y)k ≤ α4 kyk. Il reste
à établir que dV (y)(f (y)) > 0 pour tout y ∈ Ω ∩ Bε (0). Soit h = h1 + h2 ∈ E ⊕ F et
y = y1 + y2 ∈ E ⊕ F . On a
V (y + h) − V (y) = hy1 + h1 , y1 + h1 i − hy2 + h2 , y2 + h2 i − hy1 , y1 i + hy2 , y2i
= 2hy1, h1 i − 2hy2, h2 i + hh1 , h1 i − hh2 , h2 i
donc
dV (y)(h) = 2hy1 , h1 i − 2hy2 , h2 i
et
|dV (y)(h)| ≤ 2|hy1, h1 i| + 2|hy2, h2 i|
≤ 2ky1kkh1 k + 2ky2 kkh2 k
≤ 4kykkhk

8
car E et F étant orthogonaux pour h·, ·i, on a kyk2 = ky1 k2 + ky2 k2 et khk2 = kh1 k2 +
kh2 k2 . En particulier, pour y ∈ Bε (0) :
α
|dV (y)(f (y) − g(y))| ≤ 4kykkf (y) − g(y)k ≤ 4kyk kyk = αkyk2
4
D’autre part, E et F étant stables par g, on a pour tout y ∈ Ω :
dV (y)(g(y)) = 2hy1 , g(y1)i − 2hy2 , g(y2)i ≥ 2(2αky1k2 − αky2k2 ) ≥ 2αky1 k2
où l’on a utilisé que y ∈ Ω, donc V (y) = ky1 k2 − ky2 k2 > 0. Pour y ∈ Ω ∩ Bε (0), il vient
finalement
dV (y)(f (y)) = dV (y)(g(y)) + dV (y)(f (y) − g(y)) ≥ 2αky1k2 − αkyk2 > 0
car une fois encore, y ∈ Ω implique que kyk2 < 2ky1 k2 . On conclut par le théorème de
Cetaev.

9
Chapitre 5: flot d’une équation différentielle ordinaire
Philippe Chartier
23 octobre 2014

1 Définition du flot et propriétés élémentaires


Dans ce chapitre, D désigne un ouvert connexe de Rd . On considère le problème de Cauchy sous
forme autonome :

ẏ(t) = f (y(t))
, (1)
y(t0) = y0

où f est une fonction définie sur D et (t0 , y0 ) un point de R × D. On suppose en outre que f est
continue et localement Lipschitzienne, de sorte que pour tout (t0 , y0 ) ∈ R × D, le système (1) admet
une solution maximale unique sur un intervalle ouvert J(t0 , y0 ) ⊂ R. Alors, l’application

(t, t0 , y0 ) 7→ y(t; t0 , y0 )

qui associe la valeur en t de la solution de (1) est bien définie sur l’ouvert

Ω = {(t, t0 , y0) ∈ R × R × D; t ∈ J(t0 , y0)}.

On note en outre
Ω0 = {(t, y0) ∈ R × D; t ∈ J(0, y0 )}

Définition 1.1 On appelle flot de l’équation différentielle (1) l’application :

Ω0 → Rd
(t, y0 ) 7→ ϕt (y0 ) = y(t; 0, y0)

Il est clair que ϕt (y0 ) satisfait l’équation suivante :


 d
ϕ (y ) = f (ϕt (y0))
dt t 0 , (2)
ϕ0 (y0) = y0

et qu’on a en outre, pour tout (t, t0 , y0 ) ∈ Ω, (t − t0 , y0) ∈ Ω0 et y(t; t0, y0 ) = ϕt−t0 (y0), ce qui justifie
la définition de ϕt comme une application indépendante de t0 .

1
Remarque 1.2 On peut aussi définir le flot d’un système non-autonome, mais on rappelle que tout
système non-autonome peut se réécrire comme un système autonome par l’adjonction de la variable
t. L’hypothèse d’autonomie ne constitue donc pas une restriction.

Proposition 1.3 L’application (t, y) 7→ ϕt (y) de Ω0 dans Rd est continue. En particulier, pour tout
(t, y) ∈ Ω0 , il existe un voisinage V de y tel que l’application ϕt (·) soit définie et continue sur V.

Proposition 1.4 On suppose que D = Rd et que f est C 1 et globalement Lipschitzienne. Alors le


flot est défini sur tout R × Rd (c’est-à-dire que Ω0 = R × Rd ), et l’application

R → Diff(Rd )
t 7→ ϕt (·)

est un homomorphisme du groupe (R, +) dans le groupe (Diff(Rd ), ◦), où Diff(Rd ) est l’ensemble des
difféomorphismes de Rd dans lui-même.

Preuve. Pour tout (s, t) ∈ R2 , on a ϕs ◦ ϕt = ϕt ◦ ϕs = ϕs+t , en vertu de l’unicité de la solution


de (1) (Theorème de Cauchy-Lipschitz). En conséquence ϕt est une bijection, (ϕt )−1 = ϕ−t et son
inverse est continue. En anticipant sur le paragraphe suivant, on a en outre que ϕt est continûment
différentiable d’inverse continûment différentiable.

2 Différentiabilité par rapport à la condition initiale


Dans cette partie, nous nous intéressons à la dépendance de la solution en la condition initiale, et
plus précisément à la différentiabilté du flot ϕt (y) par rapport à la variable y. En admettant provisoi-
rement que cette différentiabilité est assurée et que les dérivations par rapport à t et y commutent, on
obtient, en dérivant l’équation différentielle satisfaite par ϕt :
∂ ∂ ∂ ∂f ∂
ϕt (y0 ) = (f (ϕt (y0 ))) = (ϕt (y0 )) ϕt (y0 ),
∂y0 ∂t ∂y0 ∂y ∂y0
c’est-à-dire encore  
d ∂ϕt ∂f ∂ϕt
(y0 ) = (ϕt (y0 )) (y0 ).
dt ∂y0 ∂y ∂y0
∂ϕt
En posant Ψt = ∂y0
(y0 ), il apparaı̂t que Ψt est solution de l’équation différentielle matricielle

Ψ̇t = ∂f

∂y
(ϕt (y0 )) · Ψt
, (3)
Ψ 0 = Id

dite équation variationnelle associée à (1). Il s’agit d’un système linéaire du type

Ẏ (t) = A(t, y0 )Y (t)

2
où A(t, y0) = ∂f
∂y
(ϕt (y0 )) ne dépend pas seulement du temps t mais aussi d’un “paramètre” y0 . La
résolvante exhibe donc elle-même une dépendance en y0 , mais aucune en t0 (seul t − t0 compte), et
on la note pour cette raison S(t; y0 ). D’après la discussion précédente, on a alors

∂ϕt
S(t; y0 ) = (y0 ).
∂y0
Nous allons maintenant justifier rigoureusement cette égalité dans la preuve du théorème suivant :

Théorème 2.1 Soit f une fonction de D dans Rd continue et localement Lipschitzienne, telle que
∂f
∂y
(y) existe et soit continue sur D. Alors, le flot de (1) est une application continûment différentiable
par rapport à y et sa dérivée Ψt (y0 ) = ∂ϕ
∂y0
t
(y0 ) vérifie l’équation variationelle associée à (1) :
(
Ψ̇t (y0 ) = ∂f
∂y
(ϕt (y0 ))Ψt (y0 )
(4)
Ψ̇0 (y0 ) = Id

Preuve. Dans un premier temps, nous allons montrer que ∂ϕ t


∂y0
(y0 ) existe pour tout (t, y0 ) ∈ Ω0 : pour
ce faire, il suffit d’établir, pour (t, y0 ) fixé, qu’il existe une fonction ǫ(·) de R+ dans R+ et un rayon
r > 0 tels que
∀∆y0 ∈ Br (0), kϕt (y0 + ∆y0 ) − ϕt (y0) − S(t; y0 )∆y0 k = k∆y0 kǫ(k∆y0 k) (5)
avec
lim ǫ(k∆y0 k) = 0.
k∆y0 k→0

Pour s ∈ [0, t], on définit donc z(s) = ϕs (y0 ) + S(s; y0)∆y0 : z(·) n’est pas solution du système
différentiel (1), mais peut-être vue comme une solution “approchée”

ż(s) = f (z(s)) − δ(s)
,
z(0) = y0 + ∆y0
avec   ∂f
δ(s) = f ϕs (y0 ) + S(s; y0)∆y0 − f (ϕs (y0 )) − (ϕs (y0 ))S(s; y0)∆y0 .
∂y
La résolvante S(s; y0) étant continue en la variable s ∈ [0, t], elle est bornée par une constante M > 0,
de sorte que si r ≤ ρ/M, la fonction z(s) ne sort pas du cylindre compact
K = {y ∈ Rd ; ∃s ∈ [0, t], ky − ϕs (y0 )k ≤ ρ}
qui est lui-même contenu dans Ω0 pour ρ suffisamment petit (l’intervalle [0, t] est en effet compact).

3
K ρ

ϕs (y0 )

ρ
y0

L’idée principale de la preuve est d’appliquer le théorème des accroissements finis à la fonction
G(∆z) = f (z + ∆z) − f (z) − f ′ (z)∆z
c’est-à-dire
kG(∆z) − G(0)k ≤ sup kG′ (µ∆z)kk∆zk
0≤µ≤1

puis d’utiliser l’uniforme continuité de f (z) sur le compact K. Il vient alors
sup kG′ (µ∆z)k = sup kf ′ (z + µ∆z) − f ′ (z)k
0≤µ≤1 0≤µ≤1
= β(k∆zk)
où β(k∆zk) est une fonction qui peut être choisie monotone en escalier, indépendante de z, et qui
tend vers 0 lorsque k∆zk tend vers 0. Finalement, f étant Lipschitzienne (au moins localement et
donc sur K) de constante de Lipschitz L, on a d’après le lemme de Gronwall :
  eLt − 1
kz(s) − ϕs (y0 + ∆y0 )k ≤ β Mk∆y0 k Mk∆y0 k
L
Lt −1
ce qui prouve la validité de (5) avec ǫ(x) = β(Mx)M e L
.

Il reste alors à montrer que S(t; y0 ) est continue par rapport à (t, y0 ) 1 . Pour (t, y0 ) ∈ Ω0 , soit D un
voisinage compact de y0 tel que [0, t] × D ⊂ Ω0 . On définit
L= sup kf ′ (ϕs (y))k.
s∈[0,t],y∈D

Alors, pour tout ỹ0 ∈ D, on a


 

Ṡ(s; ỹ0 ) − Ṡ(s; y0 ) = f (ϕs (ỹ0 )) · S(s; ỹ0) − S(s; y0) + ∆(s)
où  
∆(s) = f ′ (ϕs (y0 )) − f ′ (ϕs (ỹ0)) · S(s; y0)

1. On ne peut pas conclure directement car y0 n’est pas une valeur initiale pour S(s; y0 ) mais un paramètre : le
second membre du système obtenu par l’adjonction de l’équation ẏ = f (y) à l’équation variationnelle n’est donc pas
Lipschitzien, sauf à supposer que f est de classe C 2 .

4
de sorte que si sups∈[0,t] k∆(s)k ≤ δ, alors (d’après le théorème de Gronwall)
δ(etL − 1)
sup S(s; ỹ0 ) − S(s; y0) ≤ .
s∈[0,t] L
Par composition, f ′ (ϕs (y0 )) est continue en y0 et on peut donc conclure à la continuité de S(t; y0 ) par
rapport à y0 , puis par rapport à (t, y0).

Théorème 2.2 Si f est de classe C k sur D, alors (t, y) 7→ ϕt (y) est également de classe C k sur Ω0 .

Preuve. Par récurrence.

3 Propriétés géométriques du flot


Dans cette partie, nous énonçons quelques propriétés géométriques du flot : il s’agit de résultats
de conservation de quantités dont l’interprétation physique est pertinente dans de nombreuses appli-
cations.

3.1 Conservation du volume


Suposons que f , de classe C 1 , soit de divergence nulle, c’est-à-dire que
  d
∂f X ∂fi
∀y ∈ D, div (f )(y) = Tr (y) = (y) = 0
∂y i=1
∂yi

Considérons alors un ensemble mesurable A de Rd pour la mesure dy et


Z
Vol(A) = dy
A

son volume. Le flot ϕt (·) considéré comme application de Rd dans Rd envoie chaque point y de A
sur un point ϕt (y) de ϕt (A) et il est naturel de considérer le volume de l’ensemble image ϕt (A), à
savoir : Z
dy
ϕt (A)

On a alors :

Théorème 3.1 Pour un système différentiel de la forme ẏ = f (y), avec f de classe C 1 sur D telle
que divf ≡ 0, alors

Vol(ϕt (A)) = Vol(A)

pour tout ensemble mesurable A ⊂ Rd .

5
∂ϕt
Preuve. Soit Ψt (y) = ∂y
(y). Ψt est solution de l’équation variationnelle
Ψ̇t (y) = ∂f

∂y
(ϕt (y))Ψt(y),
Ψ0 (y) = IRd
Pour une matrice M ∈ GLd (R), on a :
∀ H ∈ Md (R), (dM det)H = (det M)T r(M −1 H)
En effet :
 
det(M + tH) − det(M) −1 d 1 −1
= t det(M) t det( IRd + M H) − 1
t t
= t det(M) (1 + t T r(M −1 H) + . . . + td det(M −1 H) − 1)
−1

= det(M) T r(M −1 H) + O(t)


Il vient donc 2 :
d d d
det(Ψt (y)) = (dΨt det) Ψt = det(Ψt ) T r(Ψ−1 t Ψt ),
dt dt dt
= det(Ψt ) T r(Ψ−1
t (∂y f (ϕt (y))) Ψt ),
= det(Ψt ) T r(∂y f (ϕt (y))) = 0.
Ainsi, det(Ψt (y)) = det(Ψ0 (y)) = det(IRd ) = 1, et
Z Z  ∂ϕ  Z
t
dz = det (y) dy = dy.
ϕt (A) A ∂y A

2. On peut aussi faire un calcul direct. Soient Ψ1 , . . . , Ψd les vecteurs colonnes de Ψt et αi,j , 1 ≤ i, j ≤ d, les
coefficients de la matrice Θ = Ψ−1
t ∂y f (ϕt (y))Ψt . On a bien sûr pour tout j = 1, . . . , n

d
d X
Ψj = (∂y f (ϕt (y)))Ψj = αi,j Ψi .
dt i=1

Le déterminant étant une n-forme antisymétrique ω d , on a :


d d
d X X
det(Ψt ) = ω d (Ψ1 , . . . , Ψj−1 , Ψ̇j , Ψj+1 , . . . , Ψd ) = ω d (Ψ1 , . . . , Ψj−1 , αi,j Ψi , Ψj+1 , . . . , Ψd ),
dt j=1 i,j=1
d
X
= αj,j ω d (Ψ1 , . . . , Ψj−1 , Ψj , Ψj+1 , . . . , Ψd ) = T r(Θ) det(Ψt ) = det(Ψt )T r(∂y f (ϕt (y))) = 0.
j=1

6
3.2 Conservation de l’énergie
Dans cette sous-section et la suivante, on suppose que le système différentiel (1) est Hamiltonien,
c’est-à-dire qu’il peut d’écrire sous la forme
ẏ = J −1 ∇y H(y),
où H(·) est une fonction de R2d dans R et où J est la matrice de M2d (R)
 
0 Id
J=
−Id 0

En partitionnant y en y = (pT , q T )T où p et q sont deux vecteurs de Rd (en physique, q désigne le


vecteur position et p le vecteur quantité de mouvement), on peut aussi écrire le système sous la forme

ṗ = −∇q H(p, q)
q̇ = ∇p H(p, q)
Notons que pour un système Hamiltonien, on a
∂f
divf = Tr( ) = Tr(J −1 ∇2 H) = Tr(∇2 HJ −T ) = −Tr(J −1 ∇2 H) = −divf = 0
∂y
de sorte que le flot d’un système Hamiltonien préserve le volume. On a en outre :
Théorème 3.2 Soit ϕt le flot associé à un système Hamiltonien. Alors, pour tout (t, y) ∈ Ω0 , H(ϕt (y)) =
H(y).
Preuve. Le long de toute trajectoire exacte, il vient
d ∂H
H(ϕt (y)) = ϕ̇t (y)
dt ∂y
= (∇H(ϕt (y)))T J −1 ∇H(ϕt (y))
= 0
car la matrice J est antisymétrique, i.e. J T = −J.

3.3 Symplecticité et flot Hamiltonien


3.3.1 Quelques éléments de géométrie
On considére le parallélogramme P de R2d engendré par les vecteurs
 p   p 
ξ η
ξ= et η =
ξq ηq
dans l’espace des“phases” (p, q) :
P = {tξ + sη | 0 ≤ t, s ≤ 1}

7
R2d−2
ξ
η

qI

pI
(ξip ηiq − ξiq ηip )

F IGURE 1 – Application ω

En dimension 1, l’aire orientée de P s’écrit :


ξ p ηp
aire.orientée(P ) = = ξ pηq − ξ q ηp.
ξ q ηq

En dimension d > 1, on remplace cette expression par la somme ω(ξ, η) des aires orientées des
projections sur les plans (pi , qi ) de P :
d d
X ξip ηip X
ω(ξ, η) = = (ξip ηiq − ξiq ηip ).
ξiq ηiq
i=1 i=1

ω définit ainsi une forme bilinéaire antisymétrique, que l’on peut encore écrire :

ω(ξ, η) = ξ T Jη,

où J est la matrice définie précédemment.

3.3.2 Transformations symplectiques


Définition 3.3 Une application linéaire A : R2d → R2d (confondue une fois encore avec sa représentation
matricielle de GL2d (R)) est dite symplectique si :

AT JA = J,

c’est-à-dire de manière équivalente, si :

∀(ξ, η) ∈ R2d × R2d , ω(Aξ, Aη) = ω(ξ, η).

En dimension d = 1, la symplecticité de A ne traduit rien d’autre que la conservation des aires. En


dimension d > 1, elle traduit la conservation de la somme des aires orientées des projections sur les
plans (pi , qi ).

8
∂ψ ∂ψ
ds ∂t
dt ∂g◦ψ
∂s g ∂s
ds

R2d−2

∂g◦ψ
∂t
dt
(p0 , q0 )
g(p0 , q0 )
qI
I
q

pI pI

F IGURE 2 – Image de M par g

Définition 3.4 Une application g de U ouvert de R2d dans R2d , de classe C 1 sur U, est dite symplec-
tique si sa matrice jacobienne g ′ (y) est symplectique pour tout y de U, c’est-à-dire si :
T
∀y ∈ U, (g ′(y)) Jg ′ (y) = J,

ou de manière équivalente si :

∀y ∈ U, ∀(ξ, η) ∈ R2d × R2d , ω(g ′(y)ξ, g ′(y)η) = ω(ξ, η).

Soit M une variété bidimensionnelle de U, telle qu’il existe une “carte globale” :

M = ψ(K),

où K est un compact de R2 et ψ(s, t) un difféomorphisme de K dans M. M peut être vue comme la
limite de l’union de “petits parallélogrammes” engendrés par les vecteurs
∂ψ ∂ψ
ds et dt.
∂s ∂t
Alors, la somme des aires orientées des projections sur les plans (pi , qi ) de tous ces parallélogrammes
s’écrit :
∂ψ ∂ψ
ZZ
Ω(M) = ω( (s, t), (s, t))dsdt.
K ∂s ∂t

Théorème 3.5 Soit U un ouvert de R2d et g une application de U dans R2d , de classe C 1 . Si g est
symplectique sur U, alors elle préserve Ω(M), c’est-à-dire :

Ω(g(M)) = Ω(M)

9
Preuve. La sous-variété g(M) peut être paramétrée par g ◦ ψ sur K. On a donc :
∂g ◦ ψ ∂g ◦ ψ
ZZ
Ω(g(M)) = ω( (s, t), (s, t))dsdt
K ∂s ∂t
∂ψ ∂ψ
ZZ
= ω(g ′(ψ(s, t)) (s, t), g ′(ψ(s, t)) (s, t))dsdt
K ∂s ∂t
ZZ  T
∂ψ T ∂ψ
= (s, t) (g ′ (ψ(s, t))) Jg ′(ψ(s, t)) (s, t)dsdt
K ∂s | {z } ∂t
=J
= Ω(M)

3.3.3 Symplecticité du flot d’un système Hamiltonien


On considère toujours une fonction f (y) = J −1 ∇y H(y) et le système différentiel Hamiltonian
associé.
Théorème 3.6 (Poincaré 1899) Soit H(·) une fonction de classe C 2 d’un ouvert D de R2d dans R
(telle que ∇y H(·) soit localement Lipschitzienne). Alors pour tout (t, y) ∈ Ω0 , ϕt est une transfor-
mation symplectique.
Preuve. La matrice Ψt (y) = ∂ϕ
∂y
t
est solution de l’équation variationnelle :

Ψ̇t (y) = J −1 ∇2 H(ϕt (y))Ψt(y)
Ψ0 (y) = I2d
T
Or ∇2 H(ϕt (y)) est symétrique, i.e. ((∇2 H(ϕt (y))) = ∇2 H(ϕt (y)). D’où :

d
ΨTt (y)JΨt (y) = Ψ̇Tt (y)JΨt (y) + ΨTt (y)J Ψ̇t(y),

dt
= ΨTt (y)(∇2H)T |J −T T T
{z J} Ψt (y) + Ψt (y) J
−1 2
| {zJ}(∇ H)Ψt (y)
=−J −1 J=−I =I
= 0
En outre, pour t = 0 on a
ΨT0 (y)JΨ0 (y) = I T JI = J
ce qui permet de conclure.

Théorème 3.7 Soit D un ouvert connexe de R2d et f une fonction C 1 de D dans R2d . On suppose
qu’il existe un t > 0 et un ouvert U simplement connexe ou étoilé tels que [0, t] × U ⊂ Ω0 et que pour
tout 0 ≤ s ≤ t et tout y ∈ U, ϕs (y) est symplectique. Alors, ẏ = f (y) est un système Hamiltonien sur
U, c’est-à-dire qu’il existe une fonction H de classe C 2 sur U telle que
∀y ∈ U, f (y) = J −1 ∇y H(y).

10
Preuve. Pour tout (s, y) ∈ [0, t] × U, Ψs (y) = ∂ϕ
∂y
s
est solution de l’équation variationnelle :

Ψ̇s (y) = f ′ (ϕs (y))Ψs (y)
Ψ0 (y) = I2d
En différentiant, il vient :
d  
ΨTs (y)JΨs (y) = ΨTs (y) (f ′ (ϕs (y)))T J + Jf ′ (ϕs (y)) Ψs (y)

ds
En écrivant l’égalité pour s = 0 et en tenant compte de J T = −J, on voit que Jf ′ (y) doit être
symétrique pour tout y ∈ U. Donc Jf ′ (y) = ∇y H(y) d’après le lemme d’intégrabilité détaillé ci-
après.

Lemme 3.8 (Lemme d’intégrabilité) Soit U un ouvert de Rn et f : U → Rn une fonction de classe


C 1 , telle que f ′ (y) soit symétrique pour tout y ∈ U. Alors, pour tout y0 de D, il existe un voisinage
V(y0 ) et une fonction H définie sur V(y0 ) telle que :

∀ y ∈ V(y0 ), f (y) = ∇y H(y). (6)

Preuve. Soit B0 ⊂ U une boule de centre y0 contenue dans U. On définit H sur B0 par :
Z 1
H(y) = (y − y0 )T f (y0 + t(y − y0 ))dt.
0

Il vient alors, en utilisant la symétrie de f ′ (y) :


Z 1
∂H ∂f
(y) = fj (y0 + t(y − y0 )) + t(y − y0 )T (y0 + t(y − y0 ))dt
∂yj 0 ∂yj
Z 1
= fj (y0 + t(y − y0 )) + t(y − y0 )T (∇y fj )(y0 + t(y − y0 ))dt
Z0 1
d
= (tfj (y0 + t(y − y0 ))) dt
0 dt
= fj (y)

Remarque 3.9 Lorsque l’ouvert considéré est étoilé par rapport à l’un de ses points y0 ∈ U, alors
on peut définir H sur tout U.

Remarque 3.10 Dans le cas général d’un ouvert quelconque, le résultat du théorème 3.7 est faux.
Considérons par exemple le système :
p
ṗ = p2 +q

2
q (7)
q̇ = p2 +q2

11
q

δ(t)
δ0

F IGURE 3 – Symplecticité du flot de (7) : conservation de l’aire

défini sur U = {(p, q) ∈ R2 ; (p, q) 6= (0, 0)}. Pour (p0 , q0 ) ∈ U, le flot s’écrit :
 
p0
ϕt (p0 , q0 ) = α(t, r0 ) ,
q0
p p
avec α(t, r0) = 1 + 2t/r02 et r0 = p20 + q02 . Sa dérivée ∂(p∂ϕ t
0 ,q0 )
est de la forme :
 " p2
#
(∂r0 α) r00 + α (∂r0 α) pr00q0

∂ϕt (∂p0 α)p0 + α (∂q0 α)p0
= = q2 .
∂(p0 , q0 ) (∂p0 α)q0 (∂q0 α)q0 + α (∂r0 α) p0q0 (∂r0 α) 0 + α
r0 r0

C’est une matrice symplectique si α2 + αr0 (∂r0 α) = 1, ce qui se vérifie par un simple calcul.
Localement, on peut écrire le système comme un système Hamiltonien. Par exemple, dans le demi-
plan p > 0, on peut prendre H(p, q) = − arctan qp et vérifier que :
1 1 p
− ∇q H(p, q) = 2 = = ṗ (8)
q
p 1+ 2 p + q2
2
p
q 1 q
∇p H(p, q) = 2 2 = = q̇ (9)
p 1 + q2 p2 + q 2
p

A contrario, supposons qu’il existe un H de classe C 2 sur U, tel que le champ de vecteur f (p, q) =
(p2 + q 2 )−1 [p, q]T s’écrive f (p, q) = J −1 ∇p,q H(p, q). Considérons alors la forme différentielle
ωp,q = f2 (p, q)dp − f1 (p, q)dq (10)
et calculons son intégrale le long du chemin Γ paramétré par (p, q) = (cos(θ), sin(θ)) :
Z Z 2π   Z 2π
− sin(θ)
ω= ωcos(θ),sin(θ) dθ = (− sin2 (θ) − cos2 (θ))dθ = −2π
Γ 0 cos(θ) 0

Or on aurait par ailleurs ωp,q = (∂p H)(p, q)dp + (∂q H)(p, q)dq = dH dont l’intégrale sur Γ est
nulle. H ne peut donc pas être défini sur tout U. L’hypothèse de simple connexité est essentielle pour
cela.

12
4 Flot et dérivées de Lie
Dans cette partie, nous nous intéressons à la composition de flots associés à des fonctions f1 et f2
différentes. Il est en effet naturel, dans un certain nombre de situations, de considérer les flots ϕ1t et
ϕ2t associés à chacun des termes de la somme f = f1 + f2 de deux fonctions de Rd and Rd , supposées
toutes deux continues et localement Lipschitziennes sur un ouvert connexe D.

4.1 Représentation exponentielle du flot


Définition 4.1 Soit f une fonction C 1 (D, Rd). L’opérateur dérivée de Lie Lf est défini par :
 
∂·
Lf = f,
∂y

au sens où, si g une fonction de C 1 (Rd , Rm ), on a :


 
∂g
d
∀ y ∈ R , Lf [g](y) = (y) f (y) = g ′ (y)f (y)
∂y

Si f et g sont supposées de classe C ∞ , alors on peut itérer l’opérateur Lf et considérer ses puissances
Lkf en définissant
Lk+1
f [g] = Lf [Lkf [g]], k = 1, . . . , ∞
On obtient par exemple :

L2f [g] = g ′′(f, f ) + g ′ f ′ f


L3f [g] = g ′′′ (f, f, f ) + 3g ′′ (f ′ f, f ) + g ′f ′′ (f, f ) + g ′ f ′ f ′ f

Par ailleurs, il vient successivement


d
g(ϕt(y)) = g ′ (ϕt (y))ϕ̇t (y) = g ′ (ϕt (y))f (ϕt(y)) = Lf [g](ϕt (y))
dt
d2 d
2
g(ϕt(y)) = g ′′ (ϕ̇t (y), f ) + g ′ f ′ ϕ̇t (y) = Lf [ g(ϕt (y))] = L2f [g](ϕt (y))
dt dt
où l’argument ϕt (y) de g ′′ , f ′ et f a été omis dans la second ligne pour alléger les notations, et plus
généralement

dk
k
g(ϕt (y)) = (Lkf [g])(ϕt(y))
dt
de sorte que le développement en série de Taylor de g(ϕt (y)) en t = 0 s’écrit :
X tk
g(ϕt (y)) = (Lkf [g])(y) = exp(tLf )[g](y),
k≥0
k!

13
et pour g(y) = y :
ϕt (y) = exp(tLf )[Id](y)
Notons que la série converge si f est analytique.
Remarque 4.2 L’opérateur Lf fait apparaı̂tre la dérivée première de son argument g et est dit
d’ordre 1 pour cette raison. Le k-ième itéré de Lf fait apparaı̂tre la dérivée k-ième de son argu-
ment g et est dit d’ordre k.

4.2 Composition de flots et opérateur dérivée de Lie


Considérons maintenant le cas de deux fonctions f1 et f2 de C 1 (Rd , Rd ). Les dérivées de Lie
associées peuvent être appliquées l’une après l’autre. Par exemple, on a
(Lf1 Lf2 )[g] = Lf1 [Lf2 [g]] = g ′′ (f1 , f2 ) + g ′f2′ f1
(Lf2 Lf1 )[g] = Lf2 [Lf1 [g]] = g ′′ (f2 , f1 ) + g ′f1′ f2
d’où il apparaı̂t clairement que les opérateurs Lf1 et Lf2 ne commutent pas en général. Les deux
opérateurs Lf1 Lf2 et Lf2 Lf1 sont d’ordre 2, mais de manière remarquable,
Lf1 Lf2 − Lf2 Lf1 est d’ordre 1
puisque le terme g ′′(f1 , f2 ) = g ′′ (f2 , f1 ) disparaı̂t.
La composition des flots ϕ1s et ϕ2t peut alors s’écrire (formellement ) comme :
(ϕ2t ◦ ϕ1s )(y) = exp(sLf1 ) exp(tLf2 )[Id](y). (11)
Les opérateurs apparaissent dans l’ordre inverse car (11) s’obtient en considérant g(y) = ϕ2t (y) et en
développant g(ϕ1s (y)). Les séries considérées sont des séries formelles, en général non convergentes,
car les opérateurs Lf1 et Lf2 sont non bornés. Par ailleurs, si Lf1 et Lf2 ne commutent pas, alors
exp(sLf1 ) exp(tLf2 ) 6= exp(sLf1 +tLf2 ). Cependant, on peut formellement procéder à l’identification
exp(sLf1 ) exp(tLf2 ) = exp(L(s, t)) avec
s2 t st2
L(s, t) = sLf1 + tLf2 + st[Lf1 , Lf2 ] + [Lf1 , [Lf1 , Lf2 ]] + [Lf , [Lf2 , Lf1 ]] + . . . (12)
12 12 2
où [Lf1 , Lf2 ] = Lf1 Lf2 − Lf2 Lf1 . Cette identification devient rigoureuse si elle est interprétée comme
l’identification de développements de Taylor au voisinage de s = t = 0. Les termes suivants
du développement sont donnés par la formule Baker-Campbell-Hausdorff (BCH). La formule (12)
conduit à penser que si [Lf1 , Lf2 ] = 0, alors les flots ϕ1s et ϕ2t commutent. Le résultat est vrai mais ne
peut être démontré à partir de (12) puisque les séries considérées ne sont pas convergentes.
Théorème 4.3 Soient f1 et f2 deux champs de vecteurs de C 1 (Rd , Rd ). La composition des flots ϕ1s et
ϕ2t est commutative si et seulement si
  
∂· ∂f1 ∂f2
[Lf1 , Lf2 ] = f2 − f1 = 0.
∂y ∂y ∂y

14
Preuve. Quitte à reparamétriser s en multipliant f1 par une constante (ce qui ne change rien à la nullité
du crochet de Lie), on peut considérer s = t. On remarque tout d’abord que, d’après la formule (12),
pour tout y de Rd , et pour h > 0 suffisament petit :
(ϕ2h ◦ ϕ1h − ϕ2h ◦ ϕ1h )(y) = O(h3 ) (13)
où la constante contenue dans O est obtenue par majoration des dérivées sur un compact contenant
(ϕ2u ◦ ϕ1v )(y) et (ϕ1v ◦ ϕ2u )(y) pour tout 0 ≤ u, v ≤ t. Prenons h = t/N. Il vient :
ϕ2t ◦ ϕ1t = ϕ2t−h ◦ ϕ2h ◦ ϕ1h ◦ ϕ1t−h
= ϕ2t−h ◦ ϕ1h ◦ ϕ2h ◦ ϕ1t−h + O(h3 )
= ϕ2t−h ◦ ϕ12h ◦ ϕ2h ◦ ϕ1t−2h + 2O(h3 )
= ···
= ϕ2t−h ◦ ϕ1N h ◦ ϕ2h + NO(h3 ).
En répétant l’opération N fois, on obtient :
(ϕ2t ◦ ϕ1t − ϕ1t ◦ ϕ2t ) = N 2 O(h3 ) = O(1/N) (14)

Preuve. [Preuve alternative] Quitte à reparamétriser s en multipliant f1 par une constante (ce qui ne
change rien à la nullité du crochet de Lie), on peut considérer s = t. La loi de groupe ϕ1t ◦ ϕ1s =
ϕ1t+s = ϕ1s ◦ ϕ1t donne par dérivation par rapport à t
ϕ̇1t ◦ ϕ1s = ∂y (ϕ1s ) ◦ ϕ1t · ϕ̇1t
i.e.
f1 ◦ ϕ1t ◦ ϕ1s = ∂y (ϕ1s ) ◦ ϕ1t · (f1 ◦ ϕ1t )
et donc pour t = 0
f1 ◦ ϕ1s = ∂y (ϕ1s ) · f1 .
Montrons la relation similaire suivante
(∂y ϕ1t ) · f2 = f2 ◦ ϕ1t .
On a par dérivation à nouveau
d 1 1

(∂y ϕt ) · f2 − f2 ◦ ϕt = (∂y ϕ̇1t ) · f2 − ∂y f2 ◦ ϕ1t · ϕ̇1t
dt
= ∂y f1 ◦ ϕ1t · ∂y ϕ1t · f2 − ∂y f2 ◦ ϕ1t · f1 ◦ ϕ1t
= ∂y f1 ◦ ϕ1t · ∂y ϕ1t · f2 − ∂y f1 ◦ ϕ1t · f2 ◦ ϕ1t
 
= ∂y f1 ◦ ϕ1t · (∂y ϕ1t ) · f2 − f2 ◦ ϕ1t
où l’on a utilisé la nullité du crochet de Lie et remplacé ∂y f2 · f1 par ∂y f1 · f2 . Donc la fonction
w(t) := (∂y ϕ1t ) · f2 − f2 ◦ ϕ1t satisfait une équation différentielle linéaire avec condition initiale

15
w(0) = f2 − f2 = 0. Elle est donc constamment nulle. Il vient maintenant
d 1
(ϕ ◦ ϕ2t ) = (ϕ̇1t ) ◦ ϕ2t + (∂y ϕ1t ) ◦ ϕ2t · ϕ̇2t
dt t
= f1 ◦ ϕ1t ◦ ϕ2t + (∂y ϕ1t ) ◦ ϕ2t · f2 ◦ ϕ2t
= (f1 + f2 ) ◦ (ϕ1t ◦ ϕ2t )
La même relation est satisfaite par ϕ2t ◦ ϕ1t . Les fonctions ϕ2t ◦ ϕ1t et ϕ1t ◦ ϕ2t satisfont donc la même
équation différentielle avec la même condition initiale ϕ20 ◦ ϕ10 = ϕ10 ◦ ϕ20 = id, donc par unicité sont
égales.

16
Chapitre 6: flot numérique et conditions d’ordre
Philippe Chartier
26 novembre 2013

On considère le problème de Cauchy sous forme autonome :



ẏ(t) = f (y(t))
, (0.1)
y(t0) = y0

où f est une fonction définie sur Rd et y0 un point de Rd . On suppose en outre que f est continue
et globalement Lipschitzienne, de sorte que pour tout y0 ∈ Rd , le système (0.1) admet une solution
globale unique sur R. L’application flot exact ϕt (y) est ainsi définie pour tout (t, y) ∈ R × Rd . On
suppose en outre dans tout ce chapitre que f est suffisamment régulière, par exemple ici que f est
indéfiniment différentiable.
De très nombreux problèmes applicatifs sont mis en équation à l’aide d’un système d’équations
différentielles de la forme (0.1) (voir par exemple le mouvement à deux corps dans le cours d’introduc-
tion). Au moment de l’approximation numérique, il est nécessaire (connaissant une valeur initiale) de
pouvoir calculer une ou plusieurs valeurs y(T1 ), y(T2 )... L’objet de ce cours est l’étude des méthodes
qui permettent d’opérer ce calcul (à l’aide d’un ordinateur). On va aussi répondre aux questions sui-
vantes : existe-t-il des méthodes arbitrairement précises ? Quelles sont les conditions à imposer pour
que la solution numérique approche la solution exacte à un certain ordre ?

1 Définition du flot numérique et de l’ordre local


L’exemple le plus élémentaire est la méthode d’Euler : on subdivise l’intervalle [0, T ] en 0 = t0 <
t1 < . . . < tN = T , ti = t0 + nh et, pour t voisin de tn , on utilise les approximations

y(tn+1 ) − y(tn )
ẏ(t) ≈
h
et
f (y(t)) ≈ f (y(tn ))
En reportant dans l’équation différentielle, on aboutit à la méthode d’Euler :

yn+1 = yn + hf (yn )

1
où yn = y(tn ). En commençant avec y0 pour n = 0, on calcule de proche en proche (récursivement)
y1 , y2 ,... jusqu’à yN qui est sensé fournir une valeur approchée de ϕT (y0) = y(T ). On verra que,
lorsque h → 0, on a yN → y(T ). Cela montre l’existence d’une méthode d’approximation numérique.

y1
y1
ỹ(t) D
D
y0 y(t) y0 y(t)

h h

t0 t1 = t0 + h t0 t1 = t0 + h
Explicite Implicite

F IGURE 1 – Méthodes d’Euler

Définition 1.1 On appelle flot numérique une application φh définie sur I × Rd à valeurs dans Rd
où I est un intervalle ouvert contenant 0, telle que, pour tout h ∈ I et tout y ∈ Rd , φh (y) soit une
approximation de ϕh (y).

Exemple 1.2 Pour la méthode d’Euler explicite définie ci-avant, on a

φh (y) = y + hf (y)

Le flot numérique associé à la méthode d’Euler implicite (voir figure 1) est quant à lui donné par
l’équation  
φh (y) = y + hf φh (y)

Définition 1.3 Soit φh un flot numérique. On dit que φh est d’ordre p si il existe une fonction ǫ de
I × Rd dans Rd où I est un intervalle ouvert de R contenant 0, continue et telle que

φh (y) = ϕh (y) + hp+1 ǫ(h, y) (1.2)

1.1 Méthodes de Runge-Kutta


Les méthodes de Runge-Kutta sont une généralisation possible (comme le sont par ailleurs les
méthodes multipas dont nous ne traiterons pas dans ce cours) de la méthode d’Euler explicite.

2
Définition 1.4 Soient b ∈ Rs et A ∈ Ms (R), respectivement un vecteur et une matrice de coefficients
à valeurs réelles. Les relations suivantes
Yi = y0 + h sj=1 aij f (Yj ), i = 1, . . . , s,
P
(1.3)
y1 = y0 + h sj=1 bj f (Yj ),
P

définissent un pas de la méthode de Runge-Kutta notée (A, b). Les vecteurs Yi sont les étapes internes
de la méthode, tandis que y1 désigne l’approximation après un pas.

Remarque 1.5 Lorsque A est triangulaire inférieure stricte, la méthode est dite explicite. Il est en
effet aisé de voir que les étapes internes Y1 , ..., Ys peuvent être calculées successivement dans cet
ordre en fonction de quantités déjà évaluées. En toute généralité (A quelconque), la méthode est dite
implicite, et nécessite la résolution d’un système non-linéaire (pour un champ f non-linéaire) par
une méthode itérative (méthode du point-fixe ou variante de la méthode de Newton). Les méthodes
de Runge-Kutta sont généralement représentées par leur tableau de Butcher (dans lequel on prend
c = A1 où 1 = (1, . . . , 1)T ∈ Rs ) :

c1 a11 . . . a1s
.. .. ..
. . . (1.4)
cs as1 . . . ass
b1 . . . bs

Exemple 1.6 Les méthodes d’Euler, respectivement explicite et implicite, sont représentables par les
tableaux respectifs suivants :

0 0 1 1
et
1 1

La méthode dite “de Runge” est représentable par le tableau :

0 0 0
1/2 1/2 0
0 1

Exemple 1.7 Supposons que f soit scalaire et linéaire, de la forme f (y) = λy, λ ∈ C. Alors le flot
numérique φRK
h associé à une méthode de Runge-Kutta (A, b) est donné pour h suffisamment petit
par
∀y ∈ Rd , φRK
h (y) = R(λh)y

où
R(z) = 1 + zbT (I − zA)−1 1
La fonction R est appelée fonction de stabilité de la méthode de Runge-Kutta : lorsque |R(z)| ≤ 1,
la méthode est dite stable.

3
1.2 Méthodes de composition
Soit φh le flot numérique d’une méthode fixée, tel que

φh (y) = y + hf (y) + O(h2 )

Soient alors γ1 , ..., γs des nombres réels. La composition de φh pour les pas γ1 h, ..., γs h

ψh = φγs h ◦ · · · ◦ φγ1 h . (1.5)

est appelée méthode de composition. L’intérêt de ce genre de composition est qu’il est possible de
choisir les coefficients γ1 , ..., γs de manière à ce que ψh soit plus précise que φh tout en concervant
les propriétés géométriques de φh . Ainsi, si le flot numérique φh est symplectique, il en sera de même
de ψh , si φh conserve le volume, alors ψh également, ...

Exemple 1.8 Supposons que φh soit le flot numérique associé à la méthode suivante (d’ordre 2)
1
φh (y) = y + hf (y) + h2 f ′ (y)f (y) = ϕh (y) + O(h3 )
2
Alors, la composition
ψh = φγ3 h ◦ φγ2 h ◦ φγ1 h
avec γ1 + γ2 + γ3 = 1 et γ13 + γ23 + γ33 = 0, vérifie

ψh (y) = ϕh (y) + O(h4 )

et est donc asymptotiquement plus précise que la méthode d’Euler (elle est d’ordre au moins 3)

1.3 Méthodes de splitting


Les méthodes de splitting reposent sur une décomposition additive du champ de vecteur f en 2
(ou plus dans le cas général qu’on ne traitera pas ici) fonctions que l’on sait intégrer, soit exactement,
soit numériquement :

f (y) = f1 (y) + f2 (y).

Supposons par exemple que les flots exacts ϕ1t et ϕ2t associées aux deux systèmes

ẏ = f1 (y) and ẏ = f2 (y),

avec même condition initale puissent être calculés. Alors, partant d’une valeur approchée y0 de la
solution, on calcule

φh (y0 ) = (ϕ2h ◦ ϕ1h )(y0 ) ou φ∗h (y0 ) = (ϕ1h ◦ ϕ2h )(y0 ).

4
On rappelle qu’en raison des propriétés du flot exact (loi de groupe pour les flots des systèmes auto-
nomes), on a ϕ1−t = (ϕ1t )−1 et de même pour ϕ2t de sorte que φ∗t est l’adjoint de φt , i.e.

φ∗t = (φ−t )−1 .

Les deux valeurs φ∗h (y0 ) et φh (y0 ) sont des approximations d’ordre 1 de la solution exacte, comme on
peut le voir à partir des premiers termes du développement en série de Taylor :
   
φh (y0 ) = ϕ1h ϕ2h (y0 ) = ϕ1h y0 + hf2 (y0 ) + O(h2 )
 
= y0 + hf2 (y0 ) + O(h2 ) + hf1 y0 + hf2 (y0) + O(h2 ) + O(h2 )
 
= y0 + h f1 (y0 ) + f2 (y0 ) + O(h2 )
= y0 + hf (y0 ) + O(h2 )

Les formules pour φh et φ∗h sont connues sous le nom de formules de Lie-Trotter. Une autre formule
célèbre est la formule de Strang qui correspond à la composition suivante

φSh = ϕ1h/2 ◦ ϕ2h ◦ ϕ1h/2

On vérifie facilement qu’elle est d’ordre 2.


Remarque 1.9 Il est clairement possible de généraliser cette technique dans deux directions :
– en décomposant f en N ≥ 3 parties
N
X
f (y) = fn (y)
n=1

puis en considérant les méthodes de la forme

φh = ϕ1h ◦ ϕ2h ◦ · · · ◦ ϕN
h

– en composant les flots numériques φh and φ∗h (par exemple) pour obtenir des méthodes d’ordres
plus élevés.

2 Transport et accumulation des erreurs locales : erreur globale


L’erreur globale, c’est-à-dire l’erreur d’approximation de la solution exacte à l’extrémité T de
l’intervalle d’intégration, résulte du transport et de l’accumulation en bout d’intervalle des erreurs lo-
cales. Dans ce paragraphe, nous estimons cette erreur globale pour des flots numériques quelconques
d’ordres au moins 1.
Soit donc, pour un flot numérique φh , la séquence des approximations numériques

yk+1 = φh (yk ), k = 0, . . . , N − 1 (2.6)

5
associée à une subdivision à pas h = T /N constant t0 = 0, t1 , ..., tN = T de l’intervalle d’intégration
[0, T ]. L’objectif est d’estimer la quantité

E = ϕN h (y0 ) − yN . (2.7)
Une majoration de kEk peut alors être obtenue en remarquant que E est la somme des erreurs Ek
(voir figure 2) et en écrivant donc :
E = ϕN h (y0 ) − yN
NX−2
= E1 + Ek+1 + EN (2.8)
k=1
−2
 NX 
= ϕN h (y0 ) − ϕ(N −1)h (y1 ) + ϕ(N −k)h (yk ) − ϕ(N −k−1)h (yk+1) + (ϕh (yN −1 ) − yN )
k=1

où chaque terme Ek+1 = ϕ(N −k)h (yk ) − ϕ(N −k−1)h (yk+1) représente la contribution de l’erreur
locale ek+1 = ϕh (yk ) − yk+1 à l’erreur globale.
Supposons maintenant que le flot numérique considéré φh est d’ordre p, de sorte que sur tout
compact K ⊂ Rd , il existe une constante C > 0 pour laquelle
kek k ≤ Chp+1 (2.9)

On rappelle maintenant une version simplifiée du lemme de Gronwall :


Lemme 2.1 Pour ti ∈ [0, T ], soient ϕt−ti (y) et ϕt−ti (ŷ) les solutions exactes de (0.1) avec conditions
initiales respectives y et ŷ en t = ti . Soit en outre L la constante de Lipschitz de f sur Rd . Alors, pour
tout t dans [ti , T ], on a

kϕt−ti (y) − ϕt−ti (ŷ)k ≤ ky − ŷkeL(T −ti ) (2.10)

Théorème 2.2 Sout Kρ ⊂ Rn un voisinage compact de la solution exacte ϕt (y0 ), t ∈ [0, T ] de (0.1)
de la forme
Kρ = {y ∈ Rd ; ∃t ∈ [0, T ], ky − ϕt (y0 )k ≤ ρ}, ρ > 0
Alors pour h suffisamment petit (i.e. N suffisamment grand), l’erreur globale est majorée par
C LT
kEk ≤ hp

e −1 (2.11)
L
où h = T /N.

Preuve. Le flot numérique φh étant d’ordre p, pour un h0 > 0 dans I donné, on peut majorer ǫ(h, y)
sur [0, h0 ]×Kρ par une constante C > 0. Supposons que la séquence des yi soit toute entière contenue
dans Kρ . Alors, d’après le lemme de Gronwall, on a
N Z T
X
L(T −ti ) C LT
p p
eL(T −t) dt ≤ hp

kEk ≤ Ch he ≤ Ch e −1
0 L
k=1

6
E1

y [0] (t) = y(t) E2


e1
y1 E3
y [1] (t)
e2 y [2] (t)
y2 y [3] (t)
e3
y3
y4

EN
yN

t0 t1 t2 t3 t4 tN −1 tN

F IGURE 2 – Transport et accumulation des erreurs locales.

Maintenant, si h est tel que


C L(T −t0 )
hp

e −1 ≤ρ
L
alors on peut montrer par récurrence que la séquence des yi ne sort pas du compact Kρ et donc que
l’estimation obtenue est valable.

Remarque 2.3 Le théorème reste valable pour une subdivision de l’intervalle d’intégration à pas
non constants. Il fait alors remplacer h par le maximum des (ti+1 − ti ).

3 Détermination des conditions d’ordre pour les méthodes de


Runge-Kutta
Il est clair qu’une estimation du type (1.2) ne peut reposer que sur un développement en série de
Taylor des deux flots ϕh et φh . On rappelle donc dans le paragraphe suivant, la forme que revêt le
développement de Taylor d’une fonction à plusieurs variables.

7
3.1 Rappel de calcul différentiel
Série de Taylor pour d variables : pour y ∈ Rd fixé et ∆ ∈ Rd , on rappelle que toute fonction
f de Rd dans Rd indéfiniment différentiable est développable en série de Taylor
∞ d d d
X 1 XX X ∂ q fi (y)
fi (y + ∆) = fi (y) + ... ∆j1 · · · ∆jq (3.12)
q=1
q! j =1 j =1 j =1
∂y j 1 ∂y j 2 . . . ∂y j q
1 2 q

Sous cette forme, les termes de la série sont difficiles à manipuler, et on leur préfère la représentation
compacte suivante, basée sur les formes multilinéaires :

f (q) (y) : Rd × Rd × . . . × Rd → Rd
 
(1) (q) (q) (1) (q)
(∆ , . . . , ∆ ) 7→ f (y) ∆ , . . . , ∆

où les composantes de ce vecteur sont définies par


d
d X d

(q)

(1) (q)
 X X ∂ q fi (y) (1) (q)
∀i = 1, . . . , d, f (y) ∆ , . . . , ∆ = ... ∆j1 · · · ∆jq
i
j1 =1 j2 =1 jq =1
∂yj1 ∂yj2 . . . ∂yjq

Il est important de noter les deux propriétés suivantes :


– l’application f (q) (y) est linéaire en chacun de ses arguments ;
– si σ est une permutation de {1, . . . , q}, alors
   
(q) (1) (q) (q) (σ(1)) (σ(q))
f (y) ∆ , . . . , ∆ = f (y) ∆ ,...,∆

La série de Taylor de f peut donc aussi s’écrire



X 1 (q)  
f (y + ∆) = f (y) + f (y) ∆, . . . , ∆
q=1
q! | {z }
q termes

Généralement, cette série ne converge pas. C’est la raison pour laquelle, on lui préfère la version
tronquée avec reste.

Formule de Taylor avec reste intégral : pour y ∈ Rd fixé et ∆ ∈ Rd , on rappelle que toute
fonction f de Rd dans Rd indéfiniment différentiable est développable en série de Taylor avec reste
N
X 1 (q)  
f (y + ∆) = f (y) + f (y) ∆, . . . , ∆ + RN +1 (y, ∆)
q=1
q!

où
1
(1 − t)N (N +1)
Z  
RN +1 (y, ∆) = f (y + t∆) ∆, . . . , ∆ dt
0 N!

8
3.2 Les premier termes
Avant de poursuivre de manière systématique, considérons par exemple -et en raison de sa simpli-
cité- le flot numérique φh (y0 ) associé à la méthode d’Euler implicite :
φh (y0 ) = y0 + hf (φh (y0 )).
En remplaçant dans le membre de droite φh (y0 ) par y0 + O(h) et en développant, puis en réitérant le
processus avec l’approximation ainsi obtenue, on obtient successivement
φh (y0 ) = y0 + h f (y0 ) +O(h2 ),
| {z }
d
= dt ϕt (y0 )|
t=0

φh (y0 ) = y0 + h f (y0 ) +h2 f ′ (y0 )f (y0) +O(h3 ).


| {z } | {z }
d
= dt ϕt (y0 )| = d2
ϕt (y0 )
t=0 dt2 t=0

Le développement de Taylor de φh (y0 ) à l’ordre 2 ne fait donc apparaı̂tre que des dérivées de la
solution exacte ϕt (y0 ) au point t = 0. Cependant, une itération supplémentaire permet d’obtenir le
terme d’ordre 3
 1 
h3 f ′ (y0 )f ′ (y0 )f (y0 ) + f ′′ (y0 ) f (y0 ), f (y0) ,
| 2
{z }
d3
6= ϕt (y0 ) =f ′ (y0 )f ′ (y0 )f (y0 )+f ′′ (y0 ) f (y0 ),f (y0 )
dt3 t=0

3
qui lui, ne coı̈ncide pas avec dtd 3 ϕt (y0 ) . Le développement de Taylor à tout ordre de φh (y0 )
t=0
nécessite ainsi de distinguer chacune des dérivées de f . Il est bien sûr légitime d’omettre l’argu-
ment y0 (ce que nous ferons désormais) dans f (y0 ), f ′ (y0 ), f ′′ (y0 ), ..., ce qui allège l’écriture, mais
ne suffit pas à rendre lisible l’ensemble de la série. Une complication supplémentaire tient à l’occu-
rence de coefficients devant chacun des termes (par exemple le coefficient 1/2 devant f ′′ (f, f )) qu’il
est indispensable de pouvoir calculer. Pour toutes ces raisons, il a été très tôt proposé (Cayley 1857)
de représenter les différentielles élémentaires de f par des arbres racinés, c’est-à-dire des graphes
orientés (par convention vers le haut, la racine étant “au pied de l’arbre”) et sans cycle. Dans les deux
paragraphes suivants, nous construisons les développements “en arbre” des séries de Taylor de la so-
lution exacte ϕh (y0 ), puis de la solution numérique φh (y0 ) obtenue par une méthode de Runge-Kutta.

3.3 Dérivées de la solution exacte


La solution numérique ne pouvant être développée qu’en fonction des dérivées de f , il convient
2
d’exprimer dtd ϕt (y0 ) t=0 , dtd 2 ϕt (y0 ) , ..., suivant la même base. Pour les quatre premières dérivées
t=0
de ϕh (y0 ), on obtient :
d
ϕt (y0 ) = f
dt t=0

9
d2
ϕt (y0 ) = f ′f
dt2 t=0

d3
ϕt (y0 ) = f ′′ (f, f ) + f ′ f ′ f
dt3 t=0

d4
ϕt (y0 ) = f ′′′ (f, f, f ) + f ′′ (f, f ) + f ′′ (f, f ′ f ) + f ′′ (f ′ f, f ) + f ′ f ′′ (f, f ) + f ′ f ′ f ′ f
dt4 t=0
= f ′′′ (f, f, f ) + 3f ′′ (f, f ′f ) + f ′ f ′′ (f, f ) + f ′ f ′ f ′ f

A chaque élément différentiel f , f ′ f , ..., a été associée la représentation graphique d’un arbre, dont
l’interprétation peut maintenant être décrite en 3 points :
1. la racine de l’arbre, comme tous les noeuds, correspond à l’élément différentiel obtenu en
dérivant f un certain nombre de fois (par rapport à y) ;
2. si un noeud possède k branches, alors la fonction f est dérivée k fois. C’est alors une fonction
multilinéaire à k arguments ;
3. le i − ème argument de cette fonction est l’élément différentiel correspondant à la i − ème
branche issue de ce noeud.
L’équivalence entre arbres et éléments différentiels peut maintenant être décrite formellement :

Définition 3.1 L’ensemble T des arbres est défini récursivement par :


1. ∈T.
2. τ = [τ1 , . . . , τk ] ∈ T ssi (τ1 , . . . , τk ) ∈ T k .

La notation [τ1 , . . . , τk ] désigne l’arbre obtenu en connectant les k branches τ1 , . . . , τk à une nou-
velle racine commune. L’ordre des branches n’importe pas, pas plus que l’ordre des arguments de
f ′′ (f ′ f, f ), ou f ′′′ (f, f ′f, f ). Par exemple, on notera

[ , , ]= [[ ], ] = [[ , ]] = [[[ ]]] =

10
τ
F (τ ) f f ′f f ′′ (f, f ) f ′f ′f
Pd ∂fi Pd ∂ 2 fi Pd ∂fi ∂fj
Fi (τ ) fi j=1 ∂yj fj j=1,k=1 ∂yj ∂yk fj fk j=1,k=1 ∂yj ∂yk fk

Définition 3.2 A tout arbre τ de T , on associe l’élément différentiel F (τ ) défini récursivement par :
1. F ( )(y) = f (y),
 
∂k f
2. F ([τ1 , . . . , τk ])(y) = ∂y k
(y) F (τ1 )(y), . . . , F (τk )(y) .

Conformément à l’usage en vigueur dans ce paragraphe, nous omettons dans F (τ )(y) l’argument
y lorsqu’aucune confusion n’est possible, et notons F (τ ) en lieu et place de F (τ )(y). Les premiers
termes du développement de Taylor de ϕh (y0 ) peuvent alors s’écrire sous la forme

h2  ′  h3  ′′ 
ϕh (y0 ) = y0 + hf + ff + f (f, f ) + f ′ f ′ f
2! 3!
h4  ′′′ 
+ f (f, f, f ) + 3f ′′ (f ′ f, f ) + f ′ f ′′ (f, f ) + f ′ f ′ f ′ f + . . .
4!
h2 h3  
= y0 + hF ( ) + F ( ) + F( ) + F( )
2! 3!
h4  
+ F( ) + 3F ( ) + F( ) + F( ) + ...
4!
Si l’ordre |τ | d’un arbre τ est défini comme son nombre de noeuds, on peut vérifier que les arbres
q
d’ordre q apparaissent tous dans dtd q ϕt (y0 ) t=0 . Il reste finalement à déterminer le coefficient α(τ )
qui apparaı̂t devant chaque arbre τ ∈ T . La tâche est facilitée par l’introduction du coefficient de
normalisation σ suivant :

Définition 3.3 On définit la symétrie σ(τ ) d’un arbre τ ∈ T récursivement de la manière suivante :
1. σ( ) = 1.
2. Si (τ1 , . . . , τk ) ∈ T k sont k arbres distincts, si r1 , r2 , . . . , rk sont k entiers non nuls, et si

τ = [τ1 , . . . , τ1 , . . . , τk , . . . , τk ],
| {z } | {z }
r1 rk

alors
k
Y
σ(τ ) = ri !σ(τi )ri .
i=1

11
τ
|τ | 1 2 3 3 4 4 4 4 5 5 5 5 5 5 5 5 5
σ(τ ) 1 1 2 1 6 1 2 1 24 2 2 2 1 6 1 2 1

F IGURE 3 – Arbres d’ordres inférieurs à 5 et coefficients de symétrie associés.

Les arbres d’ordres 1 à 5 sont énumérés dans le tableau 3 ainsi que les valeurs de σ associées.
On alors le résultat suivant :

Théorème 3.4 Le flot exact ϕh (y0) est développable en série formelle et on a :


X t|τ |
ϕt (y0 ) = y0 + F (τ )(y0 ), (3.13)
τ ∈T
σ(τ )γ(τ )

où le coefficient γ(τ ) est défini récursivement de la manière suivante :


1. γ( ) = 1,
Qk
2. γ([τ1 , . . . , τk ]) = |τ | j=1 γ(τj ).

Preuve. Il suffit de vérifier a posteriori que ϕt (y0 ) donné par le développement (3.13) est solution de
l’équation intégrale satisfaite par ϕt (y0 ), à savoir
Z t
ϕt (y0 ) = y0 + f (ϕs (y0 ))ds
0
A cet effet, on calcule :

X 1 (k)  
f (ϕs (y0 )) = f (y0 + ∆) = f (y0) + f ∆, ..., ∆ (3.14)
k=1
k! | {z }
k fois

où
X h|τ |
∆= F (τ )(y0 ).
τ ∈T
σ(τ )γ(τ )
En développant cette somme, on obtient donc
∞ X
X s|τ̃1 | · · · s|τ̃k |  
f (ϕs (y0 )) = f (y0 ) + f (k) F (τ̃1 ), . . . , F (τ̃k )
k=1 τ̃ ,...,τ̃
k!σ(τ̃1 ) · · · σ(τ̃k )γ(τ̃1 ) · · · γ(τ̃k )
1 k

12
On observe alors que, si τ = [τ̃1 , . . . , τ̃k ], on a par définition de F (τ ), |τ | et γ(τ ), les relations
suivantes
 
(k)
f F (τ̃1 ), . . . , F (τ̃k ) = F (τ )
t|τ̃1 | · · · t|τ̃k | = t|τ |−1
γ(τ )
et γ(τ̃1 ) · · · γ(τ̃k ) =
|τ |
et en réécrivant τ = [τ1 , . . . , τ1 , . . . , τm , . . . , τm ] où les τi sont désormais supposés distincts deux à
| {z } | {z }
Pm r1 rm
deux et j=1 ri = k, il vient
σ(τ )
σ(τ̃1 ) · · · σ(τ̃k ) = σ(τ1 )r1 · · · σ(τm )rm = .
r1 ! · · · rm !
On peut donc remplacer la somme sur les k-uplets d’arbres τ̃1 , . . . , τ̃n par une somme sur les arbres
τ = [τ̃1 , . . . , τ̃k ] à k branches : il faut cependant prendre garde au fait que les k-uplets τ̃1 , . . . , τ̃k sont
ordonnés, alors que les branches de τ ne le sont pas, et donc diviser par r1 !···r k!
m!
. On a finalement
X s|τ |−1
f (ϕs (y0 )) = |τ |F (τ ) (3.15)
τ ∈T
σ(τ )γ(τ )
et donc
t
t|τ |
Z X
y0 + f (ϕs (y0 )) = y0 + F (τ )
0 τ ∈T
σ(τ )γ(τ )

3.4 B-séries et développement de la solution numérique


Bien qu’il soit possible de construire le développement en série de Taylor de φh (y0 ) directement,
la tâche est rendue plus aisée par l’introduction du concept de B-séries, dont nous verrons plus loin
qu’il permet en outre de résoudre quelques questions profondes liées à la préservation des invariants.

Définition 3.5 Soit α une application de l’ensemble des arbres T vers R. On appelle B-série la série
formelle suivante :
X h|τ |
B(α, y0) = y0 + α(τ )F (τ )(y0 ) (3.16)
τ ∈T
σ(τ )

Remarque 3.6 Dans le cas général, une B-série n’est pas convergente : c’est déjà le cas lorsque le
champ de vecteur f est linéaire et scalaire pour lequel la série est entière. Il faut donc à ce stade
considérer la série comme formelle.

13
 
Lemme 3.7 Soit B(α, y0 ) une B-série. Alors y0 + hf B(α, y0 ) est encore une B-série et on a la
relation suivante
 
y0 + hf B(α, y0) = B(β, y0)

où β est défini récursivement par


1. β( ) = 1 ;
2. si τ = [τ1 , . . . , τk ] alors β(τ ) = α(τ1 ) . . . α(τk ).

Preuve. La preuve est quasiment identique à celle du théorème 3.4. En prenant


∆ = B(α, y0) − y0
dans la formule (3.14), on obtient l’équivalent de la formule (3.15) où l’on a essentiellement remplacé
1/γ par α :
  X h|τ |−1
f B(α, y0 ) = f (y0 ) + α(τ1 ) . . . α(τk )F (τ )
σ(τ )
τ =[τ1 ,...,τk ]∈T

de sorte que
  X h|τ |
y0 + hf B(α, y0 ) = y0 + β(τ )F (τ ).
τ ∈T
σ(τ )

Afin de déterminer le développement en série du flot numérique φh (y0 ) associé à une méthode
de Runge-Kutta (A, b), nous supposons que chaque étape interne Yi , pour i = 1, . . . , s, peut être
représentée par une B-série de coefficients αi , pour i = 1, . . . , s. Pour chaque arbre τ , on note α(τ )
le vecteur de Rs de composantes αi (τ ), i = 1, . . . , s. Les équations liant les Yi conduisent alors aux
relations :
s
X   s
X s
X 
Yi = y0 + ai,j hf B(αj , y0) = y0 + ai,j (B(βj , y0) − y0 ) = B ai,j βj , y0 .
j=1 j=1 j=1

En notant ⋄ le produit (commutatif et associatif) de vecteurs composante par composante défini


comme
∀(u, v) ∈ Rs × Rs , (u ⋄ v) = (ui vi )i=1,...,s
on obtient ainsi la formule récursive suivante :

α( ) = A1,
 
α([τ1 , . . . , τk ]) = A α(τ1 ) ⋄ α(τ2 ) ⋄ . . . ⋄ α(τk ) .

Il est alors aisé de prouver le théorème suivant :

14
Théorème 3.8 Soit une méthode de Runge-Kutta de coefficients (A, b) où A ∈ Ms (R) et b ∈ Rs . Le
flot numérique Φh associé à cette méthode est développable en B-série et on a
X h|τ |  
φh (y0 ) = y0 + bT Φ(τ ) F (τ )(y0 )
τ ∈T
σ(τ )

où Φ est la fonction de T à valeurs dans Rs définie récursivement par


1. Φ( ) = 1 ;
 
2. si τ = [τ1 , . . . , τk ] alors Φ(τ ) = A Φ(τ1 ) ⋄ Φ(τ2 ) ⋄ . . . ⋄ Φ(τk ) .

Théorème 3.9 Soit une méthode de Runge-Kutta de coefficients (A, b) où A ∈ Ms (R) et b ∈ Rs . Le
flot numérique associé φh est d’ordre local p + 1 (c’est-à-dire d’ordre global p) si et seulement si
1
∀τ ∈ T , |τ | ≤ p, bT Φ(τ ) = . (3.17)
γ(τ )

Preuve. Le caractère suffisant des conditions est clair : si deux B-séries coincident pour tous les
arbres d’ordres plus petits ou égaux à p, alors leur différence est bornée par un terme de la forme
hp+1 R(t) où 0 ≤ t ≤ h et où R(t) peut être obtenu en considérant les développements en série de
Taylor avec reste intégral des solutions, exacte et numérique.
Le caractère nécessaire des conditions repose sur la possibilité de choisir f arbitrairement, de telle
sorte que la famille (F (τ ))τ ∈T constitue une base de l’espace vectoriel des séries formelles de la
forme B(α, ·) − Id. Etant donné un arbre τ̄ d’ordre q quelconque, nous allons donc construire un
champ f tel que
F (τ̄ )(y0 ) 6= 0 et F (τ )(y0 ) = 0 pour tout τ 6= τ̄ tel que |τ | = q.
L’idée consiste à attribuer une et une seule fois q indices 1, . . . , q aux q noeuds de l’arbre τ̄ d’une
manière arbitrairement fixée. Pour l’arbre
τ̄ =
on aura par exemple
3 4

On construit alors le champ f de la manière suivante : pour chaque noeud de τ̄ , soit i son indice et
j1 , . . . , jk les k indices des racines de ses branches. On pose
fi (y) = yj1 · · · yjk si k ≥ 1 et fi (y) = 1 si k = 0.

15
En parcourant les q noeuds de τ̄ , on définit ainsi les q composantes de f ∈ C ∞ (Rq ; Rq ). Pour l’arbre
3 4

indicé 1 par exemple, on obtient ainsi :


   
f1 y2
 f2   y3 y4 
 = 
 f3   1 
f4 1
Il est alors facile de vérifier que  . 
..
 0
 

F (τ̄ ) =  1
 

 0
 

..
.
3 4

et que F (τ ) = 0 pour tout arbre τ 6= τ̄ d’ordre supérieur ou égal à q. Par exemple, pour τ̄ = 1 ,
la première composante de F (τ̄ )(y) s’écrit
X ∂f1 ∂ 2 fj ∂f1 ∂ 2 f2
fk fl = f3 f4 = 1
j,k,l
∂yj ∂yk ∂yl ∂y2 ∂y3 ∂y4

car tous les autres termes de la somme sont nuls. De même, les autres composantes de F (τ̄ )(y) sont
nulles.

Exemple 3.10 A titre d’illustration, on cherche à construire une méthode de Runge-Kutta d’ordre 4.
Soit donc (A, b), une méthode à s étapes. On rappelle que

A ∈ Ms (R), b ∈ Rs

et on note c = A1. Les conditions d’ordre sont obtenues en construisant les arbres d’ordre inférieur
ou égal à 4 (voir Tableau 1). Il est clair que s = 1 ne permet pas de les satisfaire toutes. Pour s = 2,
il est aisé de vérifier que c1 = c2 ne convient pas. On suppose donc que c1 et c2 sont distincts de sorte
que (1, c) forme une base de R2 . Il existe donc δ1 et δ2 , tels que

c⋄2 = δ1 1 + δ2 c.

Or, bT [1, c, c2 , c3 ] = (1, 1/2, 1/3, 1/4), donc

δ1 + 21 δ2 = 31

,
δ1 δ2 + 21 (δ1 + δ22 ) = 1
4

16
et on obtient δ1 = −1/6

et δ2 = 1. √c1 et c2 sont donc les racines de x2 − x + 1/6 = 0. On prend par
exemple c1 = 12 − 63 et c2 = 12 + 63 . Le système bT [e, c] = (1, 1/2) donne alors b1 = b2 = 1/2. De
même, il existe µ1 et µ2 , tels que
Ac = µ1 e + µ2 c.
Or, bT [Ac, A2 c] = (1/6, 1/24), donc
µ1 + 12 µ2 = 61

,
µ1 µ2 + 12 (µ1 + µ22 ) = 1
24

et on obtient µ1 = −1/12 et µ2 = 1/2. Ce qui signifie en particulier que


1
Ac = c⋄2 .
2
Réciproquement, si Ac = 21 c⋄2 , alors on peut vérifier que
1 T ⋄2 1
bT Ac = b c = ,
2 6
1 1 1
bT Ac2 = bT A(c − 1) = bT Ac − bT A1 = ,
2 6 12
1 1
bT A2 c = bT Ac⋄2 = ,
2 24
1 1 1
bT (c ⋄ Ac) = bT (c ⋄ c2 ) = bT c⋄3 = .
2 2 6
Il n’existe donc qu’une seule méthode d’ordre 4 avec s = 2. C’est la méthode de Gauss :
√ √
1 3 1 1 3
2
− √6 4√ 4
− 6
1 3 1 3 1
2
+ 6 4
+ 6 4
1 1
2 2

Exemple 3.11 Cherchons désormais à construire une méthode explicite d’ordre 3. Il est aisé de
constater que s = 2 est insuffisant. On prend donc s = 3. En supposant comme précédemment
que A1 = c, A et c sont de la forme
   
0 0 0 0
A =  c2 0 0  et c =  c2  .
a31 c3 − a31 0 c3
Des conditions bT e = 1, bT Ae = 1/2 et bT (Ae)2 = 1/3 on tire b1 , b2 et b3 . a31 est alors obtenu à
partir de l’équation restante bT A2 1 = 1/6. On obtient alors la méthode suivante
0 0 0 0
c2 c2 0 0
c3 (3c22 −3c2 +c3 ) c3 (c2 −c3 )
c3 c2 (3c2 −2) c2 (3c2 −2)
0
1 −3c2 +6c2 c3 +2−3c3 −1 3c3 −2) 1 3c2 −2)
6 c2 c3 6 c2 (c2 −c3 ) 6 c2 (c2 −c3 )

17
On peut par exemple éliminer les paramètres libres restants en imposant les deux conditions d’ordre
4, bT (Ae)3 = 1/4 et bT A(Ae)2 = 1/12, ce qui donne finalement la méthode

0 0 0 0
1/2 1/2 0 0
.
1 −1 2 0
1/6 2/3 1/6

Ordre τ γ(τ ) Φ(τ ) Condition


1 1 e bT e = 1
2 2 c = Ae bT c = 21
3 3 ⋄2
c =c⋄c bT c⋄2 = 31
1
6 Ac bT Ac = 6
1
4 4 c⋄3 bT c⋄2 = 3
1
8 c ⋄ Ac bT (c ⋄ Ac) = 8
1
12 Ac⋄2 bT Ac⋄2 = 12

1
24 A2 c bT A2 c = 24
1
5 5 c⋄4 bT c⋄4 = 5
1
10 c⋄2 ⋄ (Ac) bT (c⋄2 ⋄ (Ac)) = 10
1
20 (Ac) ⋄ (Ac) bT ((Ac) ⋄ (Ac)) = 20
1
15 c ⋄ (Ac⋄2 ) bT c ⋄ (Ac⋄2 ) = 15

1
30 c ⋄ (A2 c) bT c ⋄ (A2 c) = 30
1
20 A(c⋄3 ) bT A(c⋄3 ) = 20

1
40 A(c ⋄ (Ac)) bT A(c ⋄ (Ac)) = 40

1
60 A2 c⋄2 bT A2 c⋄2 = 60

1
120 A3 c bT A3 c = 120

TABLE 1 – Les 17 conditions d’ordre 5.

18

Vous aimerez peut-être aussi