Vous êtes sur la page 1sur 67

L3 MT05M110

Premier semestre 2023-2024

Analyse pour l'ingénieur 2

Notes de cours écrites par Éric Luçon


2
Table des matières

1 Équation diérentielle, étude en dimension 1 5


1.1 Dénitions et problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Des exemples venus de la physique . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Notion d'équation diérentielle . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.3 Condition initiale et problème de Cauchy . . . . . . . . . . . . . . . . . . 7
1.1.4 Problématiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Equations diérentielles LINEAIRES d'ordre 1 et 2 . . . . . . . . . . . . . . . . . 9
1.2.1 Cadre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Equation linéaire du premier ordre (n = 1) . . . . . . . . . . . . . . . . . 10
1.2.3 Equations linéaires du second ordre à coecients constants. . . . . . . . . 14
1.3 Equations de Bernoulli et de Riccati . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.1 Equations à variables séparables . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.2 Equations de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3.3 Equations de Riccati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2 Systèmes linéaires d'ordre 1 21


2.1 Dénitions et résultats généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.1.1 Dénitions et problématiques . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.1.2 Quelques cas particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.1.3 Théorème de Cauchy-Lipschitz linéaire . . . . . . . . . . . . . . . . . . . . 24
2.2 Quelques rappels d'algèbre linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.1 Pratique de la diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.2 Pratique de la trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Résolution d'un système linéaire d'ordre 1 . . . . . . . . . . . . . . . . . . . . . . 27
2.3.1 Le cas homogène (B ≡ 0) . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3.2 Le cas non-homogène : méthode de variation de la constante . . . . . . . . 29
2.3.3 Application d'une condition initiale . . . . . . . . . . . . . . . . . . . . . . 30
2.4 Comportement asymptotique des solutions. . . . . . . . . . . . . . . . . . . . . . 31
2.4.1 Solutions stationnaires et stabilité . . . . . . . . . . . . . . . . . . . . . . 31
2.4.2 Etude asymptotique des systèmes en dimension 2 . . . . . . . . . . . . . 33

3 Systèmes diérentiels en dimension 2 39


3.1 Introduction et dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2 Résultats théoriques et applications . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.1 Le théorème de Cauchy-Lipschitz . . . . . . . . . . . . . . . . . . . . . . . 40
3.3 Applications du Théorème de Cauchy-Lipschitz . . . . . . . . . . . . . . . . . . . 42
3.3.1 Points stationnaires et stabilité . . . . . . . . . . . . . . . . . . . . . . . . 44

3
4 TABLE DES MATIÈRES

4 Approximation numérique et schémas d'Euler 47


4.1 Schémas d'Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.1.1 Schéma d'Euler explicite . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.1.2 Autres schémas numériques . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2 Notion de convergence d'un schéma numérique . . . . . . . . . . . . . . . . . . . 49

5 Fonctions périodiques ; premières propriétés 51


5.1 Fonctions périodiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.1.1 Dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.1.2 Construction de fonctions périodiques . . . . . . . . . . . . . . . . . . . . 52
5.1.3 Régularité des fonctions périodiques . . . . . . . . . . . . . . . . . . . . . 54
5.1.4 Fonctions périodiques intégrables . . . . . . . . . . . . . . . . . . . . . . . 55
5.2 Coecients de Fourier d'une fonction de carré intégrable . . . . . . . . . . . . . . 58
5.2.1 Dénitions et premières propriétés . . . . . . . . . . . . . . . . . . . . . . 58
5.2.2 Décroissance à l'inni des coecients de Fourier . . . . . . . . . . . . . . . 60
5.3 Notion de série de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.3.1 Premières dénitions et problèmes . . . . . . . . . . . . . . . . . . . . . . 60
5.3.2 Exemples de calculs de série de Fourier. . . . . . . . . . . . . . . . . . . . 62
5.4 Convergence en moyenne quadratique d'une série de Fourier . . . . . . . . . . . . 63
5.4.1 Notion de polynôme trigonométrique . . . . . . . . . . . . . . . . . . . . . 63
5.4.2 Meilleure approximation quadratique d'une fonction . . . . . . . . . . . . 64
5.4.3 Convergence quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.4.4 Exemples et applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Chapitre 1

Notion d'équation diérentielle.


Résolution en dimension 1
1.1 Dénitions et problématique
1.1.1 Des exemples venus de la physique
Dans de nombreux domaines (physique, biologie, chimie, économie, etc.) on étudie des quanti-
tés qui dépendent d'un paramètre t (position d'une particule, intensité électrique dans un circuit,
concentration d'un composant dans une solution, taille d'une population, cours du baril de pé-
trole, etc.). Même si cela n'a aucune raison d'être forcément le cas, le paramètre t en question
est souvent un temps, et nous garderons cette intuition dans la suite.
Cette quantité, notée x(t) (ouI(t), f (t), etc) sera généralement un vecteur dans Rd , pour
d ≥ 1, ou plus simplement un réel si d = 1. Ce que l'on cherche à connaitre est donc une
fonction du temps : t 7→ x(t), et non plus un simple réel.
Les lois de la physique (ou les modèles proposés par les biologistes, économistes) font qu'il est
souvent possible d'écrire une relation entre la fonction t 7→ x(t) et ses dérivées successives t 7→
(x0 (t), x00 (t), . . .) 1 , qui représentent les variations innitésimales de la quantité x(t) en fonction
du temps t.
Quelques exemples :

1. Charge d'un condensateur de capacité C à travers une résistance R, sous un générateur de


tension E. Si q(t) est la charge du condensateur, alors q vérie

q(t)
E= + Rq 0 (t). (1.1)
C

2. Charge d'un condensateur de capacité C à travers une résistance R et une bobine de


conductance L, sous un générateur de tension E. Si q(t) est la charge du condensateur,
alors q vérie
q
E= + Rq 0 (t) + Lq 00 (t). (1.2)
C
3. Oscillations d'un pendule : si θ(t) est l'angle formé avec la verticale par un pendule de
masse m, de longueur l, le principe fondamental de la dynamique dit que θ(t) vérie

g
θ00 (t) + sin(θ(t)) = 0. (1.3)
l
1. sous réserve que l'on sache que cette fonction soit susamment régulière, bien sûr.
5
6 CHAPITRE 1. ÉQUATION DIFFÉRENTIELLE, ÉTUDE EN DIMENSION 1

4. Petites oscillations d'un ressort : si x(t) est la position d'une masse m reliée à un mur via
d'un ressort de raideur k glissant horizontalement sans frottements, alors x(t) vérie

k
x00 (t) + x(t) = 0. (1.4)
m

1.1.2 Notion d'équation diérentielle


Le cadre de ce cours est le suivant : soit I un intervalle ouvert de R, I =]a, b[, avec
−∞ ≤ a < b ≤ +∞. Insistons sur le fait que cette dénition autorise des intervalles non bornés.

Dénition 1.1.1. Soit d ≥ 1 et n ≥ 1 et F : I × R| d


. . × R}d → Rd
× .{z une fonction continue.
L'équation
n+1 fois

F (t, y(t), y 0 (t), . . . , y (n) (t)) = 0 (1.5)

est appelée équation diérentielle d'ordre n d'inconnue y .


Résoudre , c'est trouver une fonction f , n fois dérivable sur I telle que pour tout
t ∈ I,
(1.5)

F (t, f (t), f 0 (t), . . . , f (n) (t)) = 0.

Exemple 1.1.1. L'equation diérentielle est d'ordre 1, alors que les equations ,
et sont d'ordre 2.
(1.1) (1.2) (1.3)
(1.4)

Le cadre correct d'étude d'équations diérentielles correspond au cas où on est capable d'ex-
primer la dérivée la plus élevée y (n) en fonction de ses dérivées d'ordre plus faible :

Dénition 1.1.2. On dit qu'une équation diérentielle est I


si elle peut s'écrire sous la forme
sous forme résolue sur l'intervalle

y (n) (t) = G(t, y(t), y 0 (t), . . . , y (n−1) (t)), t ∈ I. (1.6)

Remarque 1.1.1. Toutes les équations citées plus haut sont sous forme résolue. Par contre,
l'équation
ty 0 (t) = y(t)2 (1.7)

ne peut pas être mise sous forme résolue sur R car exprimer y (t) en fonction du reste nécessite
0

de pouvoir diviser par t, ce qui n'est pas possible sur R tout entier (il y a un problème en 0 !).
Attention : il n'est pas possible de restreindre l'étude de à R \ {0}, car cet ensemble
n'est pas un intervalle. Il faut donc faire deux études séparées de sur les intervalles
(1.7)

I =] − ∞, 0[ puis sur I =]0, +∞[. Sur chacun de ces deux intervalles, il est alors possible
(1.7)

d'écrire sous forme résolue en écrivant


1 2
(1.7)

1
y 0 (t) = y(t)2 .
t

Toute la question sera alors de savoir s'il est possible de trouver des solutions de dénies
sur R tout entier. Il s'agit du problème de raccordement de solutions que nous verrons plus
(1.7)

loin dans ce cours.


1.1. DÉFINITIONS ET PROBLÉMATIQUE 7

1.1.3 Condition initiale et problème de Cauchy


Si on ne spécie rien de plus à l'équation (1.6), il est souvent possible de trouver une innité
de solutions à l'équation. Prenons un exemple simple : l'équation

y 0 (t) = 0 (1.8)

admet une innité de solutions, qui sont bien sûr les fonctions constantes : pour tout C ∈ R, la
fonction telle que y(t) = C pour tout t∈R est solution de (1.8).
Si on souhaite obtenir une unique solution, on impose usuellement une condition supplémen-
taire, sous la forme d'une condition initiale. Dans l'exemple de (1.8), cette condition s'exprime
sous la forme
y(t0 ) = α, (1.9)

pour t0 un instant et α une constante donnée à l'avance. Dans ce cas, il existe une unique
fonction vériant à la fois (1.8) et (1.9), qui est bien sûr la fonction constante y(t) = α.
Compliquons maintenant un peu l'exemple précédent, en considérant maintenant l'équation
d'ordre 2 suivante :
y 00 (t) = 0. (1.10)

Dans ce cas, toute solution de (1.10) est de la forme

y(t) = At + B

où A et B sont des constantes réelles quelconques. Il y a donc autant de solutions à (1.10) qu'il
y a de choix de A et de B, c'est-à-dire une innité.
Si on souhaite avoir une unique solution, il faut de même spécier une condition initiale,
similaire à (1.9) : on se donne a priori un instant t0 et une valeur α et on exige que

y(t0 ) = α. (1.11)

Mais contrairement au premier exemple (1.8), cette condition ne sut pas à assurer l'unicité de
la solution. Elle ne donne qu'une relation entre A et B :

At0 + B = α.

Pour obtenir l'unicité, il est nécessaire d'imposer une seconde condition initiale, que nous faisons
le choix de porter sur la valeur de la dérivée de y au même instant t0 :
y 0 (t0 ) = β. (1.12)

Dans ce cas, cette dernière condition impose A=β et donc B = α − βt0 : nous obtenons une
unique solution. Ces deux exemples nous conduisent à la dénition suivante :

Dénition 1.1.3. Soit n ≥ 1, d ≥ 1 et F une fonction continue. On appelle


: I × (Rd )n → Rd
problème de Cauchy la donnée de
1. Une équation diérentielle d'ordre n sur un intervalle I :
y (n) (t) = F (t, y(t), y 0 (t), . . . , y (n−1) (t)), t ∈ I (1.13)

2. Une condition initiale : pour t 0 ∈I et z , z , . . . , z , n constantes xées de R


0 1 n−1
d

y(t0 ) = z0 , y 0 (t0 ) = z1 , . . . , y (n−1) (t0 ) = zn−1 . (1.14)


8 CHAPITRE 1. ÉQUATION DIFFÉRENTIELLE, ÉTUDE EN DIMENSION 1

Si f est une fonction sur I , on dira que f est solution du problème de Cauchy associé à
(1.13) et si
(1.14)

1. f est n-fois dérivable sur l'intervalle I ,


2. Pour tout t ∈ I , f (t) = F (t, f (t), f (t), . . . , f (t)),
(n) 0 (n−1)

3. f (t ) = z , f (t ) = z , . . . , f (t ) = z .
0 0
0
0 1
(n−1)
0 n−1

Proposition 1.1.1 n = 1 . Soit le problème de Cauchy dans R d

d'ordre n
(Comment se ramener au cas )

y (n) (t) = F (t, y(t), y 0 (t), . . . , y (n−1) (t)), t ∈ I,


y(t0 ) = z0 , y 0 (t0 ) = z1 , . . . , y (n−1) (t0 ) = zn−1 .

Alors, y est solution de ce problème de Cauchy si et seulement si le vecteur v(t) := (v (t), v (t), . . . , v (t)) :=
(t)) est solution du problème de Cauchy dans R d'ordre 1 suivant :
1 2 n
0
(y(t), y (t), . . . , y (n−1) d n

 
v2 (t)

..
 v3 (t) 
v 0 (t) =  ,
 
 
F (t, v1 (t), . . . , vn (t))

avec
v(t0 ) = (z0 , . . . , zn−1 ).

Démonstration. y est solution de la première équation diérentielle si et seulement si v 0 (t) =


(y 0 (t), y 00 (t), . . . , y (n) (t))
= (y 0 (t), y 00 (t), . . . , F (t, y(t), y 0 (t), . . . , y (n−1) (t))) si et seulement siv 0 (t) =
(v2 (t), v3 (t), . . . , F (t, v1 (t), . . . , vn (t)). L'équivalence de la condition initiale est claire.

Autrement dit, cette proposition dit qu'un problème de Cauchy d'ordre n peut se ramener à
un problème de Cauchy d'ordre 1, quitte à augmenter la dimension de l'espace dans lequel vit la
solution. Cependant, ceci n'a qu'un intérêt théorique : le système d'ordre 1 a la même diculté
de résolution que le système d'ordre n.

1.1.4 Problématiques
Les questions posées dans ce cours sont : à un problème de Cauchy donné,

1. Existe-t-il au moins une solution t 7→ f (t) ? Sur quel intervalle ?

2. Si oui, cette solution est-elle unique ?

3. Que peut-on dire sur l'ensemble de dénition de la solution ? Se peut-il que cet ensemble
ne soit pas R tout entier ?

4. Peut-on calculer explicitement cette solution (à l'aide des fonctions usuelles) ?

5. Si non, peut-on décrire le comportement qualitatif de la solution en fonction du temps ?

6. Existe-t-il des méthodes pour calculer f de façon approchée ?

La suite de ce chapitre consiste à donner des exemples pour lesquels il est possible de répondre
par l'armative à chacune de ces questions.
1.2. EQUATIONS DIFFÉRENTIELLES LINEAIRES D'ORDRE 1 ET 2 9

1.2 Equations diérentielles LINEAIRES d'ordre 1 et 2


1.2.1 Cadre
Dans cette partie on pose I =]α, β[ avec −∞ ≤ α < β ≤ ∞ et on résout le problème de
Cauchy déni par (1.13) et (1.14) dans le cas suivant :

d = 1, n ∈ {1, 2} et F est linéaire.

Dénition 1.2.1. 1. Si a, b et c sont des fonctions continues de I dans R, l'équation


a(t)y 0 (t) + b(t)y(t) = c(t), (1.15)

est appelée 1.
équation linéaire d'ordre

2. Si a, b, c et d sont des fonctions continues de I dans R, l'équation


a(t)y 00 (t) + b(t)y 0 (t) + c(t)y(t) = d(t), (1.16)

est appelée 2.
équation linéaire d'ordre

3. Dans les deux cas, si le second membre est nul (c = 0 dans le premier cas ou d = 0 dans le
second), c'est-à-dire
a(t)y 0 (t) + b(t)y(t) = 0,
ou a(t)y (t) + b(t)y (t) + c(t)y(t) = 0,
00 0

on dit que l'équation est .


homogène

Proposition 1.2.1. L'ensemble des solutions H de l'équation homogène a(t)y (t) + b(t)y(t) = 0 0

(resp. a(t)y (t) + b(t)y (t) + c(t)y(t) = 0) est un espace vectoriel.


0
00 0

Démonstration. Faisons la preuve dans le cas d'ordre 1 2


et laissons le cas d'ordre à titre d'exer-
cice. Il sut de montrer que H0 est un sous-espace vectoriel de l'ensemble des fonctions de I
dans R. Il sut pour cela de montrer que si f ∈ H0 et g ∈ H0 et λ ∈ R, alors f + λg ∈ H0 . On
0 0
a donc a(t)f (t) + b(t)f (t) = 0 et a(t)g (t) + b(t)g(t) = 0. Additionnant la première identité avec
la seconde multipliée par λ, le résultat vient.

Proposition 1.2.2. Supposons que f soit une solution particulière de l'équation a(t)y (t) + 0

b(t)y(t) = c(t). Alors pour toute solution f de a(t)y (t) + b(t)y(t) = c(t), g = f − f est solution
0
0

de l'équation homogène a(t)y (t) + b(t)y(t) = 0.


0
0

Réciproquement, si g est une solution de l'équation homogène, alors f = g + f est solution


de l'équation a(t)y (t) + b(t)y(t) = c(t).
0
0

Le même énoncé est vrai dans le cas du second ordre.


Démonstration. Il sut d'écrire le fait que
0
a(t)f (t)+b(t)f (t) = c(t)
0 0 a(t)f (t)+b(t)f (t) =
et que
0

c(t), puis de soustraire ces deux équations pour obtenir que a(t)(f − f0 )0 (t) + b(t)(f − f0 )(t) = 0.
La réciproque se prouve de la même façon.

Pour résoudre entièrement l'équation avec second membre, il (faut et) il sut de :

 Trouver toutes les solutions de l'équation homogène,


 Trouver une solution particulière de l'équation avec second membre.
10 CHAPITRE 1. ÉQUATION DIFFÉRENTIELLE, ÉTUDE EN DIMENSION 1

1.2.2 Equation linéaire du premier ordre (n = 1)


Le cas homogène :
Selon le principe précédent, il s'agit de trouver toutes les solutions sur I de l'équation

a(t)y 0 (t) + b(t)y(t) = 0.

Proposition 1.2.3. Si la fonction a ne s'annule pas sur I , l'ensemble des solutions de l'équation
a(t)y 0 (t) + b(t)y(t) = 0 est
H0 = {t 7→ λ exp(−A(t)), λ ∈ R},
où t 7→ A(t) est une primitive de t 7→ b(t)
sur I . Ainsi, H est un espace vectoriel de
dimension 1.
a(t) 0

Démonstration. f Soit une fonction dérivable sur I . Alors f est solution de l'équation homogène
b(t) b(t)
si et seulement si f 0 (t)+ a(t) f (t) = 0, ce qui équivaut à eA(t) (f 0 (t)+ a(t) f (t)) = 0. Or, eA(t) (f 0 (t)+
b(t) A(t) (f 0 (t) + A0 f (t)), par dénition de A. On reconnait donc là la dérivée du
a(t) f (t)) est égal à e
A(t) f (t). Ainsi, f est solution de l'équation homogène si et seulement si d eA(t) f (t) = 0

produit e
dt
ce qui équivaut au fait qu'il existe une constante λ ∈ R telle que pour tout t ∈ I , f (t)e
−A(t) = λ.

Cette dernière égalité s'écrivant de façon équivalente comme f (t) = λe−A(t) , le résultat s'en
déduit.

Exemple 1.2.1. Dans le cas du circuit RC , toute solution de l'équation (1.1) avec E = 0 s'écrit
q(t) = λe
t
− RC
, où λ est une constante réelle quelconque.
Equation avec second-membre :
Il s'agit maintenant de trouver une solution particulière f0 de l'équation avec second-membre
a(t)y 0 (t) + b(t)y(t) = c(t). Le message est ici

Tous les moyens sont bons pour trouver f ! 0

Méthode 1 : le air ! Penser selon les cas à des fonctions constantes, des fonctions usuelles,
(exp, cos, sin, des polynômes, etc.), ou des combinaisons linéaires des fonctions précédentes.

Exemple 1.2.2. Selon ce principe, trouvons une solution particulière à chacune des équations
suivantes :
1. y + 2y = 3,
0

2. y sin(t) − y cos(t) = 1,
0

3. y + 2y = cos(t).
0

Méthode 2 : Méthode de variation de la constante.


Dans le cas où a ne s'annule pas sur I, l'idée de cette méthode est de chercher une solution
particulière f0 sous la forme
f0 (t) = λ(t)e−A(t) ,
b(t)
où A est une primitive de t 7→ a(t) . Alors
 
a(t)f00 (t) + b(t)f0 (t) = λ0 (t)e−A(t) − λ(t)A0 (t)e−A(t) a(t) + b(t)λ(t)e−A(t) ,
= λ0 (t)e−A(t) a(t) + e−A(t) λ(t) −A0 (t)a(t) + b(t) .

1.2. EQUATIONS DIFFÉRENTIELLES LINEAIRES D'ORDRE 1 ET 2 11

Or, par dénition de A, −A0 (t)a(t) + b(t) = 0. Donc f0 est une solution particulière de a(t)y 0 (t) +
b(t)y(t) = c(t) si et
0
seulement si λ (t)e
−A(t) a(t) = c(t), ce qui équivaut à λ0 (t) = c(t) eA(t) ce qui
a(t)
c(t) A(t)
équivaut à prendre λ une primitive de t 7→ a(t) e .

La conclusion de ce calcul est que f0 donnée par f0 (t) = λ(t)e−A(t) où t 7→ λ(t) est une
c(t) A(t)
primitive de t 7→ a(t) e est une solution particulière de l'équation avec second membre.

Remarque 1.2.1. Cette méthode à l'avantage de marcher tout le temps, mais a l'inconvénient
d'être calculatoire par rapport à la première méthode. Il faut donc toujours privilégier la première
méthode avant de se lancer dans les calculs.
Exercice 1.2.1. Appliquer la méthode de variation de la constante aux trois exemples donnés
pour la méthode 1.
Résumons ce paragraphe dans le théorème suivant :

Théorème 1.2.1. Si la fonction a ne s'annule pas sur I , alors l'ensemble des solutions de
l'équation
a(t)y 0 (t) + b(t)y(t) = c(t)
est
{t 7→ f0 (t) + λe−A(t) , λ ∈ R},
avec f une solution particulière de l'équation et A une primitive de sur I .
0
b
a

Démonstration. Ce résultat est le résumé de la Proposition 1.2.2 et de la Proposition 1.2.3.

Résolution avec condition initiale


Proposition 1.2.4. Si a ne s'annule pas sur I et si (t0 , y0 ) ∈ I × R, il existe une unique solution
au problème de Cauchy donné par a(t)y (t) + b(t)y(t) = c(t) et y(t ) = y .
0
0 0

Démonstration. D'après le Théorème 1.2.1, toute solution de l'équation est de la forme t 7→


f0 (t) + λe−A(t) , où λ est une constante réelle. Une telle fonction vérie la condition initiale
si et seulement si f0 (t0 ) + λe−A(t0 ) = y0 si et seulement si λ = eA(t0 ) (y0 − f0 (t0 )). Il existe
donc une unique solution au problème de Cauchy et cette solution correspond au choix de λ=
eA(t0 ) (y0 − f0 (t0 )).

Exercice 1.2.2. Donner l'ensemble des solutions de l'équation (1.1) .


Le cas où a s'annule sur I : problème de raccordement de solutions.
Dans ce cas, l'équation a(t)y 0 (t) + b(t)y(t) = c(t) ne peut pas se mettre sous forme résolue.
Nous allons traiter deux exemples pour constater que la situation est beaucoup moins simple que
dans le cas où a ne s'annule pas.

Exemple 1 :
ty 0 (t) − 2y(t) = t3 . (1.17)

Dans ce cas l'équation (1.17) ne peut pas être mise sous forme résolue sur R tout entier. On
restreint l'étude à l'intervalle I1 =]0, +∞[ d'une part et à I2 =] − ∞, 0[ d'autre part.
Résolution sur I1 : on trouve (exercice) que toute solution sur I1 s'écrit comme

y(t) = λt2 + t3 , t > 0,


12 CHAPITRE 1. ÉQUATION DIFFÉRENTIELLE, ÉTUDE EN DIMENSION 1

où λ est une constante réelle.


Résolution sur I2 : on trouve de même que toute solution sur I2 s'écrit comme

y(t) = µt2 + t3 , t < 0,

où µ est une constante réelle.


La question est maintenant de savoir s'il existe ou non des solutions à (1.17) qui soient
dénies sur R tout entier. Pour déterminer ces solutions éventuelles, on procède par Analyse-
Synthèse :
 Analyse : soit y une solution de (1.17) dénies sur R tout entier. En particulier, sa restriction
à I1 (resp. I2 ) est aussi solution sur I1 (resp. I2 ). L'étude précédente dit donc qu'il existe
des constantes réelles λ et µ telles que

y(t) = λt2 + t3 , t > 0,


y(t) = µt2 + t3 , t < 0.

Remarque 1.2.2. Attention : rien ne dit a priori que les constantes λ et µ soient égales!
Il reste donc à déterminer la valeur de y(0) : on utilise pour cela le fait que si y est solution
de (1.17), elle est nécessairement dérivable sur R, donc continue en 0, en particulier. Donc
nécessairement, ∃ limt→0,t>0 y(t) = ∃ limt→0,t<0 y(t), ce qui impose y(0) = 0.
 Synthèse : soit y la fonction dénie par

y(t) = λt2 + t3 , t > 0,


y(t) = µt2 + t3 , t < 0.
y(0) = 0.

Déterminons les valeurs de λ et µ telles que y soit solution de (1.17). Une telle fonction est
continue sur R par construction, dérivable sur ]0, +∞[ et sur ] − ∞, 0[. Vérions que y est
dérivable en0 : en eet, on vérie trivialement ici que le taux d'accroissement (y(t)−y(0))/t
admet la même limite à droite et à gauche qui est 0 (quels que soient λ et µ). Ainsi, y est
dérivable sur R et y vérie bien (1.17) sur ]0, +∞[, ] − ∞, 0[ et en t = 0, donc y vérie
l'équation.

 Conclusion : toute solution de (1.17) dénie sur R tout entier est du type

y(t) = λt2 + t3 , t > 0,


y(t) = µt2 + t3 , t < 0.
y(0) = 0.

où λ et µ sont des constantes réelles xées.

Remarque 1.2.3. Contrairement au cas résolu, le fait de xer une condition initiale du
type y(t ) = α ne garantit pas l'unicité d'une solution (ni même l'existence! En eet,
le lecteur méditera sur l'opportunité de xer la condition initiale y(0) = 2015 dans cet
0

exemple).
Exemple 2 :
t2 y 0 (t) − y(t) = 0. (1.18)

On procède de même par Analyse-Synthèse :


1.2. EQUATIONS DIFFÉRENTIELLES LINEAIRES D'ORDRE 1 ET 2 13

 Analyse : toute solution y de (1.18) dénie sur R tout entier vérie nécessairement

y(t) = λe−1/t , t > 0,


y(t) = µe−1/t , t < 0,
où λ et µ sont des constantes réelles. Une telle fonction doit nécessairement continue en 0.
Or, limt→0,t<0 e
−1/t = +∞. Donc nécessairement

µ = 0.
Remarque 1.2.4. Notons ici la diérence avec l'Exemple 1 : autant la continuité en 0 était
gratuite dans l'exemple précédent (et ne nécessitait pas d'imposer une valeur particulière
aux constantes λ et µ), ici au contraire, la continuité en 0 impose une valeur particulière
pour µ.
∃ limt→0,t>0 e−1/t = 0,
Par ailleurs, donc toute valeur de λ convient et dans ce cas, on a
nécessairement y(0) = 0.

 Synthèse : soit la fonction dénie par y(t) = λe−1/t pour t > 0 et y(t) = 0 pour tout
t ≤ 0. Une telle fonction est continue sur R. Elle est clairement dérivable sur ]0, +∞[ et
sur ] − ∞, 0[. Montrons la dérivabilité de y en 0 : pour t > 0, (y(t) − y(0))/t = λe
−1/t /t.

Cette quantité tend vers 0 pour t → 0, t > 0 donc y est dérivable à droite en 0 de dérivée
nulle. La dérivabilité à gauche (de dérivée nulle) est évidente. Donc y est dérivable sur R
et y vérie clairement l'équation (1.18).

 Conclusion : toute solution de (1.18) dénie sur R tout entier est de la forme y(t) = λe
−1/t

pour t > 0 et y(t) = 0 pour t ≤ 0, où λ est une constante réelle.

Remarque 1.2.5. Ici, nous avons une famille de solutions à un paramètre λ contrairement à
l'exemple précédent où on obtenait une famille à deux paramètres λ et µ. Ici, donner une condition
initiale du type y(t ) = α (pour t > 0) détermine la constante λ. Par contre, il est impossible
d'exiger une condition initiale y(0) = α pour α 6= 0.
0 0

Exemple 3 :
(1 − t)y 0 (t) − y(t) = t. (1.19)

Par analyse-synthèse, toute solution sur R est nécessairement du type

λ + t2
y(t) = , t > 1,
2(1 − t)
µ + t2
y(t) = , t < 1,
2(1 − t)
où λ et µ sont deux constantes réelles. Nécessairement y ainsi dénie doit avoir une limite en 1,
donc nécessairement λ = µ = −1, ce qui donne

1
y(t) = − (1 + t), t ∈ R.
2
On vérie que cette fonction est bien solution.

Remarque 1.2.6. Ici la situation est encore plus contraignante : imposer la continuité en 1
impose à la fois la valeur de λ et µ. Il existe une unique solution à dénie sur R tout
entier.
(1.19)

La conclusion de ces trois exemples est qu'il n'existe pas de théorie générale permettant de
donner le nombre de solutions d'équations qui ne sont pas mises sous forme résolue : de telles
équations sont intrinsèquement mal posées.
14 CHAPITRE 1. ÉQUATION DIFFÉRENTIELLE, ÉTUDE EN DIMENSION 1

1.2.3 Equations linéaires du second ordre à coecients constants.


On s'intéresse à (1.16) dans le cas où les coecients a, b, et c sont des constantes a priori
complexes (il n'existe pas de théorie générale dans le cas où les coecients dépendent de t),
c'est-à-dire
ay 00 (t) + by 0 (t) + cy(t) = d(t), (1.20)

où a, b, c ∈ C, avec a 6= 0. Notons que d(t) est, elle, une fonction dépendant de t.


Comme dans le cas d'ordre 1, pour résoudre (1.20), il faut et il sut de résoudre l'équation
homogène (d ≡ 0) puis de trouver une solution particulière de l'équation avec second membre.
Le cas homogène
Résolvons
ay 00 (t) + by 0 (t) + cy(t) = 0. (1.21)

Dénition 1.2.2. On appelle associée à l'équation du second


degré en la variable complexe r ∈ C
équation caractéristique (1.21)

ar2 + br + c = 0. (1.22)

Le résultat principal de ce paragraphe est le suivant :

Théorème 1.2.2.  Le cas complexe : (a, b, c) ∈ C 3

1. Si a deux racines complexes distinctes r et r , l'ensemble des solutions com-


plexes de est
(1.22) 1 2
(1.21)
H0 = {t 7→ λer1 t + µer2 t , λ, µ ∈ C}.
2. Si (1.22) a une racine double r 0 ∈C , l'ensemble des solutions complexes de (1.21) est
H0 = {t 7→ (λt + µ)er0 t , λ, µ ∈ C}.

 Le cas réel : (a, b, c) ∈ R 3

1. Si a deux racines réelles distinctes r et r , l'ensemble des solutions complexes


de est
(1.22) 1 2
(1.21)
H0 = {t 7→ λer1 t + µer2 t , λ, µ ∈ R}.
2. Si a une racine réelle double r , l'ensemble des solutions complexes de
est
(1.22) 0 (1.21)

H0 = {t 7→ (λt + µ)er0 t , λ, µ ∈ R}.


3. Si n'a pas de racine réelle, elle possède deux racines complexes conjuguées α±iβ,
auquel cas l'ensemble des solutions complexes de est
(1.22)
(1.21)

H0 = {t 7→ λeαt cos(βt) + µeαt sin(βt), λ, µ ∈ R}.


Ainsi, H0 est un espace vectoriel de dimension 2 .
Démonstration du Théorème 1.2.2. Pour tout r ∈ C, posons ϕr la fonction dénie par

ϕr (t) = ert , t ∈ R.
La fonction ϕr est solution de (1.21) si et seulement si

aϕ00r (t) + bϕ0r (t) + cϕr (t) = 0, t ∈ R,


⇔ert ar2 + br + c = 0, t ∈ R


⇔ar2 + br + c = 0.
1.2. EQUATIONS DIFFÉRENTIELLES LINEAIRES D'ORDRE 1 ET 2 15

1. Cas où (1.22) a deux racines distinctes r1 et r2 (réelles ou complexes). D'après ce qui


précède, par linéarité, pour tout λ, µ ∈ C, λϕr1 + µϕr2 est solution de (1.21).

Il reste à montrer que ce sont les seules solutions : soit f une solution de (1.21). Posons
g : t 7→ e−r1 t f (t). Alors f (t) = er1 t g(t). Comme f est solution de (1.21), il vient successi-
vement, pour tout t ∈ R (en réordonnant selon les dérivées successives de g )

0 = af 00 (t) + bf 0 (t) + cf (t), (1.23)

0 = g(t) ar12 + br1 + c + g 0 (t) (2r1 a + b) + ag 00 (t).



(1.24)

Or par dénition de r1 , ar12 + br1 + c = 0 et 2r1 a + b = 2r1 a − a(r1 + r2 ) = a(r1 − r2 )


0 0
donc en posant y(t) = g (t), on trouve que y (t) + (r1 − r2 )y(t) = 0. On trouve donc
λ
y(t) = g 0 (t) = λe(r2 −r1 )t , où λ ∈ C. Intégrant une fois, il vient : g(t) = r2 −r 1
e(r2 −r1 )t + µ,
λ
t ∈ R. Par dénition de g , on obtient donc que f (t) = er1 t g(t) = r2 −r 1
er2 t + µer1 t , ce qui
est bien le résultat demandé.

2. Cas d'une racine double r0 ∈ C : ce cas correspond au même calcul (1.24) que précédemment
où r1 = r2 = r0 . Mais dans le cas d'une racine double, 2r0 a+b = 0, ce qui donne simplement
g 00 (t) = 0. Intégrant deux fois, il vient : g(t) = λt + µ, pour certaines constantes λ et µ.
r t
Sachant que f (t) = e 0 g(t), le résultat s'en déduit.

3. Cas réel sans racine : dans ce cas, l'équation caractéristique admet deux racines complexes
conjuguées α ± iβ . Ainsi, toute solution f réelle de (1.21) (mais vue comme une fonction
complexe) s'écrit comme

f (t) = λe(α+iβ)t + µe(α−iβ)t ,


où λ µ sont des constantes complexes. Mais f est réelle, donc égale à sa partie réelle.
et
Ecrivant λ = a1 + ib1 et µ = a2 + ib2 (avec les ai et bi des réels), en prenant la partie réelle
de l'identité précédente, il vient :

f (t) = Re(f (t)) = eαt (a1 cos(βt) − b1 sin(βt) + a2 cos(αt) + b2 sin(βt)) ,

ce qui est bien du type souhaité. Réciproquement, toute fonction de ce type est solution.

Exemple 1.2.3. Le cas de l'oscillateur harmonique :


x00 (t) + ω02 x(t) = 0.

Dans ce cas, l'équation caractéristique s'écrit r + ω = 0 qui admet deux racines complexes
2 2

conjuguées ±iω . Par conséquent, toute solution de cette équation est du type x(t) = λ cos(ω t) +
0

µ sin(ω t), où λ et µ sont des constantes réelles.


0 0
0

Trouver une solution particulière de l'équation complète


On cherche une solution particulière de (1.20). Pour cela, plusieurs méthodes :

Méthode 1 : le air ! Avant de se lancer dans les calculs, penser à des fonctions évidentes
(constantes, polynômes, etc.).

Méthode 2 : On se restreint ici au cas où le second membre d à une forme particulière du type

d(t) = emt P (t), t ∈ R,


16 CHAPITRE 1. ÉQUATION DIFFÉRENTIELLE, ÉTUDE EN DIMENSION 1

où P est un polynôme et m un nombre complexe. L'idée est alors de chercher une solution
particulière de la même forme que le second membre, c'est-à-dire

f (t) = emt Q(t),

où Q est un autre polynôme à déterminer. Bien sûr, il est nécessaire de choisir le degré de Q
au moins égal à celui de P. Cependant, il s'avère que selon les cas, choisir deg(Q) = deg(P ) ne
sera pas susant. Il faudra parfois choisir Q de telle sorte que deg(Q) = deg(P ) + 1 ou même
deg(Q) = deg(P ) + 2. C'est le but du résultat suivant que de préciser comment choisir le degré
du polynôme Q :

Proposition 1.2.5. Dans le cas où d(t) = e P (t) avec m ∈ C et P un polynôme de degré p.


mt

Alors il est possible de chercher une solution particulière f de sous la forme(1.20)

f (t) = emt Q(t)

où Q est un polynôme de degré q supérieur ou égal à p. Plus précisément,


1. Si m n'est pas racine de l'équation caractéristique , il est possible de choisir q = p,
(1.22)

2. Si m est racine simple de l'équation caractéristique , il est nécessaire de choisir


q = p + 1,
(1.22)

3. Si m est racine double de l'équation caractéristique , il est nécessaire de choisir q =


p + 2.
(1.22)

Preuve de Proposition 1.2.5. f (t) = e Q(t) Q


Soit
mt où f
est un polynôme. Alors, en injectant
dans le memfre de gauche de (1.20), il vient

af 00 (t) + bf 0 (t) + cf (t) = emt (am2 + bm + c)Q(t) + (2am + b)Q0 (t) + aQ00 (t) .


1. Si m n'est pas racine de l'équation caractéristique (1.22), alors am2 + bm + c 6= 0, auquel


cas le polynôme calculé ci-dessus est de degré q = deg(Q). Il est donc nécessaire et susant
de prendre q = p.
2. Si m est racine simple de l'équation caractéristique (1.22), alors am2 + bm + c = 0 mais
2am + b = 6 0, auquel cas le polynôme calculé ci-dessus est de degré q − 1 = deg(Q) − 1.
Il est donc nécessaire et susant de prendre Q de telle sorte que q − 1 = p, c'est-à-dire
q = p + 1.
3. Si m est racine double de l'équation caractéristique (1.22), alors am2 + bm + c = 0 et
2am + b = 0, auquel cas le polynôme calculé ci-dessus est de degré q − 2 = deg(Q) − 2.
Il est donc nécessaire et susant de prendre Q de telle sorte que q − 2 = p, c'est-à-dire
q = p + 2.

Remarque 1.2.7. Ce résultat ne donne pas le polynôme Q, il ne donne que son degré. Pour
déterminer Q il faut ensuite injecter f (t) = e Q(t) dans mt et identier les coecients de
Q en fonction de ceux de P .
(1.20)

Un principe fondamental qui aide à simplier la recherche d'une solution particulière de (1.20)
est le Principe de superposition :
Proposition 1.2.6 (Principe de superposition). Si f est une solution particulière de
1

ay 00 (t) + by 0 (t) + cy(t) = d1 (t),


1.3. EQUATIONS DE BERNOULLI ET DE RICCATI 17

et si f est une solution particulière de


2

ay 00 (t) + by 0 (t) + cy(t) = d2 (t),


alors g = f 1 + f2 est une solution particulière de
ay 00 (t) + by 0 (t) + cy(t) = d1 (t) + d2 (t).
Démonstration. Evident : il sut de sommer les deux premières équations et d'utiliser la linéarité
de l'équation.

Cas particuliers importants : le principe de superposition et la Proposition 1.2.5 s'ap-


pliquent en particulier dans les cas suivants :

 le cas où
d(t) = cos(t)P (t) ou d(t) = sin(t)P (t),
où P est un polynôme : en eet, on se ramène via le principe de superposition et via les
it +e−it eit −e−it
formules d'Euler cos(t) = e 2 et sin(t) = 2i au cas où le second membre est du
type
mt
e P (t) avec m = ±i.
 le cas où
d(t) = cosh(t)P (t) ou d(t) = sinh(t)P (t),
où P est un polynôme : en eet, on se ramène via le principe de superposition et via les
t −t et −e−t
formules cosh(t) = e +e
2 et sinh(t) = 2 au cas où le second membre est du type
emt P (t) avec m = ±1.

Résolution avec condition initiale


Proposition 1.2.7. Soit t0 ∈ R et y0 et z0 ∈ C ou R. Il existe une unique solution au Problème
de Cauchy constitué de (1.20) muni des conditions initiales y(t ) = y et y (t ) = z .
0 0
0
0 0

Démonstration. En eet, on a démontré dans les paragraphes précédents que toute solution de
(1.20) s'écrit sous la forme
f (t) = f0 (t) + λu(t) + µv(t),
où f0 est une solution particulière et (u, v) est une base de H0 , l'espace vectoriel des solutions de
l'équation homogène. Les constantes λ et µ sont alors déterminées par les conditions initiales :
(λ, µ) est solution du système linéaire de deux équations à deux inconnues λu(t0 ) + µv(t0 ) =
y0 − f0 (t0 ) et λu0 (t0 ) + µv 0 (t0 ) = z0 − f00 (t0 ). Le déterminant de ce système est D = u(t0 )v 0 (t0 ) −
u0 (t0 )v(t0 ) qui est non nul (on peut le vérier à la main dans les trois cas pour (u, v) donnés
par le Theorem 1.2.2). Il existe donc un unique couple (λ, µ) à ce système et donc une unique
solution au Problème de Cauchy.

1.3 Equations à variables séparables, équations de Bernoulli et


de Riccati
Nous traitons dans cette dernière partie le cas d'équations diérentielles qu'il est encore
possible de résoudre explicitement.

Remarque 1.3.1. Remarque importante : attention! Les équations qui suivent ne sont plus
linéaires ! Autrement dit, la somme de deux solutions n'est plus solution a priori. En particulier,
tout ce qu'on a introduit pour les équations linéaires (variation de la constante, principe de
superposition) ne fonctionne plus !
Pour les équations non linéaires, leur résolution de façon explicite est très dicile, sinon
impossible. Il existe cependant de rares cas où cela est encore possible.
18 CHAPITRE 1. ÉQUATION DIFFÉRENTIELLE, ÉTUDE EN DIMENSION 1

1.3.1 Equations à variables séparables


Il s'agit d'équations du type

y 0 (t) = f (t)g(y(t)), t ∈ I. (1.25)

ou de façon condensée
y 0 = f (t)g(y).
Le principe de résolution est le suivant : si g(y) ne s'annule pas sur I, toute solution de
y0 = f (t)g(y) (si elle existe ! !) vérie

y 0 (t)
= f (t),
g(y(t))

ou de manière condensée
y0
= f (t).
g(y)
La terminologie variables séparables vient de là : on a séparé les variables y et t. On reconnait
1
alors la primitive d'une fonction composée : notons G une primitive de
g et F une primitive de
f, il vient
G(y(t)) = F (t) + C,
où C est une constante. L'équation précédente est une équation implicite en y. Pour peu que G
soit inversible, il est alors possible d'écrire

y(t) = G−1 (F (t) + C),

sous réserve que toutes les quantités aient un sens.


Il reste alors à vérier qu'une telle fonction est eectivement solution de l'équation intiale
(1.25).

Remarque 1.3.2. On le voit ici, le principe de résolution présenté ci-dessus ne s'embarrasse


pas de soucis de rigueur. Il conviendra dans les exemples de montrer qu'il est possible, au cas par
cas, d'eectuer un tel programme de résolution.
Exemple 1.3.1. Résolvons l'équation
t
y 0 = − , t ∈ I. (1.26)
y

On cherche y solution de qui ne s'annule jamais sur I . Procédons par Analyse/Synthèse :


(1.26)

 Analyse : si une solution y existe alors, yy = −t. Donc il existe une constante C telle que
0

y = − t + C , c'est-à-dire
1 2
2
1 2
2
y 2 + t2 = 2C = C̃. (1.27)

Notons que nécessairement C̃ ≥ 0.


Fixons la constante C̃ ≥ 0. L'identité n'a pas de sens pour |t| ≥ C̃ (car y ≥ 0
p
2

et y ne doit pas s'annuler).


p p Si la solution y existe, elle est donc dénie uniquement sur
(1.27)

l'intervalle I =] − C̃, C̃[ auquel cas


p
y(t) = s(t) C̃ − t2 ,

où s(t) prend les valeurs +1 ou −1.


1.3. EQUATIONS DE BERNOULLI ET DE RICCATI 19

Déterminons s(t). Supposons que y(0) = y > 0. Dans ce cas, y = C̃ , ie C̃ = y . On


p
2

va montrer que dans ce cas y est toujours positive (c'est-à-dire s(t) vaut toujours +1).
0 0 0

En eet, supposons le contraire : il existe t > 0 tel que y(t ) < 0. Mais y est continue
sur [0, t ], donc par théorème des valeurs intermédiaires, y s'annule en au moins un point
1 1

de ]0, tp[, ce qui contredit l'hypothèse sur y. Absurde. Donc s(t) = +1 pour tout t ∈ I et
1

y(t) = C̃ − t .
1
2

De même, si y(0) < 0, alors y est toujours strictement négative et on a y(t) = −py − t . 2 2

 On vérie que de telles fonctions sont eectivement solutions.


0

 Conclusion : les seules solutions qui ne s'annulent jamais sont celles citées plus haut.
Remarque 1.3.3. Une remarque importante : cet exemple est le premier que nous voyons où,
même si l'équation est déjà sous forme résolue, les solutions ne sont pas dénies sur R tout entier,
mais sur un sous-intervalle strict de R. De plus, l'intervalle de dénition des solutions
dépend de la condition initiale imposée. C'est un phénomène que nous retrouverons plus
tard au Chapitre 3.
1.3.2 Equations de Bernoulli
Soit I une intervalle, a et b deux fonctions continues sur I et m ∈ N − {0, 1}. Une équation
est dite de Bernoulli est de la forme

y 0 (t) + a(t)y(t) = b(t)y(t)m , t ∈ I. (1.28)

Remarque 1.3.4. 1. Dans le cas où m = 0 ou m = 1, on retombe sur une équation d'ordre


. 1
2. La présence de du terme y fait que cette équation n'est plus linéaire : la somme de deux
m

solutions n'est plus solution a priori.


On cherche à trouver toutes les solutions de (1.28) qui ne s'annulent pas sur I. Nous
verrons plus tard dans ce cours comment s'aranchir de cette hypothèse. La méthode de résolution
repose sur un changement de variables : si y est une solution de (1.28) sur I, posons

1
u(t) = , t ∈ I.
y m−1 (t)
Alors, pour tout t ∈ I,
1−m 0
u0 (t) = y (t),
y(t)m
 
y(t)
= (1 − m) −a(t) + b(t) ,
y(t)m
= (1 − m) (−a(t)u(t) + b(t)) .

Par conséquent, u est solution d'une équation linéaire d'ordre 1 :


u0 (t) = (m − 1)a(t)u(t) + (1 − m)b(t), t ∈ I.

Il est donc possible de calculer u explicitement. Notons qu'il faut nécessairement se restreindre
1
aux instants t∈I tels que u(t) ne s'annule pas. Alors, nécessairement y m−1 (t) = u(t) et on en
déduit y(t) en inversant la fonction y 7→ y m−1 (on prendra garde à se restreindre éventuellement
aux t ∈ I pour lesquels cette dernière inversion est possible).
Reste ensuite à vérier que la fonction y ainsi trouvée est eectivement solution de l'équation
(1.28) initiale.
20 CHAPITRE 1. ÉQUATION DIFFÉRENTIELLE, ÉTUDE EN DIMENSION 1

Exemple 1.3.2. Soit I =]0, +∞[. Cherchons les solutions strictement positives dénies sur I
de 2y(t)
y 0 (t) − = −t2 y 2 (t).
t
1
Soit y une solution (si elle existe). Posons alors u(t) = y(t) qui est donc solution de

2
u0 (t) + u(t) = t2 , t ∈ I,
t
ce qui se résout facilement en
t3 C
u(t) = + 2 , t ∈ I,
5 t
pour C une constante réelle. Or u(t) > 0 si et seulement si t>0 et t > −(5C)1/5 .
Il y a donc deux cas :

 Soit C≥0 auquel cas u (et donc y) est dénie sur ]0, +∞[ tout entier.

 Soit C < 0 auquel u (et donc y) est dénie sur ] − (5C)1/5 , +∞[ qui est un intervalle
strictement inclus dans ]0, +∞[.
t2
Sur cet intervalle, y est alors donnée par y(t) = t5 /5+C
. Il faut alors vérier qu'une telle fonction

vérie bien l'équation de départ, ce qui est immédiat.

Remarque 1.3.5. Si on avait voulu résoudre l'équation initiale sur ] − ∞, 0[, la condition d'exis-
tence devient t < −(5C) . 1/5

1.3.3 Equations de Riccati


I q0 q1 , q2 I. équation de
Riccati
Soit un intervalle de R et trois fonctions continues sur On appelle
toute équation du type

y 0 (t) = q0 (t) + q1 (t)y(t) + q2 (t)y 2 (t). (1.29)

Remarque 1.3.6. Dans le cas où q 0 ≡0 , on retombe sur une équation de Bernoulli avec m = 2.
Il est possible de résoudre (1.29) dans le cas où on connait déjà une solution particu-
lière f0 de (1.29).
Remarque 1.3.7. Comment trouver une telle solution particulière f ? Il n'y a pas de méthode
générale, il faut se débrouiller au cas par cas!
0

Soit y une solution de (1.29). Posons v = y − f0 ⇔ y = v + f0 . Substituant y dans (1.29), il


vient

f00 + v 0 = q0 + q1 (f0 + v) + q2 (f02 + 2f0 v + v 2 ).

Utilisant le fait que f0 est solution particulière de (1.29), il vient que v est solution de

v 0 = q1 v + 2f0 q2 v + q2 v 2 ,

qui est une équation de Bernoulli. On est donc ramené au cas précédent.
Chapitre 2

Systèmes d'équations diérentielles


linéaires d'ordre 1
Dans tout ce chapitre, K est égal à R ou à C. On note Md (K) l'espace vectoriel des matrices
carrées de taille d à coecients dans K.

2.1 Dénitions et résultats généraux


2.1.1 Dénitions et problématiques
2
Soitd ≥ 1, (ai,j )1≤i,j≤d ∈ Kd , (b1 (t), b2 (t), . . . , bd (t)) d fonctions continues dénies sur R,
t0 ∈ R et (z1 , . . . , zd ) ∈ Kd . On s'intéresse au système suivant, d'inconnue t 7→ (x1 (t), . . . , xd (t))


 x01 (t) = a1,1 x1 (t) + a1,2 x2 (t) + . . . + a1,d xd (t) + b1 (t),

x0 (t) = a2,1 x1 (t) + a2,2 x2 (t) + . . . + a2,d xd (t) + b2 (t),

2
. (2.1)
.


 .

 0
xd (t) = ad,1 x1 (t) + ad,2 x2 (t) + . . . + ad,d xd (t) + bd (t),

muni de la condition initiale

x1 (t0 ) = z1 , . . . , xd (t0 ) = zd . (2.2)

Dénition 2.1.1. Le système (2.1) est un système linéaire de dimension d d'ordre 1.


Remarque 2.1.1. Cette dénition généralise le cas d = 1 (x0 = ax) vue au Chapitre 1.
Dans tout ce qui suit, si A est une matrice réelle, AT désigne la matrice transposée de A.
Proposition 2.1.1 Posons A = (a ) , matrice carrée de taille d
.
et B(t) = (b (t), . . . , b ainsi que z = (z , . . . , z ) et X(t) = (x (t), . . . , x (t)) ∈ K .
(Notation matricielle) i,j 1≤i,j≤d
(t))T ∈ Kd T T d

Alors le système - est équivalent au système d'inconnue X(t)


1 d 1 d 1 d
(2.1) (2.2)

X 0 (t) = AX(t) + B(t), t ∈ R, X(t0 ) = z. (2.3)

Dans le cas où B = 0, on dit que le système est homogène.


Exemple 2.1.1. Une motivation importante vient du Chapitre 1 : nous avons vu dans ce chapitre
la résolution de l'équation du second ordre
ay 00 + by 0 + cy = d(t), a 6= 0.

21
22 CHAPITRE 2. SYSTÈMES LINÉAIRES D'ORDRE 1

Il existe une autre interprétation de cette équation d'ordre 2 en dimension 1 en termes d'une
équation d'ordre 1 en dimension 2 : en eet posons Y = (y, y ) , alors il est facile de voir que y 0 T

est solution de l'équation précédente si et seulement si


   
0 0 1 0
Y = Y (t) + , Y (0) = (y(0), y 0 (0))T .
− ac − ab d
a

Une question sera de faire le lien entre la résolution pour y vue au Chapitre 1 et celle que nous
allons voir pour Y dans ce chapitre.
Les questions que nous allons nous poser sont :

1. Y a-t-il existence et unicité d'une solution au Problème de Cauchy (2.1)- (2.2) ?

2. Si oui, peut-on calculer explicitement cette solution ?

3. Que peut-on dire du comportement en temps long (t → ∞) de cette solution ?

2.1.2 Quelques cas particuliers


Le cas où A est une matrice diagonale
On considère ici le cas où
 
λ1 0 . . . . . . 0
. 
. 

 0 λ2 0 ... .
 
 .. . . . . .. . 
.
A= . . . . . ,
 
 .. 
 . . . . 0 λd−1 0 
0 ... ... 0 λd

où (λ1 , . . . , λd ) ∈ Kd . Dans ce cas simple, le système est découplé : (2.3) est équivalent à

∀i = 1, . . . , d, x0i (t) = λi xi (t) + bi (t), xi (t0 ) = zi ,

ce qui se résout immédiatement (cf. Chapitre 1) en

Z t
λi (t−t0 )
∀i = 1, . . . , d, xi (t) = zi e + eλi (t−s) bi (s)ds.
t0

Le cas où A est une matrice triangulaire supérieure


On considère ici le cas où
 
a1,1 a1,2 . . . ... a1,d
.
.
 
 0 a2,2 a2,3 ... . 
 
A =  ... .. .. .. .
. .
 
. . . .
 
 .. 
 . ... 0 ad−1,d−1 ad−1,d 
0 ... ... 0 ad,d

Dans ce cas, il est facile de résoudre le système X 0 = AX + B . En eet, il sut d'écrire expli-
citement ce système en termes de (x1 , . . . , xd ) puis de partir de la dernière équation (celle pour
x0d ) et remonter de proche en proche : la dernière équation s'écrit

x0d (t) = ad,d xd (t) + bd (t).


2.1. DÉFINITIONS ET RÉSULTATS GÉNÉRAUX 23

Donc xd est connu explicitement :


Z t
ad,d (t−t0 )
xd (t) = zd e + ead,d (t−s) bd (s)ds.
t0

Mais ensuite, l'avant dernière équation s'écrit

x0d−1 (t) = ad−1,d−1 xd−1 (t) + ad−1,d xd (t) + bd−1 (t).

Or xd (t) vient d'être calculé et peut donc être considéré comme faisant partie du second membre
de l'équation précédente : posons c(t) = ad−1,d xd (t) + bd−1 (t) (qui est donc explicitement connu)
l'équation précédente devient

x0d−1 (t) = ad−1,d−1 xd−1 (t) + c(t),

qu'il est possible de résoudre explicitement. Par une récurrence évidente, il est ainsi possible de
résoudre de proche en proche le problème de Cauchy X 0 (t) = AX(t) + B(t), X(t0 ) = z , qui
possède donc une unique solution.

Le cas où A est une matrice de Jordan et B = 0


Dénition 2.1.2. Soit λ ∈ K. On appelle bloc de Jordan de taille d de paramètre λ la matrice
 
.. 
λ 1 0 ... ... 0

.. . . . . . . . . . . . . .. 
0 λ 1 0 ...

..

...

J(λ) =   ∈ M (K). d

..

. . . λ 1
 ··· λ 1 0


 ... ...
0 ... ... ... 0 λ

Proposition 2.1.2. Soit λ ∈ K. Alors le problème de Cauchy


X 0 (t) = J(λ)X(t), t ∈ R, X(0) = z

admet une unique solution donnée par


t2 t3 td−1
 

..
1 t ...

2!
... 3!
t2
(d−1)!

.. . . . . . . . . . . . .
0 1 t 
 2! 

t3

λt 
.. ... 1 t
 
X(t) = e  3!  z.
t2

.. .
 ···

. . . .. 1

 2! 
 
 ... t 
0 ... ... ... 0 1

Démonstration. Soit X ∈ Kd solution de X 0 (t) = J(λ)X(t), X(0) = z . Prouvons par récurrence


sur k = 0, . . . , d − 1 que

t2 tk
 
λt
xd−k (t) = e zd−k + zd−k+1 t + zd−k+2 . . . + zd
2! k!
La propriété est vraie pour k=0 : en eet, la dernière équation ne fait intervenir que xd et on a
x0d (t) = λxd (t), xd (0) = zd , dont l'unique solution est bien sûr xd (t) = λt
e zd . Donc la propriété
24 CHAPITRE 2. SYSTÈMES LINÉAIRES D'ORDRE 1

est vraie au rang k = 0. Supposons la propriété vraie au rang k − 1 ∈ {0, . . . , d − 2} et prouvons


la propriété au rang k . La (d − k)ième équation se lit alors

x0d−k (t) = λxd−k (t) + xd−k+1 (t).


Par conséquent,
Z t
xd−k (t) = zd−k eλt + eλ(t−s) xd−k+1 (s)ds
0
Or, par hypothèse de récurrence,

t2 tk−1
 
λt
xd−(k−1) (t) = e zd−(k−1) + zd−k+2 t + zd−k+3 . . . + zd .
2! (k − 1)!
Donc
t
s2 sk−1
Z   
λt λ(t−s)
λs
xd−k (t) = zd−k e + e e zd−(k−1) + zd−k+2 s + zd−k+3 . . . + zd ds,
0 2! (k − 1)!
Z t
s2 sk−1

λt λt
= zd−k e + e zd−(k−1) + zd−k+2 s + zd−k+3 . . . + zd ds,
0 2! (k − 1)!
t2 t3 tk
 
λt λt
= zd−k e + e zd−(k−1) t + zd−k+2 + zd−k+3 . . . + zd ,
2! 3! k!
ce qui prouve la propriété par récurrence.

Exercice 2.1.1. Montrer que la solution de et est donnée


 0       
x 2 1 x x(0) x0
= =
par 
y0
  2t
0 2

y y(0) y0

x(t) e (x0 + ty0 )


= .
y(t) y0 e2t
La méthode générale de résolution que nous allons suivre dans ce chapitre consiste précisément
à se ramener au cas où la matrice A est soit diagonale, soit triangulaire supérieure.

2.1.3 Théorème de Cauchy-Lipschitz linéaire


Le but de ce chapitre est de prouver et de mettre en pratique le théorème suivant :

Théorème 2.1.1 (Cauchy-Lipschitz linéaire). Soit le problème de Cauchy d'ordre 1 de dimension


d suivant 0
X (t) = AX(t) + B(t), t ∈ R. (2.4)

muni de la condition initiale


X(t ) = z 0 (2.5)

Alors,
1. Cas homogène (B ≡ 0) : l'ensemble H des solutions de0 (2.4) xest donné par
H0 = {t 7→ λ1 ϕ1 (t) + . . . + λd ϕd (t), λi ∈ K, i = 1, . . . , d},
où (ϕ , . . . , ϕ ) est une famille libre de fonctions. Autrement dit, H est un espace vectoriel
de dimension d.
1 d 0

2. Cas général (B quelconque) : toute solution de est du type (2.4)

f (t) = g(t) + λ1 ϕ1 (t) + . . . + λd ϕd (t),


où g est une solution particulière de . Autrement dit, l'ensemble H des solutions de
est un espace ane de dimension d.
(2.4)
(2.4)

3. Il existe une unique solution au problème de Cauchy - : il existe un unique choix


de (λ , . . . , λ ) ∈ K pour lequel f solution de vérie .
(2.4) (2.5)
d (2.4) (2.5)
1 d
2.2. QUELQUES RAPPELS D'ALGÈBRE LINÉAIRE 25

2.2 Quelques rappels d'algèbre linéaire


Dans toute cette section, A ∈ Md (K).

Dénition 2.2.1. Soit λ ∈ K. On dit que λ est valeur propre de A s'il existe v ∈ K non nul d

tel que Av = λv. On dit alors que v est un vecteur propre de A associé à la valeur propre λ.
L'espace vectoriel E (A) := Ker(λI − A) = {v ∈ K , Av = λv} est appelé
d associé
à la valeur propre λ. L'entier dim(E (A)) est appelée multiplicité de λ.
λ espace propre

Dénition 2.2.2. On appelle A le polynôme dans K [X] dénit


par
polynôme caractéristique de d

χA (X) := det(XId − A).

Proposition 2.2.1. Soit λ ∈ K. Alors λ est valeur propre de A si et seulement si l'une de ces
conditions est vraie
 E (A) 6= {0},
λ

 dim E (A) > 0,


λ

 λ est racine de χ : χ (λ) = 0.


A A

Dénition 2.2.3.  On dit que A est diagonalisable si A est semblable à une matrice dia-
gonale : il existe une matrice P inversible et une matrice diagonale D telle que
A = P DP −1 .

 On dit que A est trigonalisable si A est semblable à une matrice triangulaire supérieure :
il existe une matrice P inversible et une matrice triangulaire supérieure T telle que
A = P T P −1 .

2.2.1 Pratique de la diagonalisation


Théorème 2.2.1. A est diagonalisable si et seulement si
χ est scindé : χ (x) = d0
(
αi ,
Q
A A (x − λ )
i=1 i
.
∀i = 1, . . . , d0 , dim(Eλi (A)) = αi .

La seconde condition dit que la multiplicité de λ est égale à α la multiplicité algébrique de λ .


i i i

Méthode de diagonalisation d'une matrice A.


Soit une matrice A ∈ Md (K).
1. On calcule χA et on vérie que χA est scindé. Si χA n'est pas scindé, A n'est pas diagona-
lisable.

2. Pour chaque valeur propre λ de A, on calcule une base de l'espace propre Eλ (A). Si
dim(Eλi (A)) = αi pour tout i alors A est diagonalisable et la matrice de passage P est
donnée par la concaténation par colonne des vecteurs propres trouvés.
26 CHAPITRE 2. SYSTÈMES LINÉAIRES D'ORDRE 1

2.2.2 Pratique de la trigonalisation


Nous allons utiliser une forme particulière de trigonalisation, appelée jordanisation . (Voir la
dénition vue plus haut d'un bloc de Jordan associé à λ ∈ K.)

Proposition 2.2.2. Soit d ≥ 2, λ ∈ K et J(λ) la matrice de Jordan de taille d associée à λ.


Notons (e , . . . , e ) la base canonique de K . Alors
1 d
d

χJ(λ) (x) = (x − λ)d .

λ est l'unique valeur propre de J(λ). De plus J(λ) n'est pas diagonalisable. Plus précisément,
Eλ (J(λ)) = Vect(e ) de dimension 1 < d. De plus, on a les relations suivantes :
1

(J(λ) − λI)(e ) = e et (J(λ) − λI) (e ) = 0



2

(J(λ) − λI)(e ) = e et (J(λ) − λI) (e ) = 0



 2 1 2

3
..

3 2 3
(2.6)

et (J(λ) − λI) (e ) = 0.





(J(λ) − λI)(e ) = e d
d d−1 d

Démonstration. J(λ)
Cette proposition est claire, vu la structure de .

Dénition 2.2.4. Soit A ∈ M (K). On dit que A est , s'il existe une matrice P
inversible et une matrice T telle que A = P T P , où T est une matrice diagonale par blocs, où
d jordanisable
−1

chaque bloc est une matrice de Jordan associée à une certaine valeur propre λ.
Remarque 2.2.1.  Les blocs de Jordan qui composent T ne sont pas nécessairement tous
de même taille et il peut y avoir plusieurs blocs de Jordan associés à une même valeur
propre λ.
 La dimension de l'espace propre associé à λ est égal au nombre de blocs associés à λ.
 La multiplicité algébrique d'une valeur propre λ est égale à la somme des tailles des blocs
de Jordan associés à la valeur propre λ.
 Le cas diagonalisable correspond au cas où pour chaque valeur propre, la dimension de
l'espace propre est égale à sa multiplicité algébrique. Autrement dit, pour toute valeur propre
λ, la somme des tailles des blocs associés à λ doit être égale au nombre de blocs associés à
λ, ce qui n'est possible que s'il n'y a que des blocs de taille 1 pour la valeur propre λ. On
vient de retrouver le fait que dans ce cas, la matrice T est diagonale.
Exercice 2.2.1. Déterminer le nombre et la taille des blocs dans chacun des cas  suivants, ainsi

1 1 0 0
que la multiplicité algébrique et la multiplicité de chacune des valeurs propres : 00 10 02 01 ,
0 0 0 2
 
1 0 0 0  
2 1 0
0

0
1
0
0
2

1 
,
0  
0 2 1 .
0 0 2
0 0 0 2

On rappelle le résultat suivant :

Théorème 2.2.2. La matrice A est jordanisable si et seulement si χ est scindé. A

Remarque 2.2.2. Si K = C, une matrice A ∈ M (C) est toujours jordanisable.


d
2.3. RÉSOLUTION D'UN SYSTÈME LINÉAIRE D'ORDRE 1 27

Méthode pratique de jordanisation Soit A ∈ Md (K).


Qd0
1. On calcule χA et on vérie que χA est scindé : χA (x) = i=1 (x − λ i ) αi .
(i) (i)
2. Pour chaque valeur propre λi , on calcule une base de l'espace propre Eλi (A) = Vect(v1 , . . . , vli ).
li est le nombre de blocs de Jordan associés à λi .
(i)
3. On complète cette base en une base de Ker(A − λi I)2 en résolvant (A − λi I)(w) = vj
(c'est toujours possible quitte à modier la base initiale par une combinaison linéaire des
(i)
vj ).

4. On continue jusqu'à obtenir une famille de cardinal αi .


5. Une base de jordanisation est la concaténation de tels vecteurs.

2.3 Résolution d'un système linéaire d'ordre 1


2.3.1 Le cas homogène (B ≡ 0)
Dans cette section, on considère le cas homogène

X 0 (t) = AX(t), t ∈ R. (2.7)

Le cas où A est diagonalisable


Théorème 2.3.1 (Résolution de l'équation homogène dans le cas diagonalisable). Si la matrice
A est diagonalisable, alors l'ensemble des solutions de X0 = AX est
H0 = {α1 eλ1 t v1 + . . . + αd eλd t vd , (α1 , . . . , αd ) ∈ Kd },

où (v , . . . , v ) ∈ (K ) est une base de diagonalisation de A associée aux valeurs propores


d d

(λ , . . . , λ ).
1 d
1 d

Remarque 2.3.1. Ce théorème dit précisément que les fonctions ϕ introduites dans le Théo-
rème 2.1.1 sont de la forme t 7→ ϕ (t) = e v .
j
λj t
j j

Démonstration. A A = P DP
est diagonalisable donc on peut écrire
−1 avec
D = diag(λ , . . . , λ ) 1 d
et P = (v1 , . . . , vd ), où les (vj ) sont une base de vecteurs propres associés aux valeurs propres
λj . Mais alors, le système X 0 = AX est successivement équivalent à X 0 = P DP −1 X puis à
Y = P −1 X et Y 0 = DY .
Notons que par construction, les composantes de Y sont les coordonnées de X dans la base
propre (v1 , . . . , vd ). Or, Y 0 = DY est un système diagonal dont la solution est yi (t) = yi (0)eλi t ,
pour tout i ∈ {1, . . . , d}. Ceci est exactement dire que les coordonnées de X(t) dans la base
(v1 , . . . , vd ) sont (y1 (0)eλ1 t , . . . , yd (0)eλd t ), ce qui est exactement le résultat énoncé.
 
3 1 −1
Exercice 2.3.1. Montrer que toute solution du système X 0 = AX avec A= 0 4 0  est
de la forme
−1 1 3
     
1 1 −1
X(t) = αe2t 0 + βe4t 1 + γe4t  0  , t ∈ R,
1 0 1
où α, β, γ sont des constantes réelles.
28 CHAPITRE 2. SYSTÈMES LINÉAIRES D'ORDRE 1

Le cas où A est jordanisable


Théorème 2.3.2 (Résolution de l'équation homogène dans le cas jordanisable). Soit A ∈ Md (K)
tel que χ est scindé. Alors toute solution de X
A = AX 0 s'écrit sous la forme
 
d0 αi
(i) (i)
X X
X(t) = eλi t  P (t)v  , j j
i=1 j=1

où 
(1) (2) (d0) (d0 )

V := v1 , . . . , vα(1)
1
, v1 , . . . , v (2)
α2 , . . . , v 1 , . . . , v αd0

est une base de jordanisation de A. Ici, chaque (v , . . . , v ) est associée à la valeur propre λ .
(i) (i)

De plus, pour tout i ∈ {1, . . . , d }, tout j ∈ {1, . . . , α }, P est un polynôme de degré plus petit
1 αi i
0 (i)

ou égal à r − 1, où r est la taille du plus grand bloc associé à la valeur propre λ .


i j
i i i

Démonstration.
0
A = PTP
Ecrivons
−1 . Le système
X = AX 0
Y =P X est alors équivalent à
−1

et Y = T Y . Mais alors les composantes de Y sont les coordonnées de X dans la base de


jordanisation V . Mais alors, d'après la Proposition 2.1.2, il vient que pour tout i = 1, . . . , d, yi (t)
s'exprime comme le produit de e
λt (où λ est la valeur propre associée au vecteur v ) et d'un
i
polynôme P , avec le degré du polynôme inférieur ou égal à la taille du plus grand bloc de Jordan
associé à λ moins 1. D'où le résultat.
 
3 2 4
Exercice 2.3.2. Montrer que toute solution de
X 0 = AX A = −1 3 −1 avec s'écrit
comme  
1
 
2
 
0
−2 −1 −3

X(t) = αe−t  0  + (β + tγ)e2t  1  + γe2t 1 ,


−1 −1 0
où α, β, γ sont des constantes réelles.
Application au cas des équations linéaires d'ordre 2 homogènes.
 
00 0 0 0 1
Revenons à l'exemple 2.1.1 : l'équation ay +by +cy = 0 est équivalente à Y = Y (t) =
− ac − ab
 
y(t)
AY (t), avec Y (t) = . Voyons si cette représentation matricielle et la méthode de résolu-
y 0 (t)
tion vue dans ce chapitre sont cohérentes vis-à-vis du chapitre précédent.
1
aX 2 + bX + c .

On voit immédiatement que χA (X) = a Sur C , χA est scindé : χA (X) =
(X − r1 )(X − r2 ). Deux cas sont alors possibles :

1. Soit r1 6= r2 , auquel cas A est diagonalisable de vecteurs propres v1 et v2 auquel l'ensemble


des solutions de Y 0 = AY est {t 7→ αer1 t v1 + βer2 t v2 , (α, β) ∈ R2 }. En ne regardant que la
première coordonnée de Y , on retrouve le résultat du chapitre 1.

2. Soit r1 = r2 , auquel cas

(a) Soit A est diagonalisable, auquel cas A est forcément diagonale, ce qui est impossible
 
r1 1
(b) Soit A est jordanisable, mais non diagonalisable, auquel cas A est semblable à .
0 r1
Dans ce cas, les solutions de Y 0 = AY sont données par
 
1 t
Y (t) = er1 t Y (0), t ∈ R.
0 1
2.3. RÉSOLUTION D'UN SYSTÈME LINÉAIRE D'ORDRE 1 29

Ne regardant que la première coordonnée, on obtient

y(t) = αer1 t + βter1 t , t ∈ R.

On retrouve donc le résultat du chapitre 1.

2.3.2 Le cas non-homogène : méthode de variation de la constante


Soit le système
X 0 = AX + B. (2.8)

Supposons avoir trouvé une solution particulière f0 à ce système. Alors, pour toute solution
f de ce système, g = f − f0 est solution du système homogène : en eet, pour tout t ∈ R,
g 0 (t) = f 0 (t) − f00 (t) = Af (t) + B(t) − Af0 (t) − B(t) = Ag(t).
Il sut donc de trouver une solution particulière f0 et toute solution f s'écrit comme

f (t) = f0 (t) + α1 ϕ1 (t) + . . . + αd ϕd (t), t ∈ R,

où α1 , . . . , αd sont des constantes quelconques et (ϕi )i=1,...,ϕd est une base de l'espace des solutions
de l'équation homogène.
Cherchons donc une solution particulière f0 . On procède par variation de la constante : on
cherche une solution particulière sous la forme

f0 (t) = α1 (t)ϕ1 (t) + . . . + αd (t)ϕd (t),

où (αi )i=1,...,d sont des fonctions dérivables. Calculons, pour tout t∈R :

f00 (t) = α10 (t)ϕ1 (t) + . . . + αd0 (t)ϕd (t) + α1 (t)ϕ01 (t) + . . . + αd (t)ϕ0d (t),
= α10 (t)ϕ1 (t) + . . . + αd0 (t)ϕd (t) + α1 (t)Aϕ1 (t) + . . . + αd (t)Aϕd (t),
= α10 (t)ϕ1 (t) + . . . + αd0 (t)ϕd (t) + Af0 (t),

où nous avons utilisé le fait que les ϕi sont par construction solutions du système homogène,
c'est-à-dire ϕ0i = Aϕi . Par conséquent, f0 est solution de X 0 = AX + B si et seulement si

∀t ∈ R, α10 (t)ϕ1 (t) + . . . + αd0 (t)ϕd (t) = B(t).

Or,(ϕ1 , . . . , ϕd )(t) est une famille libre dans Kd donc la matrice (ϕ1 , . . . , ϕd (t)) est inversible.
0 0 −1
On trouve donc (α1 (t), . . . , αd (t)) = (ϕ1 (t), . . . , ϕd (t)) B(t). On en déduit donc les αi (t).
 
3 1 −1
Exercice 2.3.3. Cherchons une solution particulière de X 0 = AX + B avec
A= 0 4 0 
−1 1 3
 
1
etB(t) = 0 . D'après l'exercice 2.3.1, toute solution du système homogène est de la forme
t
     
1 1 −1
X(t) = αe2t 0 + βe4t 1 + γe4t  0  , t ∈ R,
1 0 1
où α, β, γ sont des constantes réelles. On recherche donc une solution particulière sous la forme
     
1 1 −1
2t   4t   4t 
X0 (t) = α(t)e 0 + β(t)e 1 + γ(t)e 0  , t ∈ R,
1 0 1
30 CHAPITRE 2. SYSTÈMES LINÉAIRES D'ORDRE 1

où α, β, γ sont des fonctions dérivables. D'après le calcul précédent, X est solution de X 0 =


AX + B si et seulement si
0

       
1 1 −1 1
α0 (t)e2t 0 + β 0 (t)e4t 1 + γ 0 (t)e4t  0  = 0 ,
1 0 1 t
ce qui est équivalent au système

0 2t 0 4t 0 4t
α (t)e + β (t)e − γ (t)e
 =1
β 0 (t)e4t = 0,

 0
α (t)e2t + γ 0 (t)e4t =t
dont la solution est, pour tout t ∈ R,

0
α (t)
 = 21 (1 + t)e−2t
β 0 (t) = 0,
= 12 (t − 1)e−4t

 0
γ (t)
Une intégration donne que les fonctions dénies pour tout t ∈ R comme suit conviennent :

α(t)
 = − 18 e−2t (2t + 3) + c1 ,
β(t) = c2 ,
−4t
= e32 (3 − 4t) + c3 ,

γ(t)

où c , c , c sont des constantes réelles.


1 2 3

Remarque 2.3.2. Bien sûr, nous voulons une solution particulière. Il n'y a donc aucun besoin de
garder les constantes c , c , c quelconques. Le plus simple est sans doute de prendre ces constantes
nulles! Mais vous pouvez prendre d'autres valeurs si vous le souhaitez, par exemple c = 1, si le
1 2 3

coeur vous en dit...


2

Ainsi, une solution particulière X est donnée par 0


   
1 −1
1 1
X0 (t) = − (2t + 3) 0 + (3 − 4t)  0  , t ∈ R.
8 32
1 1

2.3.3 Application d'une condition initiale


Le but de ce paragraphe est d'établir le dernier item du Théorème 2.1.1, c'est-à-dire l'existence
et l'unicité d'une solution satisfaisant le Problème de Cauchy (2.4)- (2.5). Nous avons vu que
toute solution f de (2.4) satisfait

∀t ∈ R, f (t) = α1 ϕ1 (t) + . . . + αd ϕd (t) + f0 (t),


avec α1 , . . . , α d des constantes et f0 une solution particulière. Une telle fonction satisfait la
condition initiale (2.5) si et seulement si

α1 ϕ1 (t0 ) + . . . + αd ϕd (t0 ) = z − f0 (t0 ).


Or la matrice (ϕ1 (t0 ), . . . , ϕd (t0 )) est inversible, donc il existe un unique choix de constantes
α1 , . . . , α d satisfaisant la condition précédente, c'est-à-dire

(α1 , . . . , αd ) = (ϕ1 (t0 ), . . . , ϕd (t0 ))−1 (f0 (t0 ) − z).


La preuve du Théorème 2.1.1 est achevée.
2.4. COMPORTEMENT ASYMPTOTIQUE DES SOLUTIONS. 31

2.4 Comportement asymptotique des solutions.


2.4.1 Solutions stationnaires et stabilité
Considérons l'équation homogène
X 0 = AX. (2.9)

Commençons par une dénition :

Dénition 2.4.1. On appelle (ou ou encore


), toute solution de qui ne dépend pas du temps.
solution stationnaire point stationnaire point
d'équilibre (2.9)

Remarque 2.4.1. Notons alors que pour une telle solution, la valeur de X(t) est par dénition,
égale à sa condition initiale
∀t ∈ R, X(t) = X(0).
Il est donc équivalent de parler de solution stationnaire X ou de
.
condition initiale stationnaire
z = X(0)

Proposition 2.4.1. Soit X une solution de . Supposons que(2.9)

∃ lim X(t) = z ∈ Kd .
t→∞

Alors z ainsi déni est un point stationnaire pour . (2.9)

Remarque 2.4.2. Cette proposition justie le vocable . Il faut voir un point sta-
tionnaire comme le comportement en temps long de toute solution de . D'un point de vue
stationnaire

physique, cette question est importante : il est tout-à-fait naturel de comprendre quel est la com-
(2.9)

position d'une solution chimique si on attend susamment longtemps, par exemple.


Preuve de Proposition 2.4.1. X = AX
Comme
0 X(t) , le fait que admette une limite nie quand
t → ∞ implique (par continuité de x 7→ Ax) que X 0 (t) admet une limite nie pour
t → ∞. Soit
l = (l1 , . . . , ld ) ∈ Kd cette limite. Nous allons montrer que l = 0. Raisonnons par l'absurde et
supposons que l 6= 0. Sans perte de généralité on peut supposer que l1 6= 0 et même que l1 > 0
(quitte à changer X en −X ). Notons X = (x1 , . . . , xd ). On a en particulier, x1 (t) = x1 (0) +
Rt 0 0
0 x1 (s)ds. Comme x1 (t) → l1 > 0, il existe A > 0, tel que pour tout t ≥ A, x01 (t) > l21 > 0. Mais
RA 0 Rt 0 RA 0 l1
alors, pour tout t ≥ A, x1 (t) = x1 (0) +
0 x1 (s)ds + A x1 (s)ds ≥ x1 (0) + 0 x1 (s)ds + 2 (t − A).
Par conséquent, x1 (t) tend vers +∞ quand t → +∞, ce qui contredit le fait que x1 (t) tend vers
z1 . Donc l = 0. En passant à la limite dans X 0 = AX , il vient 0 = Az . Donc z est un point
stationnaire.

Remarque 2.4.3. Une conséquence immédiate de la preuve précédente est que l'ensemble des
points stationnaire pour X = AX est Ker(A).
0

La problématique est la suivante : si initialement X(0) = z est un point stationnaire, alors


X(t) = z pour tout t. Que se passe-t-il si la condition initiale est dans un petit voisinage d'un
point stationnaire ?

Dénition 2.4.2. Soit z = (z , . . . , z ) un point stationnaire de X = AX .


1 d
0

1. On dit que z est un point stationnaire asymptotiquement stable s'il existe r > 0 tel que pour
toute condition initiale x = (x , . . . , x ) telle que pour tout i = 1, . . . , d, |x − z | ≤ r, alors
l'unique solution de X = AX, X(0) = x est telle que
0 1 d i i
0
0

X(t) →t→∞ z.
32 CHAPITRE 2. SYSTÈMES LINÉAIRES D'ORDRE 1

2. On dit que le point stationnaire z est stable s'il existe r > 0 tel que pour tout condition
initiale x = (x , . . . , x ) telle que pour tout i = 1, . . . , d, |x − z | ≤ r, alors l'unique
solution de X = AX, X(0) = x est bornée.
0 1 d i i
0
0

Dans toute la suite, on s'intéresse au point stationnaire z = 0 (on peut toujours


s'y ramener via une translation X 7→ z + X , avec z un point stationnaire quelconque).
Le théorème principal est le suivant :

Théorème 2.4.1. Soit X = AX , X(0) = x un problème de Cauchy dans K . Alors,


0
0
d

1. z = 0 est asymptotiquement stable si et seulement si toutes les valeurs propres de A sont


de partie réelle strictement négative.
2. z = 0 est stable si et seulement si les deux conditions suivantes sont vériées :
(a) pour tout λ ∈ K, valeur propre de A, <(λ) ≤ 0
et
(b) pour toute valeur propre λ telle que <(λ) = 0, alors les blocs de Jordan associés à
λ dans la décomposition de Jordan de A sont tous de taille 1 (on dit que λ est une
valeur propre non dégénérée).
Démonstration. X = AX
Nous avons vu au début du chapitre que toute solution de
0 s'écrit sous
la forme
d
X
∀t ∈ R, X(t) = αi ϕi (t),
i=1

où (αi )i sont des constantes quelconques et (ϕ1 , . . . , ϕd ) est une famille libre de fonctions.
Considérons deux cas :

1. A est diagonalisable : dans ce cas, ϕi est de la forme ϕi (t) = eλi t vi , où (λi , vi ) est un couple
propre pour A. Dans ce cas, 0 est asymptotiquement stable si et seulement si pour tout
i = 1, . . . , d, ϕi (t) → 0 pour t → ∞. Mais ceci est équivalent au fait que <(λi ) < 0 pour
tout i = 1, . . . , d.

Et 0 est stable si et seulement si ϕi est bornée pour tout i = 1, . . . , d. Or ceci est équivalent
à <(λi ) ≤ 0 pour tout i = 1, . . . , d.

Remarque 2.4.4. Dans le cas diagonalisable, toutes les valeurs propres sont par dénition
non dégénérées, donc la deuxième condition du théorème est vide.
2. A est trigonalisable. Dans ce cas, nous avons vu que les ϕi sont de la forme

ϕi (t) = Pi (t)eλi t vi ,

où les (v1 , . . . , vd ) Pi sont des polynômes. Une remarque


est une base de trigonalisation et
cruciale est que le degré de chaque Pi est plus petit où égal à la plus grande des tailles des
blocs de Jordan associés à λi moins 1. En particulier, λi est non dégénérée si et seulement
si tous les polynômes Pi associés à λi sont des constantes.

Dans ce cas, par croissance comparée entre polynômes et exponentielle, 0 est asymptoti-
quement stable si et seulement si pour tout i = 1, . . . , d, <(λi ) < 0.

De plus, 0 est stable si et seulement si <(λi ) ≤ 0 et, dès que <(λi ) = 0, le polynôme Pi est
constant, ce qui est exactement dire que λi est non dégénérée.
2.4. COMPORTEMENT ASYMPTOTIQUE DES SOLUTIONS. 33

2.4.2 Etude asymptotique des systèmes en dimension 2


Notion de courbe intégrale. On cherche ici à représenter les solutions de X 0 = AX (et à
déterminer le comportement asymptotique des solutions) quand d = 2, c'est-à-dire
 0   
x a b x
= , a, b, c, d ∈ K. (2.10)
y0 c d y

Soit une solution du système . Alors la courbe


 
x(t)
Dénition 2.4.3. t 7→ X(t) = (2.10)

paramétrée
y(t)
2
{(x(t), y(t)) ∈ R , t ∈ R}
est appelée courbe intégrale associée au système . (2.10)

Remarque 2.4.5. La bonne intuition pour comprendre la dénition précédente est de voir une
courbe intégrale comme la trajectoire d'un mobile, dont les coordonnées (x(t), y(t)) varient en
fonction du temps.
Un résultat important est le suivant.

Proposition 2.4.2. Deux courbes intégrales sont soit disjointes, soit confondues. Autrement dit,
deux courbes intégrales qui se coupent en au moins un point sont en fait confondues.
Démonstration. (x , y ) ∈
Supposons que deux courbes intégrales se coupent en au moins un point 0 0
R2 . C'est dire qu'il existe deux solutions de X 0 = AX (notées (x1 , y1 ) et (x2 , y2 )) et deux instants
t1 ∈ R et t2 ∈ R tels que

x1 (t1 ) = x0 et y1 (t1 ) = t0 ,
x2 (t2 ) = x0 et y2 (t2 ) = t0 .
Remarque 2.4.6. Attention : rien ne dit a priori que t = t : ce n'est pas parce que je dis
que deux lignes de métro se coupent que je dis que les deux métros se percutent. Les deux métros
1 2

passent au même point mais à des temps a priori diérents.


Considérons alors le problème de Cauchy suivant :
(
X0 = AX,
(2.11)
X(t1 ) = (x0 , y0 ).
Par construction, (x1 , y1 ) est solution de ce problème de Cauchy (2.11). Considérons maintenant
x̃(t) = x2 (t − t1 + t2 ) et ỹ(t) = y2 (t − t1 + t2 ). Mais alors (x̃, ỹ) est solution de X 0 = AX (car
(x2 , y2 ) est solution) et on a (x̃(t1 ), ỹ(t1 )) = (x2 (t2 ), y2 (t2 )) = (x0 , y0 ). Donc (x̃, ỹ) est aussi
solution du problème de Cauchy (2.11).

Remarque 2.4.7. Autrement dit, nous venons de retarder le métro de la ligne 2 pour qu'il passe
en (x , y ) en même temps que le métro de la ligne 1.
0 0

Or, le Théorème 2.1.1 dit précisément que le problème de Cauchy (2.11) a une unique solution.
Par conséquent, ∀t ∈ R, x1 (t) = x2 (t − t1 + t2 ), et y1 (t) = y2 (t − t1 + t2 ). Mais, bien sûr, la
courbe intégrale {(x2 (t), y2 (t)), t ∈ R} est la même que {x2 (t − t1 + t2 ), y2 (t − t1 + t2 )), t ∈ R}
(il s'agit de la même courbe parcourue à des instants diérents). Donc,

{(x1 (t), y1 (t)), t ∈ R} = {(x2 (t), y2 (t)), t ∈ R}.


Les deux courbes intégrales sont les mêmes.

Remarque 2.4.8. La Proposition 2.4.2 est importante dans la mesure où elle donne une règle
importante pour le tracé de courbes intégrales : il est interdit de tracer deux courbes intégrales
distinctes qui se coupent.
34 CHAPITRE 2. SYSTÈMES LINÉAIRES D'ORDRE 1
 
a b
Classication des courbes intégrales en dimension 2. Soit A =
c d
. Alors son

polynôme caractéristique est

χA (X) = X 2 − (a + d)X + (ad − bc) = X 2 − Tr(A)X + det(A),

de discriminant ∆ donné par

∆ = (a + d)2 − 4(ad − bc) = Tr(A)2 − 4 det(A).

L'idée est ici que la donnée du couple (Tr(A), det(A)) sut entièrement pour déterminer le
caractère stable/instable des points stationnaires et de déterminer l'allure des courbes intégrables.
La zoologie des courbes intégrales se décrit comme suit :

1. Cas où ∆>0 (voir Figure 2.1) : A a alors deux valeurs propres réelles distinctes
  λ1 et λ2
λ1 0
et il existe P inversible telle que A = P P −1 . Dans la base de diagonalisation
0 λ2
(v1 , v2 ), les nouvelles coordonnées de X = (x, y) s'écrivent

x̃(t) = x̃(0)eλ1 t , ỹ(t) = ỹ(0)eλ2 t .

(a) Cas où det(A) = λ1 λ2 > 0 : dans ce cas λ1 et λ2 sont de même signe.

i. Cas où Tr(A) = λ1 + λ2 > 0 : dans ce cas λ1 > 0 et λ2 > 0 et on peut supposer


ỹ(t)
sans perte de généralité que λ1 > λ2 , auquel cas x̃(t) →t→∞ 0. On obtient un
point répulsif (voir Figure 2.1).

ii. Cas où Tr(A) <0 : dans ce cas λ1 < 0 etλ2 < 0 et on peut supposer sans perte
ỹ(t)
de généralité que λ1 < λ2 < 0, auquel cas
x̃(t) →t→−∞ 0. On obtient un point

attractif (asymptotiquement stable) (voir Figure 2.1).

Remarque 2.4.9. Il est important de savoir comment déterminer précisément l'allure


de la concavité de la trajectoire. En particulier, dans le cas répulsif, il s'agit de prendre
la limite de pour t → +∞ car dans ce cas, le point s'éloigne de 0 quand t → +∞.
ỹ(t)

Par contre, dans le cas attractif, le point (x(t), y(t)) se rapproche de 0 quand t → +∞.
x̃(t)

Il faut donc prendre la limite pour t → −∞ dans ce cas, pour faire en sorte que le
point s'éloigne de 0.
Remarque 2.4.10. Notons que dans la Figure 2.1, le point stationnaire 0 a été repré-
senté comme courbe intégrale : c'est la courbe intégrale qui consiste à rester au point 0.
En particulier, il faudra faire attention, selon la règle édictée par la Proposition 2.4.2
à ce qu'aucune autre courbe intégrale ne passe par le point 0.
(b) Cas où det(A) < 0 (voir Figure 2.2) : alors λ1 et λ2 sont de signes contraires et on peut
par exemple supposer que λ2 < 0 < λ1 . On obtient un point selle (voir Figure 2.2).
(c) Cas où det(A) = 0 (voir Figure 2.3) : alors λ1 = 0 et λ2 = a + d 6= 0. On obtient un
cas dégénéré.

2. Cas où ∆<0 (voir Figure 2.4) : on a alors deux racines complexes conjuguées. Dans
  C, il
λ 0
existe une matrice inversible P telle que A = P P −1 . On peut écrire λ = r + iω .
0 λ̄
Les vecteurs propres associés sont aussi conjugués : v1 = U1 + iU2 et v2 = U1 − iU2 et dans
la base (v1 , v2 ) les coordonnées (x̃, ỹ) de X s'écrivent, pour α, β ∈ C,

x̃(t) = αe(r+iω)t , ỹ(t) = βe(r−iω)t , t ∈ R,


2.4. COMPORTEMENT ASYMPTOTIQUE DES SOLUTIONS. 35

v2 v2

v1 v1

(a) Le cas λ1 > λ2 > 0. (b) Le cas λ1 < λ2 < 0.

Figure 2.1  Le cas ∆ > 0 et det(A) > 0.

v2

v1

Figure 2.2  Le cas ∆ > 0 et det(A) < 0 : λ2 < 0 < λ1 .

ce qui est exactement dire que pour tout t ∈ R, X(t) = αe(r+iω)t (U1 + iU2 ) + βe(r−iω)t (U1 −
iU2 ). X est un vecteur réel donc nécessairement X̄ = X , donc en particulier X(0) = X̄(0),
2
i.e. α = β̄ = u + iv . On a alors nécessairement, en supposant que u + v > 0
2

X(t) = (u + iv)e(r+iω)t (U1 + iU2 ) + (u − iv)e(r−iω)t (U1 − iU2 ),


= ert U1 (u + iv)eiωt + (u − iv)e−iωt + ert U2 i(u + iv)eiωt − i(u − iv)e−iωt
 

= 2ert U1 (u cos(ωt) − v sin(ωt)) − 2ert U2 (u sin(ωt) + v cos(ωt))


 
rt
p
2 2
u v
= 2e u + v U1 √ cos(ωt) − √ sin(ωt)
u2 + v 2 u2 + v 2
 !
u v
− U2 √ sin(ωt) + √ cos(ωt)
u2 + v 2 u2 + v 2
p p
= 2ert u2 + v 2 U1 cos(ωt + ϕ) − 2ert u2 + v 2 U2 sin(ωt + ϕ),

avec ϕ tel que cos(ϕ) = √ u et sin(ϕ) = √ v . En conclusion, il existe des constantes


u2 +v 2 u2 +v 2
36 CHAPITRE 2. SYSTÈMES LINÉAIRES D'ORDRE 1

v2 v2

v1 v1

(a) Le cas λ1 = 0 et Tr(A) < 0. (b) Le cas λ1 = 0 et Tr(A) > 0.

Figure 2.3  Le cas ∆ > 0 et det(A) = 0.

réelles k1 , k2 et ϕ∈R telles que

∀t ∈ R, X(t) = k1 ert cos(ωt + ϕ)U1 + k2 ert sin(ωt + ϕ)U2 .

Nous avons donc aaire à une solution qui tourne à vitesse ω . Remarquons que Tr(A) = 2r.
Il y a trois sous-cas à traiter

(a) Cas où Tr(A) <0 : on obtient une spirale asymptotiquement stable (voir Figure 2.4).

(b) Cas où Tr(A) >0 : on obtient une spirale instable (voir Figure 2.4).

(c) Cas où Tr(A) =0 : on obtient une ellipse (stable mais pas asymptotiquement stable)
(voir Figure 2.4).

3. Cas où ∆=0 (voir Figure 2.5) : A a donc une valeur propre double λ ∈ R.
 
λ 0
(a) Cas où A est diagonalisable : dans ce cas A est en fait diagonale, A = . Dans
0 λ
ce cas, (v1 , v2 ) est la base canonique et x(t) = x(0)e
λt et y(t) = y(0)eλt , autrement

dit y(t) = γx(t) pour une certaine constante γ : les courbes intégrales sont des droites
et le point 0 est stable ou instable selon le signe de λ (le cas λ = 0 est possible mais
inintéressant).
 
λ 1
(b) Cas où A non diagonalisable : dans ce cas A est semblable à et les coordonnées
0 λ
de X dans la base de trigonalisation sont données par x̃(t) = (α+βt)e
λt et ỹ(t) = αeλt .
β
Ainsi, pour α 6= 0, x̃(t) = ỹ(t)(t + ).
α
2.4. COMPORTEMENT ASYMPTOTIQUE DES SOLUTIONS. 37

v2 v2

v1 v1

(a) Le cas Tr(A) <0 et ω > 0. (b) Le cas Tr(A) <0 et ω < 0.

v2 v2

v1 v1

(c) Le cas Tr(A) >0 et ω > 0. (d) Le cas Tr(A) >0 et ω < 0.

v2 v2

v1 v1

(e) Le cas Tr(A) =0 et ω > 0. (f ) Le cas Tr(A) =0 et ω < 0.

Figure 2.4  Le cas ∆ < 0.


38 CHAPITRE 2. SYSTÈMES LINÉAIRES D'ORDRE 1

v2 v2

v1 v1

(a) Le cas A diagonalisable et Tr(A) > 0. (b) Le cas A diagonalisable et Tr(A) < 0.

v2 v2

v1 v1

(c) Le cas A non diagonalisable et Tr(A) > 0. (d) Le cas A non diagonalisable et Tr(A) < 0.

v2

v1

(e) Le cas A non diagonalisable et Tr(A) = 0.

Figure 2.5  Le cas ∆ = 0.


Chapitre 3

Systèmes diérentiels non linéaires de


dimension 2 : Propriétés qualitatives
La motivation de ce chapitre est d'établir des propriétés qualitatives des solutions des systèmes
en dimension 2, non nécessairement linéaires. La diculté supplémentaire ici est qu'il sera la
plupart du temps impossible de trouver une expression explicite des solutions. Il faudra donc se
contenter d'établir des propriétés qualitatives.

3.1 Introduction et dénitions


On considère dans ce chapitre des systèmes diérentiels du type suivant :
(
x0 (t) = f (x(t), y(t)),
t∈I (3.1)
y 0 (t) = g(x(t), y(t)),

où :

 I est un intervalle ouvert de R,


 pour tout t ∈ I , (x(t), y(t)) ∈ Ω :=]a, b[×]c, d[, où −∞ ≤ a < b ≤ +∞ et −∞ ≤ c < d ≤ ∞,
 f et g sont des fonctions de classe C1 sur Ω.
f g t
autonome
Dans (3.1), et ne dépendent pas du temps : on dit que le système (3.1) est un système
.

Dénition 3.1.1. La donnée du système


auquel on ajoute une condition initiale du type
(3.1)

x(t ) = x , et y(t ) = y ,
0 0 0 0 (3.2)

où t ∈ R, et (x , y ) ∈ Ω , est appelée
0 0 0
2 .
Problème de Cauchy

Exemple 3.1.1. Dans le cas où f (x, y) = αx + βy et g(x, y) = γx + δy, on retrouve le système


linéaire en dimension 2 vu au chapitre précédent
(
x0 (t) = αx(t) + βy(t),
(3.3)
y 0 (t) = γx(t) + δy(t).

Remarque 3.1.1. Dans le cas de système linéaire comme , nous avons vu que les solutions
du problème de Cauchy étaient dénies sur I = R tout entier. Dans le cas général, les solutions
(3.3)

(x(t), y(t)) de ne seront pas nécessairement dénies sur R tout entier. Résoudre , c'est
en fait, non seulement déterminer (x, y) mais aussi l'intervalle I de dénition.
(3.1) (3.1)

39
40 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS EN DIMENSION 2

Dénition 3.1.2. On appelle - tout couple (I, θ), où


I est un intervalle de R contenant t et θ = (ϕ, ψ) est une fonction de I dans Ω de classe C
solution du problème de Cauchy (3.1) (3.2)
1

vériant
0




∀t ∈ I, ϕ0 (t) = f (ϕ(t), ψ(t)),
∀t ∈ I, ψ 0 (t)

= g(ϕ(t), ψ(t)),
(3.4)
ϕ(t0 ) = x0 ,



ψ(t ) = y
0 0

J'insiste : l'intervalle I de dénition fait maintenant partie de l'inconnue.

Remarque 3.1.2. Nous pouvons écrire sous une forme condensée : posant X = (x, y) et
F (X) = (f (X), g(X)), le système s'écrit
(3.1)
(3.1)

X 0 (t) = F (X(t)), t ∈ I. (3.5)

Quelques cas particuliers :


 Si y0 = 0 et y(t0 ) = 0 (autrement dit y(t) = 0 pour tout t) le système est équivalent à une
équation autonome en dimension 1

x0 (t) = f (x(t)), t ∈ I. (3.6)

 Le cas d'une équation non-autonome (où f dépend du temps) en dimension 1,

x0 (t) = f (x(t), t), x(0) = x0 , t∈I (3.7)

peut être vu comme un cas particulier de (3.5), au sens où (3.7) est équivalent à




x0 (t) = f (x(t), y(t)), t∈I
y 0 (t)

= 1,
(3.8)


x(0) = x0 ,

y(0) = 0.

C'est en eet évident, car dans ce cas, (pour tout t ∈ I , y 0 (t) = 1, y(0) = 0) est équivalent
à y(t) = t, pour tout t.

Exemple 3.1.2. 1. Vu au Ch.1 : x = − , équation équivalente au système (x = − , y =


0 t 0 y 0

1).
x x

2. Equation de Bernoulli (vu Ch.1) : x = − t x , équation équivalente au système (x =


0 2x 2 2 0

− y x , y = 1).
t
2x 2 2 0

Attention : nous avons vu à propos des deux derniers exemples que les solutions n'étaient pas
y

dénies sur R tout entier mais sur un sous-intervalle strict de R.


3.2 Résultats théoriques et applications
3.2.1 Le théorème de Cauchy-Lipschitz
(I, θ) avec I intervalle
agrandir
L'idée est de rechercher une solution du problème de Cauchy (3.1)- (3.2)
(I, θ), on va chercher à
prolongement d'une solution
le plus grand possible : à partir du moment où on a une solution
I : c'est la notion de .
3.2. RÉSULTATS THÉORIQUES ET APPLICATIONS 41

Dénition 3.2.1 Si θ est une solution de X = F (X) dénie


. 0

sur un intervalle I =]α, β[ (−∞ ≤ α < β ≤ +∞) telle que β < +∞, on dit que (I, θ) est
(Prolongement d'une solution)

β , s'il existe un intervalle J =]α, β [ avec β < β et une solution τ de X = F (X)


0 0 0

dénie sur J telle que τ (t) = θ(t) pour tout t ∈ I .


prolongeable en

On dit alors que τ est un prolongement de θ.

Remarque 3.2.1. Bien sûr, il est possible de dénir une notion similaire de prolongement en
α au lieu de β .

Dénition 3.2.2.  On dit que (I, θ) est une de X = F (X) si elle 0

n'admet pas de prolongement.


solution maximale

 On dit que (I, θ) est une si I = R.


solution globale

Exemple 3.2.1.  x = 1 + x , x(0) = 0 admet une unique solution maximale donnée par
0 2

x(t) = tan(t), dénie sur ] − , [. π π

 Toute solution du système linéaire est globale. √


2 2
(3.3)

 x =√ √admet comme solution maximale x(t) = ± C − t , où C > 0, dénie sur I =


0 t 2

] − C, C[. Le signe ± dépend du signe de x .


x
0

Le principal résultat de ce cours est le suivant :

Théorème 3.2.1 . Soit le système sur Ω, muni de la


condition initiale . Si f et g sont de classe C sur Ω, alors il existe une unique solution
(Théorème de Cauchy-Lipschitz) (3.1)
1

maximale (I, θ) au problème de Cauchy - .


(3.2)
(3.1) (3.2)

Démonstration. Admis.

Remarque 3.2.2.  Le théorème de Cauchy-Lipschitz est un résultat fondamental de ce


cours, il s'agit donc de bien maîtriser son énoncé et surtout ses conséquences.
 Cette unique solution maximale n'est pas forcément globale.
 On notera souvent I =]t , t [ l'intervalle maximal d'existence de cette unique solution. On
se demandera en particulier si t = +∞ (ou bien t = −∞) ou non.
− +
+ −

Pour savoir si ou non l'unique solution maximale est en fait globale, nous utiliserons souvent
le critère de prolongement suivant :

Théorème 3.2.2 Soit (I, φ) une solution de X = F (X) (non né-


. 0

cessairement maximale) dénie sur I =]α, β[. Si β < +∞ et si θ admet une limite nie B quand
(Critère de prolongement)

t tend vers β telle que B ∈ Ω, alors θ admet un prolongement en β .

Nous utiliserons souvent ce critère pour prouver (dans certains cas) qu'une solution maximale
de certains systèmes diérentiels est en fait globale. Comment ? En appliquant la démarche
suivante : soit (I, φ) une solution maximale de X 0 = F (X) avec I =]α, β[. On souhaite prouver
qu'en fait β = +∞.
1. On raisonne par l'absurde : on suppose que β < +∞,
2. Si on est capable de montrer qu'alors θ admet une limite nie B en β et que B ∈ Ω, cela
veut donc dire (par théorème de prolongement) que θ est prolongeable en β.
3. Or ceci contredit le caractère maximal de la solution (I, θ). Il est donc absurde de supposer
que β < +∞ et donc β = +∞.
Appliquons ce principe de raisonnement à un exemple :
42 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS EN DIMENSION 2

Exemple 3.2.2 (Equation du pendule). L'équation du pendule est


x00 = − sin(x), x(0) = x0 , x0 (0) = ω0 . (3.9)

Transformons cette équation en un système d'ordre 1 en dimension 2 équivalent. est ainsi


équivalente à
(3.9)




x0 = y,
y 0 = − sin(x),

(3.10)


x(0) = x0 ,

y(0) = ω .
0

Or, la fonction (x, y) 7→ F (x, y) = (y, − sin(x)) est de classe C sur Ω = R . Par application du
1 2

théorème de Cauchy-Lipschitz, il existe une unique solution maximale dénie sur ]α, β[. Montrons
que cette solution est globale, c'est-à-dire que α = −∞ et β = +∞. Traitons seulement le cas
pour β, l'autre est similaire.
Supposons le contraire : βZ< +∞. Nous pouvonsZécrire que
y (s)ds + y(0) = − sin(x(s))ds + y(0).
t t
0
y(t) =
0 0
Mais alors s 7→ sin(x(s)) est continue sur [0, β[ et bornée donc Rintégrable sur [0, β[ (car β < +∞).
Donc ∃ lim y(t) = ȳ. Mais si y(t) → ȳ, alors x(t) → x̄ = y(t)dt + x(0). Nous avons donc
β

montré que (x(t), y(t)) → (x̄, ȳ) ∈ R . Par critère de prolongement, la solution que nous
t→β 0
2

avons trouvée est donc prolongeable, ce qui contredit son caractère maximal. Donc β = +∞.
t→β

De même, α = −∞ et la solution de est en fait globale.


(3.9)

3.3 Applications du Théorème de Cauchy-Lipschitz


Le Théorème de Cauchy-Lipschitz est un théorème important qui a de nombreuses applica-
tions.

Etude complète des équations en dimension 1


Nous traitons ici uniquement l'exemple d'une équation de Bernoulli vue au Chapitre 1.
D'autres applications peuvent être étudiées comme :

2x
x0 = − t 2 x2 , t > 0. (3.11)
t
Au Chapitre 1, nous avions restreint la recherche des solutions de cette équation aux fonctions
telles que x(t) > 0, pour tout t (ou x(t) < 0, pour tout t). Or, il y existe d'autres solutions à
cette équation, par exemple la solution nulle : x telle que x(t) = 0 pour tout t est une solution
évidente de (3.11).
Y en a-t-il d'autres ? Ecrivons tout d'abord l'équation initiale sous la forme équivalente d'une
système en dimension 2 : l'équation (3.11) est équivalente au système
(
2x
x0 = y − y 2 x2 ,
(3.12)
y0 = 1
La fonction (x, y) 7→ F (x, y) = ( 2x 2 2 1
y −y x , 1) est de classe C sur Ω := R×]0, +∞[. Par Théorème
de Cauchy-Lipschitz, pour tout condition initiale (x0 , t0 ), il existe une unique solution maximale
à (3.12) (et donc à (3.11)) telle que x(t0 ) = x0 .
Cherchons maintenant toutes les solutions maximales de (3.11). Soit (I, φ) une solution
maximale de (3.11), deux cas sont possibles :
3.3. APPLICATIONS DU THÉORÈME DE CAUCHY-LIPSCHITZ 43

1. Soit φ s'annule en un point : ∃t0 ∈ I tel que φ(t0 ) = 0. Alors φ est la solution identiquement
nulle : I = R et φ(t) = 0 pour tout t ∈ R. En eet, regardons le problème de Cauchy

2x
x0 = − t2 x2 , x(t0 ) = 0. (3.13)
t
Alors, par hypothèse, φ est solution de ce problème de Cauchy. Mais la fonction nulle
(dénie sur R) est aussi trivialement une solution maximale de ce problème. Par unicité de
la solution maximale dans ce problème de Cauchy, ces deux solutions coincident et donc
I = R et φ ≡ 0.
2. Soit φ ne s'annule jamais. Mais alors, φ est nécessairement de signe constant. En eet,
sinon il existerait t0 6= t1 tels que φ(t0 ) < 0 et φ(t1 ) > 0 par exemple. Mais alors, φ étant
continue, il existe, par théorème des valeurs intermédiaires, t2 ∈]t0 , t1 [ tel que φ(t2 ) = 0.
Or on a dit que φ ne s'annulait jamais. Absurde. Donc φ est de signe constant.

Donc soit φ(t0 ) > 0 auquel cas φ(t) > 0 pour tout t ∈ I ou soit φ(t0 ) < 0 auquel cas
φ(t) < 0 pour tout t ∈ I . Mais dans ce cas, nous savons résoudre, (cf. Chapitre 1) et nous
trouvons que

5t2
φ(t0 ) > 0 ⇒ φ(t) = , dénie sur ] − ∞, (−C)1/5 [,
C + t5
5t2
φ(t0 ) < 0 ⇒ φ(t) = , dénie sur ](−C)1/5 , +∞[,
C + t5
qui sont des solutions maximales.

3. Conclusion : nous avons trouvé toutes les solutions maximales de (3.11) : par rapport au
Chapitre 1, il ne manquait que la fonction identiquement nulle.

Notion de courbe intégrale


Dénition 3.3.1. Soit (x0 , y0 ) ∈ Ω. On appelle passant par (x , y ) la courbe
paramétrée
courbe intégrale 0 0

{(x(t), y(t)), t ∈ I, (x(t ), y(t )) = (x , y ), pour un certain t },


0 0 0 0 0
pour (I, (x, y)) solution de X = F (X).
0

Une conséquence de l'unicité dans le théorème de Cauchy-Lispchitz est la proposition suivante

Proposition 3.3.1. Deux courbes intégrales distinctes ne se coupent jamais.


Démonstration. C'est la même preuve que dans le cas linéaire (cf. Chapitre 2).

Etude des symétries des solutions


Il est parfois possible (et utile) de prouver qu'une solution de X 0 = F (X) satisfait des relations
de symétries. Traitons un exemple :

x0 (t) = 1 + x(t)2 , x(0) = 0.


Rappel : en fait on connait explicitement la solution de cette équation, il s'agit de x(t) = tan(t).
Faisons malgré tout semblant de ne pas connaitre cette solution et prouvons que même sans
connaitre la solution, il est possible de montrer qu'a priori, la solution maximale de ce problème
de Cauchy est impaire, ie.

I est symétrique par rapport à 0 et ∀t ∈ I, x(−t) = −x(t).


En eet, posons x̃(t) := −x(−t). Il est facile de voir que x̃ et x satisfont toutes deux le même
problème de Cauchy : elles sont donc égales. Donc x(t) = −x(−t) pour tout t, ce qu'il fallait
prouver.
44 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS EN DIMENSION 2

3.3.1 Points stationnaires et stabilité


Dénition 3.3.2. Si F : Ω → R dénie sur Ω :=]a, b[×]c, d[. On dit que X̄ = (x̄, ȳ) est un
2

point singulier si F (x̄, ȳ) = 0.


Si un point n'est pas singulier, on dit qu'il est régulier.
Proposition 3.3.2. On a l'équivalence suivante : X̄ est un point singulier de F si et seulement
si X(t) = (x̄, ȳ) pour tout t ∈ R est l'unique solution de X = F (X), X(t ) = (x̄, ȳ).0

On appelle cette solution un .


0
point stationnaire

Démonstration. X̄ Si est un point singulier, alors cela donne clairement une solution au problème
de Cauchy correspondant. L'unicité d'une telle solution vient du théorème de Cauchy-Lipschitz.
Réciproquement, si X(t) = (x̄, ȳ) est solution du problème de Cauchy, alors X 0 = 0 = F (X) =
F (X̄). Donc X̄ est un point singulier de F.

De même que dans le cas linéaire, on se pose la question de la stabilité des solutions station-
naires.

Dénition 3.3.3. Soit (x̄, ȳ) un point stationnaire. On dit que


1. (x̄, ȳ) est stable si pour tout ε > 0, il existe δ > 0 tel que, pour toute condition initiale
(x , y ) telle que |x − x̄| + |y − ȳ| ≤ δ , alors l'unique solution (I =]t , t [, (x, y)) telle
2 2

que (x(t ), y(t )) = (x , y ) vérie


0 0 0 0 − +
0 0 0 0
(
t+ = +∞,
(3.14)
∀t ≥ t0 , |x(t) − x̄|2 + |y(t) − ȳ|2 ≤ ε

2. (x̄, ȳ) est dit asymptotiquement stable si il existe δ > 0 tel que, pour toute condition initiale
(x , y ) telle que |x − x̄| + |y − ȳ| ≤ δ , alors l'unique solution (I =]t , t [, (x, y)) telle
2 2

que (x(t ), y(t )) = (x , y ) vérie


0 0 0 0 − +
0 0 0 0
(
t+ = +∞,
(3.15)
(x(t), y(t)) →t→+∞ (x̄, ȳ).

Notion de stabilité linéaire : L'idée sous-jacente à ce paragraphe est une idée de calcul dif-
férentiel : si (x, y) est proche de (x̄, ȳ) alors F (x, y) doit être proche de F (x̄, ȳ). Plus précisément,
si F = (f, g) est de classe C 1 ,
 
x − x̄
q
F (x, y) = F (x̄, ȳ) + A · + o( |x − x̄|2 + |y − ȳ|2 ),
y − ȳ

où  
∂x f (x̄, ȳ) ∂y f (x̄, ȳ)
A=
∂x g(x̄, ȳ) ∂y g(x̄, ȳ)
est la matrice jacobienne de F en (x̄, ȳ).
Autrement dit, intuitivement, X 0 = F (X) doit ressembler à Y 0 = AY au voisinage de (x̄, ȳ).
Cette intuition est vraie, du moins dans une certaine mesure. On a le théorème (dicile) suivant

Théorème 3.3.1 Soit F de classe C , (x̄, ȳ) point


. 1

stationnaire de = F (X) et A la matrice jacobienne de F en (x̄, ȳ).


(Stabilité linéaire des points stationnaires)
X0
Si les valeurs propres de A, λ et λ sont toutes de parties réelles non nulles, alors
1 2

1. (0, 0) est stable pour Y = AY si et seulement si (x̄, ȳ) est stable pour X = F (X),
0 0
3.3. APPLICATIONS DU THÉORÈME DE CAUCHY-LIPSCHITZ 45

2. (0, 0) est asymptotiquement stable pour Y = AY si et seulement si (x̄, ȳ) est asymptoti-
0

quement stable pour X = F (X),


0

et les courbes intégrales autour de (x̄, ȳ) ont la même allure que celles du système linéarisé.
Exemple 3.3.1 . Si une valeur propre de A est de partie réelle nulle, on ne
peut pas conclure : donnons un contre-exemple dans le cas où une valeur propre de A est de partie
(contre-exemple)

réelle nulle : dénissons


F (x, y) = (y, −x) ± ((x2 + y 2 )x, (x2 + y 2 )y).

Le linéarisé en (0, 0) est avec de valeurs propres i et −i. Le passage en


 
0 1
X 0 = AX A=
−1 0
coordonnées polaires dans l'équation totale donne dr
dθ = ±r. Dans le cas +, 0 est instable, dans
3

le cas − 0 est stable. On ne peut donc pas conclure.


Exercice 3.3.1. Etudier les points stationnaires et leur stabilité des systèmes X = F (X) dans
0

le cas où
1. F (x, y) = (x(1 − ) − xy, xy − y),
x

2. F (x, y) = (x − xy − x , −4y + 2xy).


2
2
46 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS EN DIMENSION 2
Chapitre 4

Approximation numérique d'une


équation diérentielle. Schémas d'Euler.

Le but de ce court chapitre est d'introduire quelques notions d'approximation numérique


d'une équation diérentielle. Nous avons vu dans les chapitres précédents qu'hormis le cas linéaire,
il est dicile voire impossible de calculer explicitement la solution du problème de Cauchy :
(
x0 (t) = f (t, x(t))
(4.1)
x(t0 ) = x0 ,

où t, t0 ∈ [0, T ] (T > 0), x(t), x0 ∈ Ω ⊂ Rp et f est une fonction de classe C1 sur I × Ω. En


l'absence d'expression explicite des solutions, une possibilité reste d'approcher ces solutions par
des méthodes numériques, aisément implémentables sur ordinateur.

[0, T ] en N (N ≥ 1) 0 = t0 <
subdivision
L'idée est la suivante : on discrétise l'intervalle de temps points
t1 < t2 < . . . < tN = T . Une telle suite (t0 , t1 , . . . , tN ) est appelée de l'intervalle [0, T ].
suite des pas de temps la suite (hn = tn+1 − tn )0≤n≤N −1 . h = max(hn , n = 0, . . . , N )
diamètre ou pas de la subdivision
On appelle
est appelé . Résoudre numériquement l'équation (4.1) revient
alors à calculer une approximation xn des valeurs x(tn ) aux instants tn . Ce qu'on espère est que
cette approximation soit d'autant meilleure que le pas de temps de la subdivision h est petit.
xn f
schéma numérique
Les seront construits de manière itérative à partir de la fonction et de la condition initiale.
On appelle la donnée de cette suite (xn ) construite de manière itérative.

4.1 Schémas d'Euler


4.1.1 Schéma d'Euler explicite
Le schéma d'Euler explicite correspond à l'approximation suivante de la dérivée de x :

x(tn+1 ) − x(tn )
Pour t voisin de tn , x0 (t) ≈ (4.2)
tn+1 − tn
De même, pour t proche de tn , f (t, x(t)) ≈ f (tn , x(tn+1 )). Ainsi, une approximation raisonnable
de l'équation diérentielle (4.1) est donc :

xn+1 = xn + hn f (tn , xn ), où xn est une approximation de x(tn ), hn = tn+1 − tn . (4.3)

Il s'agit du schéma d'Euler explicite associé à l'équation diérentielle (4.1). Partant de x0 à


n=0 on calcule récursivement de proche en proche les xn jusqu'à xN qui est censé fournir une
approximation de x(T ).

47
48 CHAPITRE 4. APPROXIMATION NUMÉRIQUE ET SCHÉMAS D'EULER

Une autre interprétation du schéma d'Euler explicite est la suivante : si x est la solution
du problème de Cauchy (4.1) et si (0 = t0 , t1 , . . . , tn ) est une subdivision de [0, T ] alors par
intégration, on a pour tout n≥0
Z tn+1
x(tn+1 ) = x(tn ) + f (t, x(t))dt. (4.4)
tn
R tn+1
L'intégrale
tn f (t, x(t))dt peut-être approchée de multiples manières. Une possibilité est d'uti-
Rb
liser la méthode des rectangles à gauche (
a g(t)dt ≈ (b − a)g(a)) ce qui donne ici
Z tn+1
f (t, x(t))dt ≈ (tn+1 − tn )f (tn , x(tn )). (4.5)
tn

Injecter cette expression dans (4.4) redonne le schéma d'Euler explicite (4.3).

4.1.2 Autres schémas numériques


Rb
Il existe de multiples façons de calculer de manière approchée l'intégrale
a g(t)dt d'une
fonction continue g sur un intervalle [a, b]. Je renvoie à votre cours d'intégration pour plus de
détails. On peut en particulier citer :
Rb
1. la méthode des rectangles à gauche :
a g(t)dt ≈ (b − a)g(a),
Rb
2. la méthode des rectangles à droite : g(t)dt ≈ (b − a)g(b),
a
Rb
g(t)dt ≈ (b − a)g a+b

3. la méthode du point milieu :
a 2 ,
4. et bien d'autres...
R tn+1
Si on applique chacune de ces méthodes pour le calcul approché de
tn f (t, x(t))dt au para-
graphe précédent, nous obtenons les schémas numériques suivants :
R tn+1
1. Schéma d'Euler explicite (déjà vu au paragraphe précédent) :
tn f (t, x(t))dt ≈ (tn+1 −
tn )f (tn , x(tn )), ce qui donne

xn+1 = xn + hn f (tn , xn ).
R tn+1
2. Schéma d'Euler implicite :
tn f (t, x(t))dt ≈ (tn+1 − tn )f (tn+1 , x(tn+1 )), ce qui donne

xn+1 = xn + hn f (tn+1 , xn+1 ).


R tn+1  
tn +tn+1
3. Schéma de Runge :
tn f (t, x(t))dt ≈ (tn+1 − tn )f 2 , ce qui donne

  
hn tn + tn+1
x(tn+1 ) ≈ x(tn ) + hn f tn + ,x , où hn = tn+1 − tn .
2 2
En remplaçant (par la méthode d'Euler)

 
tn + tn+1 hn
x ≈ x(tn ) + f (tn , x(tn )),
2 2

on obtient la méthode de Runge

 
hn hn
xn+1 = xn + hn f tn + , xn + f (tn , xn ) .
2 2
4.2. NOTION DE CONVERGENCE D'UN SCHÉMA NUMÉRIQUE 49

Il existe une multitude d'autres méthodes numériques permettant d'approcher les solutions
d'équations diérentielles. Les évoquer toutes ferait l'objet d'un cours de licence tout entier.
Dans ce chapitre, nous nous limiterons au cas des schémas d'Euler explicite et implicite.

Remarque 4.1.1. Le schéma d'Euler explicite doit son appellation au fait que la nouvelle valeur
xn+1 est connue en fonction de la valeur précédente x . Par contre, dans le schéma
d'Euler implicite, la nouvelle valeur x est contenue dans les deux membres de l'égalité :
explicitement n

est connue de . Pour déterminer x il faut résoudre l'équation y =


n+1
x
, y).
n+1 manière implicite n+1
x + h f (t
n n n+1

4.2 Notion de convergence d'un schéma numérique


Dans le paragraphe précédent, nous nous sommes contentés de dénir une approximation
raisonnable de l'équation diérentielle (4.1). Rien ne nous dit que la suite (xn ) ainsi dénie
fournit eectivement une approximation correcte de la solution de l'équation diérentielle, quand
le pas de temps h tend vers 0.
Les questions que l'on se pose sont donc les suivantes :

 La valeur xN fournit-elle une bonne approximation de x(T ) quand le pas de temps h est
petit ? Autrement dit, a-t-on |xN − x(T )| → 0 quand h → 0?
 Si oui, quelle est la taille typique de l'erreur commise quand on remplace x(T ) par xN pour
un h petit mais non nul ?

Dans ce paragraphe, nous nous restreindrons au cas du schéma d'Euler explicite. Nous allons
supposer que la propriété suivante est vraie pour f.
Hypothèses 4.2.1. On suppose que f est globalement lipschitzienne en la variable x, uniformé-
ment en t, c'est-à-dire
∃K > 0, ∀t ∈ [0, T ], ∀x, y, |f (t, x) − f (t, y)| ≤ K |x − y| (4.6)

Remarque 4.2.1. Cette hypothèse peut être considérablement aaiblie, mais nous nous conten-
terons de celle-ci dans ce chapitre.
Proposition 4.2.1. Sous l'hypothèse précédente, on a
|x − x(T )| → 0, quand h → 0.
N

Démonstration. Dans ce cas,

N
X −1 N
X −1
|xN − x(T )| = (xn+1 − xn ) − (x(tn+1 ) − x(tn )) ,
n=0 n=0
N
X −1  Z tn+1 
= hn f (tn , xn ) − f (t, x(t))dt ,
n=0 tn
N
X −1 Z tn+1
= (f (tn , xn ) − f (t, x(t))) dt ,
n=0 tn
N
X −1 Z tn+1 N
X −1 Z tn+1
≤ |f (tn , xn ) − f (tn , x(tn ))| dt + |f (tn , x(tn )) − f (t, x(t))| dt
n=0 tn n=0 tn

N
X −1 Z tn+1 N
X −1 Z tn+1
≤K |xn − x(tn )| dt + (f (tn , x(tn )) − f (t, x(t)))dt .
n=0 tn n=0 tn
| {z }
:=εn
50 CHAPITRE 4. APPROXIMATION NUMÉRIQUE ET SCHÉMAS D'EULER

Traitons d'abord le premier terme. Notons yn = x(tn ). On a alors

|xn+1 − yn+1 | = |xn + hn f (tn , xn ) − (yn + hn f (tn , yn ) + εn | ,


≤ |xn − yn | + hn |f (tn , xn ) − f (tn , yn )| + |εn | ,
≤ (1 + Khn ) |xn − yn | + |εn | ,
≤ eKhn |xn − yn | + |εn | ,

où on a utilisé l'inégalité 1 + u ≤ eu . En procédant par récurrence, il vient

N
X −1
|xn − yn | ≤ eK(hn +...+h0 ) |x0 − y0 | + eK(hk +...+h0 ) |εk | ,
k=0
N
X −1 N
X −1
= eKtk |εk | ≤ eKT |εk |
k=0 k=0
PN −1
Pour montrer que |xN − x(T )| → 0, il sut donc de montrer que n=0 |εn | tend vers 0 quand
h tend vers 0. Prouvons ce fait. On a,

Z tn+1
εn = x(tn+1 ) − x(tn ) − hn f (tn , x(tn )) = (f (t, x(t)) − f (tn , x(tn ))) dt.
tn

f est continue sur le compact [0, T ] × x([0, T ]) donc uniformément continue : pour tout ε > 0, il
existe η > 0 tel que si |t − s| + |x − y| < η , x est continue sur [0, T ] donc uniformément continue :
η
il existe α > 0 tel que pour tout t, s ∈ [0, T ], si |t − s| < α alors, |x(t) − x(s)| <
2 . Quitte à
η
diminuer α, on peut toujours prendre α < . Mais alors |t − s|+|x − y| < η pour tout |t − s| < α
2 PN −1
et donc |f (t, x(t)) − f (tn , x(tn ))| < ε, dès que h < α. Par conséquent, n=0 |εn | ≤ T ε dès que
h < α, ce qui prouve le résultat.

Remarque 4.2.2. On peut même montrer que |x − x(T )| ≤ C |h| pour une certaine constante
.
N
C
Chapitre 5

Fonctions périodiques et séries de


Fourier ; Convergence en moyenne
quadratique
Dans de nombreuses situations physiques, on a à étudier des signaux périodiques (tension
dans un circuit électrique, onde acoustique ou électromagnétique qui se propage dans un milieu,
etc.). Un tel signal peut être compliqué à étudier et très irrégulier (non dérivable, non continu).
L'idée des séries de Fourier est de pouvoir décomposer un signal périodique en terme de
signaux plus simples. Le choix des séries de Fourier consiste à utiliser les fonctions simples
suivantes (
θ→
7 sin(nθ), n ≥ 1,
(5.1)
θ→7 cos(nθ), n ≥ 0.
Décomposer une fonction 2π -périodique en série de Fourier, cela sera écrire f comme somme de
ces fonctions simples
+∞
X
∀θ ∈ R, f (θ) = (an cos(nθ) + bn sin(nθ)), (5.2)
n=0
où les coecients (an )n≥0 , (bn )n≥0 sont des coecients à déterminer en fonction de f.
L'écriture (5.2) pose plusieurs problèmes :

 Il s'agit d'une somme innie (autrement dit, de la somme d'une série). Est-elle convergente ?
Est-elle divergente ? Absolument convergente ?

 Il s'agit de la convergence d'une suite de fonctions : quel sens donner à cette convergence
par rapport à la variable θ? est-elle vraie pour tout θ ∈ R? en moyenne par rapport à θ?
Uniformément par rapport à θ?
 Peut-on décomposer n'importe quelle fonction en série de Fourier, aussi irrégulière soit-elle ?

5.1 Fonctions périodiques


5.1.1 Dénitions
Dénition 5.1.1. Soit une fonction f : R → C, d'ensemble de dénition I . On dit que f est
périodique s'il existe T 6= 0, telle que
∀θ ∈ R, [θ ∈ I ⇒ θ + T ∈ I], et, ∀θ ∈ I, f (θ + T ) = f (θ).

On dit que T est une période de f . Dans ce cas, on dit aussi que f est T -périodique.
51
52 CHAPITRE 5. FONCTIONS PÉRIODIQUES ; PREMIÈRES PROPRIÉTÉS

Dans le cas où f admet une plus petite période T > 0, cette plus petite période est appelée la
période fondamentale de f .
Remarque 5.1.1. Attention : si f est périodique, sa période n'est pas unique! Si T est une
période pour f , kT est aussi une période pour f , pour tout k ∈ Z.
Exemple 5.1.1. Les fonctions suivantes sont périodiques :
 Pour tout n ∈ N, θ 7→ cos(nθ) et θ 7→ sin(nθ), de période fondamentale T = . 2π

 Pour tout n ∈ N, θ 7→ e de période fondamentale T = .


n
inθ 2π

 θ 7→ tan(θ) est π-périodique.


n

 La fonction θ 7→ 1 (θ) (c'est-à-dire la fonction qui donne 1 si θ est rationnel et 0 si θ est


irrationnel) est q-périodique, pour tout q ∈ Q. Cette fonction n'admet pas de plus petite
Q

période positive.
Proposition 5.1.1. Soit T > 0. Une fonction θ 7→ f (θ) est T -périodique si et seulement si
θ 7→ f Tθ
2π est 2π-périodique.
Démonstration. I Soit f
l'ensemble de dénition de g : θ 7→ f

. Alors
θT
2π J =
est dénie sur

{θ ∈ R, Tθ
2π ∈ I}. Si θ ∈ J , alors T (θ+2π)
2π = Tθ
+ T ∈ I ,par dénition
2π  de la périodicité de f . Donc
T (θ+2π)
= f T2πθ + T = f T2πθ = g(θ).
 
θ + 2π ∈ J . De plus, Pour tout θ ∈ J , g(θ + 2π) = f 2π
Donc g est bien 2π -périodique.

Cette proposition dit exactement qu'on peut toujours se ramener, via le changement de
variables θ 7→ θT
2π , à une fonction 2π -périodique. Nous ne considérerons donc maintenant que des
fonctions 2π -périodiques.

5.1.2 Construction de fonctions périodiques


Prolongement par 2π-périodicité
Une façon usuelle de construire des fonctions 2π -périodiques est de partir d'une fonction
dénie sur un intervalle de longueur 2π (par exemple ]0, 2π] ou bien ] − π, π]), puis d'étendre
cette fonction par 2π -périodicité. C'est l'objet de la proposition suivante :

Proposition 5.1.2. Soit f une fonction dénie sur un intervalle de longueur 2π du type ]α, α +
2π]. Il existe une unique fonction f˜, appelée la périodisée de f , qui est 2π-périodique et qui
coincide avec f sur ]α, α + 2π].
Cette fonction est dénie par
θ−α
   
f˜(θ) = f θ− − 1 2π ,

où dxe − 1 < x ≤ dxe.


Démonstration. θ ∈]α, α + 2π], f˜(θ) =
Nécessairement, si cette fonction existe, alors pour tout
f (θ). Si maintenant θ ∈]α,
/ α + 2π], alors il existe un unique k ∈ Z tel que θ − k2π ∈]α, α + 2π].
En eet, θ − k2π ∈]α, α + 2π] si et seulement si α < θ − k2π ≤ α + 2π si et seulement si
θ−α θ−α θ−α ˜
2π − 1 ≤ k < 2π si et seulement si k = d 2π − 1e. Ainsi f est dénie de manière unique.
Montrons qu'une telle fonction est bien 2π -périodique : en eet, pour tout θ , f˜(θ + 2π) =
f θ + 2π − θ+2π−α − 1 2π = f θ − θ−α ˜
     
2π 2π − 1 2π = f (θ).
5.1. FONCTIONS PÉRIODIQUES 53

−2π −π 0 π 2π 3π

−1

Figure 5.1  Signal créneau

Si f est dénie sur un intervalle du type [α, α + 2π[, on peut adapter le résultat précédent en
remplaçant f˜ par
θ−α
   
f˜(θ) = f θ− 2π ,

où bxc ≤ x < bxc + 1.
Dans la plupart des cas, on assimilera la fonction f , dénie sur ]α, α + 2π] à sa fonction
périodisée f˜. On dit qu'on a prolongé f par 2π -périodicité.

Exemple 5.1.2 . Posons f (θ) = 1 pour tout θ ∈]0, π[, f (0) = 0, f (π) = 0,
et f (θ) = −1 pour tout θ ∈]π, 2π[. La fonction périodisée de f est appelée
(Fonction créneau)

(voir Figure 5.1).


une fonction créneau

Prolongement par parité, puis 2π-périodicité


Il est aussi possible de partir d'une fonction dénie sur [0, π] (intervalle de longueur π ), de
la prolonger sur [−π, π] par parité (c'est-à-dire en posant f (θ) = f (−θ), pour tout θ ∈ [−π, 0])
puis par 2π -périodicité comme au paragraphe précédent.
La fonction ainsi dénie est une fonction paire sur R tout entier.

Exemple 5.1.3 La fonction dénie sur f (θ) = − θ pour θ ∈ [0, π]


. π

prolongée par parité, puis par 2π-périodicité est appelée fonction (ou signal) triangulaire (voir
(Signal triangulaire)
2

Figure 5.2).
Prolongement par imparité, puis par 2π-périodicité
De la même manière, il est possible de partir d'une fonction f dénie sur ]0, π[ (intervalle
de longueur π ), de la prolonger sur ] − π, π[ par imparité (c'est-à-dire en posant f (0) = 0 et
f (θ) = −f (−θ), pour tout θ ∈] − π, 0[) puis par 2π -périodicité comme au paragraphe précédent.
La fonction ainsi dénie est une fonction impaire sur R tout entier.
54 CHAPITRE 5. FONCTIONS PÉRIODIQUES ; PREMIÈRES PROPRIÉTÉS

π
2

−2π −π 0 π 2π 3π

− π2

Figure 5.2  Signal triangulaire

Remarque 5.1.2. Le lecteur averti aura remarqué que nous n'avons pas explicitement déni
la valeur de fonction f en π (cette valeur est la même que f (π + 2kπ), pour tout k ∈ Z par
2π -périodicité). C'est en fait que f (π) est nécessairement égal à 0 si f est impaire : en eet, si f
est impaire f (π) = −f (−π). De plus f est 2π-périodique, donc f (π) = f (−π). Par conséquent,
f (π) = 0.

Exercice 5.1.1. La fonction dénie par f (0) = 0, f (θ) = 1 pour tout ]0, π[ et prolongée par
imparité puis 2π-périodicité dénit une fonction créneau.
5.1.3 Régularité des fonctions périodiques
Dénition 5.1.2 (Continuité et continuité par morceaux). Soit une fonction f : R → C. On dit
que :
1. f est une fonction continue sur R si pour tout θ ∈ R, ∃ lim f (θ) = f (θ ),
0 θ→θ0 0
2. On dit que f est continue par morceaux sur R, si pour tout segment [a, b] de R, il existe une
subdivision a = x < x < x < . . . < x = b, telle que toutes les conditions suivantes
0 1 2 n
sont vériées
 Pour tout i ∈ {0, . . . , n − 1}, f est une fonction continue sur l'intervalle ]x , x [,
i i+1
 f admet une limite nie à droite et une limite nie à gauche en tout point de la
subdivision x , pour tout i ∈ {0, . . . , n}.
i

Dénition 5.1.3 (Fonctions C 1 et C . Soit une fonction f : R → C. On dit que :


1 par morceaux)

1. f est une fonction de classe C sur R si f est continue et dérivable sur R, de dérivée
1

continue.
2. On dit que f est de classe C par morceaux sur R, si pour tout segment [a, b] de R, il existe
1

une subdivision a = x < x < x < . . . < x = b, telle que toutes les conditions
0 1 2 n
suivantes sont vériées
 Pour tout i ∈ {0, . . . , n − 1}, f est une fonction de classe C sur l'intervalle ]x , x [,
1
i i+1
5.1. FONCTIONS PÉRIODIQUES 55

 f admet une limite nie à droite et une limite nie à gauche en tout point de la
subdivision x , pour tout i ∈ {0, . . . , n},
 La dérivée de f , f , admet une limite nie à droite et une limite nie à gauche en
i
0

tout point de la subdivision x , pour tout i ∈ {0, . . . , n}.


3. Plus généralement, on dit que f est C par morceaux si elle est C par morceaux et si sa
i
k k−1

dérivée k − 1ième est de classe C par morceaux. 1

Dans le cas d'une fonction 2π -périodique, il sut de vérier la régularité de la fonction sur
un intervalle de longueur 2π :

Proposition 5.1.3 . Soit


une fonction 2π-périodique. Soit ]α, α + 2π] un intervalle de longueur 2π. Alors
(Continuité et continuité par morceaux d'une fonction périodique)
f :R→C
1. f est continue sur R si et seulement si
 f est continue sur l'intervalle ]α, α + 2π[ et
 ∃ lim f (θ) = lim f (θ) = f (α).
2. f est continue par morceaux sur R si et seulement si
θ→α,θ>α θ→α+2π,θ<α+2π

 f est continue par morceaux sur l'intervalle ]α, α + 2π[ et


 lim f (θ) existe et est nie
 lim f (θ) existe et est nie.
θ→α,θ>α

θ→α+2π,θ<α+2π

Proposition 5.1.4 C C . Soit f : R → C


1 et 1 par morceaux)

une fonction 2π-périodique. Soit ]α, α + 2π] un intervalle de longueur 2π. Alors
(Fonctions périodiques de classe

1. f est de classe C sur R si et seulement si


1

 f est de classe C sur l'intervalle ]α, α + 2π[ et


1

 ∃ lim f (θ) = lim f (θ) = f (α), et


 ∃ lim f (θ).
θ→α,θ>α θ→α+2π,θ<α+2π
0
f (θ) = lim 0

Dans ce cas, f est dérivable en α, de dérivée, la limite commune des deux dérivées précé-
θ→α,θ>α θ→α+2π,θ<α+2π

dentes en α.
2. f est de classe C par morceaux sur R si et seulement si
1

 f est de classe C par morceaux sur l'intervalle ]α, α + 2π[ et


1

 lim f (θ) existe et est nie,


 lim f (θ) existe et est nie,
θ→α,θ>α

 lim f (θ) existe et est nie,


θ→α+2π,θ<α+2π
0

 lim f (θ) existe et est nie.


θ→α,θ>α
0
θ→α+2π,θ<α+2π

Exemple 5.1.4. Les fonctions triangle et créneau dénies en Figures 5.1 et 5.2 sont continues
par morceaux et de classe C par morceaux. La fonction triangle est en plus continue, mais la
1

fonction créneau ne l'est pas.


5.1.4 Fonctions périodiques intégrables
Dénition 5.1.4 (Fonctions intégrables). On dénit
L (0, 2π) := {f : R → C, f 2π -périodique, d
Z 2π
1
p |f (θ)| θ < +∞}
0

comme l'ensemble des fonctions 2π-périodiques dont la restriction à


[0, 2π] est intégrable.
susamment régulières
56 CHAPITRE 5. FONCTIONS PÉRIODIQUES ; PREMIÈRES PROPRIÉTÉS

Figure 5.3  Une fonction C 1 par morceaux.

Remarque 5.1.3. Le terme est volontairement vague et fait référence


au cours de théorie de la mesure et intégration, qui n'est pas au programme de ce module. Nous
susamment régulière

nous contenterons ici de savoir que ce terme englobe en particulier les fonctions continues par
morceaux, ce qui est largement susant pour ce chapitre.
Attention : f est par hypothèse à valeurs complexes. Autrement dit, pour tout θ ∈ R, on
peut écrire f (θ) = <(f (θ)) + =(f (θ)).
Proposition 5.1.5. si et seulement si et =f sont dans L (0, 2π) et dans ce
f ∈ L1p (0, 2π) <f 1

cas les intégrales d, d et d ont un sens et on a l'égalité


p
R 2π R 2π R 2π
0 f (θ) θ 0 <f (θ) θ 0 =f (θ) θ

d d =f (θ)dθ.
Z 2π Z 2π Z 2π
f (θ) θ = <f (θ) θ + i
0 0 0

Proposition R5.1.6. Soit f ∈ RL (0, 2π). Alors pour tout Rα ∈ R, f est Rintégrable sur le segment
1

[α, α + 2π] et f (θ)dθ = f (θ)dθ. En particulier f (θ)dθ = f (θ)dθ.


p
α+2π 2π π 2π
α 0 −π 0

Démonstration. Ecrivons :
Z α+2π Z 0 Z 2π Z α+2π
|f (θ)| dθ = |f (θ)| dθ + |f (θ)| dθ + |f (θ)| dθ.
α α 0 2π

Par 2π -périodicité de f et en eectuant le changement de variables


Rα θ→7 θ − 2π dans la dernière
intégrale, on voit facilement que cette intégrale est égale à
0 |f (θ)| dθ . Comme toutes les quan-
R α+2π
tités sont convergentes dans cette égalité, nous obtenons donc que
α |f (θ)| dθ < +∞, ce qui
donne l'intégrabilité. Le même calcul sans les modules donne le résultat.

Dénition 5.1.5 (Fonctions de carré intégrable). On dénit


L (0, 2π) := {f : R → C, f 2π -périodique, d
Z 2π
2
p |f (θ)|2 θ < +∞}
0

comme l'ensemble des fonctions 2π-périodiques dont la restriction à


[0, 2π] est de carré intégrable.
susamment régulières
5.1. FONCTIONS PÉRIODIQUES 57

Dénition 5.1.6. Pour f ∈ L (0, 2π), on dénit la norme kf k


2
p 2

 12

 Z 2π
1 2
kf k2 := |f (θ)| .
2π 0

Proposition 5.1.7. Si f, g ∈ L (0, 2π), alors θ 7→ f (θ)ḡ(θ) appartient à L (0, 2π) et on note
2
p
1
p

d
Z 2π
1
hf , gi = f (θ)ḡ(θ) θ ∈ C, (5.3)
2π 0

où z 7→ z̄ désigne la conjugaison complexe. On appelle hf , gi le produit scalaire hermitien de f


et g.
Démonstration. Cela vient en eet de l'inégalité vraie pour toutθ |f (θ)ḡ(θ)| ≤ (|f (θ)| + :
1
2
2

|g(θ)|2 ) et du théorème de domination.

Proposition 5.1.8. L'application f 7→ kf k vérie les propriétés suivantes :


 Homogénéité : pour tout λ ∈ C, pour tout f ∈ L (0, 2π), kλf k = |λ| kf k ,
2
2
p
 Inégalité triangulaire : pour tous f, g ∈ L (0, 2π), kf + gk ≤ kf k + kgk .
2 2
2
p
 Si de plus f est continue, alors si kf k = 0, alors f est la fonction nulle.
2 2 2

Proposition 5.1.9. L'application (f, g) 7→ hf , gi vérie les propriétés suivantes :


 Linéarité à gauche : pour tout f, g, h, et λ ∈ C, hf + λg , hi = hf , hi + λ hg , hi,
 Semi-linéarité à droite : pour tout f, g, h, et λ ∈ C, hf , g + λhi = hf , gi + λ̄ hf , hi,
 Positivité, pour tout f , hf , f i = kf k ∈ [0, +∞[,
2

 Symétrie hermitienne : pour tout f, g, hf , gi = hg , f i.


2

Démonstration. Evident.

Remarque 5.1.4. Les propriétés des deux propositions précédentes doivent vous sembler fami-
lière, si vous procédez par analogie avec la norme euclidienne et le produit scalaire de deux vecteurs
x, y ∈ R . En particulier, l'expression kf − gk = |f (θ) − g(θ)| dθ fournit une notion
 R  1
n 1 2π 2 2
2 2π 0

de distance entre les deux fonctions f et g, de la même manière que kx−yk =


P  1
n 2 2
|x − y |
fournit la distance euclidienne entre deux points de R .
i=1 i i
n

Proposition 5.1.10. Pour tout f, g ∈ L (0, 2π), 2


p

kf + gk22 = kf k22 + 2< hf , gi + kgk22

Démonstration. En eet,

kf + gk22 = hf + g , f + gi ,
= hf , f i + hf , gi + hg , f i + hg , gi ,
= kf k22 + hf , gi + hf , gi + kgk22 ,
= kf k22 + 2< hf , gi + kgk22 .
58 CHAPITRE 5. FONCTIONS PÉRIODIQUES ; PREMIÈRES PROPRIÉTÉS

5.2 Coecients de Fourier d'une fonction 2π-périodique de carré


intégrable sur [0, 2π]
5.2.1 Dénitions et premières propriétés
Dénition 5.2.1. Pour tout n ∈ Z, on dénit
en : θ 7→ en (θ) = einθ = cos(nθ) + i sin(nθ).
Proposition 5.2.1. Pour tout n ∈ Z, e n∈ L2p (0, 2π) et
si (
0 n 6= m,
si
hen , em i =
1 n = m.
On dit que (e ) n n∈Z forme une famille orthonormale de L (0, 2π). 2
p
Démonstration. En eet, en est continue bornée donc de carré intégrable sur [0, 2π]. De plus,
pour tout m 6= n,
Z 2π
1
hen , em i = ei(n−m)θ dθ,
2π 0
" #2π
1 ei(n−m)θ
= = 0.
2π i(n − m)
0
1
R 2π
Par ailleurs, hen , en i = 2π 0 1dθ = 1. D'où le résultat.

Dénition 5.2.2. Soit f ∈ L (0, 2π), 2

 on appelle coecients de Fourier trigonométriques de f , la suite (c (f )) dénie par


p
n n∈Z

dθ = hf , e i .
Z 2π
1 −inθ
∀n ∈ Z, c (f ) = f (θ)e
n n
2π 0
 on appelle coecients de Fourier circulaires la donnée des deux suites (a (f )) et (b (f ))
dénies par, pour tout n ≥ 0
n n≥0 n n≥0

f (θ) cos(nθ)dθ,
Z 2π
1
a (f ) = n
π 0

f (θ) sin(nθ)dθ.
Z 2π
1
b (f ) = n
π
Remarque 5.2.1. Plusieurs remarques s'imposent :
0

1. On fera particulièrement attention au facteur devant chaque intégrale dans cette dénition :
il s'agit de R pour c et pour a et b ,
1
n
1
n n

2. = f (θ)dθ est appelée moyenne de f ; b (f ) = 0.


2π π
a0 (f ) 1 2π

3. La suite c (f ) est indexée par Z alors que les suites a (f ) et b (f ) sont indexées par N,
2 2π 0 0

4. D'après une proposition précédente, on peut changer les bornes d'intégration dans la dé-
n n n

nition précédente, à condition d'intégrer sur un intervalle de longueur 2π. En particulier,


on utilisera souvent les dénitions équivalentes
dθ, n ∈ Z,
Z π
1 −inθ
c (f ) = f (θ)e
n
2π −π

f (θ) cos(nθ)dθ, n ≥ 0,
Z π
1
a (f ) = n
π −π

f (θ) sin(nθ)dθ, n ≥ 0.
Z π
1
b (f ) = n
π −π
5.2. COEFFICIENTS DE FOURIER D'UNE FONCTION DE CARRÉ INTÉGRABLE 59

Il est équivalent de connaitre les cn (f ), n ∈ Z d'une part et les (an (f ), bn (f )), n ≥ 0 d'autre
part. En eet,

Proposition 5.2.2. On a les relations suivantes :


1. Pour tout n ≥ 0, (
an (f ) = cn (f ) + c−n (f ),
bn (f ) = i(cn (f ) − c−n (f )).
2. Pour tout n ≥ 0, (
an (f )−ibn (f )
cn (f ) = 2 ,
an (f )+ibn (f )
c−n (f ) = 2 .

Démonstration. Pour tout n ≥ 0,

1 2π
 inθ
e + e−inθ
Z 
an (f ) = f (θ) dθ,
π 0 2
Z 2π Z 2π
1 1
= f (θ)einθ dθ + f (θ)e−inθ dθ = cn (f ) + c−n (f ).
2π 0 2π 0
Je laisse la deuxième égalité à titre d'exercice. Le deuxième item se prouve de la même manière
en utilisant le fait que einθ = cos(nθ) + i sin(nθ).

Proposition 5.2.3. Si f est à valeurs réelles, pour tout n ∈ Z,


c−n (f ) = cn (f )

et les coecients a (f ) et b (f ) sont réels.


n n

Démonstration. f Si est à valeurs réelles, alors

Z 2π
1
cn (f ) = f (θ)e−inθ dθ,
2π 0
Z 2π
1
= f (θ)e−inθ dθ,
2π 0
Z 2π
1
= f (θ)einθ dθ, car f (θ) = f (θ),
2π 0
= c−n (f ).

Par ailleurs, dans ce cas, on a donc an (f ) = cn (f ) + cn (f ) = 2<(cn (f )) qui est donc un réel et
bn (f ) = i(cn (f ) − cn (f )) = −2=(cn (f )) qui est aussi un réel.

Proposition 5.2.4.  Si f est paire, b (f ) = 0, pour tout n ≥ 0,


n
 Si f est impaire, a (f ) = 0, pour tout n ≥ 0.
n

Démonstration. f Si θ 7→ f (θ) sin(nθ)


est paire, la fonction est impaire. Donc, par changement
de variables θ 7→ −θ,
Z 2π Z 0 Z 2π
f (θ) sin(nθ)dθ = − f (θ) sin(nθ)dθ = − f (θ) sin(nθ)dθ,
0 −2π 0

la dernière égalité étant vraie par 2π -périodicité. Donc bn (f ) = 0. Je laisse l'autre propriété à
titre d'exercice.
60 CHAPITRE 5. FONCTIONS PÉRIODIQUES ; PREMIÈRES PROPRIÉTÉS

5.2.2 Décroissance à l'inni des coecients de Fourier


Il existe un lien entre la régularité de f d'une part et la vitesse de convergence vers 0 des
coecients de Fourier de f quand |n| → ∞ d'autre part. Plus la fonction sera régulière, plus la
convergence vers 0 sera rapide.

Proposition 5.2.5 . Si f est 2π-périodique et continue par


morceaux, alors c (f ) → 0, quand |n| → ∞.
(Lemme de Riemann-Lebesgue)

Démonstration. C'est une conséquence du Corollaire 5.4.1 (le terme général d'une série conver-
gente tend vers 0). Je laisse le soin au lecteur de vérier qu'il n'y a pas de cercle vicieux dans ce
chapitre.

Proposition 5.2.6. Si f est continue et C par morceaux alors pour n 6= 0,


1

1
cn (f ) = cn (f 0 ).
in
En particulier, dans ce cas,
quand |n| → ∞.
 
1
cn (f ) = o ,
n

Plus généralement, pour tout k ≥ 1, si f est de classe C et C par morceaux, alors k−1 k

pour |n| → ∞.
 
1 1 (k)
c (f ) = n c (f ) = o k n k
(in) n
Autrement dit, plus f est régulière, plus ses coecients de Fourier convergent rapidement
vers 0 en +∞.

Démonstration. Si f est continue et C1 par morceaux, la formule d'intégration par parties s'ap-
plique :

Z 2π
1
cn (f ) = f (θ)e−inθ dθ,
2π 0
2π 2π
e−inθ
 Z
1 1 1 1
= f (θ) + f 0 (θ)e−inθ dθ = 0 + cn (f 0 ).
2π −in 0 in 2π 0 in

En utilisant la proposition précédente, nous savons que cn (f 0 ) → 0, quand |n| → ∞, car f 0


1
est continue par morceaux. Donc cn (f ) = o( n ). Le reste de la propriété se démontre par une
récurrence évidente.

5.3 Notion de série de Fourier


5.3.1 Premières dénitions et problèmes
Dénitions
Dénition 5.3.1. Soit f ∈ L (0, 2π) et N ≥ 1. On dénit la fonction θ 7→ S
2
N (f )(θ) dénie
par : pour tout θ ∈ R, p

N
X
SN (f )(θ) := ck (f )eikθ .
k=−N

Pour tout N ≥ 1, S N (f ) est une fonction 2π-périodique, de classe C . ∞


5.3. NOTION DE SÉRIE DE FOURIER 61

Remarque 5.3.1. Si θ ∈ R est xé, S (f )(θ) est la somme partielle à l'ordre N de la série de
terme général c (f )e .
N
ikθ

Attention : ici k ∈ Z et non k ∈ N. On peut cependant se ramener au cas des séries indexées
k k∈Z

par N en remarquant que


N 
X 
SN (f )(θ) = c0 (f ) + ck (f )eikθ + c−k (f )e−ikθ .
k=1

Dénition 5.3.2. On appelle série de Fourier la fonction qui à θ ∈ R associe la série numérique,
à valeurs complexes, de terme général (c (f )e ) . Dans le cas où pour un certain θ, S (f )(θ)
ikθ

converge, on appelle somme de la série de Fourier la limite de S (f ), notée S(f ), c'est à dire
k k∈Z N
N

X
S(f )(θ) := lim SN (f )(θ) = ck (f )eikθ .
N →∞
k∈Z

Remarque 5.3.2. Insistons un peu : il y a deux façons équivalente de dénir la série de Fourier
de f .
 Le premier point de vue (et c'est celui adopté dans la dénition précédente), c'est de dire
que pour tout θ ∈ R xé, on a aaire à une série numérique de terme général complexe,
égal à c (f )e . Autrement dit, se donner une série de Fourier, c'est se donner une innité
ikθ

de séries numériques, autant qu'il y a de valeurs de θ.


k

 Un autre point de vue, c'est de considérer directement S (f ) comme une fonction dénie
comme la somme des fonctions θ 7→ c (f )e . La série de Fourier de f peut donc
N
ikθ

être vue comme une série dont le terme général est à valeurs dans l'espace des fonctions
k

2π -périodiques.

Soit on se donne une innité de séries numériques, soit on se donne une seule série à valeurs
dans l'espace des fonctions.
Etudier une série de Fourier revient donc à étudier des séries. La diculté supplémentaire
majeure vient bien sûr du fait que θ varie. Plus précisément, plusieurs questions se posent :

1. Quelles conditions sur f (et donc sur les coecients ck (f )) doit-on imposer pour que la
série de Fourier de f converge ?

2. Quel sens donner à cette convergence ? est-ce vrai pour tout θ ∈ R? pour un seul θ? Y
a-t-il des θ pour lesquels la série converge, et d'autres pour lesquels elle ne converge pas ?

3. Dans le cas où la série converge, quel est le lien entre la somme de cette série et la fonction
f elle-même ? Représente-t-elle bien la fonction f? En quel sens ?

Expression de la série de Fourier en termes des coecients an et bn


En utilisant l'expression des cn en fonction des coecients an bn , il est possible de calculer
et
une expression équivalente de la somme partielle de la série de Fourier associée à une fonction f .
62 CHAPITRE 5. FONCTIONS PÉRIODIQUES ; PREMIÈRES PROPRIÉTÉS

En eet, pour tout N ≥ 1, pour tout θ ∈ R,


N 
X 
SN (f )(θ) = c0 (f ) + ck (f )eikθ + c−k (f )e−ikθ ,
k=1
N
"
ak (f ) − ibk (f )

a0 (f ) X
= + (cos(kθ) + i sin(kθ))
2 2
k=1
  #
ak (f ) + ibk (f )
+ (cos(kθ) − i sin(kθ))
2
N
a0 (f ) X
= + (ak (f ) cos(kθ) + bk (f ) sin(kθ)) .
2
k=1

On en déduit donc

Proposition 5.3.1 SN . Une


expression équivalente de S est donnée par : pour tout N ≥ 1, pour tout θ ∈ R,
(Expression de en fonctions de coecients de Fourier circulaires)

N (f )

N
a0 (f ) X
SN (f )(θ) = + (ak (f ) cos(kθ) + bk (f ) sin(kθ)) .
2
k=1

5.3.2 Exemples de calculs de série de Fourier.


Le cas d'une fonction créneau
Proposition 5.3.2. Soit H la fonction 2π-périodique, dénie sur ]0, π[ par H(θ) = 1 et prolongée
par imparité sur ] − π, π[. Alors, pour tout n ∈ Z,
(
0 si n est pair
c (H) = n
si n est impair.
2
inπ

Démonstration. Remarquons donc que, par imparité de H H(0) = 0 , et H(θ) = −1 pour tout
θ ∈] − π, 0[. De plus, H est continue par morceaux, donc de carré intégrable sur [−π, π] (NB : il
est plus judicieux ici d'utiliser l'intervalle [−π, π] que l'intervalle [0, 2π], puisque nous connaissons
directement la fonction H sur cet intervalle). En particulier,
Z π
1
cn (H) = H(θ)e−inθ dθ,
2π −π
Z 0 Z π
1 1−inθ
=− e dθ + e−inθ dθ,
2π −π 2π 0
0 π
1 e−inθ 1 e−inθ
 
=− + ,
2π −in −π 2π −in 0
1 1
1 − einπ − e−inπ − 1 ,
 
=
2πin 2πin
1 n 1
= (1 − (−1) ) − ((−1)n − 1) .
2πin 2πin
On conclut en distinguant les cas n pairs et n impairs.
Remarquons qu'on a bien an (f ) = cn (f ) + c−n (f ) = 0, car H est impaire.

Exercice 5.3.1. Calculer directement a (f ) et b (f ) sans passer par c (f ).


n n n
5.4. CONVERGENCE EN MOYENNE QUADRATIQUE D'UNE SÉRIE DE FOURIER 63

Le cas d'un signal triangulaire


Proposition 5.3.3. Soit T la fonction 2π-périodique, dénie sur [0, π] par T (θ) = π
−θ et
prolongée par parité sur ] − π, π[. Alors, pour tout n ∈ Z, 2

(
0 si n est pair
c (T ) = n
si n est impair.
2
n2 π

Démonstration. T Comme T (θ) = θ +


est paire par dénition, nous savons que
π
2 pour tout
θ ∈ [−π, 0]. Il vient,

Z π
1
cn (T ) = T (θ)e−inθ dθ,
2π −π
Z 0 Z π
1  π  −inθ 1 π  −inθ
= θ+
e dθ + −θ + e dθ,
2π −π 2 2π 0 2
" #0  " #π !
π
−inθ e−inθ (−θ + π2 )
Z 0 Z π
1  e (θ + 2 ) 1 −inθ 1 1 −inθ
= + e dθ  + − e dθ ,
2π −in in −π 2π −in in 0
−π 0

1 π/2 (−1)n (−π/2) 1 0 −inθ 1 π/2(−1)n π/2 1 π −inθ


 Z   Z 
= + + e dθ + + − e dθ ,
2π −in in in −π 2π in in in 0
1 (−1)n+1 1 h −inθ i0 (−1)n 1 1 h −inθ iπ
= + + e + + − e ,
−4in 4in 2πn2 −π 4in 4in 2πn2 0
1 1
= (1 − (−1)n ) − ((−1)n − 1).
2πn2 2πn2

Distinguant selon les cas n pair et n impair dans l'égalité précédente, le résultat suit.

Exercice 5.3.2. Quel lien existe-t-il entre H et T ? Retrouver en particulier le résultat de la


Proposition 5.2.6 dans ce cas particulier.
Exercice 5.3.3. Calculer les coecients a (f ) et b (f ) de deux façons diérentes. L'une, en
partant de l'expression de c (f ), l'autre en les calculant directement à partir de leur dénition.
n n
n

5.4 Convergence en moyenne quadratique d'une série de Fourier


5.4.1 Notion de polynôme trigonométrique
Dénition 5.4.1. On appelle de degré plus petit que N ≥ 0 toute
fonction p du type : pour tout θ ∈ R,
polynôme trigonométrique

N
X N
X
p(θ) = αk eikθ = αk ek (θ),
k=−N k=−N

où α ∈ C pour tout −N ≤ k ≤ N . On note P l'ensemble des polynômes trigonométriques de


degré plus petit que N . P est un sous-espace vectoriel de l'ensemble des fonctions 2π-périodiques
k N

de dimension 2N + 1.
N

Exemple 5.4.1. Bien évidemment, pour tout N ≥ 1, et f ∈ L (0, 2π), S (f ) ∈ P . 2


p N N
64 CHAPITRE 5. FONCTIONS PÉRIODIQUES ; PREMIÈRES PROPRIÉTÉS

5.4.2 Meilleure approximation quadratique d'une fonction


Soit f ∈ L2p (0, 2π) et N ≥1 et SN (f ) la somme partielle de la série de Fourier de f à l'ordre
N. Le but de ce paragraphe est de montrer que SN (f ) est, d'une façon à dénir, le polynôme
trigonométrique qui approche le mieux la fonction f.

Théorème 5.4.1. Soit N ≥ 1 et soit p un polynôme trigonométrique dans P . Alors N

kf − SN (f )k22 ≤ kf − pk22 ,

c'est-à-dire
d d
Z 2π Z 2π
1 2 1
|f (θ) − SN (f )(θ)| θ≤ |f (θ) − p(θ)|2 θ.
2π 0 2π 0

Interprétons l'inégalité précédente en ayant à l'esprit la Remarque 5.1.4. Cette inégalité dit
précisément que SN (f ) est plus proche de f (au sens de la distance dénie par la norme N·2 ) que
n'importe quel polynôme trigonométrique de degré au plus N. Ainsi, SN (f ) réalise la meilleure
approximation de f parmi les polynômes trigonométriques de degré au plus N, au sens quadra-
tique.

Démonstration. Nous allons en fait prouver un résultat plus fort qui dit que, pour tout N ≥ 1,

kf − SN (f )k22 + kSN (f ) − pk22 = kf − pk22 . (5.4)

Le résultat de la proposition est une conséquence immédiate de l'égalité précédente, car NSN (f ) − p22 ≥
0. Prouvons donc (5.4) : pour tout θ ∈ R,

f (θ) − p(θ) = f (θ) − SN (f )(θ) + SN (f )(θ) − p(θ).

Ce qui donne que

kf − pk22 = kf − SN (f )k22 + 2< hf − SN (f ) , SN (f ) − pi + kSN (f ) − pk22 .


PN
Or, p ∈ PN , donc p s'écrit p(θ) = k=−N αk ek (θ), pour certains nombres complexes αk . On a
donc

N
X
hf − SN (f ) , SN (f ) − pi = (ᾱj − c̄j (f )) hf − SN (f ) , ej i .
j=−N

Or, pour tout −N ≤ j ≤ N ,

N
* +
X
hf − SN (f ) , ej i = f− hf , ek i ek , ej ,
k=−N
N
X
= hf , ej i − hf , ek i hek , ej i = hf , ej i − hf , ej i = 0.
k=−N

Ce qui prouve la proposition.


5.4. CONVERGENCE EN MOYENNE QUADRATIQUE D'UNE SÉRIE DE FOURIER 65

5.4.3 Convergence quadratique


Un autre résultat fondamental est le suivant :

Théorème 5.4.2 (Inégalité de Bessel). Pour tout f ∈ L (0, 2π), pour tout N ≥ 1,
2
p

N
|ck (f )|2 ≤ kf k22 ,
X
kSN (f )k22 =
k=−N

c'est-à-dire
d
N Z 2π
12
|f (θ)|2 θ
X
|ck (f )| ≤
2π 0
k=−N

Démonstration. D'une part,

N N
* +
X X
kSN (f )k22 = ck (f )ek , cj (f )ej ,
k=−N j=−N
N N N
|ck (f )|2 ,
X X X
= ck (f )c̄j (f ) hek , ej i =
k=−N j=−N k=−N

ce qui prouve la première égalité. L'inégalité est une conséquence immédiate de (5.4), dans le cas
où p = 0.

Corollaire 5.4.1. Si f ∈ L (0, 2π), la série de terme général |c (f )| est convergente.


2
p k
2

Démonstration. La somme partielle de la série de terme général |ck (f )|2 est, par l'inégalité de
|ck (f )|2 ≥ 0
PN
Bessel majorée uniformément en N. Comme pour tout k , la suite k=−N |ck (f )|2
est croissante majorée donc convergente.

Le principal résultat de ce chapitre est le suivant :

Théorème 5.4.3 Si f ∈ L (0, 2π), la série de Fourier de f converge


. 2

vers f en moyenne quadratique, c'est à dire que


(Théorème de Parseval) p

kf − SN (f )k22 →N →∞ 0,

c'est-à-dire
d
Z 2π
1
|f (θ) − SN (f )(θ)|2 θ →N →∞ 0.
2π 0

De plus, la série de terme général |c (f )| k


2
est convergente et on a l'égalité
|f (θ)| dθ =
Z 2π
1 2
X 2
kf k22 = |c (f )| . k
2π 0 k∈Z

Cette dernière égalité s'appelle l'égalité de Parseval.


Démonstration. Admis.

Remarque 5.4.1. Attention : c'est une convergence en moyenne quadratique. En particulier,


elle ne renseigne absolument pas sur la convergence de S (f )(θ), pour θ xé.
Ce résultat est en particulier vrai pour une fonction 2π-périodique et continue par morceaux.
N
66 CHAPITRE 5. FONCTIONS PÉRIODIQUES ; PREMIÈRES PROPRIÉTÉS

Proposition 5.4.1 . Soit


, alors
(Egalité de Parseval en terme des coecients de Fourier circulaires)
f∈ L2p (0, 2π)

d
+∞

|a0 (f )|2 1 X 
Z
1 
|f (θ)|2 θ = + |an (f )|2 + |bn (f )|2
2π 0 4 2
n=1
Démonstration. Il sut d'utiliser l'expression des coecients cn (f ) en fonction des coecients
an (f ) et bn (f ).

5.4.4 Exemples et applications


Calculs de sommes de séries convergentes
Le cas de la fonction créneau H : Reprenons l'exemple de la fonction créneau H vue plus
haut. H étant 2π -périodique et continue par morceaux, elle est de carré intégrable sur [0, 2π] et
donc le théorème de Parseval s'applique :

 La série de terme général |ck (H)|2 est convergente, c'est-à-dire que la série de terme général
4
0, si k est pair et 2 2 si
k π
k est impair est convergente. Remarquons tout de suite que ce
4
résultat était évident, car la série de terme général est convergente, par critère de
(2p+1)2 π 2
Riemann.

 On a de plus l'égalité :
Z 2π
1
|ck (H)|2 = |H(θ)|2 dθ.
X
2π 0
k∈Z
P 4 P 4
D'une part, le premier terme de cette égalité vaut kimpair k2 π 2 = 2 kimpair, k>0 k2 π 2
=
P+∞ 4
2 p=0 (2p+1)2 π 2 . D'autre part, comme |H(θ)| = 1 pour tout θ ∈]0, 2π[ non nul, le second

terme de l'égalité vaut 1. Nous obtenons donc

+∞
X 1 π2
= .
(2p + 1)2 8
p=0

Le cas de la fonction triangulaire T Reprenons l'exemple de la fonction T vue plus haut.


T étant 2π -périodique et continue, elle est de carré intégrable sur [0, 2π] et donc le théorème de
Parseval s'applique :

 La série de terme général |ck (T )|2 est convergente, c'est-à-dire que la série de terme général
4
0, si k est pair et
k4 π 2
si k est impair est convergente. Remarquons tout de suite que ce
4
résultat était évident, car la série de terme général est convergente, par critère de
(2p+1)4 π 2
Riemann.

 On a de plus l'égalité : Z π
1
2
|T (θ)|2 dθ.
X
|ck (T )| =
2π −π
k∈Z
P 4 P 4
D'une part, le premier terme de cette égalité vaut kimpair k4 π 2 =2 kimpair, k>0 k4 π 2 =
P+∞ 4
2 p=0 (2p+1)4 π 2 . D'autre part,
Z π Z π
1 2 2
|T (θ)| dθ = |T (θ)|2 dθ, par parité de la fonction T
2π −π 2π 0
π2
et un calcul immédiat montre que ce terme vaut
12 . Nous obtenons donc
+∞
X 1 π4
= .
(2p + 1)4 96
p=0
5.4. CONVERGENCE EN MOYENNE QUADRATIQUE D'UNE SÉRIE DE FOURIER 67

Applications des théorèmes de Bessel et de Parseval


Proposition 5.4.2 (Lemme de Riemann-Lebesgue). Si f ∈ L2p (0, 2π), alors c (f ) → 0 quand
.
n
|n| → ∞

Remarque 5.4.2. Comme une fonction continue par morceaux est de carré intégrable sur [0, 2π],
ce résultat est en particulier vrai pour une fonction continue continue par morceaux : la Propo-
sition 5.2.5 est prouvée.
Démonstration. C'est une conséquence immédiate du Corollaire 5.4.1.

Proposition 5.4.3 . Si f et g sont deux fonctions conti-


nues et 2π-périodiques telles que c (f ) = c (g) pour tout n ∈ Z, alors f = g.
(Injectivité des coecients de Fourier)

n n

Remarque 5.4.3. Cette proposition devient fausse si f n'est pas continue. Contre-exemple : f
2π - périodique telle que f (0) = 1 et f (θ) = 0 pour tout θ ∈]0, 2π[. Alors c (f ) = 0 pour tout n
mais f n'est pas la fonction nulle.
n

Démonstration. Posons h = f −g 2π
, fonction continue -périodique. En particulier le théorème
de Parseval s'applique à h. Or, comme cn (f ) = cn (g), pour tout ∈ Z, il vient que cn (h) = 0
Rn 2π 2
pour tout n ∈ Z. L'égalité de Parseval implique en particulier que
0 |h(θ)| dθ = 0 et donc que
h est la fonction nulle, car h est continue. D'où le résultat.

Vous aimerez peut-être aussi