Académique Documents
Professionnel Documents
Culture Documents
3
4 TABLE DES MATIÈRES
q(t)
E= + Rq 0 (t). (1.1)
C
g
θ00 (t) + sin(θ(t)) = 0. (1.3)
l
1. sous réserve que l'on sache que cette fonction soit susamment régulière, bien sûr.
5
6 CHAPITRE 1. ÉQUATION DIFFÉRENTIELLE, ÉTUDE EN DIMENSION 1
4. Petites oscillations d'un ressort : si x(t) est la position d'une masse m reliée à un mur via
d'un ressort de raideur k glissant horizontalement sans frottements, alors x(t) vérie
k
x00 (t) + x(t) = 0. (1.4)
m
Exemple 1.1.1. L'equation diérentielle est d'ordre 1, alors que les equations ,
et sont d'ordre 2.
(1.1) (1.2) (1.3)
(1.4)
Le cadre correct d'étude d'équations diérentielles correspond au cas où on est capable d'ex-
primer la dérivée la plus élevée y (n) en fonction de ses dérivées d'ordre plus faible :
Remarque 1.1.1. Toutes les équations citées plus haut sont sous forme résolue. Par contre,
l'équation
ty 0 (t) = y(t)2 (1.7)
ne peut pas être mise sous forme résolue sur R car exprimer y (t) en fonction du reste nécessite
0
de pouvoir diviser par t, ce qui n'est pas possible sur R tout entier (il y a un problème en 0 !).
Attention : il n'est pas possible de restreindre l'étude de à R \ {0}, car cet ensemble
n'est pas un intervalle. Il faut donc faire deux études séparées de sur les intervalles
(1.7)
I =] − ∞, 0[ puis sur I =]0, +∞[. Sur chacun de ces deux intervalles, il est alors possible
(1.7)
1
y 0 (t) = y(t)2 .
t
Toute la question sera alors de savoir s'il est possible de trouver des solutions de dénies
sur R tout entier. Il s'agit du problème de raccordement de solutions que nous verrons plus
(1.7)
y 0 (t) = 0 (1.8)
admet une innité de solutions, qui sont bien sûr les fonctions constantes : pour tout C ∈ R, la
fonction telle que y(t) = C pour tout t∈R est solution de (1.8).
Si on souhaite obtenir une unique solution, on impose usuellement une condition supplémen-
taire, sous la forme d'une condition initiale. Dans l'exemple de (1.8), cette condition s'exprime
sous la forme
y(t0 ) = α, (1.9)
pour t0 un instant et α une constante donnée à l'avance. Dans ce cas, il existe une unique
fonction vériant à la fois (1.8) et (1.9), qui est bien sûr la fonction constante y(t) = α.
Compliquons maintenant un peu l'exemple précédent, en considérant maintenant l'équation
d'ordre 2 suivante :
y 00 (t) = 0. (1.10)
y(t) = At + B
où A et B sont des constantes réelles quelconques. Il y a donc autant de solutions à (1.10) qu'il
y a de choix de A et de B, c'est-à-dire une innité.
Si on souhaite avoir une unique solution, il faut de même spécier une condition initiale,
similaire à (1.9) : on se donne a priori un instant t0 et une valeur α et on exige que
y(t0 ) = α. (1.11)
Mais contrairement au premier exemple (1.8), cette condition ne sut pas à assurer l'unicité de
la solution. Elle ne donne qu'une relation entre A et B :
At0 + B = α.
Pour obtenir l'unicité, il est nécessaire d'imposer une seconde condition initiale, que nous faisons
le choix de porter sur la valeur de la dérivée de y au même instant t0 :
y 0 (t0 ) = β. (1.12)
Dans ce cas, cette dernière condition impose A=β et donc B = α − βt0 : nous obtenons une
unique solution. Ces deux exemples nous conduisent à la dénition suivante :
Si f est une fonction sur I , on dira que f est solution du problème de Cauchy associé à
(1.13) et si
(1.14)
3. f (t ) = z , f (t ) = z , . . . , f (t ) = z .
0 0
0
0 1
(n−1)
0 n−1
d'ordre n
(Comment se ramener au cas )
Alors, y est solution de ce problème de Cauchy si et seulement si le vecteur v(t) := (v (t), v (t), . . . , v (t)) :=
(t)) est solution du problème de Cauchy dans R d'ordre 1 suivant :
1 2 n
0
(y(t), y (t), . . . , y (n−1) d n
v2 (t)
..
v3 (t)
v 0 (t) = ,
F (t, v1 (t), . . . , vn (t))
avec
v(t0 ) = (z0 , . . . , zn−1 ).
Autrement dit, cette proposition dit qu'un problème de Cauchy d'ordre n peut se ramener à
un problème de Cauchy d'ordre 1, quitte à augmenter la dimension de l'espace dans lequel vit la
solution. Cependant, ceci n'a qu'un intérêt théorique : le système d'ordre 1 a la même diculté
de résolution que le système d'ordre n.
1.1.4 Problématiques
Les questions posées dans ce cours sont : à un problème de Cauchy donné,
3. Que peut-on dire sur l'ensemble de dénition de la solution ? Se peut-il que cet ensemble
ne soit pas R tout entier ?
La suite de ce chapitre consiste à donner des exemples pour lesquels il est possible de répondre
par l'armative à chacune de ces questions.
1.2. EQUATIONS DIFFÉRENTIELLES LINEAIRES D'ORDRE 1 ET 2 9
est appelée 1.
équation linéaire d'ordre
est appelée 2.
équation linéaire d'ordre
3. Dans les deux cas, si le second membre est nul (c = 0 dans le premier cas ou d = 0 dans le
second), c'est-à-dire
a(t)y 0 (t) + b(t)y(t) = 0,
ou a(t)y (t) + b(t)y (t) + c(t)y(t) = 0,
00 0
Proposition 1.2.1. L'ensemble des solutions H de l'équation homogène a(t)y (t) + b(t)y(t) = 0 0
Proposition 1.2.2. Supposons que f soit une solution particulière de l'équation a(t)y (t) + 0
b(t)y(t) = c(t). Alors pour toute solution f de a(t)y (t) + b(t)y(t) = c(t), g = f − f est solution
0
0
c(t), puis de soustraire ces deux équations pour obtenir que a(t)(f − f0 )0 (t) + b(t)(f − f0 )(t) = 0.
La réciproque se prouve de la même façon.
Pour résoudre entièrement l'équation avec second membre, il (faut et) il sut de :
Proposition 1.2.3. Si la fonction a ne s'annule pas sur I , l'ensemble des solutions de l'équation
a(t)y 0 (t) + b(t)y(t) = 0 est
H0 = {t 7→ λ exp(−A(t)), λ ∈ R},
où t 7→ A(t) est une primitive de t 7→ b(t)
sur I . Ainsi, H est un espace vectoriel de
dimension 1.
a(t) 0
Démonstration. f Soit une fonction dérivable sur I . Alors f est solution de l'équation homogène
b(t) b(t)
si et seulement si f 0 (t)+ a(t) f (t) = 0, ce qui équivaut à eA(t) (f 0 (t)+ a(t) f (t)) = 0. Or, eA(t) (f 0 (t)+
b(t) A(t) (f 0 (t) + A0 f (t)), par dénition de A. On reconnait donc là la dérivée du
a(t) f (t)) est égal à e
A(t) f (t). Ainsi, f est solution de l'équation homogène si et seulement si d eA(t) f (t) = 0
produit e
dt
ce qui équivaut au fait qu'il existe une constante λ ∈ R telle que pour tout t ∈ I , f (t)e
−A(t) = λ.
Cette dernière égalité s'écrivant de façon équivalente comme f (t) = λe−A(t) , le résultat s'en
déduit.
Exemple 1.2.1. Dans le cas du circuit RC , toute solution de l'équation (1.1) avec E = 0 s'écrit
q(t) = λe
t
− RC
, où λ est une constante réelle quelconque.
Equation avec second-membre :
Il s'agit maintenant de trouver une solution particulière f0 de l'équation avec second-membre
a(t)y 0 (t) + b(t)y(t) = c(t). Le message est ici
Méthode 1 : le air ! Penser selon les cas à des fonctions constantes, des fonctions usuelles,
(exp, cos, sin, des polynômes, etc.), ou des combinaisons linéaires des fonctions précédentes.
Exemple 1.2.2. Selon ce principe, trouvons une solution particulière à chacune des équations
suivantes :
1. y + 2y = 3,
0
2. y sin(t) − y cos(t) = 1,
0
3. y + 2y = cos(t).
0
Or, par dénition de A, −A0 (t)a(t) + b(t) = 0. Donc f0 est une solution particulière de a(t)y 0 (t) +
b(t)y(t) = c(t) si et
0
seulement si λ (t)e
−A(t) a(t) = c(t), ce qui équivaut à λ0 (t) = c(t) eA(t) ce qui
a(t)
c(t) A(t)
équivaut à prendre λ une primitive de t 7→ a(t) e .
La conclusion de ce calcul est que f0 donnée par f0 (t) = λ(t)e−A(t) où t 7→ λ(t) est une
c(t) A(t)
primitive de t 7→ a(t) e est une solution particulière de l'équation avec second membre.
Remarque 1.2.1. Cette méthode à l'avantage de marcher tout le temps, mais a l'inconvénient
d'être calculatoire par rapport à la première méthode. Il faut donc toujours privilégier la première
méthode avant de se lancer dans les calculs.
Exercice 1.2.1. Appliquer la méthode de variation de la constante aux trois exemples donnés
pour la méthode 1.
Résumons ce paragraphe dans le théorème suivant :
Théorème 1.2.1. Si la fonction a ne s'annule pas sur I , alors l'ensemble des solutions de
l'équation
a(t)y 0 (t) + b(t)y(t) = c(t)
est
{t 7→ f0 (t) + λe−A(t) , λ ∈ R},
avec f une solution particulière de l'équation et A une primitive de sur I .
0
b
a
Exemple 1 :
ty 0 (t) − 2y(t) = t3 . (1.17)
Dans ce cas l'équation (1.17) ne peut pas être mise sous forme résolue sur R tout entier. On
restreint l'étude à l'intervalle I1 =]0, +∞[ d'une part et à I2 =] − ∞, 0[ d'autre part.
Résolution sur I1 : on trouve (exercice) que toute solution sur I1 s'écrit comme
Remarque 1.2.2. Attention : rien ne dit a priori que les constantes λ et µ soient égales!
Il reste donc à déterminer la valeur de y(0) : on utilise pour cela le fait que si y est solution
de (1.17), elle est nécessairement dérivable sur R, donc continue en 0, en particulier. Donc
nécessairement, ∃ limt→0,t>0 y(t) = ∃ limt→0,t<0 y(t), ce qui impose y(0) = 0.
Synthèse : soit y la fonction dénie par
Déterminons les valeurs de λ et µ telles que y soit solution de (1.17). Une telle fonction est
continue sur R par construction, dérivable sur ]0, +∞[ et sur ] − ∞, 0[. Vérions que y est
dérivable en0 : en eet, on vérie trivialement ici que le taux d'accroissement (y(t)−y(0))/t
admet la même limite à droite et à gauche qui est 0 (quels que soient λ et µ). Ainsi, y est
dérivable sur R et y vérie bien (1.17) sur ]0, +∞[, ] − ∞, 0[ et en t = 0, donc y vérie
l'équation.
Conclusion : toute solution de (1.17) dénie sur R tout entier est du type
Remarque 1.2.3. Contrairement au cas résolu, le fait de xer une condition initiale du
type y(t ) = α ne garantit pas l'unicité d'une solution (ni même l'existence! En eet,
le lecteur méditera sur l'opportunité de xer la condition initiale y(0) = 2015 dans cet
0
exemple).
Exemple 2 :
t2 y 0 (t) − y(t) = 0. (1.18)
Analyse : toute solution y de (1.18) dénie sur R tout entier vérie nécessairement
µ = 0.
Remarque 1.2.4. Notons ici la diérence avec l'Exemple 1 : autant la continuité en 0 était
gratuite dans l'exemple précédent (et ne nécessitait pas d'imposer une valeur particulière
aux constantes λ et µ), ici au contraire, la continuité en 0 impose une valeur particulière
pour µ.
∃ limt→0,t>0 e−1/t = 0,
Par ailleurs, donc toute valeur de λ convient et dans ce cas, on a
nécessairement y(0) = 0.
Synthèse : soit la fonction dénie par y(t) = λe−1/t pour t > 0 et y(t) = 0 pour tout
t ≤ 0. Une telle fonction est continue sur R. Elle est clairement dérivable sur ]0, +∞[ et
sur ] − ∞, 0[. Montrons la dérivabilité de y en 0 : pour t > 0, (y(t) − y(0))/t = λe
−1/t /t.
Cette quantité tend vers 0 pour t → 0, t > 0 donc y est dérivable à droite en 0 de dérivée
nulle. La dérivabilité à gauche (de dérivée nulle) est évidente. Donc y est dérivable sur R
et y vérie clairement l'équation (1.18).
Conclusion : toute solution de (1.18) dénie sur R tout entier est de la forme y(t) = λe
−1/t
Remarque 1.2.5. Ici, nous avons une famille de solutions à un paramètre λ contrairement à
l'exemple précédent où on obtenait une famille à deux paramètres λ et µ. Ici, donner une condition
initiale du type y(t ) = α (pour t > 0) détermine la constante λ. Par contre, il est impossible
d'exiger une condition initiale y(0) = α pour α 6= 0.
0 0
Exemple 3 :
(1 − t)y 0 (t) − y(t) = t. (1.19)
λ + t2
y(t) = , t > 1,
2(1 − t)
µ + t2
y(t) = , t < 1,
2(1 − t)
où λ et µ sont deux constantes réelles. Nécessairement y ainsi dénie doit avoir une limite en 1,
donc nécessairement λ = µ = −1, ce qui donne
1
y(t) = − (1 + t), t ∈ R.
2
On vérie que cette fonction est bien solution.
Remarque 1.2.6. Ici la situation est encore plus contraignante : imposer la continuité en 1
impose à la fois la valeur de λ et µ. Il existe une unique solution à dénie sur R tout
entier.
(1.19)
La conclusion de ces trois exemples est qu'il n'existe pas de théorie générale permettant de
donner le nombre de solutions d'équations qui ne sont pas mises sous forme résolue : de telles
équations sont intrinsèquement mal posées.
14 CHAPITRE 1. ÉQUATION DIFFÉRENTIELLE, ÉTUDE EN DIMENSION 1
ar2 + br + c = 0. (1.22)
ϕr (t) = ert , t ∈ R.
La fonction ϕr est solution de (1.21) si et seulement si
⇔ar2 + br + c = 0.
1.2. EQUATIONS DIFFÉRENTIELLES LINEAIRES D'ORDRE 1 ET 2 15
Il reste à montrer que ce sont les seules solutions : soit f une solution de (1.21). Posons
g : t 7→ e−r1 t f (t). Alors f (t) = er1 t g(t). Comme f est solution de (1.21), il vient successi-
vement, pour tout t ∈ R (en réordonnant selon les dérivées successives de g )
2. Cas d'une racine double r0 ∈ C : ce cas correspond au même calcul (1.24) que précédemment
où r1 = r2 = r0 . Mais dans le cas d'une racine double, 2r0 a+b = 0, ce qui donne simplement
g 00 (t) = 0. Intégrant deux fois, il vient : g(t) = λt + µ, pour certaines constantes λ et µ.
r t
Sachant que f (t) = e 0 g(t), le résultat s'en déduit.
3. Cas réel sans racine : dans ce cas, l'équation caractéristique admet deux racines complexes
conjuguées α ± iβ . Ainsi, toute solution f réelle de (1.21) (mais vue comme une fonction
complexe) s'écrit comme
ce qui est bien du type souhaité. Réciproquement, toute fonction de ce type est solution.
Dans ce cas, l'équation caractéristique s'écrit r + ω = 0 qui admet deux racines complexes
2 2
conjuguées ±iω . Par conséquent, toute solution de cette équation est du type x(t) = λ cos(ω t) +
0
Méthode 1 : le air ! Avant de se lancer dans les calculs, penser à des fonctions évidentes
(constantes, polynômes, etc.).
Méthode 2 : On se restreint ici au cas où le second membre d à une forme particulière du type
où P est un polynôme et m un nombre complexe. L'idée est alors de chercher une solution
particulière de la même forme que le second membre, c'est-à-dire
où Q est un autre polynôme à déterminer. Bien sûr, il est nécessaire de choisir le degré de Q
au moins égal à celui de P. Cependant, il s'avère que selon les cas, choisir deg(Q) = deg(P ) ne
sera pas susant. Il faudra parfois choisir Q de telle sorte que deg(Q) = deg(P ) + 1 ou même
deg(Q) = deg(P ) + 2. C'est le but du résultat suivant que de préciser comment choisir le degré
du polynôme Q :
af 00 (t) + bf 0 (t) + cf (t) = emt (am2 + bm + c)Q(t) + (2am + b)Q0 (t) + aQ00 (t) .
Remarque 1.2.7. Ce résultat ne donne pas le polynôme Q, il ne donne que son degré. Pour
déterminer Q il faut ensuite injecter f (t) = e Q(t) dans mt et identier les coecients de
Q en fonction de ceux de P .
(1.20)
Un principe fondamental qui aide à simplier la recherche d'une solution particulière de (1.20)
est le Principe de superposition :
Proposition 1.2.6 (Principe de superposition). Si f est une solution particulière de
1
le cas où
d(t) = cos(t)P (t) ou d(t) = sin(t)P (t),
où P est un polynôme : en eet, on se ramène via le principe de superposition et via les
it +e−it eit −e−it
formules d'Euler cos(t) = e 2 et sin(t) = 2i au cas où le second membre est du
type
mt
e P (t) avec m = ±i.
le cas où
d(t) = cosh(t)P (t) ou d(t) = sinh(t)P (t),
où P est un polynôme : en eet, on se ramène via le principe de superposition et via les
t −t et −e−t
formules cosh(t) = e +e
2 et sinh(t) = 2 au cas où le second membre est du type
emt P (t) avec m = ±1.
Démonstration. En eet, on a démontré dans les paragraphes précédents que toute solution de
(1.20) s'écrit sous la forme
f (t) = f0 (t) + λu(t) + µv(t),
où f0 est une solution particulière et (u, v) est une base de H0 , l'espace vectoriel des solutions de
l'équation homogène. Les constantes λ et µ sont alors déterminées par les conditions initiales :
(λ, µ) est solution du système linéaire de deux équations à deux inconnues λu(t0 ) + µv(t0 ) =
y0 − f0 (t0 ) et λu0 (t0 ) + µv 0 (t0 ) = z0 − f00 (t0 ). Le déterminant de ce système est D = u(t0 )v 0 (t0 ) −
u0 (t0 )v(t0 ) qui est non nul (on peut le vérier à la main dans les trois cas pour (u, v) donnés
par le Theorem 1.2.2). Il existe donc un unique couple (λ, µ) à ce système et donc une unique
solution au Problème de Cauchy.
Remarque 1.3.1. Remarque importante : attention! Les équations qui suivent ne sont plus
linéaires ! Autrement dit, la somme de deux solutions n'est plus solution a priori. En particulier,
tout ce qu'on a introduit pour les équations linéaires (variation de la constante, principe de
superposition) ne fonctionne plus !
Pour les équations non linéaires, leur résolution de façon explicite est très dicile, sinon
impossible. Il existe cependant de rares cas où cela est encore possible.
18 CHAPITRE 1. ÉQUATION DIFFÉRENTIELLE, ÉTUDE EN DIMENSION 1
ou de façon condensée
y 0 = f (t)g(y).
Le principe de résolution est le suivant : si g(y) ne s'annule pas sur I, toute solution de
y0 = f (t)g(y) (si elle existe ! !) vérie
y 0 (t)
= f (t),
g(y(t))
ou de manière condensée
y0
= f (t).
g(y)
La terminologie variables séparables vient de là : on a séparé les variables y et t. On reconnait
1
alors la primitive d'une fonction composée : notons G une primitive de
g et F une primitive de
f, il vient
G(y(t)) = F (t) + C,
où C est une constante. L'équation précédente est une équation implicite en y. Pour peu que G
soit inversible, il est alors possible d'écrire
Analyse : si une solution y existe alors, yy = −t. Donc il existe une constante C telle que
0
y = − t + C , c'est-à-dire
1 2
2
1 2
2
y 2 + t2 = 2C = C̃. (1.27)
va montrer que dans ce cas y est toujours positive (c'est-à-dire s(t) vaut toujours +1).
0 0 0
En eet, supposons le contraire : il existe t > 0 tel que y(t ) < 0. Mais y est continue
sur [0, t ], donc par théorème des valeurs intermédiaires, y s'annule en au moins un point
1 1
de ]0, tp[, ce qui contredit l'hypothèse sur y. Absurde. Donc s(t) = +1 pour tout t ∈ I et
1
y(t) = C̃ − t .
1
2
De même, si y(0) < 0, alors y est toujours strictement négative et on a y(t) = −py − t . 2 2
Conclusion : les seules solutions qui ne s'annulent jamais sont celles citées plus haut.
Remarque 1.3.3. Une remarque importante : cet exemple est le premier que nous voyons où,
même si l'équation est déjà sous forme résolue, les solutions ne sont pas dénies sur R tout entier,
mais sur un sous-intervalle strict de R. De plus, l'intervalle de dénition des solutions
dépend de la condition initiale imposée. C'est un phénomène que nous retrouverons plus
tard au Chapitre 3.
1.3.2 Equations de Bernoulli
Soit I une intervalle, a et b deux fonctions continues sur I et m ∈ N − {0, 1}. Une équation
est dite de Bernoulli est de la forme
1
u(t) = , t ∈ I.
y m−1 (t)
Alors, pour tout t ∈ I,
1−m 0
u0 (t) = y (t),
y(t)m
y(t)
= (1 − m) −a(t) + b(t) ,
y(t)m
= (1 − m) (−a(t)u(t) + b(t)) .
Il est donc possible de calculer u explicitement. Notons qu'il faut nécessairement se restreindre
1
aux instants t∈I tels que u(t) ne s'annule pas. Alors, nécessairement y m−1 (t) = u(t) et on en
déduit y(t) en inversant la fonction y 7→ y m−1 (on prendra garde à se restreindre éventuellement
aux t ∈ I pour lesquels cette dernière inversion est possible).
Reste ensuite à vérier que la fonction y ainsi trouvée est eectivement solution de l'équation
(1.28) initiale.
20 CHAPITRE 1. ÉQUATION DIFFÉRENTIELLE, ÉTUDE EN DIMENSION 1
Exemple 1.3.2. Soit I =]0, +∞[. Cherchons les solutions strictement positives dénies sur I
de 2y(t)
y 0 (t) − = −t2 y 2 (t).
t
1
Soit y une solution (si elle existe). Posons alors u(t) = y(t) qui est donc solution de
2
u0 (t) + u(t) = t2 , t ∈ I,
t
ce qui se résout facilement en
t3 C
u(t) = + 2 , t ∈ I,
5 t
pour C une constante réelle. Or u(t) > 0 si et seulement si t>0 et t > −(5C)1/5 .
Il y a donc deux cas :
Soit C≥0 auquel cas u (et donc y) est dénie sur ]0, +∞[ tout entier.
Soit C < 0 auquel u (et donc y) est dénie sur ] − (5C)1/5 , +∞[ qui est un intervalle
strictement inclus dans ]0, +∞[.
t2
Sur cet intervalle, y est alors donnée par y(t) = t5 /5+C
. Il faut alors vérier qu'une telle fonction
Remarque 1.3.5. Si on avait voulu résoudre l'équation initiale sur ] − ∞, 0[, la condition d'exis-
tence devient t < −(5C) . 1/5
Remarque 1.3.6. Dans le cas où q 0 ≡0 , on retombe sur une équation de Bernoulli avec m = 2.
Il est possible de résoudre (1.29) dans le cas où on connait déjà une solution particu-
lière f0 de (1.29).
Remarque 1.3.7. Comment trouver une telle solution particulière f ? Il n'y a pas de méthode
générale, il faut se débrouiller au cas par cas!
0
Utilisant le fait que f0 est solution particulière de (1.29), il vient que v est solution de
v 0 = q1 v + 2f0 q2 v + q2 v 2 ,
qui est une équation de Bernoulli. On est donc ramené au cas précédent.
Chapitre 2
21
22 CHAPITRE 2. SYSTÈMES LINÉAIRES D'ORDRE 1
Il existe une autre interprétation de cette équation d'ordre 2 en dimension 1 en termes d'une
équation d'ordre 1 en dimension 2 : en eet posons Y = (y, y ) , alors il est facile de voir que y 0 T
Une question sera de faire le lien entre la résolution pour y vue au Chapitre 1 et celle que nous
allons voir pour Y dans ce chapitre.
Les questions que nous allons nous poser sont :
où (λ1 , . . . , λd ) ∈ Kd . Dans ce cas simple, le système est découplé : (2.3) est équivalent à
Z t
λi (t−t0 )
∀i = 1, . . . , d, xi (t) = zi e + eλi (t−s) bi (s)ds.
t0
Dans ce cas, il est facile de résoudre le système X 0 = AX + B . En eet, il sut d'écrire expli-
citement ce système en termes de (x1 , . . . , xd ) puis de partir de la dernière équation (celle pour
x0d ) et remonter de proche en proche : la dernière équation s'écrit
Or xd (t) vient d'être calculé et peut donc être considéré comme faisant partie du second membre
de l'équation précédente : posons c(t) = ad−1,d xd (t) + bd−1 (t) (qui est donc explicitement connu)
l'équation précédente devient
qu'il est possible de résoudre explicitement. Par une récurrence évidente, il est ainsi possible de
résoudre de proche en proche le problème de Cauchy X 0 (t) = AX(t) + B(t), X(t0 ) = z , qui
possède donc une unique solution.
..
...
J(λ) = ∈ M (K). d
..
. . . λ 1
··· λ 1 0
... ...
0 ... ... ... 0 λ
..
1 t ...
2!
... 3!
t2
(d−1)!
.. . . . . . . . . . . . .
0 1 t
2!
t3
λt
.. ... 1 t
X(t) = e 3! z.
t2
.. .
···
. . . .. 1
2!
... t
0 ... ... ... 0 1
t2 tk
λt
xd−k (t) = e zd−k + zd−k+1 t + zd−k+2 . . . + zd
2! k!
La propriété est vraie pour k=0 : en eet, la dernière équation ne fait intervenir que xd et on a
x0d (t) = λxd (t), xd (0) = zd , dont l'unique solution est bien sûr xd (t) = λt
e zd . Donc la propriété
24 CHAPITRE 2. SYSTÈMES LINÉAIRES D'ORDRE 1
t2 tk−1
λt
xd−(k−1) (t) = e zd−(k−1) + zd−k+2 t + zd−k+3 . . . + zd .
2! (k − 1)!
Donc
t
s2 sk−1
Z
λt λ(t−s)
λs
xd−k (t) = zd−k e + e e zd−(k−1) + zd−k+2 s + zd−k+3 . . . + zd ds,
0 2! (k − 1)!
Z t
s2 sk−1
λt λt
= zd−k e + e zd−(k−1) + zd−k+2 s + zd−k+3 . . . + zd ds,
0 2! (k − 1)!
t2 t3 tk
λt λt
= zd−k e + e zd−(k−1) t + zd−k+2 + zd−k+3 . . . + zd ,
2! 3! k!
ce qui prouve la propriété par récurrence.
Alors,
1. Cas homogène (B ≡ 0) : l'ensemble H des solutions de0 (2.4) xest donné par
H0 = {t 7→ λ1 ϕ1 (t) + . . . + λd ϕd (t), λi ∈ K, i = 1, . . . , d},
où (ϕ , . . . , ϕ ) est une famille libre de fonctions. Autrement dit, H est un espace vectoriel
de dimension d.
1 d 0
Dénition 2.2.1. Soit λ ∈ K. On dit que λ est valeur propre de A s'il existe v ∈ K non nul d
tel que Av = λv. On dit alors que v est un vecteur propre de A associé à la valeur propre λ.
L'espace vectoriel E (A) := Ker(λI − A) = {v ∈ K , Av = λv} est appelé
d associé
à la valeur propre λ. L'entier dim(E (A)) est appelée multiplicité de λ.
λ espace propre
Proposition 2.2.1. Soit λ ∈ K. Alors λ est valeur propre de A si et seulement si l'une de ces
conditions est vraie
E (A) 6= {0},
λ
Dénition 2.2.3. On dit que A est diagonalisable si A est semblable à une matrice dia-
gonale : il existe une matrice P inversible et une matrice diagonale D telle que
A = P DP −1 .
On dit que A est trigonalisable si A est semblable à une matrice triangulaire supérieure :
il existe une matrice P inversible et une matrice triangulaire supérieure T telle que
A = P T P −1 .
2. Pour chaque valeur propre λ de A, on calcule une base de l'espace propre Eλ (A). Si
dim(Eλi (A)) = αi pour tout i alors A est diagonalisable et la matrice de passage P est
donnée par la concaténation par colonne des vecteurs propres trouvés.
26 CHAPITRE 2. SYSTÈMES LINÉAIRES D'ORDRE 1
λ est l'unique valeur propre de J(λ). De plus J(λ) n'est pas diagonalisable. Plus précisément,
Eλ (J(λ)) = Vect(e ) de dimension 1 < d. De plus, on a les relations suivantes :
1
et (J(λ) − λI) (e ) = 0.
(J(λ) − λI)(e ) = e d
d d−1 d
Démonstration. J(λ)
Cette proposition est claire, vu la structure de .
Dénition 2.2.4. Soit A ∈ M (K). On dit que A est , s'il existe une matrice P
inversible et une matrice T telle que A = P T P , où T est une matrice diagonale par blocs, où
d jordanisable
−1
chaque bloc est une matrice de Jordan associée à une certaine valeur propre λ.
Remarque 2.2.1. Les blocs de Jordan qui composent T ne sont pas nécessairement tous
de même taille et il peut y avoir plusieurs blocs de Jordan associés à une même valeur
propre λ.
La dimension de l'espace propre associé à λ est égal au nombre de blocs associés à λ.
La multiplicité algébrique d'une valeur propre λ est égale à la somme des tailles des blocs
de Jordan associés à la valeur propre λ.
Le cas diagonalisable correspond au cas où pour chaque valeur propre, la dimension de
l'espace propre est égale à sa multiplicité algébrique. Autrement dit, pour toute valeur propre
λ, la somme des tailles des blocs associés à λ doit être égale au nombre de blocs associés à
λ, ce qui n'est possible que s'il n'y a que des blocs de taille 1 pour la valeur propre λ. On
vient de retrouver le fait que dans ce cas, la matrice T est diagonale.
Exercice 2.2.1. Déterminer le nombre et la taille des blocs dans chacun des cas suivants, ainsi
1 1 0 0
que la multiplicité algébrique et la multiplicité de chacune des valeurs propres : 00 10 02 01 ,
0 0 0 2
1 0 0 0
2 1 0
0
0
1
0
0
2
1
,
0
0 2 1 .
0 0 2
0 0 0 2
(λ , . . . , λ ).
1 d
1 d
Remarque 2.3.1. Ce théorème dit précisément que les fonctions ϕ introduites dans le Théo-
rème 2.1.1 sont de la forme t 7→ ϕ (t) = e v .
j
λj t
j j
Démonstration. A A = P DP
est diagonalisable donc on peut écrire
−1 avec
D = diag(λ , . . . , λ ) 1 d
et P = (v1 , . . . , vd ), où les (vj ) sont une base de vecteurs propres associés aux valeurs propres
λj . Mais alors, le système X 0 = AX est successivement équivalent à X 0 = P DP −1 X puis à
Y = P −1 X et Y 0 = DY .
Notons que par construction, les composantes de Y sont les coordonnées de X dans la base
propre (v1 , . . . , vd ). Or, Y 0 = DY est un système diagonal dont la solution est yi (t) = yi (0)eλi t ,
pour tout i ∈ {1, . . . , d}. Ceci est exactement dire que les coordonnées de X(t) dans la base
(v1 , . . . , vd ) sont (y1 (0)eλ1 t , . . . , yd (0)eλd t ), ce qui est exactement le résultat énoncé.
3 1 −1
Exercice 2.3.1. Montrer que toute solution du système X 0 = AX avec A= 0 4 0 est
de la forme
−1 1 3
1 1 −1
X(t) = αe2t 0 + βe4t 1 + γe4t 0 , t ∈ R,
1 0 1
où α, β, γ sont des constantes réelles.
28 CHAPITRE 2. SYSTÈMES LINÉAIRES D'ORDRE 1
où
(1) (2) (d0) (d0 )
V := v1 , . . . , vα(1)
1
, v1 , . . . , v (2)
α2 , . . . , v 1 , . . . , v αd0
est une base de jordanisation de A. Ici, chaque (v , . . . , v ) est associée à la valeur propre λ .
(i) (i)
De plus, pour tout i ∈ {1, . . . , d }, tout j ∈ {1, . . . , α }, P est un polynôme de degré plus petit
1 αi i
0 (i)
Démonstration.
0
A = PTP
Ecrivons
−1 . Le système
X = AX 0
Y =P X est alors équivalent à
−1
(a) Soit A est diagonalisable, auquel cas A est forcément diagonale, ce qui est impossible
r1 1
(b) Soit A est jordanisable, mais non diagonalisable, auquel cas A est semblable à .
0 r1
Dans ce cas, les solutions de Y 0 = AY sont données par
1 t
Y (t) = er1 t Y (0), t ∈ R.
0 1
2.3. RÉSOLUTION D'UN SYSTÈME LINÉAIRE D'ORDRE 1 29
Supposons avoir trouvé une solution particulière f0 à ce système. Alors, pour toute solution
f de ce système, g = f − f0 est solution du système homogène : en eet, pour tout t ∈ R,
g 0 (t) = f 0 (t) − f00 (t) = Af (t) + B(t) − Af0 (t) − B(t) = Ag(t).
Il sut donc de trouver une solution particulière f0 et toute solution f s'écrit comme
où α1 , . . . , αd sont des constantes quelconques et (ϕi )i=1,...,ϕd est une base de l'espace des solutions
de l'équation homogène.
Cherchons donc une solution particulière f0 . On procède par variation de la constante : on
cherche une solution particulière sous la forme
où (αi )i=1,...,d sont des fonctions dérivables. Calculons, pour tout t∈R :
f00 (t) = α10 (t)ϕ1 (t) + . . . + αd0 (t)ϕd (t) + α1 (t)ϕ01 (t) + . . . + αd (t)ϕ0d (t),
= α10 (t)ϕ1 (t) + . . . + αd0 (t)ϕd (t) + α1 (t)Aϕ1 (t) + . . . + αd (t)Aϕd (t),
= α10 (t)ϕ1 (t) + . . . + αd0 (t)ϕd (t) + Af0 (t),
où nous avons utilisé le fait que les ϕi sont par construction solutions du système homogène,
c'est-à-dire ϕ0i = Aϕi . Par conséquent, f0 est solution de X 0 = AX + B si et seulement si
Or,(ϕ1 , . . . , ϕd )(t) est une famille libre dans Kd donc la matrice (ϕ1 , . . . , ϕd (t)) est inversible.
0 0 −1
On trouve donc (α1 (t), . . . , αd (t)) = (ϕ1 (t), . . . , ϕd (t)) B(t). On en déduit donc les αi (t).
3 1 −1
Exercice 2.3.3. Cherchons une solution particulière de X 0 = AX + B avec
A= 0 4 0
−1 1 3
1
etB(t) = 0 . D'après l'exercice 2.3.1, toute solution du système homogène est de la forme
t
1 1 −1
X(t) = αe2t 0 + βe4t 1 + γe4t 0 , t ∈ R,
1 0 1
où α, β, γ sont des constantes réelles. On recherche donc une solution particulière sous la forme
1 1 −1
2t 4t 4t
X0 (t) = α(t)e 0 + β(t)e 1 + γ(t)e 0 , t ∈ R,
1 0 1
30 CHAPITRE 2. SYSTÈMES LINÉAIRES D'ORDRE 1
1 1 −1 1
α0 (t)e2t 0 + β 0 (t)e4t 1 + γ 0 (t)e4t 0 = 0 ,
1 0 1 t
ce qui est équivalent au système
0 2t 0 4t 0 4t
α (t)e + β (t)e − γ (t)e
=1
β 0 (t)e4t = 0,
0
α (t)e2t + γ 0 (t)e4t =t
dont la solution est, pour tout t ∈ R,
0
α (t)
= 21 (1 + t)e−2t
β 0 (t) = 0,
= 12 (t − 1)e−4t
0
γ (t)
Une intégration donne que les fonctions dénies pour tout t ∈ R comme suit conviennent :
α(t)
= − 18 e−2t (2t + 3) + c1 ,
β(t) = c2 ,
−4t
= e32 (3 − 4t) + c3 ,
γ(t)
Remarque 2.3.2. Bien sûr, nous voulons une solution particulière. Il n'y a donc aucun besoin de
garder les constantes c , c , c quelconques. Le plus simple est sans doute de prendre ces constantes
nulles! Mais vous pouvez prendre d'autres valeurs si vous le souhaitez, par exemple c = 1, si le
1 2 3
Remarque 2.4.1. Notons alors que pour une telle solution, la valeur de X(t) est par dénition,
égale à sa condition initiale
∀t ∈ R, X(t) = X(0).
Il est donc équivalent de parler de solution stationnaire X ou de
.
condition initiale stationnaire
z = X(0)
∃ lim X(t) = z ∈ Kd .
t→∞
Remarque 2.4.2. Cette proposition justie le vocable . Il faut voir un point sta-
tionnaire comme le comportement en temps long de toute solution de . D'un point de vue
stationnaire
physique, cette question est importante : il est tout-à-fait naturel de comprendre quel est la com-
(2.9)
Remarque 2.4.3. Une conséquence immédiate de la preuve précédente est que l'ensemble des
points stationnaire pour X = AX est Ker(A).
0
1. On dit que z est un point stationnaire asymptotiquement stable s'il existe r > 0 tel que pour
toute condition initiale x = (x , . . . , x ) telle que pour tout i = 1, . . . , d, |x − z | ≤ r, alors
l'unique solution de X = AX, X(0) = x est telle que
0 1 d i i
0
0
X(t) →t→∞ z.
32 CHAPITRE 2. SYSTÈMES LINÉAIRES D'ORDRE 1
2. On dit que le point stationnaire z est stable s'il existe r > 0 tel que pour tout condition
initiale x = (x , . . . , x ) telle que pour tout i = 1, . . . , d, |x − z | ≤ r, alors l'unique
solution de X = AX, X(0) = x est bornée.
0 1 d i i
0
0
où (αi )i sont des constantes quelconques et (ϕ1 , . . . , ϕd ) est une famille libre de fonctions.
Considérons deux cas :
1. A est diagonalisable : dans ce cas, ϕi est de la forme ϕi (t) = eλi t vi , où (λi , vi ) est un couple
propre pour A. Dans ce cas, 0 est asymptotiquement stable si et seulement si pour tout
i = 1, . . . , d, ϕi (t) → 0 pour t → ∞. Mais ceci est équivalent au fait que <(λi ) < 0 pour
tout i = 1, . . . , d.
Et 0 est stable si et seulement si ϕi est bornée pour tout i = 1, . . . , d. Or ceci est équivalent
à <(λi ) ≤ 0 pour tout i = 1, . . . , d.
Remarque 2.4.4. Dans le cas diagonalisable, toutes les valeurs propres sont par dénition
non dégénérées, donc la deuxième condition du théorème est vide.
2. A est trigonalisable. Dans ce cas, nous avons vu que les ϕi sont de la forme
ϕi (t) = Pi (t)eλi t vi ,
Dans ce cas, par croissance comparée entre polynômes et exponentielle, 0 est asymptoti-
quement stable si et seulement si pour tout i = 1, . . . , d, <(λi ) < 0.
De plus, 0 est stable si et seulement si <(λi ) ≤ 0 et, dès que <(λi ) = 0, le polynôme Pi est
constant, ce qui est exactement dire que λi est non dégénérée.
2.4. COMPORTEMENT ASYMPTOTIQUE DES SOLUTIONS. 33
paramétrée
y(t)
2
{(x(t), y(t)) ∈ R , t ∈ R}
est appelée courbe intégrale associée au système . (2.10)
Remarque 2.4.5. La bonne intuition pour comprendre la dénition précédente est de voir une
courbe intégrale comme la trajectoire d'un mobile, dont les coordonnées (x(t), y(t)) varient en
fonction du temps.
Un résultat important est le suivant.
Proposition 2.4.2. Deux courbes intégrales sont soit disjointes, soit confondues. Autrement dit,
deux courbes intégrales qui se coupent en au moins un point sont en fait confondues.
Démonstration. (x , y ) ∈
Supposons que deux courbes intégrales se coupent en au moins un point 0 0
R2 . C'est dire qu'il existe deux solutions de X 0 = AX (notées (x1 , y1 ) et (x2 , y2 )) et deux instants
t1 ∈ R et t2 ∈ R tels que
x1 (t1 ) = x0 et y1 (t1 ) = t0 ,
x2 (t2 ) = x0 et y2 (t2 ) = t0 .
Remarque 2.4.6. Attention : rien ne dit a priori que t = t : ce n'est pas parce que je dis
que deux lignes de métro se coupent que je dis que les deux métros se percutent. Les deux métros
1 2
Remarque 2.4.7. Autrement dit, nous venons de retarder le métro de la ligne 2 pour qu'il passe
en (x , y ) en même temps que le métro de la ligne 1.
0 0
Or, le Théorème 2.1.1 dit précisément que le problème de Cauchy (2.11) a une unique solution.
Par conséquent, ∀t ∈ R, x1 (t) = x2 (t − t1 + t2 ), et y1 (t) = y2 (t − t1 + t2 ). Mais, bien sûr, la
courbe intégrale {(x2 (t), y2 (t)), t ∈ R} est la même que {x2 (t − t1 + t2 ), y2 (t − t1 + t2 )), t ∈ R}
(il s'agit de la même courbe parcourue à des instants diérents). Donc,
Remarque 2.4.8. La Proposition 2.4.2 est importante dans la mesure où elle donne une règle
importante pour le tracé de courbes intégrales : il est interdit de tracer deux courbes intégrales
distinctes qui se coupent.
34 CHAPITRE 2. SYSTÈMES LINÉAIRES D'ORDRE 1
a b
Classication des courbes intégrales en dimension 2. Soit A =
c d
. Alors son
L'idée est ici que la donnée du couple (Tr(A), det(A)) sut entièrement pour déterminer le
caractère stable/instable des points stationnaires et de déterminer l'allure des courbes intégrables.
La zoologie des courbes intégrales se décrit comme suit :
1. Cas où ∆>0 (voir Figure 2.1) : A a alors deux valeurs propres réelles distinctes
λ1 et λ2
λ1 0
et il existe P inversible telle que A = P P −1 . Dans la base de diagonalisation
0 λ2
(v1 , v2 ), les nouvelles coordonnées de X = (x, y) s'écrivent
ii. Cas où Tr(A) <0 : dans ce cas λ1 < 0 etλ2 < 0 et on peut supposer sans perte
ỹ(t)
de généralité que λ1 < λ2 < 0, auquel cas
x̃(t) →t→−∞ 0. On obtient un point
Par contre, dans le cas attractif, le point (x(t), y(t)) se rapproche de 0 quand t → +∞.
x̃(t)
Il faut donc prendre la limite pour t → −∞ dans ce cas, pour faire en sorte que le
point s'éloigne de 0.
Remarque 2.4.10. Notons que dans la Figure 2.1, le point stationnaire 0 a été repré-
senté comme courbe intégrale : c'est la courbe intégrale qui consiste à rester au point 0.
En particulier, il faudra faire attention, selon la règle édictée par la Proposition 2.4.2
à ce qu'aucune autre courbe intégrale ne passe par le point 0.
(b) Cas où det(A) < 0 (voir Figure 2.2) : alors λ1 et λ2 sont de signes contraires et on peut
par exemple supposer que λ2 < 0 < λ1 . On obtient un point selle (voir Figure 2.2).
(c) Cas où det(A) = 0 (voir Figure 2.3) : alors λ1 = 0 et λ2 = a + d 6= 0. On obtient un
cas dégénéré.
2. Cas où ∆<0 (voir Figure 2.4) : on a alors deux racines complexes conjuguées. Dans
C, il
λ 0
existe une matrice inversible P telle que A = P P −1 . On peut écrire λ = r + iω .
0 λ̄
Les vecteurs propres associés sont aussi conjugués : v1 = U1 + iU2 et v2 = U1 − iU2 et dans
la base (v1 , v2 ) les coordonnées (x̃, ỹ) de X s'écrivent, pour α, β ∈ C,
v2 v2
v1 v1
v2
v1
ce qui est exactement dire que pour tout t ∈ R, X(t) = αe(r+iω)t (U1 + iU2 ) + βe(r−iω)t (U1 −
iU2 ). X est un vecteur réel donc nécessairement X̄ = X , donc en particulier X(0) = X̄(0),
2
i.e. α = β̄ = u + iv . On a alors nécessairement, en supposant que u + v > 0
2
v2 v2
v1 v1
Nous avons donc aaire à une solution qui tourne à vitesse ω . Remarquons que Tr(A) = 2r.
Il y a trois sous-cas à traiter
(a) Cas où Tr(A) <0 : on obtient une spirale asymptotiquement stable (voir Figure 2.4).
(b) Cas où Tr(A) >0 : on obtient une spirale instable (voir Figure 2.4).
(c) Cas où Tr(A) =0 : on obtient une ellipse (stable mais pas asymptotiquement stable)
(voir Figure 2.4).
3. Cas où ∆=0 (voir Figure 2.5) : A a donc une valeur propre double λ ∈ R.
λ 0
(a) Cas où A est diagonalisable : dans ce cas A est en fait diagonale, A = . Dans
0 λ
ce cas, (v1 , v2 ) est la base canonique et x(t) = x(0)e
λt et y(t) = y(0)eλt , autrement
dit y(t) = γx(t) pour une certaine constante γ : les courbes intégrales sont des droites
et le point 0 est stable ou instable selon le signe de λ (le cas λ = 0 est possible mais
inintéressant).
λ 1
(b) Cas où A non diagonalisable : dans ce cas A est semblable à et les coordonnées
0 λ
de X dans la base de trigonalisation sont données par x̃(t) = (α+βt)e
λt et ỹ(t) = αeλt .
β
Ainsi, pour α 6= 0, x̃(t) = ỹ(t)(t + ).
α
2.4. COMPORTEMENT ASYMPTOTIQUE DES SOLUTIONS. 37
v2 v2
v1 v1
(a) Le cas Tr(A) <0 et ω > 0. (b) Le cas Tr(A) <0 et ω < 0.
v2 v2
v1 v1
(c) Le cas Tr(A) >0 et ω > 0. (d) Le cas Tr(A) >0 et ω < 0.
v2 v2
v1 v1
v2 v2
v1 v1
(a) Le cas A diagonalisable et Tr(A) > 0. (b) Le cas A diagonalisable et Tr(A) < 0.
v2 v2
v1 v1
(c) Le cas A non diagonalisable et Tr(A) > 0. (d) Le cas A non diagonalisable et Tr(A) < 0.
v2
v1
où :
x(t ) = x , et y(t ) = y ,
0 0 0 0 (3.2)
où t ∈ R, et (x , y ) ∈ Ω , est appelée
0 0 0
2 .
Problème de Cauchy
Remarque 3.1.1. Dans le cas de système linéaire comme , nous avons vu que les solutions
du problème de Cauchy étaient dénies sur I = R tout entier. Dans le cas général, les solutions
(3.3)
(x(t), y(t)) de ne seront pas nécessairement dénies sur R tout entier. Résoudre , c'est
en fait, non seulement déterminer (x, y) mais aussi l'intervalle I de dénition.
(3.1) (3.1)
39
40 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS EN DIMENSION 2
vériant
0
∀t ∈ I, ϕ0 (t) = f (ϕ(t), ψ(t)),
∀t ∈ I, ψ 0 (t)
= g(ϕ(t), ψ(t)),
(3.4)
ϕ(t0 ) = x0 ,
ψ(t ) = y
0 0
Remarque 3.1.2. Nous pouvons écrire sous une forme condensée : posant X = (x, y) et
F (X) = (f (X), g(X)), le système s'écrit
(3.1)
(3.1)
peut être vu comme un cas particulier de (3.5), au sens où (3.7) est équivalent à
x0 (t) = f (x(t), y(t)), t∈I
y 0 (t)
= 1,
(3.8)
x(0) = x0 ,
y(0) = 0.
C'est en eet évident, car dans ce cas, (pour tout t ∈ I , y 0 (t) = 1, y(0) = 0) est équivalent
à y(t) = t, pour tout t.
1).
x x
− y x , y = 1).
t
2x 2 2 0
Attention : nous avons vu à propos des deux derniers exemples que les solutions n'étaient pas
y
sur un intervalle I =]α, β[ (−∞ ≤ α < β ≤ +∞) telle que β < +∞, on dit que (I, θ) est
(Prolongement d'une solution)
Remarque 3.2.1. Bien sûr, il est possible de dénir une notion similaire de prolongement en
α au lieu de β .
Exemple 3.2.1. x = 1 + x , x(0) = 0 admet une unique solution maximale donnée par
0 2
Démonstration. Admis.
Pour savoir si ou non l'unique solution maximale est en fait globale, nous utiliserons souvent
le critère de prolongement suivant :
cessairement maximale) dénie sur I =]α, β[. Si β < +∞ et si θ admet une limite nie B quand
(Critère de prolongement)
Nous utiliserons souvent ce critère pour prouver (dans certains cas) qu'une solution maximale
de certains systèmes diérentiels est en fait globale. Comment ? En appliquant la démarche
suivante : soit (I, φ) une solution maximale de X 0 = F (X) avec I =]α, β[. On souhaite prouver
qu'en fait β = +∞.
1. On raisonne par l'absurde : on suppose que β < +∞,
2. Si on est capable de montrer qu'alors θ admet une limite nie B en β et que B ∈ Ω, cela
veut donc dire (par théorème de prolongement) que θ est prolongeable en β.
3. Or ceci contredit le caractère maximal de la solution (I, θ). Il est donc absurde de supposer
que β < +∞ et donc β = +∞.
Appliquons ce principe de raisonnement à un exemple :
42 CHAPITRE 3. SYSTÈMES DIFFÉRENTIELS EN DIMENSION 2
x0 = y,
y 0 = − sin(x),
(3.10)
x(0) = x0 ,
y(0) = ω .
0
Or, la fonction (x, y) 7→ F (x, y) = (y, − sin(x)) est de classe C sur Ω = R . Par application du
1 2
théorème de Cauchy-Lipschitz, il existe une unique solution maximale dénie sur ]α, β[. Montrons
que cette solution est globale, c'est-à-dire que α = −∞ et β = +∞. Traitons seulement le cas
pour β, l'autre est similaire.
Supposons le contraire : βZ< +∞. Nous pouvonsZécrire que
y (s)ds + y(0) = − sin(x(s))ds + y(0).
t t
0
y(t) =
0 0
Mais alors s 7→ sin(x(s)) est continue sur [0, β[ et bornée donc Rintégrable sur [0, β[ (car β < +∞).
Donc ∃ lim y(t) = ȳ. Mais si y(t) → ȳ, alors x(t) → x̄ = y(t)dt + x(0). Nous avons donc
β
montré que (x(t), y(t)) → (x̄, ȳ) ∈ R . Par critère de prolongement, la solution que nous
t→β 0
2
avons trouvée est donc prolongeable, ce qui contredit son caractère maximal. Donc β = +∞.
t→β
2x
x0 = − t 2 x2 , t > 0. (3.11)
t
Au Chapitre 1, nous avions restreint la recherche des solutions de cette équation aux fonctions
telles que x(t) > 0, pour tout t (ou x(t) < 0, pour tout t). Or, il y existe d'autres solutions à
cette équation, par exemple la solution nulle : x telle que x(t) = 0 pour tout t est une solution
évidente de (3.11).
Y en a-t-il d'autres ? Ecrivons tout d'abord l'équation initiale sous la forme équivalente d'une
système en dimension 2 : l'équation (3.11) est équivalente au système
(
2x
x0 = y − y 2 x2 ,
(3.12)
y0 = 1
La fonction (x, y) 7→ F (x, y) = ( 2x 2 2 1
y −y x , 1) est de classe C sur Ω := R×]0, +∞[. Par Théorème
de Cauchy-Lipschitz, pour tout condition initiale (x0 , t0 ), il existe une unique solution maximale
à (3.12) (et donc à (3.11)) telle que x(t0 ) = x0 .
Cherchons maintenant toutes les solutions maximales de (3.11). Soit (I, φ) une solution
maximale de (3.11), deux cas sont possibles :
3.3. APPLICATIONS DU THÉORÈME DE CAUCHY-LIPSCHITZ 43
1. Soit φ s'annule en un point : ∃t0 ∈ I tel que φ(t0 ) = 0. Alors φ est la solution identiquement
nulle : I = R et φ(t) = 0 pour tout t ∈ R. En eet, regardons le problème de Cauchy
2x
x0 = − t2 x2 , x(t0 ) = 0. (3.13)
t
Alors, par hypothèse, φ est solution de ce problème de Cauchy. Mais la fonction nulle
(dénie sur R) est aussi trivialement une solution maximale de ce problème. Par unicité de
la solution maximale dans ce problème de Cauchy, ces deux solutions coincident et donc
I = R et φ ≡ 0.
2. Soit φ ne s'annule jamais. Mais alors, φ est nécessairement de signe constant. En eet,
sinon il existerait t0 6= t1 tels que φ(t0 ) < 0 et φ(t1 ) > 0 par exemple. Mais alors, φ étant
continue, il existe, par théorème des valeurs intermédiaires, t2 ∈]t0 , t1 [ tel que φ(t2 ) = 0.
Or on a dit que φ ne s'annulait jamais. Absurde. Donc φ est de signe constant.
Donc soit φ(t0 ) > 0 auquel cas φ(t) > 0 pour tout t ∈ I ou soit φ(t0 ) < 0 auquel cas
φ(t) < 0 pour tout t ∈ I . Mais dans ce cas, nous savons résoudre, (cf. Chapitre 1) et nous
trouvons que
5t2
φ(t0 ) > 0 ⇒ φ(t) = , dénie sur ] − ∞, (−C)1/5 [,
C + t5
5t2
φ(t0 ) < 0 ⇒ φ(t) = , dénie sur ](−C)1/5 , +∞[,
C + t5
qui sont des solutions maximales.
3. Conclusion : nous avons trouvé toutes les solutions maximales de (3.11) : par rapport au
Chapitre 1, il ne manquait que la fonction identiquement nulle.
Démonstration. X̄ Si est un point singulier, alors cela donne clairement une solution au problème
de Cauchy correspondant. L'unicité d'une telle solution vient du théorème de Cauchy-Lipschitz.
Réciproquement, si X(t) = (x̄, ȳ) est solution du problème de Cauchy, alors X 0 = 0 = F (X) =
F (X̄). Donc X̄ est un point singulier de F.
De même que dans le cas linéaire, on se pose la question de la stabilité des solutions station-
naires.
2. (x̄, ȳ) est dit asymptotiquement stable si il existe δ > 0 tel que, pour toute condition initiale
(x , y ) telle que |x − x̄| + |y − ȳ| ≤ δ , alors l'unique solution (I =]t , t [, (x, y)) telle
2 2
Notion de stabilité linéaire : L'idée sous-jacente à ce paragraphe est une idée de calcul dif-
férentiel : si (x, y) est proche de (x̄, ȳ) alors F (x, y) doit être proche de F (x̄, ȳ). Plus précisément,
si F = (f, g) est de classe C 1 ,
x − x̄
q
F (x, y) = F (x̄, ȳ) + A · + o( |x − x̄|2 + |y − ȳ|2 ),
y − ȳ
où
∂x f (x̄, ȳ) ∂y f (x̄, ȳ)
A=
∂x g(x̄, ȳ) ∂y g(x̄, ȳ)
est la matrice jacobienne de F en (x̄, ȳ).
Autrement dit, intuitivement, X 0 = F (X) doit ressembler à Y 0 = AY au voisinage de (x̄, ȳ).
Cette intuition est vraie, du moins dans une certaine mesure. On a le théorème (dicile) suivant
1. (0, 0) est stable pour Y = AY si et seulement si (x̄, ȳ) est stable pour X = F (X),
0 0
3.3. APPLICATIONS DU THÉORÈME DE CAUCHY-LIPSCHITZ 45
2. (0, 0) est asymptotiquement stable pour Y = AY si et seulement si (x̄, ȳ) est asymptoti-
0
et les courbes intégrales autour de (x̄, ȳ) ont la même allure que celles du système linéarisé.
Exemple 3.3.1 . Si une valeur propre de A est de partie réelle nulle, on ne
peut pas conclure : donnons un contre-exemple dans le cas où une valeur propre de A est de partie
(contre-exemple)
le cas où
1. F (x, y) = (x(1 − ) − xy, xy − y),
x
[0, T ] en N (N ≥ 1) 0 = t0 <
subdivision
L'idée est la suivante : on discrétise l'intervalle de temps points
t1 < t2 < . . . < tN = T . Une telle suite (t0 , t1 , . . . , tN ) est appelée de l'intervalle [0, T ].
suite des pas de temps la suite (hn = tn+1 − tn )0≤n≤N −1 . h = max(hn , n = 0, . . . , N )
diamètre ou pas de la subdivision
On appelle
est appelé . Résoudre numériquement l'équation (4.1) revient
alors à calculer une approximation xn des valeurs x(tn ) aux instants tn . Ce qu'on espère est que
cette approximation soit d'autant meilleure que le pas de temps de la subdivision h est petit.
xn f
schéma numérique
Les seront construits de manière itérative à partir de la fonction et de la condition initiale.
On appelle la donnée de cette suite (xn ) construite de manière itérative.
x(tn+1 ) − x(tn )
Pour t voisin de tn , x0 (t) ≈ (4.2)
tn+1 − tn
De même, pour t proche de tn , f (t, x(t)) ≈ f (tn , x(tn+1 )). Ainsi, une approximation raisonnable
de l'équation diérentielle (4.1) est donc :
47
48 CHAPITRE 4. APPROXIMATION NUMÉRIQUE ET SCHÉMAS D'EULER
Une autre interprétation du schéma d'Euler explicite est la suivante : si x est la solution
du problème de Cauchy (4.1) et si (0 = t0 , t1 , . . . , tn ) est une subdivision de [0, T ] alors par
intégration, on a pour tout n≥0
Z tn+1
x(tn+1 ) = x(tn ) + f (t, x(t))dt. (4.4)
tn
R tn+1
L'intégrale
tn f (t, x(t))dt peut-être approchée de multiples manières. Une possibilité est d'uti-
Rb
liser la méthode des rectangles à gauche (
a g(t)dt ≈ (b − a)g(a)) ce qui donne ici
Z tn+1
f (t, x(t))dt ≈ (tn+1 − tn )f (tn , x(tn )). (4.5)
tn
Injecter cette expression dans (4.4) redonne le schéma d'Euler explicite (4.3).
xn+1 = xn + hn f (tn , xn ).
R tn+1
2. Schéma d'Euler implicite :
tn f (t, x(t))dt ≈ (tn+1 − tn )f (tn+1 , x(tn+1 )), ce qui donne
hn tn + tn+1
x(tn+1 ) ≈ x(tn ) + hn f tn + ,x , où hn = tn+1 − tn .
2 2
En remplaçant (par la méthode d'Euler)
tn + tn+1 hn
x ≈ x(tn ) + f (tn , x(tn )),
2 2
hn hn
xn+1 = xn + hn f tn + , xn + f (tn , xn ) .
2 2
4.2. NOTION DE CONVERGENCE D'UN SCHÉMA NUMÉRIQUE 49
Il existe une multitude d'autres méthodes numériques permettant d'approcher les solutions
d'équations diérentielles. Les évoquer toutes ferait l'objet d'un cours de licence tout entier.
Dans ce chapitre, nous nous limiterons au cas des schémas d'Euler explicite et implicite.
Remarque 4.1.1. Le schéma d'Euler explicite doit son appellation au fait que la nouvelle valeur
xn+1 est connue en fonction de la valeur précédente x . Par contre, dans le schéma
d'Euler implicite, la nouvelle valeur x est contenue dans les deux membres de l'égalité :
explicitement n
La valeur xN fournit-elle une bonne approximation de x(T ) quand le pas de temps h est
petit ? Autrement dit, a-t-on |xN − x(T )| → 0 quand h → 0?
Si oui, quelle est la taille typique de l'erreur commise quand on remplace x(T ) par xN pour
un h petit mais non nul ?
Dans ce paragraphe, nous nous restreindrons au cas du schéma d'Euler explicite. Nous allons
supposer que la propriété suivante est vraie pour f.
Hypothèses 4.2.1. On suppose que f est globalement lipschitzienne en la variable x, uniformé-
ment en t, c'est-à-dire
∃K > 0, ∀t ∈ [0, T ], ∀x, y, |f (t, x) − f (t, y)| ≤ K |x − y| (4.6)
Remarque 4.2.1. Cette hypothèse peut être considérablement aaiblie, mais nous nous conten-
terons de celle-ci dans ce chapitre.
Proposition 4.2.1. Sous l'hypothèse précédente, on a
|x − x(T )| → 0, quand h → 0.
N
N
X −1 N
X −1
|xN − x(T )| = (xn+1 − xn ) − (x(tn+1 ) − x(tn )) ,
n=0 n=0
N
X −1 Z tn+1
= hn f (tn , xn ) − f (t, x(t))dt ,
n=0 tn
N
X −1 Z tn+1
= (f (tn , xn ) − f (t, x(t))) dt ,
n=0 tn
N
X −1 Z tn+1 N
X −1 Z tn+1
≤ |f (tn , xn ) − f (tn , x(tn ))| dt + |f (tn , x(tn )) − f (t, x(t))| dt
n=0 tn n=0 tn
N
X −1 Z tn+1 N
X −1 Z tn+1
≤K |xn − x(tn )| dt + (f (tn , x(tn )) − f (t, x(t)))dt .
n=0 tn n=0 tn
| {z }
:=εn
50 CHAPITRE 4. APPROXIMATION NUMÉRIQUE ET SCHÉMAS D'EULER
N
X −1
|xn − yn | ≤ eK(hn +...+h0 ) |x0 − y0 | + eK(hk +...+h0 ) |εk | ,
k=0
N
X −1 N
X −1
= eKtk |εk | ≤ eKT |εk |
k=0 k=0
PN −1
Pour montrer que |xN − x(T )| → 0, il sut donc de montrer que n=0 |εn | tend vers 0 quand
h tend vers 0. Prouvons ce fait. On a,
Z tn+1
εn = x(tn+1 ) − x(tn ) − hn f (tn , x(tn )) = (f (t, x(t)) − f (tn , x(tn ))) dt.
tn
f est continue sur le compact [0, T ] × x([0, T ]) donc uniformément continue : pour tout ε > 0, il
existe η > 0 tel que si |t − s| + |x − y| < η , x est continue sur [0, T ] donc uniformément continue :
η
il existe α > 0 tel que pour tout t, s ∈ [0, T ], si |t − s| < α alors, |x(t) − x(s)| <
2 . Quitte à
η
diminuer α, on peut toujours prendre α < . Mais alors |t − s|+|x − y| < η pour tout |t − s| < α
2 PN −1
et donc |f (t, x(t)) − f (tn , x(tn ))| < ε, dès que h < α. Par conséquent, n=0 |εn | ≤ T ε dès que
h < α, ce qui prouve le résultat.
Remarque 4.2.2. On peut même montrer que |x − x(T )| ≤ C |h| pour une certaine constante
.
N
C
Chapitre 5
Il s'agit d'une somme innie (autrement dit, de la somme d'une série). Est-elle convergente ?
Est-elle divergente ? Absolument convergente ?
Il s'agit de la convergence d'une suite de fonctions : quel sens donner à cette convergence
par rapport à la variable θ? est-elle vraie pour tout θ ∈ R? en moyenne par rapport à θ?
Uniformément par rapport à θ?
Peut-on décomposer n'importe quelle fonction en série de Fourier, aussi irrégulière soit-elle ?
On dit que T est une période de f . Dans ce cas, on dit aussi que f est T -périodique.
51
52 CHAPITRE 5. FONCTIONS PÉRIODIQUES ; PREMIÈRES PROPRIÉTÉS
Dans le cas où f admet une plus petite période T > 0, cette plus petite période est appelée la
période fondamentale de f .
Remarque 5.1.1. Attention : si f est périodique, sa période n'est pas unique! Si T est une
période pour f , kT est aussi une période pour f , pour tout k ∈ Z.
Exemple 5.1.1. Les fonctions suivantes sont périodiques :
Pour tout n ∈ N, θ 7→ cos(nθ) et θ 7→ sin(nθ), de période fondamentale T = . 2π
période positive.
Proposition 5.1.1. Soit T > 0. Une fonction θ 7→ f (θ) est T -périodique si et seulement si
θ 7→ f Tθ
2π est 2π-périodique.
Démonstration. I Soit f
l'ensemble de dénition de g : θ 7→ f
. Alors
θT
2π J =
est dénie sur
{θ ∈ R, Tθ
2π ∈ I}. Si θ ∈ J , alors T (θ+2π)
2π = Tθ
+ T ∈ I ,par dénition
2π de la périodicité de f . Donc
T (θ+2π)
= f T2πθ + T = f T2πθ = g(θ).
θ + 2π ∈ J . De plus, Pour tout θ ∈ J , g(θ + 2π) = f 2π
Donc g est bien 2π -périodique.
Cette proposition dit exactement qu'on peut toujours se ramener, via le changement de
variables θ 7→ θT
2π , à une fonction 2π -périodique. Nous ne considérerons donc maintenant que des
fonctions 2π -périodiques.
Proposition 5.1.2. Soit f une fonction dénie sur un intervalle de longueur 2π du type ]α, α +
2π]. Il existe une unique fonction f˜, appelée la périodisée de f , qui est 2π-périodique et qui
coincide avec f sur ]α, α + 2π].
Cette fonction est dénie par
θ−α
f˜(θ) = f θ− − 1 2π ,
2π
−2π −π 0 π 2π 3π
−1
Si f est dénie sur un intervalle du type [α, α + 2π[, on peut adapter le résultat précédent en
remplaçant f˜ par
θ−α
f˜(θ) = f θ− 2π ,
2π
où bxc ≤ x < bxc + 1.
Dans la plupart des cas, on assimilera la fonction f , dénie sur ]α, α + 2π] à sa fonction
périodisée f˜. On dit qu'on a prolongé f par 2π -périodicité.
Exemple 5.1.2 . Posons f (θ) = 1 pour tout θ ∈]0, π[, f (0) = 0, f (π) = 0,
et f (θ) = −1 pour tout θ ∈]π, 2π[. La fonction périodisée de f est appelée
(Fonction créneau)
prolongée par parité, puis par 2π-périodicité est appelée fonction (ou signal) triangulaire (voir
(Signal triangulaire)
2
Figure 5.2).
Prolongement par imparité, puis par 2π-périodicité
De la même manière, il est possible de partir d'une fonction f dénie sur ]0, π[ (intervalle
de longueur π ), de la prolonger sur ] − π, π[ par imparité (c'est-à-dire en posant f (0) = 0 et
f (θ) = −f (−θ), pour tout θ ∈] − π, 0[) puis par 2π -périodicité comme au paragraphe précédent.
La fonction ainsi dénie est une fonction impaire sur R tout entier.
54 CHAPITRE 5. FONCTIONS PÉRIODIQUES ; PREMIÈRES PROPRIÉTÉS
π
2
−2π −π 0 π 2π 3π
− π2
Remarque 5.1.2. Le lecteur averti aura remarqué que nous n'avons pas explicitement déni
la valeur de fonction f en π (cette valeur est la même que f (π + 2kπ), pour tout k ∈ Z par
2π -périodicité). C'est en fait que f (π) est nécessairement égal à 0 si f est impaire : en eet, si f
est impaire f (π) = −f (−π). De plus f est 2π-périodique, donc f (π) = f (−π). Par conséquent,
f (π) = 0.
Exercice 5.1.1. La fonction dénie par f (0) = 0, f (θ) = 1 pour tout ]0, π[ et prolongée par
imparité puis 2π-périodicité dénit une fonction créneau.
5.1.3 Régularité des fonctions périodiques
Dénition 5.1.2 (Continuité et continuité par morceaux). Soit une fonction f : R → C. On dit
que :
1. f est une fonction continue sur R si pour tout θ ∈ R, ∃ lim f (θ) = f (θ ),
0 θ→θ0 0
2. On dit que f est continue par morceaux sur R, si pour tout segment [a, b] de R, il existe une
subdivision a = x < x < x < . . . < x = b, telle que toutes les conditions suivantes
0 1 2 n
sont vériées
Pour tout i ∈ {0, . . . , n − 1}, f est une fonction continue sur l'intervalle ]x , x [,
i i+1
f admet une limite nie à droite et une limite nie à gauche en tout point de la
subdivision x , pour tout i ∈ {0, . . . , n}.
i
1. f est une fonction de classe C sur R si f est continue et dérivable sur R, de dérivée
1
continue.
2. On dit que f est de classe C par morceaux sur R, si pour tout segment [a, b] de R, il existe
1
une subdivision a = x < x < x < . . . < x = b, telle que toutes les conditions
0 1 2 n
suivantes sont vériées
Pour tout i ∈ {0, . . . , n − 1}, f est une fonction de classe C sur l'intervalle ]x , x [,
1
i i+1
5.1. FONCTIONS PÉRIODIQUES 55
f admet une limite nie à droite et une limite nie à gauche en tout point de la
subdivision x , pour tout i ∈ {0, . . . , n},
La dérivée de f , f , admet une limite nie à droite et une limite nie à gauche en
i
0
Dans le cas d'une fonction 2π -périodique, il sut de vérier la régularité de la fonction sur
un intervalle de longueur 2π :
θ→α+2π,θ<α+2π
une fonction 2π-périodique. Soit ]α, α + 2π] un intervalle de longueur 2π. Alors
(Fonctions périodiques de classe
Dans ce cas, f est dérivable en α, de dérivée, la limite commune des deux dérivées précé-
θ→α,θ>α θ→α+2π,θ<α+2π
dentes en α.
2. f est de classe C par morceaux sur R si et seulement si
1
Exemple 5.1.4. Les fonctions triangle et créneau dénies en Figures 5.1 et 5.2 sont continues
par morceaux et de classe C par morceaux. La fonction triangle est en plus continue, mais la
1
nous contenterons ici de savoir que ce terme englobe en particulier les fonctions continues par
morceaux, ce qui est largement susant pour ce chapitre.
Attention : f est par hypothèse à valeurs complexes. Autrement dit, pour tout θ ∈ R, on
peut écrire f (θ) = <(f (θ)) + =(f (θ)).
Proposition 5.1.5. si et seulement si et =f sont dans L (0, 2π) et dans ce
f ∈ L1p (0, 2π) <f 1
d d =f (θ)dθ.
Z 2π Z 2π Z 2π
f (θ) θ = <f (θ) θ + i
0 0 0
Proposition R5.1.6. Soit f ∈ RL (0, 2π). Alors pour tout Rα ∈ R, f est Rintégrable sur le segment
1
Démonstration. Ecrivons :
Z α+2π Z 0 Z 2π Z α+2π
|f (θ)| dθ = |f (θ)| dθ + |f (θ)| dθ + |f (θ)| dθ.
α α 0 2π
12
dθ
Z 2π
1 2
kf k2 := |f (θ)| .
2π 0
Proposition 5.1.7. Si f, g ∈ L (0, 2π), alors θ 7→ f (θ)ḡ(θ) appartient à L (0, 2π) et on note
2
p
1
p
d
Z 2π
1
hf , gi = f (θ)ḡ(θ) θ ∈ C, (5.3)
2π 0
Démonstration. Evident.
Remarque 5.1.4. Les propriétés des deux propositions précédentes doivent vous sembler fami-
lière, si vous procédez par analogie avec la norme euclidienne et le produit scalaire de deux vecteurs
x, y ∈ R . En particulier, l'expression kf − gk = |f (θ) − g(θ)| dθ fournit une notion
R 1
n 1 2π 2 2
2 2π 0
Démonstration. En eet,
kf + gk22 = hf + g , f + gi ,
= hf , f i + hf , gi + hg , f i + hg , gi ,
= kf k22 + hf , gi + hf , gi + kgk22 ,
= kf k22 + 2< hf , gi + kgk22 .
58 CHAPITRE 5. FONCTIONS PÉRIODIQUES ; PREMIÈRES PROPRIÉTÉS
dθ = hf , e i .
Z 2π
1 −inθ
∀n ∈ Z, c (f ) = f (θ)e
n n
2π 0
on appelle coecients de Fourier circulaires la donnée des deux suites (a (f )) et (b (f ))
dénies par, pour tout n ≥ 0
n n≥0 n n≥0
f (θ) cos(nθ)dθ,
Z 2π
1
a (f ) = n
π 0
f (θ) sin(nθ)dθ.
Z 2π
1
b (f ) = n
π
Remarque 5.2.1. Plusieurs remarques s'imposent :
0
1. On fera particulièrement attention au facteur devant chaque intégrale dans cette dénition :
il s'agit de R pour c et pour a et b ,
1
n
1
n n
3. La suite c (f ) est indexée par Z alors que les suites a (f ) et b (f ) sont indexées par N,
2 2π 0 0
4. D'après une proposition précédente, on peut changer les bornes d'intégration dans la dé-
n n n
f (θ) cos(nθ)dθ, n ≥ 0,
Z π
1
a (f ) = n
π −π
f (θ) sin(nθ)dθ, n ≥ 0.
Z π
1
b (f ) = n
π −π
5.2. COEFFICIENTS DE FOURIER D'UNE FONCTION DE CARRÉ INTÉGRABLE 59
Il est équivalent de connaitre les cn (f ), n ∈ Z d'une part et les (an (f ), bn (f )), n ≥ 0 d'autre
part. En eet,
1 2π
inθ
e + e−inθ
Z
an (f ) = f (θ) dθ,
π 0 2
Z 2π Z 2π
1 1
= f (θ)einθ dθ + f (θ)e−inθ dθ = cn (f ) + c−n (f ).
2π 0 2π 0
Je laisse la deuxième égalité à titre d'exercice. Le deuxième item se prouve de la même manière
en utilisant le fait que einθ = cos(nθ) + i sin(nθ).
Z 2π
1
cn (f ) = f (θ)e−inθ dθ,
2π 0
Z 2π
1
= f (θ)e−inθ dθ,
2π 0
Z 2π
1
= f (θ)einθ dθ, car f (θ) = f (θ),
2π 0
= c−n (f ).
Par ailleurs, dans ce cas, on a donc an (f ) = cn (f ) + cn (f ) = 2<(cn (f )) qui est donc un réel et
bn (f ) = i(cn (f ) − cn (f )) = −2=(cn (f )) qui est aussi un réel.
la dernière égalité étant vraie par 2π -périodicité. Donc bn (f ) = 0. Je laisse l'autre propriété à
titre d'exercice.
60 CHAPITRE 5. FONCTIONS PÉRIODIQUES ; PREMIÈRES PROPRIÉTÉS
Démonstration. C'est une conséquence du Corollaire 5.4.1 (le terme général d'une série conver-
gente tend vers 0). Je laisse le soin au lecteur de vérier qu'il n'y a pas de cercle vicieux dans ce
chapitre.
1
cn (f ) = cn (f 0 ).
in
En particulier, dans ce cas,
quand |n| → ∞.
1
cn (f ) = o ,
n
Plus généralement, pour tout k ≥ 1, si f est de classe C et C par morceaux, alors k−1 k
pour |n| → ∞.
1 1 (k)
c (f ) = n c (f ) = o k n k
(in) n
Autrement dit, plus f est régulière, plus ses coecients de Fourier convergent rapidement
vers 0 en +∞.
Démonstration. Si f est continue et C1 par morceaux, la formule d'intégration par parties s'ap-
plique :
Z 2π
1
cn (f ) = f (θ)e−inθ dθ,
2π 0
2π 2π
e−inθ
Z
1 1 1 1
= f (θ) + f 0 (θ)e−inθ dθ = 0 + cn (f 0 ).
2π −in 0 in 2π 0 in
N
X
SN (f )(θ) := ck (f )eikθ .
k=−N
Remarque 5.3.1. Si θ ∈ R est xé, S (f )(θ) est la somme partielle à l'ordre N de la série de
terme général c (f )e .
N
ikθ
Attention : ici k ∈ Z et non k ∈ N. On peut cependant se ramener au cas des séries indexées
k k∈Z
Dénition 5.3.2. On appelle série de Fourier la fonction qui à θ ∈ R associe la série numérique,
à valeurs complexes, de terme général (c (f )e ) . Dans le cas où pour un certain θ, S (f )(θ)
ikθ
converge, on appelle somme de la série de Fourier la limite de S (f ), notée S(f ), c'est à dire
k k∈Z N
N
X
S(f )(θ) := lim SN (f )(θ) = ck (f )eikθ .
N →∞
k∈Z
Remarque 5.3.2. Insistons un peu : il y a deux façons équivalente de dénir la série de Fourier
de f .
Le premier point de vue (et c'est celui adopté dans la dénition précédente), c'est de dire
que pour tout θ ∈ R xé, on a aaire à une série numérique de terme général complexe,
égal à c (f )e . Autrement dit, se donner une série de Fourier, c'est se donner une innité
ikθ
Un autre point de vue, c'est de considérer directement S (f ) comme une fonction dénie
comme la somme des fonctions θ 7→ c (f )e . La série de Fourier de f peut donc
N
ikθ
être vue comme une série dont le terme général est à valeurs dans l'espace des fonctions
k
2π -périodiques.
Soit on se donne une innité de séries numériques, soit on se donne une seule série à valeurs
dans l'espace des fonctions.
Etudier une série de Fourier revient donc à étudier des séries. La diculté supplémentaire
majeure vient bien sûr du fait que θ varie. Plus précisément, plusieurs questions se posent :
1. Quelles conditions sur f (et donc sur les coecients ck (f )) doit-on imposer pour que la
série de Fourier de f converge ?
2. Quel sens donner à cette convergence ? est-ce vrai pour tout θ ∈ R? pour un seul θ? Y
a-t-il des θ pour lesquels la série converge, et d'autres pour lesquels elle ne converge pas ?
3. Dans le cas où la série converge, quel est le lien entre la somme de cette série et la fonction
f elle-même ? Représente-t-elle bien la fonction f? En quel sens ?
On en déduit donc
N (f )
N
a0 (f ) X
SN (f )(θ) = + (ak (f ) cos(kθ) + bk (f ) sin(kθ)) .
2
k=1
Démonstration. Remarquons donc que, par imparité de H H(0) = 0 , et H(θ) = −1 pour tout
θ ∈] − π, 0[. De plus, H est continue par morceaux, donc de carré intégrable sur [−π, π] (NB : il
est plus judicieux ici d'utiliser l'intervalle [−π, π] que l'intervalle [0, 2π], puisque nous connaissons
directement la fonction H sur cet intervalle). En particulier,
Z π
1
cn (H) = H(θ)e−inθ dθ,
2π −π
Z 0 Z π
1 1−inθ
=− e dθ + e−inθ dθ,
2π −π 2π 0
0 π
1 e−inθ 1 e−inθ
=− + ,
2π −in −π 2π −in 0
1 1
1 − einπ − e−inπ − 1 ,
=
2πin 2πin
1 n 1
= (1 − (−1) ) − ((−1)n − 1) .
2πin 2πin
On conclut en distinguant les cas n pairs et n impairs.
Remarquons qu'on a bien an (f ) = cn (f ) + c−n (f ) = 0, car H est impaire.
(
0 si n est pair
c (T ) = n
si n est impair.
2
n2 π
Z π
1
cn (T ) = T (θ)e−inθ dθ,
2π −π
Z 0 Z π
1 π −inθ 1 π −inθ
= θ+
e dθ + −θ + e dθ,
2π −π 2 2π 0 2
" #0 " #π !
π
−inθ e−inθ (−θ + π2 )
Z 0 Z π
1 e (θ + 2 ) 1 −inθ 1 1 −inθ
= + e dθ + − e dθ ,
2π −in in −π 2π −in in 0
−π 0
Distinguant selon les cas n pair et n impair dans l'égalité précédente, le résultat suit.
N
X N
X
p(θ) = αk eikθ = αk ek (θ),
k=−N k=−N
de dimension 2N + 1.
N
kf − SN (f )k22 ≤ kf − pk22 ,
c'est-à-dire
d d
Z 2π Z 2π
1 2 1
|f (θ) − SN (f )(θ)| θ≤ |f (θ) − p(θ)|2 θ.
2π 0 2π 0
Interprétons l'inégalité précédente en ayant à l'esprit la Remarque 5.1.4. Cette inégalité dit
précisément que SN (f ) est plus proche de f (au sens de la distance dénie par la norme N·2 ) que
n'importe quel polynôme trigonométrique de degré au plus N. Ainsi, SN (f ) réalise la meilleure
approximation de f parmi les polynômes trigonométriques de degré au plus N, au sens quadra-
tique.
Démonstration. Nous allons en fait prouver un résultat plus fort qui dit que, pour tout N ≥ 1,
Le résultat de la proposition est une conséquence immédiate de l'égalité précédente, car NSN (f ) − p22 ≥
0. Prouvons donc (5.4) : pour tout θ ∈ R,
N
X
hf − SN (f ) , SN (f ) − pi = (ᾱj − c̄j (f )) hf − SN (f ) , ej i .
j=−N
N
* +
X
hf − SN (f ) , ej i = f− hf , ek i ek , ej ,
k=−N
N
X
= hf , ej i − hf , ek i hek , ej i = hf , ej i − hf , ej i = 0.
k=−N
Théorème 5.4.2 (Inégalité de Bessel). Pour tout f ∈ L (0, 2π), pour tout N ≥ 1,
2
p
N
|ck (f )|2 ≤ kf k22 ,
X
kSN (f )k22 =
k=−N
c'est-à-dire
d
N Z 2π
12
|f (θ)|2 θ
X
|ck (f )| ≤
2π 0
k=−N
N N
* +
X X
kSN (f )k22 = ck (f )ek , cj (f )ej ,
k=−N j=−N
N N N
|ck (f )|2 ,
X X X
= ck (f )c̄j (f ) hek , ej i =
k=−N j=−N k=−N
ce qui prouve la première égalité. L'inégalité est une conséquence immédiate de (5.4), dans le cas
où p = 0.
Démonstration. La somme partielle de la série de terme général |ck (f )|2 est, par l'inégalité de
|ck (f )|2 ≥ 0
PN
Bessel majorée uniformément en N. Comme pour tout k , la suite k=−N |ck (f )|2
est croissante majorée donc convergente.
kf − SN (f )k22 →N →∞ 0,
c'est-à-dire
d
Z 2π
1
|f (θ) − SN (f )(θ)|2 θ →N →∞ 0.
2π 0
d
+∞
2π
|a0 (f )|2 1 X
Z
1
|f (θ)|2 θ = + |an (f )|2 + |bn (f )|2
2π 0 4 2
n=1
Démonstration. Il sut d'utiliser l'expression des coecients cn (f ) en fonction des coecients
an (f ) et bn (f ).
La série de terme général |ck (H)|2 est convergente, c'est-à-dire que la série de terme général
4
0, si k est pair et 2 2 si
k π
k est impair est convergente. Remarquons tout de suite que ce
4
résultat était évident, car la série de terme général est convergente, par critère de
(2p+1)2 π 2
Riemann.
On a de plus l'égalité :
Z 2π
1
|ck (H)|2 = |H(θ)|2 dθ.
X
2π 0
k∈Z
P 4 P 4
D'une part, le premier terme de cette égalité vaut kimpair k2 π 2 = 2 kimpair, k>0 k2 π 2
=
P+∞ 4
2 p=0 (2p+1)2 π 2 . D'autre part, comme |H(θ)| = 1 pour tout θ ∈]0, 2π[ non nul, le second
+∞
X 1 π2
= .
(2p + 1)2 8
p=0
La série de terme général |ck (T )|2 est convergente, c'est-à-dire que la série de terme général
4
0, si k est pair et
k4 π 2
si k est impair est convergente. Remarquons tout de suite que ce
4
résultat était évident, car la série de terme général est convergente, par critère de
(2p+1)4 π 2
Riemann.
On a de plus l'égalité : Z π
1
2
|T (θ)|2 dθ.
X
|ck (T )| =
2π −π
k∈Z
P 4 P 4
D'une part, le premier terme de cette égalité vaut kimpair k4 π 2 =2 kimpair, k>0 k4 π 2 =
P+∞ 4
2 p=0 (2p+1)4 π 2 . D'autre part,
Z π Z π
1 2 2
|T (θ)| dθ = |T (θ)|2 dθ, par parité de la fonction T
2π −π 2π 0
π2
et un calcul immédiat montre que ce terme vaut
12 . Nous obtenons donc
+∞
X 1 π4
= .
(2p + 1)4 96
p=0
5.4. CONVERGENCE EN MOYENNE QUADRATIQUE D'UNE SÉRIE DE FOURIER 67
Remarque 5.4.2. Comme une fonction continue par morceaux est de carré intégrable sur [0, 2π],
ce résultat est en particulier vrai pour une fonction continue continue par morceaux : la Propo-
sition 5.2.5 est prouvée.
Démonstration. C'est une conséquence immédiate du Corollaire 5.4.1.
n n
Remarque 5.4.3. Cette proposition devient fausse si f n'est pas continue. Contre-exemple : f
2π - périodique telle que f (0) = 1 et f (θ) = 0 pour tout θ ∈]0, 2π[. Alors c (f ) = 0 pour tout n
mais f n'est pas la fonction nulle.
n
Démonstration. Posons h = f −g 2π
, fonction continue -périodique. En particulier le théorème
de Parseval s'applique à h. Or, comme cn (f ) = cn (g), pour tout ∈ Z, il vient que cn (h) = 0
Rn 2π 2
pour tout n ∈ Z. L'égalité de Parseval implique en particulier que
0 |h(θ)| dθ = 0 et donc que
h est la fonction nulle, car h est continue. D'où le résultat.